Что такое искусственный интеллект и зачем он нужен
Искусственный интеллект – это свойство интеллектуальной системы выполнять
те функции и задачи, которые обычно характерны для разумных существ. Это может быть проявление каких-то творческих способностей, склонность к рассуждению, обобщение, обучение
на основании полученного ранее опыта и так далее.
Его развитием занимается направление науки, в рамках которого происходит аппаратное
или программное моделирование тех задач человеческой деятельности, что считаются интеллектуальными. Еще под ИИ часто подразумевают направление в IT, основной целью которого является воссоздание разумных действий и рассуждений с помощью компьютерных систем. Его развитием занимается направление науки, в рамках которого происходит аппаратное или программное
моделирование тех задач человеческой деятельности, что считаются интеллектуальными. Еще под
ИИ часто подразумевают направление в IT, основной целью которого является воссоздание разумных действий и рассуждений с помощью компьютерных систем.
История возникновения и развития искусственного интеллекта
Впервые термин artificial intelligence (с английского переводится как «искусственный интеллект») был упомянут в 1956 году Джоном МакКарти, основателем функционального программирования и изобретателем языка Lisp, на конференции в Университете Дартмута.
Однако сама идея подобной системы была сформирована в 1935 году Аланом Тьюрингом. Ученый дал описание абстрактной вычислительной машине, состоящей из безграничной памяти и сканера, перемещающегося вперед и назад по памяти. Однако позднее, в 1950 году, он
предложил считать интеллектуальными те системы, которые в общении не будут отличаться от
человека.
Тогда же Тьюринг разработал эмпирический тест для оценки машинного интеллекта. Он
показывает, насколько искусственная система продвинулась в обучении общению и удастся ли ей
выдать себя за человека.
Самая ранняя успешная программа искусственного интеллекта была создана Кристофером
Стрейчи в 1951 году. А уже в 1952 году она играла в шашки с человеком и удивляла зрителей своими
способностями
предсказывать
ходы.
По
этому
поводу
в
1953
году
Тьюринг опубликовал статью о шахматном программировании.
В 1965 году специалист Массачусетского технологического университета Джозеф Вайценбаум разработал программу «Элиза», которая ныне считается прообразом современной Siri.
В 1973 году была изобретена «Стэндфордская тележка», первый беспилотный автомобиль, контролируемый компьютером. К концу 1970-х интерес к ИИ начал спадать.
Новое развитие искусственный интеллект получил в середине 1990-х. Самый известный
пример – суперкомпьютер IBM Deep Blue, который в 1997 году обыграл в шахматы чемпиона мира Гарри Каспарова. Сегодня подобные сети развиваются очень быстро за счет цифровизации информации, увеличения ее оборота и объема. Машины довольно быстро анализируют информацию
и обучаются, впоследствии они действительно приобретают способности, ранее считавшиеся чисто человеческой прерогативой.
Отличие ИИ от нейросетей и машинного обучения
Нейросети представляют собой математическую модель, компьютерный алгоритм, работа
которого основана на множестве искусственных нейронов. Суть этой системы в том, что ее не
нужно заранее программировать. Она моделирует работу нейронов человеческого мозга, проводит
элементарные вычисления и обучается на основании предыдущего опыта, но это не соотносимо с
ИИ.
Искусственный интеллект, как мы помним, является свойством сложных систем выполнять
задачи, обычно свойственные человеку. К ИИ часто относят узкоспециализированные компью-
2
терные программы, также различные научно-технологические методы и решения. ИИ в своей работе имитирует человеческий мозг, при этом основывается на прочих логических и математических алгоритмах или инструментах, в том числе нейронных сетях.
Под машинным обучением понимают использование различных технологий для самообучающихся программ. Соответственно, это одно из многочисленных направлений ИИ. Системы,
основанные на машинном обучении, получают базовые данные, анализируют их, затем на основе
полученных выводов находят закономерности в сложных задачах со множеством параметров и
дают точные ответы. Один из наиболее распространенных вариантов организации машинного
обучения – применение нейросетей.
Если сравнивать с человеком, то ИИ подобен головному мозгу, машинное обучение – это
один из многочисленных способов обработки поступающих данных и решения назревающих задач, а нейросети соответствуют объединению более мелких, базовых элементов мозга – нейронов.
«Антифрод и борьба с манипуляцией алгоритмами»
В настоящее время отмечается тенденция по манипулированию результатами измерений
просмотра или прослушивания контента на видехостингах и на стриминговых платформах. Недобросовестные лица различными техническими способами намеренно «накручивают» просмотр/прослушивание определенных произведений, что влияет на распределение средств среди
площадок и правообладателей.
Добросовестные правообладатели получают меньше отчислений, при этом недобросовестные лица, «накрутившие» свой рейтинг, получают больше.
Манипуляции с цифровыми объектами, в том числе имитация в больших масштабах
естественной деятельности и профилей пользователей посредством автоматизированных процессов, манипулятивные учетные записи, угрожают доверию потребителей и компаний к цифровым товарам и услугам.
В ходе такой манипуляции воспроизведение аудио и видео контента производится человеком или машинными средствами, но не представляет собой просмотр или прослушивание реальными пользователями. Манипуляции со стриминговыми сервисами могут производиться в
отношении отдельных произведений или групп записей с целью искусственного улучшения позиций в чартах, увеличения рыночной доли, увеличения отчислений роялти или для других мошеннических или недобросовестных целей.
Манипуляции с сервисами могут не только нанести экономический ущерб поставщикам
сервисов, правообладателям, исполнителям и рекламодателям, но также исказить впечатления
СМИ и поклонников и понимание ими популярности отдельных единиц контента, а также
нанести вред потребительскому опыту и получению удовольствия от сервисов за счет влияния
на результаты алгоритмического воспроизведения. Помимо экономического ущерба, это также
наносит вред правообладателям, предоставляя им потенциально вводящие в заблуждение и искусственные данные.
Таким образом, манипулирование просмотром и прослушиванием контента приводит к
искажению реальных пользовательских предпочтений.
Среди факторов, свидетельствующих о манипулировании, можно отметить:
• необычно высокая доля либо бесплатных, либо премиум-просмотров;
• необычно высокая доля определенных типов устройств;
• необычно высокая доля мобильных устройств по сравнению с настольными;
• подозрительное количество пропусков (в целом и/или по отдельным клиентам);
• подозрительная продолжительность воспроизведения (например,трек постоянно пропускается после 31 или 53 секунд - в целом и/или для отдельных клиентов);
• необычное количество воспроизведений одним отдельным пользователем (отметка даты/времени/продолжительность);
• все просмотры поступают из одного определенного списка воспроизведения;
• пользователи, проявляющие подозрительное поведение с точки зрения местоположения, времени суток, в которое они транслируют (например, посреди ночи, в то время как раньше они обычно получали контент только днем).
3
Борьба с таким фродом, накрутками и иными формами внешней манипуляции рекомендациями, когда это не связано с рекламой, является серьезным вызовом для всех сервисовплатформ.
Владельцам сервисов рекомендуется использовать комплексный подход, включающий
использование систем информационной безопасности, мониторинг и фильтрацию подозрительных пользовательских действий, совершенных с одного IP-адреса или имеющих признаки автоматической генерации, а также иные административные меры, направленные на демотивацию контрагентов и пользователей к злоупотреблениям. Также рекомендуется реагировать на
обращения лиц, чьи права и законные интересы могли быть нарушены в ходе манипуляций алгоритмами.
Рекомендательные системы, применяемые в социальных сервисах-платформах, могут
оказывать существенное влияние на «вирусное» распространение информации, часть которой
может содержать недостоверные или даже общественно-опасные сведения, вызывать тревогу
или наносить иной ущерб. При этом такая информация может не отвечать критериям, однозначно относящих её в категорию запрещенной.
. Одним из подходов, позволяющих снизить риск стремительного распространения деструктивной информации, может быть реализация функционала жалоб. Пользователи, выявившие деструктивный или опасный характер материала, должны иметь возможность сформировать жалобу или поставить соответствующую отметку
В свою очередь алгоритмам рекомендательных систем следует учитывать эти жалобы,
отметки и иные формы оценки негативного потенциала конкретных материалов при включении
их в рекомендации, в т.ч. блокировать попадание в рекомендации объектов, на которые поступила критическая масса жалоб пользователей – даже вопреки общему количеству признаков
широкого интереса пользователей к такому объекту.
Там, где это применимо, допускается внедрение рекомендаций, предлагающие пользователю совершить те или иные действия в целях сохранения своего здоровья, в т.ч. прервать использование сервиса для разминки, отдыха или сна.
Например, предположим, агрегатор доставки из ресторанов замечает, что потребитель заказывает только жирный фаст-фуд, этично ли явным образом предложить ему более
здоровую пищу? У Netflix есть функционал «вы все еще смотрите?», вопрос возникает, когда
продолжительность безостановочного просмотра достигает нескольких часов. При отсутствии ответа в течение нескольких минут воспроизведение останавливается, т.к. сервис
предполагает, что зритель уснул. Бортовой компьютер BMW предлагает водителю прерваться на отдых или кофе после нескольких часов езды без остановки.
«Справедливый и ответственный искусственный интеллект для потребителей»
В последние годы искусственный интеллект стал неотъемлемой частью цифрового мира,
проникнув в большинство сфер жизни людей от профессиональной деятельности до развлечений, оказав огромное влияние на развитие ключевых областей экономики - банкинга, ретейла,
медицины и промышленности.
В первую очередь распространено применение голосовых помощников, роботов ассистентов, чат-ботов. «Чат-боты могут не отличать правду от неправды и выдавать вымышленные
факты за реальные, в результате чего потребители могут получить недостоверную информацию
и сделать ошибочные выводы».
Искусственный интеллект стал неотъемлемой частью цифрового мира и проникнул в
большинство сфер жизни людей. К тому же, нейросети оказывают влияние на развитие ключевых сфер экономики: банкинга, ретейла, медицины и промышленности.
Использование искусственного интеллекта, в том числе чат-ботов, несет некоторую
опасность. Например, результаты генерации могут быть неточными или даже недостоверными.
Несмотря на множество преимуществ искусственного интеллекта, его применение может
иметь серьезные последствия для безопасности потребителей, такие как распространение лож-
4
ной информации и нарушение конфиденциальности. В настоящее время правовой статус искусственного интеллекта законодательно не определен.
Однако, в рамках федерального проекта «Искусственный интеллект» и стратегия развития информационного общества на 2017-2030 гг. разработан кодекс этики искусственного интеллекта. Кодекс этики в сфере искусственного интеллекта, устанавливает общие этические
принципы и стандарты поведения в этой области.
В случае, если Продавец/Исполнитель в своей деятельности использует ресурсы искусственного интеллекта для предоставления потребителям информацию о своих товарах/Услугах,
то такая информация должна быть достоверная.
Общий перечень информации о товарах (работах, услугах), который в обязательном порядке должен быть доведен до потребителя, содержится в п. 2 ст. 10 Закона. Кроме того, специальные перечни содержат иные нормативные акты, регулирующие отдельные виды отношений
в сфере защиты прав потребителей.
В соответствии со ст. 12 Закона РФ от 07.02.1992 № 2300-1 «О защите прав потребителей», если потребителю не предоставлена возможность незамедлительно получить при заключении договора информацию о товаре (работе, услуге), он вправе потребовать от продавца (исполнителя) возмещения убытков, причиненных необоснованным уклонением от заключения
договора, а если договор заключен, в разумный срок отказаться от его исполнения и потребовать возврата уплаченной за товар суммы и возмещения других убытков.
Кроме того, следует учитывать, что использование рекомендательных сервисов для
предложения пользователям товаров и услуг, которые явно рассчитаны на определенную целевую аудиторию и могут быть негативно восприняты за пределами этой аудитории.
Рекомендуется учитывать, что ряд товаров и сервисов могут быть крайне чувствительными, и использование рекомендательных сервисов для продвижения таких товаров и услуг
должно иметь ограничение, например товаров и услуг:
• для взрослых (18+);
• религиозного характера;
• ритуального характера;
• которые могут способствовать разжиганию конфликтов или
межнациональной розни.