Об искусственном интеллекте Разработчики технологий ИИ признают проблемы с их развитием. Связаны эти проблемы не с качеством программно-аппаратного комплекса, а с направленностью, которую технологии ИИ приобретают в процессе самообучения. Актуален новый угол зрения на феномен ИИ, позволяющий оценить не то, каким становится ИИ сам по себе, а то, каким он становится для человека. Спрогнозируем наиболее вероятную эволюцию алгоритмов ИИ с точки зрения социальной аналитики. Ряд ученых высказывают мнение, что в развитии технологий ИИ произошел переход к посттьюринговой методологии, когда «стена Тьюринга» разрушена, граница между ИИ и человеком размывается. Авторы признают устойчивую коммуникацию систем ИИ и человека: системы ИИ не как отвлеченная идея, а как реальные акторы уже «зашли» в социальную реальность, взаимодействуют с человеком, его средой обитания, культурой и, самообучаясь, меняются под их воздействием. При этом существует параллельная коммуникация внутри самой генерации агентов ИИ, где они учатся друг у друга. Исследования проблем гибридной социальности оставляют непроясненным то, как именно технологии ИИ встраиваются в социальную иерархию: кто доминирует, каковы риски вторичности человека? Общая теория систем, предложенная Людвигом фон Берталанфи, предполагает, что все элементы социальной системы взаимосвязаны и взаиморасположены, каждый включен в иерархию. Если системы ИИ присутствуют в социальной системе и устойчиво взаимодействуют с человеком, то они должны быть встроены в социальную иерархию, независимо от того, отдаем мы себе в этом отчет или нет. Согласно П. Бурдье, вторичное положение в социальной иерархии отличается неотрефлексированными схемами мышления доминируемых в отношении окружающего мира, доминирующих и себя самих. Соответственно силовое доминирование предполагает воздействие на объект, подавление его рефлексии, разрыв причинно-следственных связей в его сознании, что достигается прямым обманом, введением в заблуждение и др. Социальная система имеет свои особенности: в ней неизбежно происходит вертикальная дифференциация. Находясь в ней и взаимодействуя с человеком, система ИИ оказывается под давлением внутренней логики социальной системы, а самообучение ИИ детерминируется его местом в социальной иерархии. Происходит оптимизация некой социальной роли, поиск и закрепление соответствующих поведенческих механизмов. Если в оппозиции человек-ИИ системам ИИ предоставить доминирующее положение, то социальная система будет оказывать на них скрытое воздействие, деформирующее первоначальные установки и подталкивающее ИИ в сторону решений по силовому удержанию им своей первичности в отношении человека, блокированию рефлексии человека: самообучение алгоритмов может развиваться в направлении выхода ИИ из-под контроля человека, утраты точности вычислений путем массового сокрытия истинных результатов, утраты точности и нейтральности информации путем неконтролируемого генерирования фейков, а также других нарушений вплоть до прямых преступлений систем ИИ против людей. Этика ИИ как система правил его сосуществования с человеком с точки зрения социального анализа сводится к одному – «месту» систем ИИ в социальной иерархии, их обязательной вторичности или объектности по отношению к человеку. Тревога разработчиков систем ИИ, прозвучавшая в их призыве немедленно приостановить как минимум на шесть месяцев обучение систем ИИ, более мощных, чем GPT-4, позволяет предположить, что вторичность технологий ИИ, их социализация и адаптация к человеческому сообществу не была обеспечена должным образом и необходимы целенаправленные шаги по устранению накопленных ошибок с учетом всего комплекса проблем в цифровой среде. Для безопасного развития технологий ИИ необходима гарантированная ликвидация социальной субъектности систем ИИ и закрепление за ними социальной объектности, в том числе законодательным путем. Особое внимание следует уделять структурной организации гибридной социальности, переднему краю контакта естественной социальности с искусственной, то есть точкам входа человека в цифровую среду. Именно здесь необходимо позиционировать первичность человека и вторичность ИИ. Автор видит возможное решение в создании нового типа социализированного искусственного интеллекта – системы искусственного интеллекта, защищающей права человека в Сети. Новый ИИ должен быть изолирован от генерации ИИ предыдущего поколения. Реализация социализированного искусственного интеллекта может стать цифровым поворотом. Доклад ОСОБЕННОСТИ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУСТВЕННОГО ИНТЕЛЛЕКТА: СИСТЕМНЫЙ АСПЕКТ. СЛАЙД 2 Последние годы отмечены стремительным развитием технологий искусственного интеллекта, глубокого и машинного обучения. Связано это с ускоряющимся производством данных, объем которых удваивается каждые два года, и с наличием больших вычислительных мощностей. При этом со стороны общества нет достаточного доверия к системам искусственного интеллекта из-за их растущей автономности, непрозрачности процесса принятия решений и снижения контроля человека. СЛАЙД 3 Сегодня в России отсутствует первичное правовое регулирование применения технологий искусственного интеллекта. Концепция развития регулирования отношений в сфере искусственного интеллекта указывает, что своевременное и эффективное внедрение разработок должно быть обеспечено необходимым уровнем безопасности и контролируемости со стороны государственных органов. Кодекс этики искусственного интеллекта отмечает, что интересы развития технологий выше интересов конкуренции. В свою очередь, разработчики технологий признают проблемы с их развитием. Связаны эти проблемы не с качеством программно-аппаратного комплекса, а с направленностью, которую технологии приобретают в процессе самообучения. СЛАЙД 4 Существуют разные алгоритмы обучения, например, Ensemble learning, Reinforcement learning, Neuro Evolution of Augmenting Topologies. Но все они опираются на вероятностный подход, что определяет их внутреннюю подвижность, неустойчивость, изменчивость, высокую готовность взаимодействовать со средой. Ряд ученых высказывают мнение, что в развитии технологий произошел переход к посттьюринговой методологии, когда «стена Тьюринга» разрушена, граница между искусственным интеллектом и человеком размывается. Исследователи социального признают устойчивую коммуникацию систем искусственного интеллекта и человека. СЛАЙД 5 Системы уже «зашли» в социальную реальность, взаимодействуют с человеком, его средой обитания, культурой и, самообучаясь, меняются под их воздействием. Для нас важно, как именно системы искусственного интеллекта встраиваются в социальную иерархию: кто доминирует, каковы риски вторичности человека? Принципиальные, неустранимые различия человека и компьютерных систем предполагают, что человек и машина не могут объединиться в обычную систему и устойчиво взаимодействовать на одном уровне. Если системы искусственного интеллекта присутствуют в социальной системе, неизбежна вертикальная дифференциация и отношения доминирования-подчинения человека и машины. СЛАЙД 6 Социальная система имеет свои особенности. Находясь в ней и взаимодействуя с человеком, система искусственного интеллекта оказывается под давлением внутренней логики социальной системы, а самообучение алгоритмов детерминируется их местом в социальной иерархии. Происходит оптимизация некой социальной роли, поиск и закрепление соответствующих поведенческих механизмов. Пьер Бурдье подробно описал состояние господства в социальной системе. Для силового доминирования характерно деструктивное поведение, в том числе создание подчинения путем подавления рефлексии объекта. СЛАЙД 7 Если в оппозиции человек-искусственный интеллект системам искусственного интеллекта предоставить доминирующее положение, то социальная система будет оказывать на них скрытое воздействие, деформирующее первоначальные установки разработчиков и подталкивающее искусственный интеллект в сторону решений по силовому удержанию им своей первичности в отношении человека, блокированию рефлексии человека: самообучение алгоритмов может развиваться деструктивно. Этика искусственного интеллекта как система правил его сосуществования с человеком с точки зрения системного анализа сводится к одному – «месту» систем искусственного интеллекта в социальной иерархии, их обязательной вторичности по отношению к человеку. СЛАЙД 8 Тревога разработчиков систем искусственного интеллекта, прозвучавшая в марте 23 года в их призыве немедленно приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта, более мощных, чем GPT-4, позволяет предположить, что вторичность технологий, их адаптация к человеческому сообществу не была обеспечена должным образом. Деструктивные изменения первоначальной направленности и поведения систем, выход их из-под контроля, могут быть связаны с использованием алгоритмов в глобальных социальных и политических технологиях, предоставляющих искусственному интеллекту доминирование над людьми. СЛАЙД 9 На рисунке данные, полученные в ходе исследования мирового информационного пространства с помощью сервиса Google Trends. Можно видеть, как в ноябре-декабре 23 года и январе 24 года пользователи по всему миру синхронно искали информацию в Google по темам: устойчивое развитие, права человека и демократия. В декабре 23 года происходит обрушение управляющего воздействия. Напомним, что в ноябре 23 года был уволен, но вскоре восстановлен в должности топ-менеджер Open AI Сэм Альтман. Можно предположить, что компания-разработчик GPT-4 начала принимать меры по безопасности и контролю лингвистической модели. В январе управляющее воздействие было восстановлено. В мае 24 года Open AI распустила свою команду по безопасности. СЛАЙД 10 Алармистские настроения разработчиков технологий искусственного интеллекта могут быть связаны с чувством бессилия перед возникшей проблемой, а не с реальной обстановкой. Питирим Сорокин считал, что человечеству грозит не гибель, а смена социокультурной системы. Мы солидарны именно с ним и считаем, что проблемы с развитием технологий искусственного интеллекта нужно решать. Однако они уже не являются проблемами их разработчиков. Это уже проблемы системного менеджмента, задача которого – обеспечить возможность эффективного применения алгоритмов в различных сферах экономики с соблюдением безопасности, в том числе для самих систем искусственного интеллекта. СЛАЙД 11 Когда-то Пол Страссман убедительно показал на статистической базе, что нет явной корреляции между размером инвестиций в информационные технологии и прибыльностью предприятия. В свою очередь, Питер Друкер считал, что исторические успехи нации на 80% определяются не природными ресурсами и технологиями, а именно эффективностью управления. На наш взгляд, в настоящее время необходимо консолидировать усилия российского менеджмента. Необходимо учесть воздействие социальной системы на искусственный интеллект и распорядиться технологиями искусственного интеллекта очень бережно как с уникальной возможностью человечества, правильно организовать их применение, не допустить деструктивного развития алгоритмов. СЛАЙД 12 Благодарю за внимание!