OpenAI раскрывает случаи манипулирования иностранными делами с использованием искусственного интеллекта в Японии.

Команда исследователей OpenAI изучает кампании влияния, основанные на AI

Во время беседы с избранными японскими СМИ, включая газету Mainichi Newspapers, Бен Ниммо, Главный специалист по исследованиям в области разведки OpenAI, представил примеры иностранных вмешательств, включая направленные на Японию. На данный момент, основное применение ИИ в этих схемах заключается в создании текста.

Выявление вредного использования ИИ OpenAI

OpenAI сделала значительный прогресс с интерактивным ИИ, таким как ChatGPT. Согласно отчету, опубликованному 30 мая, компания обнаружила и приостановила учетные записи, связанные с пятью группами из России, Китая, Израиля и других стран, применявших свой ИИ в операциях влияния. Одним из отмеченных случаев было сетевое сообщество, якобы связанное с китайскими правоохранительными органами, известное как «Spamouflage». Они, по сообщениям, создали японские тексты, противодействующие выпуску обработанной воды из АЭС Фукусима в океан, используя технологии OpenAI, и дальше распространяли эти тексты через крупные платформы блогов.

Определение операций влияния

Ниммо описывает операции влияния как скрытые попытки повлиять на общественное мнение или политические события без раскрытия личности или намерений операторов — что является явным контрастом к простому распространению ложной или неточной информации. Он подчеркивает важность исследования не только содержимого, но и сущностей, организующих эти операции, и их поведенческих паттернов.

Несмотря на тщательное расследование, помимо «Spamouflage» не было найдено других организаторов кампании влияния на Японию, и такие операции, направленные на президентские выборы в США в ноябре, не были обнаружены. Преимущественно, ИИ использовался для создания или перевода текстов для социальных сетей или блогов в рамках данных усилий влияния. Злоупотребление сгенерированными изображениями считалось незначительным.

Тонкая грань между попыткой и фактическим манипулированием мнениями

Ниммо также различает между намерением манипулировать общественным мнением и успешным осуществлением такой манипуляции, указывая, что значительного влияния в ходе данного расследования не было обнаружено. Тем не менее, он выделил потенциальные контрмеры с использованием ИИ, которые могут значительно сократить время выполнения аналитических задач с часов или дней до минут.

Бен Ниммо имеет выдающийся опыт, он является сооснователем Лаборатории цифровой форензики совместно с Атлантическим советом и проводит расследования организованной преступности со стороны внутренних и международных источников в Meta.

Из вызовов и споров в кампаниях влияния на основе ИИ

Обнаружение и устранение вмешательства иностранных влияний, воспользующихся технологиями ИИ, разработанными OpenAI, представляет ряд вызовов и споров:

Различие между законным и вредоносным использованием: ИИ-инструменты широко доступны и могут быть использованы для законных целей, таких как перевод на язык, создание контента и другие. Различие между безобидным и злонамеренным использованием требует сложного анализа и часто субъективных оценок.

Ложные срабатывания: Попытки выявления операций влияния представляют риск ошибочного маркирования законных кампаний или пользователей, что может иметь последствия для свободы слова и цифровых прав.

Проблемы конфиденциальности: Исследование онлайн-поведения и пресечение операций влияния могут потребовать доступа к личным данным, что вызывает проблемы конфиденциальности и возможные нарушения.

Реакция регуляторов: Развивающаяся природа ИИ означает, что регулирующие органы часто отстают, и возникает вопрос о том, как законы и руководящие принципы должны быть адаптированы для борьбы с злоупотреблением таких технологий.

Преимущества борьбы с кампаниями влияния на основе ИИ

— Улучшенная безопасность: Выявление и устранение операций влияния способствует общему кибербезопасному положению стран и защите демократических процессов.

Осведомленность общественности: Раскрытие данных кампаний может увеличить осведомленность общественности о дезинформации и роли искусственного интеллекта в манипуляции информацией.

Технологический прогресс: Борьба с злоупотреблением может определять развитие более надежных и этичных систем ИИ.

Недостатки борьбы с кампаниями влияния на основе ИИ

Требовательность к ресурсам: Ведение расследований и противодействие операциям влияния требует значительных ресурсов: от вычислительной мощности до опытных аналитиков.

Эффект «кротовой норы»: Как только одна операция закрывается, другая может возникнуть, что приводит к непрерывному циклу обнаружения и реагирования.

Проблемы цензуры: Принятие мер, направленных на подавление операций влияния, может привести к обвинениям в цензуре или подавлении законного политического дискурса.

Для дополнительной информации об искусственном интеллекте и разработках в области технологии, пожалуйста, посетите официальный веб-сайт OpenAI по ссылке: link.

Privacy policy
Contact