OpenAI останавливает обманное влияние с помощью искусственного интеллекта в 5 кампаниях

Как аналитик с опытом работы в области технологий и кибербезопасности, я нахожу недавние раскрытия OpenAI относительно использования ее технологии искусственного интеллекта в тайных операциях влияния одновременно тревожными и интригующими. Это яркое напоминание о том, как передовые модели искусственного интеллекта могут быть использованы в качестве оружия для манипулирования общественным мнением и влияния на политические результаты.


OpenAI, ведущая компания в области искусственного интеллекта, основанная Сэмом Альтманом, недавно сообщила, что приняла меры против нескольких тайных кампаний, пытающихся злоупотребить ее технологией для манипулирования общественным мнением. В частности, 30 мая организация объявила о закрытии аккаунтов, занимающихся скрытой деятельностью по оказанию влияния.

Как криптоинвестор, я внимательно следил за недавними объявлениями OpenAI. И позвольте мне сказать вам, я был очень рад узнать, что за последние три месяца мы успешно сорвали не менее пяти тайных операций, пытающихся использовать наши модели для мошеннических действий в Интернете.

Эти люди использовали искусственный интеллект (ИИ) для создания комментариев к статьям, создания персонажей в социальных сетях, а также для проверки и исправления переводов текста.

Как мы противодействуем попыткам тайных операций влияния использовать ИИ обманным путем:

— OpenAI (@OpenAI), 30 мая 2024 г.

Одна операция под названием «Спамуфляж» использовала ресурсы OpenAI для исследования социальных сетей и создания многоязычного контента на различных платформах, таких как X, Medium и Blogspot. Это было сделано с целью сформировать общественное мнение и повлиять на политические решения. Кроме того, они использовали технологию искусственного интеллекта для устранения проблем с кодированием и контроля за базами данных и веб-сайтами.

В альтернативной кампании, получившей название «Плохая грамматика», в центре внимания оказались четыре страны, включая Украину, Молдову, страны Балтии и США. Эта тайная инициатива использовала модели OpenAI для управления ботами Telegram и получения политических результатов. Кроме того, в рамках деятельности этой группы технология искусственного интеллекта использовалась для отладки кода, администрирования баз данных и управления веб-сайтами.

Третья группа, получившая название «Двойники», использовала технологию искусственного интеллекта для создания комментариев на нескольких языках, таких как английский, французский, немецкий, итальянский и польский. Их целью было распространить эти комментарии на популярных платформах, таких как X и 9GAG, с целью повлиять на общественные настроения.

Иранский киберактёр по имени «Международный союз виртуальных медиа» (IUVM) постоянно публикует онлайн-контент, который защищает Иран, унижая при этом как Израиль, так и США.

Как аналитик, я заметил, что базирующаяся в Израиле коммерческая компания STOIC производит контент, связанный с конфликтом в Газе, профсоюзной организацией Гистадрут в Израиле и выборами в Индии. Этот проект, который мы называем «Ноль Зенона», вдохновлен основателем стоической школы философии. Однако участие в их кампаниях было относительно низким.

В своем заявлении OpenAI отметила, что темы, рассматриваемые различными организациями, охватывают широкий спектр, включая вторжение России в Украину, столкновения в секторе Газа, выборы в Индии, европейскую и американскую политику, а также критику администрации Китая как со стороны китайских диссидентов, так и со стороны иностранных правительств.

Недавно я наткнулся на отчет, написанный Беном Ниммо, главным исследователем OpenAI. Он поделился с The New York Times некоторыми реальными примерами наиболее известных и продолжительных кампаний влияния, которые в настоящее время попадают в заголовки газет.

Как исследователь, изучающий последние разработки OpenAI, я обнаружил, что, несмотря на открытие новых операций, согласно их собственным наблюдениям, не произошло заметного увеличения вовлеченности аудитории или охвата их услуг.

Смотрите также

2024-05-31 09:56