Застройка машины искусственного интеллекта для распространения дезинформации стоит всего $400

Создание ИИ для распространения дезинформации - $400

В мае российское государственное СМИ “Спутник Интернешнл” опубликовало целую серию твитов, в которых критиковались внешнеполитические действия США и атаковалось администрацию Байдена. Каждый из них получал короткий, но грамотно составленный ответ от аккаунта под названием CounterCloud, иногда включающий ссылку на соответствующую новость или мнение. Он также реагировал на твиты российского посольства и китайских новостных изданий, критикующих США.

Критика США со стороны России – не редкость, но материалы CounterCloud были необычными: твиты, статьи и даже журналисты и новостные сайты были полностью созданы алгоритмами искусственного интеллекта, по словам человека, стоящего за проектом, который называет себя Nea Paw и утверждает, что его целью является привлечение внимания к опасности массового производства дезинформации с использованием ИИ. Paw не публиковал твиты и статьи CounterCloud публично, но предоставил их ENBLE и также создал видео, в котором рассказывается о проекте.

Paw утверждает, что является профессионалом в области кибербезопасности и предпочитает оставаться анонимным, поскольку некоторые могут считать проект несерьезным. Кампанию CounterCloud по противодействию российскому месседжингу создавали с использованием технологии генерации текста OpenAI, такой же, как у ChatGPT, и других доступных инструментов ИИ для создания фотографий и иллюстраций, говорит Paw, всего за примерно 400 долларов.

Paw говорит, что проект показывает, что широко доступные генеративные инструменты ИИ значительно облегчают создание сложных информационных кампаний в поддержку государственной пропаганды.

“Я не думаю, что существует универсальное решение для этой проблемы, так же, как нет универсального решения для фишинговых атак, спама или социальной инженерии”, – говорит Paw в электронной почте. Возможны меры смягчения, такие как обучение пользователей быть бдительными к манипулирующему контенту, создание генеративных ИИ-систем с блокировкой злоупотреблений или оснащение браузеров инструментами обнаружения ИИ. “Но я думаю, что ни одна из этих вещей не является действительно элегантной, дешевой или особенно эффективной”, – говорит Paw.

В последние годы исследователи дезинформации предупреждали, что модели языка на основе ИИ могут быть использованы для создания высоко персонализированных пропагандистских кампаний и для управления аккаунтами в социальных сетях, взаимодействующих со пользователями в утонченных формах.

Рени ДиРеста, технический менеджер по исследованиям Интернет-наблюдательного пункта Стэнфордского университета, отслеживающего информационные кампании, говорит, что статьи и профили журналистов, созданные в рамках проекта CounterCloud, вполне убедительны.

“Помимо государственных акторов, агентства управления социальными медиа и наемники, предлагающие услуги операций влияния, несомненно, начнут использовать эти инструменты и включать их в свои рабочие процессы”, – говорит ДиРеста. Распространение фальшивого контента и его активное распространение вызывает трудности, но это можно сделать, платя влиятельным пользователям за его распространение, добавляет она.

Уже появились некоторые свидетельства использования ИИ-технологий для онлайн-дезинформационных кампаний. Недавно академические исследователи обнаружили грубую бот-сеть, продвигающую криптовалюты, предположительно работающую на базе ChatGPT. Команда заявила, что это открытие указывает на то, что ИИ, стоящий за чат-ботом, уже используется для более сложных информационных кампаний.

Легитимные политические кампании также обратились к использованию ИИ перед президентскими выборами в США в 2024 году. В апреле Республиканский национальный комитет выпустил видеоролик, в котором атаковал Джо Байдена с использованием поддельных, созданных ИИ изображений. И в июне социальный медиа-аккаунт, связанный с Роном Десантисом, включил в видеоролик, предназначенный для дискредитации Дональда Трампа, созданные ИИ изображения. Федеральная комиссия по выборам заявила, что может ограничить использование дипфейков в политической рекламе.

Мика Массер, исследователь, изучающий потенциал дезинформации моделей языка на основе ИИ, ожидает, что основные политические кампании будут использовать языковые модели для создания рекламных материалов, сбора средств или атакующей рекламы. “Сейчас это очень нестабильный период, когда не очень ясно, какие нормы действуют”, – говорит он.

Массер говорит, что большая часть ИИ-генерируемого текста остается достаточно общей и легко обнаруживается. Однако, по его словам, если люди будут тонко настраивать ИИ-генерируемый контент, распространяющий дезинформацию, это может быть очень эффективно и практически невозможно остановить с помощью автоматических фильтров.

Генеральный директор OpenAI Сэм Альтман заявил в твите в прошлом месяце, что он обеспокоен тем, что искусственный интеллект его компании может быть использован для создания нацеленной и автоматизированной дезинформации в масштабах.

Когда OpenAI впервые предоставила доступ к своим технологиям генерации текста через API, она запретила любое политическое использование. Однако в марте этого года компания обновила свою политику, чтобы запретить использование с целью массового производства сообщений для конкретных демографических групп. Статья в The Washington Post недавно указывает на то, что GPT сам по себе не блокирует генерацию такого материала.

Ким Малфачини, руководитель отдела политики продукта в OpenAI, говорит, что компания изучает, как ее технология генерации текста используется для политических целей. Она говорит, что люди пока еще не привыкли предполагать, что контент, который они видят, может быть создан ИИ. “Вероятно, использование ИИ-инструментов во всех отраслях будет только расти, и общество будет к этому адаптироваться”, – говорит Малфачини. “Но на данный момент я думаю, что люди все еще находятся в процессе обновления”.

Поскольку сейчас широко доступны множество похожих инструментов искусственного интеллекта, включая модели с открытым исходным кодом, которые можно использовать без ограничений, избирателям следует осознать использование искусственного интеллекта в политике как можно скорее.