Мошенники использовали ChatGPT, чтобы запустить криптоботнет на X.

Mошенники использовали ChatGPT для криптоботнета на X.

ChatGPT может революционизировать поиск веб-сайтов, оптимизировать офисные задачи и перевернуть систему образования, но этот гладкоречивый чат-бот также нашел применение в качестве крипто-мошенника в социальных сетях.

Исследователи из Индианского университета Блумингтон обнаружили ботнет, работающий на основе ChatGPT на платформе X, ранее известной как Twitter, в мае этого года.

Ботнет, который исследователи назвали Fox8 из-за связи с веб-сайтами криптовалют, названными похожим образом, состоял из 1 140 учетных записей. Многие из них, казалось, использовали ChatGPT для создания сообщений в социальных сетях и для ответов на сообщения других пользователей. Автоматически сгенерированный контент, по-видимому, был создан с целью привлечь ничего не подозревающих людей к переходу по ссылкам на сайты с рекламой криптовалюты.

Мика Массер, исследователь, изучавший потенциал использования искусственного интеллекта для дезинформации, говорит, что ботнет Fox8 может быть лишь вершиной айсберга, учитывая популярность больших моделей языка и чат-ботов. “Это низко висящий плод”, – говорит Массер. “Очень вероятно, что за каждой обнаруженной кампанией стоит много других, которые занимаются более сложными вещами”.

Хотя ботнет Fox8 был обширным, его использование ChatGPT не было особо изощренным. Исследователи обнаружили ботнет, ища на платформе фразу “В качестве языковой модели ИИ …”, которую ChatGPT иногда использует для ответов на чувствительные темы. Затем они вручную анализировали учетные записи для определения тех, которые, казалось, управлялись ботами.

“Единственная причина, по которой мы заметили этот конкретный ботнет, заключается в том, что они были небрежны”, – говорит Филиппо Менцер, профессор Индианского университета Блумингтон, проводивший исследования вместе с Кай-Чен Янгом, студентом, который в следующем учебном году присоединится к Норт-Вестернскому университету в качестве постдокторанта.

Несмотря на это, ботнет размещал много убедительных сообщений, рекламирующих сайты с криптовалютой. Очевидная легкость, с которой искусственный интеллект OpenAI был задействован в этой мошеннической схеме, означает, что передовые чат-боты могут управлять другими ботнетами, которые еще не были обнаружены. “Любой хороший плохой парень не сделает такую ошибку”, – говорит Менцер.

На момент публикации OpenAI не отреагировала на запрос о комментариях относительно ботнета. Политика использования их моделей искусственного интеллекта запрещает использование их для мошенничества или дезинформации.

ChatGPT и другие передовые чат-боты используют так называемые большие языковые модели для генерации текста в ответ на запрос. С достаточным количеством данных для обучения (большая часть из которых собрана из различных источников в сети), достаточной вычислительной мощности и обратной связи от людей, тестировавших систему, боты, такие как ChatGPT, могут отвечать на широкий спектр запросов в удивительно сложных формах. В то же время они также могут высказывать ненавистные сообщения, проявлять социальные предубеждения и придумывать вещи.

Правильно настроенный ботнет на основе ChatGPT будет сложно заметить, он будет способен обмануть пользователей и более эффективно влиять на алгоритмы, используемые для приоритизации контента в социальных сетях.

“Он обманывает и платформу, и пользователей”, – говорит Менцер о ботнете, работающем на основе ChatGPT. И если алгоритм социальных медиа замечает, что сообщение имеет много взаимодействий, даже если эти взаимодействия происходят от других ботов, оно будет показано большему количеству людей. “Вот почему эти боты ведут себя так”, – говорит Менцер. Кроме того, он добавляет, что правительства, стремящиеся вести дезинформационные кампании, скорее всего уже разрабатывают или применяют подобные инструменты.

Исследователи давно беспокоятся о том, что технология, лежащая в основе ChatGPT, может создавать риск дезинформации, и сам OpenAI даже отложил выпуск предшественника этой системы из-за подобных опасений. Однако до сих пор есть немного конкретных примеров миссбрука больших языковых моделей. Некоторые политические кампании уже используют искусственный интеллект, причем выдающиеся политики делятся дезинформационными видео, созданными с помощью deepfake-технологий, чтобы посрамить своих оппонентов.

Уильям Ванг, профессор Калифорнийского университета в Санта-Барбаре, считает, что изучение реального преступного использования ChatGPT – это захватывающая возможность. “Их результаты довольно интересны”, – говорит он о работе Fox8.

Ванг считает, что сейчас многие спам-страницы генерируются автоматически, и говорит, что людям становится все сложнее замечать такой контент. И с постоянным совершенствованием искусственного интеллекта эта задача только усложняется. “Ситуация довольно плохая”, – говорит он.

В мае его лаборатория разработала технику автоматического отличия текста, сгенерированного ChatGPT, от реального человеческого письма, но он говорит, что это дорогое решение из-за использования API OpenAI, и отмечает, что основной искусственный интеллект постоянно совершенствуется. “Это своего рода игра в кошки-мышки”, – говорит Ванг.

X может стать плодородной почвой для таких инструментов. Менцер говорит, что злонамеренные боты стали гораздо более распространенными с тех пор, как Илон Маск стал владельцем того, что тогда было известно как Twitter, несмотря на обещание технологического магната устранить их. И изучать проблему стало сложнее из-за резкого повышения цен на использование API.

Как кажется, кто-то из X снял ботнет Fox8 после публикации статьи Менцера и Янга в июле. Группа Менцера раньше предупреждала Twitter о новых находках на платформе, но больше этого не делает с X. “Они не очень отзывчивы”, – говорит Менцер. “У них действительно мало персонала”.