Это дезинформация специально для вас

Дезинформация для вас

Сейчас уже понятно, что генеративное искусственное интеллект будет способствовать распространению дезинформации в интернете. От deepfake до фейковых новостей и ботов, ИИ будет генерировать не только больше дезинформации, но и более убедительную дезинформацию. Но то, что люди только начинают осознавать, – это то, как дезинформация станет более целенаправленной и лучше сможет взаимодействовать с людьми и повлиять на их мнения.

Когда Россия пыталась повлиять на президентские выборы в США 2016 года через теперь распущенное Интернет-исследовательское агентство, операцию вели люди, которые часто имели мало культурной подготовки или даже не владели английским языком и поэтому не всегда могли относиться к группам, на которые они нацеливались. С помощью инструментов генеративного ИИ те, кто осуществляет кампании дезинформации, смогут тонко настраивать свой подход, профилируя отдельных лиц и группы. Эти операторы могут создавать контент, который кажется легитимным и понятным для целевых аудиторий, а также нацеливаться на отдельных лиц с персонализированной дезинформацией на основе собранных данных. Эксперты говорят, что генеративное ИИ также значительно облегчит создание дезинформации и, следовательно, увеличит количество дезинформации, свободно распространяемой в Интернете.

“Генеративный ИИ снижает финансовый барьер для создания контента, который адаптирован для определенных аудиторий”, – говорит Кейт Старберд, доцент отдела дизайна и инженерии, ориентированных на человека, в Университете Вашингтона. “Вы можете адаптировать его под аудитории и убедиться, что повествование отражает ценности и убеждения этих аудиторий, а также стратегическую часть повествования”.

Вместо того, чтобы создавать всего несколько статей в день, Старберд добавляет: “Вы можете написать одну статью и адаптировать ее для 12 разных аудиторий. Это займет пять минут на каждую из них”.

Учитывая то, сколько контента люди публикуют в социальных сетях и других платформах, очень легко собрать данные для создания кампании дезинформации. Когда операторы способны профилировать различные группы людей по всей стране, они могут обучить используемую ими систему генеративного ИИ создавать контент, который манипулирует этими целями в очень сложных способах.

“Вы увидите возможность тонкой настройки. Вы увидите увеличение точности. Вы увидите увеличение актуальности”, – говорит Рене Диреста, технический руководитель исследований в Интернет-наблюдательной палате Стэнфорда.

Хани Фарид, профессор компьютерных наук в Университете Калифорнии, Беркли, говорит, что такой индивидуальной дезинформации будет “везде”. Хотя злоумышленники, вероятно, будут нацеливаться на группы людей при проведении крупномасштабной кампании дезинформации, они также могут использовать генеративный ИИ для нацеливания на отдельных лиц.

“Вы можете сказать что-то вроде: ‘Вот несколько твитов этого пользователя. Напишите мне что-то, что будет интересно для него’. Это будет автоматизировано. Я думаю, что это, вероятно, будет происходить”, – говорит Фарид.

Авторы дезинформации будут пробовать различные тактики, пока не найдут то, что работает лучше всего, говорит Фарид, и многое из того, что происходит с этими кампаниями дезинформации, вероятно, не будет полностью понято до тех пор, пока они не будут действовать некоторое время. Плюс, им нужно быть относительно эффективными, чтобы достичь своих целей.

“Если я хочу запустить кампанию дезинформации, я могу провалиться в 99 процентах случаев. Вы все время терпите неудачу, но это не имеет значения”, – говорит Фарид. “Время от времени QAnon проходит. Большая часть ваших кампаний может провалиться, но те, что не провалятся, могут навредить”.

Фарид говорит, что мы видели во время выборов 2016 года, как рекомендательные алгоритмы на платформах, таких как Facebook, радикализовали людей и способствовали распространению дезинформации и теорий заговора. В преддверии выборов в США 2024 года алгоритм Facebook, сам по себе являющийся формой ИИ, вероятно, будет рекомендовать не только контент, созданный полностью людьми, но и некоторые посты, созданные генеративным ИИ. Мы достигли момента, когда ИИ будет использоваться для создания дезинформации, которую затем рекомендует другой ИИ.

“Мы были довольно легко обмануты очень низкокачественным контентом. Мы находимся в периоде, когда мы получим дезинформацию и пропаганду более высокого качества”, – говорит Старберд. “Сейчас будет намного легче создавать контент, который адаптирован для конкретных аудиторий, чем когда-либо раньше. Я думаю, что мы просто должны осознать, что это уже здесь”.

Что можно сделать с этой проблемой? К сожалению, не так много. Диреста говорит, что людям нужно быть осведомленными об этих потенциальных угрозах и быть более осторожными в отношении контента, с которым они взаимодействуют. Она говорит, что, например, вам следует проверить, является ли ваш источник веб-сайтом или профилем в социальных сетях, созданным совсем недавно. Фарид говорит, что компании, занимающиеся ИИ, также должны быть подвергнуты давлению, чтобы внедрить меры безопасности, чтобы создавалось меньше дезинформации в целом.

Администрация Байдена недавно заключила сделку с некоторыми из крупнейших компаний по искусственному интеллекту — создателем ChatGPT OpenAI, Google, Amazon, Microsoft и Meta — что побуждает их создавать конкретные ограничения для своих инструментов искусственного интеллекта, в том числе внешнее тестирование и водяные знаки на контент, созданный искусственным интеллектом. Эти компании также создали группу, которая занимается разработкой стандартов безопасности для инструментов искусственного интеллекта, и Конгресс обсуждает вопрос о регулировании искусственного интеллекта.

Несмотря на такие усилия, искусственный интеллект развивается быстрее, чем его удается ограничить, и Силиконовая долина часто не выполняет обещания выпускать только безопасные, проверенные продукты. И даже если некоторые компании ведут себя ответственно, это не означает, что все участники этой сферы будут действовать соответствующим образом.

«Это классическая история последних 20 лет: Запустить технологию, нарушить приватность всех, навредить, стать компаниями со стоимостью в триллионы долларов и потом сказать: „Ну да, случились некоторые плохие вещи“,» — говорит Фарид. «Мы повторяем те же ошибки, только теперь это усиливается, потому что мы выпускаем эти вещи на основе мобильных устройств, социальных сетей и уже имеющегося беспорядка».