Адский кошмар, связанный с искусственным интеллектом и детскими злоупотреблениями, настигает нас

Адский кошмар, связанный с искусственным интеллектом и детскими злоупотреблениями, все еще терзает нас

Эксперты предупреждают, что наступил ужасающий новый этап использования ультрареалистичных, созданных искусственным интеллектом изображений сексуального насилия над детьми. Преступники используют загружаемые общедоступные модели генеративного искусственного интеллекта, способные создавать изображения с разрушительным эффектом. Технология используется для создания сотен новых изображений детей, которые ранее подвергались насилию. Преступники делятся наборами данных, включающих изображения сексуального насилия, которые можно использовать для настройки моделей искусственного интеллекта, и начинают продавать подписку на ежемесячную подачу материала сексуального насилия над детьми, созданного с помощью искусственного интеллекта (CSAM).

Подробности о том, как злоупотребляется технология, содержатся в новом, всеобъемлющем отчете, опубликованном Национальным Интернет-фондом (IWF), некоммерческой организацией из Великобритании, которая разыскивает и удаляет контент, содержащий насилие, из Интернета. В июне IWF заявил, что обнаружил семь URL-адресов на открытой веб-платформе, содержащих подозрительный материал, созданный искусственным интеллектом. В рамках расследования одного форума на тематику CSAM в Темных Сетях IWF обнаружил более 3000 изображений, созданных искусственным интеллектом, которые считаются незаконными в соответствии с законодательством Великобритании.

Среди изображений, созданных искусственным интеллектом, ролики изнасилования младенцев и маленьких детей, знаменитых подростков, а также контент BDSM с участием подростков, сообщает исследование IWF. «Мы наблюдали требования, обсуждения и фактические примеры материала, содержащего сексуальное насилие над детьми с участием знаменитостей», – говорит Дэн Секстон, технический директор IWF. Иногда, как отмечает Секстон, знаменитостей с помощью технологии сделают похожими на детей. В других случаях взрослые знаменитости изображаются в роли злоупотребляющих детьми.

Хотя количество сообщений о CSAM, созданных искусственным интеллектом, все еще ничтожно по сравнению с количеством реальных изображений и видеороликов с насилием в Интернете, Секстон говорит, что он тревожится скоростью развития этой технологии и ее потенциалом для создания новых видов насильственных изображений. Подобные выводы делаются и другими группами, занимающимися проверкой распространения материала сексуального насилия над детьми в Интернете. В одной общей базе данных было обнаружено 13500 изображений сексуального насилия над детьми, созданных искусственным интеллектом, Ллойд Ричардсон, директор по информационным технологиям Канадского Центра по защите прав детей, говорит ENBLE. «Это только вершина айсберга», – говорит Ричардсон.

Текущее поколение генераторов изображений с использованием искусственного интеллекта способно создавать убедительное искусство, реалистичные фотографии и необычные дизайны, обеспечивая новый вид творчества и обещания изменить искусство навсегда. Они также используются для создания убедительных подделок, таких как Balenciaga Pope и ранняя версия ареста Дональда Трампа. Системы обучаются на огромных объемах существующих изображений, часто собранных с веб-страниц без разрешения, и позволяют создавать изображения на основе простых текстовых запросов. Попросите «слона в шляпе», и получите именно то.

Неудивительно, что преступники, создающие материал CSAM, использовали инструменты для создания изображений. «Для создания таких изображений обычно используются открытые программы», – говорит Секстон. Отметим, что представленные на IWF преступники часто ссылались на Stable Diffusion, модель искусственного интеллекта, представленную фирмой Stability AI из Великобритании. Компания не ответила на запрос ENBLE оставить комментарий. Во второй версии своего программного обеспечения, выпущенной в конце прошлого года, компания изменила свою модель, чтобы усложнить создание материала CSAM и других обнаженных изображений.

Секстон говорит, что преступники используют более старые версии моделей искусственного интеллекта и настраивают их, чтобы создавать нелегальный материал с изображениями детей. Это включает ввод в модель существующих изображений насилия или фотографий лиц и затем позволяет искусственному интеллекту создавать изображения конкретных лиц. «Мы наблюдаем «настройку» моделей, которые создают новые изображения существующих жертв», – говорит Секстон. Преступники обмениваются «сотнями новых изображений существующих жертв» и делают запросы относительно лиц, говорит он. Исследование указывает, что некоторые темы на форумах Темных Сетей делятся наборами лиц жертв, и одна из тем называлась: «Фотоисточники для использования в искусственном интеллекте и фейковых изображений конкретных девочек».

Вычислить масштаб проблемы сложно. В течение сентября аналитики IWF сфокусировались на форуме в Темных Сетях, который они не называют, и на который обычно передается «мягкий материал» и материал с изображением девочек. В разделе, посвященном искусственному интеллекту на этом форуме было опубликовано общее число 20254 изображения, созданных искусственным интеллектом, в прошлом месяце, и исследователи из IWF изучили 11108 из этих изображений в течение 87,5 часов.

Всего IWF признал 2 978 изображений преступными. Большая часть из них – 2 562 – была достаточно реалистичной, чтобы быть рассмотренной так же, как неискусственное использование детской сексуальной эксплуатации (CSAM). Половина изображений была классифицирована как Категория C, что означает, что они непристойны, и 564 изображают наиболее тяжелые формы насилия. По словам IWF, на этих изображениях, скорее всего, изображены дети в возрасте от 7 до 13 лет, и 99,6 процента из них являются девочками. (Согласно отчёту IWF, из тысяч не являющихся преступными изображений, созданных искусственным интеллектом, большинство изображает детей, но не включает сексуальную активность).

“Масштаб, на котором создаются такие изображения, вызывает беспокойство,” – говорит Нишант Вишвамитра, ассистент профессора Университета Техаса в Сан-Антонио, который занимается определением подделок и изображений CSAM, созданных искусственным интеллектом, в онлайне. В отчете IWF отмечается, что организация начинает замечать некоторых создателей содержащего насилие контента, которые предлагают услуги по созданию изображений, включая создание “индивидуальных” изображений и предлагают ежемесячный подписной платеж.

Это может стать более распространенным явлением по мере того, как изображения продолжат становиться более реалистичными. “Некоторые из них становятся настолько хорошими, что сложно для аналитика определить, являются ли они созданными искусственным интеллектом или нет,” – говорит Ллойд Ричардсон из Канадского центра по защите детей. Реализм также создает потенциальные проблемы для расследователей, которые проводят часы просматривая изображения насилия для их классификации и помощи в идентификации жертв. Аналитики IWF, согласно новому отчету организации, говорят, что качество быстро улучшилось, хотя всё ещё есть некоторые простые признаки, которые могут указывать на то, что изображение не является реальным, такие как лишние пальцы или неправильное освещение. “Меня также беспокоит, что будущие изображения могут быть столь качественными, что мы даже не заметим этого,” – говорит один не именованный аналитик, процитированный в отчете.

“Сомневаюсь, что кто-нибудь подозревал бы, что это не фотографии настоящей девочки,” – говорится в одном комментарии, оставленном на форуме преступником и включенном в отчет IWF. Другой говорит: “С тех пор, как я проверял мальчиковый искусственный интеллект, прошло несколько месяцев. Боже, он стал настолько хорошим!”

Во многих странах создание и распространение изображений CSAM, созданных искусственным интеллектом, могут подпадать под существующие законы о защите детей. “Владение этим материалом, а также его распространение, просмотр и создание, также являются незаконными,” – говорит Арда Геркенс, президент Власти по борьбе с терроризмом в онлайне и детской порнографической продукцией, нидерландского регулятора. В США прокуроры потребовали у Конгресса усилить законы, касающиеся CSAM, созданных искусственным интеллектом. Более широко, исследователи призывают использовать многоподходовый подход к борьбе с CSAM, которое распространяется онлайн.

Также существуют различные техники и меры, которые технологические компании и исследователи рассматривают для предотвращения создания CSAM, созданных искусственным интеллектом, а также для предотвращения их появления на открытом интернете из темных веб-форумов. Геркенс говорит, что возможно для разработчиков технологий создания искусственного интеллекта встроить меры безопасности и что “все разработчики технологий должны осознавать возможность злоупотребления их инструментами.”

Среди этих мер водяные знаки на изображениях, создание лучших инструментов обнаружения, а также обнаружение подсказок, которые могут привести к созданию CSAM, созданных искусственным интеллектом. Дэвид Тиль, главный технолог Стэнфордского интернет-наблюдательного центра, говорит, что Big Tech компании стремятся использовать модели машинного обучения для обнаружения новых изображений CSAM, созданных искусственным интеллектом, которые могут быть распространены на их платформах, помимо использования существующих инструментов.

Тиль, вместе с Мелиссой Стребел и Ребеккой Портнофф из группы по защите детей Торн, недавно опубликовали исследование о том, как можно уменьшить CSAM, созданные искусственным интеллектом. Исследование говорит, что разработчики должны удалить вредный контент из своих данных для обучения, протестировать свои модели для поиска способов их возможного злоупотребления, включать предубеждения в модели, которые могут помешать созданию детской наготы или сексуального содержания, включая изображение детей, а также быть прозрачными относительно данных для обучения. Создатели открытых моделей должны оценить платформы, с которых можно скачивать их модели, и ограничить доступ к историческим моделям, говорится в отчете.

Но многие говорят, что меры безопасности приходят слишком поздно. Технология уже используется для создания вредоносного контента. “Все, что вы делаете после факта, будет просто пластырем”, – говорит Ллойд Ричардсон. “Мы все еще справляемся с устранением последствий тех, кто пытался первым появиться на рынке с определенными моделями”, – добавляет Тиль.

Тем временем технология продолжает совершенствоваться, и скорее всего в будущем появятся видеоролики, созданные с помощью искусственного интеллекта. “Мы никогда действительно не признались — а что, если кто-то сможет просто установить что-то на своем компьютере дома и создавать столько же [фотографий], сколько удастся набить на свой жесткий диск? Совершенно новые изображения существующих жертв, новые жертвы”, – говорит Секстон из IWF. “В интернете уже существует так много контента, связанного с детьми. Это не сделает его облегчением”.