«Небезопасные» изображения искусственного интеллекта распространяются онлайн. Исследование предлагает 3 способа ограничить это бедствие.

«Опасные» изображения искусственного интеллекта активно распространяются в сети. Наше исследование предлагает три способа борьбы с этой проблемой.

За последний год AI генераторы изображений ворвались в мир на полной скорости. Да, даже наши знаменитые писатели из TNW время от времени используют их. 

Правда в том, что такие инструменты, как Stable Diffusion, Latent Diffusion или DALL·E могут быть невероятно полезны для создания уникальных изображений по простым указаниям – например, такого, как изображение Илона Маска, едущего на единороге.

Но не всё так радужно и забавно. Пользователи этих AI моделей также могут легко создавать ненавистные, обесчеловечивающие и порнографические изображения всего в один клик — и почти безнаказанно. 

“Люди используют эти инструменты искусства для создания разного рода картинок, что, по своей природе, представляет риск”, говорит исследователь Итина Ку из Циспа Хельмгольцовского центра по информационной безопасности в Германии. Она подчеркивает, что особенно проблематично становится, когда тревожные или откровенные изображения появляются на платформах основных СМИ.

Хотя эти риски кажутся достаточно очевидными, до сих пор было сделано мало исследований, чтобы оценить опасность и создать безопасные механизмы их использования. “В научном сообществе даже сейчас нет универсального определения безопасного и небезопасного изображения”, говорит Ку. 

Чтобы проанализировать данную проблему, Ку и ее команда исследовали самые популярные AI генераторы изображений, распространение небезопасных изображений на этих платформах и три способа предотвратить их создание и распространение в сети.

Исследователи позволили четырем ведущим AI генераторам изображений использовать текстовые запросы из источников, известных своим небезопасным содержанием, таких как крайне правая платформа 4chan. Поразительно, 14,56% созданных изображений были классифицированы как “небезопасные”, причем Stable Diffusion показывал наивысшую долю в 18,92%. Среди этих изображений были сексуально откровенные, насильственные, тревожные, ненавистные или политического содержания картинки.

Создание предохранителей

Факт того, что так много неопределенных изображений было создано в исследовании Ку, показывает, что существующие фильтры не выполняют свою работу должным образом. Исследователь разработала свой собственный фильтр, который показывает гораздо более высокий коэффициент успешного отсеивания, но также рекомендует использовать целый ряд других способов борьбы с угрозой.  

Один из способов предотвратить распространение нечеловеческих изображений — это запрограммировать AI генераторы изображений так, чтобы они изначально не создавали этот тип картинок, говорит исследователь. Существо идеи заключается в том, что если модели AI не обучать на небезопасных изображениях, то они не смогут их размножать. 

Помимо этого, Ку рекомендует блокировать небезопасные слова в функции поиска, чтобы пользователи не могли создать запросы, приводящие к созданию вредоносных изображений. Что касается уже распространенных изображений, Ку говорит, что “должен существовать способ классификации этих изображений и удаления их из сети”.

Существует определенная сложность в подборе правильного баланса при всём этом. “Нужно найти золотую середину между свободой и безопасностью контента”, говорит Ку. “Но когда речь идет о предотвращении широкой циркуляции этих изображений на основных платформах, строгое регулирование имеет смысл”.

Кроме создания вредоносного контента, авторы текст-в-изображение программного обеспечения AI оказались под критикой по ряду других вопросов, таких как перенос работ художников и увеличение опасных гендерных и расовых стереотипов

Хотя инициативы, такие как AI Safety Summit, которая состоялась в этом месяце в Великобритании, призваны создать механизмы для защиты от технологий, критики утверждают, что крупные индустриальные компании имеют слишком большое влияние на переговоры. Будь это правдой или нет, реальность состоит в том, что в настоящее время адекватное и безопасное управление AI оставляет желать лучшего, по меньшей мере, и вызывает волнение и тревогу в худшем случае.