Новый инструмент для коррупции создает проблемы для технологий преобразования текста в изображения | ENBLE

Новый коррупционный инструмент создает проблемы для технологий преобразования текста в изображения | ENBLE

Профессиональные художники и фотографы, раздраженные тем, что фирмы, занимающиеся генеративным искусственным интеллектом, используют их работы для обучения своей технологии, вскоре могут получить эффективный способ отозваться, не обращаясь в суд.

Генеративный ИИ привлек внимание, когда год назад был запущен чат-бот ChatGPT от OpenAI. Этот инструмент умеет общаться очень естественным, почти человеческим образом, но для этого ему пришлось быть обученным на огромном количестве данных с веб-страниц.

Подобные инструменты генеративного ИИ также могут создавать изображения по текстовым подсказкам, но, как и ChatGPT, они обучаются на скрапинге изображений, опубликованных в сети.

Таким образом, работы художников и фотографов используются – без согласия или компенсации – технологическими компаниями для развития их инструментов генеративного ИИ.

Для борьбы с этим была создана команда исследователей, разработавших инструмент с названием Nightshade, способным запутать модель обучения, приводя ее к выводу ошибочных изображений в ответ на подсказки.

Недавно в статье MIT Technology Review описывается, что Nightshade “отравляет” данные обучения, добавляя невидимые пиксели к произведению искусства перед его загрузкой в сеть.

“Использование его для ‘отравления’ этих данных обучения может повредить будущие версии моделей ИИ, создающих изображения, таких как DALL-E, Midjourney и Stable Diffusion, делая некоторые из их результатов бесполезными – собаки превращаются в кошек, машины в коров и так далее”, – говорится в докладе MIT.

Хотя инструменты, создающие изображения, уже впечатляют и продолжают совершенствоваться, способ их обучения вызывает споры, и многие создатели этих инструментов сталкиваются со судебными исками со стороны художников, утверждающих, что их работы были использованы без разрешения или оплаты.

Профессор Университета Чикаго Бен Джао, возглавляющий научно-исследовательскую команду Nightshade, сказал, что такой инструмент может помочь вернуть власть художникам, послав предупреждение технологическим фирмам, не уважающим авторское право и интеллектуальную собственность.

“Наборы данных для больших моделей ИИ могут состоять из миллиардов изображений, поэтому чем больше “отравленных” изображений могут быть включены в модель, тем больше повреждений причинит эта техника”, – говорится в отчете MIT Technology Review.

Команда, работающая над Nightshade, планирует сделать его открытым исходным кодом, чтобы другие могли его усовершенствовать и сделать более эффективным.

Сознавая потенциал для нарушений, команда, работающая над Nightshade, говорит, что он должен использоваться “в качестве последней защиты для создателей контента от веб-скрейперов”, не уважающих их права.

В попытке решить эту проблему, создатель DALL-E, OpenAI недавно начал позволять художникам удалять свои работы из его данных обучения, но этот процесс описывается как чрезвычайно трудоемкий, так как художнику нужно отправить копию каждого изображения, которое он хочет удалить, а также описание этого изображения, причем каждый запрос требует отдельного заявления.

Упрощение процесса удаления может существенно снизить желание художников прибегать к использованию инструмента, подобного Nightshade, что в долгосрочной перспективе может причинить гораздо больше проблем OpenAI и другим.