Инструмент отравления данных позволяет художникам противостоять скрапингу искусственного интеллекта. Вот как это работает.

Инструмент отравления данных помогает художникам сдерживать скрапинг искусственного интеллекта. Вот как он функционирует.

nightshade-gettyimages-1671640109

Одной из основных проблем, о которой недавно заговорили, является скрапинг данных искусственного интеллекта. AI-компании используют этот процесс для обучения своих AI-моделей, захватывая данные с интернет-источников без разрешения владельцев. Скрапинг данных может иметь особо негативное влияние на визуальных художников, чьи работы используются для создания нового искусства в текст-в-изображение моделях. Однако теперь возможно появление решения.

Исследователи Университета Чикаго создали инструмент под названием Nightshade, который позволяет художникам “загрязнять” свое цифровое искусство, чтобы предотвращать обучение AI-инструментов на их работах.

Также: Еще веселье с DALL-E 3 в ChatGPT: может ли он разработать футболку?

Используя Nightshade, художники могут вносить изменения в пиксели своего искусства, которые невидимы для человеческого глаза, но приводят к нарушению работы генеративной AI-модели в “хаотических” и “непредсказуемых” вариантах, согласно MIT Technology Review, который получил эксклюзивный просмотр исследования.

Защита приводит к тому, что генеративные AI-модели становятся бесполезными в результате изменения их обучения, что позволяет моделям перепутать предметы друг с другом.

Например, модель может научиться распознавать собаку как кошку, что приведет к производству неправильных изображений, не соответствующих текстовому запросу.

Согласно исследовательской работе, ядовитые образцы Nightshade могут испортить Stable Diffusion запрос менее чем за 100 образцов, как показано на изображении ниже.

Помимо придания ядовитости конкретному термину, ядовитость также влияет на связанные термины.

Например, в приведенном выше примере термин “собака” будет затронут, а также его синонимы, такие как “щенок”, “охотничья собака” и “хаски”, согласно исследовательской работе.

Корреляция между терминами необязательно должна быть такой прямой, как в приведенном примере. Например, авторы работы дополняют, как при “загрязнении” термина “фантастическое искусство” также “загрязняется” фраза “картина Майкла Уэлана”, известного создателя фантастического искусства.

Существуют различные потенциальные защитные механизмы, которые могут быть применены к моделям обучения, включая фильтрацию данных с высоким потерей, методы обнаружения позиции и удаление загрязнений, однако все три механизма не являются полностью эффективными.

Также: Согласно сообщениям, Apple скоро внедрит AI на свои устройства

Кроме того, удаление загрязненных данных из модели оказывается сложной задачей, так как компании, работающие с AI, придется удалять каждый отдельный испорченный образец.

Nightshade имеет потенциал не только отпугнуть AI-компании от использования данных без разрешения, но также поощрять пользователей быть осторожными при использовании этих генеративных AI-моделей.

Были предприняты и другие попытки уменьшить проблему использования работ художников без их разрешения. Некоторые модели генерации изображений AI, такие как генератор изображений Getty Images и Adobe Firefly, используют только те изображения, которые были одобрены художником или являются общедоступными для обучения и компенсации художника.