Большой искусственный интеллект не остановит выборочные подделки с помощью водяных знаков

ИИ не остановит подделки водяными знаками

В мае фальшивое изображение взрыва возле Пентагона стало вирусным в Twitter. Вскоре за ним последовали изображения, которые, казалось, показывали взрывы возле Белого дома. Эксперты по манипуляции и дезинформации быстро отметили, что изображения, похоже, были сгенерированы искусственным интеллектом, но не до того, как на бирже начался спад.

Это был только последний пример того, как фальшивый контент может иметь тревожные последствия в реальном мире. Рост генеративного искусственного интеллекта означает, что инструменты для создания фальшивых изображений и видео, а также для создания большого объема убедительного текста, теперь свободно доступны. Эксперты по дезинформации говорят, что мы вступаем в новую эпоху, где становится все сложнее отличить реальное от нереального.

На прошлой неделе крупные компании по искусственному интеллекту, включая OpenAI, Google, Microsoft и Amazon, обещали правительству США, что они будут стараться смягчить возможные вредные последствия от своих технологий. Но это не сможет остановить надвигающуюся волну контента, созданного искусственным интеллектом, и возникающую от этого путаницу.

Белый дом заявляет, что «добровольное обязательство» компаний включает «разработку надежных технических механизмов, чтобы пользователи знали, когда контент создан искусственным интеллектом, таких как система водяных знаков», в рамках усилий по предотвращению использования искусственного интеллекта для «мошенничества и обмана».

Но эксперты, с которыми говорил WIRED, говорят, что эти обязательства являются полумерами. «Нельзя будет просто ответить «да» или «нет» на вопрос о том, создан ли что-то искусственным интеллектом, даже с водяными знаками», – говорит Сэм Грегори, директор программы в некоммерческой организации Witness, которая помогает людям использовать технологии для продвижения прав человека.

Водяные знаки широко используются агентствами по картинам и новостными агентствами для предотвращения использования изображений без разрешения и оплаты.

Но когда речь идет о разнообразии контента, который может создавать искусственный интеллект, и о множестве уже существующих моделей, все становится сложнее. Пока что нет стандарта для водяных знаков, что означает, что каждая компания использует свой метод. Например, Dall-E использует видимый водяной знак (и быстрый поиск в Google покажет вам много учебников о том, как его удалить), в то время как другие сервисы могут использовать метаданные или водяные знаки на уровне пикселей, невидимые для пользователей. Хотя некоторые из этих методов могут быть сложными для отмены, другие, такие как визуальные водяные знаки, иногда могут оказаться неэффективными, когда изображение изменяется в размере.

«Существуют способы, которыми можно испортить водяные знаки», – говорит Грегори.

В заявлении Белого дома явно упоминается использование водяных знаков для аудио- и визуального контента, созданного искусственным интеллектом, но не для текста.

Существуют способы пометить текст, созданный с помощью инструментов, таких как ChatGPT от OpenAI, путем изменения способа распределения слов, делая определенное слово или набор слов более часто встречающимися. Это может быть обнаружено машиной, но не обязательно человеческим пользователем.

Это означает, что водяные знаки должны быть интерпретированы машиной, а затем указаны зрителю или читателю. Это усложняется смешанным медийным контентом, таким как элементы аудио, изображения, видео и текста, которые могут появляться в одном видео TikTok. Например, кто-то может разместить реальное аудио на изображении или видео, которое было изменено. В этом случае платформам нужно будет разработать способ пометить, что компонент, но не все видео, был создан с помощью искусственного интеллекта.

И просто пометка контента как созданного искусственным интеллектом мало помогает пользователям определить, является ли что-то злонамеренным, вводящим в заблуждение или предназначенным для развлечения.

«Очевидно, что подделанные медиа не являются фундаментально плохими, если вы создаете видео TikTok и они предназначены для развлечения», – говорит Хани Фарид, профессор Школы информации при Университете Калифорнии в Беркли, который сотрудничал с компанией Adobe над своей инициативой по подлинности контента. «Здесь действительно важным будет контекст. Вопрос будет дальше сложным, но платформы уже 20 лет борются с этими проблемами».

И растущее место искусственного интеллекта в сознании общественности открывает возможности для другой формы манипуляции медиа. Как пользователи могут предполагать, что созданный искусственным интеллектом контент является реальным, само существование синтетического контента может вызывать сомнения в подлинности любого видео, изображения или текста, позволяя злоумышленникам утверждать, что даже подлинный контент является фальшивым – это так называемый «дивиденд лжеца». Грегори говорит, что большинство недавних случаев, с которыми сталкивалась организация Witness, не связаны с глубокфейками, используемыми для распространения лжи; это люди, пытающиеся представить реальные медиа как созданные искусственным интеллектом.

В апреле законодатель в южном индийском штате Тамилнад заявил, что утечка аудиозаписи, в которой он обвинил свою партию в краже более чем 3 миллиарда долларов, была «создана машиной» (что не так). В 2021 году в недели, следующие за военным переворотом в Мьянме, видео женщины, делающей упражнения на танцевальном поприще, пока за ней движется военный конвой, стало вирусным. Многие в Интернете утверждали, что видео было подделано. (Оно не было).

В настоящее время мало что может остановить злонамеренного действующего лица от нанесения водяных знаков на реальный контент, чтобы сделать его поддельным. Фарид говорит, что одним из лучших способов защиты от фальсификации или искажения водяных знаков является использование криптографических подписей. “Если вы OpenAI, у вас должен быть криптографический ключ. И водяной знак будет содержать информацию, которая могла быть известна только человеку, удерживающему ключ”, – говорит он. Другие водяные знаки могут быть на уровне пикселей или даже в тренировочных данных, из которых ИИ учится. Фарид указывает на Коалицию для контента, происхождения и образования, которую он рекомендует, как стандарт, который компании ИИ могут принять и следовать ему.

“Мы быстро входим в этот период, когда все труднее и труднее верить всему, что мы читаем, видим или слышим в Интернете”, – говорит Фарид. “И это означает, что мы не только будем обмануты фальшивыми вещами, но и не будем верить настоящим вещам. Если бы сегодня была опубликована запись Трампа из Access Hollywood, у него было бы возможное отрицание”, – говорит Фарид.