Deepfakes, шантаж и опасности генеративного искусственного интеллекта

Deepfakes, шантаж и опасности ГИИ

Возможности генеративного искусственного интеллекта развиваются с каждым днем, но поддельные видео и изображения уже наносят реальный вред, пишет Дэн Перселл, основатель Ceartas io.

Недавнее обращение ФБР предупреждает о возможных опасностях, которые представляют deepfake технологии для онлайн-приватности и безопасности. Известно, что киберпреступники эксплуатируют и шантажируют людей, цифрово изменяя их изображения в непристойные фейки и угрожая опубликовать их в сети, если не выплатить определенную сумму денег.

Это и другие предпринятые меры подходят. Однако, я считаю, что проблема уже гораздо более широко распространена, чем это осознает кто-либо, и требуются срочные усилия для борьбы с ней.

Почему Deepfake так легко находятся?

Что беспокоит меня вредоносных deepfake, так это легкость их обнаружения. Вместо темных, мрачных уголков Интернета, они находятся в основных приложениях социальных медиа, которые у большинства из нас уже есть на смартфонах.

Законопроект о наказании за распространение deepfake сексуальных изображений других лиц

10 мая сенаторы Миннесоты приняли законопроект, который, после утверждения, будет наказывать тех, кто распространяет deepfake сексуальные изображения других лиц без их согласия. Законопроект был принят почти единогласно и также включает тех, кто распространяет deepfake для незаконного влияния на выборы или нанесения ущерба политическим кандидатам.

Другие штаты, которые приняли аналогичное законодательство, включают Калифорнию, Вирджинию и Техас.

Я рад принятию этого законопроекта и надеюсь, что он скоро полностью вступит в силу. Однако, я считаю, что требуется более строгое законодательство во всех штатах США и в мировом масштабе. В этом вопросе ЕС является лидером.

Сенат Миннесоты и предупреждения ФБР

Я очень оптимистичен, что решительные действия сената Миннесоты и предупреждения ФБР вызовут национальную дискуссию по этому важному вопросу. Мои причины для оптимизма профессиональные, но также очень личные. Несколько лет назад бывший партнер загрузил интимные сексуальные изображения меня без моего согласия.

Нет защиты для пострадавшего — пока что

Фотографии были в Интернете около двух лет, прежде чем я узнал об этом, и когда я узнал, это было исключительно неприятно и травмирующе. Мне почти невероятным казалось, что такой поступок может быть совершен без возможности привлечения к ответственности виновника или защиты для пострадавшего. Однако это стало толчком для моего будущего бизнеса, и я обязался разработать решение, которое позволит отслеживать, находить, проверять и в конечном итоге удалять контент неконсенсуального характера.

Deepfake изображения, привлекшие всемирный интерес

Недавно интерес к себе привлекли deepfake изображения, включающие арест бывшего президента Дональда Трампа, стильное белое пуховое пальто Папы Франциска и президента Франции Эммануэля Макрона, работающего сводным рабочим. Последнее произошло во время забастовок против пенсионной реформы во Франции. Немногие зрители были обмануты, но эти фотографии запоминаются своим реализмом. Ущерб? Пока что нет, но потенциал есть.

Президент Байден обратился к этому вопросу

Президент Байден, недавно обсуждавший опасности искусственного интеллекта с лидерами технологической индустрии в Белом доме, оказался в центре скандала с deepfake в апреле этого года. После объявления о намерении выставить свою кандидатуру на повторное избрание в 2024 году на президентских выборах США, Республиканский национальный комитет ответил на это видеороликом на YouTube, в котором атаковал президента, используя полностью сгенерированные искусственным интеллектом изображения. Маленький оговор в верхнем левом углу видео указывал на это, но оговорка была настолько маленькой, что существует вероятность, что некоторые зрители могут принять изображения за реальные.

Если бы РНК выбрал другой путь и сосредоточилась на возрасте и подвижности Байдена, использование deepfake изображений его в доме престарелых или на инвалидной коляске могло бы повлиять на выборы их подходящости для должности на еще один срок в четыре года.

Манипуляция изображениями может быть крайне опасной

Несомненно, манипуляция такими изображениями может быть чрезвычайно опасной. 1-я поправка предполагает защиту свободы слова. С технологией deepfake рациональный и продуманный политический дебат теперь находится под угрозой. Я вижу, что политические атаки становятся все более хаотичными по мере приближения 2024 года.

Если президент США может оказаться в такой уязвимой позиции в отношении защиты своей чести, ценностей и репутации, то какую надежду имеют остальные граждане мира?

Некоторые deepfake видео более убедительны, чем другие, но я обнаружил в своей профессиональной жизни, что их созданию необходимы не только высококвалифицированные компьютерные инженеры. Ноутбук и базовые навыки работы с компьютером могут быть практически всем, и также существует множество онлайн-ресурсов для получения информации.

Узнайте разницу между настоящим и поддельным видео

Для тех из нас, кто работает непосредственно в области технологий, обнаружить разницу между настоящим и поддельным видео относительно просто. Но способность широкой общественности распознавать deepfake может быть не такой простой. Всемирное исследование 2022 года показало, что 57 процентов потребителей заявили, что они могут определить deepfake видео, в то время как 43 процента утверждали, что они не могут отличить подделку от настоящего видео.

Эта группа, безусловно, включает в себя тех, кто достиг возраста голосования. Это означает, что убедительные deepfake могут определить исход выборов, если видео, на которое есть сомнения, связано с политическим кандидатом.

Генеративное ИИ

Музыкант и автор песен Стинг недавно опубликовал заявление, предупреждая, что авторы песен не должны быть самодовольными, так как они теперь конкурируют с системами генеративного ИИ. Я понимаю его точку зрения. Группа, называемая Кампания по человеческому искусству, в настоящее время проводит онлайн-петицию, чтобы сохранить человеческое выражение “в центре творческого процесса и защитить жизненные интересы и работу создателей”.

В петиции утверждается, что ИИ никогда не сможет заменить человеческие достижения и творчество. Один из нескольких способов, которыми ИИ может копировать голос музыканта или стиль композиции, заключается в обучении большого объема данных с использованием TDM (текстового и анализа данных).

ИИ может быть полезен для нас, людей.

Хотя я могу видеть, как ИИ может быть полезен для нас, людей, меня беспокоят вопросы, связанные с правильным управлением генеративного ИИ в организациях. Среди них отсутствие прозрачности, утечка данных, предвзятость, токсичный язык и нарушение авторских прав.

Нам необходимы более строгие нормативные акты и законодательство.

Без более строгого регулирования генеративный ИИ угрожает использовать людей, независимо от того, являются ли они публичными фигурами или нет. По моему мнению, быстрое развитие такой технологии сделает это заметно хуже, и недавнее предупреждение ФБР отражает это.

Пока эта угроза продолжает расти, растут и время и деньги, вкладываемые в исследования и разработку ИИ. Глобальная рыночная стоимость ИИ в настоящее время оценивается почти в 100 миллиардов долларов США и ожидается, что к 2030 году она вырастет до почти двух трлн долларов США.

Вот настоящий случай, о котором сообщили в новостях KSL сегодня.

– Пожалуйста, прочтите, чтобы защитить ваших детей, особенно подростков.

Читать здесь.

Родители недавно опубликовали эту информацию, чтобы помочь нам всем.

Топ-3 категории – кража личности и мошенничество с имитацией

Технология уже достаточно развита, чтобы deepfake видео можно было создать из одного изображения, тогда как версия воспроизведения голоса человека требует всего нескольких секунд аудио. В то же время, среди миллионов сообщений потребителей, поданных в прошлом году, топ-3 категории были связаны с кражей личности и мошенничеством с имитацией, в результате которых было потеряно до 8,8 миллиардов долларов в 2022 году.

Возвращаясь к законодательству Миннесоты, записи показывают, что один единственный представитель проголосовал против закона о криминализации тех, кто распространяет deepfake сексуальные изображения. Интересно, что их мотивацией было сделать это.

Я сам был жертвой!

Как жертва самого себя, я был довольно громким на эту тему, поэтому я считаю, что это весьма ясная проблема. Когда это произошло со мной, я чувствовал себя очень одиноким и не знал, к кому обратиться за помощью. К счастью, с тех пор многое изменилось. Я надеюсь, что этот положительный импульс продолжится, чтобы другие не испытали такую же травму, как я.

Дэн Перселл – основатель и генеральный директор Ceartas DMCA, ведущей компании по защите авторских прав и брендов с использованием искусственного интеллекта, которая работает с лучшими создателями, агентствами и брендами мира для предотвращения несанкционированного использования и распространения их контента. Пожалуйста, посетите www.ceartas.io для получения дополнительной информации.

Изображение: Кредит Rahul Pandit; Pexels; Спасибо!