🤖 ФТС против дипфэйков Законы о подражании расширены для защиты потребителей 🦹‍♀️

ФТК ищет пути изменить действующее положение, которое позволило бы уголовно наказывать попытки имитации человеческого поведения с использованием технологии искусственного интеллекта.

FTC стремится изменить правило чтобы бороться с дипфейками | ENBLE

Помните тот момент, когда вы смотрели видео вашей любимой знаменитости, которая говорила нечто скандальное, а потом выяснилось, что это был дипфейк? Да, неприятное чувство, не так ли? Но не волнуйтесь, вы не один. Рост дипфейков вызывает немалое беспокойство, и похоже, что каждый волнуется о их потенциальном воздействии. Но не беспокойтесь, мои технически подкованные друзья, Федеральная Торговая Комиссия (FTC) взяла инициативу в свои руки и предлагает новые правила, чтобы защитить нас от опасностей дипфейков. Давайте погрузимся в детали, договорились?

🎯 Имперсонация, теперь для всех

FTC намерена изменить существующее правило, которое в настоящий момент запрещает имитацию бизнесов или государственных организаций. Но вот подвох: они хотят расширить его, чтобы охватить всех потребителей. Это означает, что хитроумные мошенники больше не смогут выдавать себя за обычных людей, как вы и я. Попрощайтесь с аферистами, притворяющимися вашими давно утерянными родственниками из Тимбукту, пытающимися убедить вас перевести им ваши жизненные сбережения. Измененное правило направлено на полное прекращение этих афер, управляемых искусственным интеллектом. Достаточно клево, верно?

🛡️ Дилемма платформы GenAI

Но подождите, это еще не все! Предлагаемые изменения также могут сделать незаконным предоставление товаров или услуг платформой GenAI для тех, кто намерен нанести вред потребителям через имитацию. Другими словами, если платформа GenAI знает или имеет основания полагать, что кто-то использует их технологию для подозрительных целей, им грозят юридические последствия. Поэтому подумайте дважды, прежде чем пытаться сыграть имитационную шутку над своими друзьями. 🙅‍♂️

💬 “С Большой Силой Приходит Большая Ответственность”

                    *- FTC Chair Lina Khan, probably*

Председатель ФТК Лина Хан, супергерой, которого нам нужно прямо сейчас, высказалась о растущей угрозе дипфейков. В пресс-релизе она сказала: “Мошенники используют инструменты искусственного интеллекта для имитации людей с удивительной точностью и в гораздо большем масштабе. С ростом воспроизведения голоса и других мошеннических алгоритмов на основе искусственного интеллекта, защита американцев от мошенничества с подменой личности становится более критичной, чем когда-либо ранее”. Мы полностью согласны, Лина! 🦸‍♀️

🌐 Это не только знаменитости

Дипфейки не только вызывают головные боли звездам, таким как Тейлор Свифт (хотя мы не можем отрицать, что это была бы пугающая мысль). Они становятся серьезной проблемой и для других сфер. Возьмем, например, мошенничество в онлайн-романе. С развитием дипфейков мошенники теперь могут манипулировать видео для заставления вас поверить, что вы влюблены в несуществующего партнера. И это не все! Есть даже случаи, когда мошенники выдают себя за сотрудников, чтобы извлечь деньги из наивных корпораций. Говорят, неистовые насмешки! 😱

📊 Беспокойство повсюду

По данным недавнего опроса, проведенного YouGov, 85% американцев выражают беспокойство в связи с распространением вводящих в заблуждение видео и аудио дипфейков. Похоже, что мы все просыпаемся и осознаем потенциальные опасности этой технологии. Более того, исследование The Associated Press-NORC Center for Public Affairs Research показало, что почти 60% взрослых считают, что инструменты искусственного интеллекта увеличат распространение лживой и вводящей в заблуждение информации в предстоящем выборном цикле США в 2024 году. Ужасно! Нам лучше приготовиться к тому, что нас ждет. 🧐

🚫 Пока нет федерального закона против дипфейков

Удивительно, но пока что нет федерального закона, который прямо регулирует проблему дипфейков (восклицания недоверия). Высокопоставленные жертвы, такие как знаменитости, имеют некоторые правовые средства защиты, такие как авторское право или защита личности. Но будем честными, прохождение юридической процедуры для борьбы с дипфейками может быть настоящей морокой. Это как привезти нож на битву будущего с оружием на основе искусственного интеллекта. 🤷‍♂️

🌟 Законы штатов приходят на помощь

Пока федеральное правительство догоняет мания дипфейков, несколько штатов приняли дело в свои руки. Десять штатов уже приняли законы, преступные деяния по которым караются криминализацией дипфейков, хотя преимущественно сосредоточены на неконсенсуальной порнографии. Но не волнуйтесь, дорогие читатели! По мере того как инструменты для создания дипфейков становятся более изощренными, мы можем ожидать, что все больше штатов последуют примеру с более широкой законодательством. Лучше перестраховаться, чем пожалеть, верно?

🤔 ЧАВО: Ответы на ваши горящие вопросы

В: Есть ли еще какие-либо правовые средства для борьбы с дипфейками?

О: Конечно! Кроме авторского права и защиты личности, другие законы, такие как нарушение частной жизни или преднамеренное нанесение эмоционального вреда, могут быть использованы для борьбы с дипфейками. Это как использование разных инструментов из ремня полезных приспособлений Бэтмена, только вместо борьбы с преступниками вы сражаетесь с цифровым обманом.

В: Какое влияние оказывают дипфейки на общество и выборы?

О: Ах, вопрос века! Дипфейки имеют потенциал ввести в заблуждение и обмануть, что делает сложнее для людей отличить правду от вымысла. Это может оказать негативное влияние на выборы и доверие общества. Представьте себе дипфейковое видео, на котором кандидат поддерживает что-то, что он никогда не говорил. Страшно, не правда ли? Но не беспокойтесь, с правильным осведомлением и регулированием, мы можем оставаться на шаг впереди дипфейков.

В: Что могут сделать люди, чтобы защитить себя от попадания жертвой дипфейков?

О: Отличный вопрос! Вот несколько советов:

  1. Оставайтесь бдительными и подвергайте сомнению подлинность любых подозрительных видео или аудиозаписей.
  2. Будьте осторожны с личной информацией в сети, поскольку дипфейки часто используют общедоступные данные.
  3. Обновляйте программное обеспечение и устройства с последними обновлениями безопасности.
  4. Образовывайтесь и помогайте другим понимать дипфейки, чтобы вы могли их распознавать и принимать необходимые меры предосторожности.

🎉 Будущее дипфейков

Несмотря на вызовы, созданные дипфейками, мы можем ожидать эволюции борьбы с этой технологией. Федеральная комиссия по связи и Федеральная торговая комиссия предпринимают шаги по решению вопросов, связанных с дипфейками, с разных сторон, и мы можем увидеть более всестороннее законодательство в будущем. Технологии будут продолжать развиваться, но также будут развиваться и наши способности бороться с их неправильным использованием. Это непрекращающаяся игра в кошку и мышку, и к счастью, мы довольно неплохо справляемся с ловлей этих цифровых мышей!

Теперь, дорогие мои читатели, пришло время распространить информацию о борьбе с подделками (deepfakes). Поделитесь этой статьей в социальных сетях и давайте вместе повысим осведомлённость! 💪


🔗 Ссылки по теме: – Пресс-релиз FTCОпрос YouGovОпрос The Associated Press-NORC CenterСтатья Devin ColdeweyЗакон штата Миннесота о deepfake

📸 Кредит за изображение: Источник изображения