🚨 Остерегайтесь роботизированных вызовов, созданных ИИ FCC принимает меры 🚨

Председатель Федеральной комиссии связи США Джессика Розенворсель настоятельно выступает за официальное признание голосов, созданных искусственным интеллектом, в звонках и криминализацию клонирования голосов в робоколлах.

FCC стремится запретить голосовые робоколлы, созданные с использованием искусственного интеллекта.

Федеральная комиссия связи (FCC) готовится к битве против новой волны робоколлов, которые не только раздражают, но и потенциально опасны. Эти звонки используют голоса, созданные с помощью искусственного интеллекта, чтобы обмануть неподозревающих жертв и увлечь их мошенничеством. Председатель FCC Джессика Розенворсель настроена прекратить эту обманчивую новую тенденцию.

Угроза AI-генерируемых робоколлов

Робоколлы преследуют нас уже много лет, но теперь они приняли зловещую новую форму. С развитием искусственного интеллекта мошенники могут создавать голоса, имитирующие знаменитостей, политиков и даже наших близких. Представьте себе такую ​​ситуацию: вы получаете телефонный звонок от своего любимого киноактера, который просит вас о помощи. Вы, вероятно, с удовольствием согласились бы помочь, не так ли? Вот на это и рассчитывают эти мошенники.

С помощью генерации голоса, создаваемого искусственным интеллектом, эти мошенники могут делать свои звонки звучащими аутентично и легитимно. Это не только вызывает путаницу, но и увеличивает вероятность того, что люди станут жертвами их схем. Представьте, что вы думаете, что разговариваете с вашей бабушкой, когда на самом деле это просто искусственный интеллект, притворяющийся ею. Такие фальшивые звонки могут играть на наших эмоциях и манипулировать нами, заставляя делать то, что мы никогда не сделали бы в обычных обстоятельствах.

Борьба FCC против AI-генерируемых робоколлов

Председатель Розенворсель понимает срочность решения этой проблемы. Она хочет, чтобы FCC официально классифицировала звонки, использующие голоса, созданные искусственным интеллектом, как “искусственные”. Таким образом, использование технологий клонирования голоса в робоколлах станет незаконным. В настоящее время, согласно Закону о защите потребителей по телефону (TCPA) FCC, нежелательные звонки, использующие искусственные голоса или записи, уже запрещены. Однако с помощью этого нового предложения FCC нацелена на усиление своих возможностей по преследованию и наказанию виновных в этих мошенничествах.

“Искусственные голоса, созданные с помощью искусственного интеллекта, уже вводят людей в заблуждение, заставляя думать, что мошеннические схемы – это законные дела”, – говорит председатель Розенворсель. Она также подчеркивает тот факт, что любой может стать целью этих фальшивых звонков, независимо от их предпочтения в отношении знаменитостей и политиков. ФКС считает, что признание искусственно созданных голосовых звонков незаконными предоставит генеральным прокурорам штатов дополнительные инструменты для борьбы с такими мошенничествами и защиты потребителей.

Последнее инцидент вызывает тревогу

Срочность предложения FCC была подчеркнута недавним инцидентом в Нью-Гэмпшире, когда жители получили звонок, подражающий президенту Джо Байдену. В звонке людей призывали не голосовать на предварительных выборах их штата. Безопасность провела тщательный анализ звонка и обнаружила, что он был создан с использованием инструментов искусственного интеллекта стартапом под названием ElevenLabs. Хотя соответствующий аккаунт был заблокирован ElevenLabs, этот инцидент мог быть только вершиной айсберга. Возникают опасения, что искусственно созданное содержимое может использоваться для нарушения предстоящих выборов в США.

Вопросы и ответы: что вам нужно знать

В: Как работают искусственно созданные голоса?

О: Искусственно созданные голоса создаются с использованием сложных алгоритмов, которые анализируют записи голоса определенного человека. При наличии достаточного количества данных ИИ может имитировать этот голос с удивительной точностью.

В: Существуют ли законные применения искусственно созданных голосов?

О: Абсолютно! Искусственно созданные голоса имеют потенциал помочь людям с нарушениями речи или даже оживить умерших знаменитостей в развлекательных целях. Реальная проблема заключается в их злоупотреблении мошенниками.

В: Как я могу защитить себя от искусственно созданных робоколлов?

О: В то время как технологии для борьбы с этими звонками все еще совершенствуются, можно предпринять несколько шагов. Во-первых, будьте осторожны при ответе на звонки с неизвестных номеров или тех, которые кажутся подозрительными. Кроме того, рассмотрите возможность использования приложений или услуг блокировки звонков, которые могут помочь фильтровать нежелательные звонки.

Будущее искусственного интеллекта и робоколлов

Борьба против искусственно созданных робоколлов только начинается. По мере развития технологий, также будет совершенствоваться и сложность этих мошеннических схем. Организациям, таким как FCC, крайне важно оставаться на шаг впереди и адаптировать свои правила соответствующим образом. В то время как предложение председательницы Розенворсель является шагом в правильном направлении, ясно, что всеобъемлющее решение потребует постоянных усилий как со стороны лидеров отрасли, так и государственных агентств.

Тем временем, оставайтесь бдительными и помните, что не все, что вы слышите на другом конце провода, таковым и является. Борьба против AI-генерируемых робоколлов — это коллективное дело, и вместе мы можем обеспечить, чтобы наши телефоны звонили большим смехом и меньшим количеством мошеннических голосов.


References:

  1. FCC движется к запрету AI-генерируемых робоколлов – TechCrunch
  2. Осталась одна неделя, чтобы подать заявку на выступление на TechCrunch Early Stage 2024 – TechCrunch
  3. ElevenLabs якобы заблокировали аккаунт, который подделал голос Байдена с помощью AI-инструментов – TechCrunch

📢 Поделитесь своими мыслями о AI-генерируемых робоколлах! Вы когда-нибудь получали подозрительный звонок? Какие меры вы предпринимаете, чтобы защитить себя? Давайте начать разговор и помочь распространять осведомленность об этой проблеме. #БольшеНетФальшивыхГолосов