Deepfakes остров Мэн противопоставляется неправильному использованию ИИ 😱💻

Государственный чиновник острова Мэн считает, что необходимо широкое воздействие на решение проблемы поддельных видео, с введением нового законодательства о сексуальных правонарушениях.

Британский самоуправляемый остров призывает к большему вмешательству в отношении deepfakes.

Code projected on to a female

Власти острова Мэн не относятся к использованию deepfakes индифферентно. По мере введения нового законодательства о сексуальных преступлениях они настаивают на более широкой политике в отношении deepfakes, чтобы обезопасить свою популяцию из 85 000 человек. 🏴󠁧󠁢󠁥󠁮󠁧󠁿

Защита острова: растущая проблема 🛡️

Мэн, самоуправляемая британская зависимая территория, расположенная в Ирландском море, имеет свой парламент и отвечает за внутренние вопросы, такие как налогообложение, жилищное строительство, туризм и финансы. Однако вопросы обороны и внешних отношений находятся в ведении правительства Великобритании. 🇮🇲

Джейн Пул-Уилсон, министр по юстиции и внутренним делам, выразила свои опасения и призвала к дальнейшим мерам по борьбе с угрозами и возможностями, которые приносит искусственный интеллект. Несмотря на то, что наличествующий Закон о сексуальных преступлениях и оскорбительных публикациях 2021 года будет содержать некоторые защитные меры от deepfakes, Пул-Уилсон считает, что необходимы политики более широкого охвата. Несмотря на то, что Мэн уже предпринял шаги по защите от таких угроз, она признает глобальные вызовы, которые представляет регулирование искусственного интеллекта 🌍.

Борьба с сексуальными преступлениями и deepfakes 🔒

Предстоящий законодательный акт направлен на борьбу с распространением интимных фотографий без согласия, включая те, в которых использованы поддельные изображения на основе искусственного интеллекта. Дела о мести порнографией также будут рассматриваться в рамках этого закона. Правительство острова Мэн внимательно следит за предложением Великобритании введения маркировки всех изображений, созданных с помощью искусственного интеллекта, в целях борьбы с deepfakes. 📜

🤖 Искусственный интеллект и опасения в отношении избирательной целостности 👥

Через воду, в Лондоне, британские члены парламента все больше беспокоятся о потенциальном влиянии искусственного интеллекта на будущие выборы. Недавний опрос показал, что 70% политиков боятся, что искусственный интеллект усилит распространение дезинформации и ложной информации. В связи с предстоящими президентскими выборами в США в 2024 году, Великобритания стремится обновить свое законодательство, чтобы справиться с угрозой deepfakes. Злонамеренные актеры уже нацелились на мэра Лондона Садика Хана и лидера Лейбористской партии Кира Стармера, используя подделанные аудиофайлы, чтобы подорвать их репутацию.

Опрос также показал, что более половины членов парламента считают, что искусственный интеллект может негативно влиять на избирательную целостность в этом году. Учитывая множество ключевых выборов, которые проходят по всему миру, такие опасения несут весомую нагрузку. В результате 65% респондентов хотят, чтобы политические партии и политики обеспечивали прозрачность в отношении использования инструментов искусственного интеллекта в кампаниях. Кроме того, они призывают партии не распространять непроверяемую информацию или материал.

ThisIsEngineering/Pexels

Заключение: борьба с злоупотреблением искусственным интеллектом требует глобального сотрудничества 🌐

По мере того, как правительства гонятся за быстрым развитием технологий искусственного интеллекта, усилия Мэна по введению более широкой политики против deepfakes являются правильным направлением. Однако борьбу с злоупотреблением искусственным интеллектом нельзя выиграть только отдельно каждой страной. Глобальное сотрудничество является важным для установления стандартизированных норм и противодействия развивающимся угрозам, приносимым искусственным интеллектом.

Необходимо, чтобы правительства, технологические компании и эксперты по кибербезопасности работали сообща, чтобы обеспечить ответственное и этичное использование искусственного интеллекта. Внедрение комплексных политик и требований маркировки медиафайлов, полученных на основе искусственного интеллекта, позволит снизить риски, связанные с deepfakes, и защитить целостность выборов, личную конфиденциальность и общество в целом. Давайте осознаем потенциал искусственного интеллекта, одновременно оставаясь бдительными перед вызовами, которые он несет! 🤝💪

🙋‍♂️🙋‍♀️ Q&A: Обращение к дополнительным вопросам

Вопрос: Каковы некоторые примеры deepfakes, созданных с помощью искусственного интеллекта?

Ответ: Deepfakes, созданные с помощью искусственного интеллекта, могут включать в себя измененные видео, где люди кажутся произносящими или делающими то, что они никогда не делали, а также подделанные изображения, убедительно изображающие людей в компрометирующих ситуациях. Они создаются с использованием сложных алгоритмов и методов машинного обучения.

Вопрос: Как мы можем определить “глубоко сфакеленные”?(deepfakes)?

Ответ: Определение “глубоко сфакеленных” может быть сложным, поскольку они становятся все более сложными. Однако, есть несколько определенных признаков, на которые стоит обратить внимание, таких как неестественные движения лица, несоответствие освещения и теней или глюки в видео или изображении. Кроме того, проверка источника контента и сопоставление его с другими надежными источниками может помочь в обнаружении “глубоко сфакеленных”.

Вопрос: Каким образом люди могут защитить себя от “глубоко сфакеленных”?

Ответ: Чтобы защитить себя от “глубоко сфакеленных”, важно быть осторожными при потреблении медиа-контента в Интернете. Будьте скептичными по отношению к подозрительным или контроверсиальным видео или изображениям и проверяйте их подлинность, прежде чем верить или делиться ими. Кроме того, использование надежных и уникальных паролей, включение двухфакторной аутентификации и регулярное обновление устройств с последними патчами безопасности помогут защититься от злонамеренных акторов, которые могут нацелиться на вас с использованием “глубоко сфакеленных” технологий.

📚 Дополнительное чтение

Для более полного погружения в тему “глубоко сфакеленных” и злоупотребления ИИ, ознакомьтесь с этими ресурсами:

  1. EU предлагает уголовное наказание за использование “глубоко сфакеленных” сексуального насилия над детьми с помощью ИИ
  2. The Glasgow Times: футбол и новости
  3. TikTok разрабатывает план по борьбе с дезинформацией на выборах в 2024 году
  4. Топ прогнозов на 2024 год
  5. Как автоматизировать жалюзи с помощью солнечной энергии

Не стесняйтесь делиться этой статьей ваших любимых социальных медиа платформах для повышения осведомленности о вызовах, связанных с “глубоко сфакеленными” и необходимостью комплексных регулятивных мер в области искусственного интеллекта. Будем быть информированными и вместе выступать против злоупотребления ИИ! 📲💻💪

Написано Грэмом Ханной, фрилансером с обширным опытом работы в онлайн-новостях и контенте. Свяжитесь с Грэмом на LinkedIn.