Кризис Deepfakes Искусственный интеллект создает дезинформацию и угрожает выборам.
Недавнее исследование Центра по борьбе с цифровой ненавистью показывает, что производство и распространение политических дипфейков теперь проще, чем когда-либо.
“`html
Политические deepfakes быстро распространяются из-за GenAI от ENBLE.
В этом году миллиарды людей примут участие в выборах по всему миру. Но на горизонте появилась новая угроза, которая может подорвать эти демократические упражнения: искусственно-интеллектуальная дезинформация глубокого обмана.
🌍🗳️
![Election](https://cdn.miximages.com/tech/01f50abebd027381006b383dd36b2e30.jpg)
В революционном исследовании Центра борьбы с цифровой ненавистью (CCDH) выяснилось, что объем искусственно-интеллектуальной дезинформации, особенно deepfake изображений, связанных с выборами, резко увеличивается в X (ранее известном как Twitter). Этот рост deepfakes представляет собой значительный риск для глобальных демократических процессов.
Рост Deepfakes 📈
Нет секрета в том, что deepfakes, искусственно-интеллектуальные материалы, убедительно изменяющие изображения или видеоролики, становятся все более распространенными. По данным Всемирного экономического форума, с 2019 по 2020 год deepfakes выросли на 900%. Однако именно резкий рост связанных с выборами deepfakes за последний год вызвал тревогу.
- Ubuntu Linux Путешествие Инноваций и Успеха
- Революционизация строительной отрасли Путь BRKZ к успеху 🏗️
- Сбои Meta Когда мир перестает прокручиваться, и лайки исчезают.
По результатам недавнего опроса, проведенного YouGov, 85% американцев выразили беспокойство из-за распространения обманывающих видео- и аудио- deepfakes. Другой опрос, проведенный Центром общественных исследований The Associated Press-NORC, показал, что почти 60% взрослых считают, что инструменты искусственного интеллекта способствуют распространению ложной и обманывающей информации во время цикла выборов в США 2024 года.
🔍🔄
![Deepfake](https://cdn.miximages.com/tech/08edb5a253f79e974a6dba1f79d0fa67.jpg)
Чтобы измерить рост связанных с выборами deepfakes на X, исследование CCDH проанализировало заметки сообщества, отзывы, представленные пользователями, упомянувшие deepfakes или смежные термины. В исследовании было обнаружено, что использование искусственных генераторов изображений на базе ИИ, таких как Midjourney, DALL-E 3 от OpenAI, DreamStudio от Stability AI и Image Creator от Microsoft, приводило к появлению deepfakes в почти половине проведенных тестов. Это происходит несмотря на то, что некоторые из этих платформ имеют политики по борьбе с дезинформацией во время выборов.
Дилемма Социальных медиа 📱💻
Хотя искусственно-интеллектуальные генераторы изображений упростили создание deepfakes, именно социальные медиа-платформы способствуют их быстрому распространению. В исследовании CCDH было выявлено, что искусственно-интеллектуальные изображения, даже после проверки в одном посте, продолжали получать сотни тысяч просмотров через репосты.
⚠️
![Social Media](https://cdn.miximages.com/tech/3d1576977b42b83bbf1518e808be8243.jpg)
Это вызывает опасения относительно эффективности заметок сообщества на X. Кажется, что соответствующие медиа не всегда показывают эти заметки, что позволяет deepfakes становиться вирусными. Массовое распространение искусственно-генерируемого контента на социальных медиа-платформах представляет собой огромное вызов в борьбе с распространением дезинформации.
Есть ли Решение? 🤔✅
Решение кризиса deepfakes требует комплексного подхода. Каллум Худ, руководитель исследований в центре борьбы с цифровой ненавистью, предлагает несколько возможных решений. Инструменты ИИ и платформы должны предоставлять ответственные меры безопасности и проходить тщательное тестирование, чтобы предотвратить неправомерное использование. Социальные медиа-платформы должны инвестировать в доверие и безопасность персонала, занимающегося борьбой с искусственно-генерируемой дезинформацией. Законодатели должны использовать существующие законы для предотвращения запугивания избирателей из-за deepfakes, а также разрабатывать законодательство для обеспечения безопасности продуктов ИИ и привлечения к ответственности продавцов.
🛡️🤝
![Solution](https://cdn.miximages.com/tech/3d1576977b42b83bbf1518e808be8243.jpg)
Были предприняты некоторые положительные шаги в правильном направлении. Поставщики генераторов изображений, включая Microsoft, OpenAI и Stability AI, подписали добровольное соглашение о совместном ответе на deepfakes, созданные с использованием ИИ, чтобы ввести в заблуждение избирателей. Meta объявила о маркировке искусственно-генерированного контента и блокировании его использования в политических кампаниях. Google требует, чтобы политическая реклама с использованием генеративного искусственного интеллекта на своих платформах сопровождалась яркими открытыми декларациями.
“““html
Однако остаются вопросы о том, насколько быстро индустрия и регуляторы реагируют на угрозу дипфэйков. При риске выборов по всему миру крайне важно, чтобы платформы искусственного интеллекта, компании социальных медиа и законодатели приняли быстрые меры и защитили целостность демократии.
🏛️🔒
Q&A
Q: Могут ли дипфейки стать проблемой только на Х (ранее Твиттере)?
A: Исследование CCDH в основном сосредоточилось на дипфейках на Х, но распространение дипфейков затрагивает и другие социальные платформы, такие как Фейсбук и ТикТок. Платформам необходимо внедрить надежные меры борьбы с распространением дезинформации, связанной с дипфейками во всех каналах.
Q: Какие генераторы изображений были наиболее уязвимыми для создания политических дипфейков?
A: Согласно исследованию CCDH, Midjourney, с успехом в 65%, создал наибольшее количество дипфейков, связанных с выборами. Image Creator и DreamStudio следовали близко позади, в то время как ChatGPT блокировал все изображения, связанные с кандидатами. Важно отметить, что все эти генераторы создавали дипфейки, изображающие избирательное мошенничество и угрозы.
Q: Каким образом люди могут идентифицировать дипфейки?
A: Идентификация дипфейков может быть вызовной, поскольку они становятся все более реалистичными. Однако есть определенные признаки, на которые стоит обратить внимание, такие как неестественные движения лица, несоответствия в освещении и тени, а также глюки вокруг краев объектов. Также рекомендуется полагаться на проверенные источники новостей для получения информации.
Взгляд в будущее 🚀
Поскольку технологии искусственного интеллекта продолжают развиваться, угроза дезинформации, связанной с дипфейками, будет существовать. Технологическим разработчикам, регуляторам и частным лицам необходимо оставаться бдительными в борьбе с этим вызовом. Путем внедрения строгих мер безопасности и продвижения медиаграмотности мы можем защитить целостность выборов и демократические процессы по всему миру.
🌐🗳️
Ссылки
- Доклад BBC: Дипфейки чернокожих избирателей, которые призывают афроамериканцев голосовать за республиканцев
- Всемирный экономический форум: Рост дипфейков
- Опрос YouGov: Опасения относительно вводящих в заблуждение дипфейков
- Опрос Центра Ассоциированной Прессы-Центра NORC: Инструменты ИИ на выборах в США в 2024 году
- Добровольное соглашение Майкрософт по дипфейкам
- Усилия OpenAI по борьбе с дипфейками
- Борьба Stability AI против вводящего в заблуждение контента
- C2PA – Коалиция за происхождение и подлинность контента
Каковы ваши мысли о кризисе дипфейков? Как мы можем бороться с распространением дезинформации? Поделитесь своими мнениями и распространите информацию. Вместе мы можем защитить демократию! 👥💪
Не забудьте поставить лайк, поделиться и подписаться, чтобы получать еще более увлекательный контент! 📢🌐
“`