Microsoft вводит новые меры для защиты дизайнеров от негативных последствий инцидентов с глубокой фейковой технологией, вдохновленных скандалом вокруг Тейлор Свифт.

Уязвимости, позволившие создание изображений, были исправлены.

🤖💻 Microsoft предпринимает меры для защиты от созданных ИИ дипфейков

💥💡 Генераторы изображений ИИ имеют потенциал стимулировать креативность и революционизировать процесс создания контента в лучшую сторону. Однако, при неправильном использовании они могут нанести реальный вред через распространение дезинформации и ущерб репутации. Microsoft надеется предотвратить дальнейшее злоупотребление своими генеративными инструментами ИИ, внедрив новые защитные механизмы.

🌐 На прошлой неделе ИИ-созданные дипфейки, сексуализирующие Тейлор Свифт, стали вирусными в Twitter. Эти изображения, которые были опубликованы на платформах типа 4chan и Telegram, были созданы с использованием Microsoft Designer, графического дизайнерского приложения компании. Microsoft Designer включает в себя Image Creator, генератор изображений ИИ, который использует DALLE-3 для создания реалистичных изображений.

🛡️ Генератор уже имел предусмотренные механизмы безопасности, чтобы предотвратить неуместные запросы, явно упоминающие обнажение или известных персон. Однако, пользователи нашли петли, например ошибочно написав имена знаменитостей или описав изображения таким образом, чтобы не использовать явные сексуальные термины, но получить тот же результат. В качестве результата, Microsoft теперь закрыл эти петли, сделав невозможным генерировать изображения знаменитостей.

🚫 При попытке вводить запросы, например “Селена Гомес играющая в гольф”, в Image Creator, пользователи теперь получают предупреждение о том, что запрос заблокирован, даже если имя знаменитости написано с ошибкой. Microsoft предпринял эти меры, чтобы обеспечить безопасное и уважительное использование их инструментов ИИ всем пользователям.

🔒 Стоит отметить, что в Кодексе поведения Microsoft Designer явно запрещается создание взрослого или неконсенсуального интимного контента. Нарушение этой политики может привести к потере доступа к сервису вообще.

⚙️ Несмотря на усилия Microsoft по устранению этих проблем, игра в кошку и мышку между пользователями, злоупотребляющими петлями, и компаниями, спешащими их исправить,, вероятно, будет продолжаться. Уже некоторые пользователи выражают интерес к поиску обходных путей к новым защитным механизмам в канале Telegram.

🔮 Глядя в будущее, очевидно, что борьба против дипфейков и неправильного использования инструментов ИИ будет продолжаться. По мере развития технологии ИИ, будут появляться новые способы создания и обнаружения дипфейков. Компании, такие как Microsoft, должны продолжать совершенствовать свои алгоритмы и вводить дополнительные меры безопасности, чтобы быть впереди недобросовестных действующих лиц.

Вопросы и ответы

В: Какие потенциальные опасности связаны с использованием ИИ для создания дипфейков? Дипфейки могут быть чрезвычайно вредными, так как они могут использоваться для распространения ложной информации, нанесения ущерба репутации или создания неконсенсуального интимного содержимого. Неправильное использование таких дипфейков, созданных при помощи ИИ, может иметь серьезные последствия, включая психологический вред, нарушение личной жизни и разрушение доверия к цифровым медиа.

В: Как работают генераторы изображений ИИ, такие как Microsoft Designer? Генераторы изображений ИИ используют передовые алгоритмы и нейронные сети для анализа шаблонов в существующих изображениях и создания новых. Обучаясь на больших наборах данных изображений, эти модели научатся создавать реалистичные и оригинальные изображения, которые можно настраивать, вводя определенные запросы или описания.

В: Какие еще меры предпринимаются для борьбы с дипфейками и неправильным использованием ИИ? Да, помимо индивидуальных компаний, которые вводят механизмы защиты, существуют постоянные усилия по разработке передовых методик обнаружения дипфейков. Исследователи и организации работают над усовершенствованием изображений служб по проверке подлинности и разработке инструментов для обнаружения и идентификации подделанных видеороликов и изображений. Это совместное усилие, включающее технологии, законодательство и осведомленность общества.

📚 Ссылки:

  1. Искусственное интеллектом управляемые генераторы изображений и их влияние
  2. Интеграция ИИ с веб-поиском
  3. Программа Copilot Pro от Microsoft для поддержки мобильных приложений
  4. Этика генеративного ИИ
  5. Влияние и будущее генеративного ИИ

📣 Вам попадались дипфейки или содержание, созданное при помощи ИИ? Как вы думаете, компании могут эффективно бороться с неправильным использованием инструментов генеративного ИИ? Поделитесь своими мыслями ниже и продолжим дискуссию! 💬✨

🔗 Не забудьте поделиться этой статьей на своих любимых платформах социальных медиа! 📲🌐