Мета планирует увеличить использование ярлыков на изображениях, созданных искусственным интеллектом, в год, переполненный выборами. Эта информация поступила из ENBLE.

Meta расширяет маркировку изображений, созданных искусственным интеллектом, на своих социальных платформах, включая Facebook, Instagram и Threads, включая синтетические изображения, созданные с помощью конкурирующей технологии генеративного искусственного интеллекта.

🌟 Мета делает шаг к классификации с помощью искусственного интеллекта-генерированного изображения в социальных сетях 📸

В попытке борьбы с дезинформацией, генерируемой искусственным интеллектом, Мета (ранее известная как Facebook) расширяет классификацию искусственно созданных изображений на своих платформах социальных медиа, включая Facebook, Instagram и Threads. Это расширение включает классификацию синтетических изображений, созданных с использованием инструментов генеративного искусственного интеллекта других компаний, при условии, что эти инструменты содержат “индикаторы стандартов отрасли”, которые Мета может обнаруживать. Однако Мета не раскрыла точное количество синтетического контента, циркулирующего на ее платформах, что заставляет нас задумываться о влиянии этой инициативы в борьбе с дезинформацией, создаваемой искусственным интеллектом, в году многочисленных выборов по всему миру.

Обнаружение искусственно созданных изображений с использованием искусственного интеллекта

Мета уже обнаруживает и классифицирует “фотореалистичные изображения”, созданные с помощью собственного инструмента генеративного искусственного интеллекта под названием “Imagine with Meta”, который был запущен в декабре прошлого года. Однако ранее она не классифицировала синтетические изображения, созданные с использованием инструментов других компаний. Сейчас Мета сотрудничает с партнерами из отрасли для установления общих технических стандартов для идентификации генеративного искусственного интеллекта. Обнаруживая сигналы, внедренные в инструментах конкурентных генераторов изображений на основе искусственного интеллекта, Мета стремится классифицировать изображения, созданные с помощью искусственного интеллекта, которые пользователи публикуют на ее платформах.

Расширенная классификация будет постепенно внедряться в следующем году с акцентом на важных выборах по всему миру. Мета планирует узнать больше о том, как люди создают и делятся контентом, созданным искусственным интеллектом, в этот период, что позволит им разрабатывать наилучшие практики и принимать обоснованные решения о расширении классификации в различных рынках.

🔍 Проблема с искусственно созданным видео и аудио

В то время, как Мета продвигает классификацию изображений, обнаружение искусственно созданных видео и аудио остается сложной задачей. Техники маркировки и водяных знаков не получили широкого распространения, что затрудняет точную идентификацию таких глубинных подделок инструментами обнаружения. Более того, редактирование и манипуляция легко может удалить все сигналы, присутствующие в контенте.

Мета активно работает над разработкой классификаторов для автоматического обнаружения искусственно созданного видеоконтента без необходимости невидимых маркеров. Они также исследуют возможности улучшения устойчивости невидимых водяных знаков, таких как встроенные механизмы маркировки непосредственно в процесс генерации изображений. Чтобы снизить риски, Мета теперь требует от пользователей ручного раскрытия, если они отправляют “фотореалистичное” искусственно созданное видео или “реалистичный звуковой” аудиоматериал. Невыполнение этого требования может повлечь за собой наказание, включая приостановку или блокировку учетной записи.

🎭 Подделки без использования искусственного интеллекта

Важно отметить, что манипуляция цифровыми средствами не ограничивается только искусственным интеллектом-генерированным контентом. Создание вирусных подделок и введение людей в заблуждение на массовой основе возможно с помощью базовых навыков редактирования и доступа к аккаунту в социальных сетях. Мета столкнулась с критикой в отношении своей политики в отношении подделанных видео. Совет по надзору, независимый орган по проверке контента, созданный Метой, обратился к компании с обвинениями в “противоречивости” политики, особенно в отношении подделанных видеозаписей, основанных на искусственном интеллекте. Совет подчеркнул необходимость того, чтобы Мета также уделяла внимание рискам манипулирования контентом, не связанным с искусственным интеллектом.

🤖 Использование генеративного искусственного интеллекта в качестве инструмента модерации контента

Помимо маркировки контента, созданного искусственным интеллектом, Мета исследует возможность использования генеративного искусственного интеллекта как дополнения к своим усилиям в области модерации контента. Президент Меты Ник Клег предлагает, что большие языковые модели (LLM), такие как LLM, могут помочь в моменты “повышенного риска”, такие как выборы. Первые тесты с использованием LLM, обученных на OиCommunity Standards MМеты, показали многообещающие результаты в классификации нарушений правил. LLM также используются для удаления контента из очередей проверки, когда существует высокая уверенность в том, что он не нарушает правила Меты. Такой подход направлен на уменьшение нагрузки на человеческих модераторов контента и улучшение эффективности модерации контента.

🔍 Проверка фактов искусственно созданного контента

Мета также позволяет независимым партнерам по проверке фактов проверять факты содержащегося на ее платформах контента, созданного искусственным интеллектом. Это означает, что контент, созданный искусственным интеллектом, может быть не только классифицирован, но и опровергнут, если он содержит ложную информацию. Однако одновременное применение нескольких меток и указателей к контенту может привести к замешательству пользователей, пользующихся платформами социальных медиа.

👥 Задача асимметрии и ответ Меты

Признавая асимметрию между доступностью человеческих проверяющих факты и все более доступными инструментами искусственного интеллекта, используемыми для создания дезинформации, на Мету оказывается давление, чтобы продемонстрировать свою приверженность борьбе с искусственными подделками. Без конкретных данных о распространенности синтетического и аутентичного контента на платформах Меты и эффективности их систем обнаружения искусственного интеллекта, трудно делать окончательные выводы. Однако с многочисленными предстоящими выборами впереди усилия Меты по противодействию дезинформации, созданной искусственным интеллектом, привлекают внимание.

🔗 Ссылки:Meta запускает автономный генератор изображений на базе ИИСовет надзора призывает Meta переписать ‘непоследовательные’ правила против поддельных видеороликовОт помощника на базе ИИ до модификатора изображений: новые функции Meta

💡 Вопросы и ответы читателей: В: Расширится ли маркировка созданного ИИ-контента на видео и аудио? О: В настоящее время Meta маркирует сгенерированные ИИ изображения, но обнаружение и маркировка сгенерированных ИИ видео и аудио являются сложными задачами. Компания активно работает над разработкой инструментов для идентификации такого контента. Однако на данный момент главный фокус сосредоточен на маркировке сгенерированных ИИ изображений.

В: Существуют ли какие-либо наказания для пользователей, которые не разглашают информацию о созданном ИИ-контенте? О: Да, Meta имеет действующую политику Стандартов сообщества, которая применяется ко всем пользователям по всему миру. Пользователи, которые не указывают вручную информацию о том, что видео создано с помощью ИИ и выглядит “фотореалистично”, могут быть наказаны, включая блокировку или отключение аккаунта.

В: Как Meta планирует решить риски манипулирования контентом, не связанным с ИИ? О: В то время как последние усилия Meta сосредоточены на сгенерированном ИИ контенте, Совет надзора призвал компанию пересмотреть свою политику по отношению к рискам манипулирования контентом, не связанным с ИИ. Meta пока не озвучила конкретные планы в ответ на эту рекомендацию.

В: Могут ли партнеры по проверке фактов опровергать сгенерированный ИИ контент, помимо его маркировки? О: Да, партнеры по проверке фактов имеют право опровергать сгенерированный ИИ контент, если он содержит ложную информацию. Помимо маркировки как созданного с помощью ИИ, недостоверный или вводящий в заблуждение контент также может быть опровергнут.

🌐 Будущее созданного ИИ-контента в социальных сетях

По мере развития ИИ он будет играть все более значительную роль в формировании наших онлайн-представлений. Усилия Meta по маркировке сгенерированного ИИ-контента и исследованию генеративного ИИ в качестве инструмента модерации контента подчеркивают важность решения задач, связанных с дезинформацией. Разработка надежных техник обнаружения и четких политик будет иметь решающее значение в будущем. Распространение сгенерированного ИИ-контента в сочетании с риском манипуляции служит напоминанием о необходимости ответственного поведения в интернете и критического мышления.

📢 Поделитесь своими мыслями!

Каковы ваши мысли о расширении Meta маркировки сгенерированного ИИ-контента? Считаете ли вы, что это поможет эффективно бороться с дезинформацией? Поделитесь своими взглядами в комментариях ниже и присоединяйтесь к обсуждению!

🙌 Понравилась статья? Не забудьте поделиться ею в социальных сетях!

Отказ от ответственности: Эта статья предназначена только для информационных целей. Мнения, выраженные в этой статье, являются личными мнениями автора и не обязательно отражают официальные политики или позиции Meta или ее дочерних компаний.


🔍 Ссылки:Meta запускает автономный генератор изображений на базе ИИСовет надзора призывает Meta переписать ‘непоследовательные’ правила против поддельных видеороликовОт помощника на базе ИИ до модификатора изображений: новые функции Meta