Разбор рисков ЕС требует больше информации от гигантов технологической отрасли о генеративном искусственном интеллекте

Европейская комиссия направила ряд официальных информационных запросов (RFI) к Google, Meta, Microsoft, Snap, TikTok и X относительно их подхода к управлению рисками, связанными с использованием генеративного искусственного интеллекта.

“`html

EU усиливает контроль за большими платформами из-за рисков GenAI перед выборами | ENBLE

Европейская комиссия не рискует, когда речь идет о потенциальных опасностях генеративного ИИ. Сделав шаг, который вызвал шок в индустрии технологий, Комиссия официально запросила информацию у нескольких крупных игроков, включая Google, Meta, Microsoft, Snap, TikTok и X, о том, как они управляют рисками, связанными с этой передовой технологией.

В чем дело?

Требования Европейской комиссии основаны на Законе об услугах в цифровой сфере (DSA), который определяет правила и регулирование электронной торговли и онлайн-управления в Европейском союзе. Эти техногиганты, также известные как очень крупные онлайн-платформы (VLOPs), были назначены таковыми Комиссией, что означает, что у них есть дополнительные обязанности помимо простого соблюдения книги правил.

Комиссия особенно интересуется тем, как эти платформы смягчают риски, связанные с генеративным ИИ. К ним относятся такие проблемы, как создание ложной информации, вирусное распространение дипфейков и потенциальное манипулирование услугами, которое может ввести избирателей в заблуждение. Регуляторы ЕС не оставляют камня на камне, также запрашивая информацию о влиянии генеративного ИИ на избирательные процессы, распространение незаконного содержания, защиту основных прав, насилие на гендерной почве, защиту несовершеннолетних и психическое благополучие.

Тестирование ИИ для политических дипфейков

Европейская комиссия не останавливается при запросах информации. Они планируют серию стресс-тестов для оценки готовности этих платформ к управлению рисками генеративного ИИ, таких как возможность потока политических дипфейков. Приближаясь к выборам в Европейский Парламент в июне, ЕС решительно нацелен на то, чтобы убедиться, что платформы полностью готовы обнаруживать и бороться с любыми инцидентами, которые могли бы поставить под угрозу интегритет выборов.

«Мы хотим подтолкнуть платформы рассказать нам, что они делают, чтобы быть максимально подготовленными… к любым инцидентам, которые мы можем обнаружить и на которые мы должны будем реагировать в период предвыборной кампании», – сказал высокопоставленный представитель Комиссии, выступающий под анонимностью.

Создание экосистемы контроля

Безопасность выборов – один из приоритетов Комиссии, и они работают над разработкой формальных руководящих принципов для VLOPs в этом отношении. Предстоящие Руководящие принципы по безопасности выборов нацелены на то, чтобы пойти «намного дальше», чем недавнее соглашение в индустрии технологий о борьбе с обманным использованием ИИ во время выборов. ЕС планирует использовать тройной удар по мерам защиты: четкие правила должной осмотрительности DSA, Кодекс практики против дезинформации и правила маркировки прозрачности/AI в рамках готовящегося закона об ИИ.

Цель? Создание “экосистемы структур контроля”, к которым можно обратиться вопросах безопасности выборов.

Широкий спектр рисков генеративного ИИ

Хотя внимание ЕС сосредоточено на безопасности выборов, они хорошо осведомлены о том, что генеративный ИИ создает риски за пределами манипуляции избирателями. Вред, связанный с дипфейками порнографического характера и другими злонамеренными формами синтетического контента, независимо от типа производимых средств медиа, также находится в центре внимания Комиссии. Помимо избирательных рисков, контроль за VLOP в рамках DSA касается также проблем, как незаконное содержание (включая ненавистный речь) и защита детей.

Комиссия установила крайний срок 24 апреля для платформ предоставить ответы на их запросы об информации относительно этих других рисков генеративного ИИ.

Продвижение за пределы VLOP

ЕС беспокоится не только о крупных платформах, но и о меньших игроках, которые могут потенциально распространять ложные или злонамеренные дипфейки. Хотя эти меньшие платформы и производители инструментов ИИ не находятся под явным контролем DSA, Комиссия планирует оказать косвенное давление через крупные платформы, выступающие в качестве усилителей или каналов распространения. Они также полагаются на механизмы саморегулирования, такие как Кодекс практики против дезинформации и соглашение об ИИ.

Q&A: Что вам, возможно, захочется знать

Q: Что такое генеративный ИИ?

A: Генеративный ИИ относится к технологиям искусственного интеллекта, способным автономно создавать новый контент или информацию. Это может включать генерацию текста, изображений, видео или других форм медиа.

Q: Что такое дипфейки?

A: Дипфейки – это реалистичные, манипулированные видео или изображения, созданные с использованием алгоритмов ИИ. Это может создать впечатление, что кто-то сказал или сделал что-то, что на самом деле никогда не происходило, что может привести к потенциальной дезинформации и манипуляции.

“““html

Q: Как deepfakes влияют на выборы?

A: Deepfakes могут использоваться для распространения ложной информации о политических кандидатах или для манипуляции восприятием общественности политического события или заявления. Это может подорвать целостность выборов, вводя избирателей в заблуждение и создавая путаницу.

Q: Каковы потенциальные риски генеративного искусственного интеллекта помимо безопасности выборов?

A: Генеративный искусственный интеллект может создавать риски, такие как создание вредного синтетического контента, включая порнографию deepfake, ненавистную речь или другие вредные медиа. Это также может иметь последствия для защиты детей и распространения незаконного контента.

Будущее регулирования генеративного искусственного интеллекта

Действия Европейской комиссии подчеркивают увеличивающееся признание рисков, связанных с технологией генеративного искусственного интеллекта. Поскольку возможности искусственного интеллекта продолжают развиваться, необходимо установить четкие руководящие принципы и обязательные нормы, чтобы гарантировать ответственное и этичное использование этих технологий. Упор ЕС на создание экосистемы контрольных структур демонстрирует их стремление опережать события и обеспечивать безопасность выборов и онлайн-контента.

С надвигающимися стресс-тестами и предстоящими Руководящими Принципами по Безопасности Выборов ЕС посылает ясный сигнал техногигантам: Эпоха повышенной ответственности и проактивных мер наступила. Давайте надеяться, что их усилия приведут к безопасному, более прозрачному цифровому пространству.

Ссылки

“`