Гиганты искусственного интеллекта обещают разрешить внешнее исследование своих алгоритмов в рамках нового соглашения Белого дома

AI giants promise to allow external investigation of their algorithms under the new White House agreement

Белый дом достиг соглашения с ведущими разработчиками искусственного интеллекта, включая Amazon, Google, Meta, Microsoft и OpenAI, которое обязывает их предпринимать меры по предотвращению выпуска вредоносных моделей искусственного интеллекта в мир.

В рамках соглашения, которое Белый дом называет “добровольным обязательством”, компании обязуются проводить внутренние тесты и разрешать внешние испытания новых моделей искусственного интеллекта перед их публичным выпуском. Тестирование будет проводиться для выявления проблем, включая предвзятое или дискриминационное поведение, уязвимости в области кибербезопасности и риски общественного вреда. Стартапы Anthropic и Inflection, разработчики заметных конкурентов OpenAI’s ChatGPT, также приняли участие в соглашении.

“Компании обязаны гарантировать безопасность своих продуктов перед их представлением общественности, тестируя безопасность и возможности своих систем искусственного интеллекта”, – заявил специальный советник Белого дома по искусственному интеллекту Бен Бьюкенан журналистам на брифинге вчера. Риски, на которые компании были попросили обратить внимание, включают нарушения конфиденциальности и даже возможные угрозы биологической безопасности. Компании также обязались публично сообщать ограничения своих систем и о рисках для безопасности и общества, которые они могут представлять.

В соглашении также говорится, что компании разработают системы с водяными знаками, которые позволят легко определить аудио и изображения, созданные искусственным интеллектом. OpenAI уже добавляет водяные знаки на изображения, созданные его генератором изображений Dall-E, и Google заявил, что разрабатывает аналогичную технологию для создания изображений с помощью искусственного интеллекта. Помощь людям в определении, что является реальным, а что поддельным, становится все более актуальной проблемой, поскольку политические кампании, кажется, обратились к генеративному искусственному интеллекту перед выборами в США в 2024 году.

Недавние прорывы в системах генеративного искусственного интеллекта, способных создавать текст или изображения, вызвали возобновление гонки в области искусственного интеллекта между компаниями, адаптирующими технологию для задач, таких как поиск в Интернете и написание рекомендательных писем. Но новые алгоритмы также вызвали возрождение опасений относительно того, что искусственный интеллект укрепляет угнетающие социальные системы, такие как сексизм или расизм, усиливает дезинформацию во время выборов или становится инструментом для киберпреступности. В результате во многих частях мира, в том числе в Вашингтоне, округ Колумбия, регуляторы и законодатели усилили требования к новому регулированию, включая требования к оценке искусственного интеллекта перед его внедрением.

Неясно, насколько соглашение изменит работу крупных компаний по искусственному интеллекту. Уже сейчас растущая осведомленность о потенциальных негативных аспектах технологии привела к привычке технологических компаний нанимать специалистов по политике искусственного интеллекта и проводить тестирование. У Google есть команды, которые тестируют его системы, и она публикует некоторую информацию, такую как предполагаемые сценарии использования и этические соображения для определенных моделей искусственного интеллекта. Meta и OpenAI иногда приглашают внешних экспертов для проверки надежности их моделей в подходе, названном красно-синим тестированием.

“Руководствуясь вечными принципами безопасности, надежности и доверия, добровольные обязательства адресуют риски, связанные с передовыми моделями искусственного интеллекта, и способствуют принятию конкретных практик, таких как красно-синее тестирование и публикация отчетов о прозрачности, которые будут продвигать весь экосистему вперед”, – написал президент Microsoft Брэд Смит в своем блоге.

Потенциальные общественные риски, на которые компании обязуются обращать внимание в рамках соглашения, не включают углеродный след при обучении моделей искусственного интеллекта, проблема, которая часто упоминается в исследованиях влияния систем искусственного интеллекта. Создание такой системы, как ChatGPT, может потребовать тысячи мощных компьютерных процессоров, работающих в течение продолжительного времени.

Андрю Берт, управляющий партнер юридической фирмы BNH, специализирующейся на искусственном интеллекте, говорит, что потенциальные риски систем генеративного искусственного интеллекта становятся ясными для всех, связанных с этой технологией. Федеральная торговая комиссия начала расследование деловых практик OpenAI на прошлой неделе, обвиняя компанию в “нечестных или обманчивых практиках в отношении конфиденциальности или безопасности данных”.

Требование Белого дома о проведении внешних оценок технологий компаний добавляет доказательство тому, что внешние аудиты становятся “центральным способом, с помощью которого правительства осуществляют надзор за системами искусственного интеллекта”, – говорит Берт.

Белый дом также пропагандирует использование аудитов в добровольной “Билле прав искусственного интеллекта”, опубликованной в прошлом году, и поддерживает конкурс хакеров, связанный с моделями генеративного искусственного интеллекта на конференции по безопасности Defcon в следующем месяце. Аудиты также требуются в широкомасштабном акте Европейского союза по искусственному интеллекту, который в настоящее время находится на стадии финализации.

Джейкоб Аппел, главный стратег в ORCAA, компании, которая проводит аудиты алгоритмов для бизнеса и правительства, говорит, что соглашение приветствуется, но общие оценки больших языковых моделей, таких как те, которые стоят за ChatGPT, недостаточны. Он говорит, что специфические случаи применения искусственного интеллекта с высоким риском, такие как чат-бот, настроенный на создание медицинских или юридических консультаций, должны проходить свои собственные индивидуальные оценки, и системы от меньших компаний также должны быть изучены.

Президент Джо Байден встретится сегодня в Белом доме с руководителями компаний, присоединившимися к новому соглашению по искусственному интеллекту, включая генерального директора Anthropic Дарио Амодеи, президента Microsoft Брэда Смита и генерального директора Inflection AI Мустафу Сулеймана. Его администрация также разрабатывает указ, регулирующий использование искусственного интеллекта через действия федеральных агентств, но Белый дом не указал конкретный срок его публикации.

Обновлено 21 июля 2023 года, 14:20 EDT: В этой статье был добавлен комментарий Джейкоба Аппеля из ORCAA.