Оксфордские ученые предупреждают о большом риске, связанном с незнанием того, над чем работает OpenAI в облаке.

Oxford researchers warn of a major risk associated with ignorance of what OpenAI is working on in the cloud.

Одним из ключевых событий в области искусственного интеллекта (ИИ) в 2023 году стало решение OpenAI, создателя ChatGPT, практически не раскрывать информацию о своей последней большой языковой модели (БЯМ), GPT-4, когда компания представила программу в марте.

Это внезапное стремление к тайне становится серьезной этической проблемой для технологической индустрии, потому что никто, кроме OpenAI и его партнера Microsoft, не знает, что происходит в черном ящике их вычислительного облака.

Также: GPT-4: OpenAI выбирает тайну вместо открытости

Об этом молчании был опубликован отчет в этом месяце учеными Эмануэле Ла Мальфа из Оксфордского университета и сотрудниками Института Алана Тьюринга и Университета Лидса.

В статье, размещенной на сервере предварительных печатных материалов arXiv, Ла Мальфа и его коллеги исследуют явление “языковых моделей-как-сервис” (яМКС), относящихся к БЯМ, которые размещены онлайн, либо за пользовательским интерфейсом, либо через API. Основными примерами такого подхода являются ChatGPT от OpenAI и GPT-4.

“Коммерческое давление привело к разработке больших и высокопроизводительных ЯМ [языковых моделей], доступных исключительно в виде сервиса для клиентов, возвращающих строки или токены в ответ на текстовый ввод пользователя, но для которых не доступна информация о архитектуре, реализации, процедуре обучения или обучающих данных, а также возможность осмотра или изменения их внутреннего состояния”, – пишут авторы.

Различия между открытыми языковыми моделями и яМКС. Пользователь открытых программ имеет полный контроль, в то время как клиенты услуги яМКС должны довольствоваться тем, что получают через браузер или API.

Эти ограничения доступа “внутренние для яМКС, в сочетании с их черно-ящичной природой, противоречат потребности общественности и научного сообщества в лучшем понимании, доверии и контроле”, – отмечают они. “Это вызывает значительную проблему в основе этой области: наиболее мощные и рисковые модели также являются самыми сложными для анализа”.

Эта проблема была отмечена многими сторонами, включая конкурентов OpenAI, особенно тех, кто полагается на открытый исходный код для преодоления закрытого исходного кода. Например, Эмад Мостак, генеральный директор стартапа по генеративному ИИ Stability.ai, который создает инструменты, такие как генератор изображений Stable Diffusion, заявил, что ни одно предприятие не может доверять закрытым программам, таким как GPT-4.

“Открытые модели будут важны для частных данных”, – сказал Мостак во время небольшой встречи с прессой и руководителями в мае. “Вам нужно знать все, что находится внутри них; эти модели настолько мощны”.

Также: GPT-3.5 против GPT-4: стоит ли подписка ChatGPT Plus своей стоимости?

Ла Мальфа и его команда рассматривают литературу о различных языковых моделях и определяют, как препятствие в виде затруднений аудита программ по четырем критическим факторам: доступности, воспроизводимости, сравнимости и достоверности.

Авторы отмечают, что эти проблемы являются новым развитием в этике искусственного интеллекта: “Эти вопросы специфичны для парадигмы яМКС и отличаются от существующих проблем, связанных с языковыми моделями”.

Также: Почему открытый исходный код является неотъемлемым элементом снятия опасений ИИ, по словам основателя Stability.ai

Доступность касается вопроса о сохранении кода в секрете, что, по мнению авторов, несправедливо выгодно для крупных компаний с огромными бюджетами на исследования и разработки.

“С неравномерным распределением вычислительной мощности, сосредоточенной в небольшом числе компаний, те, кто обладает технологическим, но не вычислительным преимуществом, сталкиваются с дилеммой: хотя публикация их яМКС принесла бы пользу в виде рыночной экспозиции и вклада в их кодовую базу со стороны сообщества, публикация кода, который обеспечивает модель, может быстро уничтожить их конкурентное преимущество в пользу игроков с более высокими вычислительными ресурсами”, – пишут они.

Кроме того, единая ценообразовательная политика программ яМКС означает, что люди в менее развитых странах оказываются в неравном положении при доступе к инструментам. “Начальной точкой для смягчения этих проблем является анализ влияния яМКС и, более обще, услуг искусственного интеллекта с оплатой за использование, как самостоятельной, повсеместной и разрушающей технологии”, – предлагают авторы.

Еще одной проблемой является растущий разрыв в обучении LLM: коммерческие программы могут повторно использовать запросы клиентов и таким образом отличаться от программ, которые используют только общедоступные данные, отмечают авторы.

Также: Как работает ChatGPT?

Коммерческие лицензии LMaaS, пишут они, “предоставляют компаниям право использовать запросы для предоставления, поддержки и улучшения своих услуг”, поэтому нет общего базового набора данных для обучения, из которого бы все черпали.

Они предлагают диаграмму (ниже), которая оценивает неравенство в том, собирают ли языковые модели запросы клиентов для обучения и “настройки”, которая в некоторых случаях повышает возможности языковой модели, и позволяют ли они пользователям отказаться.

Сравнение того, предлагают ли языковые модели возможность отказаться от использования данных клиентов и используют ли они данные для обучения и настройки своих черных ящиков.

После подробного описания различных рисков Ла Мальфа и его команда предлагают “предварительную повестку дня” для решения четырех областей, с упорством говоря, что “нам нужно работать сообща, чтобы найти решения, с помощью которых исследователи, законодатели и члены общественности могут доверять LMaaS”.

Во-первых, они рекомендуют, чтобы “компании должны публиковать исходный код” своих программ LMaaS, если не для широкой публики, то “LMaaS по крайней мере должна быть доступна аудиторам/экспертам/командам без права распространения”.

Также: Искусственные интеллект боты успешно сдают медицинские экзамены, но должны ли они стать вашим врачом?

Компании, они предлагают, не должны полностью отказываться от старых языковых моделей при внедрении новых. Или, по крайней мере, “все параметры, составляющие модель, должны быть хешированы, и ведомство по обслуживанию модели должно предлагать пользователю журнал ‘обновления модели’ при обновлении модели”. А сфера, включая журналы и конференции, должна “отказываться от использования моделей”, которые не следуют таким предосторожностям.

Для бенчмаркинга необходимо разработать инструменты для проверки, какие элементы LMaaS усвоили из своих запросов, чтобы установить точную базовую линию.

Очевидно, с LMaaS вопросы этики искусственного интеллекта перешли в новую фазу, в которой критическая информация хранится под замком, что делает этические выборы более сложными для всех, чем они были в прошлом.