Искусственный интеллект становится более мощным, но также становится более секретным

Искусственный интеллект становится все более мощным, но его секреты остаются все более недоступными

Когда OpenAI опубликовала подробности о потрясающе способной ИИ-модели языка GPT-4, которая управляет ChatGPT, в марте, их исследователи наполнили 100 страниц. Они также пропустили несколько важных деталей – например, что-либо существенное о том, как она была построена и как она работает.

Конечно, это был не случайный пропуск. Компании OpenAI и другие крупные компании стремятся держать механизмы своих самых ценных алгоритмов в секрете, частично опасаясь неправильного использования технологии, а также опасаясь доверить конкурентам преимущество.

Зарегистрируйтесь сегодня

Еженедельная рассылка Fast Forward от ENBLEВилл Найт

Исследование, проведенное учеными из Стэнфордского университета на этой неделе, показывает, насколько глубокой и потенциально опасной является тайна вокруг GPT-4 и других передовых систем искусственного интеллекта. Некоторые исследователи искусственного интеллекта, с которыми я говорил, говорят, что мы находимся в период основного изменения подхода к искусственному интеллекту. Они опасаются, что этот период делает поле менее вероятным для научных достижений, лишает его ответственности, снижает надежность и безопасность.

Команда из Стэнфорда рассмотрела 10 различных систем искусственного интеллекта, в основном больших языковых моделей, таких как те, что стоят за ChatGPT и другими чатботами. К ним относятся широко используемые коммерческие модели, такие как GPT-4 от OpenAI, похожая на него PaLM 2 от Google и Titan Text от Amazon. В отчете также рассматривались модели стартапов, включая Jurassic-2 от AI21 Labs, Claude 2 от Anthropic, Command от Cohere и Inflection-1 от мейкера чатботов Inflection.

Они также изучали “открытые” модели искусственного интеллекта, которые можно бесплатно загрузить, а не получить доступ к ним исключительно через облако. Среди таких моделей была модель генерации изображений Stable Diffusion 2 и Llama 2, которая была выпущена Meta в июле этого года. (Как было ранее рассказано нам, эти модели часто не так “открыты”, как может показаться.)

Команда из Стэнфорда оценила открытость этих моделей по 13 различным критериям, включая прозрачность разработчика относительно данных, использованных для обучения модели, например, раскрытие того, как эти данные были собраны и аннотированы, и включают ли они материалы, защищенные авторским правом. В исследовании также искались сведения о аппаратном обеспечении, используемом для обучения и запуска модели, о применяемых программных каркасах и потреблении энергии проекта.

По всем этим показателям исследователи обнаружили, что ни одна модель не получила более 54 процентов прозрачности по их шкале по всем этим критериям. В целом, модель Titan Text от Amazon была признана наименее прозрачной, в то время как модель Llama 2 от Meta получила звание наиболее открытой. Но даже “открытая” модель, такая как Llama 2, оказалась довольно непрозрачной, потому что Meta не раскрыла данные, использованные для ее обучения, не описала, как эти данные были собраны и подготовлены, и не разгласила информацию о том, кто выполнил эту работу.

Натан Штраусс, представитель Amazon, заявил, что компания внимательно изучает данный индекс. “Titan Text все еще находится в частной предварительной версии, и было бы преждевременно судить о прозрачности базовой модели до того, как она будет готова для широкой доступности”, – говорит он. Meta отказалась комментировать отчет Стэнфорда, и OpenAI не ответила на просьбу о комментарии.

Риши Боммасани, студент-аспирант из Стэнфорда, который участвовал в исследовании, говорит, что оно отражает тот факт, что искусственный интеллект становится все более непрозрачным, даже когда он становится все более влиятельным. Это сильно отличается от последнего большого взлета искусственного интеллекта, когда открытость помогла сделать значительные прогрессы в области возможностей, включая распознавание речи и изображений. “В конце 2010-х годов компании были более открытыми в своих исследованиях и публиковали больше”, – говорит Боммасани. – “Вот почему у нас был успех глубокого обучения”.

Отчет Стэнфорда также указывает на то, что модели не должны быть так секретными по конкурентным причинам. Кевин Климан, исследователь политики в Стэнфорде, сказал, что факт того, что ряд ведущих моделей показывают относительно высокие результаты по различным показателям прозрачности, говорит о том, что все они могут стать более открытыми, не теряя конкурентоспособности.

Пока эксперты по искусственному интеллекту пытаются понять, куда повернется последнее расцвет определенных подходов к искусственному интеллекту, некоторые говорят, что секретность рискует сделать эту область менее научной дисциплиной, а больше ориентированной на прибыль.

“Это решающий момент в истории искусственного интеллекта”, – говорит Джесси Додж, ученый-исследователь в Институте Аллена по искусственному интеллекту, или AI2. “Сегодня наиболее влиятельные участники, создающие генеративные системы искусственного интеллекта, становятся все более закрытыми и не делятся ключевыми деталями своих данных и процессов”.

AI2 пытается разработать значительно более прозрачную модель языка искусственного интеллекта, называемую OLMo. Она обучается с использованием собранного с веб-сайтов, научных изданий, кода, книг и энциклопедий набора данных, называемого Dolma. Этот набор данных был выпущен под лицензией AI2 ImpACT. Когда OLMo будет готов, AI2 планирует выпустить рабочую систему искусственного интеллекта, а также код, чтобы позволить другим развивать проект.

Додж говорит, что расширение доступа к данным, лежащим в основе мощных моделей искусственного интеллекта, особенно важно. Без прямого доступа обычно невозможно знать, почему или как модель работает. “Продвижение науки требует воспроизводимости”, – говорит он. – “Не предоставляя открытого доступа ко всем этим важным блокам создания моделей, мы останемся в ‘закрытом’, застоявшемся и собственническом состоянии”.

Учитывая, насколько широко применяются модели искусственного интеллекта и много опасений экспертов относительно их возможной опасности, немного большей открытости было бы очень полезно.