Гемини от Google продолжает опасное запутывание технологии искусственного интеллекта

Google продолжает создавать опасность с искусственным интеллектом, вопреки ожиданиям Гемини

Веб-сайт Google Gemini на ноутбуке, который гласит: Добро пожаловать в эру Gemini

До этого года, можно было много узнать о технологии искусственного интеллекта, просто прочитав документацию, опубликованную Google и другими лидерами в области ИИ с каждой новой программой, которую они выпускали. Открытое раскрытие было нормой для мира ИИ. 

Все изменилось в марте этого года, когда OpenAI решила объявить о своей последней программе GPT-4, практически не предоставив технических подробностей. В исследовательской статье, предоставленной компанией, были замаскированы практически все важные детали GPT-4, которые позволили бы исследователям понять его структуру и попытаться воспроизвести его эффекты. 

Также: ИИ в 2023 году: год прорывов, которые не оставили нетронутыми ни одного человека

На прошлой неделе Google продолжила этот новый подход к запутыванию, объявив о формальном выпуске своей новейшей программы генеративного ИИ Gemini, разработанной в сотрудничестве с его подразделением DeepMind, которая была впервые представлена в мае. Исследователи Google и DeepMind предложили техническую заметку, лишенную технических спецификаций, и сопровождающий технический отчет, почти полностью лишенный каких-либо релевантных технических деталей. 

Весьма значительная часть технического отчета и технической заметки ссылается на множество показателей эффективности, где Google хвастается тем, что по большинству измерений Gemini превосходит GPT-4 от OpenAI, а также – предыдущую верхнюю нейронную сеть Google, PaLM. 

Ни в блоге, ни в технической статье не содержатся ключевые детали, которые были обычны в прошлые годы, такие как количество “параметров” искусственной нейронной сети или “весов” программы, ключевого аспекта ее проектирования и функционирования. Вместо этого Google ссылается на три версии Gemini, с тремя разными размерами: “Ультра”, “Профессиональная” и “Нано”. В статье указывается, что Nano обучается с двумя разными количествами весов – 1,8 миллиарда и 3,25 миллиарда, в то время как весы для других двух размеров не разглашаются. 

Также: Эти 5 главных технологических новинок 2023 года стали глобальными переломными точками

Множество других технических деталей отсутствует, как и в технической статье GPT-4 от OpenAI. В отсутствие технических деталей, онлайн-дебаты сосредоточены на вопросе о значимости показателей эффективности. 

Исследователь OpenAI Роуэн Зеллерс написал в X (ранее Twitter), что Gemini «впечатляет» и добавил: «У меня также нет ясного представления о том, насколько можно доверять десяткам или около того текстовых показателей эффективности, о которых сообщают все работы, связанные с LLM в наши дни». 

😂 На более серьезной ноте – модель Gemini впечатляет (с нетерпением жду, чтобы поиграть с новыми аспектами мультимодальности!) У меня также нет ясного представления о том, насколько можно доверять десяткам или около того текстовых показателей эффективности, о которых сообщают все работы, связанные с LLM в наши дни.😀

— Роуэн Зеллерс (@rown) 7 декабря 2023 года

Сайт новостей о технологиях ENBLE’s Кайл Виггерс сообщает о случаях плохой производительности поисковой системы Бард от Google, усовершенствованной Gemini. Он ссылается на посты на X, где люди задают вопросы Барду, такие как кинофакты или предложения словаря, и сообщают о неудачах.

Также: Я попросил DALL-E 3 создать портрет каждого штата США, и результаты оказались великолепно странными

Оскорбления являются обычным явлением при внедрении новой технологии или продукта. Однако раньше на основе технических деталей внешние эксперты могли делать более обоснованные оценки возможностей, анализируя технические различия между последней программой и ближайшими предшественниками, такими как PaLM.

В связи с отсутствием такой информации оценка идет наугад, когда люди случайно вводят вещи в Барда.

Резкое стремление к тайности со стороны Google и OpenAI становится серьезной этической проблемой для технологической индустрии, потому что никто, кроме OpenAI и ее партнера Microsoft, не знает, что происходит в черном ящике их вычислительного облака.

В октябре ученые Эмануэле Ла Мальфа из Университета Оксфорда и сотрудники Института Алана Тьюринга и Университета Лидса предупредили, что непонятность GPT-4 и других моделей “создает серьезную проблему” для ИИ в обществе, а именно, “самые мощные и рискованные модели наиболее сложны для анализа”.

Отсутствие открытости со стороны Google, хотя и не удивительно, учитывая их коммерческую борьбу с OpenAI и партнером Microsoft за рыночную долю, становится еще более явным по одному очень большому упущению: отсутствию модельных карт.

Модельные карты – это форма стандартного документирования, используемая в ИИ для сообщения о деталях нейронных сетей, включая потенциальные проблемы программы (ненавистная речь и т. д.). В отчете GPT-4 от OpenAI пропущены большинство деталей, но хотя бы сделана упоминание о модельных картах в разделе “Системная карта GPT-4” в документе, она говорит, что была вдохновлена модельными картами.

Гугл даже не идет так далеко, не представляя ничего, напоминающего модельные карты. Это упущение особенно странно, учитывая, что модельные карты были изобретены в Google командой, в которую входили Маргарет Митчелл, бывший соучредитель Этического ИИ в Google, и бывший соучредитель Тимнит Гебру.

Вместо модельных карт отчет содержит краткий, довольно странный отрывок о развертывании программы с неопределенным языком о наличии модельных карт в будущем:

После завершения проверок для каждой одобренной модели Gemini создаются модельные карты ?? [выделение Гугла] для структурированной и согласованной внутренней документации по критическим характеристикам работы и ответственности, а также для соответствующей внешней коммуникации этих характеристик с течением времени.

Если Google ставит вопросительные знаки рядом с модельными картами в собственном техническом докладе, то приходится задумываться о будущем контроля и безопасности нейронных сетей.

</