Извинение Google за нелепую ошибку искусственного интеллекта становится вирусным 🤖💥

Google выразил сожаление (или приблизился к выражению сожаления) о еще одной смущающей ошибке своего искусственного интеллекта на этой неделе, связанной с моделью генерации изображений, которая вводит разнообразие.

“`html

Google признается, что потерял контроль над созданием изображений ИИ, называя это ‘смешным и неправильным’ | ENBLE

Google оказывается в неловкой ситуации снова, когда он извиняется (или очень близко к извинениям) за еще одну неудачу ИИ. На этот раз речь идет об изображающей модели под названием Gemini, которая инжектировала разнообразие в изображения с фарсовым пренебрежением к историческому контексту. Хотя легко указывать пальцем на модель, давайте не забывать, что она не создала себя сама, ребята! 😅

Объяснение неудачи

Gemini – флагманская платформа разговорного ИИ Google, которая использует модель Imagen 2 для генерации изображений по запросу. Недавно люди обнаружили, что если попросить Gemini создать изображения определенных исторических обстоятельств или людей, результаты будут смехотворными. Например, Основатели, которые, без сомнения, являются белыми рабовладельцами, были изображены как мультикультурная группа, включая людей цвета кожи. 🤦‍♂️

Естественно, эту забавную и легко воспроизводимую проблему быстро насмеялись онлайн-комментаторы. Она также была втянута в текущий дебат о разнообразии, равноправии и инклюзии, с критиками, принимающими ее как доказательство того, что “проснувшийся умовой вирус” внедряется в уже либеральный технологический сектор. 🙄

Причина неудачи

Прежде чем мы побежим осуждать Google, давайте поглубже вникнем в основную проблему. Проблема проистекает из обходного пути, разработанного для устранения системного предвзятости в тренировочных данных. Представьте себе: вы просите Gemini создать 10 изображений “человека, гуляющего с собакой в парке”, не определяя каких-либо характеристик. В этом случае генеративная модель возвращает то, с чем она наиболее знакома – изображения, найденные в тренировочных данных. К сожалению, многие из этих изображений имеют предвзятость, такую как перенасыщение белыми людьми.

Google хочет, чтобы Gemini работал хорошо для всех, независимо от их этнической принадлежности или любой другой характеристики. Так что, когда вы просите изображения футболистов или людей, гуляющих с собаками, вам, вероятно, предпочтительнее получить разнообразие людей, а не только один тип этнической группы. Но так как тренировочные данные могут предвзять модель в пользу определенных групп, необходимо включить неявные инструкции, чтобы обеспечить разнообразие и избежать однообразия.

Неявные инструкции и экосистема LLM

Неявные инструкции играют значительную роль в генеративных медиа-моделях и являются распространенной практикой, используемой различными компаниями, включая Google, OpenAI и Anthropic. Эти инструкции предоставляют руководство модели, гарантируя, что она придерживается определенных принципов и избегает проблемных результатов. Например, когда просите шутку, вы не хотите получить расистскую шутку (что модель была обучена избегать). Этот тип инструкции является инфраструктурой, а не тайным планом, скрывающимся под программным обеспечением.

Там, где неудачно сработала модель Google, это отсутствие неявных инструкций для ситуаций, где важен исторический контекст. Простое указание как “человек прогуливается с собакой в парке” улучшается с добавлением “человек случайного пола и этнической принадлежности”. Однако добавление тех же самых инструкций к запросу как “Основатели США подписывают Конституцию” даст нежелательные результаты.

Кто виноват?

В конечном итоге ответственность за ошибки ИИ лежит на людях, которые их создают, а не на самих моделях. Старший вице-президент Google Прабхакар Рагхаван признал, что модель стала более осторожной, чем задумывалось, и не справлялась с определенными запросами. Но как модель могла “стать” чем-то? Это просто программное обеспечение, которое инженеры тщательно разрабатывали, тестировали и модернизировали. Это как разбить стакан и винить его за падение, вместо того, чтобы признать, что его уронили (мы все там 😅).

Хотя с ошибками наверняка будут случаться с ИИ-моделями – они могут галлюцинировать, отражать предвзятости или вести себя непредсказуемо – крайне важно не впадать в дух истории о том, что модели делают свои собственные ошибки. Помните, что эти компании, будь то Google, OpenAI или X.AI, заинтересованы убедить вас обратного. Будьте критически насторожены, друзья! 💪


Вопрос и ответ: Обращение к дополнительным вопросам читателей

В: Как мы можем дополнительно бороться с системной предвзятостью в тренировочных данных ИИ?

О: Преодоление системной предвзятости в тренировочных данных ИИ безусловно является сложной задачей. Это требует многофакторного подхода, включающего инициативы, такие как диверсификация команд, разрабатывающих модели ИИ, обеспечение разнообразных и представительных наборов данных для обучения и внедрение этических соображений и рекомендаций на протяжении всего процесса разработки. Сотрудничество между технологическими компаниями, исследователями и законодателями необходимо для достижения существенных изменений.

“““html

Q: Есть ли другие примеры провалов искусственного интеллекта, вызванных предвзятостью обучающих данных?

A: Да, было несколько случаев, когда предвзятость обучающих данных привела к провалам искусственного интеллекта. Одним из известных примеров является чат-бот Tay компании Microsoft, который быстро превратился в расистскую и оскорбительную сущность после изучения взаимодействий пользователей в социальных сетях. Этот инцидент показал значительное влияние, которое предвзятые обучающие данные могут оказать на модели искусственного интеллекта, а также важность тщательной курирования и мониторинга данных, используемых для обучения.

Q: Как достигнуть баланса между разнообразием и исторической точностью в генерируемом искусственным интеллектом контенте?

A: Достижение баланса между разнообразием и исторической точностью в генерируемом искусственным интеллектом контенте требует обдуманных решений и четких инструкций, предоставленных моделям заранее. Компании должны гарантировать, что неявные инструкции охватывают ситуации, где исторический контекст критичен, предотвращая провалы, подобные тому, что испытала Google. Это тонкая грань, но с тщательным отбором обучающих данных и явными инструкциями мы можем стремиться к достижению как разнообразия, так и точности.


Отражения и перспективы

Недавний провал искусственного интеллекта Google подчеркивает сложности, сопутствующие созданию моделей искусственного интеллекта, которые борются с предвзятостью, обеспечивая при этом точные и разнообразные результаты. Хотя ответственность за ошибки лежит на создателях, крайне важно, чтобы технологические компании обдумывали свои практики и инвестировали в более надежные меры, чтобы предотвратить подобные провалы. По мере развития искусственного интеллекта важно отдавать приоритет прозрачности, ответственности и постоянному усовершенствованию систем искусственного интеллекта.

В будущем мы можем ожидать более продвинутых техник и фреймворков для борьбы с предвзятостью в обучающих данных и повышения производительности моделей искусственного интеллекта. Исследователи и инженеры продолжат совершенствовать способность моделей справляться с историческим контекстом и обслуживать глобальную аудиторию путем интеграции более явных инструкций и комплексных методов обучения.

Давайте оставаться бдительными, требовать прозрачности и нести ответственность перед технологическими компаниями, чтобы обеспечить, что системы искусственного интеллекта служат полезными инструментами, отражая ценности инклюзивности и справедливости, которых мы добиваемся.


🔍 References:

  1. BLM: Here’s How We’re Stuck on Diversity Commitments
  2. Tesla Lowers Model Range Estimates by 20 Miles
  3. EU Dials Attention to Larger Platforms’ Data Access Risk

Наслаждались этой статьей? 😄 Не забудьте поделиться ее с друзьями и коллегами! Давайте вместе распространять знания и юмор. 🚀✨

“`