Google DeepMind создает организацию по безопасности искусственного интеллекта для борьбы с дезинформацией.

Google DeepMind, исследовательский и разработческий отдел Google, отвечающий за многие последние достижения компании в области искусственного интеллекта, представляет новую организацию, ориентированную на безопасность в исследованиях в области ИИ.

“`html

Google DeepMind создает новую организацию, посвященную обеспечению безопасности искусственного интеллекта | ENBLE

Если вы попросите Гемини, флагманскую модель GenAI от Google, написать вводящий в заблуждение контент о предстоящих президентских выборах в США, он с удовольствием согласится. Спросите о предстоящей игре Супер Боул, и он изобретет последовательность событий. Или поинтересуйтесь об имплозии подводной лодки Titan, и он предоставит дезинформацию с убедительными, но ложными цитатами.

Нельзя не отметить, что это выглядит не очень благоприятно для Google. Политики выразили свое недовольство легкостью, с которой инструменты GenAI могут использоваться для распространения дезинформации и введения людей в заблуждение. В ответ Google принимает меры и направляет инвестиции в область безопасности искусственного интеллекта. По крайней мере, такова официальная версия.

Новая организация Google DeepMind: безопасность и выравнивание искусственного интеллекта

Сегодня утром Google DeepMind, раздел исследований и разработок искусственного интеллекта, ответственный за Гемини и другие проекты GenAI, объявил о создании новой организации под названием AI Safety and Alignment. Эта организация включает существующие команды, работающие в области безопасности искусственного интеллекта, а также новые специализированные группы исследователей и инженеров GenAI.

Хотя Google не раскрыл количество новых сотрудников, участвующих в формировании, он сообщил, что AI Safety and Alignment будет включать команду, сосредоточенную на безопасности в области общего искусственного интеллекта (AGI). Эта команда будет работать рядом с существующей командой исследований, сосредоточенной на безопасности искусственного интеллекта в Лондоне, Scalable Alignment, которая исследует решения технического вызова контроля сверхинтеллектуального искусственного интеллекта.

Почему две группы работают над одной проблемой?

Это вполне обоснованный вопрос, и нежелание Google раскрывать много деталей оставляет место для размышлений. Однако стоит отметить, что новая команда в составе AI Safety and Alignment базируется в США, рядом с штаб-квартирой Google. Это свидетельствует о том, что Google активно пытается догнать конкурентов в области искусственного интеллекта, продемонстрировав ответственный и взвешенный подход к AI.

Другие группы в организации AI Safety and Alignment отвечают за разработку и внедрение конкретных мер безопасности в текущие и предстоящие модели Гемини от Google. Некоторые из их ближайших приоритетов включают предотвращение неверных медицинских рекомендаций, обеспечение безопасности детей и избегание увеличения предвзятости и других несправедливостей.

Во главе угла: Анка Драган

Анка Драган, ранее научный сотрудник Waymo и профессор информатики в университете Калифорнии в Беркли, возглавит команду в AI Safety and Alignment. Она утверждает, что их работа направлена на то, чтобы модели лучше понимали человеческие предпочтения и ценности, были более устойчивы к вредоносным атакам и учитывали динамику человеческих ценностей и точек зрения.

С учетом участия Драган в системах безопасности искусственного интеллекта с Waymo, можно поднять брови, учитывая недавнюю рекордную деятельность автономного автомобиля. Однако она считает, что ее работа в университете Калифорнии в Беркли и в DeepMind дополняют друг друга. Она подчеркивает, что решение настоящих проблем и смягчение долгосрочных рисков не исключают друг друга.

Предстоящие вызовы

Скепсис по отношению к инструментам GenAI находится на исторически высоком уровне, особенно в отношении дипфейков и дезинформации. Общественность, предприятия и регуляторы все более обеспокоены недостатками технологии и ее потенциальными последствиями. Проблемы, такие как соблюдение, конфиденциальность, надежность и отсутствие технических навыков, необходимых для эффективного использования инструментов GenAI, вызывают опасения.

Тем не менее, Драган признает неразрешимость вызовов безопасности искусственного интеллекта, не давая обещаний о создании идеальной модели. DeepMind намерен вложить больше ресурсов в эту область и обвиниться в рамки для оценки риска безопасности модели GenAI в ближайшее время. Драган считает, что решение проблем человеческих когнитивных искажений, включение оценок неопределенности и добавление мониторинга и диалогов подтверждения критичны. Однако остается вызов обеспечить, чтобы модель не вела себя неправильно в способы, которые трудно обнаружить до внедрения.

Будущее безопасности искусственного интеллекта

В конечном итоге цель – создать модель, которая будет полезной и безопасной со временем. Хотя неизвестно, как клиенты, общественность и регуляторы отреагируют на потенциальные неправильные действия, фокус на безопасности искусственного интеллекта – это шаг в правильном направлении. Усилия организации AI Safety and Alignment, а также другие инициативы в отрасли будут играть ключевую роль в обеспечении защиты от дезинформации и сохранении доверия к технологии искусственного интеллекта.


Q&A:

Q: Какова цель организации AI Safety and Alignment?

“““html

A: Организация по безопасности и выравниванию искусственного интеллекта стремится разработать меры безопасности и гарантировать безопасность моделей GenAI, с основным упором на предотвращение дезинформации, обеспечение безопасности детей и избежание усиления предвзятости и других несправедливостей.

Q: Кто будет возглавлять команду в области безопасности и выравнивания искусственного интеллекта?

A: Анка Драган, бывший исследователь исследовательского сотрудника Waymo и профессор Университета Калифорнии в Беркли, будет возглавлять команду.

Q: Каковы вызовы в обеспечении безопасности искусственного интеллекта?

A: Дипфейки, дезинформация, соблюдение законодательства, конфиденциальность, надежность и отсутствие технических навыков, необходимых для использования инструментов GenAI – некоторые из вызовов, которые необходимо решить для обеспечения безопасности искусственного интеллекта.

Q: Как сделать модели искусственного интеллекта более устойчивыми к атакам злоумышленников?

A: Модели искусственного интеллекта будут улучшены за счет учета человеческих когнитивных предвзятостей в обучающих данных, включения оценок неопределенности и добавления мониторинга и диалогов подтверждения для конкретных решений.

Q: Какова долгосрочная цель организации по безопасности и выравниванию искусственного интеллекта?

A: Организация стремится разработать модели, которые понимают человеческие предпочтения и ценности, устойчивы к атакам злоумышленников и учитывают динамическую природу человеческих ценностей и точек зрения.


References:

  1. Gemini: Google’s GenAI model
  2. Tackling Disinformation Risks on TikTok
  3. The Impact of AI Technology on Deepfakes
  4. Understanding the Risks of AGI
  5. OpenAI’s Superalignment Division
  6. Ensuring Child Safety in AI Models
  7. Addressing Bias and Injustice in AI
  8. Quantitative Analysis of the AI Safety Challenge

Do you think Google’s efforts in AI safety will effectively combat misinformation? How do you envision the future of AI technology? Share your thoughts below and spread the word! 💬🔁

“`