Ограниченное понимание правительства Великобритании о безопасности искусственного интеллекта Упустили ли они золотую лихорадку искусственного интеллекта?

Новый отчет говорит о том, что фокус правительства Великобритании на безопасности искусственного интеллекта слишком ограничен, рискуют отстать в гонке за развитием ИИ.

Британскому правительству рекомендуется принять более позитивный подход к LLM (легальным и языковым модераторам), чтобы не упустить шанс на золотую лихорадку искусственного интеллекта.

🤖💥 Возможно, британское правительство слишком “узко” смотрит на вопросы безопасности искусственного интеллекта, и такой подход может отставить его от гонки за искусственным интеллектом. Таков ключевой вывод доклада, выпущенного Комитетом по связи и цифровым технологиям Палаты лордов. Доклад, в составлении которого принимали участие широкий круг заинтересованных лиц, предлагает правительству больше фокусироваться на немедленных рисках безопасности искусственного интеллекта, возникающих при использовании больших моделей языка (LLM), вместо того, чтобы увлекаться преувеличенными апокалиптическими сценариями. Давайте подробно изучим детали и рассмотрим возможные последствия!

Влияние искусственного интеллекта на общество

🌍🤖 Развитие искусственного интеллекта, особенно больших моделей языков, таких как ChatGPT от OpenAI, ожидается, что окажет глубокое влияние на общество, схожее с воздействием интернета. Признавая это, британскому правительству необходимо выбрать правильный подход, чтобы использовать возможности, которые предлагает искусственный интеллект. Признание рисков является ключевым, но не следует пропустить возможности, которые предлагает гонка за искусственным интеллектом, быть излишне осторожными с долгосрочными и невероятными рисками. Председатель Комитета по связи и цифровым технологиям леди Стоуэлл подчеркивает необходимость сбалансированного и практичного подхода.

🔒 Регулирование искусственного интеллекта представляет сложность, так как мнения о необходимости регулирования этой технологии различаются. Главный ученый по искусственному интеллекту в Meta Янн Лекун и другие авторы заявления призывают к большей открытости в развитии искусственного интеллекта, предупреждая об опасности регулирования со стороны крупных технологических компаний. Это напряжение между закрытыми и открытыми экосистемами является движущей силой, стоящей за рекомендациями доклада, в которых правительство призывается сделать маркетинговую конкуренцию особым объектом политики в области искусственного интеллекта.

Битва за управление искусственным интеллектом

🏰✨ Битва за управление искусственным интеллектом набирает обороты по всему миру. Президент Байден недавно подписал указ о создании стандартов безопасности искусственного интеллекта, а Великобритания стремится занять лидирующую позицию в области управления искусственным интеллектом через такие инициативы, как АИ-саммит по безопасности. В докладе подчеркивается важность динамики конкуренции и акцентируется внимание на том, что результат будет определять как рынок искусственного интеллекта / LLM, так и требуемые нормативные установки. Конкуренция жестока!

🖋️🔒 Однако компании, ведущие разработку LLM, также выступают за регулирование, выражая опасения о возможном захвате регулирования. Достижение баланса между конкуренцией и регулированием является необходимым для предотвращения монопольных практик и обеспечения справедливого доступа к рынку. Доклад предлагает расширенные меры управления для смягчения рисков непреднамеренного захвата регулирования и группового мышления, подчеркивая необходимость прозрачности и внешней критики.

Узкий фокус на безопасности искусственного интеллекта

🧠💡 В докладе утверждается, что обсуждение безопасности искусственного интеллекта стало владением узкого нарратива, сосредотачивающегося на катастрофических рисках и сценариях конца света. Хотя доклад рекомендует проведение тестов безопасности для моделей с высоким риском, он также указывает, что опасения относительно существенных рисков преувеличены. Он призывает правительство более активно заниматься немедленными рисками, создаваемыми LLM, такими как создание и распространение неправильной и дезинформационной информации. Предстоящие выборы подчеркивают насущность эффективного решения этих проблем.

⚖️📚 Нарушение авторских прав является еще одной актуальной проблемой. Доклад признает, что LLM зависят от огромных наборов данных для правильной работы, но использование защищенного авторским правом материала без разрешения или оплаты не оправдано. Британскому правительству следует незамедлительно принять меры по решению этой проблемы и обеспечить соблюдение авторского права при обучении LLM.

Нахождение правильного баланса

🔍🔒 Доклад признает необходимость оценки потенциальных инженерных путей, ведущих к катастрофическим рискам, и наличия механизмов для отслеживания и наблюдения за моделями искусственного интеллекта. Полное запрещение LLM рассматривается как непропорциональное и, вероятно, неэффективное решение. Вместо этого требуется скоординированное усилие по управлению и снижению рисков, связанных с их внедрением. Институт безопасности искусственного интеллекта должен сыграть ключевую роль в этом процессе.

💥😃 В заключение, британскому правительству необходимо пересмотреть свою стратегию в области безопасности искусственного интеллекта. При рассмотрении потенциальных рисков необходимо сосредоточиться на огромных преимуществах, которые может принести искусственный интеллект. Отставание в гонке за искусственным интеллектом может сделать Великобританию технологически зависимой от зарубежных фирм. Пора для правительства с использованием осторожности, инноваций и юмора войти в мир искусственного интеллекта.

🔍 Вопрос-ответ: Что вас может интересовать

📌 Q: Какие есть примеры рисков в области безопасности и общества, упомянутые в отчете?

🔎 A: Отчет подчеркивает опасения по поводу нарушения авторских прав, дезинформации, генерации поддельного контента, гиперреалистических ботов и кампаний с deepfake. Эти риски подчеркивают необходимость немедленных мер для защиты от злоупотребления ИИ и обеспечения защиты демократии.

📌 Q: Как правительство может гарантировать, что регулирование ИИ не будет благоприятствовать только нескольким доминирующим технологическим компаниям?

🔎 A: Чтобы избежать захвата регулирования и поддерживать справедливую конкуренцию, в отчете рекомендуются усиленные меры управления. К ним относятся оценка влияния новых политик на конкуренцию, включение “красных команд” и внешних критик в процессы разработки политики, а также подготовка чиновников для повышения их технических навыков. Цель состоит в том, чтобы предотвратить узкий круг экспертизы частного сектора в диктовании политики и стандартов.

📌 Q: Правительство рассмотрит возможность полного запрета больших языковых моделей?

🔎 A: В отчете сказано, что полный запрет больших языковых моделей является несоразмерным и неэффективным. Вместо этого следует сосредоточиться на управлении и смягчении рисков, связанных с этими моделями. Институт безопасности при использовании ИИ правительства должен сыграть ключевую роль в отслеживании и контроле этих моделей после их внедрения в реальные сценарии.

📌 Q: Как правительство собирается решать проблемы, связанные с злоупотреблением ИИ-моделей?

🔎 A: В отчете подчеркивается необходимость учета и пресечения злоупотреблений. Рекомендуется оценивать и публиковать предупредительные индикаторы катастрофического риска, усовершенствовать меры управления и разрабатывать способы идентификации и отслеживания ИИ-моделей после их внедрения. Такой многогранный подход направлен на достижение баланса между получением преимуществ от использования ИИ и смягчением потенциальных рисков.

📚 Ссылки

  1. Да, ChatGPT стал ленивее
  2. Купите премиальную золотую карту Costco и получите бесплатную подарочную карту на $40
  3. Лучшие сделки на робот-пылесос в ноябре 2023 года
  4. Probabl: новая ИИ-компания, создавшая популярную библиотеку scikit-learn
  5. Утро: комедийное шоу George Carlin, сгенерированное ИИ и написанное людьми