Новые правила требуют от компаний по искусственному интеллекту информировать правительство США о своих достижениях

Администрация Байдена использует Закон о производстве обороны для обязательного уведомления компаний Министерству торговли при начале обучения развитым AI-алгоритмам.

OpenAI и другие гиганты технологической отрасли будут обязаны уведомлять правительство США, прежде чем начнут новые проекты в области искусственного интеллекта.

🤖💡 Правительство США собирается приобрести свой собственный шар гадания на основе ИИ, благодаря новым правилам, которые потребуют от компаний-технологов предварительного уведомления о достижениях, связанных с большими языковыми моделями. Администрация Байдена готовится использовать Закон о производстве обороны, чтобы обязать компании, такие как OpenAI, Google и Amazon, информировать правительство о каждом случае обучения ИИ-модели с использованием значительных вычислительных мощностей. В дополнение к анонсам прорывов, компании также должны будут делиться информацией о тестировании безопасности. 🚀

Знание – сила

Когда ChatGPT от OpenAI взорвал мир в прошлом году, появившись, казалось бы, из ниоткуда, это оставило многих знаменитостей в Силиконовой долине и Вашингтоне, округ Колумбия, в недоумении. Теперь правительство США решительно намерено не попасть врасплох. Закон о производстве обороны будет использоваться, чтобы правительство получило критическую информацию о прорывах в области ИИ-технологий, сосредоточив внимание на больших языковых моделях, таких как ChatGPT от OpenAI.

🔭 Новые требования позволят правительству США получить ключевую информацию о чувствительных проектах в области ИИ, реализуемых гигантами технологической отрасли, такими как OpenAI, Google и Amazon. Это похоже на предоставление правительству пропуска за кулисы мира ИИ. Они будут в курсе, когда начнутся работы над преемниками ChatGPT, такими как загадочный GPT-4. Наконец-то правительство, знающее секреты ИИ? Это похоже на то, что Санта Клаус, наконец, раскрывает местоположение своей мастерской. 🎅🏼✨

Сначала безопасность

Для эффективного контроля за развитием этих ИИ-проектов необходимо не только вооружиться всеми необходимыми примочками. Важность данных о тестировании безопасности также находится на первом месте. Компании должны будут раскрыть информацию о принятых мерах безопасности при создании и разработке своих ИИ-проектов. Правительство США играет роль и детектива, и инспектора по безопасности. Это похоже на группу следователей в области ИИ, ищущих и инновации, и потенциальные угрозы. 🕵️‍♀️⚠️

Детали новых правил будут объявлены в ближайшее время, и их реализацией будет заниматься Департамент коммерции. Джина Раймондо, министр торговли США, подчеркнула важность новых требований, заявив: “Мы используем Закон о производстве обороны, чтобы провести опрос, требующий от компаний делиться с нами информацией каждый раз, когда они обучают новую большую языковую модель и делиться с нами результатами, включая данные о безопасности.” 📊💡

Миссия

Новые правила являются частью более общего указа, выданного Белым домом в октябре. В соответствии с этим указом, Департамент коммерции получил задание создать систему отчетности для компаний, в которой будут предоставляться сведения о мощности вычислений, владении данными и тестировании безопасности их ИИ-моделей. Это похоже на требование представлять свидетельства о рождении, результаты генетического анализа и психологические оценки для работы с ИИ-конструкциями компаний. 👶🔬💊

Хотя конкретные требования для отчетности по моделям ИИ пока не определены, начальный порог для отчетности установлен высоким. Модели, превышающие 100 септиллионов (миллион миллиард миллиард или 10^26) операций с плавающей точкой в секунду (flops), должны будут быть отрапортованы. Однако большие языковые модели, работающие с данными по последовательности ДНК, должны будут пересечь порог, на тысячу раз ниже. Это похоже на создание американских горок для определения достаточной степени азарта, но у разных треков разные стандарты азарта. 🎢🌬️

Будьте бдительны над облаками

Новые требования не ограничиваются только технологическими компаниями, но также распространяются на поставщиков облачных вычислений. Amazon, Microsoft и Google, а также другие компании, должны будут уведомлять правительство, когда иностранные компании используют их ресурсы для обучения большой языковой модели. Чтобы претендовать на отчетность, иностранные проекты также должны превысить порог в 100 септиллионов flops. Похоже на то, что провайдеры облачных вычислений действуют как шпионы, сообщая правительству, когда иностранные агенты используют их ресурсы для игр с ИИ. 🕵️‍♂️☁️

Вопрос-ответ: удовлетворение дикой любопытства

Q: Почему правительство вводит эти новые требования?

A: Правительство хочет быть в курсе прорывов в области ИИ-технологий, особенно больших языковых моделей. Имея доступ к этой информации, они могут следить за потенциальными достижениями и обеспечивать соблюдение стандартов безопасности.

Q: Как это повлияет на компании, такие как OpenAI и Google?

А: Компании, такие как OpenAI и Google, должны предоставлять ключевую информацию о своих проектах искусственного интеллекта, включая использование вычислительных мощностей и проверку безопасности. Это может повысить прозрачность и ответственность в отрасли.

В: Существуют ли опасения по поводу порога для отчетности моделей искусственного интеллекта?

А: Некоторые эксперты считают, что конкретный порог может не быть лучшим показателем потенциальных рисков. Необходима более всесторонняя оценка моделей искусственного интеллекта, включая возможные проблематичное поведение или вывод.

В: Какие другие регулирования ожидаются в будущем?

А: Правительство работает над руководствами для определения стандартов безопасности моделей искусственного интеллекта. Это, включает в себя решение проблем, связанных с нарушениями прав человека и потенциальными опасностями, связанными с технологией искусственного интеллекта.

Взгляд в будущее

Этот смелый шаг со стороны правительства США ставит прецедент для других стран. Поскольку искусственный интеллект продолжает развиваться с невиданной скоростью, важно, чтобы правительственные органы были в курсе этих событий. Балансирование инноваций и безопасности является деликатным танцем, и регулирующие меры, подобные этим, являются правильным шагом вперед.

🔮 Влияние этих новых требований может выходить за пределы США. С другими странами, возможно, принимающими подобные меры, международный ландшафт искусственного интеллекта может пережить сдвиг в сторону повышенной прозрачности и регулирования. Это как глобальная встреча по искусственному интеллекту, где все страны собираются, чтобы поделиться своими секретами и контролировать друг друга. 🌍👥

Ссылки

🌟🔗 Хотите быть в курсе последних достижений искусственного интеллекта и государственных регулирований? Проверьте ссылки выше, чтобы получить дополнительную информацию. И не забудьте поделиться этой статьей с друзьями в социальных сетях! Давайте развеем обсуждение будущего искусственного интеллекта вместе. 💬💻