«🤖 OpenAI, Google и другие компании по искусственному интеллекту обязуются раскрыть разработку базовых моделей»

Просто хочу предупредить, мы разрабатываем мощные LLMs, которые, вероятно, представляют серьезную угрозу национальной безопасности.

OpenAI и Google должны сообщать правительству о разработке своих моделей искусственного интеллекта.

Мир искусственного интеллекта становится немного прозрачнее. Благодаря Закону о производстве обороны, компании по разработке искусственного интеллекта, такие как OpenAI и Google, в скором времени будут обязаны информировать правительство о разработке фундаментальных моделей. Об этом требовании сообщила Гина Раймондо, министр коммерции США, во время мероприятия в Гуверовском институте Стэнфордского университета.

«Мы используем Закон о производстве обороны… для проведения опроса, который требует от компаний делиться с нами информацией о каждой новой тренировке большой языковой модели и предоставлять нам результаты – данные о безопасности, чтобы мы могли их проверить», – объяснила Раймондо.

Это развитие является частью широкомасштабного указа Президента Байдена по вопросам искусственного интеллекта, который был объявлен в прошлом октябре. Среди множества положений указа требуется, чтобы компании, разрабатывающие любую фундаментальную модель, которая представляет серьезный риск для национальной безопасности, национальной экономической безопасности или национального здравоохранения и общественной безопасности, уведомляли федеральное правительство и передавали результаты тестирования безопасности. Фундаментальные модели, такие как GPT-4 от OpenAI и Gemini от Google, используются в генеративных чатботах искусственного интеллекта. Важно отметить, что GPT-4 вероятно не достигнет порога, требующего надзора со стороны правительства, из-за его вычислительной мощности.

Тем не менее, настоящая озабоченность связана с будущими фундаментальными моделями, обладающими беспрецедентной вычислительной мощностью. Эти модели имеют потенциал создавать значительные риски для национальной безопасности, поэтому требуется вмешательство Закона о производстве обороны. Интересно отметить, что этот закон уже был применен Президентом Байденом в 2021 году для увеличения производства средств защиты и снабжения, связанных с пандемией.

Во время мероприятия Раймондо также затронула другой аспект указа, который требует от американских поставщиков облачных вычислений, таких как Amazon, Google и Microsoft, раскрыть любое использование их услуг иностранными пользователями. Этот шаг направлен на обеспечение прозрачности и безопасности в облачных вычислениях.

Что это означает для компаний по искусственному интеллекту и будущего искусственного интеллекта?

Требование, чтобы компании по разработке искусственного интеллекта раскрывали разработку фундаментальных моделей, является значительным шагом в сторону ответственности и прозрачности. Предоставляя правительству данные о безопасности, компании по искусственному интеллекту могут увериться в том, что их модели полностью протестированы и не создают значительных рисков для национальной безопасности, экономической безопасности или общественной безопасности.

Хотя это требование может показаться дополнительным бременем для компаний по искусственному интеллекту, оно крайне важно для поддержания доверия общественности к системам искусственного интеллекта. С увеличением влияния и воздействия искусственного интеллекта в различных секторах важно снизить потенциальные риски и обеспечить ответственную разработку.

Что касается будущего искусственного интеллекта, ясно, что акцент будет сделан на разработке фундаментальных моделей с беспрецедентной вычислительной мощностью. Эти модели имеют огромный потенциал, но также несут значительные риски. Уведомляя правительство и предоставляя данные о безопасности, компании по искусственному интеллекту могут находить баланс между инновациями и безопасностью.

Следует отметить, что разработка и внедрение таких регуляций требуют тщательного рассмотрения. Нахождение правильного баланса между регулированием, инновациями и конфиденциальностью является вызовом, с которым политики и эксперты по искусственному интеллекту будут продолжать сталкиваться.

Вопросы и ответы: О чем еще могут быть обеспокоены читатели?

Вопрос: Не повлияет ли это требование на инновации в отрасли искусственного интеллекта?

Ответ: Хотя существует потенциал для добавления регулятивных ограничений, важно рассматривать это требование как необходимый шаг для обеспечения ответственного развития и развертывания систем искусственного интеллекта. Путем учета потенциальных рисков и предоставления данных о безопасности компании по искусственному интеллекту могут надежно защитить доверие потребителей и регуляторов, что в конечном итоге способствует устойчивости и безопасности отрасли искусственного интеллекта.

Вопрос: Как правительство будет обрабатывать данные о безопасности?

Ответ: Правительство будет оперировать своими знаниями и сотрудничеством с компаниями по искусственному интеллекту для анализа предоставленных данных о безопасности. Этот процесс является ключевым для выявления потенциальных рисков и уязвимостей, связанных с разработкой фундаментальных моделей. Прозрачное взаимодействие и постоянное сотрудничество между правительством и компаниями по искусственному интеллекту являются основой эффективной оценки безопасности.

Влияние и будущие развития

Требование, чтобы компании по искусственному интеллекту раскрывали разработку фундаментальных моделей, представляет собой значительный сдвиг в области искусственного интеллекта. Это демонстрирует необходимость увеличения ответственности и прозрачности в этой области. По мере развития технологий искусственного интеллекта и их важной роли в обществе, наличие регулирования и надзора станет все более распространенным.

Однако необходимо тесное сотрудничество между политиками, экспертами по искусственному интеллекту и заинтересованными сторонами отрасли для разработки комплексных рамок, которые сбалансируют инновации, безопасность и этические аспекты. Создание благоприятной среды для ответственной разработки искусственного интеллекта позволит раскрыть его полный потенциал, снизить потенциальные риски и обеспечить доверие общественности.

📚 Список литературы:

  1. OpenAI выпускает патч для устранения утечки данных ChatGPT; Проблема полностью устранена
  2. <a href=”https://www.mm<p>Не забудьте поделиться этой статьей в социальных сетях и поделиться своими мыслями о требовании правительства к компаниям ИИ раскрывать разработку основных моделей. Как вы думаете, это повлияет на будущее ИИ? 🤔💭 #AI #OpenAI #Google #Transparency