Изменение политики OpenAI Исследование военного потенциала искусственного интеллекта.

Значительная переработка все еще запрещает действия, которые могут причинить вред себе или другим.

OpenAI тихо обновил свои политики, теперь разрешающие военные и боевые применения

🔗 Источник: OpenAI Moves to Shrink Regulatory Risk by Allowing Military Applications (TechCrunch)

OpenAI, известная компания благодаря своим прорывным достижениям в искусственном интеллекте (ИИ), недавно внесла значительное изменение в свою политику, которое может подарить путь для исследования военного потенциала своей технологии. Это изменение политики, впервые сообщенное The Intercept 12 января, связано с удалением языка, который ранее запрещал «деятельность со значительными рисками физического вреда», включая конкретные примеры таких как «разработка оружия» и «военные действия».

С 10 января в руководстве по использованию OpenAI больше нет запрета на «военное применение и боевые действия». Однако, политика по-прежнему подчеркивает запрет на разработку или использование оружия с использованием технологии OpenAI, такой как их модели большого языка (LLM). Это привело к размышлениям о возможных партнерствах между OpenAI и военными ведомствами, заинтересованными в использовании генеративного ИИ для административных или разведывательных операций.

Ответственное военное использование ИИ

Министерство обороны Соединенных Штатов уже выразило свое обязательство по содействию ответственному военному использованию ИИ и автономных систем. В ноябре 2023 года они выступили с заявлением, подчеркивающим их поддержку «Международной политической декларации об ответственном военном использовании искусственного интеллекта и автономии». Эта декларация, объявленная в феврале 2023 года, устанавливает лучшие практики для разработки и использования военных возможностей с использованием ИИ. Эти возможности выходят за рамки оружия и включают системы поддержки принятия решений и различные административные функции.

ИИ уже сыграл значительную роль в военных операциях. Он использовался в российско-украинской войне и в разработке ИИ-управляемых военных автомобилей. Кроме того, военные разведывательные и системы наведения включают технологии ИИ, такие как использование израильских вооруженных сил системы ИИ под названием “Евангелие” для определения целей и минимизации гражданских жертв во время атак.

Интеграция ИИ в военные контексты несет потенциальные преимущества, но также вызывает опасения среди наблюдателей и активистов ИИ. Возрастание использования ИИ как в киберконфликтах, так и в боевых действиях поднимает страхи о гонке вооружений и предвзятости в системах ИИ.

Компания OpenAI и ее унифицированные политики

В ответ на изменение политики представитель OpenAI Нико Феликс пояснил, что новые принципы стремятся создать универсальные принципы, которые легко понятны и применимы. Акцентируя внимание на принципе «Не вреди другим» и явно ссылается на оружие и вред, OpenAI стремится предоставить четкую рамку для ответственного использования своих инструментов. Цель компании заключается в том, чтобы обеспечить безопасное и ответственное использование их технологии, предоставляя пользователям максимальный контроль над ее использованием.

Вопросы и ответы: устранение опасений читателей

В: Означает ли изменение политики OpenAI, что они активно работают над военными проектами?

О: Изменение политики OpenAI позволяет исследовать военный потенциал, но строго запрещает разработку или использование оружия. Дополнительные подробности о конкретных военных проектах или партнерствах на данный момент не разглашаются.

В: Как OpenAI определяет ответственное военное использование ИИ?

О: OpenAI согласуется с «Международной политической декларацией об ответственном военном использовании искусственного интеллекта и автономии». Этот фреймворк включает в себя не только разработку оружия, но также системы поддержки принятия решений, которые улучшают военное принятие решений и различные административные функции.

В: Какие меры предпринимаются для устранения потенциальных предубеждений в военных системах ИИ?

О: С развитием технологий ИИ, устранение предубеждений военных систем ИИ становится важной проблемой. Хотя это изменение политики открывает возможности для военного применения, оно также подчеркивает необходимость ответственной и этичной разработки для решения проблем предубеждений и обеспечения справедливых процессов принятия решений.

Влияние и будущие разработки

Изменение политики OpenAI является значительной преемственностью их подхода к военному потенциалу ИИ. Разрешая исследовать этот потенциал, при этом строго запрещая разработку и использование оружия, OpenAI занимает лидирующую позицию в ответственной реализации ИИ в военных контекстах. Гибкость и возможности ИИ делают его ценным активом для принятия решений и административных задач военных ведомств по всему миру.

Переходя к будущему, крайне важно обеспечить баланс между использованием мощи ИИ и решением этических проблем. Ответственное использование ИИ в военных операциях будет формировать будущее военщины и разведки, направлять процессы принятия решений и минимизировать вред. Политика изменения OpenAI может привести к дальнейшим прогрессивным разработкам и сотрудничеству, которые гарантируют, что ИИ будет силой добра в военных приложениях.

Ссылки

  1. OpenAI предпринимает шаги по снижению регуляторных рисков, разрешая военные применения (TechCrunch)
  2. Что такое Rabbit R1 AI Assistant и почему все без ума от него?
  3. Стартапы используют метод совместной продажи для успешного сотрудничества с облачными гипермасштабировщиками (TechCrunch)
  4. OpenAI запускает собственный GPT Store
  5. The New York Times подает иск против OpenAI и Microsoft за нарушение авторских прав
  6. OpenAI выпускает патч для устранения утечки данных ChatGPT, но проблема полностью не решена
  7. Не только у вас. ChatGPT “ленивее”, подтверждает OpenAI.
  8. Эта жуткая голова ИИ на CES 2024 доказывает, что ChatGPT должен оставаться безликим

Поговорим! Как вы относитесь к изменению политики OpenAI относительно военных применений искусственного интеллекта? Поделитесь своими мнениями и идеями ниже, и не забудьте поделиться этой статьей ваших любимых социальных сетях. 🚀