OpenAI сталкивается с протестами Следует ли нажать кнопку паузы в отношении искусственного интеллекта?

Сотрудников OpenAI конфронтовали с протестами, требующими остановить работу над военным искусственным интеллектом и искусственным общим интеллектом

Сотрудники OpenAI сталкиваются с протестами, требующими прекратить сотрудничество с Пентагоном.

Логотип OpenAI на экране ноутбука

OpenAI, ведущая организация в области передовых систем искусственного интеллекта (ИИ), столкнулась с протестом, когда ее сотрудники покидали работу в понедельник вечером. Две группы, Pause AI и No AGI, призвали работников остановить свою работу над системами ИИ, такими как ChatGPT. Группы обеспокоены быстрым развитием ИИ и потенциальной опасностью его превосходства над человеческим контролем, а также сотрудничеством с военными властями.

Десятки протестующих собрались на территории OpenAI в Сан-Франциско, выражая свою озабоченность развитием и использованием ИИ. Они хотят привлечь внимание к рискам, связанным с созданием искусственного общего интеллекта (AGI), и выступают за глобальную паузу в развитии AGI, пока его безопасность не будет подтверждена. Эти группы в частности противятся сотрудничеству OpenAI с Пентагоном по работе над средствами кибербезопасности.

Организаторы протеста, Сэм Кирхенер из No AGI и Холли Элмор из Pause AI, подчеркнули свои опасения. Кирхенер утверждает, что вместо фокусировки на AGI стоит исследовать такие технологии, как эмуляция всего мозга, которая ставит приоритет на человеческую мысль. Элмор подчеркнула важность прекращения сотрудничества OpenAI с военными, установления четких границ.

Причина протестов OpenAI

Включение OpenAI в область военных технологий вызвало значительные споры. Компания внесла изменения в свою политику использования, исключив детали военного применения, вскоре после этого подтвердив свое партнерство с Пентагоном по работе над средствами кибербезопасности[^1^][^3^]. Этот шаг вызывает вопросы о возможном злоупотреблении технологией ИИ в военных целях.

Генеральный директор OpenAI Сэм Альтман ранее предупреждал о опасностях, связанных с ИИ из-за «общественных несовпадений»[^2^]. Альтман выступает за создание универсального регулятора для ИИ, взгляд, разделяемый Холли Элмор из Pause AI, которая считает, что саморегулирование недостаточно для этих компаний[^2^]. Кирхенер также предупредил о возможных последствиях ненадзорного технологического прогресса, предлагая сосредоточиться на сохранении человеческой динамики.

Как Pause AI, так и No AGI разделяют обеспокоенность разработкой и безопасным использованием новых технологий, хотя с небольшими различиями во взглядах. В то время как Pause AI призывает к безопасным методам разработки, No AGI считает, что AGI вообще следует остановить.

Протестующие собрались перед зданием OpenAI

Вопросы и ответы: Обращение к интересам читателей

В: Что такое искусственный общий интеллект (AGI)?

О: Искусственный общий интеллект относится к высокоавтономным системам, превосходящим людей в большинстве экономически ценных задач[^6^]. AGI стремится воспроизвести уровень человеческого интеллекта в различных задачах, потенциально превосходя человеческие способности.

В: Почему протестующих беспокоят военные приложения ИИ?

О: Протестующие считают, что военное применение ИИ вызывает этические опасения и может привести к возможному злоупотреблению или потере контроля над системами ИИ. Они полагают, что ИИ должен служить наилучшим интересам человечества и не использоваться таким образом, который может нанести вред обществу.

В: Как можно эффективно регулировать ИИ, чтобы предотвратить возможные риски?

О: Эффективное регулирование ИИ требует баланса между инновациями и безопасностью. Эксперты предлагают различные подходы, включая создание внешних регуляторных органов, сотрудничество между отраслью и правительствами, а также соблюдение этических руководств, чтобы обеспечить ответственную разработку и использование технологий ИИ.

Влияние и будущее развитие

Решение OpenAI сотрудничать с Пентагоном по средствам кибербезопасности подчеркивает сочетание ИИ и военных применений. Это сотрудничество вызывает дебаты о ответственном использовании технологии ИИ в обороне и социальных последствиях.

Протесты в OpenAI свидетельствуют о растущей озабоченности быстрым прогрессом ИИ и необходимостью этических руководств и регулирования. По мере того как ИИ продолжает развиваться, важно для организаций, таких как OpenAI, находиться на грани между технологическими инновациями и этическими соображениями.

Это событие также подчеркивает важность обсуждений, связанных с регулированием и управлением ИИ. Ответственная разработка и использование систем ИИ требуют комплексных рамок, включающих участие нескольких заинтересованных сторон, включая правительства, специалистов отрасли и широкую общественность.

Ссылки

  1. OpenAI изменяет политику использования, чтобы исключить военные приложения
  2. Предупреждение Сэма Альтмана о опасностях искусственного интеллекта
  3. OpenAI сотрудничает с Пентагоном для создания средств кибербезопасности

Грэм Ханна – фриланс-писатель с большим опытом работы в онлайн-новостях и написании контента. Он работал в качестве писателя для публикаций, таких как The Glasgow Times, Manchester Evening News, MyLondon, Give Me Sport и Belfast News Letter. Ханна обладает богатым опытом в области профессиональных услуг и в настоящее время работает в качестве вкладывающего новостного писателя в ENBLE.com, специализирующегося на увлекательных новостях из мира технологий[^5^].

Вы беспокоитесь о развитии и использовании искусственного интеллекта? Присоединяйтесь к обсуждению, поделившись своими мыслями в социальных сетях!

🤖🛑🌍🔒✋

[//]: # (Это конец статьи. Ниже вы можете взаимодействовать с читателями и побудить их поделиться в социальных сетях.)
Что вы думаете о партнерстве OpenAI с военными? Следует ли внести более строгие регулирования в разработку и использование искусственного интеллекта? Поделитесь своими мнениями ниже!
🔒 Превосходит ли прогресс искусственного интеллекта нашу способность его контролировать? Присоединяйтесь к разговору! #OpenAIProtests #ЭтическийИИ 🌍