Продвинутая AI-система Q* от OpenAI вызывает опасения в отношении безопасности

Возникновение опасений о безопасности из-за продвинутой AI-системы Q* от OpenAI

OpenAI, компания, находящаяся за проектом ChatGPT, якобы разрабатывала революционную систему под кодовым названием Q*, до временного снятия с должности генерального директора Сэма Альтмана, согласно недавнему докладу от The Guardian. Эта передовая модель искусственного интеллекта продемонстрировала способность решать незнакомые простые математические проблемы, что является значительным шагом вперед в сфере искусственного интеллекта.

Быстрое развитие Q* вызвало опасения в отношении безопасности у исследователей OpenAI, что привело к предупреждению правления о ее потенциальной угрозе для человечества. Этот сигнал был частью предисловия к недавней потрясности в OpenAI, в результате которой Альтман был кратковременно уволен, а затем восстановлен после давления сотрудников и инвесторов.

OpenAI’s Q* и гонка к AGI

Разработка Q* поднимает общую дискуссию о скорости прогресса в направлении Искусственного Общего Интеллекта. AGI представляет собой систему способную выполнять широкий спектр задач на или выше уровня человеческого интеллекта, потенциально выходящую за контроль человека. OpenAI стоит во главе этой гонки, вызывая опасения у экспертов относительно последствий такой быстрой эволюции.

Эндрю Рогоевский, из Института для активного применения искусственного интеллекта в Университете Суррея, отметил значение решения математических задач LLM. Он отметил, что данная врожденная способность LLM выполнять аналитические задачи представляет собой значительный прогресс в этой области.

Миссия и управление OpenAI

OpenAI, созданная изначально как некоммерческая организация, функционирует при наличии коммерческого филиала, управляемого советом директоров. Microsoft является крупнейшим инвестором. Миссия организации заключается в разработке “безопасного и полезного искусственного общего интеллекта во благо человечества.” Недавние изменения в управлении OpenAI подчеркивают это обязательство к безопасности и ответственному развитию искусственного интеллекта.

Будущее безопасности искусственного интеллекта

Споры вокруг временного отстранения Альтмана обострили напряжение между быстрым развитием и безопасностью искусственного интеллекта. Эммет Шир, являющийся временным преемником Альтмана, указал, что решение совета директоров не было вызвано конкретным разногласием в отношении безопасности. Однако, данное происшествие подчеркивает сложности и ответственности, с которыми сталкиваются разработчики искусственного интеллекта при балансировании инноваций с этическими вопросами и безопасностью человека.

Изображение от Sanket Mishra через Pexels