Команда Superalignment OpenAI разрабатывает инновационные методы управления сверхинтеллектуальным искусственным интеллектом.

Команда Superalignment OpenAI занимается созданием новаторских подходов к управлению сверхинтеллектуальным искусственным интеллектом.

OpenAI говорит, что продвигается в своих возможностях по управлению сверхинтеллектуальными искусственными интеллектуальными системами, согласно недавнему отчету ENBLE отчету. Команда СуперСоответствия, под руководством главного научного сотрудника OpenAI Ильи Суцкевера, разработала метод, чтобы направлять поведение моделей искусственного интеллекта по мере их все более умного роста.

Созданная в июле команда СуперСоответствия фокусируется на вызове обеспечения безопасности и пользы искусственного интеллекта по мере его приближения и превосходства над человеческим интеллектом. “Искусственный генеральный интеллект приближается очень быстро”, – сказал Леопольд Ашенбреннер, исследователь OpenAI, ENBLE. “Мы увидим сверхчеловеческие модели, они будут иметь огромные возможности, и они могут быть очень-очень опасными, и у нас еще нет методов их контроля”.

В новой научной статье OpenAI представляется метод, называемый наблюдением, где менее сложная модель искусственного интеллекта направляет поведение более сложной модели. Этот метод направлен на поддержание возможностей более совершенной модели, обеспечивая ее соответствие безопасным и этическим руководящим принципам. Этот подход считается ключевым шагом к управлению потенциальными сверхчеловеческими ИИ.

В экспериментах использовался генератор текста GPT-2 от OpenAI для обучения GPT-4, более сложной системы. Исследователи испытали два метода, чтобы предотвратить деградацию производительности GPT-4. Первый метод заключался в обучении постепенно возрастающих моделей, а второй добавлял алгоритмическое изменение к GPT-4. Последний оказался более эффективным, хотя исследователи признают, что полный контроль над поведением еще не гарантируется.

Реакция и будущие направления в индустрии

Дэн Хендрикс, директор Центра безопасности искусственного интеллекта, похвалил проактивный подход OpenAI к контролю сверхчеловеческих ИИ. Работа команды СуперСоответствия считается важным первым шагом, но для обеспечения эффективных систем контроля требуется дальнейшее исследование и развитие.

OpenAI планирует выделить значительную часть своей вычислительной мощности для проекта СуперСоответствия и призывает к внешнему сотрудничеству. Компания, в партнерстве с Эриком Шмидтом, предлагает гранты в размере 10 миллионов долларов исследователям, работающим в области техник контроля ИИ. Кроме того, в следующем году состоится конференция по сверхсозвучию для дальнейшего исследования этой важной области.

Илья Суцкевер, сооснователь OpenAI и ключевая фигура в технических достижениях компании, совместно руководит командой СуперСоответствия. Его участие в проекте является решающим, особенно после недавнего государственного кризиса в OpenAI. Экспертиза и руководство Суцкевера играют важную роль в продвижении проекта.

Разработка методов контроля сверхинтеллектуального ИИ является сложной и срочной задачей. По мере быстрого развития технологии ИИ обеспечение ее соответствия человеческим ценностям и безопасности становится все более важным. Инициатива OpenAI в этой области является значительным шагом, но путь к надежным и эффективным системам контроля ИИ продолжается и требует совместных усилий всемирного научного сообщества в области искусственного интеллекта.