Глава фармацевтической компании Не прекращайте исследования в области искусственного интеллекта, наша работа слишком важна.

Не прекращайте исследования в области искусственного интеллекта, наша работа важна.

Как общество должно относиться к рискам искусственного интеллекта? Есть те, кто утверждает, что предполагаемые преимущества перевешивают непосредственную опасность, и поэтому ограничения следует преследовать осторожно.

“Я думаю, что эти широкие, общие предложения остановить работу [над ИИ] немного неправильные”, – сказал Крис Гибсон, сооснователь и генеральный директор Recursion Pharmaceuticals в недавнем интервью для ENBLE.

“Я думаю, что очень важно, чтобы люди продолжали использовать возможности машинного обучения”, – сказал Гибсон.

Также: 5 самых больших рисков генеративного ИИ, согласно эксперту

Компания Гибсона сотрудничает с крупными фармацевтическими компаниями для применения ИИ в области поиска лекарств.

Гибсон отвечал на письмо, опубликованное в марте Элоном Маском, ученым-искусственником Йошуа Бенджио и многими другими, которые призывали временно остановить исследования в области ИИ для изучения опасностей.

В петиции говорится о необходимости приостановить то, что они описывают как “безудержную гонку” за превосходство в области ИИ, в результате которой создаются системы, создатели которых не могут “понять, предсказать или надежно контролировать”.

Гибсон сосредоточился на том, что он считает нереалистическими опасениями, такими как возможность того, что программы машинного обучения станут разумными, сценарий, который ученые, рассматривающие этот вопрос, считают довольно отдаленным.

“Мы не хотим приостанавливать работу на полгода или год из-за того, насколько большие возможности есть впереди”, – говорит Крис Гибсон, сооснователь и генеральный директор Recursion Pharmaceuticals.

“Работа, которую мы делаем в Recursion, очень интересна, мы обучаем модели с многомиллиардными параметрами, которые действительно захватывают в контексте биологии”, – сказал Гибсон ENBLE. “Но они не разумны, они не станут разумными, они очень далеки от этого”.

Одним из главных интересов Гибсона является сохранение возможности его фирмы и других продолжать работу в области, например, поиск лекарств. Recursion, сотрудничая с Bayer и Genentech, среди других, в настоящее время имеет пять кандидатов-лекарств в клинической стадии разработки лекарственного процесса. Компания собрала свыше 13 петабайт информации в Phenomaps, своем термине для баз данных “предполагаемых связей” между молекулами.

Также: “OpenAI – это разработка продукта, а не исследование ИИ”, – говорит главный ученый по ИИ Meta Лекун

“Модели, которые используются для ответа на очень конкретные вопросы, я думаю, очень важны для развития человечества”, – сказал Гибсон. “Модели, подобные нашим и другим компаниям подобным нам, мы не хотим приостанавливать работу на полгода или год, из-за того, насколько большие возможности есть впереди”.

Фирма Гибсона, которая является публичной, в июле объявила о получении инвестиций на сумму 50 миллионов долларов от Nvidia, чьи GPU-чипы доминируют в области обработки ИИ.

Гибсон был осторожен в своих замечаниях о тех, кто беспокоится о ИИ или требует остановки. “На обеих сторонах дебатов есть очень умные люди”, – сказал он, отметив, что соучредитель Recursion несколько лет назад ушел из оперативного управления компанией из-за опасений, связанных с этическими проблемами ИИ.

Йошуа Бенджио, советник Recursion, является одним из подписантов письма.

“Йошуа – гениальный человек, поэтому это немного ставит меня в затруднительное положение”, – сказал Гибсон. “Но, я бы сказал, я думаю, что на обеих сторонах дебатов есть очень важные аргументы”.

Также: Великая головоломка тела и болезни начинает поддаваться ИИ, говорит генеральный директор Recursion

Различные взгляды сторон за и против моратория “показывают осторожность”, сказал Гибсон, “но я не считаю, что мы должны приостановить все обучение и выводы алгоритмов машинного обучения и ИИ на какой-либо период времени”.

Команда Гибсона обратилась к ENBLE, чтобы указать на то, что Бенджио в своем блоге о рисках ИИ проводит различие между угрозами и полезными для общества приложениями ИИ, такими как здравоохранение.

Гибсон согласен с коллегами Бенджио, такими как главный искусственный интеллект Meta Properties Ян Лекун, который высказался против инициативы своего друга и иногда сотрудника.

Гибсон признал, однако, что некоторые представления о риске, хотя и маловероятные, нужно тщательно рассмотреть. Одним из них являются сценарии конца человечества, которые были изложены организациями, такими как Институт будущего человечества.

“Есть люди в области искусственного интеллекта, которые считают, что если вы попросите алгоритм машинного обучения или искусственного интеллекта максимизировать какую-то функцию полезности, скажем, сделать мир красивым и мирным насколько это возможно, то алгоритм машинного обучения мог бы, вероятно, не совсем неправильно, истолковать это так, что люди являются причиной большей части отсутствия красоты и мира”, – сказал Гибсон.

Также: ChatGPT: о том, в чем Нью-Йорк Таймс и другие сильно ошибаются

В результате программа могла бы “создать что-то действительно пугающее”. Такая перспектива, по его словам, “возможно, фантастична”. “Но последствия настолько велики, что важно об этом подумать; наверняка ни один из наших самолетов не упадет, когда мы поднимемся в небо, но мы обязательно обращаем внимание на предупреждение, потому что стоимость такая значительная”, – сказал Гибсон.

Также есть “некоторые очевидные вещи, в которых мы все можем согласиться уже сегодня”, – сказал Гибсон, например, запретить программам контролировать оружие массового поражения.

“Я бы не рекомендовал давать алгоритму искусственного интеллекта или машинного обучения доступ к нашим системам ядерного запуска? Абсолютно нет”, – сказал он.

На более прозаическом уровне Гибсон считает, что проблемы предвзятости должны быть решены в алгоритмах. “Нам нужно убедиться, что мы очень осторожны с наборами данных и убедиться, что функции полезности, которые оптимизируют наши алгоритмы, не содержат какой-либо предвзятости внутри них”, – сказал он.

Также: Философ Дэвид Чалмерс считает, что у искусственного интеллекта есть 20% шанс обрести самосознание за 10 лет

“Вы видите, что предвзятость все больше проникает в результаты этих алгоритмов, которые становятся все более частью нашей жизни”, – отметил Гибсон.

Самые основные вопросы, по мнению Гибсона, должны быть очевидны для всех. “Хорошим примером является, на мой взгляд, то, что более рискованно дать алгоритму неограниченный доступ к интернету”, – сказал он. “Так что в этом случае возможно введение некоторых регуляций в ближайшем будущем”.

Он сказал, что его позиция по вопросу регулирования заключается в том, что “частью высокофункционирующего общества является предоставление всех этих вариантов на стол и проведение важной дискуссии вокруг них. Мы просто должны быть осторожными и не превышать себя с широко ориентированной регуляцией, которая направлена на всю машинную обучение или искусственный интеллект”.

Актуальной проблемой для этики искусственного интеллекта является текущий тренд компаний, таких как OpenAI и Google, скрывать все меньше и меньше внутреннего устройства своих программ. Гибсон сказал, что он против любого регулирования, требующего открытого исходного кода программ. “Но”, – добавил он, – “я считаю, что очень важно для большинства компаний делиться некоторой частью своей работы различными способами с обществом, чтобы продвигать всех вперед”.

Также: Почему открытый исходный код важен для смягчения страхов перед искусственным интеллектом, согласно основателю Stability.ai

Гибсон отметил, что Recursion опубликовала в открытом доступе множество своих наборов данных, и “я не исключаю возможности публикации в открытом доступе некоторых наших моделей в будущем”.

Очевидно, что вопросы регулирования и контроля возвращаются к воле граждан любой конкретной нации. Ключевым вопросом является то, как избирателей можно просветить о искусственном интеллекте. В этом отношении Гибсон был не оптимистичен.

Хотя образование важно, сказал он, “Моя общая убежденность заключается в том, что общественность кажется неинтересующейся в образовании в наши дни”. “Люди, которые заинтересованы в образовании, обычно следят за этими вещами”, – сказал он, – “а большая часть остального мира – нет, что является очень несчастным обстоятельством”.