Письмо вызвало разговоры о будущем АИ. Многие из подписавшихся не являются сторонниками концепции ‘АИ Апокалипсиса’.

The letter sparked discussions about the future of AI. Many signatories are not supporters of the 'AI Apocalypse' concept.

В марте этого года почти 35 000 исследователей и технологов в области искусственного интеллекта, предпринимателей и обеспокоенных граждан подписали открытое письмо от некоммерческого Фонда будущего жизни, в котором требовалась “пауза” в развитии искусственного интеллекта из-за рисков, выявленных в возможностях программ, таких как ChatGPT.

“Современные системы искусственного интеллекта становятся конкурентоспособными по общим задачам, и мы должны спросить себя… Следует ли нам развивать неприспособленные к человеку разумы, которые в конечном итоге могут превзойти, перехитрить, сделать устаревшими и заменить нас?”

Я могу оказаться неправым, но спустя почти шесть месяцев и с развитием искусственного интеллекта быстрее, чем когда-либо, цивилизация не рухнула. Бинг Чат, “революционный” поисковый оракул от Microsoft с использованием ChatGPT, даже не вытеснил Google с позиции лидера в поиске. Так что что же мы должны подумать о письме и подобных научно-фантастических предупреждениях с поддержкой известных имен относительно рисков, связанных с искусственным интеллектом?

Двое предприимчивых студентов из MIT, Изабелла Струкман и Софи Купиек, обратились к первым ста подписантам письма, требующего паузы в развитии искусственного интеллекта, чтобы узнать больше о их мотивациях и опасениях. В их отчете о результатах исследования они обнаружили широкий спектр точек зрения среди тех, кто присоединился к письму. Несмотря на общественное восприятие письма, относительно немногие действительно беспокоились о том, что искусственный интеллект представляет угрозу для самого человечества.

Многие из тех, с кем беседовали Струкман и Купиек, не верили в то, что шестимесячная пауза произойдет или будет иметь большое влияние. Большинство подписавших не представляли “апокалиптическую ситуацию”, которую один анонимный респондент признал присутствующей в некоторых частях письма.

Значительное число подписавших, по-видимому, были в первую очередь обеспокоены темпом конкуренции между Google, OpenAI, Microsoft и другими, в то время как ажиотаж вокруг потенциала инструментов искусственного интеллекта, таких как ChatGPT, достигал высоты. Google был первоначальным разработчиком нескольких алгоритмов, необходимых для создания чат-бота, но они двигались относительно медленно до того момента, пока не началась “мания ChatGPT”. Для этих людей перспектива того, что компании торопятся выпускать экспериментальные алгоритмы, не исследуя риски, вызывала беспокойство, не потому, что они могут уничтожить человечество, а потому, что они могут распространять дезинформацию, давать вредные или предвзятые советы, или увеличивать влияние и богатство уже очень мощных технологических компаний.

Некоторые подписавшие также беспокоились о более отдаленной возможности того, что искусственный интеллект сможет вытеснить работников с неслыханной скоростью. И некоторые также считали, что заявление поможет привлечь внимание общественности к значительным и неожиданным прорывам в работе моделей искусственного интеллекта, возможно, побудив регуляторов предпринять какие-то меры для решения ближайших рисков, связанных с прогрессом в области искусственного интеллекта.

В мае я говорил с несколькими из тех, кто подписал письмо, и было ясно, что они не полностью согласны со всем, что в нем сказано. Они подписали его потому, что они чувствовали, что моментум, создаваемый вокруг письма, привлечет внимание к различным рискам, которые их беспокоили, и, следовательно, это стоило их поддержки.

Но, возможно, была ошибка в том, что попытались охватить так много проблем, которые могут быть вызваны существующими и недавно разработанными системами искусственного интеллекта в письме, которое неизбежно было определено своими самыми необычными и пугающими утверждениями. Некоторые исследователи в области искусственного интеллекта в последние несколько лет предупреждали о более актуальных проблемах общества, которые могут вызвать большие языковые модели, включая усиление закрепленных предубеждений. Их опасения были едва слышны в шуме, вызванном письмом, о гибельных сценариях, связанных с искусственным интеллектом. Значимость этой апокалиптической мысли была подтверждена последующим заявлением в мае, также подписанным многими известными исследователями в области искусственного интеллекта, которое сравнивало угрозу вымирания от искусственного интеллекта с угрозой от ядерного оружия и пандемий.

Нирит Вайс-Блатт, автор “Техносопротивления” и “Технокризисной коммуникации”, который просмотрел документ MIT перед его публикацией, говорит, что письмо и заявление в конечном итоге служили интересам технологических компаний, создающих передовые системы искусственного интеллекта, потому что фокус на далеких катастрофических сценариях заставляет регуляторов верить, что технология является одновременно невероятно ценной и сложной для управления. Многие профессора, подписавшие письмо, не рассматривали искусственный интеллект как существенную угрозу, говорит Вайс-Блатт. “Но они одолжили свое имя экстремистским сторонникам апокалиптических сценариев по поводу искусственного интеллекта. Вот настоящая дезинформация”.

В итоге, письмо, требующее паузы в развитии искусственного интеллекта, могло сделать то, что многие из подписавших хотели избежать. Обсуждение катастрофических сценариев стало более заметным, и теперь труднее привлечь внимание к проблемам, связанным с машинами, не являющимися сверхинтеллектуальными, или вдохновить на действия. Обновлено 17 августа 2023 года, 13:50 по восточному времени: Вайс-Блатт считает, что большинство профессоров, подписавших письмо, не думали о существенной угрозе.