Half a year ago, Elon Musk called for a pause in the development of AI. However, instead, the development only accelerated.

Half a year ago, Musk called for a pause in AI development, but instead, it accelerated.

Шесть месяцев назад, многие выдающиеся исследователи, инженеры и предприниматели в области искусственного интеллекта подписали открытое письмо, в котором требовалось приостановить разработку систем искусственного интеллекта, превосходящих по возможностям последний языковой генератор OpenAI GPT-4, на шесть месяцев. В нем было сказано, что искусственный интеллект развивается так быстро и непредсказуемо, что он может уничтожить бесчисленное количество рабочих мест, затопить нас дезинформацией и, как сообщали панические заголовки, уничтожить человечество. Ой!

Как вы могли заметить, это письмо не привело к приостановке разработки искусственного интеллекта или даже замедлению темпов развития. Компании наоборот ускорили свои усилия по созданию более продвинутых систем искусственного интеллекта.

Илон Маск, один из наиболее известных подписантов, не долго ждал, чтобы проигнорировать свой собственный призыв к замедлению. В июле он объявил о создании компании xAI, которая, как он сказал, будет стремиться превзойти существующий искусственный интеллект и конкурировать с OpenAI, Google и Microsoft. И многие сотрудники Google, которые также подписали открытое письмо, остались верны своей компании, которая готовится выпустить модель искусственного интеллекта под названием Gemini, которая обладает более широкими возможностями, чем GPT-4 от OpenAI.

ENBLE обратилась к более чем десятку подписантов письма, чтобы спросить, какое влияние, по их мнению, оно оказало и углубилась ли их тревога по поводу искусственного интеллекта за последние шесть месяцев или она ослабла. Никто из отвечавших не ожидал, что исследования в области искусственного интеллекта действительно замедлятся.

“Я никогда не думал, что компании добровольно остановятся”, – говорит Макс Тегмарк, астрофизик из Массачусетского технологического института, который возглавляет Институт будущей жизни, организацию, стоящую за письмом – признание, которое, возможно, делает весь проект циничным. Тегмарк говорит, что его главная цель заключалась не в замедлении развития искусственного интеллекта, а в легитимизации разговора о опасностях этой технологии, вплоть до того факта, что она может обернуться против человечества. Результат “превзошел мои ожидания”, – говорит он.

Ответы на мои последующие вопросы также показывают огромное разнообразие опасений, которые у экспертов вызывает искусственный интеллект, и что многие подписанты на самом деле не зациклены на существенных рисках.

Ларс Котхофф, доцент Университета Вайоминга, говорит, что он бы не подписал такое же письмо сегодня, потому что многие из тех, кто требовал его приостановки, все еще работают над совершенствованием искусственного интеллекта. “Я готов подписать письма, идущие в подобном направлении, но не точно такие же”, – говорит Котхофф. Он добавляет, что сегодня его больше всего беспокоит перспектива “общественной реакции против развития искусственного интеллекта, которая может вызвать новую зиму искусственного интеллекта”, ограничивая финансирование исследований и заставляя людей отказываться от продуктов и инструментов искусственного интеллекта.

Подписав письмо, что я сделал за последний год или около того? Я занимался исследованиями в области искусственного интеллекта.

Другие подписанты сказали мне, что они с радостью подпишутся снова, но их основные опасения, похоже, связаны с ближайшими проблемами, такими как дезинформация и потеря рабочих мест, а не сценариями из фильма “Терминатор”.

“В эпоху Интернета и Трампа мне легче видеть, как искусственный интеллект может привести к разрушению человеческой цивилизации путем искажения информации и порчи знаний”, – говорит Ричард Киль, профессор, занимающийся микроэлектроникой в Университете штата Аризона.

“Мы получим Скайнет, который взломает все эти военные серверы и запустит ядерные ракеты по всей планете? Я действительно так не думаю”, – говорит Стивен Мандер, аспирант, занимающийся искусственным интеллектом в Ланкастерском университете в Великобритании. Однако он видит приближающуюся массовую замену рабочих мест и называет ее “существенным риском” для социальной стабильности. Но он также беспокоится о том, что письмо могло побудить больше людей экспериментировать с искусственным интеллектом и признает, что он сам не следовал призыву письма замедлиться. “Подписав письмо, что я сделал за последний год или около того? Я занимался исследованиями в области искусственного интеллекта”, – говорит он.

Не смотря на то, что письмо не вызвало широкого притормаживания, оно помогло привлечь внимание к возможности того, что искусственный интеллект может уничтожить человечество. За ним последовало публичное заявление, подписанное руководителями OpenAI и разделением искусственного интеллекта Google DeepMind, в котором утверждалось, что существенный риск, вызванный искусственным интеллектом, сравним с риском ядерного оружия и пандемий. В следующем месяце британское правительство проведет международную конференцию “Безопасность искусственного интеллекта”, на которой лидеры многих стран будут обсуждать возможные вреды, которые может причинить искусственный интеллект, включая существенные угрозы.

Возможно, глоомные прорицатели искусственного интеллекта захватили инициативу с письмом-паузой, но беспокойство, вызванное недавним быстрым прогрессом в области искусственного интеллекта, достаточно реально и понятно. Несколько недель до написания письма, OpenAI выпустила GPT-4, большую языковую модель, которая дала ChatGPT новую способность отвечать на вопросы и поразила исследователей искусственного интеллекта. Поскольку потенциал GPT-4 и других языковых моделей становится все более очевидным, опросы показывают, что общественность все больше беспокоится, а не радуется технологии искусственного интеллекта. Очевидные способы злоупотребления этими инструментами побуждают регуляторов по всему миру к действию.

Требование письма о шестимесячном моратории на развитие искусственного интеллекта могло создать впечатление, что его подписанты ожидают скорого наступления плохих событий. Но для многих из них ключевой темой кажется неопределенность – в том, насколько способен искусственный интеллект на самом деле, насколько быстро могут измениться вещи и как развивается технология.

“Многие скептики по отношению к искусственному интеллекту хотят услышать конкретный сценарий гибели”, – говорит Скотт Никам, профессор Университета Массачусетса в Амхерсте, который занимается проблемами риска искусственного интеллекта и подписал это письмо. “Для меня факт того, что сложно представить детальные, конкретные сценарии, является тем самым – это показывает, насколько сложно даже для экспертов мирового класса по искусственному интеллекту предсказать будущее и его влияние на сложный мир. Я думаю, что это должно вызывать некоторую тревогу”.

Неопределенность далеко не является доказательством опасности для человечества. Но тот факт, что многие люди, работающие в области искусственного интеллекта, все еще кажутся неуверенными, может быть достаточным основанием для компаний, разрабатывающих искусственный интеллект, для более основательного или более медленного подхода.

“Многие люди, которые могли бы оказаться в прекрасном положении для использования дальнейшего прогресса, теперь предпочли бы увидеть паузу”, – говорит Винсент Конитцер, профессор, занимающийся искусственным интеллектом в CMU. “Если ничего другого, это должно быть сигналом, что что-то очень необычное происходит”.