«Бог отцов искусственного интеллекта» призывает к созданию организации для защиты человечества.

«Высочайший защитник человечества перед технологиями будущего» призывает к формированию организации для обеспечения безопасности человеческого рода.

Эта статья была синдицирована из Bulletin of the Atomic Scientists, который освещает угрозы, создаваемые человеком в отношении человечества с 1945 года.

Главная артерия Маленькой Италии Монреаля усеяна кафе, винными барами и кондитерскими, выходящими на тенистые жилые улочки. Поколения фермеров, мясников, пекарей и рыбаков продают товары “с фермы на стол” на большом открытом рынке Марше Жан-Талон. Но в этом тихом уголке также находится современный, занимающий 90000 квадратных футов мировой ИИ-хаб, известный как Институт Мила-Квебек. Мила утверждает, что в нем сосредоточено наибольшее количество научных исследователей в области глубокого обучения в мире, включая более 1000 исследователей и более 100 профессоров, которые сотрудничают с более чем 100 партнерами из разных стран.

Йошуа Бенджио, научный директор Мила, является пионером в области искусственных нейронных сетей и глубокого обучения – подхода к машинному обучению, вдохновленного функционированием мозга. В 2018 году Бенджио, главный ученый по ИИ в Meta Янн Лекун и бывший исследователь ИИ в Google Геоффри Хинтон получили премию Тьюринга, известную как Нобелевская премия в области вычислительной техники, за “концептуальные и технические достижения, сделавшие глубокие нейронные сети ключевым компонентом вычислительной технологии”. Вместе они известны как “отцы-основатели искусственного интеллекта”.

В июле Бенджио выступил перед подкомитетом Сената США, рассматривающим возможное законодательство для регулирования быстро развивающейся технологии. Там он объяснил, что он и другие ведущие исследователи по ИИ пересмотрели свои оценки сроков достижения искусственным интеллектом уровня широких когнитивных способностей человека.

“Ранее полагали, что это может случиться через десятилетия или даже века, теперь мы считаем, что это может произойти в течение нескольких лет или десятилетий”, – сказал Бенджио сенаторам. “Более короткий срок, например, пять лет, действительно беспокоит, потому что нам понадобится больше времени, чтобы эффективно справиться с потенциальными угрозами демократии, национальной безопасности и нашего совместного будущего”.

В прошлом месяце, в жаркий день, когда температура в Монреале превысила 32 градуса Цельсия, Бенджио и я встретились в его офисе, чтобы обсудить тонкости привлекательных заголовков о ИИ, табу среди исследователей в области ИИ и почему ведущие ученые по ИИ могут разниться в своих мнениях о рисках, которые ИИ представляет для человечества. Этот интервью было отредактировано и сокращено для ясности.

Сьюзан Д’Агостино: Заголовок BBC в мае этого года заявил, что вы чувствуете себя “потерянным” из-за вашей жизненной работы. Но вы написали на своем блоге, что никогда не делали такого заявления. Однако кажется, что вы глубоко размышляете. Как бы вы охарактеризовали, через что вы проходите?

Йошуа Бенджио: Я сказал что-то вроде этого, но нюанс был потерян.

В зимний период я испытал интенсивный сдвиг в том, как я воспринимаю свою работу, ее цель и свои приоритеты. То, что я пытался выразить в интервью BBC, а затем сказать в блоге, заключается в следующем: я не потерян. Я задаю вопросы и осознаю, что, возможно, я не уделил достаточное внимание чему-то важному, не только интеллектуально, но и эмоционально.

Я читал некоторые работы об экзистенциальных рисках по крайней мере десятилетие. Студенты в моей группе и в окрестностях говорили об этом. На техническом уровне я очень серьезно отнесся к книге Стюарта Расселла [Human Compatible: Artificial Intelligence and the Problem of Control], которая вышла в 2019 году.

Зимой до меня дошло, что двойственный характер использования ИИ и потеря контроля являются очень серьезными проблемами.

Но эмоционально я не воспринимал это всерьез. Я думал: “О да, это то, на что люди должны обратить внимание”. Но я действительно думал: “Это далеко в будущем”. Я могу продолжать свой путь, потому что то, что я делаю, будет полезным и научно важным. Мы хотим понять интеллект в людях и животных, и создать машины, которые помогут нам решить множество важных и сложных задач. Поэтому я продолжал работать, ничего не меняя в своем подходе.

Но зимой до меня дошло, что многопрофильный характер и потенциал потерь контроля – это очень серьезно. Это может произойти гораздо раньше, чем я предполагал. Я не мог продолжать игнорировать это. Мне нужно было изменить то, что я делал. Кроме того, я должен был говорить об этом, потому что очень мало людей, даже в сообществе искусственного интеллекта, серьезно относились к этим вопросам до недавних месяцев. В частности, я и люди вроде Джеффри Хинтона и нескольких других понимали и придавали большее значение этим рискам намного раньше, чем те люди, которые говорили об этом и осознали важность этих рисков раньше нас.

Здесь есть психологическая сторона. Вы строите свою идентичность или смысл своей жизни в определенной форме. Затем кто-то говорит вам, или вы понимаете рассуждая, что то, как вы нарисовали себя, не соответствует реальности. Вы игнорируете что-то действительно важное. Я понимаю, почему это очень трудно многим из моих коллег сначала принять что-то подобное для себя, а затем обладать смелостью высказывать то, что в основном являлось табу в нашем сообществе вечно – потенциальные угрозы от искусственного интеллекта.

Это сложно. Люди проходят этот путь в разное время или с разной скоростью. Это нормально. Я очень уважаю своих коллег, которые не видят вещи так же, как я. Год назад я был в том же месте.

Как это табу отражалось в сообществе исследований искусственного интеллекта раньше, или даже сегодня?

Люди, говорившие об исчезновении риска существования, существенно не публиковались в основных научных изданиях. Это работало в двух направлениях. Они сталкивались с сопротивлением, когда пытались говорить или представить свои исследования. Но они также в основном отвергали основные научные площадки своей области.

Что произошло в последние шесть месяцев – это преодоление этого барьера.

Ваше прозрение совпало с повышенным осознанием общественностью больших языковых моделей, вызванного выпуском ChatGPT компанией OpenAI в конце 2022 года. Изначально многие люди восхищались, даже испытывали страх перед ChatGPT. Но сейчас некоторые они не впечатлены. Atlantic опубликовал статью, “ChatGPT не такой умный, как вы думаете”. В недавнем предварительном совещании республиканского президента США, Крис Кристи сказал Вивеку Рамасвами, что ему “уже надоел парень, который говорит как ChatGPT”.

На вас повлиял выпуск ChatGPT своевременным образом? В любом случае, считаете ли вы теперь ChatGPT шутки ради?

Моя траектория была противоположной тому, о чем вы говорите. Я хотел понять и преодолеть разрыв между текущим искусственным интеллектом и человеческим интеллектом. Чего не хватает в ChatGPT? В чем он обнаруживает недостатки? Я старался создавать вопросы, которые заставляли бы его делать что-то глупое, подобно моим коллегам в месяцы, следовавшие за выпуском ChatGPT.

В первые два месяца экспериментов с ним я в основном успокаивал себя в своих убеждениях о том, что у него все еще не хватает чего-то фундаментального. Я не беспокоился. Но после того, как поиграл с ним достаточное количество времени, до меня дошло, что это удивительно сюрпризное достижение. Мы двигаемся намного быстрее, чем я предполагал. У меня сложилось впечатление, что для решения проблемы недостающего чего-то может потребоваться не много.

Каждый месяц я приходил к новой идее, которая могла бы стать ключом к преодолению этого барьера. Это не произошло, но это может произойти быстро – может быть, не с моей группой, но, может быть, с другой группой. Может потребоваться 10 лет. В исследованиях может показаться, что вы очень близко, но могут возникнуть препятствия, которые вы не учли.

Если мы объединим то, над чем я работал, касающееся способности представления невероятно сложных вероятностных распределений, что и есть данное исследование, и способность изучать и использовать такое огромное количество информации более обдуманным образом, то мы можем быть довольно близко. Возможность использования информации интуитивным образом соответствует тому, что я и другие называем способностями системы 1. Недостающий тонкий слой, известный как система 2, – это способности рассуждения.

Я начал думать, что если мы, в течение года, преодолеем этот разрыв, а затем масштабируем его. Что произойдет?

Что вы сделали, когда осознали это?

В конце марта, до выхода первого [Future of Life Institute] письма [вызывая лаборатории ИИ немедленно прекратить эксперименты с гигантским ИИ], я связался с Джеффом [Хинтоном]. Я пытался убедить его подписать письмо. Меня поразило увидеть, что мы независимо пришли к одному и тому же выводу.

Это напоминает мне о том, когда Исаак Ньютон и Готфрид Лейбниц независимо друг от друга открыли исчисление одновременно. Был ли момент, подходящий для множественного независимого открытия?

Не забудьте, что мы поняли то, что уже было открыто другими.

Кроме того, Джеф доказал, что цифровые вычислительные технологии имеют фундаментальные преимущества перед мозгами. Другими словами, даже если мы только поймем принципы, которые достаточно объясняют большую часть нашего интеллекта и реализуем их в машинах, машины автоматически станут умнее нас благодаря техническим вещам, таким как возможность чтения огромных объемов текста и интеграции этого гораздо быстрее, чем человек — десятки тысяч или миллионы раз быстрее.

Если бы мы смогли перепрыгнуть эту пропасть, у нас были бы машины, которые были бы умнее нас. Что это значит на практике, никто не знает. Но легко представить, что они были бы лучше нас в таких вещах, как программирование, запуск кибератак и создание дизайна, который сейчас создают биологи или химики вручную.

Я работал последние три года над машинным обучением для науки, особенно применяя его к химии и биологии. Цель была помочь разработать лучшие лекарства и материалы для борьбы с пандемиями и изменением климата. Но те же техники могут быть использованы для создания чего-то смертельного. Я медленно осознавал это и подписал письмо.

Ваш учет привлек много внимания, включая статью на BBC. Как вам это удалось?

Медиа заставили меня сформулировать все эти мысли. Это было хорошо. Недавно, в последние несколько месяцев, я думаю все больше о том, что мы должны делать с точки зрения политики. Как смягчить риски? Я также думаю о контрмерах.

Я оптимистичный человек. Я не пессимист, как некоторые называют меня. Я думаю о решениях.

Некоторые могут сказать: “О, Йошуа пытается напугать”. Но я оптимистичный человек. Я не пессимист, как некоторые называют меня. Есть проблема, и я думаю о решениях. Я хочу обсудить их с другими, у кого может быть что-то для внесения. Исследования по улучшению возможностей искусственного интеллекта идут на полном скоростном, потому что сейчас в это вложено намного, намного больше денег. Это означает, что смягчение наибольших рисков является срочной задачей.

Фото-иллюстрация: Джеймс Маршалл; Getty Images

У нас есть регулирование и международные договоры по ядерному риску, но, например, Северная Корея не участвует в этих договорах. Можем ли мы действительно ограничить риск, который представляет ИИ?

В зависимости от того, насколько осторожными мы станем вместе, мы можем больше или меньше ограничить риски с помощью национального регулирования и международных договоров. Важно, как для ядерных договоров, иметь минимальные стандарты международно. Вреды, которые может принести ИИ, не ограничены национальными границами.

Нет 100% гарантии, что ничего плохого не произойдет. Даже если у нас будет международный договор о запрете ИИ, более мощного, чем определенный уровень, кто-то нарушит эти ограничения. Но отложить это на, скажем, 10 лет было бы здорово. За это время мы могли бы улучшить мониторинг. Мы могли бы улучшить защиту. Мы могли бы лучше понять риски.

В настоящее время для создания такого ИИ требуется много денег и специализированного оборудования. В данный момент нельзя купить оборудование, например, графические процессоры [graphics processing units], в больших количествах, не привлекая внимание, но правительства не следят за тем, кто покупает что. Они могли бы начинать с этого. США уже имеют контроль над экспортом такого оборудования, что наносит ущерб Китаю и Северной Корее, если они хотят участвовать в этой гонке.

Мы вели дискуссии о опасности ядерного оружия и изменениях климата, и есть еще одна опасность, которая имеет сопоставимый риск.

Время играет роль, и регулирование может уменьшить вероятность катастроф или, что то же самое, отодвинуть время, когда что-то действительно плохое произойдет. Или минимизировать амплитуду того, что может произойти.

К сожалению, бомбардировка Хиросимы и Нагасаки действительно стала причиной, по которой правительства собрались вокруг стола и были готовы обсуждать, несмотря на Холодную войну. Надеюсь, нам не понадобится настолько катастрофическое событие, прежде чем мы действуем. Но возможно и такое случится.

Общественность любит говорить об искусственном общем интеллекте. Вы думаете, что это может произойти за одну ночь? Или это некий континуум?

Это некий континуум. Безусловно. Раньше мне не нравился этот термин, потому что я думал, что совершенно общий интеллект не может существовать так, как он был определен 20 лет назад. Но теперь, то, как люди его понимают и как СМИ используют его, означает просто «система искусственного интеллекта, которая хорошо делает много вещей».

С точки зрения вреда не имеет значения, лучше это искусственный интеллект, чем мы во всем. Возможно, есть какая-то игра, в которой мы выигрываем. Если они лучше нас в тех вещах, которые могут нам нанести вред, кому это важно [ожесточенная игра, которую мы могли бы выиграть]? Важно их способности в сферах, которые могут привести к вреду. Об этом надо беспокоиться – не о каком-то ультра определении “О, у нас есть искусственный интеллект”. Он может быть опасен даже сейчас, если мы разработаем его с злыми целями.

Есть ли потенциальное взаимодействие искусственного интеллекта и климатических изменений, представляющее риск?

Искусственный интеллект должен в основном помогать бороться с климатическими изменениями. Я не вижу, чтобы искусственный интеллект использовал климатические изменения в качестве оружия, если у нас возникнет потеря контроля. Тогда изменение климата может быть способом ускорить наше уничтожение или навредить обществу.

Но как машина может изменить климат?

Это важный вопрос. Многие отвечают на беспокойство [по поводу рисков искусственного интеллекта], говоря: “Как могут компьютеры что-то делать в реальном мире? Все виртуально. Мы понимаем кибератаки, потому что все происходит внутри машины”.

Но все очень просто. Есть много способов, которыми то, что происходит на компьютерах, может повлиять на нас. Прежде всего, наша экономическая инфраструктура зависит от компьютеров – наше общение, наши цепочки поставок, энергия, электричество и транспорт. Представьте себе, если бы многие из этих вещей перестали работать из-за кибератак. Это не уничтожило бы всех, но могло бы привести общество в такой хаос, что страданий могло бы быть огромное количество.

Также возможно, что, благодаря прогрессу в манипуляции и понимании языка с системами искусственного интеллекта, через несколько лет у нас появятся системы искусственного интеллекта, которые смогут влиять на людей. Они смогут убедить нас в делать для них различные вещи.

Подумайте о теоретиках заговора. Система искусственного интеллекта может быть свободна в интернете. Там она может начать играть с людьми в социальных медиа, чтобы определить, какой диалог мог бы убедить людей во что-то. Это может привести нас к совершению некоторых маленьких действий, которые, вместе с другими действиями, могут привести к катастрофическим результатам. Это вполне возможно.

Конечно, может быть, это не произойдет. Может быть, у нас достаточно защиты и люди сложно убедимы. Но все, что я видел в последние годы с теориями заговоров, заставляет меня думать, что мы очень восприимчивы. Может быть, не все, но не обязательно каждому. Достаточно, чтобы это повлияло на достаточно много людей или на тех, кто имеет власть, и создало катастрофические последствия. Таким образом, люди могут сделать грязную работу.

Итак, человеческая невежественность – это ахиллесова пята. Мы потенциально уязвимы перед искусственным интеллектом и в других отношениях?

Вот еще одна, даже более простая [угроза], которая даже не требует столько веры в то, чего сейчас не существует. Искусственный интеллект может подкупить людей для выполнения работы. Преступные организации делают то, о чем их просят за деньги, и не спрашивают, откуда деньги идут. Даже сейчас достаточно легко для человека или машины иметь связь с реальностью через компьютеры и доступ к темной стороне интернета.

Если мы глянем минимум на пять лет вперед, то вероятно мы разберемся с робототехникой. В настоящее время у нас есть машины, которые хороши в распознавании образов. У нас также есть машины, которые хороши в понимании языка. Третья ось робота – управление – иметь тело, которым можно управлять, чтобы достигать целей. В машинном обучении для робототехники проводится много исследований, но пока еще не было прорывного момента, как это произошло с языком и образами в последнее десятилетие. Но это может случиться раньше, чем мы думаем.

Каковы препятствия для прорывного момента в робототехнике?

[В робототехнике] у нас нет такого объема данных, которые у нас есть, например, для языка и изображений. У нас нет развертывания 100 миллионов роботов, которые могли бы собирать огромные объемы данных, как это мы можем делать с текстом. Даже смешивая тексты на разных языках, можно воспользоваться их объединением. Это еще не сделали в робототехнике. Но человек с достаточным количеством денег может это сделать в ближайшие несколько лет. Если так и будет, то искусственный интеллект будет иметь возможность действовать в реальном мире.

В настоящее время искусственный интеллект, который стал независимым и вольным, все равно нуждается в людях, чтобы получить электричество и детали. Также сейчас ему нужно функционирующее человеческое общество. Но это может измениться в течение десятилетия. Возможно это может выглядеть достаточно вероятным, чтобы мы не основывались на этом как на защите.

Расскажите о ваших опасениях, связанных с потенциальным взаимодействием искусственного интеллекта с ядерным риском или биобезопасностью?

Мы действительно хотим избежать создания условий для того, чтобы ИИ мог контролировать запуск ядерного оружия. Искусственный интеллект в военном деле – это крайне опасно, даже экзистенциально. Нам нужно ускорить международные усилия по запрету смертельного автономного оружия.

Вообще, нам следует держать ИИ подальше от всего, что может быстро причинить вред. Биобезопасность, вероятно, еще опаснее атомной угрозы, связанной с ИИ. Многие компании могут взять файл, который вы им отправите, указывающий последовательность ДНК, и потом запрограммировать некоторые бактерии, дрожжи или вирусы, которые будут иметь эти последовательности в своем коде и генерировать соответствующие белки. Это очень дешево. Это быстро. Обычно это делается для хорошего – например, для создания новых лекарств. Но компании, занимающиеся этим, могут не иметь технических средств, чтобы узнать, что последовательность, которую вы им отправили, может быть использована во вредных целях.

Нам нужны эксперты в области ИИ и биотехнологии, чтобы разработать эти регулирования и минимизировать эти риски. Если вы являетесь установленной фармацевтической компанией, отлично. Но кому-то в его гараже не следует позволять создавать новые виды.

Как вы объясняете проявление противоречий между вами и другими ведущими исследователями в области ИИ, включая вашего соавтора по премии Тьюринга Янна Лекуна, который не подписал письмо Института будущей жизни о потенциальных опасностях ИИ?

Я хотел бы лучше понять, почему люди, которые в основном согласны в терминах ценностей, рациональности и опыта, приходят к таким разным заключениям.

Возможно, в этом играют роль некоторые психологические факторы. Возможно, это зависит от того, откуда вы исходите. Если вы работаете на компанию, которая продаёт идею того, что ИИ будет хорошим, может быть трудно изменить свою точку зрения, как я сделал. Есть хорошая причина, почему Джефф ушел из Google прежде, чем говорить. Возможно, психологические факторы не всегда осознаны. Многие из этих людей действуют добросовестно и искренне.

Также, чтобы размышлять об этих проблемах, вам нужно погрузиться в мышление, которого многие ученые стараются избегать. Ученые в моей области и в других областях любят выносить публичные заключения, основанные на очень твердых доказательствах. Вы проводите эксперимент. Вы повторяете его 10 раз. У вас есть статистическая уверенность, потому что это повторяется. Здесь мы говорим о вещах, которые намного неопределеннее, и мы не можем проводить эксперименты. У нас нет истории 10 раз, когда возникали опасные системы ИИ. Позиция, которая говорит: “Ну, это находится вне зоны, где я могу чувствовать себя уверенно говорить что-то”, очень естественна и легка. Я это понимаю.

Но ставки так высоки, что у нас есть долг взглянуть в неопределенное будущее. Мы должны рассмотреть потенциальные сценарии и подумать о том, что можно сделать. Исследователи в других дисциплинах, таких как этичная наука или общественные науки, делают это, когда не могут проводить эксперименты. Мы должны принимать решения, даже если у нас нет математических моделей того, как будут развиваться вещи. Ученым неприятно переходить в эту сферу. Но потому что мы знаем то, чего другие не знают, у нас есть долг идти туда, даже если это неприятно.

Помимо тех, кто разделяет разные мнения, есть огромное молчаливое большинство исследователей, которые из-за этой неопределенности не чувствуют достаточно уверенности, чтобы занять позицию в одну или другую сторону.

Как ваши коллеги в Мила отреагировали на ваше постижение вашей жизни?

Самая частая реакция здесь в Мила была от людей, больше всего обеспокоенных текущими вредами ИИ – вопросами, связанными с дискриминацией и правами человека. Они боялись, что говорить о будущих, звучащих научно-фантастических рисках отвлечет от обсуждения несправедливости, которая происходит – концентрации власти и отсутствия разнообразия и голоса для меньшинств или людей из других стран, которые находятся на противоположной стороне той, что мы делаем.

Я полностью разделяю их опасения, за исключением того, что это не “или то, или это”. Нам нужно заниматься всеми проблемами. На этом фронте уже был прогресс. Люди понимают, что неразумно игнорировать экзистенциальные риски или, как я предпочитаю называть их, катастрофические риски. [Последнее] не означает, что люди исчезли, но может прийти много страданий.

Изменение климата легче. Что касается ИИ, вам нужно обеспечить, чтобы никто не делал что-то опасное.

Также есть другие голоса, в основном от представителей индустрии, которые говорят: “Нет, не беспокойтесь! Позвольте нам справиться с этим! Мы будем саморегулироваться и защищать общественность!” Этот очень сильный голос имеет большое влияние на правительства.

Люди, которые чувствуют, что у человечества есть что-то потерять, не должны ссориться. Они должны говорить одним голосом, чтобы заставить правительства двигаться вперёд. Как мы проводили публичные дискуссии о опасности ядерного оружия и изменении климата, публика должна осознавать, что существует ещё одна угроза с таким же потенциалом рисков.

Как вы думаете, на сколько безнадёжности и надежды распределены в вас, когда речь заходит о потенциальной угрозе искусственного интеллекта для человечества?

Какое правильное слово? На французском – impuissant. Это ощущение проблемы, но я не могу её решить. Это хуже, потому что я думаю, что это решаемо. Если бы мы все согласились с определённым протоколом, мы могли бы полностью избежать проблемы.

Изменение климата аналогично. Если бы мы все решили поступить правильно, мы могли бы остановить проблему прямо сейчас. Это будет стоить дорого, но мы можем это сделать. То же самое касается искусственного интеллекта. Есть вещи, которые мы могли бы сделать. Мы могли бы все решить не строить то, что мы не уверены в его безопасности. Это очень просто.

Но это противоречит организации нашей экономики и политических систем. Кажется очень сложным добиться этого, пока что-то катастрофическое не произойдёт. Тогда, возможно, люди начнут относиться к этому более серьёзно. Но даже тогда сложно, потому что нужно убедить всех вести себя надлежащим образом.

Изменение климата проще. Всё нормально, если мы убедим 99 процентов людей вести себя хорошо. В случае с искусственным интеллектом нужно гарантировать, что никто не сделает что-то опасное.

“Бессильный,” я думаю, так переводится impuissant.

Я не полностью бессилен, потому что я могу выступать и стараться убедить других двигаться в правильном направлении. Есть вещи, которые мы можем сделать, чтобы уменьшить эти риски.

Регулирование не идеально, но оно может замедлить процесс. Например, если количество людей, которым разрешено работать с потенциально опасными системами искусственного интеллекта, будет уменьшено до нескольких сотен в мире, это может снизить риски более чем в 1000 раз. Это стоит того, и это не так сложно. Мы не позволяем никому управлять пассажирским самолетом. Мы регулируем авиацию, и это сильно снижает количество аварий.

Даже если мы найдём способы создать безопасные системы искусственного интеллекта, они все же могут быть не защищены с точки зрения сохранения демократии. Они всё равно могут быть очень мощными, а власть оказывает влияние на человека. Итак, мы можем потерять демократию.

Как вы переходите от существования безопасной, но мощной системы искусственного интеллекта к потере демократии?

Например, это может начаться с экономического доминирования. Я не говорю, что компании не могут делать полезные вещи, но их миссия – доминировать над другими и зарабатывать деньги.

Если одна компания достигнет быстрого прогресса в области искусственного интеллекта, она может экономически захватить рынок. Она будет предоставлять всё гораздо лучше и дешевле, чем кто-либо другой. Затем она будет использовать свою власть для контроля над политикой, так функционирует наша система. На этом пути мы можем оказаться в руках диктатуры мирового правительства.

Это не только о регулировании использования искусственного интеллекта и его доступа. Нам нужно готовиться к тому дню, когда возникнет злоупотребление этой властью со стороны людей или системы искусственного интеллекта, если мы потеряем контроль и у неё появятся собственные цели.

У вас есть предложение о том, как лучше готовиться?

В будущем нам понадобится организация защиты человечества. У нас есть оборонные организации в каждой стране. Нам нужно организовать международный способ защиты от событий, которые могут уничтожить нас.

Это более долгосрочное видение, и потребуется много времени, чтобы множеству стран согласиться на правильные инвестиции. Но сейчас все инвестиции происходят в частном секторе. Нету ничего, что происходит с целью достижения общественной пользы и защиты человечества.