Мир не готов к следующему десятилетию искусственного интеллекта

Мир не готов к ИИ в следующем десятилетии

В ЭПИЗОДЕ НА ЭТОЙ НЕДЕЛЕ Шпицлинг и Лорен Гуд беседуют с Мустафой Сулейманом, сооснователем DeepMind и InflectionAI. Они обсуждают его новую книгу “Наступающая волна”, которая объясняет, почему наши системы не готовы к следующему великому прорыву в технологии. Сулейман объясняет, почему несбыточно предположение о том, что чат-боты могут свергнуть правительства, и аргументирует необходимость лучшего подхода к оценке искусственного интеллекта. (Подсказка: это связано с заработком миллиона долларов.)

Книга Мустафы Сулеймана “Наступающая волна: технология, власть и величайшая дилемма 21 века” выходит 5 сентября. В то же время вы можете ознакомиться с материалами ENBLE о DeepMind, Inflection AI и всем, что связано с искусственным интеллектом.

Лорен Гуд находится в Twitter по адресу @LaurenGoode. Гидеон Личфилд находится в Twitter по адресу @glichfield. Обращайтесь в главную горячую линию по адресу @ENBLE.

Вы всегда можете прослушать подкаст этой недели через аудиоплеер на этой странице, но если хотите подписаться бесплатно, чтобы получать каждый эпизод, вот что нужно сделать:

Если у вас iPhone или iPad, просто нажмите эту ссылку или откройте приложение под названием Podcasts и найдите Have a Nice Future. Если вы используете Android, вы можете найти нас в приложении Google Podcasts, просто нажав здесь. Вы также можете скачать приложение, такое как Overcast или Pocket Casts, и найти Have a Nice Future. Мы также на Spotify.

Примечание: это автоматическая транскрипция, которая может содержать ошибки.

Гидеон Личфилд: О, Боже, нет. Я звучу как плохой ведущий BBC. Извините.

[Смех]

Лорен Гуд: Мне нравится BBC.

[Музыка]

Гидеон Личфилд: Привет, я Гидеон Личфилд.

Лорен Гуд: И я Лорен Гуд. И это Have a Nice Future, подкаст о том, как ужасно быстро все меняется.

Гидеон Личфилд: Каждую неделю мы беседуем с кем-то, у кого есть большие, смелые и иногда тревожные идеи о будущем, и мы спрашиваем их, как мы все можем приготовиться к жизни в нем.

Лорен Гуд: Наш гость на этой неделе – Мустафа Сулейман, сооснователь компании по искусственному интеллекту DeepMind и, более недавно, сооснователь и генеральный директор Inflection AI.

Гидеон Личфилд: Он также автор предстоящей книги о том, как искусственный интеллект и другие технологии завоюют мир и, возможно, угрожают самой структуре национального государства.

Мустафа Сулейман (аудиофрагмент): Теперь мы будем иметь доступ к высококвалифицированным, убедительным обучающим искусственным интеллектам, которые могут помочь нам осуществить, какие бы намерения у нас ни были. И это определенно ускорит вред – без сомнения. И с этим нам предстоит столкнуться.

[Музыка]

Лорен Гуд: Итак, Гидеон, Мустафа – это гость, которого мы оба хотели пригласить в подкаст, хотя, я думаю, по немногочисленным причинам. Вы недавно беседовали с ним на конференции Collision в Торонто, вы интервьюировали его на сцене. Я поговорила с ним на другой конференции за кулисами; мы говорили о его чат-боте, Пи. Но, пригласив его в Have a Nice Future, я действительно хотела понять, почему он создает то, что он создает – например, нужен ли нам еще один чат-бот? И в чем связь между чат-ботом и улучшением человечества? А вы, кажется, больше заинтригованы некоторыми крупными общими темами, которые он представляет в своей новой книге.

Гидеон Личфилд: Я просто считаю, что у него очень интересный опыт. Он сириец-британец, работал некоторое время в правительстве и по разрешению конфликтов, затем соосновал DeepMind с несколькими другими людьми, и их целью изначально было решение проблемы искусственного общего интеллекта, что OpenAI также создан для решения. И они действительно решили некоторые очень важные проблемы искусственного интеллекта – например, они практически решили, как победить в игре Го и в различных других играх, и они работали над складыванием белка, что быстро меняет способ, которым проводится биологическое и фармацевтическое развитие. Они продали DeepMind Google, и он работал там несколько лет. А затем он ушел из Google, частично потому, что сказал, что там слишком бюрократично и движется слишком медленно для него, и основал Inflection, который создает этот чат-бот, который, как мы услышим, должен быть не просто чат-ботом, но больше того. И теперь вот эта книга, которая говорит о том, что искусственный интеллект и синтетическая биология и ряд других технологий развиваются так быстро и станут такими широко распространенными, что они подорвет саму основу нашей способности управлять нашими странами и обществами. Меня просто очень интересует, как все это соединяется.

Лорен Гуд: Верно. Здесь есть эволюция создания искусственного интеллекта, создания искусственного интеллекта, создания искусственного интеллекта… Подождите. Насколько мы должны беспокоиться?

Гидеон Личфилд: Что мы создаем?

Лорен Гуд: Да. Сведение всех этих идей вместе – это фундаментальный вопрос, который я задала ему, особенно потому, что он и пропагандирует возможности искусственного интеллекта, и предостерегает от его быстрого развития и угроз, и мне действительно хотелось бы углубиться в детали. Но я скажу Мустафе следующее: в этом разговоре он проявляет очень человеческую сторону, что, возможно, нельзя сказать о всех предпринимателях в области искусственного интеллекта, с кем мы разговаривали.

Гидеон Личфилд: Да, многие люди, которых мы приглашаем в программу, говорят о создании технологии и позволении обществу разобраться с проблемами и регулировать ее. И, справедливости ради, Мустафа, как вы услышите, тоже считает, что сначала нужно создать вещь, а потом определить, где могут быть ее опасности. Но я думаю, что у него по крайней мере более обдуманные ответы, чем у некоторых, на то, какие могут быть эти опасности и как мы должны начать готовиться к ним.

Лорен Гуд: Это все будет в разговоре, который начнется сразу после рекламы.

[Музыка]

Гидеон Личфилд: Добро пожаловать, Мустафа Сулейман, в программу “Желаю вам хорошего будущего”.

Мустафа Сулейман: Привет, Гидеон. Очень рад быть здесь.

Лорен Гуд: Рады видеть вас в программе.

Мустафа Сулейман: Привет, Лорен, спасибо, что пригласили меня.

Лорен Гуд: Фактически, когда я узнала, что вы приходите, я спросила Пи, я открыла приложение и спросила его, что я должна спросить вас в этом подкасте. Оно сказало: “Ого, это волнующе, восклицательный знак. Мустафа Сулейман – удивительный мыслитель и инноватор…”

Мустафа Сулейман: О Боже. [Смех]

Лорен Гуд: “И его книга, безусловно, будет полна идей. Могу ли я спросить, какой у вас подкаст и что вы хотите получить из этого интервью?” И так далее. Я понимаю, что выборка данных может быть немного предвзятой. Что вы думаете?

[Смех]

Мустафа Сулейман: Вам стоит еще раз перекрутить и посмотреть, будет ли это по-другому. Возможно, оно проявит такое же энтузиазм, но уверяю вас, что оно точно не было подготовлено нами. [Смех]

Лорен Гуд: Но сейчас много персонализированных чат-ботов, работающих на искусственном интеллекте. Они стали очень популярными с момента выпуска чат-бота OpenAI в конце 2022 года. Почему вы решили выбрать чат-бот?

Мустафа Сулейман: Я считаю, что разговор станет новым интерфейсом. Если вы просто отойдете на шаг назад и посмотрите на свой компьютер или даже на телефон, вы увидите огромное количество кнопок и иконок в нижней навигации, в многоцветном техническом мире. И это на самом деле довольно ошеломляющий опыт. Это потому, что он не был разработан с единым, чистым интерфейсом, ориентированным на человека, как первым принципом. Это сочетание двух потребностей: человеческого перевода и потребностей компьютера. И я думаю, что следующая волна будет такой, где вы проводите большую часть времени в разговоре со своим искусственным интеллектом, это основной механизм управления.

Гидеон Личфилд: Вы являетесь сооснователем DeepMind около 12 лет назад, и, как OpenAI, у него была миссия разработки искусственного общего интеллекта этичным и безопасным способом. И через 12 лет вы основали Inflection AI, и на этот раз вы сказали, что не работаете над ИО общего назначения. Почему? Что изменилось, и какова ваша цель вместо этого?

Мустафа Сулейман: Мы основали DeepMind в 2010 году, и девизом было создание безопасного и этичного искусственного общего интеллекта, системы, способной хорошо себя проявлять в различных средах. И это была миссия DeepMind, уверенность в том, что нам нужно учиться всему с нуля. Теперь, в Inflection, мы разрабатываем ИИ под названием Пи, что означает “личный интеллект”, и он более узко специализирован на роли персонального ИИ. Он совершенно отличается от ИИ, который изучает сложные профессиональные навыки. Личный ИИ, по нашему мнению, больше похож на персонального помощника; это как начальник штаба, друг, доверенное лицо, поддержка, и он вызовет правильный ресурс в нужное время в зависимости от задачи, которую вы ему даете. Так что у него есть элементы общности, но он не разработан с общностью в качестве первого принципа, как основной целью дизайна.

Гидеон Личфилд: Вы считаете, что ИИ общего назначения (AGI) опасен? Это почему вы не занимаетесь им или просто потому, что считаете, что это невозможно?

Мустафа Сулейман: Я считаю, что до сих пор никто не предложил даже убедительной теоретической основы, которая дал бы мне уверенность в том, что возможно ограничить AGI с значительными возможностями рекурсивного самоусовершенствования.

Лорен Гуд: Как ваши мысли о AGI и о том, что до сих пор нет настоящей, даже теоретической основы для него, повлияли на модель, которую вы создаете?

Мустафа Сулейман: Я думаю, что это правильный подход. Узкое применение более безопасно, хотя это не гарантировано. Более общее применение более склонно к автономности и, следовательно, немного менее безопасно. Наш ИИ – это личный ИИ, который в первую очередь предназначен для хорошего разговора, и со временем он научится делать для вас разные вещи. Он сможет использовать API, но это не означает, что вы можете давать ему указания так же, как другой языковой модели, потому что это не языковая модель, Пи – это ИИ. GPT – это языковая модель. Это совершенно разные вещи.

Гидеон Личфилд: В чем разница?

Мустафа Сулейман: Первый этап создания ИИ – это обучение большой языковой модели. Вторым шагом является так называемая настройка, где вы пытаетесь согласовать или ограничить возможности вашей предварительно обученной модели, чтобы она выполняла конкретную задачу. Для нас этой задачей является разговор, обучение, обмен знаниями, развлечение и так далее, но для других компаний они действительно хотят предложить это как API, чтобы вы получали доступ к предварительно обученной модели со всеми этими возможностями. И вот тогда, я думаю, задача безопасности становится немного сложнее.

Гидеон Личфилд: В ближайшем будущем, в том, которое вы описываете, у каждого будет свой персональный ИИ-помощник или шеф-помощник, который сможет выполнять задачи для них, возможно, бронировать путешествия или организовывать поездки или искать информацию.

Лорен Гуд: Скоро он будет для нас вести наш подкаст, Гидеон.

Гидеон Личфилд: Да, это хороший вопрос. Заменит ли он нас? Заменит ли он наших продюсеров? Но, более важно, я думаю, что в этом мире, где у всех есть такие ИИ-помощники, вы сказали, что это помогает вытаскивать людей из нищеты, создает новые экономические возможности. 20 лет назад никто не имел смартфонов, и было трудно представить, как мир изменится, когда у всех будут смартфоны, а сегодня у нас у всех есть эти компьютеры в кармане, которые позволяют нам делать невероятные вещи. Но на фундаментальном структурном уровне мир не изменился. Все те же неравенства, все те же конфликты. Как отличается мир, в котором каждый имеет персонального ИИ-помощника, от сегодняшнего мира?

Мустафа Сулейман: Да. Я не считаю, что за последние 20 лет в мире ничего структурно не изменилось. Я бы не стал приписывать все преимущества смартфонам, но, конечно, я считаю, что справедливо сказать, что смартфоны сделали нас умнее, дали нам доступ к информации, позволили нам общаться с новыми людьми и создавать огромные бизнесы на основе этого аппаратного обеспечения. Так что это, безусловно, –

Гидеон Личфилд: Они также дали нам огромный доступ к дезинформации и помогли потратить много времени на различные отвлечения, которые не всегда хороши для нас. Так что можно привести несколько противоречивых аргументов.

[Перекрывающийся разговор]

Лорен Гуд: Они сделали нас гораздо хуже водителями транспортных средств.

[Смех]

Мустафа Сулейман: Да. Смотрите, я определенно не наивный техно-оптимист, так что есть неоспоримые недостатки и вред. Но я думаю о персональном ИИ, и это не слишком отличается от появления смартфона. Смартфон по сути положил в руки более миллиарда людей самое мощное мобильное устройство, которое способны изобрести наши вид. Независимо от того, насколько вы богаты, будь вы миллиардером или получаете обычную зарплату, у нас всех теперь есть доступ к одному и тому же передовому аппаратному обеспечению. Я действительно считаю, что важно сказать с самого начала, что это траектория, на которой мы находимся, и я считаю это довольно невероятным.

Гидеон Личфилд: Я считаю, что можно с уверенностью утверждать, что новая технология может вывести нас как на худшие, так и на лучшие стороны. И поэтому можно сказать, что «Искусственный интеллект, так же как и смартфоны, имеет как положительные стороны, так и отрицательные».

Мустафа Сулейман: Это обратная сторона доступа к информации в сети. Теперь у нас будет доступ к высококвалифицированным, убедительным обучающим ИИ, которые могут помочь нам осуществить любые темные намерения. И вот с этим нам предстоит бороться, это будет темным, это, безусловно, ускорит нанесение вреда – в этом нет сомнений. И с этим мы должны столкнуться.

Лорен Гуд: Можно ли провести границу между идеей, что личный ИИ выполняет задачи для вас или дает вам больший доступ к информации, и идеей «Это поможет решить проблему бедности»? Как это работает на самом деле? Как этот ИИ, Пи, ваш чат-бот, помогает победить бедность?

Мустафа Сулейман: Это сложный вопрос. Я не связывал эти два аспекта, я не говорил, что он решит проблему бедности или голода в мире. [Смех] Это не то, для чего предназначен Пи. Пи – это личный ИИ, который поможет вам как индивидуальному лицу стать более продуктивным. Другие люди будут использовать прогресс искусственного интеллекта для самых разных задач, включая турбонаддув науки. Что касается науки, я могу себе представить, что это будет инструмент, который поможет вам более эффективно просеивать научные статьи, синтезировать последние достижения, сохранять и регистрировать все ваши идеи и помогать вам быть более эффективным исследователем. Я имею в виду, давайте подумаем так: мы сжимаем знания, доступные в Интернете, в усваиваемые кусочки в персонализированной форме. Там сейчас огромное количество информации, которую можно воспроизводить в высокой степени индивидуализации, что, по моему мнению, ускорит интеллект людей и сделает их намного более продуктивными. В целом я считаю, что наличие личного помощника, скорее всего, сделает вас более умным и продуктивным человеком.

Гидеон Личфилд: Ты работаешь над «Инфлекцией» в самом ближайшем будущем искусственного интеллекта, но у тебя выходит книга, которая начинается с рассуждений о ближайшем будущем ИИ и заканчивается предсказанием возможного разрушения национального государства. Не хочешь ли ты дать нам краткое изложение аргумента?

Мустафа Сулейман: С волной ИИ масштаб этих моделей вырос в десять раз каждый год в течение последних десяти лет. И мы на пути увеличения этого масштаба в десять раз каждый год впереди на следующие пять лет, и это очень, очень предсказуемо и весьма вероятно.

Лорен Гуд: И предположение вашей книги заключается в том, что мы не готовы к этому?

Мустафа Сулейман: Мы абсолютно не готовы, потому что такая мощь становится все меньше и эффективнее, и всякий раз, когда что-то полезно в истории изобретений, оно обычно становится дешевле, становится меньше и, следовательно, распространяется. Так что история следующего десятилетия – это история распространения мощи, что, на мой взгляд, вызовет реальную угрозу национальному государству, несравнимую с тем, что мы видели с момента возникновения национального государства.

Лорен Гуд: Вы считаете себя человеком с властью?

Мустафа Сулейман: Да.

Лорен Гуд: Какая у вас эта власть?

Мустафа Сулейман: Ну, я богат, я продал свою компанию в 2014 году, и у меня теперь есть новая компания. Я образован. Фактически, я стал элитой с момента достижения совершеннолетия. Я вырос как очень бедный ребенок рабочих семей, иммигрировавших без образования, но сейчас я определенно в привилегированной группе. [Смех]

Лорен Гуд: Таким образом, вы находитесь в уникальном положении, потому что в своей книге вы обращаете внимание на это дисбаланс власти, который, по вашему предсказанию, ожидает нас в ближайшем будущем.

Мустафа Сулейман: Верно.

Лорен Гуд: Но вы сами являетесь мощным человеком, который в конечном счете может немного настроить параметры с помощью искусственного интеллекта, который вы сами создаете.

Мустафа Сюлейман: Именно. И я думаю, что ограничение – это тема, я думаю, следующего десятилетия.

Гидеон Личфилд: Что ж, давайте поговорим об этой идее ограничения в книге, потому что это термин, который вы заимствуете из холодной войны. В этом контексте он означал ограничение оружия или государства. Но очевидно, что совершенно другое дело ограничить технологию, которая может находиться в руках миллиардов людей. Какова суть ограничения, как вы это представляете для этих технологий сегодня?

Мустафа Сюлейман: Нет идеального состояния, когда игра заканчивается и мы полностью ограничили технологию, потому что технологии будут продолжать становиться дешевле и проще в использовании, будет продолжаться огромный спрос на них. И, в отличие от любой другой предыдущей технологии, это универсальные технологии, они по своей природе общие, их можно использовать для всего и всяческих нужд. И поэтому попытка обозначить и определить, какие части технологии должны быть ограничены, в настоящее время правительства не имеют реальной возможности делать такую оценку в режиме реального времени. Вот почему я очень поддерживаю и участвую во внеконкурсных обязательствах Белого дома. И я думаю, что это пример проактивности и предосторожности, поощрение самоограничений в отношении вещей, которые мы можем делать с самыми большими моделями. И поэтому мы сталкиваемся с этим порогом, самоограничением, что самые большие модели должны быть особенно осмотрительными и предосторожными в способе их обучения и внедрения.

Лорен Гуд: Как же вы это совмещаете? Как вы говорите: “Мы только что подписали обязательство, мы добровольно стремимся создать меры безопасности или ограничения, но в то же время в этом году мы обучаем самую большую языковую модель в мире”.? Это длинное выражение, самая большая языковая модель в мире. Что это на самом деле означает? Когда компании, подобные вашей, подписывают обязательство говорить о происхождении и создавать решения в этой области или о том, что наши обучающие наборы не содержат предубеждений. Ежедневно, что именно делает ваша команда, ваши инженеры, чтобы сделать это безопаснее?

Мустафа Сюлейман: Нам бы хотелось знать, какие обучающие данные были включены в модель, каковы методы и процесс калибровки и ограничения возможностей этих моделей? Кто может проверить этот процесс? Итак, здесь задача состоит в том, чтобы попытаться заранее применить принцип предосторожности, чтобы мы привыкли и практиковали его по мере изменения ситуации в следующие пять или десять лет.

Гидеон Личфилд: Если бы я был циником, что, конечно же, я совсем не такой …

Мустафа Сюлейман: [Смех] Конечно, нет.

Лорен Гуд: Не Гидеон.

Гидеон Личфилд: Я бы мог сказать, что вы и компании по искусственному интеллекту создаете довольно сладкую сделку для себя, потому что вы можете сказать правительству: “Смотрите, вы, правительство, не можете достаточно хорошо разобраться в этом, чтобы регулировать его, поэтому мы будем добровольно устанавливать некоторые ограничения, мы будем определять, насколько предосторожен должен быть принцип предосторожности”. И поэтому я задаю вопрос: какой стимул у частного сектора, который ведет диалог, потому что он обладает необходимым знанием, чтобы установить стандарты, которые действительно полезны для общества?

Мустафа Сюлейман: Если бы мы могли принять формальное регулирование, я думаю, что это было бы хорошим началом. Но вы правы, хорошее регулирование, я думаю, является результатом активного участия разнообразных групп людей, высказывающих свои опасения и участвующих в политическом процессе. И в настоящее время мы, кажется, подавлены безразличием, гневом и поляризацией. И вот сейчас наступил критический момент, я думаю, когда у нас есть много времени, у нас есть много лет, чтобы попытаться сделать это правильно. Я думаю, у нас есть хорошее десятилетие, где мы можем вести популярный разговор, и это частично то, что я пытаюсь сделать с книгой, и частично то, что другие пытаются сделать с внеконкурсными обязательствами тоже.

Гидеон Личфилд: Какие сценарии вы предсказываете, которые большинство людей, вероятно, не могут представить, что могут произойти, если мы не сможем удержать эти технологии под контролем?

Мустафа Сулейман: Ну, я думаю, что через 15 или 20 лет можно представить очень мощных негосударственных акторов. Подумайте о наркокартелях, милициях, организованной преступности, просто организации с намерением и мотивацией причинить серьезный вред. И если барьер для начала и осуществления конфликта снижается быстро, то у государства возникает сложный вопрос: как продолжать защищать целостность своих границ и функционирование своих государств? Если все меньше и меньше групп людей могут обладать властью, похожей на государственную, то это, по сути, риск наступающей волны.

Лорен Гуд: Мне очень интересно, что вы делаете с Inflection, потому что когда я думаю о вашем опыте, вы работали в политике, занимались социальной деятельностью, конечно, совместно основали DeepMind, а затем работали в Google. Но вы также написали книгу и, кажется, у вас есть дипломатические намерения, вы верите в сотрудничество. Почему вы основатель стартапа?

Мустафа Сулейман: Я счастлив, когда что-то создаю. Я действительно люблю глубоко понимать, как что-то работает, и я делаю это на микроуровне. Я люблю переходить от микроуровня к макроуровню, но не могу оставаться только на макроуровне. Я одержим деланием ежедневно, и, полагаю, в этом моя предпринимательская часть. Мне нравится думать о том, что мы будем выпускать завтра? Что мы сделаем? Что мы построим? Если мне пришлось бы выбирать между этими двумя, то это делает меня счастливым, и я большую часть времени занимаюсь этим.

Лорен Гуд: И вы думаете, что работа вне сферы стартапов была бы просто скучной, похоже? У вас не было бы такого удовлетворения—

Мустафа Сулейман: Это слишком медленно.

[Смех]

Лорен Гуд: … от видения результатов ваших усилий.

Мустафа Сулейман: Мне нужна обратная связь. И мне нужны измерения—

Лорен Гуд: Вам нужна обратная связь. Вы могли бы быть журналистом. Мы должны публиковать материалы постоянно, и мы получаем много обратной связи онлайн. Я могу прочитать вам некоторые комментарии.

[Смех]

Мустафа Сулейман: Мне жаль это слышать. Надеюсь, наш искусственный интеллект может быть добр к вам и поддерживать вас, а также противодействовать всем тем злыдням в Twitter. [Ухмылка]

Лорен Гуд: И чтобы быть ясным, мы не используем искусственный интеллект в нашей журналистской работе.

Мустафа Сулейман: Пока что.

Лорен Гуд: О, боже. Это совсем другой подкаст.

[Смех]

Гидеон Личфилд: Но, может быть, мы будем использовать Pi, чтобы защитить нас от всех неприятностей в Twitter, как сказал Мустафа.

Лорен Гуд: Может быть. [Ухмылка]

Гидеон Личфилд: Извините. На X, на X. Не в Twitter, уже не там.

Лорен Гуд: Правильно.

Мустафа Сулейман: О, черт.

Гидеон Личфилд: Вы ушли из Google, чтобы основать Inflection, и вы говорили публично о том, как вас раздражает медленность в Google, бюрократия. Вы сказали, что они могли бы выпустить свою собственную большую модель языка год или более раньше, чем OpenAI выпустила ChatGPT. Похоже, это немного противоречит вашему предостережению в книге, где вы говорите: «С одной стороны, нам нужно двигаться быстрее в Google, и я хочу выпускать вещи каждый день, а с другой стороны, нам нужно быть очень осторожными с выпуском новых продуктов, потому что мир не готов справиться с ними».

Мустафа Сулейман: Да. Я могу видеть каждый день взаимодействуя с LaMDA, что она не представляет значительной угрозы вреда—то же самое можно сказать о GPT-4, думаю, вам будет сложно утверждать, что он причинил какой-либо материальный вред миру.

Гидеон Личфилд: Пока что.

Лорен Гуд: Молодец, Гидеон.

Мустафа Сулейман: Возможно. Сомневаюсь. Ею уже пользуются миллиарды людей. Может быть. Посмотрим. Предполагаю, что нам придется подождать несколько лет. Но я думаю, что модели такого размера маловероятны, и это было очевидно для меня с самого начала. И я считаю, что лучший способ действовать – просто разумно предлагать новые вещи. Это не означает, что нужно быть безрассудным, но нужно получать обратную связь, измерять воздействие и быть очень внимательным и итеративным, как только вы видите, что люди используют его определенным образом.

Гидеон Личфилд: Я хочу спросить вас о чем-то, что вы предложили, называемом современным тестом Тьюринга. Вы предложили, что нам нужен новый способ оценки интеллекта, вместо устаревшей идеи о том, что машина просто может звучать как человек. Одним из примеров, который вы предложили, была машина, которая могла бы пройти этот Тьюринговский тест или что-то, что вы можете ей сказать: “Сделай мне миллион долларов, начиная с меньшей суммы”. И она это сделает. Почему это был ваш критерий?

Мустафа Сулейман: Современная версия теста Тьюринга, на мой взгляд, заключается в том, чтобы дать достаточно абстрактную цель искусственному интеллекту. Я выбрал “Создай продукт, изготовь его, реализуй его на рынке и продвигай его, а затем попытайся заработать миллион долларов”. Я думаю, что первая волна современного теста Тьюринга будет иметь определенную степень вмешательства человека, возможно, три или четыре или пять моментов, когда человеку понадобится заключить контракт, открыть банковский счет, получить все необходимые юридические и финансовые одобрения. Но я думаю, что большая часть остальных элементов, таких как общение с производителями в Китае, отправка товаров напрямую, оптимизация маркетинга путем создания нового рекламного контента, все эти компоненты почти готовы. Проблема будет заключаться в том, чтобы объединить их в последовательность действий, отвечающую этой широкой цели.

Лорен Гуд: Это так интересно, потому что изначально я подумала, что это просто тест Тьюринга, чтобы проверить, может ли искусственный интеллект стать венчурным капиталистом в короткие сроки. Но я понимаю, что здесь должна быть эта связующая ткань, и это то, чего не хватает. Итак, что вас беспокоит ночью?

Мустафа Сулейман: Я думаю, что самым большим вызовом следующего десятилетия будет распространение власти, которое усилит неравенство и ускорит поляризацию, потому что распространение дезинформации станет проще, чем когда-либо. И я думаю, что это просто… это потрясет наш неустойчивый мир.

Гидеон Личфилд: Вы считаете, что искусственный интеллект имеет решения для этой проблемы, а также является причиной некоторых проблем?

Мустафа Сулейман: Интересно, я думаю, что здесь важную роль сыграют технологические платформы, потому что они действительно выполняют важную функцию модерации интернета. Я думаю, что нам нужно стать гораздо более знакомыми с идеей постоянной мгновенной модерации крупных платформ и самого интернета. Я думаю, что будет очень сложно определить, кто создал какой контент, и я думаю, что единственный реальный способ контролировать это – это то, чтобы платформы сделали это правилом.

Лорен Гуд: Последний вопрос для вас. После того, как Пай, ваш персональный помощник, закончил восхвалять вас, я попросила его задать вам более сложные вопросы, и одной из вещей, которую он сказал, было: “Если бы вам пришлось выбрать одну вещь, которую вы бы хотели, чтобы люди перестали делать сегодня, чтобы у нас было лучшее будущее, что бы это было?”

Мустафа Сулейман: Я думаю, что это было бы предположение о том, что у другого человека плохие намерения. Мы не замечаем друг друга и почти подсознательно решаем не слушать их, потому что мы уже присвоили им плохие намерения. Я думаю, что если мы просто подошли бы друг к другу, по-настоящему пытаясь поставить себя на место другого, я чувствую себя гораздо скромнее в этом отношении. Это трудно сделать. Пай определенно задал мне сложный вопрос.

Лорен Гуд: Мы все должны найти свои способы проведения некоторой полевой работы, это то, что вы хотите сказать.

Мустафа Сулейман: Да, вам нужно пойти и потрогать, почувствовать и вдохнуть и быть частью другой среды, чем вы привыкли.

[Музыка]

Гидеон Личфилд: Это было действительно интересно, Мустафа, спасибо вам большое за участие в программе Have a Nice Future.

Мустафа Сулейман: Большое спасибо. Это было забавно.

[Музыка]

Лорен Гуд: Гидеон, мне очень интересно, что движет Мустафой. У него интересное прошлое – он не типичный белый парень, бросивший стэнфордский университет, создавший приложение, технарь. У него глобальная перспектива. Он, очевидно, хочет быть своего рода мыслителем. Но я думаю, это также говорит о нашем капиталистическом обществе и о невероятном влиянии некоторых из наших самых успешных капиталистов, что он видит частный сектор как место, где он может не только создавать вещи, но и оказывать влияние. Какое впечатление вы получили, беседуя с ним о его движущих силах?

Гидеон Личфилд: Во время интервью он сказал, что ему нравится создавать что-то и каждый день выпускать что-то новое, ему нравится иметь такую мотивацию для прогресса. И кажется, он также считает, что исследование сложных проблем, связанных с влиянием технологий на мир, происходит через создание самих технологий. Он говорит в книге, что его опыт работы в правительстве и участие в разрешении конфликтов вдохновили его на вопросы, которые он задает себе сегодня, о том, как мы управляем нашими обществами. Трудно сказать, насколько это реально и насколько это строительство повествования, которое неизбежно делают люди в его положении, но я думаю, что в его уме действительно присутствует беспокойство по поводу этих проблем и попытка найти правильные ответы.

Лорен Гуд: Я знаю, что вы прочитали эту книгу, которую Мустафа написал совместно с кем-то еще. Что вы думаете о книге?

Гидеон Личфилд: Я нашел эту книгу очень захватывающей, потому что он задает те же самые вопросы, которые меня сейчас очень интересуют, и я планирую продолжать работать над ними после того, как уйду из ENBLE в конце этого года – в основном, как мы будем управлять нашими обществами в 21 веке, когда наши институты были созданы в 18 веке? Сегодня у нас есть мир, в котором технологии движутся намного быстрее, мы гораздо более взаимосвязаны, все стало гораздо больше и сложнее, и те институты, которые мы создали века назад, уже не справляются с задачей. Его экстраполяция того, какие технологии, которыми мы обладаем сегодня, повлияют на будущее, для меня действительно затронула струну, и в то же время вызвала некоторые сомнения, потому что я не уверен, разделяю ли я его уверенность в том, насколько мощными станут модели искусственного интеллекта. Он, очевидно, знает больше об искусственном интеллекте, чем я, так что, может быть, я должен ему верить. Но, с другой стороны, я думаю, что мы видели, как многие технологические основатели делают очень смелые прогнозы о возможностях технологий, которые в итоге оказываются не до конца осуществленными.

Лорен Гуд: Я склонна с вами согласиться, что экспоненциальная скорость развития искусственного интеллекта может не обязательно достичь указанной отметки, но я думаю, что его замечание о том, как это снижает барьеры для доступа к этим инструментам для всех, является важным. Потому что я признаюсь, что мы можем быть немного узколобыми, мы воспринимаем технологии через свою собственную призму, свою собственную мировоззрение, свой собственный опыт. И я думала, что то, что он сказал, например, о возможностях негосударственных акторов использовать и владеть этими инструментами, было интересным. Если барьер для начала и осуществления конфликта снижается, то это вызывает вопросы, потому что вдруг и маленькие люди могут использовать эти инструменты. Тогда речь идет уже о потенциальных проблемах искусственного интеллекта, которые гораздо больше, чем просто “Может ли мой чатбот предоставить мне терапию или обработать мой запрос на обновление паспорта?”

Гидеон Личфилд: Да, я думаю, что, возможно, мое скептическое отношение связано с тем, что, когда я смотрю на влияние технологий в последнее время, скажем, за последнее десятилетие, я вижу и больше и меньше влияния, чем можно было бы ожидать. Так, мы смотрим на Арабскую весну и видим, насколько эффективными были социальные сети в поддержке восстаний и свержения правительств и народных движений, но спустя 10 лет Ближний Восток выглядит практически так же, как и до этого, потому что власть была перехвачена авторитарными режимами, использующими те же самые методы, что использовали революционеры, и основные структуры власти и богатства в регионе не изменились. Это не уничтожило идею национального государства, это не уничтожило идею границ, это не перевернуло мир в каком-то макро-смысле. И поэтому, когда я думаю о прогнозах Мустафы, что негосударственные акторы будут использовать генеративный искусственный интеллект, чтобы, в некотором смысле, фундаментально изменить политическую структуру мира, я могу увидеть способы, которыми это может произойти на местном уровне, но я думаю, что если вы посмотрите на это со стороны, мир не будет сильно отличаться через 20 или 30 лет от того, как он выглядит сегодня. Но кто знает, я все равно могу ошибаться.

Лорен Гуд: Правда? Вы не считаете, что мир изменился существенным образом с появлением интернета?

Гидеон Личфилд: Конечно, я думаю, что мир изменился колоссально, и если посмотреть на нашу повседневную жизнь, она непомерно отличается от того, какой она была до появления интернета. Но если я выходил на широкую картину, то, думаю, я все еще вижу мир, в котором несколько стран доминируют в политике, несколько богатых людей доминируют в бизнесе и обществе, эти неравенства становятся больше, а не меньше, несмотря на так называемый демократизирующий эффект технологии. Способы, которыми люди обмениваются властью и влиянием, по-прежнему фундаментально неизменны. Может быть, я просто слишком циничен, но на некотором уровне я вижу общество людей практически таким же, каким оно всегда было, независимо от наличия у нас технологий.

Лорен Гуд: Я также рада, что он объяснил свою мысль за реимагинированным тестом Тьюринга. [Смех]

Гидеон Личфилд: Потому что ты была вроде “Почему тест Тьюринга – это проверка насколько хорошим капиталистом может быть робот?”

Лорен Гуд: В основном, да. Казалось, что проверка на то, может ли бот заработать миллион долларов, – это очень грубая интерпретация теста Тьюринга, но потом он объяснил, что имел в виду, и сейчас это, кажется, одна из проблем развития ИИ. Даже у самых продвинутых генеративных инструментов ИИ все еще есть проблема выполнения. Вы можете провести впечатляющую мозговую штурмовую сессию или даже сеанс терапии с ботом, но как только вы говорите “Хорошо, продлите мне паспорт”, он, вероятно, не сможет сделать это. Все части еще не связаны. И поэтому, я думаю, он использовал идею того, может ли он инвестировать деньги и зарабатывать их для вас, пока вы спите, как определение того, работает ли это на самом деле.

Гидеон Личфилд: Да. И один из вопросов для меня – сколько из этих преград связано просто с мощностью моделей? Вы делаете их более мощными, и в конце концов, они находят способ сделать все. И сколько из этого просто глупых проблем, которые компьютер не может решить, потому что вам все равно нужен человек, чтобы подключить его к правильным API или предоставить доступ к правильным данным? На том же самом конференции, где я интервьюировал Мустафу на сцене, я встретил человека, который играл с примитивным агентом ИИ. И это, по сути, была большая языковая модель, связанная с некоторыми API и веб-сервисами. И он использовал ее, чтобы собрать список участников конференции, которых было несколько тысяч, и рекомендовать ему 100 человек, с которыми он должен попытаться связаться. И это, по-моему, был действительно очень полезный случай использования ИИ, если бы это сработало. И я мог видеть, что в чем-то он мог потерпеть неудачу: во-первых, ему пришлось создать то, что позволило ему извлечь данные с веб-сайта конференции, оно не могло сделать это самостоятельно. И поэтому часто требуется человек, который будет соединять эти разные цифровые сервисы, чтобы они действительно работали вместе. Но другая проблема заключалась в том, насколько хорошо ваш ИИ знает вас? И насколько хорошо он сможет давать вам рекомендации о людях, с которыми вам следует поговорить на конференции? Разница между рекомендациями, которые вполне нормальные, и теми, которые действительно очень хорошие, может зависеть от огромного количества знаний о вас и данных о вас, которые вы, возможно, не сможете предоставить, потому что эти данные могут не существовать в такой форме, которую он сможет усвоить. И я думаю, что именно в таких конкретных приложениях мы начнем понимать, насколько мощный ИИ или насколько больше ему потребуется, чтобы быть полезным. И я даже не думаю, что у нас пока есть хорошее представление о том, насколько сложно это будет.

Лорен Гуд: И в конце концов, вам все равно придется принять все эти встречи. Вам, Гидеон.

Гидеон Личфилд: Да, мне все равно придется принять все эти встречи. Я думаю, что следующим шагом будет создание ИИ, который сможет принимать встречи за меня, а затем загружать результаты в мой мозг. Но это не то, что мы увидим в ближайшее время.

[Музыка]

Лорен Гуд: Это наш выпуск на сегодня. Спасибо за прослушивание. Вы можете прочитать книгу Мустафы “Приходящая волна: технология, власть и самая большая дилемма 21 века”, когда она поступит в продажу 5 сентября.

Gideon Lichfield: Шоу “Хорошего будущего” держит меня, Гидеон Личфилд.

Lauren Goode: И меня, Лорен Гуд. Если вам нравится шоу, расскажите нам, оставьте рейтинг и обзор где бы вы ни слушали подкасты. Мы любим читать ваши комментарии. И не забудьте подписаться, чтобы получать новые эпизоды каждую неделю.

Gideon Lichfield: Вы также можете написать нам на адрес [email protected].

Lauren Goode: “Хорошее будущее” – это производство Condé Nast Entertainment. Шоу производит Даниэль Хьюитт от Prologue Projects. Нашим ассистентом-продюсером является Арлин Аревало.

Gideon Lichfield: И мы вернемся сюда в следующую среду. До тех пор, желаем вам хорошего будущего.


Если вы покупаете что-то через ссылки в наших историях, мы можем получить комиссию. Это помогает поддерживать наш журналистику. Узнать больше.