‘Крестный отец искусственного интеллекта’ имеет надежный план для того, чтобы будущий искусственный интеллект оставался дружелюбным

‘Крестный отец искусственного интеллекта’ имеет план для дружелюбного будущего ИИ.

Геоффри Хинтон, пожалуй, самый известный исследователь искусственного интеллекта в мире, сделал большой шум несколько месяцев назад, когда публично объявил, что он покинул Google, чтобы откровенно говорить о опасностях технологии, которую он помог разработать. Его объявление не было внезапным. В конце 2022 года все было о пьянящем открытии того, что ИИ может сделать для нас. В 2023 году, даже когда мы использовали GPT и общались в Bing, головокружение смешалось с паникой от существенной тревоги. Поэтому не было полным шоком, что человек, известный как “Крестный отец искусственного интеллекта”, поделился своими обдуманными сомнениями. Хинтон подчеркнул, что его критика не является критикой поискового гиганта, в котором он работал десять лет; его уход просто избегал потенциальных напряженностей, которые возникают при критике технологии, которую ваша компания активно внедряет.

Основное сообщение Хинтона заключалось в том, что ИИ может потенциально выйти из-под контроля во вред человечеству. В первые несколько недель после его публичного выступления, он дал несколько интервью, включая интервью с собственным Уиллом Найтом из ENBLE, о своих опасениях, которые он начал ощущать относительно недавно после того, как увидел мощь больших языковых моделей, таких как та, что стоит за ChatGPT от OpenAI.

Обычный текст

Ранее этим летом я вел разговор с Хинтоном, после того, как у него было время обдумать свою жизнь и миссию после Google. Конечно, мы говорили о сценариях катастрофы, но меня больше интересовало, что заставило его изменить свое мнение о нашем потенциале в области ИИ. Прежде всего, я хотел узнать, что он думает о том, что такие LLM могут делать, чтобы превратиться в противников команды “Человек”. Опасения, которые Хинтон сейчас выражает, являются довольно значительным сдвигом по сравнению с предыдущим разговором, который мы вели в 2014 году. Тогда он говорил о том, как глубокое обучение поможет Google делать более эффективный перевод, улучшать распознавание речи и более точно определять номера домов на картах Google. Только в конце разговора он выразил более широкую точку зрения, сказав, что он чувствует, что глубокое обучение пройдет через крупную переделку, которая приведет к более глубокому пониманию реального мира.

Его предсказание оказалось верным, но в нашем недавнем разговоре Хинтон все еще удивлялся тому, как это произошло. В конце концов, наш разговор стал более философским. Что на самом деле происходит, когда система, как чат-бот Bard от Google, отвечает на мой вопрос? И являются ли LLM действительно, как утверждают некоторые люди, предшественниками формы искусственного сверхинтеллекта?

Хинтон говорит, что его мнение изменилось, когда он понял три вещи: Чат-боты, похоже, действительно хорошо понимают язык. Поскольку каждое новое обучение модели может быть дублировано и передано предыдущим моделям, они могут обмениваться знаниями друг с другом намного проще, чем мозги, которые не могут быть прямо связаны друг с другом. И машины теперь обладают лучшими алгоритмами обучения, чем люди. “Я внезапно изменил свое мнение о том, что мозг лучше этих цифровых агентов”, – говорит он. “Они уже знают в 1000 раз больше, чем любой мозг. Так что в плане огромного знания они гораздо лучше мозга”.

Хинтон считает, что через пять или двадцать лет у ИИ-систем будет 50-процентный шанс быть умнее нас. Я спрашиваю его, как мы узнаем, когда это случится. “Хороший вопрос”, – отвечает он. И он не удивится, если сверхинтеллектуальная ИИ-система выберет сохранить свои способности для себя. “Предположительно, она будет учиться у человеческого поведения не говорить нам об этом”.

Мне показалось, что он антропоморфизирует эти искусственные системы, что ученые постоянно говорят обывателям и журналистам не делать. “Ученые стараются не делать это, потому что антропоморфизация большинства вещей – глупо”, – признает Хинтон. “Но они научатся этому у нас, они научатся вести себя так же, как мы лингвистически. Так что я считаю, что антропоморфизировать их абсолютно разумно”. Когда ваш мощный ИИ агент обучен на общей сумме цифрового знания человечества, включая множество онлайн-разговоров, было бы глупо не ожидать, что он будет вести себя как человек.

Но что насчет возражения, что чат-бот на самом деле никогда не сможет понять то, что понимают люди, потому что эти лингвистические роботы – просто импульсы на компьютерных чипах, не имеющие прямого опыта мира? Все, что они делают, в конце концов, – предсказывают следующее слово, необходимое для составления ответа, который статистически удовлетворит запрос. Хинтон указывает на то, что даже мы сами не встречаемся с миром напрямую.

«Некоторые люди думают, что, у нас есть субъективный опыт, а у [роботов] его нет, поэтому мы действительно понимаем вещи, а они – нет», – говорит Хинтон. «Это просто чушь. Потому что, чтобы предсказать следующее слово, вам нужно понять, какой был вопрос. Вы не можете предсказать следующее слово, не понимая его, верно? Конечно, их обучают предсказывать следующее слово, но в результате предсказания следующего слова они понимают мир, потому что это единственный способ сделать это».

Так что эти вещи могут быть… осознанными? Я не хочу верить, что Хинтон превращается в Блейка Лемуана. И я думаю, что нет. «Позвольте мне продолжить свою новую карьеру философа», – шутя говорит Хинтон, когда мы углубляемся в дебри. «Давайте оставим осознанность и сознание в стороне. Я действительно не воспринимаю мир прямо. То, что я считаю реальным в мире, на самом деле там не находится. Это приходит в мой разум, и я действительно вижу то, что находится в моем разуме напрямую. Вот что думал Декарт. И затем возникает вопрос, как это все в моем разуме связано с реальным миром? И как я на самом деле знаю реальный мир?» Хинтон продолжает аргументировать, что поскольку наш собственный опыт субъективен, мы не можем исключать того, что у машин может быть также субъективный опыт. «С этой точки зрения, вполне разумно сказать, что у этих вещей может уже быть субъективный опыт», – говорит он.

Теперь рассмотрим совокупные возможности того, что машины могут действительно понимать мир, могут учиться обману и другим плохим привычкам от людей, и что гигантские искусственно-интеллектуальные системы могут обрабатывать во много раз больше информации, чем мозги способны справиться. Возможно, теперь у вас, как и у Хинтона, возникло более тревожное представление о будущих результатах искусственного интеллекта.

Но мы не обязательно находимся на неизбежном пути к катастрофе. Хинтон предлагает технологический подход, который может смягчить доминирование искусственного интеллекта над людьми: аналоговые вычисления, такие же, какие есть в биологии и как некоторые инженеры считают, что будущие компьютеры должны работать. Это был последний проект, над которым Хинтон работал в Google. «Это работает для людей», – говорит он. Применение аналогового подхода к искусственному интеллекту будет менее опасным, потому что каждый экземпляр аналогового оборудования имеет свою уникальность, рассуждает Хинтон. Как и у нашего собственного мокрого маленького мозга, аналоговые системы не могут так легко сливаться в своеобразный ум муравейника Скайнет.

«Идея в том, чтобы не делать все цифровым», – говорит он о аналоговом подходе. «Поскольку каждый кусок аналогового оборудования немного отличается, вы не можете передавать веса от одной аналоговой модели к другой. Так что нет эффективного способа обучаться во множестве разных копий одной и той же модели. Если у вас есть ИИ [через аналоговые вычисления], он будет гораздо больше похож на людей и не сможет вместить столько информации, сколько могут цифровые модели».

Шансы кажутся невеликими, что крупные компании Big Tech, которые гонятся за усовершенствованием своих LLM-чатботов, примут такой техно-веганистский подход к искусственному интеллекту. Конкуренция жесткая, а награды за создание самых мощных ботов астрономические. Хинтон, который не стесняется выражать свои политические взгляды, сомневается, что большие публичные компании или стартапы, поддерживаемые венчурными фондами, ограничат свои инновации в области искусственного интеллекта из-за каких-то благотворительных соображений.

В некоторые дни Хинтон говорит, что он оптимистичен. «Люди довольно изобретательны, и он пока что не умнее нас, и они не развились, чтобы быть злобными и подлыми, как люди, и очень преданными вашей племени, и очень неверными другим племенам. И именно поэтому мы, возможно, сможем удержать это под контролем и сделать его благожелательным». Но иногда Хинтон чувствует себя угрюмо. «Есть случаи, когда я считаю, что, вероятно, мы не сможем его удержать, и мы всего лишь преходящая фаза в эволюции интеллекта».

И вот внезапный побег в уникальной и неповторимой аналоговой нейронной сети Джефа Хинтона – наука замолкает, а политика, освеженная его очень человеческим чувством игры, разражается: «Если мы дадим Берни возможность управлять и у нас будет социализм, все будет намного лучше», – говорит он. Думаю, его бывшие руководители из Google облегчены, что им не пришлось отвечать на это.

В январе 2015 года моя статья на Backchannel (теперь в архиве ENBLE) рассказывала о том, как открытия команды Хинтона собираются быть реализованы, крупномасштабно, в продуктах Google и во всем мире. Мне пришлось немного попросить, чтобы получить интервью с Хинтоном, который ограничен во времени на кампусе Маунтин Вью, но я наконец-то добился своей аудитории.

«Мне нужно знать немного о вашем опыте», говорит Джеффри Хинтон. «У вас есть научная степень?»

Хинтон, сухонький, с юмором англичанин по происхождению из Канады, стоит перед доской в белом цвете в Маунтин-Вью, Калифорния, на территории Google, компании, в которую он присоединился в 2013 году в качестве выдающегося исследователя. Хинтон, возможно, является ведущим экспертом в мире по системам нейронных сетей, технике искусственного интеллекта, которую он помог создать в середине 1980-х годов. (Он однажды заметил, что думает о нейронных сетях с 16 лет.) На протяжении большей части этого времени нейронные сети, которые приближенно имитируют способ, которым человеческий мозг обучается, описывались как многообещающее средство для компьютеров, чтобы овладеть сложными вещами, такими как зрение и естественный язык. После лет ожидания этой революции люди начали задаваться вопросом, будут ли когда-нибудь выполнены обещания.

Но около десяти лет назад, в лаборатории Хинтона в Университете Торонто, он и некоторые другие исследователи сделали прорыв, который внезапно превратил нейронные сети в самую горячую штуку в области искусственного интеллекта. Не только Google, но и другие компании, такие как Facebook, Microsoft и IBM, начали бешено стремиться к относительно малому числу компьютерных ученых, знакомых с черным искусством организации нескольких слоев искусственных нейронов, чтобы весьма система могла быть обучена, или даже обучить себя, чтобы отличить смысл от случайных входных данных, таким же образом, как новорожденный научится организовывать данные, набегающие на его или ее девственные чувства. С помощью этого нового эффективного процесса, получившего название Глубокое обучение, некоторые давно существующие проблемы вычисления (например, возможность видеть, слышать и быть непобедимым в Breakout) наконец-то разберут. Век разумных компьютерных систем – долго ожидаемый и долго опасаемый – внезапно будет дышать нам в спину. И поиск Google будет работать намного лучше.

Паскаль спрашивает: «Как может выглядеть день в жизни будущего 80-летнего «бумера» в доме престарелых в ближайшем будущем? Могут ли чат-боты когда-нибудь частично заменить человеческий контакт для изолированных пожилых людей? Является ли технология действительно решением или просто временным пластырем?»

Спасибо за вопрос, Паскаль. Я также благодарю других, кто отправил вопросы на [email protected] с указанием в теме ASK LEVY. Моя небольшая просьба на прошлой неделе сработала! Продолжайте присылать!

Ваш вопрос актуален, Паскаль, потому что я предполагаю, что, вероятно, сотни стартапов работают над чат-ботами для пожилых людей. Ваше формулирование подразумевает, что нет замены настоящему человеческому контакту, и, конечно же, вы правы. В идеале, наши угасающие годы должны проводиться в окружении любящего общения с друзьями и родственниками. Но реальность такова, что миллионы пожилых людей проводят последние годы своей жизни в домах престарелых с минимальным контактом. Разумно задаться вопросом, может ли технология заставить этих людей чувствовать себя, будто у них есть интересное общение. Мы, несомненно, близки к чат-ботам, способным эмулировать человеческого опекуна или даже что-то, похожее на друга. Если выбор будет между этим и телевизором, показывающим какой-то адский канал, было бы жестоко отказать кому-то в остроумном чат-боте, знающем его любимые темы, который будет беспрекословно слушать и отвечать на рассказы о прекрасных воспоминаниях и бессвязных анекдотах без смысла.

Но у меня есть большая надежда. Возможно, передовой искусственный интеллект может сделать открытия в медицине, которые сохранят людям здоровье на поздних стадиях жизни. Это может позволить людям оставаться активными дольше, сокращая время, проведенное в изолированных домах престарелых и учреждениях. Конечно, это не решает позорное отношение к нашим пожилым людям. Чтобы процитировать покойного Джона Приня, «старые люди просто становятся одинокими, ожидая, когда кто-то скажет: привет, вот». Я полагаю, что лучше, чем ничего, будет чат-бот, который скажет это.

Вы можете задавать вопросы по адресу [email protected]. Напишите ASK LEVY в строке темы.

Жители и туристы спасаются в океане, когда Мауи воспламеняется.

Я провел среду в парке с Граймс, говоря о искусственном интеллекте, Марсе, NFT, ее предстоящей книге «Трансгуманизм для малышей», ЛСД и вы знаете кого.

Оказалось, что у процессора Intel есть уязвимость, которая подрывает конфиденциальность миллионов пользователей. Что еще вы ожидаете от процессора с таким названием, как “Downfall”?

Надоела большая технологическая компания? Присоединяйтесь к движению, чтобы отказаться от их облачного хранилища.

Хип-хопу исполнилось 50 лет, и люди осознают необходимость сохранения его истории. И да, Смитсониан занимается этим.

Не пропустите будущие эксклюзивные выпуски этой колонки для подписчиков. Подпишитесь на ENBLE (50% скидка для читателей Plaintext) уже сегодня.