Более умные AI-ассистенты могут сделать сложнее сохранить человеческую природу

Умные AI-ассистенты могут изменить человеческую природу

Исследователи и футуристы уже десятилетиями говорят о том дне, когда интеллектуальные программные агенты будут действовать в качестве персональных помощников, наставников и советников. Apple выпустила свое знаменитое видео Knowledge Navigator в 1987 году. Кажется, я помню, что посещал событие MIT Media Lab в 1990-х годах о программных агентах, где ведущий выступал в роли дворецкого в цилиндре. С приходом генеративного искусственного интеллекта эта пушистая картина программного обеспечения в качестве помощника-приемника внезапно приобрела очертания. Will Knight из ENBLE предоставил на этой неделе обзор того, что сейчас доступно и что неминуемо.

Обычный текст

Мне беспокойно, как это изменит нас и наши отношения с другими на долгосрочной основе. Множество наших взаимодействий с другими людьми будет осуществляться через ботов, действующих от нашего имени. Робот-помощник отличается от человеческого помощника: он не берет перерывов, мгновенно получает доступ ко всему мировому знанию и не требует выплаты жизненного минимума. Чем больше мы их используем, тем соблазнительнее становится передавать задачи, которые мы раньше резервировали для себя. В настоящее время предлагаемые ассистенты искусственного интеллекта все еще несовершенны. Мы еще не добрались до того момента, когда автономные боты будут регулярно брать на себя деятельности, в которых не допускаются сбои, например, бронирование авиабилетов, запись к врачу и управление финансовыми портфелями. Но это изменится, потому что это возможно. Кажется, мы суждены жить своей жизнью, как дальнобойные пилоты самолета – после установки курса мы можем откинуться на спинку кресла в кабине, позволив искусственному интеллекту управлять самолетом, переключаясь на ручной режим, когда это необходимо. Опасение заключается в том, что в конечном итоге именно агенты смогут решать, куда идет самолет в первую очередь.

Независимо от мрачного настроя, все мы будем иметь дело с суперумными и, возможно, манипулятивными агентами других людей. Мы передадим управление нашим ежедневными делами и повседневными выборами, от списков покупок до записей в календаре, нашим собственным агентам искусственного интеллекта, которые также будут взаимодействовать с агентами наших семьи, друзей и врагов. Со временем, по мере приобретения независимости, наши автоматизированные помощники могут принимать решения или заключать сделки от нашего имени, которые совсем не будут хороши.

Чтобы получить оптимистичное представление об этом будущем, я обращаюсь к Мустафе Сулейману. Сооснователю стартапа по искусственному интеллекту DeepMind, который сейчас является сердцем разработки искусственного интеллекта Google, он также является генеральным директором Inflection.ai, компании, разрабатывающей чат-боты. Сулейман недавно стал резидентом списка бестселлеров The New York Times благодаря своей книге “The Coming Wave”, в которой он предлагает, как люди могут справиться с угрозами существования искусственного интеллекта. В целом, он оптимист и, конечно же, имеет розовый взгляд на программные агенты. Он описывает бота своей компании, Pi, как личного “главного помощника”, который обеспечивает не только мудрость, но и эмпатическую поддержку и доброту.

“На сегодняшний день Pi не может бронировать для вас рестораны или организовывать автомобиль или, знаете ли, покупать вещи для вас,” – говорит Сулейман. “Но в будущем он будет иметь ваш контрактный и правовой прокси, что означает, что вы предоставили разрешение на заключение контрактов от вашего имени, трату реальных денег и закрепление вас за материальными соглашениями в реальном мире.” Также в планах: Pi будет совершать телефонные звонки от имени владельца и вести переговоры с операторами службы поддержки.

Это кажется справедливым, потому что в настоящее время слишком много из этих сервисных агентов уже являются ботами и, возможно, по задумке, не принимают разумных аргументов, которые доказывают, что их корпоративные работодатели обманывают своих собственных клиентов. Неизбежно, мы запустим своих искусственных интеллектов в переговоры с другими искусственными интеллектами во всех сферах жизни. Сулейман признает, что мы не хотим, чтобы эти боты слишком сближались друг с другом или взаимодействовали таким образом, что они не доступны для проверки человеком. “На самом деле мы хотим, чтобы коммуникация между искусственным интеллектом и искусственным интеллектом ограничивалась простым английским языком,” – говорит Сулейман. “Таким образом, мы сможем ее проверить.”

Это хорошо озабоченная проблема, но, вероятно, это заставит агентов работать медленнее и, возможно, даже препятствует некоторым из наиболее инновационных решений, которые могут придумать наши сверхинтеллектуальные помощники. Я подозреваю, что соблазн сделать коммуникацию между искусственным интеллектом и искусственным интеллектом эффективной и эффективной превзойдет этот хороший сентимент.

Еще один потенциальный кошмар: рекламно-финансируемые боты, которые направляют владельцев на спонсируемые продукты и услуги. Сулейман не особо любит эту идею, но, похоже, не отрицает ее. Он говорит, что его боты, предоставляющие огромную ценность, не будут дешевыми. “Вы регулярно платите адвокату сотни долларов в час. Но почему-то мы только что привыкли к тому, что платим не более 10 долларов в месяц за любую услугу онлайн. Это должно измениться.” Так будут ли тем, кто не может позволить себе оплатить плату, предлагаться рекламно-поддерживаемые версии? Он признает, что не все захотят платить за доступ к технологии. В любом случае, по словам Сулеймана, доверие и ответственность являются неотъемлемыми. “Пройдет много лет, прежде чем нам будет комфортно с автономными действиями искусственного интеллекта,” – говорит он. “Я думаю, что мы не должны делать это в ближайшее время.”

Технология сделает отдельных людей более мощными — моя единственная озабоченность заключается в том, что люди делают с этой силой?

Для меня волнующий вопрос заключается в том, что после того, как мы привыкнем, мы закончим. Когда я искал подтверждение в исследовательских статьях, мое внимание привлек заголовок «Сила нанести вред: ИИ-помощники прокладывают путь к неэтичному поведению». Соавторами являются ученые из Университета Южной Калифорнии Джонатан Гратч и Натанаэль Фаст, которые формулируют гипотезу о том, что интеллектуальные агенты могут демократизировать нехорошую привычку богатых людей, которые делегируют свое плохое поведение адвокатам, пресс-секретарям и грубым подчиненным. «Мы рассматриваем ряд исследований, иллюстрирующих то, как люди могут вести себя менее этично и быть более склонными к обману, когда действуют через ИИ-агентов», пишут они.

Я встретился с Гратчем, который говорил со мной с конференции в Вюрцбурге, Германия. «Каждый мужчина или женщина может иметь своего личного помощника, делать вещи от их имени», — говорит он. «Наши исследования позволяют предположить, что люди могут быть готовы указывать своим помощникам делать вещи, которые более этически сомнительны, чем они сами были бы готовы сделать».

Гратч изучает возможное влияние интеллектуальных агентов уже много лет. В прошлом году этот сектор прошел трансформацию, похожую на молнию, поражающую червяка, который вдруг обретает сверхспособности. «Раньше вы тратили все время своего докторского диссертационного исследования, пытаясь создать чертовский агент, который вы хотите протестировать», — говорит он. «А сейчас, потратив два дня на игру с GPT или чем-то подобным, вы можете получить что-то, взаимодействующее с людьми и выглядящее довольно хорошо». Гратч говорит, что его сфера теперь пронизана смесью восторга и тревоги.

«Технология сделает отдельных людей более мощными, открывая свободное время», — говорит он. «Единственное, что меня беспокоит, это то, что люди делают с этой силой». Например, если бы я поручил агенту позвонить ему от моего имени, он говорит, что потенциальная человеческая связь была бы потеряна. «Эти личные связи — это то, что делает нас хорошими и способствует эмпатии», — говорит Гратч. «Когда ИИ делает все больше о алгоритмах, законах и транзакциях, это умаляет нас как людей».

Область Гратча, раньше сосредоточенная на гипотетических ситуациях, теперь может показаться руководством по тому, какие коммерческие ИИ-сервисы находятся за углом. Рассмотрим некоторые презентации на конференции в Вюрцбурге: «Эффекты воплощения агента в переговорах человек-агент», «Учет выразительности пользователя при соблюдении безопасности виртуального консультанта по проблемам злоупотребления алкоголем», «Влияние рэппорта на делегирование виртуальным агентам». (Неутешительно, другие статьи были о поддержании этики в мире, полном агентов). Гратч видел аналогичную работу на конференции, на которой недавно побывал в MIT. Там также были все крупные технологические компании, говорит он, и он ожидает, что многие из его студентов будут наняты ими.

Гратч описывает сессию конференции на этой неделе, где исследователи исследовали, как программное обеспечение ИИ может манипулировать людьми с помощью эмоций, невербального поведения или жестов и найти наиболее эффективные техники. «Вы можете настроить ChatGPT для выполнения всего этого и продать вам более дорогой телевизор», — говорит он. Вы уже чувствуете свою мощь?

В декабре 2010 года ENBLE немного опередил события, заявив: «Революция ИИ началась». В своем эссе я говорил о трудности определения, чем занимаются продукты ИИ, даже если в конечном итоге они делают добро.

Мы вовлечены в постоянный танец с машинами, взаимно зависимый объятия. И все же, поскольку поведение ботов не основано на человеческих мыслительных процессах, мы часто бессильны объяснить их действия. Wolfram Alpha, веб-сайт, созданный ученым Стивеном Вольфрамом, может решать множество математических задач. Он также кажется показывать, как получаются эти ответы. Но логические шаги, которые видят люди, полностью отличаются от фактических вычислений веб-сайта. «Он не делает никаких логических рассуждений», — говорит Вольфрам. «Эти шаги полностью фальшивые. Мы думали, как объяснить это одному из этих людей?»

Урок состоит в том, что наши компьютеры иногда должны угодить нам, иначе они нас напугают. Эрик Хорвиц, который сейчас является ведущим исследователем в Microsoft и бывшим президентом Ассоциации развития искусственного интеллекта, помог создать ИИ-систему в 1980-х годах, чтобы помочь патологам в их исследованиях, анализировать каждый результат и предлагать следующий тест для выполнения. Была только одна проблема — она давала ответы слишком быстро. «Мы обнаружили, что люди больше доверяют ей, если мы добавим цикл задержки с мигающим светом, будто она подымает и пыхтит, чтобы придумать ответ», — говорит Хорвиц.

Но нам нужно научиться адаптироваться. ИИ настолько важен для некоторых систем, таких как финансовая инфраструктура, что избавиться от него было бы гораздо сложнее, чем просто отключить модули HAL 9000. “В некотором смысле, можно сказать, что научно-фантастический сценарий уже начинает происходить”, говорит Хиллис из Thinking Machines. “Компьютеры контролируют, и мы просто живем в их мире.” Вольфрам говорит, что эта дилемма будет усиливаться по мере того, как ИИ будет брать на себя новые задачи, выходящие за пределы понимания человека. “Вы будете регулировать базовый алгоритм?” – спрашивает он. “Это сумасшествие, потому что в большинстве случаев нельзя предвидеть, какие последствия будет иметь этот алгоритм.”

Шанти спрашивает: “Будет ли когда-нибудь преемник электронной почты? Что для этого потребуется, чтобы заменить этот стандарт социального интернета?”

Благодарю за вопрос по электронной почте, Шанти. Электронная почта больше не обладает той силой, которой она когда-то обладала. Многие сообщения, которые раньше попадали в почтовые ящики, теперь достигают людей через текстовые сообщения, прямые сообщения в социальных сетях или Slack. Я подозреваю, что появятся и другие сервисы, которые дальше подрывают когда-то всеобъемлющую гегемонию электронной почты. Однако, как вы подразумеваете, во многих случаях электронная почта действительно является стандартом, хотя ящики постоянно выходят из-под контроля. Я помню, как Билл Гейтс однажды посетил меня в моем офисе в Newsweek, чтобы сказать мне, что спам будет устранен в течение года. Через несколько месяцев я отпраздную 20-летие этого визита, и каждый день я получаю десятки нежелательных сообщений, из которых некоторые уклоняются от спам-фильтра.

Спам в стороне, я бы не хотел избавляться от электронной почты. Трудно представить себе более простой способ познакомиться с кем-то, отправить или получить файлы или поддерживать архив взаимодействий. Последняя функция бесценна. Потому что я могу мгновенно искать в десятилетиях сообщений. Когда появляется знакомое имя, я могу быстро найти предыдущий обмен, о котором я совершенно забыл.

С другой стороны, если бы кто-то предложил обязательные минимальные сроки для тех, кто односторонне включает меня в рассылки, особенно коммерческие, я бы не возражал против этого.

Вы можете задавать вопросы на [email protected]. Вставьте ASK LEVY в строку темы.

Наконец, рейтинг, на который все ждали: лучшие города для выживания в зомби-апокалипсисе. Нью-Йорк на втором месте!

Помимо консультирования и споров с представителями службы поддержки, боты могут писать. Но насколько хорошо?

Dall-E 3 делает еще проще лишить работы иллюстраторов.

Простое изобретение Crispr недостаточно для лауреата Нобелевской премии Дженнифер Доудны. Она теперь планирует редактировать биому.

Внутри Neuralink Илона Маска, где дела с обезьянами действительно включают мертвых обезьян.

Если вы покупаете что-либо, используя ссылки в наших статьях, мы можем получить комиссию. Это помогает поддерживать нашу журналистику. Узнайте больше. Пожалуйста, также подумайте о подписке на ENBLE