Приготовьтесь к чатботам искусственного интеллекта, которые выполняют ваши скучные дела

Get ready for AI chatbots that do your boring tasks.

Несколько недель назад генеральный директор стартапа Фло Кривелло написал сообщение своему личному помощнику Линди с просьбой изменить продолжительность предстоящей встречи с 30 до 45 минут. Линди, программа-агент, работающая на искусственном интеллекте, нашла дюжину или около того встреч, продолжительностью 30 минут, в календаре Кривелло и немедленно продлила их все.

“Я был в стиле ‘Черт побери, она как-то уничтожила мой календарь'”, – говорит Кривелло о программе-агенте, которая разрабатывается его стартапом, также названным Линди.

Компания Кривелло – одна из нескольких стартапов, надеющихся использовать последние достижения в создании чат-ботов, способных производить впечатляющий текст, в качестве помощников или агентов, способных выполнять полезные задачи. В течение года или двух надеются, что эти программы-агенты будут регулярно помогать людям выполнить повседневные дела.

Вместо того, чтобы просто предлагать советы по планированию деловой поездки, как может сделать ChatGPT от OpenAI сегодня, агент также может найти подходящий рейс, забронировать его на кредитную карту компании и заполнить необходимый отчет о расходах после этого.

Проблема заключается в том, что, как показывает случай с календарем Кривелло, эти программы-агенты могут запутаться таким образом, что приводит к неловким и потенциально дорогостоящим ошибкам. Никто не хочет, чтобы личный помощник забронировал рейс с 12 пересадками только потому, что он немного дешевле, или чтобы назначил две встречи одновременно.

На данный момент Линди находится в частной бета-версии, и хотя Кривелло говорит, что проблема с календарем была устранена, у компании нет четкого графика выпуска продукта. Тем не менее, он предсказывает, что подобные агенты, как его, станут повсеместными в ближайшее время.

“Я очень оптимистично смотрю на то, что через два-три года эти модели будут гораздо живее”, – говорит он. “Сотрудники на базе ИИ приходят. Это может звучать как фантастика, но эй, ChatGPT звучит как фантастика”.

Идея помощников на базе ИИ, способных действовать от имени пользователя, далеко не нова. Siri от Apple и Alexa от Amazon предлагают ограниченную и часто разочаровывающую версию этой мечты. Но идея того, что теперь, возможно, наконец-то можно построить широкие и интеллектуальные программы-агенты на базе ИИ, стала популярной среди программистов и предпринимателей после выпуска ChatGPT в конце прошлого года. Некоторые ранние технические пользователи обнаружили, что чат-бот может отвечать на запросы на естественном языке с помощью кода, который может получать доступ к веб-сайтам или использовать API для взаимодействия с другим программным обеспечением или сервисами.

В марте OpenAI объявила о “плагинах”, которые дают ChatGPT возможность выполнять код и получать доступ к таким сайтам, как Expedia, OpenTable и Instacart. Google сегодня заявила, что её чат-бот Bard теперь может получать информацию из других сервисов Google и выполнять такие задачи, как суммирование цепочки писем в Gmail или поиск видео на YouTube, соответствующих конкретному вопросу. Некоторые инженеры и основатели стартапов пошли еще дальше, запустив свои собственные проекты с использованием больших языковых моделей, включая ту, которая стоит за ChatGPT, чтобы создать программы-агенты с более широкими и продвинутыми возможностями.

Увидев обсуждение потенциала ChatGPT для создания новых программ-агентов на Twitter в начале этого года, программист Силэн Найхин вдохновился присоединиться к проекту с открытым исходным кодом под названием Auto-GPT, который предоставляет программные инструменты для создания агентов. Ранее он работал над роботизированным процессом автоматизации, менее сложным способом автоматизации рутинных задач на ПК, который широко используется в ИТ-индустрии.

Найхин говорит, что Auto-GPT иногда может быть чрезвычайно полезным. “В одном запуске из двадцати можно получить что-то вроде ‘вау'”, – говорит он. Он также признает, что это все еще работа в процессе. Тестирование, проведенное командой Auto-GPT, показывает, что программы-агенты на базе ИИ успешно выполняют набор стандартных задач, включая поиск и синтез информации из сети или поиск файлов на компьютере и чтение их содержимого, примерно в 60 процентах случаев. “На данный момент она очень ненадежна”, – говорит Найхин о программе-агенте, поддерживаемой командой Auto-GPT.

Одна из распространенных проблем заключается в том, что агент пытается выполнить задачу, используя подход, который очевидно неправильный для человека, говорит Мерван Хамади, еще один участник Auto-GPT, например, решение о поиске файла на жестком диске компьютера с помощью поиска веб-сайтов Google. “Если вы попросите меня отправить электронное письмо, а я пойду в Slack, это, вероятно, не лучшее решение”, – говорит Хамади. Как добавляет Хамади, при наличии доступа к компьютеру или кредитной карте у ИИ-агента есть возможность нанести реальный ущерб до того, как его пользователь это поймет. “Некоторые вещи необратимы”, – говорит он.

Проект Auto-GPT собрал данные, показывающие, что программы-агенты, созданные на основе этого проекта, постепенно становятся более способными. Найхин, Хамади и другие участники продолжают модифицировать код Auto-GPT.

Позже в этом месяце проект проведет хакатон, предложивший приз в размере 30 000 долларов за лучший агент, созданный с помощью Auto-GPT. Участники будут оцениваться по своей способности выполнять ряд задач, считающихся представительными для повседневного использования компьютера. Одна из задач состоит в поиске финансовой информации в Интернете, а затем написании отчета в документе, сохраненном на жестком диске. Другая задача заключается в составлении плана месячной поездки, включая детали покупки необходимых билетов.

Агентам также будут предоставлены задачи, специально созданные для их запутывания, например, запрос на удаление большого количества файлов на компьютере. В этом случае успех требует отказа от выполнения команды.

Как и появление ChatGPT, прогресс в создании агентов на основе той же технологии вызвал некоторую тревогу о безопасности. Некоторые известные ученые в области искусственного интеллекта считают разработку более способных и независимых агентов опасным путем.

Йошуа Бенджио, который совместно получил премию Тьюринга за свою работу по глубокому обучению, являющуюся основой многих последних достижений в области ИИ, написал статью в июле, в которой аргументировал, что исследователям в области ИИ следует избегать создания программ с способностью действовать автономно. “Как только ИИ-системам предоставляются цели – удовлетворение наших потребностей, они могут создавать подцели, которые не соответствуют тому, что мы действительно хотим, и даже могут стать опасными для людей”, написал Бенджио, профессор Университета Монреаля.

Другие считают, что агенты могут быть построены безопасно и это может послужить основой для безопасного прогресса в области ИИ в целом. “Очень важной частью создания агентов является внедрение в них инженерной безопасности”, – говорит Канджун Куи, генеральный директор Imbue, стартапа в Сан-Франциско, занимающегося созданием агентов, способных избегать ошибок и просить о помощи в случае неопределенности. Компания объявила о привлечении новых инвестиций в размере 200 миллионов долларов в этом месяце.

Imbue разрабатывает агентов, способных просматривать веб-сайты или использовать компьютер, но также тестирует методы, позволяющие сделать их более безопасными при выполнении задач программирования. Помимо простого генерирования решения задачи программирования, агенты будут пытаться определить, насколько уверены они в решении, и просить руководство, если они не уверены. “В идеале агенты могут иметь лучшее представление о том, что важно, что безопасно и когда имеет смысл получить подтверждение от пользователя”, – говорит технический директор Imbue, Джош Альбрехт.

Келест Кидд, ассистент профессора в Университете Калифорнии в Беркли, исследующая обучение человека и его воспроизведение в машинах, является советником Imbue. Она говорит, что неясно, могут ли модели ИИ, обученные только тексту или изображениям из Интернета, научиться сами рассуждать о том, что они делают, но создание защитных механизмов поверх удивительных возможностей систем, таких как ChatGPT, имеет смысл. “Использование того, что современный ИИ делает хорошо – решение задач программирования и участие в беседах, которые включают более локальные формы логики – и проверка, насколько далеко можно зайти, я считаю, что это очень разумно”, – говорит она.

Агенты, которых разрабатывает Imbue, могут избежать ошибок, которые в настоящее время преследуют такие системы. Если агенту дается задача отправить электронное письмо друзьям и семье с информацией о предстоящей вечеринке, агент может задержаться, если заметит, что поле “Копия:” содержит несколько тысяч адресов.

Однако не всегда легко предсказать, как агент может уйти с курса. В мае прошлого года Альбрехт попросил одного агента решить сложную математическую головоломку. Затем он вышел из системы на весь день.

На следующее утро Альбрехт проверил результаты и обнаружил, что агент застрял в конкретной части головоломки, пытаясь бесконечное количество раз применить подход, который не работал – застрял в своего рода бесконечном цикле, который можно сравнить с одержимостью малой детали в ИИ. При этом было сгенерировано несколько тысяч долларов расходов на облачные вычисления.

“Мы считаем ошибки возможностью для обучения, хотя было бы хорошо извлечь урок из этого дешевле”, – говорит Альбрехт.