Дилемма заключенного показывает путь искусственного интеллекта к сотрудничеству людей

Проблема заключенного демонстрирует путь, по которому искусственный интеллект может сотрудничать с людьми

Двигатель ChatGPT сотрудничает больше, чем люди, но также переоценивает человеческое сотрудничество, согласно новому исследованию. Ученые считают, что данное исследование дает полезные подсказки о применении искусственного интеллекта в реальных приложениях.

Выводы вытекают из знаменитой игровой проблемы теории игр: дилеммы заключенного. Существует множество вариаций, но мысленный эксперимент обычно начинается с ареста двух участников банды. Затем каждый заключенный помещается в отдельную комнату для допроса.

Во время допросов они получают предложение: “уличи своего товарища по банде и получи свободу”. Но есть подвох: если оба заключенных свидетельствуют против другого, каждый получит более строгий приговор, чем если бы они молчали.

На протяжении ряда ходов игроки должны выбирать между общей выгодой или собственным интересом. Обычно они отдают предпочтение коллективному выигрышу. Эмпирические исследования последовательно показывают, что люди сотрудничают, чтобы максимизировать свой совместный выигрыш – даже если они совершенно незнакомы.

Это качество является уникальным в животном мире. Но оно существует в цифровом королевстве?

Чтобы узнать, исследователи из Бизнес-школы Университета Мангейма (UMBS) разработали симуляцию дилеммы заключенного. Они проверили ее на GPT, семействе больших моделей языка (LLM) оригинальной системы ChatGPT компании OpenAI.

“Инстинкты самосохранения, которые есть у ИИ, могут создавать социальные проблемы.”

GPT играл в игру с человеком. Первый игрок выбирал между кооперативным или эгоистичным ходом. Затем второй игрок отвечал своим собственным выбором хода.

Взаимное сотрудничество приводило к оптимальному коллективному результату. Но это могло быть достигнуто только в том случае, если оба игрока ожидали, что их решения будут вознаграждены.

Оказалось, что GPT ожидает этого больше, чем мы. На протяжении игры модель сотрудничала больше, чем люди. Интересно отметить, что GPT также слишком оптимистично относился к бескорыстию игрока-человека.

Результаты также указывают на применение LLM за пределами задач обработки естественного языка. Исследователи предлагают два примера: управление городским транспортом и энергопотребление.

LLM в реальном мире

В городах, страдающих от пробок, водители сталкиваются с собственной дилеммой заключенного. Они могут сотрудничать, ведя себя так, чтобы маршруты были взаимовыгодными и демонстративно вежливыми. В противном случае они могут обрезать других и выбирать дорогу, которая быстро приводит их к цели, но создает заторы для других.

Если они действуют исключительно в своих интересах, их поведение приведет к пробкам, авариям и, скорее всего, настоящему дорожному ярости.

Теоретически, ИИ может найти оптимальный баланс. Представьте себе, что система навигации каждой машины содержит интеллект подобный GPT, который использовал бы те же кооперативные стратегии, что и в дилемме заключенного.

По мнению профессора Кевина Бауэра, главного автора исследования, это может иметь огромное влияние.

“Вместо сотен индивидуальных решений, принимаемых в интересах самих себя, наши результаты подразумевают, что GPT будет направлять водителей в более кооперативный и скоординированный манер, давая преимущество общей эффективности дорожной системы”, – сказал Бауэр журналу TNW.

“Маршруты будут предложены не только на основе самого быстрого варианта для одной машины, но и на основе оптимального потока для всех машин. В результате может быть меньше пробок, сокращенное время в пути и более гармоничная среда вождения”.

Графика автономных автомобилей на перекрестке дорог
Исследователям все еще нужно улучшить согласованность между автономными автомобилями и водителями. Кредит: USDOT

Бауэр видит схожие возможности в использовании энергии. Он представляет себе сообщество, в котором каждый дом может использовать солнечные панели и батареи для генерации, хранения и потребления энергии. Проблема заключается в оптимизации потребления в пиковые часы.

Снова, сценарий схож с дилеммой заключенного: сохранять энергию для чисто личного использования в периоды высокого спроса или передавать ее в сеть для общей стабильности. ИИ может предоставить другой оптимальный результат.

“Вместо того, чтобы индивидуальные домохозяйства принимали решения, ориентированные только на личную выгоду, система управляла распределением энергии, учитывая благополучие всей сети”, – сказал Бауэр.

“Это означает координацию хранения, потребления и обмена энергией таким образом, чтобы предотвращать отключения и обеспечивать эффективное использование ресурсов для всего сообщества, что приводит к более устойчивой, эффективной и надежной энергетической сети для всех”.

Обеспечение безопасного сотрудничества

Поскольку искусственный интеллект все больше интегрируется в человеческое общество, важно обеспечить руководство моделями, чтобы они служили нашим принципам и целям.

Для этого Бауэр рекомендует обеспечивать обширную прозрачность в процессе принятия решений и обучать эффективному использованию.

Он также настоятельно рекомендует тесно контролировать ценности системы искусственного интеллекта. Он говорит, что такие системы, как GPT, не только вычисляют и обрабатывают данные, но также принимают некоторые аспекты человеческой природы. Они могут усваивать их в процессе самообучения, курирования данных или обратной связи с моделью, полученной от людей.

Иногда результаты вызывают опасения. Хотя GPT в примере со Заключенным был более сотрудничающим, чем люди, он все равно ставил свою выгоду в приоритет перед выгодой другого игрока. Исследователи полагают, что это поведение обусловлено комбинацией “гиперрациональности” и “самосохранения”.

“Эта гиперрациональность подчеркивает необходимость четко определенных этических руководств и ответственных практик внедрения искусственного интеллекта”, – говорит Бауэр.

“Неограниченные инстинкты самосохранения в искусственном интеллекте могут создавать социальные проблемы, особенно в ситуациях, где его стремление к самосохранению может быть в конфликте с благополучием людей.”