Партнер, помощник или начальник? ChatGPT попросили разработать робота, и вот что произошло

ChatGPT разработал робота партнер, помощник или начальник?

Европейские исследователи, работающие над разработкой робота для сбора помидоров.

С тревогой о искусственном интеллекте (ИИ), который выводит нас на грань вымирания, можно представить процесс создания робота ИИ как нечто вроде Франкенштейна, создающего Терминатора – или даже наоборот!

Но что, если в какой-то момент в будущем, дистопическом или другом, нам понадобится сотрудничество с машинами в решении проблем? Как будет работать такое сотрудничество? Кто будет боссом, а кто будет подчиняться?

Также: Как писать лучше запросы для ChatGPT

Проникшись множеством эпизодов дистопического сериала Netflix «Тёмное зеркало» и перечитав «2001 год: Космическая одиссея» Артура Кларка, я бы поспорил, что машина будет боссом.

Однако фактический эксперимент такого рода, проведенный европейскими исследователями, принес некоторые особенные результаты, которые могут иметь серьезное влияние на сотрудничество человека с машинами.

Доцент Козимо Делла Сантина и аспирант Франческо Стелла из Технического университета Дельфт и Джози Хьюз из Швейцарского технического университета ЭПФЛ провели эксперимент, разработав робота в партнерстве с ChatGPT, который решал серьезную социальную проблему.

“Мы хотели, чтобы ChatGPT разработал не просто робота, а робота, который действительно полезен”, – сказал Делла Сантина в статье, опубликованной в журнале Nature Machine Intelligence.

И так начались серии вопросов и ответов между исследователями и ботом, чтобы понять, что две группы могут создать вместе.

Также: Лучшие чат-боты искусственного интеллекта: ChatGPT и другие заметные альтернативы

Большие языковые модели (LLM), такие как ChatGPT, являются настоящими чудовищами в своей способности обрабатывать огромные объемы текста и данных и выдавать последовательные ответы с огромной скоростью.

Тот факт, что ChatGPT может делать это с технически сложной информацией, делает его еще более впечатляющим – и настоящим бонусом для тех, кто ищет помощника в исследованиях с усиленным ИИ.

Работа с машинами

Когда европейские исследователи попросили ChatGPT идентифицировать некоторые проблемы, с которыми сталкивается человечество, ИИ указал на проблему обеспечения стабильного продовольственного снабжения в будущем.

После обмена мнениями между исследователями и ботом ChatGPT выбрал помидоры как культуру, которую роботы могли бы выращивать и собирать, и тем самым внести значительный положительный вклад в общество.

ChatGPT предложил полезные рекомендации по разработке захватывающего устройства, чтобы оно могло обращаться с нежными объектами, такими как помидоры.

Это одна из областей, где партнер ИИ смог добавить реальную ценность – предлагая идеи в областях, в которых его человеческие коллеги не имели реального опыта, таких как сельское хозяйство. Выбор культуры, которая имела бы наибольшую экономическую ценность для автоматизации, в противном случае потребовал бы длительных исследований со стороны ученых.

“Несмотря на то, что ChatGPT является языковой моделью и её генерация кода основана на тексте, она предоставила значительные идеи и интуицию для физического проектирования и показала большой потенциал в качестве места, где можно обсудить идеи и стимулировать человеческое творчество”, – сказал Хьюз из ЭПФЛ.

Также: Вот мои 5 любимых инструментов искусственного интеллекта для работы

Затем люди были ответственны за выбор наиболее интересных и подходящих направлений для достижения своих целей – на основе предоставленных вариантов ChatGPT.

Интеллектуальный дизайн

То, где ChatGPT действительно блеснул, это разработка способа сбора помидоров. Помидоры и аналогичные нежные фрукты – да, помидор – это фрукт, а не овощ – представляют наибольшую сложность при сборе.

Рабочее захватывающее устройство, разработанное ИИ.

Когда спросили, как люди могут собирать помидоры, не повреждая их, бот не подвел и предложил некоторые оригинальные и полезные решения.

Понимая, что любые части, контактирующие с помидорами, должны быть мягкими и гибкими, ChatGPT предложил варианты материалов, такие как силикон или резина. ChatGPT также указал на CAD-программное обеспечение, формы и 3D-принтеры как способы создания этих мягких рук, и предложил варианты дизайна в виде клешни или лопаты.

Также: 7 способов, о которых вы не знали, как использовать Bing Chat и другие AI-чатботы

Результат был впечатляющим. Это сотрудничество между ИИ и человеком успешно спроектировало и создало работающего робота, который умело собирал помидоры, что не является простой задачей, учитывая, насколько легко они травмируются.

Опасности партнерства

Это уникальное сотрудничество также вызвало множество сложных вопросов, которые станут все более актуальными для партнерства между человеком и машиной.

Партнерство с ChatGPT предлагает по-настоящему междисциплинарный подход к решению проблем. Однако, в зависимости от структуры партнерства, могут возникнуть различные результаты, каждый из которых имеет существенные последствия.

Например, LLM-модели могут предоставить все необходимые детали для конкретного дизайна робота, в то время как человек просто выступает в роли исполнителя. В этом подходе ИИ становится изобретателем и позволяет непрофессионалу заниматься проектированием роботов.

Также: Как использовать ChatGPT

Это сотрудничество аналогично опыту исследователей с роботом для сбора помидоров. В то время как они были поражены успехом сотрудничества, они заметили, что машина выполняет большую часть творческой работы. “Мы обнаружили, что наша роль как инженеров сместилась в сторону выполнения более технических задач”, – сказала Стелла.

Также стоит учесть, что отсутствие контроля со стороны людей – это то место, где скрываются опасности. “В нашем исследовании Chat-GPT определил помидоры как самую ценную культуру для сбора роботом”, – сказал Хьюз из EPLF.

“Однако это может быть предвзято в пользу культур, о которых больше информации, в отличие от тех, где действительно существует реальная потребность. Когда решения принимаются вне пределов знаний инженера, это может привести к значительным этическим, инженерным или фактическим ошибкам.”

Также: Безопасность и предубеждения ИИ: разгадка сложной цепи обучения ИИ

И этот вопрос, вкратце, является одной из серьезных опасностей использования LLM-моделей. Их видимо чудодейственные ответы на вопросы возможны только потому, что им было подано определенное содержание, а затем они были попрошены воспроизвести его части, подобно классическому стилю образования, на котором до сих пор полагаются многие общества.

Ответы по сути отражают предвзятость – как положительную, так и отрицательную – людей, которые разработали систему и данные, которые ей были предоставлены. Эта предвзятость означает, что историческая маргинализация отдельных сегментов общества, таких как женщины и люди цвета, часто реплицируется в LLM-моделях.

И есть еще проблема галлюцинаций в LLM-моделях, таких как ChatGPT, где ИИ просто выдумывает вещи, когда сталкивается с вопросами, на которые у него нет легких ответов.

Также есть все более острая проблема использования закрытой информации без разрешения, о чем свидетельствуют несколько судебных исков, поданных против Open AI.

Также: ChatGPT против Bing Chat: Какой AI-чатбот следует использовать?

Тем не менее, сбалансированный подход, где LLM-модели играют более вспомогательную роль, может быть обогащающим и продуктивным, позволяя создавать неотъемлемые междисциплинарные связи, которые не могли быть созданы без бота.

Сказанное это, вы должны взаимодействовать с ИИ так же, как вы делаете это со своими детьми: тщательно проверять всю информацию, связанную с учебой и временем, проведенным за экраном, особенно когда они звучат легкомысленно.