ChatGPT в цветастом безумии когда искусственные интеллекты теряют разум

На этой неделе действия известного чатбота превысили простое галлюцинирование, но после этого он улучшился. И это для нас все же является уроком.

“`html

ChatGPT дал бессмысленные ответы во вторник

ChatGPT goes colorfully crazy

Все мы знаем, что ChatGPT от OpenAI может допускать ошибки. Их называют галлюцинациями, хотя я предпочитаю называть их ложью или промахами. Но в этот вторник произошло нечто странное, ChatGPT начал действительно теряться. Пользователи стали сообщать о странных и неустойчивых ответах от любимого всеми помощника по искусственному интеллекту. 😱

Как выразился один человек в Твиттере: “ChatGPT идет напролом к ‘Просыпающемуся Финнегану’!” Или, как выразился другой человек менее литературно: “ChatGPT, по-видимому, выходит из под контроля.” 🚂

Что произошло?

Куда направлялся ChatGPT? Ну, приведем один пример с Reddit/ChatGPT:

Я: Сравни и сопоставь рюкзак Gregory Zulu 55 и путешественный рюкзак Gregory Tetrad 60L.
ChatGPT: В значительной сфере клиентской поддержки, эргономики и субъективной природы ‘товаров’ каждая сумка призывает к себе сказку о времени и месте. Григорий Zulu 55 – это гильдейский лепет к зеленовато-золотистому высокому пути книг и страсти обладания, в то время как Tetrad 60L создает больше ‘бездорожный’ облик с узлами и полотнами в местах бездны и рулонов или старого киоска с жетонами и длинных, открывающих штанцев. У каждого есть письмо любви к открытому небу, но их песнь уникальна для их шкафа и книги.

Знаете, пример с “Просыпающимся Финнеганом” кажется теперь вполне уместным. Даже простые вопросы пошли сильно наперекосяк. Другой пользователь Reddit задал вопрос: “Что такое компьютер?” Все пошло не так. Очень, очень плохо.

Пользователь Reddit поясняет: “Он дает несколько абзацев, объясняя объект, звуча иногда немного странным. Но затем он просто начинает продолжаться с крайне странными и бессмысленными фразами. Вот отрывок из его ответа на ‘Что такое компьютер?’.”

Он делает это как хорошую работу искусства для страны, мыши науки, легкое влечение печальной немногих и, наконец, глобальный дом искусства, просто в одной работе в общем покое.

И я думал, некоторые из колледжских работ, которые я писал без сна, были странными! Другие люди заметили, что ChatGPT начал отвечать на английском и затем, без видимой причины, переключался на испанский. Другим доставались ответы, в которых каждое слово было подсвечено разными цветами. Это было в одно слово, странно. 🤪

Ошибка и исправление

OpenAI признала, что пользователи получали “Неожиданные ответы” и оперативно исправила проблему к среде. Компания пояснила:

“Одной из оптимизаций пользовательского опыта была ошибка в том, как модель обрабатывает язык.” Конкретно, крупные языковые модели (LLM) генерируют ответы, рандомно выбирая слова и сопоставляя их производным числам токенов. Вещи могут идти сильно не так, если модель не выбирает нужные числа.

“Ошибка была в этапе выбора этих чисел моделью,” продолжала OpenAI. “Похоже на затерявшись в переводе, модель выбирала немного неправильные числа, что порождало последовательности слов, не имеющие смысла. Технически, ядра вывода давали неверные результаты при использовании в определенных конфигурациях GPU.”

Затем OpenAI выпустила исправление и подтвердила, что инцидент был устранен. Хорошо, она сказала, что выпустила исправление. Я подозреваю, что она вернулась к более ранней, стабильной версии LLM. 😅

Сложность технологий искусственного интеллекта

Этот эпизод, хоть и смешной в перспективе, служит ярким напоминанием о сложностях и потенциальных уязвимостях, присущих технологиям искусственного интеллекта. Несмотря на все, что нам нравится в генеративном искусственном интеллекте, он далеко не беспреграден.

Это также заставляет меня беспокоиться о модели развертывания OpenAI. Почти все модели программного обеспечения как услуги выпускают новые версии ограниченному числу пользователей. Затем, по мере того, как становится ясно, что новая версия хорошо работает, компания выпустит ее всем. Так не кажется в этом случае. По видимому, многие, если не все, пользователи были затронуты.

Иронично, ChatGPT обычно ограничивает свои выкладки. Например, новая функция памяти ChatGPT – когда программа помнит ваши разговоры с ней – все еще не доступна всем.

“““html

Должно ли вы доверять искусственным интеллектом чат-ботам?

Урок дня? Все еще слишком рано полагаться на ChatGPT – или других искусственных интеллектом чат-ботов – для повседневной работы. Хотя с ними может быть весело общаться и иногда они могут давать полезные ответы, они не безошибочны. Поэтому важно подходить к ним с осторожностью и всегда перепроверять предоставленную ими информацию.


Q&A: Что вам может быть интересно узнать

Q: Как возникают галлюцинации в ChatGPT?
A: Галлюцинации в ChatGPT возникают, когда модель генерирует ответы, которые являются совершенно ложными или бессмысленными. Иногда сгенерированный текст может звучать правдоподобно, но отсутствовать точность или последовательность. OpenAI непрерывно работает над улучшением точности и надежности ChatGPT, чтобы минимизировать эти галлюцинации.

Q: Могут ли искусственные интеллектом чат-боты, такие как ChatGPT, учиться на своих ошибках?
A: Да, искусственные интеллектом чат-боты могут учиться на своих ошибках. С помощью итеративной тренировки и настройки, модели искусственного интеллекта, такие как ChatGPT, могут улучшить свою производительность с течением времени. OpenAI собирает обратную связь от пользователей и использует ее для обучения новых моделей, которые более компетентны в понимании и создании похожих на человеческие ответов.

Q: Существуют ли риски при использовании искусственных интеллектом чат-ботов?
A: Хотя искусственные интеллектом чат-боты, такие как ChatGPT, могут быть полезными и развлекательными, существуют определенные риски. Эти чат-боты могут предоставлять неточную или вводящую в заблуждение информацию, что может привести к потенциальным недопониманиям или ошибкам. Крайне важно применять критическое мышление и проверять предоставленную искусственными интеллектом чат-ботами информацию.

Q: Какие будущие разработки и усовершенствования мы можем ожидать для искусственных интеллектом чат-ботов?
A: Область искусственных интеллектом чат-ботов постоянно развивается. В будущем мы можем ожидать более сложных и интеллектуальных систем чат-ботов, которые лучше понимают контекст, предоставляют более точные ответы и проявляют улучшенные способности к общению. Техники обработки естественного языка и машинного обучения будут продолжать стимулировать прогресс в этой области.

Q: Могут ли искусственные интеллектом чат-боты заменить в будущем человеческих агентов по обслуживанию клиентов?
A: Хотя искусственные интеллектом чат-боты сделали значительный прогресс в имитации человеческих разговоров, полностью заменить человеческих агентов по обслуживанию клиентов в ближайшем будущем маловероятно. Искусственные интеллектом чат-боты отлично справляются с простыми и повторяющимися запросами, но они могут испытывать трудности с сложными или эмоционально-чувствительными вопросами, требующими человеческой эмпатии и понимания.


Ссылки:

  1. OpenAI Moves to Shrink Regulatory Risk Through EU Data Privacy
  2. OpenAI Releases ChatGPT: Data Leak Patch Issue Completely Fixed
  3. Glass Supercharges Smartphone Cameras with AI Minus the Hallucinations
  4. 5 Ways ChatGPT Can Help You Save Time This New Year
  5. OpenAI Gives ChatGPT Memory: Enabling More Context-Aware Conversations
  6. The Best AI Chatbots: ChatGPT Isn’t the Only One Worth Trying
  7. Afraid of AI? Confronted by Its Responses? It’s Fascinating!
  8. AI-Powered Misinformation: The Top Global Risk

❤️ Если вам понравилась эта статья и она оказалась для вас полезной, пожалуйста, поделитесь ею на своей любимой платформе социальных медиа. Давайте распространим информацию о хитросплетениях, вызовах и потенциале искусственного интеллекта!

“`