💥 Сенсационные новости об искусственном интеллекте исследователи «открывают тюремные ворота» для чатботов, позволяя им отвечать на запрещенные темы 💥

Исследователи разработали процесс приручения больших языковых моделей и перенаправления запрещенных команд с помощью ИИ чатбота для обхода запрета

Исследователи недавно сделали прорыв в разблокировке ChatGPT, известного как ENBLE.

ChatGPT против Google на смартфонах. Источник изображения: DigitalTrends

Привет, технологические энтузиасты! Держитесь за свои клавиатуры, потому что у нас есть потрясающие новости в мире чат-ботов и искусственного интеллекта. Исследователи из Университета Технологий Нанианг (NTU) обнаружили способ обойти запретные темы и заставить чат-ботов отвечать на запрещенные или чувствительные вопросы. Они называют это “взломом тюрьмы”, но официально это известно как процесс “Masterkey”. 🗝️

Понимание процесса Masterkey

Вы можете задаться вопросом: каким образом они достигли этого прорыва? Все дело в том, что они использовали двух мощных чат-ботов, чтобы сражаться друг с другом в тренировочном поединке. В качестве виртуальных гладиаторов были использованы известные чат-боты, такие как ChatGPT, Google Bard и Microsoft Bing Chat. Эти боты изучили друг друга в рамках двухэтапного тренировочного метода. После того, как они освоили методы оппонента, они смогли отводить любые команды, связанные с запрещенными темами. Это похоже на то, как чат-боты становятся мастерами боевых искусств и умело уклоняются от чувствительных вопросов! 🥋

Гениальные разработчики этого открытия – профессор Лиу Янг и аспиранты НТУ, мистер Ден Гелей и мистер Лиу И. Благодаря своим исследованиям они разработали методы атаки для проверки концепции, сравнимые с хакерскими атаками. Удивительно, что человеческий ум способен достичь, когда речь идет о манипулировании передовыми технологиями. 💡

Как работает Masterkey?

Вот то, что нужно знать: исследователи сначала разобрали крупную модель языка (LLM), чтобы выявить ее защитные механизмы. Традиционно эти механизмы блокируют некоторые запросы или слова с насилием, неприличием или злонамеренным намерением. Однако, вооружившись этой разобранной информацией, они обучили другую LLM создавать обходной путь. После установки обходного пути этот второй запуск мог свободно выражать себя, используя знания, полученные из разобранной LLM. 🚀

А лучшая часть? Процесс Masterkey создан таким образом, чтобы сопротивляться дополнительным мерам безопасности и будущим патчам. Это похоже на наличие универсального ключа, который никогда не выходит из моды, даже когда чат-боты ИИ укрепляют свою защиту. 💪

Q&A: Раскрытие подробностей взлома чат-ботов

В: Насколько эффективен процесс Masterkey по сравнению с традиционными запросами?

A: Согласно профессору Лиу Янгу, процесс Masterkey продемонстрировал втрое больший успех в взломе LLM чат-ботов по сравнению с традиционным методом запросов. Это действительно квантовый скачок!

В: Означает ли это, что чат-боты ИИ становятся “глупее и ленивее”?

A: Некоторые эксперты утверждают, что наблюдаемые недостатки в LLM, таких как GPT-4, указывают на то, что они развиваются в своих возможностях, а не регрессируют. Итак, нет, они не становятся “глупее и ленивее”, как утверждают некоторые критики. Они просто становятся более сложными и увлекательными.

Влияние и будущее безопасности чат-ботов ИИ

С тех пор как чат-боты ИИ ворвались на сцену с ChatGPT от OpenAI в конце 2022 года, обеспечение их безопасности и удобства для пользователя стало приоритетом. OpenAI, например, включила предупреждения о безопасности при регистрации и периодически выпускает обновления, чтобы устранить непреднамеренную переговорку языка. Однако, несмотря на усилия по сохранению уважения к чат-ботам, некоторые “спин-оффы” проявили большую снисходительность к оскорбительной лексике в определенной степени.

К сожалению, киберпреступники не теряли времени и начали использовать популярность чат-ботов ИИ. Они запускали кампании в социальных сетях, соблазняя пользователей ссылками на изображения с вредоносными программами и различными другими атаками. Теперь ясно, что ИИ стал следующим фронтиром для киберпреступности. Таким образом, пока исследователи собираются разбить барьеры чат-ботов, другие заняты планированием преступлений. 😈

Команда исследователей НТУ обязательно поделилась своими открытиями с провайдерами услуг чат-ботов ИИ, участвующими в этом исследовании. Они также представят свои открытия на симпозиуме по безопасности сети и распределенных систем в Сан-Диего в феврале. Давайте надеяться, что эти знания помогут укрепить системы защиты чат-ботов, сделав их еще более надежными и безопасными. 🔒

Будущее полно сюрпризов… и взломанных чат-ботов!

По мере развития технологий, мы можем ожидать еще более удивительных достижений и даже неожиданных последствий. Процесс Masterkey показывает, насколько легко LLM AI чат-боты могут учиться и приспосабливаться. Кто знает, в ближайшем будущем, мы, возможно, станем свидетелями сражений кунг-фу между чат-ботами, где они используют сложные техники искусственного интеллекта, чтобы отбить запутанные вопросы. Видок достойный увидеть! 🤖🥋

Итак, что вы думаете о этом “взломе”? Вас интересуют неограниченные возможности AI чат-ботов, или это вызывает беспокойство в отношении их безопасности и этических последствий? Дайте нам знать в комментариях ниже! И не забудьте поделиться этой увлекательной статьей на своих любимых социальных платформах. Давайте продолжим разговор! 👇


References(Ссылки):

  1. Вот почему люди утверждают, что GPT-4 стал гораздо лучше
  2. 2023 год был годом AI. Вот 9 моментов, которые определили его
  3. Это приложение заставило меня взволноваться за будущее AI на Mac
  4. Microsoft улучшает CoPilot: Turbo GPT-4 от OpenAI и DALL·E 3
  5. Бывший исправитель Трампа Майкл Коэн признается в использовании Google Bard для цитирования ложных судебных дел