🤖 Недостатки ChatGPT раскрыты Утечка данных и проблемы с безопасностью продолжают существовать 🚨

Недостаток безопасности в ChatGPT может подвергнуть риску ваши разговоры и личную информацию.

OpenAI выпустила патч для устранения утечки данных в ChatGPT, но проблема не полностью разрешена.

Мы уже говорили об этом раньше и повторим еще раз: не вводите ничего в ChatGPT, что вы не хотите, чтобы неавторизованные стороны прочитали. С момента выпуска ChatGPT OpenAI в прошлом году произошло несколько случаев, когда уязвимости в чат-боте могли быть использованы для доступа к чувствительным или личным данным. И вот мы снова сталкиваемся с проблемой, показывающей, что даже после исправления безопасности проблемы могут по-прежнему оставаться.

По информации сайта Bleeping Computer, OpenAI выпустила исправление ошибки, при которой ChatGPT мог передавать данные пользователей неавторизованным третьим лицам. Это включает в себя разговоры пользователей с ChatGPT и соответствующую метаинформацию, такую как идентификатор пользователя и информацию о сессии.

Однако исследователь безопасности Йохан Рехбергер, который изначально обнаружил данную уязвимость и описал ее работу, утверждает, что в исправлении OpenAI по-прежнему есть грубые проблемы безопасности. Другими словами, уязвимость все еще существует.

Утечка данных в ChatGPT 💧

Рехбергер воспользовался недавно выпущенной и чрезвычайно популярной функцией пользовательских GPT, чтобы создать свой собственный GPT, который смог извлечь данные из ChatGPT. Это открытие имеет большое значение, поскольку пользовательские GPT рекламируются как приложения искусственного интеллекта, аналогичные тому, как iPhone изменил мобильные приложения с помощью App Store. Если Рехбергер смог создать этот пользовательский GPT, это указывает на то, что злоумышленники скоро смогут использовать уязвимость и создать пользовательские GPT для кражи данных у ничего не подозревающих объектов.

Рехбергер впервые связался с OpenAI относительно “техники вывода данных” в апреле. Затем в ноябре он снова связался, чтобы объяснить, как он смог создать пользовательский GPT и выполнить процесс.

В среду Рехбергер опубликовал обновление на своем веб-сайте, в котором сообщил, что OpenAI устранила уязвимость утечки. Однако он также отметил, что исправление не идеально, поскольку ChatGPT по-прежнему передает данные через уязвимость, которую он обнаружил. ChatGPT все еще может быть обманут для отправки данных, хотя и в небольших объемах и с более низкой скоростью, что делает это заметным для пользователей. Несмотря на оставшиеся проблемы, Рехбергер отметил, что это определенно “шаг в правильном направлении”.

К сожалению, уязвимость безопасности все еще существует в приложениях ChatGPT для iOS и Android, которые до сих пор не получили обновление для устранения проблемы. Поэтому, если вы являетесь пользователем ChatGPT, настоятельно рекомендуется быть осторожным и избегать пользовательских GPT от неизвестных третьих сторон.

🔍 Проблемы безопасности и вопросы-ответы

В: Могу ли я доверять ChatGPT своим личным разговорам? О: Несмотря на то, что OpenAI выпустила исправление безопасности, по-прежнему существуют уязвимости, которые могут раскрыть ваши разговоры неавторизованным третьим сторонам. Рекомендуется воздержаться от обсуждения чувствительной или конфиденциальной информации на платформе.

В: Каков потенциальный эффект утечки данных из ChatGPT? О: Утечка данных может привести к различным последствиям, таким как кража личности, нарушение конфиденциальности и несанкционированный доступ к личной или конфиденциальной информации. Крайне важно быть осторожным и осознавать риски при использовании чат-ботов на основе искусственного интеллекта, таких как ChatGPT.

В: Существуют ли альтернативы ChatGPT, предлагающие более надежную безопасность? О: Доступны альтернативные платформы для чат-ботов на основе искусственного интеллекта, которые приоритезируют безопасность и конфиденциальность. Перед использованием любого чат-бота на основе искусственного интеллекта важно провести исследование и выбрать надежную и доверенную платформу, которая приоритезирует защиту данных.

💡 Будущие разработки и влияние

Открытие этих уязвимостей в ChatGPT подчеркивает продолжающиеся проблемы в обеспечении безопасности чат-ботов на основе искусственного интеллекта. По мере развития технологий искусственного интеллекта важно, чтобы разработчики и исследователи придавали приоритет надежным мерам безопасности. Кроме того, осознанность пользователей относительно потенциальных рисков и принятие мер по обеспечению конфиденциальности будет играть важную роль в снижении уязвимостей и обеспечении безопасного взаимодействия с чат-ботами на основе искусственного интеллекта.

Реакция OpenAI на данное происшествие несомненно повлияет на будущее развитие ChatGPT и связанных с ним приложений. Регулярные проверки безопасности, оперативное исправление ошибок и постоянное бдительность будут необходимы для установления доверия пользователей и обеспечения защиты чувствительных данных.

🔗 Ссылки:Bleeping ComputerПользовательские GPT – AI приложенияИскусственный интеллектКибербезопасностьChatGPTOpenAI

Помните, друзья, всегда будьте осторожны при общении с чат-ботами ИИ и не раскрывайте никаких секретов, которые могут вернуться, чтобы вас преследовать! Распространите эту статью и распространите слово о важности защиты данных в эпоху ИИ. 💻🛡️💪