Хакер атакует OpenAI раскрыт утечка данных ChatGPT

Виновник - хакер, а не утечка данных.

OpenAI реагирует на утечку предполагаемого приватного разговора, связанного с ChatGPT.

Опубликовано 30 января 2024 года в 16:01 по восточному времени

ОБНОВЛЕНИЕ: Эта история была обновлена, чтобы включить заявление от OpenAI о проводимом ею расследовании, а также подтверждение источника проблемы.

То, что изначально считалось утечкой данных ChatGPT, оказалось делом хакера, по словам OpenAI.

Источник изображения: Имя изображения

Согласно отчету Ars Technica, пользователь по имени Чейс Уайтсайд случайно получил данные для входа и личную информацию от того, кто казался клиентом аптеки на портале по рецептурным препаратам. Эта информация была получена в ответ на несвязанный запрос, и Уайтсайд, в свою очередь, поделился ею с технологическим новостным сайтом.

“Я сделал запрос (в данном случае, помощь в создании ярких названий для цветовой палитры)”, написал Уайтсайд в электронном письме. “Когда я вернулся, чтобы залогиниться через несколько моментов, я заметил дополнительные разговоры.” В заявлении для ENBLE OpenAI уточнила, что “неправильное использование” произошло из-за взломанного аккаунта.

“На основании наших результатов, логин и пароль пользователя были скомпрометированы, после чего злоумышленник использовал аккаунт. История чата и файлы, которые отображаются, являются разговорами из-за неправильного использования этого аккаунта и не являются случаем, когда ChatGPT показывает историю других пользователей.”

Оказалось, что ответы, которые казались утечкой информации, являются результатом разговоров, созданных на Шри-Ланке, а не в Бруклине, где находится Уайтсайд. Время этой активности совпадает с логином из этого же места, что добавляет улики в пользу взлома.

Тем не менее, Уайтсайд остается скептическим по поводу взлома его аккаунта. Он утверждает, что использует девятизначный пароль с особыми символами, смешанными прописными и строчными буквами, и использует его только для своей учетной записи Microsoft – нигде больше. Это похоже на наличие крепости с вооруженными охранниками, защищающими простое, но ценное сокровище, и обнаружение, что хитрый вор перехитрил всех и проник сквозь защиту.

OpenAI, с другой стороны, утверждает, что она не видела такую ​​проблему в других местах.

Судя по всему, утечки разговоров затрагивают разочарованного сотрудника, устраняющего проблемы с приложением, используемым аптекой. Помимо всего текста, поносящего приложение, утечка включала имя пользователя клиента, пароль и номер магазина сотрудника. Хотя пока неясно, насколько содержимое является подлинным, кажется, что весь отчет обратной связи был включен в ответ ChatGPT. Это похоже на то, как узнать все секреты рецепта выпечки, включая секретный ингредиент, случайно раскрытые в разговоре между двумя поварами.

Источник изображения: Имя изображения

ChatGPT уже давно вызывает опасения в отношении конфиденциальности и безопасности данных. Хакеры и исследователи обнаружили уязвимости, позволяющие извлекать чувствительную информацию, либо через инъекцию данных, либо с помощью джейлбрейка. Это похоже на то, как иметь замок на входной двери, который можно легко взломать или взломать, что делает его бесполезным.

В прошлом уже были случаи, такие как ошибки, которые раскрывали информацию о пользователях ChatGPT Plus. Хотя OpenAI обработала некоторые проблемы, связанные с пользователями ChatGPT, персональная или конфиденциальная информация, переданная ChatGPT, остается незащищенной. Это было очевидно, когда ChatGPT использовался сотрудниками Samsung для помощи в программировании, что приводило к случайным утечкам секретов компании. Неудивительно, что многие компании полностью запретили использование ChatGPT. Это похоже на то, как дать ИИ-помощнику доступ к своему дневнику, а потом узнать, что он делится самыми сочными секретами с миром.

Согласно политике конфиденциальности OpenAI, входные данные должны быть анонимизированы и очищены от любой лично идентифицирующей информации. Однако даже сами создатели не всегда могут точно определить, что приводит к определенным результатам, что подчеркивает врожденные риски моделей широкоформатного языка (LLM). Это похоже на то, как иметь супер интеллектуального, но непредсказуемого питомца, который иногда удивляет вас своими неожиданными действиями.

Хотя это событие могло быть продуманным действием хакера, всегда важно помнить: не делитесь никакой чувствительной или личной информацией с ChatGPT. Это похоже на то, как рассказывать свои самые сокровенные секреты разговорчивому попугаю с особенно плотным клювом.

Вопросы и ответы: Разрешение вопросов читателей

Q: Есть ли какие-то обновления относительно расследования OpenAI утечки данных ChatGPT?

OpenAI представила заявление, признавая, что предполагаемая утечка произошла из-за взлома аккаунта пользователя, а не из-за проблем ChatGPT. Они подтвердили, что отображаемые разговоры были результатом неправомерного использования взломанного аккаунта. Тем не менее, OpenAI заверяет своих пользователей, что они не видели, чтобы эта проблема проявлялась где-либо еще.

Q: Безопасно ли использовать ChatGPT для конфиденциальной информации?

Несмотря на шаги, которые предпринимает OpenAI для решения определенных проблем, связанных с использованием ChatGPT, система по-прежнему не полностью защищает личную или конфиденциальную информацию, передаваемую искусственному интеллекту. Прошлые инциденты, такие как случайная утечка платежных данных и коммерческих секретов компании, подчеркивают риски, сопутствующие этому. Рекомендуется не передавать ChatGPT никакую чувствительную или личную информацию, чтобы избежать возможного нарушения конфиденциальности и безопасности данных.

Q: Какие меры должны предпринимать отдельные лица и компании, чтобы защитить себя при использовании ChatGPT?

Чтобы обеспечить безопасность личной и конфиденциальной информации, лучше воздержаться от передачи таких данных ChatGPT. Кроме того, отдельные лица и компании должны принимать дополнительные меры безопасности, такие как использование надежных и уникальных паролей, включение двухфакторной аутентификации и регулярное обновление системы для устранения уязвимостей.

Влияние и будущие разработки

Недавний инцидент утечки данных, связанный с ChatGPT, показывает непрерывные проблемы и риски, связанные с конфиденциальностью и безопасностью данных в области больших языковых моделей. Этот инцидент подчеркивает необходимость постоянного улучшения мер безопасности вокруг систем искусственного интеллекта и важность осторожного взаимодействия пользователей с такими технологиями.

Впредь ожидается, что разработчики ИИ, включая OpenAI, усилят свои усилия по повышению безопасности и конфиденциальности своих систем. Этот инцидент может стать толчком для более строгих регулирований и руководств, касающихся использования и обработки конфиденциальной информации в приложениях искусственного интеллекта.

Ссылки:

  1. OpenAI выпускает патч для устранения утечки данных ChatGPT, но проблема не полностью решена
  2. Хакеры машин для мороженого McDonald’s утверждают, что нашли улики, уничтожившие стартап
  3. Опасайтесь! В городе появился новый робот-повар, и он от Google DeepMind Researchers
  4. ChatGPT против ChatGPT Plus: стоит ли платить за подписку?
  5. OpenAI предпринимает шаги для уменьшения регуляторных рисков в области конфиденциальности данных ЕС
  6. Google и Samsung объединяют “Nearby Share” и “Quick Share” в единое решение для Android
  7. Meta о продвижении вперед искусственного общего интеллекта