ChatGPT имеет страшный риск безопасности после нового обновления. Ваши данные в опасности?

После последнего обновления ChatGPT грозит серьезным риском безопасности. Ваши данные под угрозой?

Благодаря новым обновлениям ChatGPT, таким как Code Interpreter, популярный генеративный искусственный интеллект OpenAI стал еще более уязвимым с точки зрения безопасности. Согласно исследованию эксперта по безопасности Иоганна Ребергера (и последующей работе издания Tom’s Hardware), ChatGPT имеет серьезные проблемы безопасности, которые вызваны его новой функцией загрузки файлов.

В последнем обновлении, добавленном OpenAI в ChatGPT Plus, появилось множество новых функций, включая генерацию изображений DALL-E и Code Interpreter, позволяющий выполнение кода на Python и анализ файлов. Код создается и выполняется в защищенной среде, которая, к сожалению, уязвима для атак внедрения команды.

Известная уязвимость в ChatGPT уже некоторое время, атака заключается в обмане ChatGPT, чтобы выполнить инструкции с URL-адресов сторонних лиц, приводя его к кодированию загруженных файлов в строку, подходящую для URL, и отправке этих данных на вредоносный сайт. Хотя вероятность такой атаки требует определенных условий (например, пользователь должен активно вставить вредоносный URL в ChatGPT), риск все равно остается тревожным. Эта угроза безопасности может реализоваться через различные сценарии, включая компрометацию доверенного веб-сайта с помощью вредоносного приглашения или с помощью тактик социальной инженерии.

Tom’s Hardware провел впечатляющую работу, проверив, насколько уязвимы пользователи перед такой атакой. Эксплуатация была протестирована путем создания фиктивного файла переменных среды и использования ChatGPT для обработки и непреднамеренной отправки этих данных на внешний сервер. Хотя эффективность эксплойта варьировалась в разных сессиях (например, ChatGPT иногда отказывался загружать внешние страницы или передавать файловые данные), это вызывает серьезные опасения с точки зрения безопасности, особенно учитывая способность искусственного интеллекта читать и выполнять команды Linux и обрабатывать файлы, загруженные пользователем, в виртуальной среде на базе Linux.

Как указано в выводах Tom’s Hardware, несмотря на то, что это кажется маловероятным, наличие этого уязвимого места безопасности имеет большое значение. В идеале ChatGPT не должен выполнять инструкции с внешних веб-страниц, однако он делает это. ENBLE связался с OpenAI для получения комментария, но ответа на наш запрос еще не поступило.