«ChatGPT нарушает вашу конфиденциальность», – говорит масштабная жалоба по GDPR | ENBLE

ChatGPT нарушает конфиденциальность по GDPR - жалоба | ENBLE

С самого начала появления первых генеративных инструментов искусственного интеллекта (ИИ) на технологической арене возникали вопросы о том, откуда они получают свои данные и используют ли они ваши личные данные для обучения своих продуктов. Теперь создатель ChatGPT, OpenAI, может оказаться в неприятной ситуации именно по этим причинам.

Согласно сообщению ENBLE, была подана жалоба в Польский офис по защите персональных данных, в которой утверждается, что ChatGPT нарушает множество правил, установленных в общем регламенте Европейского союза о защите персональных данных (GDPR). Предполагается, что инструмент OpenAI собирал данные пользователей разными спорными способами.

Joe Maring / ENBLE

В жалобе говорится о том, что OpenAI нарушила правила GDPR, касающиеся законных оснований, прозрачности, справедливости, прав доступа к данным и концепции конфиденциальности.

Это кажется серьезными обвинениями. В конце концов, заявитель не утверждает, что OpenAI просто нарушила одно или два правила, а что она нарушила множество мер защиты, предназначенных для предотвращения использования и злоупотребления личными данными людей без их разрешения. В определенном смысле это может рассматриваться как почти систематическое нарушение правил, защищающих конфиденциальность миллионов пользователей.

Чатботы под прицелом

Hatice Baran / Unsplash

Это не первый раз, когда OpenAI оказывается на прицеле. В марте 2023 года она нарушила итальянское законодательство, что привело к запрету использования ChatGPT в Италии из-за нарушения конфиденциальности пользователей. Это еще одна проблема для вирусного генеративного ИИ-чатбота в то время, когда его конкуренты, такие как Google Bard, начинают проявлять себя.

И OpenAI не единственный создатель чатботов, вызывающих опасения в отношении конфиденциальности. В августе 2023 года владелец Facebook, Meta, объявил о создании собственных чатботов, что вызвало опасения среди защитников конфиденциальности о том, какие личные данные будут собирать этой известной небрежной в отношении конфиденциальности компании.

Нарушение GDPR может привести к штрафам в размере до 4% от глобального годового оборота для оштрафованных компаний, что может привести к огромным штрафам для OpenAI, если они будут применены. Если регуляторы примут решение в отношении OpenAI, ей может потребоваться внести изменения в ChatGPT, чтобы он соответствовал правилам, как это произошло с инструментом в Италии.

Могут наступить огромные штрафы

Sanket Mishra / Pexels

Польская жалоба была подана исследователем в области безопасности и конфиденциальности Лукашем Олейником, который озабоченным стал, когда использовал ChatGPT для создания биографии о себе, которая оказалась полна фактически неверных утверждений и информации.

Затем он связался с OpenAI с просьбой исправить неточности и запросил предоставить ему информацию о данных, собранных OpenAI о нем. Однако он утверждает, что OpenAI не предоставила всю необходимую информацию в соответствии с GDPR, что свидетельствует о недостаточной прозрачности и справедливости.

GDPR также утверждает, что людям должно быть позволено исправлять информацию, которую компания хранит о них, если она является неточной. Однако, когда Олейник попросил OpenAI исправить ошибочную биографию, которую ChatGPT написал о нем, он говорит, что OpenAI заявила, что не может этого сделать. В жалобе утверждается, что это свидетельствует о том, что правило GDPR «полностью игнорируется на практике» OpenAI.

Это не выглядит хорошо для OpenAI, так как она, кажется, нарушает множество положений важного законодательного акта Европейского союза. Поскольку это может затронуть миллионы людей, штрафы могут быть очень серьезными. Следите за тем, как все это развивается, потому что это может привести не только к огромным изменениям для ChatGPT, но и для чатботов ИИ в целом.