OpenAI стал объектом расследования Европейского союза по вопросу конфиденциальности в связи с ChatGPT все, что вам нужно знать.

OpenAI была уведомлена о потенциальном нарушении законодательства Европейского союза о защите персональных данных после обширного расследования итальянского органа по защите данных в отношении ее чатбота на основе искусственного интеллекта, ChatGPT, продолжавшегося несколько месяцев.

ЧатGPT нарушает европейские законы о конфиденциальности, согласно итальянскому органу по защите данных (DPA) в контакте с OpenAI.

OpenAI, гигант искусственного интеллекта за ChatGPT, попал в горячую воду. Компания была подозреваема в нарушении европейских регуляций конфиденциальности, после тщательного расследования итальянским органом защиты данных. 🕵️‍♀️

Детали результатов расследования пока не разглашены, но OpenAI была уведомлена о заявлениях и имеет 30 дней, чтобы предоставить защищающие свою позицию аргументы. Если вину докажут, компания может столкнуться с штрафами до €20 миллионов или 4% от глобального ежегодного оборота. 📜💰

Опасения относительно соответствия OpenAI GDPR 🤔

В прошлом году итальянский орган защиты данных ввел временный запрет на обработку данных ChatGPT в связи с опасениями относительно соответствия OpenAI Общему регламенту по защите данных (GDPR). В результате этого временно был приостановлен AI-чатбот на рынке. 👀

Орган выдвинул несколько претензий, включая отсутствие подходящего законного основания для сбора и обработки персональных данных, используемых для обучения алгоритмов, лежащих в основе ChatGPT. Они также выразили опасения относительно склонности инструмента искусственного интеллекта создавать неточную информацию и ее влияние на безопасность детей. 🛡️

Всего орган подозревал ChatGPT в нарушении нескольких статей GDPR, включая Статьи 5, 6, 8, 13 и 25. Несмотря на то, что OpenAI учел некоторые из выдвинутых претензий органом защиты данных, теперь компания столкнулась с предварительным выводом, что ее инструмент действительно нарушает законодательство ЕС. 😱

Одной из ключевых проблем, стоящих на пути расследования, является юридическое основание, которое OpenAI претендует на обработку персональных данных для обучения своих AI-моделей. ChatGPT был разработан с использованием огромных объемов данных, собранных с публичного интернета, включая персональные данные. В соответствии с GDPR, обработка данных физических лиц, проживающих в ЕС, требует законного основания. 🌍

К этому вопросу GDPR перечисляет шесть возможных юридических оснований, но большинство из них не подходят в данном контексте. В прошлом апреле OpenAI получила указание исключить ссылки на “исполнение договора” в качестве юридического основания для обучения моделей ChatGPT. Это оставило им только два варианта: согласие или законные интересы. 😶

Завоевать согласие миллионов или даже миллиардов пользователей сети, данные которых были обработаны OpenAI, кажется почти невозможным. Это вызывает сомнения относительно законного основания согласия. OpenAI впоследствии пересмотрела свою документацию и, казалось бы, полагается на законные интересы как юридическую основу. Однако даже законные интересы требуют возможности для субъектов данных возражать и прекращать обработку своих данных. 🙅‍♀️

🤔 Что может сделать OpenAI в контексте ChatGPT?

Найти решение, которое позволит лицам возражать и останавливать обработку их данных в контексте AI-чатбота, такого как ChatGPT, является сложной задачей. OpenAI может быть вынуждена отозвать и уничтожить незаконно обученные модели и заново обучить новые без использования данных, которых лица возражают. Этот процесс может быть как затратным, так и длительным. 💸⌛

Кроме того, существует более широкий вопрос о том, может ли законные интересы быть действительной юридической основой в данном контексте. GDPR требует от обработчиков данных уравновешивать свои собственные интересы с правами и свободами физических лиц. Они должны учитывать, ожидали ли лица, что их данные будут использоваться таким образом, и могут ли они причинить вред. Обработка также должна быть необходимой, без иных менее интрузивных альтернатив. 🤔🔒

Стало известно, что высший суд Евросоюза ранее признал законные интересы неподходящей основой для некоторых процессов обработки данных. Суд признал, что бизнес Meta, связанный с адаптивной рекламой, которая включала отслеживание и профилирование физических лиц в социальных сетях, не мог полагаться на законные интересы. Это вызывает сомнения относительно возможности другого гиганта искусственного интеллекта, такого как OpenAI, дать обоснование масштабной обработки данных людей в целях коммерческого создания AI. 📊

Последствия и будущие разработки 🚀

Результаты этого расследования могут иметь серьезные последствия для OpenAI и других AI-компаний, работающих в ЕС. Если OpenAI будет признана нарушителем GDPR, компанию могут вынудить изменить свою работу или даже отозвать свои услуги из стран-членов ЕС. Это может привести к изменению методов обучения AI-моделей и обработки данных, с более сильным упором на конфиденциальность и соблюдение правил. 🆔🔒

Поскольку OpenAI стремится создать физическую базу в Ирландии, чтобы получить статус “основного учреждения”, они стремятся переключиться на то, чтобы оценка их соответствия GDPR осуществлялась Ирландской комиссией по защите данных. Это потенциально может упростить регуляторный процесс для OpenAI и обеспечить большую ясность в отношении их обязательств в области соблюдения правил. Однако, расследование в Италии предшествует этому изменению, поэтому оно будет продолжаться независимо от новой структуры обработки OpenAI. 🚧

Дополнительные темы: Вопросы и ответы для интересующихся 🗣️

В: Какие могут быть последствия для OpenAI, если их найдут виновными в нарушении GDPR?

О: Если OpenAI будет признана виновной, они могут столкнуться с штрафами в размере до 20 миллионов евро или 4% глобального годового оборота. Это может иметь значительное финансовое влияние на компанию.

В: Как это расследование повлияет на пользователей ChatGPT в ЕС?

О: В зависимости от итогов расследования, OpenAI может быть обязана внести изменения в способ обработки данных ChatGPT. Это может повлиять на доступность и функциональность чат-бота в аналогичных государствах ЕС.

В: Подобные нарушения также расследуются в отношении других компаний в сфере искусственного интеллекта?

О: OpenAI также подвергается проверке соблюдения GDPR в отношении ChatGPT в Польше после жалобы, поступившей прошлым летом. Расследование в Польше фокусируется на случае, когда ChatGPT предоставил неточную информацию о человеке.

В: Как организовано согласование надзора за ChatGPT органами по защите данных?

О: Органы по защите данных создали рабочую группу в рамках Европейской рабочей группы по защите данных для изучения того, как GDPR применяется к ChatGPT. Это усилие направлено на создание более гармоничных результатов во время отдельных расследований в разных странах ЕС.

В заключение: Неопределенное будущее для OpenAI в ЕС

Продолжающееся расследование OpenAI в отношении конфиденциальности в ЕС представляет существенные проблемы для деятельности компании и будущего развития искусственного интеллекта. В условиях возрастающего внимания к конфиденциальности и соблюдению правил, компании в сфере искусственного интеллекта должны тщательно ориентироваться в правовом поле, чтобы удовлетворить требования и ожидания органов по защите данных. Реакция OpenAI на предъявленные обвинения и результаты расследования сформируют будущее ChatGPT и технологии искусственного интеллекта в ЕС. 🕵️‍♂️💻

Ссылки:

  1. Ссылка на статью 1
  2. Ссылка на статью 2
  3. Ссылка на статью 3
  4. Ссылка на статью 4
  5. Ссылка на статью 5

🤖💬 Что вы думаете о расследовании конфиденциальности OpenAI? Считаете ли вы, что компании в сфере искусственного интеллекта нуждаются в более строгих регуляциях? Дайте нам знать в комментариях ниже! И не забудьте поделиться этой статьей ваших любимых социальных платформах. 👍🔗