Apple предоставляет дополнительные пояснения по поводу того, почему она отказалась от плана по обнаружению CSAM на фотографиях iCloud

Apple дает пояснения о причинах отказа от плана по обнаружению CSAM на фото в iCloud

Компания Apple в четверг предоставила наиболее подробное объяснение относительно своего решения отказаться от контроверзного плана обнаружения известных материалов сексуального насилия над детьми (CSAM), хранящихся в iCloud Photos.

Заявление Apple, которое было размещено на ENBLE и воспроизведено ниже, было дано в ответ на требование группы по безопасности детей Heat Initiative о том, чтобы компания “обнаруживала, сообщала и удаляла” материалы CSAM из iCloud и предлагала пользователям больше инструментов для сообщения о таком контенте компании.

“Материалы сексуального насилия над детьми вызывают отвращение, и мы стремимся разорвать цепь принуждения и влияния, делающую детей уязвимыми перед ним”, – написал Эрик Нейеншвандер, директор Apple по защите конфиденциальности пользователей и безопасности детей, в ответе компании на запрос Heat Initiative. Он добавил, что после сотрудничества с множеством исследователей в области конфиденциальности и безопасности, групп защиты цифровых прав и защиты детей компания пришла к выводу, что она не может продолжать разработку механизма сканирования CSAM, даже если он создан специально для сохранения конфиденциальности.

“Сканирование личных данных каждого пользователя, хранящихся в iCloud, создаст новые векторы атаки для поиска и использования информации злоумышленниками”, – написал Нейеншвандер. – “Это также может привести к потенциальной скользкой дорожке непредвиденных последствий. Например, сканирование одного типа контента открывает дверь для массового наблюдения и может вызвать желание искать другие зашифрованные системы обмена сообщениями по различным типам контента”.

В августе 2021 года Apple объявила о планах по внедрению трех новых функций безопасности детей, включая систему обнаружения известных изображений CSAM, хранящихся в ‌iCloud Photos‌, опцию безопасности связи, размывающую сексуально откровенные фотографии в приложении Messages, а также ресурсы для борьбы с эксплуатацией детей в Siri. Функция безопасности связи была запущена в США вместе с iOS 15.2 в декабре 2021 года и с тех пор распространяется на Великобританию, Канаду, Австралию, Новую Зеландию, а ресурсы ‌Siri‌ также доступны, но функция обнаружения CSAM так и не была запущена.

Apple изначально заявила, что функция обнаружения CSAM будет реализована в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но компания отложила эту функцию на основе “отзывов клиентов, групп защиты прав, исследователей и других лиц”. Планы были критикованы широким кругом индивидуалов и организаций, включая исследователей по безопасности, Electronic Frontier Foundation (EFF), политиков, группы по политике, университетских исследователей и даже некоторых сотрудников Apple.

Последнее заявление Apple по этому вопросу появилось в то время, когда дебаты о шифровании вновь разгорелись в связи с планами правительства Великобритании изменить законодательство о наблюдении, которое потребует от технологических компаний отключения функций безопасности, таких как конечное шифрование, без предупреждения общественности.

Apple заявляет, что если законодательство будет принято в нынешней форме, компания отключит услуги, включая FaceTime и iMessage, в Великобритании.

Примечание: В связи с политическим или социальным характером обсуждения данной темы, тема обсуждения находится в нашем форуме политических новостей. Все участники форума и посетители сайта могут прочитать и следить за темой, но публикация ограничена участниками форума с не менее чем 100 сообщений.