Опасности фальшивых фото в KYC-верификации

Разработка инструментов ИИ, таких как Stable Diffusion, представляет серьезную угрозу для эффективности средств KYC (Know Your Customer), создавая синтетические идентификационные данные и селфи.

Ген AI может сделать процедуры проверки клиентов (KYC) фактически бесполезными, согласно ENBLE.

📷 Изображение от Shutterstock

KYC, или “Знай своего клиента”, – это процесс, используемый финансовыми учреждениями, стартапами финтех и банками для проверки личности своих клиентов. Одним из обычных методов аутентификации KYC являются “ID-изображения”, которые предполагают кросс-проверку селфи с официальными документами удостоверения личности. Платформы, такие как Wise, Revolut, Gemini и LiteBit, полагаются на ID-изображения для обеспечения безопасности, чтобы быть уверенными в том, что пользователи действительно те, за кого себя выдают. Однако развитие генеративного ИИ представляет настоящую угрозу для этого процесса проверки. 😱

Недавние вирусные публикации на X (ранее Twitter) и Reddit показали, как злоумышленники могут манипулировать ID-изображениями с использованием инструментов генеративного искусственного интеллекта. Скачав селфи человека, отредактировав его с помощью доступного программного обеспечения и используя измененное изображение для тестирования KYC, они могут потенциально обойти процесс проверки. В настоящее время нет доказательств того, что генеративные инструменты ИИ используются для обмана законной системы KYC, но легкость создания deepfake-изображений удостоверения личности вызывает беспокойство. 👥

Обман KYC

В типичной аутентификации KYC с использованием ID-изображений клиенты загружают фотографию себя с документом, таким как паспорт или водительские права, которым должны обладать только они. Затем алгоритм или физическое лицо сопоставляет изображение с существующими документами и селфи, чтобы предотвратить попытки самовыдачи. Однако аутентификация ID-изображений никогда не была непроницаемой. Мошенники давно продают фальшивые удостоверения и селфи на черном рынке. Генеративный ИИ приносит на стол новый уровень реализма и аутентичности этим мошенническим попыткам. 🕵️‍♂️

Обучающие материалы онлайн демонстрируют, как Stable Diffusion, генератор изображений с открытым исходным кодом, может синтезировать реалистичные изображения человека на разных фонах. С небольшими попытками и ошибками злоумышленники могут изменять эти изображения так, чтобы казалось, что цель держит удостоверение личности. Затем, используя редактор изображений, они могут добавить реальный или фальшивый документ в руку deepfake-лица, создавая видимость подлинности ID-изображения. 😮

Изображение – Результат Stable Diffusion

Для создания убедительных deepfake-изображений удостоверения личности требуются дополнительные инструменты и расширения, а также около десятка изображений цели. Как объяснил пользователь Reddit под ником harsh, который поделился рабочим процессом создания deepfake-селфи удостоверений личности, на создание убедительного изображения может потребоваться примерно 1-2 дня. Хотя процесс может иметь некоторые преграды, он становится все более доступным по сравнению с предыдущими методами, требующими продвинутых навыков редактирования фотографий. 😈

Подача этих deepfake-изображений KYC в приложение даже проще, чем их создание. Android-приложения, работающие на эмуляторах рабочего стола, таких как Bluestacks, могут быть обмануты, приняв deepfake-изображения вместо прямой трансляции камеры. Онлайн-приложения также могут быть обмануты с помощью программного обеспечения, которое преобразует любое изображение или видео в виртуальную веб-камеру. Потенциал для злоупотребления вызывает тревогу. 🚫

Растущая угроза

Некоторые приложения и платформы реализуют дополнительные меры безопасности, называемые “проверками живости”, чтобы проверить личность пользователя. Эти проверки обычно включают запись короткого видео, где пользователь поворачивает голову, моргает глазами или выполняет другое действие в реальном времени, чтобы доказать, что он не использует предзаписанное видео или изображение. К сожалению, даже проверки живости могут быть обойдены с использованием генеративного ИИ. 😱

Изображение – Обход проверки живости

Согласно Джимми Су, главному офицеру по безопасности криптовалютной биржи Binance, доступные сегодня инструменты deepfake способны пройти проверки живости, включая те, которые требуют движения головы в реальном времени. Это означает, что KYC, который уже является неполноценной мерой безопасности, в скором времени может стать полностью бесполезным. Су признает, что deepfake-изображения и видео еще не достигли уровня, позволяющего обмануть человеческих рецензентов, но возможность развития этой технологии является надвигающейся проблемой. ⏳

Будущее проверки KYC

Потенциальные риски, которые представляют глубокофейковые изображения удостоверений личности, требуют более строгих мер для обеспечения подлинности пользовательских идентификаторов. Компании и учреждения должны оставаться бдительными и активно вкладываться в передовые технологии, чтобы противодействовать этим мошенническим попыткам. Новые решения, такие как биометрическая аутентификация, многофакторная аутентификация и продвинутые алгоритмы искусственного интеллекта, могут стать ключевыми в борьбе против мошенничества с использованием чужих идентичностей. 💪

🔗 Ссылки:Apple Selling Contested Watch Models Despite Import Ban PauseTutorials Online: Mastering Deepfaked ID ImagesRevealing the Dangers of Deepfaked ID ImagesBypassing Liveness Checks: How Deepfakes Can Fool KYCThe Future of KYC Verification: Advancements and Challenges


Q&A: Addressing Reader Concerns

Q1: Может ли KYC система быть полностью надежной, даже без использования генеративного искусственного интеллекта?

Вне зависимости от того, насколько сложно создать абсолютно непробиваемую систему, меры KYC могут быть существенно улучшены для укрепления процесса идентификации личности. Комбинируя передовые технологии, такие как биометрия, многофакторная аутентификация и улучшенные алгоритмы искусственного интеллекта, финансовые учреждения и предприятия могут значительно снизить риск мошенничества. Однако важно непрерывно адаптироваться и развиваться, чтобы опережать хитроумные тактики мошенников.

Q2: Как можно защитить свою личность от риска манипуляции идентификационными изображениями?

Хотя у индивидуума есть ограниченный контроль над процессом KYC верификации, можно предпринять шаги для защиты своей идентичности. Бережное отношение к распространению персональной информации в интернете, регулярный мониторинг финансовых счетов на предмет подозрительной активности и незамедлительное сообщение о любых признаках кражи личности являются неотъемлемыми практиками. Кроме того, поощрение организаций к принятию надежных мер безопасности и отстаивание более строгих правил и нормативных актов может помочь уменьшить риски, связанные с манипуляцией идентификационными изображениями.


По мере приближения нашего мира к тому, что “фейковые” идентификационные изображения могут потенциально обмануть даже человеческих рецензентов, крайне важно устранить слабости в процессе KYC верификации. Исследование инновационных решений и внедрение более надежных мер безопасности помогут сохранить доверие и аутентификацию на переднем плане в цифровом мире. Поделитесь своими мыслями по этому вопросу, и давайте вместе создадим более безопасное и надежное будущее! 💻🌐

✨ Не забудьте поделиться этой статьей с вашими друзьями и подписчиками в социальных сетях, чтобы распространять осведомленность о рисках “фейковых” идентификационных изображений в KYC верификации. Вместе мы можем изменить ситуацию! ✨