Генеративный искусственный интеллект новое оружие в арсенале киберпреступников 💻🔫

Некоторые сегменты кода, использующие инструмент PowerShell компании Microsoft, напоминают стиль вывода больших языковых моделей

Киберпреступники используют искусственный интеллект Llama 2 Meta, как сообщает CrowdStrike.

🔒 Компания по кибербезопасности CrowdStrike выпустила свой ежегодный отчет об угрозах, в котором говорится, что киберпреступники теперь используют генеративный искусственный интеллект для проведения атак. Одна группа, известная как Scattered Spider, использовала большую модель языка Llama 2 Meta для создания сценариев для программы автоматизации задач PowerShell от Microsoft. Таким образом, им удалось получить учетные данные для входа сотрудников жертвы из финансовой сферы Северной Америки.

⚠️ Рост атак с использованием генеративного искусственного интеллекта

Генеративный искусственный интеллект, управляемый большими моделями языка, такими как Llama 2, позволяет киберпреступникам автоматизировать создание вредоносных сценариев и кода. Это представляет собой значительное испытание для специалистов по безопасности, поскольку сложно обнаружить и проследить использование генеративного искусственного интеллекта в кибератаках. Уникальный стиль кода Llama 2 позволил выявить его использование в PowerShell, но конкретные наблюдения за такими атаками остаются редкими.

🚀 Будущее киберпреступности

Несмотря на текущие ограничения в обнаружении атак, основанных на генеративном искусственном интеллекте, CrowdStrike предсказывает, что их распространенность будет продолжать расти. По мере развития технологии искусственного интеллекта, растет и его потенциал для злоупотреблений. Хакеры будут использовать эти достижения, чтобы усилить свои атаки и развивать более убедительные повествования обмана.

💣 Противостояние дилемме стоимости по сравнению с результативностью

Высокая стоимость разработки больших моделей языка смягчила масштаб ущерба, который могут причинить киберпреступники с помощью генеративного искусственного интеллекта. На данный момент большинство попыток использования этих моделей привели к плохим результатам или стали устаревшими вскоре после внедрения. Однако по мере того, как технология становится доступнее и доступнее, риски, безусловно, увеличатся.

🔥 За пределами генерации кода: дезинформация и выборы

Помимо генерации кода, отчет CrowdStrike подчеркивает потенциал использования генеративного искусственного интеллекта в кампаниях дезинформации, особенно во время выборов. С учетом множества правительственных выборов, проходящих во всем мире, угроза дезинформации, порожденной искусственным интеллектом, велика. Вмешательство в избирательные системы и распространение обманных повествований – два основных способа кибератак на выборы.

🌐 Технологическое поле боя выборов

«Информационные операции» (IO), включающие генеративный искусственный интеллект, уже наблюдались, когда китайские актеры использовали создаваемое искусственным интеллектом содержание в социальных сетях для оказания воздействия на кандидатов на президентские выборы Тайваня. CrowdStrike предупреждает, что противники вряд ли не воспользуются этими инструментами для проведения IO на предстоящих выборах 2024 года. Более того, политически активные партнеры в странах, где проходят выборы, могут создавать дезинформацию с помощью генеративного искусственного интеллекта, чтобы продвигать свои собственные цели.

🔒 Защита от атак, основанных на искусственном интеллекте

Поскольку генеративный искусственный интеллект становится мощным оружием в руках киберпреступников, укрепление мер по кибербезопасности имеет первостепенное значение. От передовых систем обнаружения угроз до безопасных практик кодирования, организации должны придавать приоритет защите своей инфраструктуры от новых угроз, основанных на искусственном интеллекте.

🤔 Вопросы и ответы читателей

В: Как организации могут защититься от атак генеративного искусственного интеллекта? О: Чтобы защититься от атак генеративного искусственного интеллекта, организации должны инвестировать в надежные системы обнаружения угроз, способные идентифицировать вредоносные сценарии и код. Кроме того, внедрение безопасных практик кодирования, проведение регулярных аудитов безопасности и следование последним тенденциям в области кибербезопасности имеют решающее значение для предотвращения и смягчения последствий атак, запускаемых искусственным интеллектом.

В: Какие потенциальные будущие развития ожидают атак генеративного искусственного интеллекта? О: Поскольку технология генеративного искусственного интеллекта продолжает развиваться, мы можем ожидать, что киберпреступники будут дальше использовать ее возможности. От более сложных атак на основе искусственного интеллекта, которые обходят существующие меры безопасности, до создания еще более убедительных повествований для масштабных кампаний дезинформации, будущее атак генеративного искусственного интеллекта вызывает беспокойство.

В: Как люди могут защитить себя от дезинформации, созданной искусственным интеллектом во время выборов? О: Люди могут защитить себя от дезинформации, созданной искусственным интеллектом, критически оценив информацию, с которой они сталкиваются, проверяя утверждения у нескольких авторитетных источников и будучи осторожными при передаче непроверенной информации. Важно осознавать потенциал создания дезинформации с помощью искусственного интеллекта для распространения обманных повествований и быть информированным о проводимых избирательными властями мерах безопасности.

🔗 Ссылки: – Walmart debuts generative AI7 hacking tools that look harmless but can do real damageMeta’s Code Llama and AI coding challengesCombatting fraudulent AI content

“`html

👥 Поделитесь своими мыслями о генеративном ИИ и его потенциальном влиянии на кибербезопасность! Давайте опережать хакеров и защищать наш цифровой мир. 💪🔒

Shield representing cybersecurity

“`