Революция искусственного интеллекта 5 проблем кибербезопасности к 2024 году

В 2024 году лучший эксперт по вредоносному программному обеспечению в мире раскрывает свои большие заботы в области кибербезопасности.

Микко Хиппонен, эксперт по искусственному интеллекту, предсказывает 5 основных угроз кибербезопасности в 2024 году

Микко Хиппонен, главный научный сотрудник компании WithSecure и известный эксперт по кибербезопасности, сражался с вредоносными программами десятилетиями. Начиная с борьбы с разрушительными компьютерными червями и заканчивая поиском создателей первого вируса для ПК, опыт Хиппонена принес ему почетное место среди ведущих умов в отрасли. Но теперь перед ним стоит новое вызов — эпоха искусственного интеллекта. По мнению Хиппонена, революция искусственного интеллекта будет больше, чем революция интернета. В 2024 году он разглашает пять главных угроз этого года, подчеркивая потенциальные угрозы, которые несет искусственный интеллект.

1. Дипфейки: самое тревожное преступление, связанное с искусственным интеллектом

Одним из наиболее тревожных применений искусственного интеллекта в преступной сфере является создание дипфейков. Дипфейки – это синтетические медиа, которые манипулируют видео, изображениями или аудио, чтобы создать иллюзию того, что кто-то сказал или сделал что-то, чего на самом деле не было. Хотя эти дипфейки еще не полностью осуществились, свежие отчеты показывают значительный рост попыток мошенничества с использованием дипфейков. Только в 2023 году число таких попыток возросло на удивительные 3000%.

Хиппонен предупреждает, что с развитием технологий дипфейков, их доступностью и доступностью, их масштабы могут расшириться быстро, что представляет значительный риск. Чтобы справиться с этим, он предлагает внедрить старый-добрый метод защиты: кодовые слова. Установка кодовых слов во время видеозвонков позволяет проверить подлинность запросов на получение конфиденциальной информации или совершение операций, что снижает риск стать жертвой мошенничества, основанного на дипфейках.

Вопрос: Как я могу защитить себя от мошенничества с помощью дипфейков?

Ответ: Установка кодовых слов во время видеозвонков может помочь подтвердить подлинность запросов на получение конфиденциальной информации или совершение операций. Кроме того, оставаться бдительным и скептическим по отношению к подозрительным запросам или предложениям может существенно помочь в защите от мошенничества, связанного с дипфейками.

2. Глубокие мошенничества: темная сторона автоматизации

В то время как глубокие мошенничества могут звучать похоже на дипфейки, они существенно отличаются по своей сути. Глубокие мошенничества включают масштабные мошеннические схемы, в которых используется автоматизация. С помощью технологий искусственного интеллекта, таких как большие языковые модели (LLM) и генераторы изображений, мошенники могут одновременно нацелиться на тысячи жертв и увеличить влияние своих мошеннических действий.

Будь то инвестиционные схемы, фишинговые атаки, мошенничество с недвижимостью, билетами или романтические мошенничества, автоматизация, предоставляемая искусственным интеллектом, позволяет мошенникам масштабировать свои операции. Хиппонен предупреждает, что мошенники, вооруженные инструментами, оснащенными искусственным интеллектом, могут эксплуатировать уязвимости и обманывать жертв на беспрецедентном уровне.

Вопрос: Как искусственный интеллект может быть использован для выявления глубоких мошенничеств?

Ответ: Искусственный интеллект может быть использован для обнаружения глубоких мошенничеств путем анализа паттернов, идентификации подозрительных поведений и сравнения их с известными методами мошенничества. Путем использования алгоритмов искусственного интеллекта и моделей машинного обучения организации могут повысить свои возможности по обнаружению мошенничеств и снизить риск стать жертвой глубоких мошенничеств.

3. Малварь, активируемая LLM: тихая угроза

Искусственный интеллект не ограничивается только защитой от киберугроз, его можно также использовать для написания вредоносного программного обеспечения. Команда Хиппонена обнаружила три червя, которые используют большие языковые модели (LLM) для переписывания своего кода с каждой репликацией, что делает их очень сложными для обнаружения. Хотя эти образцы вредоносного программного обеспечения, активируемого LLM, еще не были обнаружены в реальных сетях, их наличие в публичных репозиториях вызывает опасения.

За счет использования таких технологий искусственного интеллекта, как GPT от OpenAI, эти черви могут генерировать уникальный код для каждой цели, которую они инфицируют. Закрытая природа этих систем генерации кода, основанных на искусственном интеллекте, затрудняет блокирование их поведения. Хиппонен подчеркивает важность решения этой проблемы и предотвращения широкого использования закрытых систем искусственного интеллекта во вредоносных целях.

Вопрос: Может ли вредоносное программное обеспечение, основанное на искусственном интеллекте, быть эффективно обнаружено и устранено?

Ответ: Обнаружение и смягчение вредоносного программного обеспечения, основанного на искусственном интеллекте, требует разработки передовых средств кибербезопасности, использующих алгоритмы искусственного интеллекта и техники машинного обучения. Путем непрерывного мониторинга сетевого трафика, анализа паттернов и использования методов обнаружения аномалий организации могут улучшить свою способность идентифицировать и нейтрализовать вредоносное программное обеспечение, основанное на искусственном интеллекте, эффективно.

4. Открытие Zero-Days: двуручный меч

Zero-day эксплойты, уязвимости, обнаруженные злоумышленниками до того, как разработчики смогут их устранить, представляют значительную угрозу для кибербезопасности. В то время как искусственный интеллект может использоваться для обнаружения и устранения этих уязвимостей, его также можно использовать для создания новых. Хиппонен подчеркивает, что использование искусственного интеллекта для эксплуатации уязвимостей – это все ближе становящаяся реальность.

Он приводит пример выпускной работы студента, работающего в F-Secure, где студент автоматизировал процесс сканирования уязвимостей на компьютере с Windows 11. Этот пример показывает, что использование ИИ для эксплуатации уязвимостей – это не отдаленная возможность, а потенциально близкая.

В: Как организации могут защититься от Zero-Day эксплойтов?

О: Для смягчения риска Zero-Day эксплойтов организации должны приоритезировать меры кибербезопасности, такие как своевременное применение обновлений программного обеспечения и исправлений, внедрение сегментации сети и использование систем обнаружения вторжений. Дополнительно, формирование культуры кибербезопасности внутри организации крайне важно для повышения осведомленности и поддержания бдительности против новых угроз.

5. Автоматизированный вредоносный код – угроза будущего

В то время как большинство малварных атак основаны на ручных операциях, развитие искусственного интеллекта открывает путь к полностью автоматизированному вредоносному коду. Это изменит динамику кибербезопасности, превратив ее в битву между хорошим и плохим искусственным интеллектом. Если не принять меры, полностью автоматизированный вредоносный код может представлять серьезную угрозу для отдельных лиц, организаций и цифровой экосистемы в целом.

Хиппонен ранжирует полностью автоматизированный вредоносный код как главную угрозу безопасности на 2024 год, подчеркивая срочную необходимость готовиться к его потенциальному влиянию.

В: Как можно использовать искусственный интеллект для защиты от автоматизированного вредоносного кода?

О: Использование искусственного интеллекта для кибербезопасности крайне важно в борьбе с автоматизированным вредоносным кодом. Путем применения алгоритмов ИИ для обнаружения угроз, анализа поведения и обнаружения аномалий организации могут повысить свою способность идентифицировать и нейтрализовать автоматизированный вредоносный код. Также, важным является сотрудничество между исследователями по безопасности, экспертами промышленности и разработчиками искусственного интеллекта, чтобы быть впереди по отношению к эволюцию угроз.

Опасный путь к искусственному общему интеллекту

Глядя в будущее за пределами непосредственных кибербезопасных угроз, Хиппонен выражает опасения в отношении искусственного общего интеллекта (ИОИ). Он предсказывает, что в течение своей жизни люди станут вторыми по умственным способностям на планете, а ИОИ превзойдет человеческий интеллект. Для обеспечения безопасного развития и использования ИОИ Хиппонен подчеркивает необходимость сильного соответствия с целями и ценностями человека.

В то время как потенциальные преимущества ИОИ огромны, необходимо приоритезировать соответствие и понимание долгосрочных последствий для предотвращения непредвиденных последствий.

В: Как можно обеспечить соответствие ИОИ интересам человека?

О: Обеспечение соответствия ИОИ интересам человека требует развития ответственных практик разработки искусственного интеллекта, создания надежных нормативных основ и учета этических аспектов. Совместные усилия исследователей, политиков, лидеров промышленности и широкой общественности являются важными для формирования развития и внедрения ИОИ таким образом, чтобы приоритетом было благополучие человека и соответствие долгосрочным интересам.


Революция искусственного интеллекта приносит огромные возможности и вызовы. Дипфейки, обманы, вредоносный код, способный к использованию LLM, Zero-Day эксплойты и потенциальное разрушительное влияние автоматизированного вредоносного кода – крайне важно быть информированными и активными перед лицом этих новых угроз. Принятие проактивных мер по обеспечению безопасности, поощрение ответственной разработки искусственного интеллекта и формирование культуры кибербезопасности позволит нам преодолеть эпоху искусственного интеллекта, обеспечивая безопасность нашей цифровой экосистемы.

🔗 Ссылки на источники: 1. Первый вирус для ПК 2. Профили Vanity Fair 3. WithSecure 4. Музей вредоносного кода 5. Искусственный интеллект 6. Дипфейки 7. Исследование Onfido 8. Манипуляции медиа 9. Мошенник Тиндера 10. Закон Хиппонена 11. Соответствие


Теперь твоя очередь! Какая из проблем кибербезопасности наиболее вас беспокоит? Поделитесь своими мыслями в комментариях ниже и не забудьте распространить информацию о кибербезопасности, поделившись этой статьей в социальных сетях! 👇💻✨