Внимание Генеративное искусственное интеллект получит новый уровень для проведения кибератак, согласно новому докладу Google.

Внимание Генеративный искусственный интеллект достигнет новых высот для проведения кибератак, согласно последнему докладу от Google.

Иллюстрация угрозы кибербезопасности

По мере развития технологии искусственного интеллекта, такие как генерирующий ИИ, растут и кибератаки. Новый прогноз компании Google в области кибербезопасности показывает, что с развитием ИИ появляются новые угрозы, о которых нужно знать.

В среду Google представила отчет Google Cloud Cybersecurity Forecast 2024, составленный совместно с множеством команд по безопасности Google Cloud, который детально рассматривает киберпространство на предстоящий год.

Также: Вчера у вас были проблемы с ChatGPT? OpenAI говорит, что это было из-за DDoS-атаки

Отчет показывает, что генерирующий ИИ и большие языковые модели (LLM) будут использоваться в различных кибератаках, таких как фишинг, SMS и другие формы социального инжиниринга с целью сделать контент и материал, такие как голос и видео, более правдоподобными. 

Например, характерные признаки фишинговых атак, такие как орфографические ошибки, ошибки грамматики и отсутствие культурного контекста, будут более сложны для обнаружения, если используется генерирующий ИИ, так как он отлично подражает естественному языку. 

В других случаях злоумышленники могут подавать на вход LLM настоящий контент и создавать измененную версию, которая соответствует целям атакующего, но сохраняет тот же стиль исходного ввода. 

Также: Австралия проведет расследование сбоя оператора Optus, затронувшего миллионы пользователей

Отчет также предсказывает, что LLM и другие инструменты генерирующего ИИ, предлагаемые в качестве платных услуг для помощи атакующим в более эффективном развертывании атак с меньшими затратами, будут все больше развиваться. 

Однако злонамеренный ИИ или LLM даже не являются необходимыми, поскольку использование генерирующего ИИ для создания контента, например, составления напоминания о счете, само по себе не является вредоносным, но злоумышленники могут использовать его для достижения своих целей. 

Например, ENBLE ранее рассказывал, как мошенники используют ИИ для подражания голосам родственников или друзей, нуждающихся в помощи, чтобы обмануть их и выманить деньги.

Еще одной потенциальной угрозой генерирующего ИИ являются информационные операции. Простыми сигналами от ИИ злоумышленники могут использовать модели генерирующего ИИ, чтобы создавать фейковые новости, фальшивые телефонные звонки, а также фейковые фотографии и видео.

Также: Что такое парольные ключи? Почувствуйте трансформационную силу отказа от паролей

По данным отчета, такие операции могут стать частью публичного информационного цикла. Масштабируемость таких операций может уменьшить доверие общественности к новостям и онлайн-информации до такой степени, что каждый станет более скептически настроенным или перестанет доверять потребляемым ими новостям. 

“Это может привести к затруднениям взаимодействия бизнесов и правительств с их аудиторией в ближайшем будущем”, – говорится в отчете.

Хотя злоумышленники используют ИИ, чтобы сделать свои атаки более мощными, киберзащитники также могут использовать эту технологию для противодействия более продвинутой защите. 

Также: 3 способа новой программы Microsoft Secure Future Initiative борьбы с растущими киберугрозами

“Искусственный интеллект уже дает огромное преимущество нашим киберзащитникам, позволяя им улучшать возможности, сокращать утомительную работу и лучше защищаться от угроз”, – сказал Фил Венеблс, главный информационный безопасности Google Cloud, о ИИ. “Мы ожидаем, что эти возможности и преимущества будут стремительно расти в 2024 году, поскольку защитники имеют контроль над технологией и направляют ее развитие по конкретным применениям”.

Некоторые примеры использования генеративной ИИ для защитников включают использование ее для синтеза большого объема данных, получения действенных обнаружений и принятия мер в более быстром темпе.