Хакеры используют искусственный интеллект для создания злобных вредоносных программ, сообщает ФБР | ENBLE

Hackers use AI to create malicious malware, reports FBI | ENBLE.

ФБР предупредило, что хакеры безудержно используют генеративные инструменты искусственного интеллекта (ИИ), такие как ChatGPT, быстро создавая вредоносный код и запуская киберпреступные акции, которые раньше требовали гораздо больше усилий.

ФБР подробно описало свои опасения в беседе с журналистами и пояснило, что ИИ-чатботы способствуют различным незаконным действиям, от совершенствования техник мошенников и аферистов до консультирования террористов по вопросам организации более разрушительных химических атак.

Sora Shimazaki / Pexels

По словам старшего служащего ФБР (по информации Tom’s Hardware): “Мы ожидаем, что с течением времени, по мере продолжения принятия и демократизации моделей ИИ, эти тенденции будут возрастать”. Активные участники злоупотребляют использованием ИИ для дополнения своей преступной деятельности, в том числе использованием искусственных генераторов голоса для подражания доверенным лицам с целью мошенничества над близкими или пожилыми людьми.

Не в первый раз мы видим, как хакеры используют инструменты, подобные ChatGPT, и искажают их, чтобы создавать опасные вредоносные программы. В феврале 2023 года исследователи из фирмы по безопасности Checkpoint обнаружили, что злоумышленники смогли изменить API чатбота, позволяя ему генерировать вредоносный код и предоставляя возможность создания вирусов практически любому потенциальному хакеру.

Является ли ChatGPT угрозой безопасности?

Hatice Baran / Unsplash

ФБР занимает совершенно иное мнение, чем некоторые киберэксперты, с которыми мы говорили в мае 2023 года. Они заявили, что угроза от ИИ-чатботов в значительной степени преувеличена, поскольку большинство хакеров находят более эффективные способы эксплуатации кода в результате утечек данных и исследований с открытым исходным кодом.

Например, Мартин Жугеч, технический директор Bitdefender, объяснил, что “большинство начинающих авторов вредоносных программ, скорее всего, не обладают необходимыми навыками” для обхода антивирусных механизмов защиты чатботов. Кроме того, Жугеч пояснил, что “качество вредоносного кода, созданного чатботами, обычно низкое”.

Это противоречит заявлениям ФБР, и нам предстоит увидеть, кто окажется прав. Однако, с учетом того, что создатель ChatGPT, OpenAI, прекращает поддержку собственного инструмента для обнаружения плагиата, созданного чатботами, последние новости не внушают оптимизма. Если ФБР прав, то в борьбе с хакерами и их попытками использования чатботов для распространения вредоносных программ нас ожидают трудные времена.