Мошенники дипфейков снова бьют сотрудника обманули на перевод 25,6 миллионов долларов.

Финансовый работник, базирующийся в Гонконге, внес деньги после взаимодействия с глубокой подделкой главного финансового директора.

Многонациональная фирма теряет $25.6 миллиона из-за мошенников, использующих deepfakes

Такие шалости последние времена у этих озорных deepfake мошенников! Они просто не могут насытиться использованием deepfakes для самых разных коварных активностей. От подражания знаменитостям до обмана людей на их заработанные деньги, они определенно знают, как поддерживать интерес.

Самый последний случай забавной обманки с использованием deepfake произошел в оживленном городе Гонконг. Тот лишенный подозрений сотрудник финансового отдела, работающий в многонациональной компании, стал жертвой deepfake мошенничества и перевел неприличную сумму $25.6 миллиона гонконгских долларов ($3.29 миллиона). Недешевый урок скептицизма, можно сказать!

По словам полиции Гонконга, сотрудник получил электронное письмо, якобы от главного финансового директора компании, находившегося в Великобритании. 🤔 Возможно, вы думаете, что сотрудник непременно поднял бы бровь от идеи проведения секретных операций. Но вы ждите, мои друзья, потому что здесь и начинаются эти обманчивые deepfakes.

Мошенники тщательно спланировали это. Они организовали видеозвонок, на котором работник финансового отдела был встречен не только “CFO”, но и другими знакомыми сотрудниками компании. Но, догадайтесь, что? Каждый и каждая из этих кажущихся реальными личностей на самом деле был deepfake! 🎭 Скорее всего, эти коварные мошенники создали deepfakes, используя открытые видеоролики с участием настоящих людей.

Во время разговора deepfakes провоцировали сотрудника представить себя, а затем настойчиво направили его сделать 15 переводов на общую сумму в 25.6 миллиона долларов. 😱 Они ловко создали срочность выполнить задание, и как только оно было завершено, разговор внезапно закончился. Мало кто из сотрудников догадывался, что он стал жертвой хитроумной уловки.

Через неделю наш бедный финансовый сотрудник решил проверить запрос внутри компании и узнал жесткую правду. ГКонконгская полиция быстро приняла меры, арестовав шесть человек, связанных с мошенничеством. Эти хитроумные индивидуалы уже успели украсть не только восемь удостоверений личности, но и подать аж 54 заявки на открытие банковских счетов и 90 заявок на кредит в 2023 году. Они даже использовали deepfakes, чтобы обмануть систему распознавания лиц не менее, чем 20 раз. Кажется, они действительно были полны решимости достичь новых вершин злодеяния! 🤦‍♂️

Теперь давайте отступим на шаг назад и взглянем на более широкую картину. Массовое использование deepfakes становится все более тревожной проблемой в нашем постоянно развивающемся мире, основанном на искусственном интеллекте. 😨 Мы видели случаи, когда личность Тейлор Свифт была подделана с использованием deepfakes для создания неконсенсуальных порнографических изображений, а также финансовые мошенничества, направленные на увлеченных покупателей продукции Le Creuset. Даже президент Джо Байден использовал свой голос в робоколлах к избирателям Нью-Гэмпшира, взывая их не голосовать на своих собственных выборах. 😱

🔍 Q&A Время:

Q: Почему deepfakes являются такой серьезной проблемой в современном мире? Deepfakes представляют серьезную угрозу, потому что они размывают грань между реальностью и вымыслом. Они используют технологию искусственного интеллекта, чтобы сделать так, чтобы любой человек говорил или делал то, чего он на самом деле никогда не делал или не говорил. Это может иметь серьезные последствия, такие как разрушение репутации, распространение дезинформации или даже содействие в мошенничестве, о котором мы только что говорили. У нас живет страшный мир, люди!

Q: Как мы можем защитить себя от попадания жертвой мошенничества с использованием deepfake? Осведомленность – это ключевой фактор. Будьте скептическими и бдительными, когда дело касается неожиданных запросов, связанных с конфиденциальной информацией или операциями. Проверьте подлинность любой коммуникации, используя несколько каналов связи. Если вы подозреваете, что есть deepfake, не стесняйтесь связаться с лицом или организацией через известный, надежный канал, чтобы подтвердить подлинность запроса.

Q: Какие меры принимаются для борьбы с развитием технологии deepfake? Как государственные, так и частные секторы инвестируют в исследования и разработку, чтобы создать надежные техники обнаружения и противодействия deepfakes. Компании, такие как Microsoft и Facebook, активно работают над инструментами искусственного интеллекта, которые способны определять и помечать deepfake контент. Кроме того, в различных странах предлагается принятие законодательства, которое криминализирует создание и распространение вредоносных deepfakes.

Итак, мои дорогие читатели, давайте углубимся в вопросы влияния и будущего развития, связанные с deepfakes и технологиями искусственного интеллекта.

💡 Инсайты и будущие разработки:

Translate this HTML to Russian (keep the HTML code in the result and preserve the original information of the src attribute in the tag unchanged.):

Рост deepfakes представляет собой ясный переломный момент в эпохе искусственного интеллекта. В то время, как сама технология предлагает захватывающие возможности для развлечений и творческого самовыражения, ее злонамеренное применение вызывает значительные опасения в различных отраслях и обществе в целом. Как мы наблюдали недавно, deepfakes могут нарушать жизни отдельных людей, обманывать массовую аудиторию и поддерживать дезинформационные кампании.

Однако борьба с deepfakes далека от завершения. Исследователи и технологи неустанно работают над разработкой продвинутых алгоритмов обнаружения, чтобы ловить даже самые изощренные deepfakes. Использование машинного обучения, сверточных нейронных сетей и других передовых техник показало перспективу в борьбе с этой угрозой. Путем непрерывного совершенствования этих методов обнаружения мы можем стремиться опережать злонамеренных действующих лиц, стремящихся использовать технологию искусственного интеллекта для вредных целей.

🔗 Ссылки:Новая цифровая технология “Свидетельство о рождении” от Sony напоминает NFT – TechCrunchApple выпускает Safari Technology Preview 186 с исправлениями ошибок и улучшением производительности – EnbleX подтверждает блокировку поиска Тейлор Свифт для обеспечения безопасности – EnbleНеделя, которую на самом деле хотят покупатели AI: “GenAI” Amazon – TechCrunchFCC обдумывает запрет AI-генерируемых робоколлов – TechCrunch

Теперь, дорогие читатели, ваша очередь! Поделитесь своими мыслями об этом мошенничестве deepfake и более широким влиянии таких вводящих в заблуждение технологий. Сталкивались ли вы когда-нибудь с deepfake? Давайте обсудим в комментариях! И не забывайте, будьте в безопасности и всегда подвергайте сомнению то, что видите и слышите! 🛡️👀


Эта статья была представлена [YourName], экспертом по компьютерным технологиям и программированию. Если вам понравилась эта статья, не забудьте подписаться на меня для получения более интересного контента и давайте связаться в социальных сетях! Вместе мы раскроем тайны мира технологий! 🚀

Источник изображения