В период предновогодних праздников мошенники в России стали использовать передовые технологии нейросетей, рассказал Родион Кадымов, директор по продукту FABULA AI. Злоумышленники все чаще прибегают к дипфейк-технологиям, чтобы похищать денежные средства.

Мошенники в России орудуют нейросетью в преддверии праздников
Изображение взято с:

Благодаря нейросетям мошенники создают реалистичные видеоизображения людей, а затем отправляют их изображение друзьям или родственникам через мессенджеры и социальные сети. «Если, например, был взломан аккаунт, или ваш родственник переслал кому-то голосовые сообщения, злоумышленники могут создать «слепок» голоса отправителя по отрезку в 15 секунд, — пояснил Кадымов. — В дальнейшем мошенники могут общаться с вами, используя голос ваших знакомых и близких. Даже если вы слышите в голосовом сообщении знакомый голос, не теряйте бдительность».

К примеру, имея в доступе изображение с лицом вашего родственника, мошенники могут представляться его именем и отправлять вам видеосообщения в Telegram, которые выглядят весьма убедительно. Вы видите лицо, которое говорит голосом вашего родственника, но видео может быть сделано с помощью технологии Face swap.

Злоумышленники активно используют приемы социальной инженерии. Этот метод основан на эксплуатации человеческих слабостей и чрезвычайно эффективен. Часто мошенники представляются сотрудниками, например, банка, и звонят клиентам и их родственникам от имени службы поддержки. Наибольшему риску подвержены люди старшего поколения и те, кто плохо знаком с современными технологиями.

«С развитием ИИ совершенствуются и технологии мошенников, которые осознали их потенциал и применяют нейросети на профессиональном уровне: используют цифровых двойников, передовые визуальные и голосовые генеративные сети, технологии замены лиц (face swap), и накладывают нужные звуковые фрагменты на аудиосообщения, такие как голосовые сообщения в Telegram», — пояснил эксперт.

Проверяйте все электронные письма и аккаунты. Если мошенники представляются сотрудниками банка, они могут отправлять сообщения от имени службы поддержки. В таких случаях важно помнить, что техническая поддержка редко делает первый шаг. Любые неожиданные обращения должны вызывать подозрения. Не стоит отвечать на такие письма, так как они могут быть фишинговыми.

«Если вы столкнулись с мошенником, который отправляет видеокружок, обратите внимание на движения его головы, — рассказал Кадымов. — При резких поворотах лица может возникнуть эффект «слетания» технологии Face Swap, что может свидетельствовать о подделке. Обратите внимание на голос, созданный с помощью ИИ — он часто будет монотонным и лишенным естественных интонаций. Это может быть признаком подделки».

Попробуйте вывести собеседника на эмоции, задав вопросы, которые могут вызвать реакцию. Настоящие люди обычно реагируют эмоционально, в то время как ИИ может не показать такой же уровень вовлеченности. При подозрении на дипфейк сразу сообщите об этом в службу поддержки компании, имя которой было использовано мошенниками.

Для повышения уровня безопасности важно всегда учиться и быть в курсе новых угроз, резюмировал эксперт.

Источник: www.gazeta.ru
Поделитесь:


Антивоенное этническое движение «Новая Тыва» (New Tuva), Транс, Некоммерческая организация «Фонд защиты прав граждан «Штаб», Региональная общественная правозащитная организация «Союз «Женщины Дона» признаны в РФ иностранными агентами.