Роскачество: мошенники начали подделывать голоса знакомых жертвы
В некоторых случаях злоумышленники звонят по видеосвязи и используют дипфейки

Мошенники начали применять технологии подделки голоса для обмана россиян. Об этом в беседе с RT сообщил руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко.
— Используя нейросети на базе искусственного интеллекта, злоумышленники создают убедительные голосовые копии знакомых или родственников потенциальных жертв. Для этого им требуется лишь короткий образец голоса, который легко добыть из аудио— и видеозаписей в соцсетях, мессенджерах или просто записав разговор по телефону. Услышав в трубке знакомый тембр и манеру речи, люди теряют бдительность и без лишних сомнений переводят деньги на указанные мошенниками реквизиты, осознавая обман лишь после, — сказал он.

По словам Кузьменко, в некоторых случаях злоумышленники используют технологию дипфейка и звонят жертве по видеосвязи.
— Если при голосовом звонке у вас еще есть шанс заподозрить неладное: положить трубку и перезвонить на настоящий номер, написать в мессенджер для подтверждения, то с дипфейком все иначе. Перед вами не просто голос, а живое изображение близкого человека, его мимика и движения. Этот мощный эффект присутствия сметает последние барьеры осторожности, заставляя мозг поверить в реальность происходящего, — пояснил эксперт.
Также мошенники начали использовать сложные многокомпонентные схемы, в которых под предлогом «доставки» с маркетплейсов взламывают аккаунты граждан на портале «Госуслуги» и похищают денежные средства.