
Мошенники активно применяют технологии искусственного интеллекта для обмана граждан, создавая поддельные голосовые и даже видеокопии людей. Об этом сообщает RT со ссылкой на руководителя Центра цифровой экспертизы Роскачества Сергея Кузьменко.
По словам эксперта, злоумышленникам достаточно короткого образца голоса, чтобы с помощью нейросетей создать убедительную копию. Такой фрагмент легко получить из аудио- или видеозаписей в социальных сетях, мессенджерах, а иногда — просто записав разговор по телефону.
«Услышав в трубке знакомый тембр и манеру речи, люди теряют бдительность и без сомнений переводят деньги на указанные мошенниками реквизиты, осознавая обман лишь после», — отметил Кузьменко.
Он также предупредил, что следующей стадией развития подобных схем становятся видеозвонки с применением технологии дипфейк, когда на экране появляется «реалистичное» изображение знакомого человека.
«Если при обычном звонке можно насторожиться и перепроверить, то с дипфейками всё сложнее. Перед вами будто живой человек — с его голосом, мимикой и движениями. Это создаёт мощный эффект присутствия и полностью рушит психологические барьеры», — пояснил специалист.
В Роскачестве напомнили: при получении подозрительных звонков от «родственников» или «знакомых» важно сохранять спокойствие, проверить информацию через другие каналы связи и ни в коем случае не переводить деньги, пока личность собеседника не подтверждена.
Фото: Freepik.com
Видеодипфейк- ух он какой видеодипфейк. Интересно спросить у главного лица государства, что такое видеодипфейк, какое его значение этого слова, что бы он ответил?