Опасное аудиосообщение: мошенники стали подделывать голоса своих жертв

Опасное аудиосообщение: мошенники стали подделывать голоса своих жертв
Фото @cmn.kz

Мошенники генерируют с помощью искусственного интеллекта голосовые обращения на основе аудиосообщений владельцев аккаунта — это позволяет убедительнее просить деньги у его знакомых.

Сначала аферисты получают доступ к аккаунту, затем начинают писать потенциальным жертвам из числа списка контактов его владельца с просьбой перевести деньги. Историю о необходимости помощи преступники подкрепляют голосовым сообщением якобы от лица владельца аккаунта. Для аудиосообщения используются нарезки из его реальных старых голосовых сообщений, передает РБК.

Аудиосообщение дублируется в личную переписку и во все чаты, где состоит хозяин украденного аккаунта. Затем направляется фото банковской карты с именем и фамилией.

Как рассказывает эксперты, скачиваются сохраненные голосовые сообщения в мессенджере WhatsApp и с помощью сервисов искусственного интеллекта синтезируют новые аудио с необходимым контекстом.

Подписывайтесь на официальный Telegram-канал CMN.KZ

Введите текст и нажмите Enter либо Esc для отмены поиска