18+
Рекламный баннер 980x90px unterhead
Архив
Рекламный баннер 300x200px left-1
Мы в соцсетях
Рекламный баннер 300x600px left-2
Рекламный баннер 300x60px right-1
Рекламный баннер 300x60px right-2

Мошенники научились имитировать голоса родственников своих потенциальных жертв с помощью искусственного интеллекта

18:14 23.01.2024 16+
834
Мошенники научились имитировать голоса родственников своих потенциальных жертв с помощью искусственного интеллекта

Телефонные мошенники вышли на новый уровень охоты за деньгами. Теперь они стали использовать искусственный интеллект, который умеет подделывать чужие голоса.

Для этого киберпреступники получают образцы голоса тех, кого намерены скопировать. Например, скачивают видео с личных страничек пользователей соцсетей. Или могут позвонить якобы с целью рекламы и записать голос на диктофон. Также мошенники тщательно изучают профили в социальных сетях, следят за комментариями, запоминают фразы и слова, оставленные на просторах Интернета, выясняют хобби и увлечения.

После этого нейросеть создаёт новые фразы, чаще всего о том, что человек попал в беду и ему срочно нужны деньги. Злоумышленники таким образом вынуждают жертву совершить денежный перевод или сообщить необходимые для хищения сведения о картах и счетах.

В зоне особого риска находятся пожилые, поскольку они хуже знакомы с новыми технологиями.

- Мы рекомендуем людям осторожно подходить к размещению личной и финансовой информации в социальных сетях и других открытых ресурсах. Не нужно совершать какие-либо денежные операции по просьбам лиц, поступающим по телефону. При возникновении любых сомнений позвоните человеку, от имени которого вам звонят, и уточните информацию, – напоминают правила кибербезопасности в Отделении по Оренбургской области Уральского ГУ Банка России.

Оставить сообщение