Сгенерированные ИИ голоса стали обманывать россиян
Волна мошенничества с клонированием голоса докатилась и до нашей страны. Роскачество призывает быть бдительными и предупредить близких.
Центр цифровой экспертизы Роскачества неоднократно упоминал в своих статьях, что технологии ИИ сами по себе не являются преступным инструментом, но мошенники вовсю применяют их в своих схемах.
Первые отчеты о применении технологии ИИ в схемах обмана по телефону западные эксперты начали получать с 2022 года. И если летом 2023-го мы рассказывали о мошенничестве с участием ИИ в западных странах, то в начале этого года подобные случаи начали фиксировать и в городах России.
На днях в Подмосковье голосом бабушки мошенники выманили у школьницы 300 тысяч рублей. На телефон ребенка поступил звонок, и «бабушка» сообщила внучке, что попала в ДТП и ей грозит арест.
Благодаря уже имеющимся технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже внучка поверила, что ей звонит бабушка.
Схемы обмана те же, но инструменты теперь более прогрессивные. И это не фантастика. Сегодня любой человек, если у него есть смартфон и деньги на счету, — потенциальная жертва аферистов. В особой зоне риска — пожилые люди и подростки. Проведите беседу с близкими, придумайте кодовое слово, для своих, чтобы точно знать, когда звонят чужие. Важно не вестись на эмоции, а сразу перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу.
Сергей Кузьменко, руководитель направления информационной безопасности Центра цифровой экспертизы Роскачества