Голосовые мошенничества достигли нового уровня: жертвы теряют деньги, услышав знакомую речь
Источник фото: https://pxhere.com/ru
В последнее время кибермошенники освоили новую технику обмана, используя передовые методы искусственного интеллекта для создания реалистичных копий голосов близких людей.
О тревожной тенденции сообщил Сергей Кузьменко – руководитель центра цифровой экспертизы Роскачества – в интервью телеканалу RT.
Технология позволяет злоумышленникам буквально воспроизвести тембр голоса родных или друзей потенциальной жертвы, причем качество настолько высокое, что отличить фальшивый звук практически невозможно. Чтобы создать копию, достаточно короткого фрагмента аудиозаписи – такую запись легко добыть из соцсетей, звонков или сообщений в мессенджере.
Подделанный голос звучит естественно, благодаря чему доверие жертвы мгновенно возрастает. Получив звонок якобы от родственника, человек даже не задумываясь отправляет требуемые суммы на указанные счета преступников. К сожалению, осознание обмана приходит позже, когда вернуть утраченные средства становится крайне сложно.
Кроме того, специалисты предупреждают о новых формах атаки, когда голос дополняют визуальным контентом – посредством технологий deepfake создается полное виртуальное подобие собеседника, включая мимику и жестикуляцию. Эта комбинация создает сильнейший психологический эффект доверия, многократно увеличивая риск стать жертвой мошенников.