Вам звонит родственник или друг и взволнованным голосом сообщает, что попал в беду. Не давая опомниться, торопливо объясняет ситуацию - например, стал виновником ДТП или у него украли кошелек - и просит прислать деньги. Знакомо?
Сценарии могут быть самыми разными - все ограничивается лишь воображением и цинизмом мошенников. Играя на эмоциях и инстинктивном доверии, когда речь идет о здоровье и безопасности близких, аферисты порой с легкостью обманывают даже очень осторожных в посведневной жизни людей. А теперь на помощь мошенникам пришел и искусственный интеллект (ИИ), с помощью которого они могут имитировать чей угодно голос, причем весьма достоверно. Но и на этот прием есть свой лом.
Еще пять лет назад такое казалось далеким будущим или, по крайней мере, недоступным людям без глубоких технических навыков. Но теперь это реальность - ИИ научился создавать очень достоверный голосовой "клон" даже из небольших фрагментов речи. И мы сами оставляем образцы собственного голоса для обучения этих инструментов - например, в социальных сетях.