Fоtо: Shutterstock

В Латвии набирает обороты новый вид телефонного мошенничества — звонки роботов на латышском языке, которые осуществляются искусственным интеллектом (ИИ) с использованием технологии клонирования голоса, сообщает поставщик ИКТ-услуг Bite Latvija.

Цель таких звонков — вымогательство личной информации или конфиденциальных данных. Ожидается, что их количество будет только увеличиваться. Если до сих пор методы телефонных аферистов больше опирались на "актерскую игру" самих мошенников и их способность убеждать, то теперь искусственный интеллект эту ситуацию изменил.

"Сегодня мы замечаем, что телефонные мошенники стали использовать при совершении роботизированных звонков инструменты AI — так называемого искусственного интеллекта (ИИ), которые во время разговора пытаются получить от абонента приватную информацию, например, личные данные, доступ ко входу в банк и т.п", — говорит Рейнис Пуданс, руководитель отдела процессов внутренней безопасности Bite Latvija.

"Для осуществления такого рода звонков используются предварительно записанные в интернете голоса реальных людей, которые обрабатываются специальными программами AI, создавая различные имитации голосов. В некоторых случаях мошеннику достаточно всего нескольких секунд аудиозаписи, найденной, например, в соцсетях, чтобы клонировать человеческий голос для роботизированных звонков.

Если мошенникам нужны более качественные имитации, то потребуются более длинные аудиозаписи. Поэтому мы призываем людей быть внимательными и не раскрывать конфиденциальную информацию неизвестным абонентам", — Пуданс.

Во время осуществляемого искусственным интеллектом звонка, человеку задают вопросы на латышском языке, ожидая ответов "да" или "нет". Получив ожидаемый ответ, "робот" продолжает разговор по уже запрограммированным для него инструкциям.

Например, в одном из случаев, получивших в этом году широкую огласку в соцсетях, "робот" во время звонка притворился представителем криминальной полиции и задал вопрос по поводу кредита в несколько тысяч евро, попросив подтвердить, что человек такой кредит оформил. Далее были заданы вопросы о личных данных абонента, которые мошенники хотели получить. И, хотя разговор шел на латышском языке, если внимательно прислушаться, то можно было заметить металлический и неестественный голос, что указывало на использование искусственного интеллекта.

Руководитель процессов внутренней безопасности Bite Latvija полагает, что в будущем методы мошенничества киберпреступников, в которых главную роль будет играть использование искусственного интеллекта, станут еще более сложными и их будет труднее распознавать.

Например, уже сейчас различные аудиоплатформы на базе AI позволяют пользователям свободно создавать смоделированные ИИ версии голосов, которые до 95% совпадают с реальными человеческими голосами, и потом их можно использовать для произнесения любого текста.

С помощью искусственного интеллекта аферисты могут также анализировать привычки людей в использовании интернета. Например, чтобы отправить мошенническое SMS, они отслеживают, когда ожидается отправка какого-нибудь сообщения, что увеличивает вероятность того, что кто-то на такое сообщение отреагирует.

"Решения ИИ развиваются очень быстро, поэтому самое важное, что люди могут сделать, чтобы защитить себя, — регулярно обновлять свои знания о новейших и наиболее часто используемых методах в такого рода аферах. Сегодня от телефонного мошенничества не застрахован никто, поэтому, чтобы избежать лап нечистых на руку аферистов, знания и критическое мышление будут иметь решающее значение", — делает вывод эксперт.

Читайте нас там, где удобно: Facebook Telegram Instagram !