Не верьте ушам своим. Опасное изобретение по копированию голоса
---
Удивился тому, что Тимур Бекмамбетов оказывается владеет компанией Screenlife Technologies, которая в свою очередь создала искусственный самообучающийся интеллект Vera Voice, который умеет разговаривать голосом любого человека.
Вот посмотрите, как имитируется голос Путина, Собчак, Познера...
Как сообщается, в основе технологии — «ансамбль из нейронных сетей», позволяющий скопировать любой голос и произнести им что угодно. Чтобы синтезировать голос, нейросети должны проанализировать несколько часов аудиозаписей обладателя голоса и оцифрованный текст, который он зачитывает.
Я думаю, что если эта разработка пойдет в массы, то "чьими то" голосами будут не поздравления рассылать, а просить деньги в долг и совершать другие мошенничества.
Есть ли такая опасность? А как ей противостоять? Сейчас шлют СМС с текстом, "мама я в беде, положи деньги на телефон или вышли деньги на кошелек". А потом будут звонить и рассказывать голосом сына, друга, дочери, родственника про то, что надо срочно выслать куда то деньги или напомнить пароль от Яндекс.Кошелька или Сбербанка.Онлайн.
Какие еще могут пакости устроить? При деловых контактах - запросто. А фейковые интервью по телефону? Да сто процентов будут.
Что делать? Как защищаться будем?
Взято: masterok.livejournal.com
Комментарии (0)
{related-news}
[/related-news]