Не верьте ушам своим. Опасное изобретение по копированию голоса
30.10.2019 26 819 0 +687 masterok

Не верьте ушам своим. Опасное изобретение по копированию голоса

---
+687
В закладки
Не верьте ушам своим. Опасное изобретение по копированию голоса деньги, голос, будут, который, голосом, Удивился, кошелек, вышли, телефон, положи, текстом, Сейчас, противостоять, такая, опасность, звонить, мошенничества, другие, совершать, просить


Удивился тому, что Тимур Бекмамбетов оказывается владеет компанией Screenlife Technologies, которая в свою очередь создала искусственный самообучающийся интеллект Vera Voice, который умеет разговаривать голосом любого человека.

Вот посмотрите, как имитируется голос Путина, Собчак, Познера...

Как сообщается, в основе технологии — «ансамбль из нейронных сетей», позволяющий скопировать любой голос и произнести им что угодно. Чтобы синтезировать голос, нейросети должны проанализировать несколько часов аудиозаписей обладателя голоса и оцифрованный текст, который он зачитывает.

Я думаю, что если эта разработка пойдет в массы, то "чьими то" голосами будут не поздравления рассылать, а просить деньги в долг и совершать другие мошенничества.

Есть ли такая опасность? А как ей противостоять? Сейчас шлют СМС с текстом, "мама я в беде, положи деньги на телефон или вышли деньги на кошелек". А потом будут звонить и рассказывать голосом сына, друга, дочери, родственника про то, что надо срочно выслать куда то деньги или напомнить пароль от Яндекс.Кошелька или Сбербанка.Онлайн.

Какие еще могут пакости устроить? При деловых контактах - запросто. А фейковые интервью по телефону? Да сто процентов будут.

Что делать? Как защищаться будем?
уникальные шаблоны и модули для dle
Комментарии (0)
Добавить комментарий
Прокомментировать
[related-news]
{related-news}
[/related-news]