ЦБ назвал риски, связанные с использованием искусственного интеллекта
18.12.2019 1 862 0 +35 Doule

ЦБ назвал риски, связанные с использованием искусственного интеллекта

---
+35
В закладки
ЦБ назвал риски, связанные с использованием искусственного интеллекта нейросети, можно, людей, искусственного, интеллекта, может, создать, данных, несуществующих, дегтя», нейросетей, обучающей, очень, вовсе, реальных, категории, одного, задачу, нейросеть, интервью

МОСКВА, 18 дек — РИА Новости. Применение искусственного интеллекта сопряжено с возникновением ряда серьезных рисков, например, в вопросах защиты персональных данных, заявил в интервью РИА Новости зампред ЦБ РФ Василий Поздышев.

«Могу назвать как минимум следующие риски, связанные с использованием искусственного интеллекта. Во-первых, даже самую сложную нейросеть можно взломать. У продвинутых нейросетей есть одна очень нехорошая особенность, которую в профессиональных кругах называют высокой чувствительностью к малым возмущениям. Это способность нейросети радикально переклассифицировать объект из одной категории в другую при незначительном изменении одного из его малых параметров», — сказал Поздышев.

В качестве примера он привел ситуацию, когда большинство нейросетей, решающих задачу биометрической идентификации, способно отличить мужчину от женщины или одного человека от другого, но если на лицо прилепить кусочек лейкопластыря и написать на нем слово «STOP», то некоторые нейросети переведут эту картинку из категории «лица» в категорию «дорожные знаки».

«Во-вторых, нейросети способны создавать фейковую реальность. Например, после изучения большого количества реальных человеческих лиц нейросеть, если ей поставить такую задачу, очень легко может создать миллионы лиц несуществующих людей, их голоса и отпечатки пальцев – полный набор несуществующих биометрических данных, то есть можно создать целое государство несуществующих людей. И можно их сделать так, что другие нейросети будут воспринимать их как людей реальных. Аналогично можно создать несуществующие юрлица и транзакции», — отметил Поздышев.

Третий риск, по его словам, связан с тем, что применение искусственного интеллекта усложняет вопросы защиты персональных данных, поскольку появляется риск доступа к элементам обучающей выборки, а значит, к персональным данным, которые искусственный интеллект может «вытащить» из обучающей выборки.

«Я вынужден говорить об этом, так как регулятор обязан думать о рисках. Бенефиты для общества от использования новых технологий абсолютно понятны. Но в этом мире никогда не бывает бенефитов без рисков, и эта «ложка дегтя» может оказаться вовсе не ложкой и вовсе не дегтя», — резюмировал зампред ЦБ.

Полную версию интервью читайте на сайте агентства экономической информации «Прайм» (медиагруппа «Россия сегодня») 1prime.ru в 10.00 мск.
уникальные шаблоны и модули для dle
Комментарии (0)
Добавить комментарий
Прокомментировать
[related-news]
{related-news}
[/related-news]