irina (margarita_nik) wrote,
irina
margarita_nik

Category:

ЦБ предупреждает: Нейросети могут создать государство несуществующих людей

Спасибо, что предупредили))

Зампред ЦБ РФ Василий Поздышев заявил о серьезных рисках, связанных с применением искусственного интеллекта. Как рассказал представитель регулятора, даже самую сложную нейросеть можно взломать.

«У продвинутых нейросетей есть одна очень нехорошая особенность, которую в профессиональных кругах называют высокой чувствительностью к малым возмущениям. Это способность нейросети радикально переклассифицировать объект из одной категории в другую при незначительном изменении одного из его малых параметров», — цитирует РИА Новости разъяснения Поздышева.

В качестве примера он привел ситуацию, когда большинство нейросетей, решающих задачу биометрической идентификации, способно отличить мужчину от женщины или одного человека от другого, но если на лицо прилепить кусочек лейкопластыря и написать на нем слово «STOP», то некоторые нейросети переведут эту картинку из категории «лица» в категорию «дорожные знаки». Поздышев также подчеркнул, что нейросети способны создавать фейковую реальность.

«Нейросеть, если ей поставить такую задачу, очень легко может создать миллионы лиц несуществующих людей, их голоса и отпечатки пальцев — полный набор несуществующих биометрических данных, то есть можно создать целое государство несуществующих людей. И можно их сделать так, что другие нейросети будут воспринимать их как людей реальных. Аналогично можно создать несуществующие юрлица и транзакции», — отметил Поздышев.
источник
Tags: интересные факты, интернет, научные факты, технологии, ужас, фейк
Subscribe

Recent Posts from This Journal

promo margarita_nik august 20, 2018 10:59 7
Buy for 20 tokens
Для тех, кто интересуется этой темой)
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 2 comments