Мошенники для хищения денег стали чаще использовать новый инструмент обмана — дипфейк-технологии. С помощью нейросети аферисты создают реалистичное видеоизображение человека, а потом выманивают деньги у его друзей и родственников.
Мошенники взламывают чужой аккаунт, берут из него фотографии, видео- и аудиозаписи человека, а искусственный интеллект анализирует черты лица, движения, голос и создает дипфейк — цифровой образ, максимально похожий на свой прототип. Сгенерированный образ мошенники рассылают знакомым и родным человека через мессенджеры или социальные сети. В коротком видеоролике виртуальный герой рассказывает, что оказался в беде, например, серьезно заболел, попал в аварию или лишился работы, и просит перевести деньги на определенный счет. На самом деле это счет мошенников. При этом злоумышленники могут создавать дипфейки работодателей, сотрудников государственных органов, известных личностей, популярных блогеров.
«Будьте осторожны при получении от своего знакомого голосового или видеосообщения с просьбой о финансовой помощи, его аккаунт могли взломать. Не спешите переводить деньги, обязательно перепроверьте информацию. Распознать дипфейк можно по неестественной монотонной речи собеседника, дефектам звука и видео, несвойственной мимике. Если нет возможности позвонить и уточнить, действительно ли человеку нужна помощь, задайте в сообщении личный вопрос, ответ на который знает только ваш знакомый», — пояснили в Отделении Банка России по Оренбургской области.
Ольга Машрапова
Пресс-служба отделения по Оренбургской области Уральского главного Управления Центрального банка Российской Федерации