В России мошенники придумали новый способ похищения денежных средств. Злоумышленники распространяют в Сети фейковые видеоролики, в которых используют лица и голоса знаменитостей. При этом записи формируются с помощью нейросети, передает РИА «Новости» со ссылкой на IT-компанию «Инфосистемы Джет».
Как отмечается, при обмане используются технологии Deep Learning, которые позволяют заменить движения губ и речь человека в кадре. Обычному человеку данный фейк вычислить довольно сложно, этим и пользуются в интернете.
Так, в Сети можно найти видео, в котором мошенники используют образ известного шоумена Дмитрия Нагиева. В ролике он обещает ценный приз или денежное вознаграждение, но после перехода на сайт пользователь лишается денег. Журналистам представители Нагиева рассказали, что о данном обмане артисту ничего не известно.
Эксперты выяснили, что, когда юзер переходит по указанной ссылке, его направляют на портал, имя домена у которого сгенерировано. Данные ресурсы перестают отвечать через несколько дней, попав в черные списки. Число пострадавших пользователей пока назвать сложно, так как новые аналогичные «рекламные» видео и сайты запускаются постоянно.
Фейковые ролики (deep fake) специалисты по нейронным сетям называют серьезной угрозой. Данную технологию можно применить для шантажа, дискредитации известных персон, кроме того, она может быть составляющей недобросовестной конкуренции в бизнесе и политике.
Эксперты рассказали, как распознать фейки. Чаще всего в deep fake глаза человека находятся в статичном состоянии: они не моргают, все время открыты или полузакрыты. Настороженность также должны вызвать резкие колебания четкости изображения. При резких движениях, поворотах и наклонах вокруг контура головы в фейковых видео могут появиться странные шлейфы.
Ранее стало известно, что мошенники в интернете предлагают всем желающим стать участниками нового ток-шоу телеканала «МИР» «Игра в правду». Аферисты просят за свою «помощь» до нескольких десятков тысяч рублей.
Подробнее в сюжете: Осторожно, мошенники!
Читайте также: