Мошенники начали использовать искусственный интеллект для создания текстового, визуального или аудиовизуального контента. Таким образом у них получается от лица близких людей или доверенных лиц убеждать жертв переводить деньги. Об этом сообщает ТАСС со ссылкой на официального представителя МВД РФ Ирину Волк.
По словам Волк, в основе таких схем лежит способность генеративных моделей создавать правдоподобный текстовый, визуальный или аудиовизуальный контент, который воспринимается потерпевшим как подлинный.
Представитель МВД привела пример: неизвестный получил доступ к чужому аккаунту, используя нейросеть, он отправил голосовое сообщение с просьбой перевести 35 тысяч рублей через систему быстрых платежей. Человек, которому пришло сообщение, решил, что просьба поступила от его сестры, и перевел указанную сумму.
Ранее сообщалось, то в России злоумышленники начали похищать аккаунты на портале «Госуслуги», прикрываясь темой капитального ремонта. По новой схеме мошенники создают фейковые Telegram-чаты якобы от имени местных органов власти и приглашают жителей проверить «правильность данных» и записаться в очередь на проведение работ по капремонту.
Кроме того, мошенники стали вынуждать россиян устанавливать вредоносное ПО от имени правоохранителей под предлогом защиты финансов. Злоумышленники звонят потенциальной жертве, представляются сотрудниками правоохранительных органов и сообщают об угрозе хищения средств. Для «спасения» денег они присылают файлы для скачивания.
