Интернет-мошенники активно адаптируются к эволюции технологий и уже научились применять нейросети и использовать дипфейки, сообщил РИА «Новости» ведущий исследователь данных в «Лаборатории Касперского» Владислав Тушканов.
«Генеративные сети, связанные с картинками, голосом могут быть использованы, чтобы синтезировать доказательства того, чего не было, – дипфейков. И они вполне могут использоваться в мошенничестве, например. Было много случаев, когда мошенники создавали дипфейки, чтобы писать посты в социальных сетях со ссылкой на мошенническую страницу, один из громких примеров – это использование образа Илона Маска», – рассказал специалист.
Тушканов добавил, что злоумышленники постоянно развивают свои навыки – люди перестали доверять картинкам, поэтому мошенники научились создавать дипфейковые видео, отличить которые намного сложнее.
«Тот же ChatGPT доступен под веб-интерфейс, но получить доступ можно не из любой страны, они даже на какое-то время останавливали регистрации. Мошенники этим активно пользуются. Недавно у нас было исследование: в интернете появились ресурсы якобы для скачивания клиента ChatGPT и еще сразу получить 50 долларов. Конечно, это был не клиент, а троян, и таких случаев сейчас достаточно», – отметил эксперт.
При этом законодательно запрещать искусственный интеллект по примеру властей Италии Тушканов считает неправильным. По его мнению, следует не регулировать, а правильно применять технологию.
«В разных странах разные правила. Где-то заставляют предупреждать, что ты говоришь не с человеком, а с роботом, подписывать сгенерированную картинку, чтобы не вводить людей в заблуждение, что это фотография», – отметил специалист.
Ранее стало известно, что израильские эксперты создали программу для перевода клинописи на английский язык. Ее планируют использовать для расшифровки аккадских текстов.
Подробнее в сюжете: Осторожно, мошенники!
Читайте также: