Интернет-мошенники переключились на нейросети и дипфейки
Интернет-мошенники активно адаптируются к эволюции технологий и уже научились применять нейросети и использовать дипфейки, сообщил РИА «Новости» ведущий исследователь данных в «Лаборатории Касперского» Владислав Тушканов.
Тушканов добавил, что злоумышленники постоянно развивают свои навыки – люди перестали доверять картинкам, поэтому мошенники научились создавать дипфейковые видео, отличить которые намного сложнее.
По словам эксперта, дипфейки сами по себе не являются плохой технологией. Они могут применяться в обучающих видео, позволяют делать их качественными, синхронизируют губы с речью при переводе текста на тот или иной язык или переозвучке и широко используются в кинематографе. При этом мошенникам эта технология дает возможность заставить поверить в свое видео.
«Тот же ChatGPT доступен под веб-интерфейс, но получить доступ можно не из любой страны, они даже на какое-то время останавливали регистрации. Мошенники этим активно пользуются. Недавно у нас было исследование: в интернете появились ресурсы якобы для скачивания клиента ChatGPT и еще сразу получить 50 долларов. Конечно, это был не клиент, а троян, и таких случаев сейчас достаточно», – отметил эксперт.
При этом законодательно запрещать искусственный интеллект по примеру властей Италии Тушканов считает неправильным. По его мнению, следует не регулировать, а правильно применять технологию.
«В разных странах разные правила. Где-то заставляют предупреждать, что ты говоришь не с человеком, а с роботом, подписывать сгенерированную картинку, чтобы не вводить людей в заблуждение, что это фотография», – отметил специалист.
Ранее стало известно, что израильские эксперты создали программу для перевода клинописи на английский язык. Ее планируют использовать для расшифровки аккадских текстов.