Петербургские студенты начали охоту за дипфейками. Разработанная ими программа способна определять, какие фотографии, видео и аудиофайлы реальные, а какие частично или полностью созданы нейросетью. С технологией познакомилась корреспондент «МИР 24» Эльмира Низамова.
В руках профессионалов нейросеть, как кукловод, способна заставить «плясать под дудочку» любого.
«Как вы относитесь к тем опасностям, которые несет в нашу жизнь искусственный интеллект и нейросети?» – так к Владимиру Путину обратились на Прямой линии. Форма шуточная. Тема – на злобу дня. В руках киберпреступников цифровые двойники выманивают деньги, портят репутацию и разжигают конфликты, даже политические.
«Предотвратить развитие невозможно, а значит надо возглавить. Нужно сделать все, чтобы мы могли быть одними из лидеров в этом направлении», – ответил президент.
«Получили результат, что Том Круз у нас на 60% фейк, а оригинальный герой только на один процент фейк. То есть он реальная личность», – рассказали студенты.
Программа считает файл фейком, если находит «следы» нейросети. На фото, например, плохо прорисованные морщины, тени в неположенных местах. А на видео неестественные движения или размытые края объектов.
«Если это звук, то существует самый простой способ вычислить фейк: перед тем, как на линии вам кто-то отвечает, происходит фиксированная задержка длительностью три-пять секунд – это время, которое нужно нейросети, чтобы сгенерировать аудиофайл. Способа два: либо она сама пытается разобрать разговор и подстроиться под него, либо оператор впечатывает текст ответа, а нейросеть его озвучивает», – пояснил студент Национального исследовательского университета ИТМО Виталий Роговой.
Технология распознает дипфейки с точностью до 98%, но разработчики продолжают ее совершенствовать на примерах. В планах вывести на рынок приложение для массового пользователя и сервис для предприятий и организаций.