Массовое использование технологий внутрикадрового монтажа видео с помощью нейронных сетей — дипфейков — пока не распространено.
На текущий момент, если видео в высоком разрешении, понять, что, это не реальный человек, все же можно. Об этом заявил «Известиям» 21 мая Сергей Голованов, главный эксперт «Лаборатории Касперского», комментируя сообщения представителя Банка России о рисках при идентификации банковских клиентов по видео.По словам Голованова, сейчас известны лишь отдельные случаи дипфейков, например, когда злоумышленники подделывали голос для реализации своих схем.В настоящее время, чтобы обнаружить дипфейк, можно, например, вводить дополнительные факторы при идентификации, вплоть до прямого включения по видеосвязи с выполнением
Читать на iz.ru