Названы способы распознать дипфейк при видеозвонке

Российские банки готовы протестировать идентификацию клиентов через видеосвязь, но эксперты предупреждают о рисках подмены личности с помощью deepfake. Об этом рассказал Дмитрий Крюков, руководитель отдела машинного обучения «МТС Линк».
По словам эксперта, основная угроза — это использование мошенниками нейросетей для создания фейковых видео. Например, злоумышленники могут «наложить» чужое лицо на изображение и получить доступ к банковским услугам.
Распознать подделку можно по неестественной мимике, задержкам между речью и движением губ, а также нехарактерным интонациям. Дополнительные признаки фейка — размытое изображение, микроколебания цвета или артефакты, которые появляются при резких движениях.
Крюков советует использовать платформы видеосвязи с защитой от DDoS-атак, шифрованием данных и двухфакторной аутентификацией. Например, биометрические системы вроде VisionLabs анализируют направление взгляда, одежду и движения, определяя, живой человек в кадре или цифровая копия.
Эксперт подчеркнул, что технологии deepfake постоянно улучшаются, из-за чего фейковые видео становится всё сложнее отличить от настоящих. Он рекомендовал пользоваться платформами видео-конференц-связи (ВКС), в которые встроены технологии, повышающие безопасность пользователей.
Изображение: нейросеть qwen.ai