Более 60% россиян не смогли отличить дипфейки от реальных фото

Исследование, проведенное аналитиками MWS AI (дочерняя структура МТС Web Services), показало, что более 60% россиян не сумели отличить фотографии, сгенерированные искусственным интеллектом (ИИ), от настоящих.
Россиянам в возрасте старше 18 лет предложили определить, какие изображения созданы при помощи нейросетей, а какие являются фотографиями: среди 10 изображений 4 были сгенерированы ИИ, а 6 — реальными снимками.
При этом три из четырех ИИ-фотографий, создала специализированная нейросеть, заточенная именно под генерацию дипфейков. Четвертый снимок выполнен с помощью обычной большой языковой модели на основе текстового описания.
Опрос выявил, что изображение, созданное с помощью обычной модели, чаще распознается как ненастоящее — 76% опрошенных верно определили, что фотография, созданная нейросетью, — фейк.
Уровень распознавания фотографий, созданных специализированными нейросетями для генерации человеческих лиц, оказался существенно ниже. Все три сгенерированных портрета большинство респондентов приняли за изображения реальных людей — в каждом случае правильных ответов оказалось менее 40%. А один из дипфейков — сразу 81% участников опроса посчитали фотографией реального человека.
«Это объясняется особенностями целевого назначения моделей — нейросети, разработанные исключительно для генерации лиц, за последние годы научились точно воспроизводить текстуру кожи, симметрию черт и светотеневые переходы, благодаря чему итоговое изображение становится практически неотличимым от реальной фотографии», — пояснили авторы исследования.
Изображение: нейросеть qwen.ai