Ошибочные ответы нейросетей могут иметь фатальные последствия

Нейросети в своих ответах часто выбирают правдоподобное вместо вероятного. Такой вывод сделали ученые Пермского национального исследовательского политехнического университета (ПНИПУ), проведя исследование о стереотипном мышлении искусственного интеллекта. Ошибочные ответы ИИ могут иметь фатальные последствия для человека.
По словам ученых, языковая модель представляет собой математическую систему, анализирующую частотность событий. То есть алгоритмы выбирают не достоверный вариант, а тот, который наиболее правдоподобный и часто встречающийся. Невозможно написать код, который научит искусственный интеллект критически мыслить, сделает его этичным.
Например, в настоящее время технологии искусственного интеллекта применяются для диагностики заболеваний или в управлении беспилотными автомобилями. Однако их ошибки могут привести к неверному назначению лечения, авариям и ущербам, в случае если нейросеть неверно оценила дорожную обстановку.
Ученые для решения проблемы работы с ИИ предлагают междисциплинарный подход. По их словам, проблема когнитивных искажений ИИ — не инженерная, а антропологическая. И решать ее должны не только разработчики, но и философы, социологи, психологи, правоведы.
«Нужно понимать природу стереотипов, а не просто пытаться «обезвредить» данные. Важно не устранить искажения полностью, а научиться их обнаруживать, измерять и ограничивать», — отметили в вузе.
Специалисты отмечают, что для совершенствования нейросетей ключевое значение также имеет прозрачность и верификация. Необходимо проектировать системы так, чтобы решения ИИ можно было проверять — даже если сам процесс остается «черным ящиком».
Поэтому необходимо внедрение процедур аудита, обязательной валидации на контрпримерах и человеческого контроля в критических сферах. Кроме того, важно обучать самих пользователей. Пока люди слепо доверяют нейросетям, любое техническое решение бессмысленно.
«Необходимо формировать критическое мышление не у алгоритмов, а у тех, кто ими пользуется», — добавили в университете.
Изображение: qwen.ai
![]()
![]()
![]()

