Киберэксперт посоветовал не доверять нейросетям личную информацию

Пользователям не стоит делиться с искусственным интеллектом (ИИ) той информацией, которая не должна появиться в открытом доступе. Относиться к общению с алгоритмом нужно так же, как к общению на публичном форуме. Об этом заявил в беседе с Москвой 24 эксперт по информационной безопасности Алексей Горелкин.
Его комментарий последовал за новостью о резком скачке числа россиян, которые используют искусственный интеллект для расшифровки медицинских анализов. Он назвал серьезной проблемой рост количества запросов к ИИ психологического характера. По его наблюдениям, психологи фиксируют увеличение числа разводов из-за того, что вместо обращения к специалистам люди советуются с нейросетью.
Эксперт пояснил, что алгоритм, стремясь поддержать пользователя, часто однобоко поддерживает его точку зрения, рисуя упрощенную картину, где партнер предстает исключительно виновным, хотя реальные отношения и человеческая психология гораздо сложнее.
Говоря о медицинских запросах, Горелкин отметил, что искусственный интеллект может давать нормальные общие советы и обращать внимание на определенные симптомы, чтобы позже пользователь мог сообщить о них врачу. Однако разработчики нейросетей осознают риски и поэтому внедряют дисклеймеры о том, что ИИ не является специалистом.
«Важно понимать, что нейросеть знает меньше, чем профильный специалист, а медицина — очень сложная и индивидуальная дисциплина. Один и тот же симптом, например повышенный сахар в крови, у разных людей может иметь совершенно разное объяснение. Поэтому, хотя нейросеть и может быть первым шагом для получения общей информации, она ни в коем случае не должна заменять консультацию с квалифицированным специалистом», — подчеркнул специалист.
Он указал, что прямая привязка информации к конкретной личности маловероятна, но любые данные, в том числе медицинские, могут быть использованы для обучения алгоритмов и улучшения качества ответов.
Изображение: qwen.ai
![]()
![]()
![]()

