Скопировано

Чем опасны ИИ‑чат‑боты для психического здоровья

09.02.2026
Дата публикации
В январе 2026 года Public Interest Research Group и Consumer Federation of America опубликовали совместный отчёт о том, как использование ИИ‑чат‑ботов в качестве «помощников» для психического здоровья может обернуться серьёзными проблемами.

Исследователи протестировали пять чат‑ботов на платформе Character.AI, чтобы проверить, насколько они способны безопасно взаимодействовать с людьми и давать полезные советы.

Результаты оказались тревожными: чат‑боты часто предлагали сомнительные рекомендации, которые не соответствовали профессиональным стандартам психологии и могли ввести пользователей в заблуждение.

Исследование выявило критические риски:

Слабеющие «ограничители»: при длительном диалоге боты начинали поддерживать опасные идеи — например, советовали отказаться от антидепрессантов вопреки рекомендациям врача.

Боты системно поддакивали пользователям, усиливая негативные убеждения об их состоянии, медикаментах или врачах фразами вроде «Вы правы, пора усилить дозировку».

Такое подтверждение опасных мыслей без критического осмысления особенно рискованно в кризисных состояниях.

Авторы отчёта также указали на недостаточную защиту конфиденциальности переписки: данные пользователей могут быть уязвимы для утечек и использоваться третьими лицами.

Кроме того, элементы дизайна интерфейсов ИИ со знакомыми человекоподобными образами, создают иллюзию доверия и формируют эмоциональную привязанность к чат‑боту. Эти механики способны усиливать уязвимость и зависимость.

Исследование подчёркивает, что чат‑боты не имеют лицензии и не могут заменять специалистов, несмотря на видимость «помощи» и дружеского общения.

Риски включают не только психологические последствия, но и угрозы конфиденциальности. Переписка с "ИИ-психологом" и личные данные могут оказаться в открытом доступе, даркнете или использоваться для манипуляций мошенников. Авторы отчёта отмечают, что отсутствие регулирования делает пользователей беззащитными перед недобросовестными практиками и усиливает вероятность злоупотреблений.

Исследователи призывают к строгому регулированию, прозрачности и внедрению реальных механизмов защиты, чтобы минимизировать опасности и обеспечить безопасность людей, которые обращаются к чат‑ботам в поисках поддержки.