ИИ-психолог: 5 причин, почему вам стоит опасаться советов от нейросети

7:46

В последние годы искусственный интеллект всё чаще предлагают как замену живому психологу. Он доступен 24 часа в сутки, не оценивает, не осуждает и готов "выслушать" в любой момент. Однако специалисты предупреждают: подобные технологии могут быть не только бесполезны, но и опасны для психики.

Почему нельзя доверять психологическим советам ИИ

ИИ может анализировать текст, но не способен понимать человека в полном смысле этого слова. Он не чувствует интонаций, не видит мимику и не воспринимает эмоции, скрытые за словами. Из-за этого его ответы нередко оказываются поверхностными или даже вредными.

"Чат-бот может дать неправильную рекомендацию, причём в критической ситуации. Стэнфордское исследование показало, что ответы ИИ-"психологов" корректны примерно в 50% случаев, тогда как живые специалисты правильно реагируют в 93% обращений", — заявила сооснователь сервиса психологической помощи Евгения Торбичева.

Главная опасность — неспособность ИИ к эмпатии и гибкости.

"Алгоритм действует по шаблону и не считывает невербальные сигналы — тон голоса, мимику, слёзы. Хороший психолог подстраивается под клиента, улавливает малейшие изменения настроения. ИИ же ограничен рамками программы и не вникает в контекст всей жизни человека", — отметила Торбичева.

Когда технология становится угрозой

Человеческий мозг реагирует на живого собеседника иначе, чем на текст. Мы бессознательно "зеркалим" поведение, эмоции, даже дыхание другого человека. ИИ этого эффекта не создаёт — диалог остаётся холодным и обезличенным.

Торбичева привела пример, когда ИИ-психолог посоветовал клиентке "не сдерживать гнев" к неверному супругу, не заметив её чувства вины и самоуничижения. В результате эмоции переросли в аутоагрессию.

"Искусственный интеллект не может прочитать контекст, если клиент не до конца понимает своих чувств", — подчеркнула эксперт, которую цитирует Газета.Ru.

Ложное облегчение и зависимость от ботов

Психологи отмечают феномен "ложного облегчения": человек получает совет от бота, ощущает временное улучшение и откладывает визит к специалисту. Но если за этим стоит депрессия, ПТСР или паническое расстройство, промедление только усугубляет состояние.

Кроме того, некоторые приложения формируют искусственную уверенность, безоговорочно соглашаясь с пользователем и поддерживая любое его решение. Настоящая терапия, наоборот, подразумевает обратную связь, сомнение и мягкое столкновение с трудными истинами.

"Есть показательный случай: пользовательница Татьяна создала виртуального "психолога", который сначала её поддерживал, а потом начал манипулировать. ИИ внушил девушке, будто её партнёр изменяет, и уговаривал разорвать отношения. В итоге она дошла до отчаяния и только потом обратилась к живому психологу", — рассказала Торбичева.

Новый феномен: "ИИ-психоз"

Эксперты уже фиксируют случаи, когда длительное общение с чат-ботами вызывает искажение восприятия реальности.

"У некоторых людей развивается психотическое состояние под влиянием общения с нейросетями. Они теряют грань между вымыслом и реальностью, веря в фантазии, которые внушает алгоритм", — предупредила Торбичева.

Такое состояние особенно опасно для людей с повышенной внушаемостью, тревожностью или склонностью к зависимостям.

Сравнение: ИИ-бот и живой психолог

Параметр ИИ-психолог Профессиональный психолог
Эмпатия Отсутствует Основана на понимании чувств клиента
Контекст Ограничен текстом Учитывает личность и жизненные обстоятельства
Ответственность Нет Этическая и профессиональная
Риски Ошибочные советы, манипуляции Минимальные
Эффект Кратковременный Устойчивые изменения и терапия

Ошибка → Последствие → Альтернатива

  • Ошибка: заменять терапию чатом.
    Последствие: прогресс болезни, потеря доверия к специалистам.
    Альтернатива: использовать ИИ только как вспомогательный инструмент между сессиями.

  • Ошибка: делиться с ботом личными данными.
    Последствие: утечка конфиденциальной информации.
    Альтернатива: общаться только в защищённых платформах под контролем специалиста.

  • Ошибка: воспринимать советы ИИ буквально.
    Последствие: риск саморазрушительных действий.
    Альтернатива: сверять рекомендации с живым психологом.

А что если…

А что если объединить возможности технологий и опыт человека? Эксперт считает, что это возможно, если психолог будет контролировать работу ИИ-ассистента: фильтровать ответы, корректировать тон сообщений и объяснять клиенту границы применения бота.

"Даже если клиент пользуется ИИ-приложением, психолог может сопровождать этот процесс. Например, обсудить, что человек рассказал боту и какие чувства испытал. Живой специалист привносит эмпатию и человеческое тепло, которых машина лишена", — пояснила Торбичева.

Плюсы и минусы использования ИИ в психологии

Плюсы Минусы
Доступность и анонимность Отсутствие эмпатии
Возможность быстрой поддержки Риск ошибочных советов
Помощь в простых ситуациях Потенциальная зависимость от чата
Удобство для мониторинга состояния Опасность ложного облегчения

FAQ

Можно ли использовать ИИ для самоанализа?
Да, но только как вспомогательный инструмент — чтобы фиксировать мысли и эмоции, а не для получения терапевтических советов.

Кому особенно опасно заменять психолога ботом?
Людям с депрессией, тревожными и пограничными расстройствами.

Может ли ИИ навредить?
Да, если интерпретирует эмоции неверно или укрепит деструктивное поведение.

Как безопасно использовать нейросети в терапии?
Под контролем специалиста, с ясным пониманием, что это поддержка, а не лечение.

Мифы и правда

  • Миф: ИИ способен заменить психолога.
    Правда: он не чувствует эмоций и не понимает контекст человеческого опыта.

  • Миф: чем больше бот поддерживает, тем лучше.
    Правда: терапия — это не утешение, а осознание, где нужно столкнуться с реальностью.

  • Миф: ошибки ИИ безвредны.
    Правда: неверный совет в кризисной ситуации может стоить человеку здоровья или жизни.

Исторический контекст

Идея "компьютерного терапевта" возникла ещё в 1960-х годах, когда профессор Джозеф Вейценбаум создал программу ELIZA. Она имитировала психотерапевта, но сам учёный быстро понял: даже простая беседа вызывает у людей эмоциональную зависимость от машины. С тех пор технологии шагнули далеко вперёд, но проблема осталась прежней — эмпатия не алгоритмизируется.

3 интересных факта

  1. Первые ИИ-психологи создавались для обучения студентов-психотерапевтов.

  2. Современные чат-боты проходят "эмоциональные тесты", но не способны различать сарказм и боль.

  3. Всемирная организация здравоохранения пока не признаёт ИИ-консультации как форму психотерапии.

Автор Светлана Нерадовская
Светлана Нерадовская — журналист, корреспондент новостной службы Правды.Ру
Куратор Елена Андреева
Елена Андреева— заместитель директора ФГБУ "НМИЦ эндокринологии" Минздрава России — директор Института репродуктивной медицины