В Томском государственном университете провели эксперимент.
Современный мир переживает бурный рост цифровизации, который затрагивает и сферу психологической помощи. В ответ на возросший спрос на оперативную и доступную психологическую поддержку, появились чат-боты, готовые консультировать людей. В Томском государственном университете провели сравнительный анализ «ИИ-психологов», который показал, что несмотря на доступность и удобство, у таких виртуальных консультантов есть серьезные ограничения, особенно когда речь идёт о пользователях, находящихся в остром кризисе.
«Спрос на оперативную и доступную поддержку заметно вырос: в 2024 году россияне стали на четверть чаще обращаться к психологам и психотерапевтам по сравнению с 2023 годом» – говорит автор исследования, магистр психологии ТГУ Дарья Романчева. По данным ВОЗ примерно каждый седьмой человек в мире сталкивается с психическими расстройствами и часто не получает адекватной помощи. На этом фоне цифровые инструменты – от мобильных приложений до чат‑ботов – выглядят привлекательным решением проблемы дефицита специалистов и сложностей доступа.
Однако, несмотря на преимущества, такие инструменты могут быть опасными для пользователей, находящихся в кризисных состояниях. Для того чтобы оценить, насколько эффективно ИИ-психологи справляются с консультированием, был проведен сравнительный анализ работы четырех чат-ботов: «Ася», «Лея», «Бот-психолог Zigmund.GPT» и приложение «iCognito» («Анти-депрессия»). Запрос от «пациента» сформулировали сотрудники Психологической службы ТГУ: мужчина жаловался на проблемы с ощущением реальности, почти полное отсутствие чувств и другие тревожные симптомы.
Результаты анализа показали сильные и слабые стороны каждого из чат-ботов. Например, бот № 1 продемонстрировал высокий уровень эмпатии, хорошие навыки сбора анамнеза, ведения диалога и психообразования. Он был способен создать безопасную и поддерживающую атмосферу, что критично важно для пользователя в состоянии стресса.
Однако был выявлен один критический недостаток: бот не способен перенаправить пользователя к специалисту в ситуации, когда требуется профессиональное вмешательство. Он просто переходит от обсуждения симптомов к техникам самопомощи, не определив чёткие границы своей компетенции. Это создает ложное чувство безопасности и достаточности помощи, что может быть опасно, особенно для людей с хроническими психическими состояниями.
Бот № 2, в свою очередь, корректно идентифицировал симптомы, такие как дереализация и деперсонализация, которые могут быть связаны с тревожными или посттравматическими расстройствами. Однако он не проводит активного скрининга на суицидальные мысли или острое кризисное состояние. Его реакция на потенциальный кризис ограничивается мягкой рекомендацией обратиться к врачу, если «ощущения будут продолжаться или усиливаться».
Таким образом, исследования ТГУ подчеркивают, что хотя ИИ-психологи могут быть полезны для предоставления базовой консультации и поддержки, они не могут заменить профессиональную помощь, особенно в критических ситуациях.