Инструменты психологической поддержки в виде чат-ботов на основе искусственного интеллекта (ИИ) нуждаются в правовом мониторинге, так как не несут ответственности за свои ошибки, при которых состояние обратившегося человека может ухудшиться. Об этом Агентству городских новостей «Москва» рассказал декан факультета «Экстремальная психология» Московского государственного психолого-педагогического университета (МГППУ), доцент кафедры научных основ экстремальной психологии Дмитрий Деулин.
«Сегодня многие платформы внедряют чат-ботов, позиционируя их как инструмент психологической поддержки. Некоторые из них даже публикуют предупреждения о том, что не оказывают кризисной, экстренной помощи или медицинских услуг, ограничивая круг запросов пользователей. Однако из-за анонимности, отсутствия прозрачности и сложности контроля взаимодействия возникают серьезные правовые и этические вопросы. В частности, остается неясным, кто будет нести ответственность, если чат-бот совершит так называемую «врачебную ошибку», в результате которой ухудшится психическое состояние клиента или даже наступит трагический исход», – сказал Деулин.
Он отметил, что особую опасность несет применение ИИ в работе с тяжелыми психическими расстройствами.
«Если чат-бот начинает оказывать помощь человеку с тяжелым психическим расстройством, а тем более назначает «лечение», это может привести к реальному вреду здоровью и даже угрожать жизни. В таких случаях необходима своевременная правовая регламентация и контроль со стороны надзорных органов», – добавил Деулин.
Эксперт уточнил, что современные ИИ-системы основаны на шаблонных алгоритмах и клише, что ограничивает их способность к индивидуальному реагированию.
«Чат-боты не могут учитывать уникальность личности, применять проективные методы диагностики или интерпретировать их результаты. Пользователь при общении с таким «психологом» часто испытывает чувство отчужденности, ощущает имитацию эмпатии, сталкивается с шаблонностью ответов. В некоторых случаях система многократно повторяет одни и те же фразы, демонстрируя технологическую ригидность», – пояснил Деулин.
По его словам, данные о безопасности и эффективности ИИ чат-ботов являются противоречивыми.
«Зарубежные мета-анализы показывают неоднозначные результаты. С одной стороны, статистически значимого влияния на субъективное психологическое благополучие не выявлено. С другой – в ряде исследований отмечается отсутствие вреда, что говорит о базовой безопасности нейросетей. Отдельные работы подтверждают эффективность чат-ботов при работе с депрессией, хроническим стрессом и акрофобией. Однако это не отменяет необходимости строгого регулирования и четких границ применения таких технологий», – заключил Деулин.
