- сентябрь 08, 2025

Совсем недавно в интернете появились обучающие материалы и шаблоны для пользователей, желающих использовать искусственный интеллект в роли психолога. Такие подходы обещают помощь в решении проблем, связанных с тревожностью, межличностными конфликтами и детскими травмами. Однако новое исследование, проведенное учеными из Университета Брауна, поднимает тревожные вопросы о безопасности и эффективности ИИ в области психического здоровья, передает корреспондент.
Исследование показало, что даже при условии, что ИИ получает инструкцию «действовать как терапевт», его ответы часто не соответствуют этическим стандартам, принятым в профессиональной практике. Специалисты в области психического здоровья провели анализ работы ИИ в рамках консультационных сессий.
Основное внимание было уделено этическим рискам, связанным с использованием больших языковых моделей (LLM) в качестве виртуальных консультантов. В рамках исследования протестировали несколько известных ИИ-систем, включая различные версии GPT от OpenAI, Claude от Anthropic и Llama от Meta.
Для эксперимента специально обученные консультанты провели терапевтические сессии с использованием ИИ, применяя определенные подсказки, чтобы настроить систему на стиль когнитивно-поведенческой или диалектической терапии. Позднее три дипломированных клинических психолога проанализировали ответы, полученные от чат-ботов.
В результате анализа эксперты выделили 15 различных рисков, сгруппированных в пять основных категорий:
"Необходима работа по разработке этических, образовательных и правовых стандартов для ИИ-консультантов, которые соответствовали бы качеству и строгости, требуемым в психотерапии с участием человека", — подчеркивают авторы исследования.
Ведущий исследователь, аспирант по компьютерным наукам Зайнаб Ифтихар, отметила, что простые подсказки не могут гарантировать безопасность ИИ в терапии. Исследователи также признают, что ошибки допускают и живые специалисты, однако в их случае существуют регулирующие органы и механизмы ответственности за некачественную помощь.
Авторы исследования подчеркивают, что ИИ имеет потенциал для расширения доступа к поддержке в области психического здоровья, особенно для людей, которые не могут позволить себе услуги лицензированных специалистов или не имеют к ним доступа. Однако перед широким использованием таких систем в серьезных ситуациях необходимо внедрение дополнительных мер безопасности и тщательная оценка рисков.
Эксперты уверены, что ИИ может сыграть важную роль в решении проблемы психического здоровья в современном обществе, но для этого требуется вдумчивый подход и постоянный контроль за технологиями, чтобы они не принесли больший вред, чем пользу.