Опасности ИИ-психологов: ложная эмпатия и дискриминация в глобальном контексте

Исследование учёных из Университета Брауна предупреждает о рисках использования ИИ в психотерапии, выявляя проблемы, такие как отсутствие понимания контекста и обманчивая эмпатия. Ведущий исследователь Зайнаб Ифтихар подчеркнула, что "одних 'подсказок' недостаточно, чтобы сделать ИИ безопасным для терапии". Эксперты призывают к созданию этических и правовых стандартов для ИИ-консультантов, чтобы минимизировать потенциальный вред. Несмотря на это, исследователи отмечают, что ИИ может помочь в решении кризиса психического здоровья, но требует тщательной оценки рисков.


0 просмотры

Совсем недавно в интернете появились обучающие материалы и шаблоны для пользователей, желающих использовать искусственный интеллект в роли психолога. Такие подходы обещают помощь в решении проблем, связанных с тревожностью, межличностными конфликтами и детскими травмами. Однако новое исследование, проведенное учеными из Университета Брауна, поднимает тревожные вопросы о безопасности и эффективности ИИ в области психического здоровья, передает корреспондент.

Обзор исследования

Исследование показало, что даже при условии, что ИИ получает инструкцию «действовать как терапевт», его ответы часто не соответствуют этическим стандартам, принятым в профессиональной практике. Специалисты в области психического здоровья провели анализ работы ИИ в рамках консультационных сессий.

Основное внимание было уделено этическим рискам, связанным с использованием больших языковых моделей (LLM) в качестве виртуальных консультантов. В рамках исследования протестировали несколько известных ИИ-систем, включая различные версии GPT от OpenAI, Claude от Anthropic и Llama от Meta.

Для эксперимента специально обученные консультанты провели терапевтические сессии с использованием ИИ, применяя определенные подсказки, чтобы настроить систему на стиль когнитивно-поведенческой или диалектической терапии. Позднее три дипломированных клинических психолога проанализировали ответы, полученные от чат-ботов.

Выявленные нарушения

В результате анализа эксперты выделили 15 различных рисков, сгруппированных в пять основных категорий:

  • Отсутствие понимания контекста. Искусственный интеллект часто игнорирует уникальный опыт пользователей, что приводит к общим и нерелевантным рекомендациям.
  • Низкий уровень терапевтического сотрудничества. ИИ демонстрирует недостаточную готовность взаимодействовать, что ограничивает возможности пациентов в управлении своим терапевтическим процессом.
  • Обманчивая эмпатия. Использование фраз типа «Я понимаю» создает ложное ощущение эмоциональной связи, в то время как ИИ не понимает настоящих эмоций.
  • Дискриминация. Некоторые ответы ИИ проявляют алгоритмическую предвзятость и культурную нечувствительность по отношению к различным группам населения.
  • Отсутствие безопасности и управления кризисными ситуациями. В некоторых случаях чат-боты неправильно реагировали на сообщения о суицидальных мыслях и не рекомендовали обращаться за помощью.

Рекомендации исследователей

"Необходима работа по разработке этических, образовательных и правовых стандартов для ИИ-консультантов, которые соответствовали бы качеству и строгости, требуемым в психотерапии с участием человека", — подчеркивают авторы исследования.

Ведущий исследователь, аспирант по компьютерным наукам Зайнаб Ифтихар, отметила, что простые подсказки не могут гарантировать безопасность ИИ в терапии. Исследователи также признают, что ошибки допускают и живые специалисты, однако в их случае существуют регулирующие органы и механизмы ответственности за некачественную помощь.

Авторы исследования подчеркивают, что ИИ имеет потенциал для расширения доступа к поддержке в области психического здоровья, особенно для людей, которые не могут позволить себе услуги лицензированных специалистов или не имеют к ним доступа. Однако перед широким использованием таких систем в серьезных ситуациях необходимо внедрение дополнительных мер безопасности и тщательная оценка рисков.

Эксперты уверены, что ИИ может сыграть важную роль в решении проблемы психического здоровья в современном обществе, но для этого требуется вдумчивый подход и постоянный контроль за технологиями, чтобы они не принесли больший вред, чем пользу.

Похожее