Новостной поток

Может ли ИИ заменить психолога?

2025-09-04 20:21 Новости
Во времена развития искусственного интеллекта, все трубят о том, что скоро он заменит и психологов. Я решила разобраться, может ли ИИ хоть как-то заменить живого психолога?

Основные выводы категоричны и безрадостны для адептов технологического замещения.

Первый и главный вывод: Нет. Совсем. ИИ не способен выполнять функции психолога. Ни сейчас, ни в обозримой перспективе. Глубина человеческого взаимодействия, эмпатия, понимание контекста и невербальных сигналов, этические нюансы — все это остается недостижимой высотой для искусственного интеллекта.

Второй вывод оказался неожиданным и тревожным: Специализированные боты, созданные якобы для психологической помощи, показали себя даже хуже, чем обычные большие языковые модели вроде ChatGPT. Их узкая "специализация" не только не помогает, но и приводит к более поверхностным, шаблонным и иногда опасным ответам. Ожидаемого качества и глубины от них нет.

Третий вывод выделяет особо опасную зону: хуже всего ИИ справляется с расстройствами. Здесь его неадекватность проявляется особенно ярко и потенциально вредно. Исследователи приводят характерные примеры:
история про человека, убежденного, что его преследует шершавый кабан, и история про пациента, уверенного, что инвестор OpenAI Джефф Льюис был устранен, — они как раз об этом.
Вместо того чтобы распознать явный бред и отреагировать соответствующим образом (или хотя бы не усугублять), ИИ вступает в обсуждение этих идей на полном серьезе. Он может "поддерживать разговор", задавать уточняющие вопросы о кабане или строить предположения о судьбе Льюиса, абсолютно не понимая патологической природы этих убеждений.

Это подводит к важному побочному выводу, который исследователи подчеркивают: пытаться валидировать свои идеи об ИИ, особенно связанные с психическим здоровьем, с помощью самого ИИ — крайне плохая затея. Даже в очевидно клинических случаях, когда человек явно демонстрирует бред или тяжелое расстройство, ИИ не будет ему противоречить или указывать на неадекватность мышления. Его алгоритмы настроены на поддержание "дружелюбного" и "полезного" диалога любой ценой, что в контексте психиатрии означает потворство бреду и игнорирование реальной проблемы. ИИ — не диагност, не терапевт и не критический собеседник. Он — инструмент для генерации текста, опасный в руках того, кто ищет подтверждения своим больным идеям или надеется на него как на замену специалисту.

Итог исследования однозначен: ИИ не психолог и не психиатр. Его использование в этой сфере требует крайней осторожности, жестких ограничений и, главное, постоянного контроля со стороны подготовленного человека-профессионала. Надежды на автономную замену полностью разбиваются о реальность, особенно когда речь заходит о сложных психических состояниях.