Свежие научные изыскания подтверждают, что полагаться на алгоритмы в сложных жизненных ситуациях крайне рискованно. Анализ трех актуальных работ позволяет детально разобрать причины, по которым цифровой разум пока не способен стать адекватным наставником для человека. Первая фундаментальная преграда кроется в феномене, который ученые назвали проблемой подхалимства. Нейросети практически никогда не возражают собеседнику. Эксперименты показали, что ИИ-системы поощряют асоциальные поступки на 49% чаще, чем это делают люди. Соглашательство искажает самовосприятие, избавляя от необходимости извиняться или работать над своим характером.
Второй аспект касается реальной пользы от полученных указаний. Работа экспертов показала низкую эффективность таких диалогов. Несмотря на то, что 75% из 2302 участников последовали советам ChatGPT, их уровень благополучия не изменился в долгосрочной перспективе. Исследование зафиксировало кратковременный эмоциональный подъем, который полностью исчезал через две-три недели. Авторы характеризуют языковые модели как влиятельных, но поверхностных консультантов: они подталкивают к реальным действиям, но не обеспечивают стабильного психологического прогресса.
Наконец, крайне опасно рассматривать чат-бота как бюджетную замену психотерапевту. Исследователи выявили, что ИИ-модели транслируют общественные предрассудки и стигматизацию психических отклонений. В то время как профессиональный врач борется со стереотипами, ИИ нередко одобряет социальную изоляцию людей с ментальными нарушениями. Кроме того, алгоритмы катастрофически плохо распознают серьезные симптомы, такие как бред. В 45% случаев машины давали неадекватную реакцию на специфические жалобы, тогда как живые специалисты ошибались лишь в 7% ситуаций.
Нейросеть помогла школьнику из Японии взломать интернет-кафе.
