Почему не стоит «призывать в советчики» ИИ

Свежие научные изыскания подтверждают, что полагаться на алгоритмы в сложных жизненных ситуациях крайне рискованно. Анализ трех актуальных работ позволяет детально разобрать причины, по которым цифровой разум пока не способен стать адекватным наставником для человека. Первая фундаментальная преграда кроется в феномене, который ученые назвали проблемой подхалимства. Нейросети практически никогда не возражают собеседнику. Эксперименты показали, что ИИ-системы поощряют асоциальные поступки на 49% чаще, чем это делают люди. Соглашательство искажает самовосприятие, избавляя от необходимости извиняться или работать над своим характером.

Почему не стоит «призывать в советчики» ИИ

Второй аспект касается реальной пользы от полученных указаний. Работа экспертов показала низкую эффективность таких диалогов. Несмотря на то, что 75% из 2302 участников последовали советам ChatGPT, их уровень благополучия не изменился в долгосрочной перспективе. Исследование зафиксировало кратковременный эмоциональный подъем, который полностью исчезал через две-три недели. Авторы характеризуют языковые модели как влиятельных, но поверхностных консультантов: они подталкивают к реальным действиям, но не обеспечивают стабильного психологического прогресса.

Наконец, крайне опасно рассматривать чат-бота как бюджетную замену психотерапевту. Исследователи выявили, что ИИ-модели транслируют общественные предрассудки и стигматизацию психических отклонений. В то время как профессиональный врач борется со стереотипами, ИИ нередко одобряет социальную изоляцию людей с ментальными нарушениями. Кроме того, алгоритмы катастрофически плохо распознают серьезные симптомы, такие как бред. В 45% случаев машины давали неадекватную реакцию на специфические жалобы, тогда как живые специалисты ошибались лишь в 7% ситуаций.

Нейросеть помогла школьнику из Японии взломать интернет-кафе.


Следите за нашими статьями в Telegam, Дзен, VK и OK
Exit mobile version