Технологическая трансформация идет быстрее, чем адаптация системы здравоохранения. Современные чат-боты по-прежнему демонстрируют полную профессиональную непригодность в сфере медицины. Масштабное исследование, результаты которого на текущей неделе представил научный журнал JAMA Network Open, показало, что ведущие алгоритмы не справляются с ролью квалифицированных диагностов. В ходе эксперимента ученые предложили 21 продвинутой большой языковой модели проанализировать реальные жалобы пациентов. Итоги оказались крайне тревожными: в ситуациях с неоднозначной симптоматикой, допускающей несколько трактовок, нейросети ошибались более чем в 80 % случаев.
Ключевой проблемой стал механизм работы алгоритмов. В отличие от живых врачей, большие языковые модели преждевременно останавливаются на одном варианте, игнорируя альтернативные сценарии. По мнению ученых, существующие системы не пригодны для бесконтрольной эксплуатации в клиниках, так как дифференциальная диагностика требует особого подхода, который машины пока не способны воспроизвести. В реальных условиях подобная самоуверенность ИИ при анализе кашля или кожных высыпаний чревата получением крайне опасных рекомендаций.
Ситуация усугубляется тем, что миллионы людей уже активно используют технологии для самолечения. Особенно пугает тот факт, что миллионы людей полностью отказались от визита к специалисту после консультации с нейросетью. Основными причинами такого поведения стали нежелание оплачивать медицинские услуги или отсутствие физической возможности попасть на прием. Сегодняшнее положение дел выглядит мрачно: пациенты получают сомнительные советы от галлюцинирующих моделей вместо помощи компетентных специалистов — каждый десятый признает, что получал от ИИ потенциально вредные указания.
Россия имеет все шансы победить рак новой вакциной.
