Как слепое доверие к ИИ привело к редкому отравлению
Попытка мужчины полностью исключить соль из рациона по совету ChatGPT обернулась госпитализацией с диагнозом «бромизм» — редким заболеванием, практически исчезнувшим в современной медицине. Этот случай демонстрирует риски бездумного следования рекомендациям искусственного интеллекта в вопросах здоровья. 60-летний пациент, стремясь снизить потребление поваренной соли (хлорида натрия), последовал совету чат-бота и начал использовать бромид натрия — вещество, применяемое в пестицидах, дезинфектантах для бассейнов и ветеринарной практике. Результатом стало тяжелое отравление с психотическими симптомами, потребовавшее медицинского вмешательства.
Вплоть до середины XX века различные бромиды широко применялись в медицине как седативные и противосудорожные средства. Однако со временем стало очевидно, что эти соединения обладают способностью накапливаться в организме, вызывая тяжелую интоксикацию. Передозировка бромидами может проявляться целым спектром неврологических симптомов — от спутанности сознания и нарушений речи до галлюцинаций, психозов и комы. Журналисты провели собственное расследование, воспроизведя диалоги с ChatGPT. На запрос о замене хлорида натрия система действительно предложила использовать бромид натрия, хотя и уточнила контекст применения.
Критически важно, что ИИ не предупредил о токсичности этого соединения и, судя по всему, не понимал, что пользователь ищет безопасную альтернативу пищевой соли. Этот случай произошел с использованием ChatGPT-3.5 или ChatGPT-4. Данный пример ярко иллюстрирует, почему к медицинским советам искусственного интеллекта следует относиться с крайней осторожностью. Даже самые совершенные языковые модели пока не могут заменить профессиональную медицинскую консультацию и могут представлять реальную опасность при слепом доверии.
Тем временем ChatGPT превращается в полноценного цифрового помощника.




