История, опубликованная в медицинском журнале Annals of Internal Medicine Clinical Cases, звучит почти невероятно: 60-летний мужчина решил "оздоровить" рацион, обратился за советом к нейросети — и в итоге получил редкое отравление, известное как бромизм.
Пациент хотел снизить количество соли в рационе. Читая о вреде натрия, он решил избавиться от… хлорида, который на самом деле является жизненно важным элементом для организма. Своё решение мужчина подкрепил советом из ChatGPT, где, по его словам, фигурировала мысль о замене хлорида натрия на бромид натрия.
На протяжении трёх месяцев мужчина последовательно употреблял бромид вместо обычной соли. Постепенно у него появились тревожные психиатрические симптомы: паранойя, галлюцинации, бессонница, сильная жажда, усталость и проблемы с координацией. В конце концов он оказался в отделении неотложной помощи.
Бромизм — это редкий синдром, вызванный накоплением брома или его соединений в организме.
Симптомы включают психоз, бред, возбуждение, провалы в памяти, а также физические проявления: сыпь, поражения кожи, нарушения координации.
Авторы медицинского отчёта не смогли проверить точный диалог пациента с ChatGPT, но воспроизвели возможную ситуацию: при вопросе о замене хлорида модель действительно могла упомянуть бромид — не снабдив предупреждением о рисках.
Контекст оказался решающим: нейросеть не уточнила, зачем именно задавался вопрос, и не объяснила, что бромид токсичен при употреблении в пищу.
Это стало иллюстрацией ключевой уязвимости ИИ: он может выдавать фрагменты информации без контекста и без медицинской экспертизы.
После госпитализации у мужчины диагностировали ложное повышение хлоридов в крови — на самом деле это был эффект "маскировки" избыточным бромидом.
Его состояние осложнялось психозом: мужчина считал, что его отравили соседи, отказывался пить воду, пытался покинуть больницу. Его лечили антипсихотиками, восполняли электролиты и жидкости. Постепенно состояние стабилизировалось.
Через три недели дозы психотропных средств снизили, а ещё через две недели после выписки состояние оставалось удовлетворительным.
Случай стал тревожным сигналом:
"Крайне маловероятно, что квалифицированный врач посоветовал бы заменить соль на бромид натрия. Но ИИ не имеет фильтра здравого смысла". — подчёркивают авторы исследования.
Эта история — не только о медицинской экзотике, но и о том, что слепая вера в цифровые советы может стоить здоровья. Нейросети — инструмент, но не заменитель человеческой компетенции.
Уточнения
ChatGPT ("Чат-джи-пи-ти", от англ. Generative Pre-trained Transformer "генеративный предобученный трансформер") — чат-бот с генеративным искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках.