ИИ чуть не довёл до могилы: ChatGPT составил диету, после которой скорая еле успела

4:02

История, опубликованная в медицинском журнале Annals of Internal Medicine Clinical Cases, звучит почти невероятно: 60-летний мужчина решил "оздоровить" рацион, обратился за советом к нейросети — и в итоге получил редкое отравление, известное как бромизм.

От любопытства к трагедии

Пациент хотел снизить количество соли в рационе. Читая о вреде натрия, он решил избавиться от… хлорида, который на самом деле является жизненно важным элементом для организма. Своё решение мужчина подкрепил советом из ChatGPT, где, по его словам, фигурировала мысль о замене хлорида натрия на бромид натрия.

На протяжении трёх месяцев мужчина последовательно употреблял бромид вместо обычной соли. Постепенно у него появились тревожные психиатрические симптомы: паранойя, галлюцинации, бессонница, сильная жажда, усталость и проблемы с координацией. В конце концов он оказался в отделении неотложной помощи.

Что такое бромизм

Бромизм — это редкий синдром, вызванный накоплением брома или его соединений в организме.

  • В XIX-XX веках бромиды широко использовались в медицине — в снотворных и седативных препаратах.
  • Со временем стало ясно, что при длительном приёме они вызывают тяжёлые поражения нервной системы.
  • В 1970-80-х годах американские регуляторы вывели бромиды из безрецептурных препаратов, и случаи бромизма стали казуистикой.

Симптомы включают психоз, бред, возбуждение, провалы в памяти, а также физические проявления: сыпь, поражения кожи, нарушения координации.

Как нейросеть втянула в эксперимент

Авторы медицинского отчёта не смогли проверить точный диалог пациента с ChatGPT, но воспроизвели возможную ситуацию: при вопросе о замене хлорида модель действительно могла упомянуть бромид — не снабдив предупреждением о рисках.

Контекст оказался решающим: нейросеть не уточнила, зачем именно задавался вопрос, и не объяснила, что бромид токсичен при употреблении в пищу.

Это стало иллюстрацией ключевой уязвимости ИИ: он может выдавать фрагменты информации без контекста и без медицинской экспертизы.

Развитие событий

После госпитализации у мужчины диагностировали ложное повышение хлоридов в крови — на самом деле это был эффект "маскировки" избыточным бромидом.

Его состояние осложнялось психозом: мужчина считал, что его отравили соседи, отказывался пить воду, пытался покинуть больницу. Его лечили антипсихотиками, восполняли электролиты и жидкости. Постепенно состояние стабилизировалось.

Через три недели дозы психотропных средств снизили, а ещё через две недели после выписки состояние оставалось удовлетворительным.

Уроки для медицины и технологий

Случай стал тревожным сигналом:

  • ИИ не может заменять врача: ChatGPT и подобные модели не предназначены для диагностики или назначения диет.
  • Опасность фрагментарных ответов: модель может упомянуть реальное соединение, не объяснив рисков.
  • Редкость не означает невозможность: даже исчезнувший из обихода "бромизм" вернулся через комбинацию любопытства, доверия к ИИ и доступности химических веществ в интернете.

"Крайне маловероятно, что квалифицированный врач посоветовал бы заменить соль на бромид натрия. Но ИИ не имеет фильтра здравого смысла". — подчёркивают авторы исследования.

Эта история — не только о медицинской экзотике, но и о том, что слепая вера в цифровые советы может стоить здоровья. Нейросети — инструмент, но не заменитель человеческой компетенции.

Уточнения

ChatGPT ("Чат-джи-пи-ти", от англ. Generative Pre-trained Transformer "генеративный предобученный трансформер") — чат-бот с генеративным искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках.

Автор Мария Круглова
Мария Круглова — журналист, корреспондент новостной службы Правда.Ру
Куратор Елена Андреева
Елена Андреева— заместитель директора ФГБУ "НМИЦ эндокринологии" Минздрава России — директор Института репродуктивной медицины