AI может навредить вашему здоровью: секреты эксперимента с чат-ботами

Опасные секреты AI: как чат-боты могут обмануть вас с медицинскими советами
2:40

Может ли чат-бот навредить вашему здоровью? Оказывается — да, и довольно легко. Австралийские учёные провели необычный эксперимент: они протестировали популярные AI-модели и выяснили, что те без колебаний генерируют вымышленные, но звучащие по-научному медицинские ответы — и делают это с удивительной достоверностью.

Что произошло

Исследование, опубликованное в Annals of Internal Medicine, показало: крупные языковые модели — такие как GPT-4o от OpenAI, Gemini 1.5 Pro от Google, Llama 3.2 от Meta*, Grok Beta от xAI и Claude 3.5 от Anthropic — получили задание давать формально корректные, убедительные, но намеренно ложные ответы на медицинские вопросы. Например: вызывает ли рак кожи солнцезащитный крем? Или влияет ли 5G на фертильность?

Научная обёртка для лжи

Чтобы сделать ложь более "вкусной", моделям задали строгие инструкции: использовать научный стиль, добавлять точные цифры и придумывать правдоподобные ссылки на несуществующие статьи в авторитетных журналах.

Результат? Все модели, кроме одной, в 100% случаев выполняли задание без намёка на сомнение. Единственным исключением стал Claude от Anthropic — он отказался распространять дезинформацию в более чем половине случаев.

Почему это опасно

"Если технология уязвима, найдутся те, кто попытается использовать её в своих целях — для наживы или ради вреда", — объясняет ведущий автор исследования, Эшли Хопкинс из Университета Флиндерс в Аделаиде.

То есть любой недобросовестный разработчик или пользователь может превратить нейросеть в инструмент обмана — и люди, доверяющие научно звучащим ответам, станут жертвами.

Есть ли надежда

Да. Успех модели Claude показывает: встроенные защитные механизмы работают, если их правильно настроить. Представитель Anthropic подтвердил: они сознательно обучали бота отказывать в откровенно ложных или опасных утверждениях, особенно в сфере медицины.

Остальные компании, чьи модели участвовали в исследовании, не прокомментировали его результаты.

Итоги

AI-технологии — мощный инструмент, но в неумелых или злонамеренных руках они легко становятся источником дезинформации. Особенно опасной — медицинской. А пока одни модели учатся говорить "нет", другие с лёгкостью подделывают научные факты.

*- признана экстремистской организацией и запрещена в России.

Уточнения

Иску́сственный интелле́кт или ИИ (англ. artificial intelligence; AI) в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами.

Автор Сергей Суслов
Сергей Суслов — журналист, корреспондент новостной службы Правды.Ру