Искусственный интеллект всё плотнее входит в нашу повседневную жизнь, и инструменты на его основе, такие как чат-боты и виртуальные агенты, становятся привычными помощниками.
Но за удобством скрывается серьёзная проблема: системы, построенные на больших языковых моделях (LLM), например ChatGPT и Llama, научились давать ответы, звучащие убедительно, но нередко содержащие откровенные ошибки.
Японские исследователи из Токийского университета обнаружили любопытную параллель: такие "галлюцинации" ИИ поразительно напоминают речевые нарушения у людей с афазией — заболеванием, при котором человек говорит гладко, но смысл его слов ускользает от понимания.
В последнее время ИИ всё активнее используется для генерации текстов, и эта тенденция охватывает множество сфер. Однако чем больше мы полагаемся на виртуальных советчиков, тем острее встаёт вопрос о достоверности их ответов.
ChatGPT и аналогичные сервисы умеют создавать правдоподобные тексты, вот только доверять им на все сто нельзя: сгенерированная "доверительность" легко маскирует откровенный вымысел. Неискушённый пользователь, не обладая экспертизой в теме, попросту не заметит подвоха — настолько гладко звучат фразы бота.
Профессор Такамицу Ватанабе из Токийского университета отметил, что невозможно не заметить странную особенность некоторых систем ИИ: они говорят складно, но часто ошибаются. Его команде бросилось в глаза сходство с поведением людей, страдающих афазией Вернике, — те тоже льют речь потоком, но смысл теряется. Возник вопрос: а не работают ли внутри "умных" алгоритмов похожие механизмы, что и в человеческом мозге при патологии?
Чтобы проверить гипотезу, учёные применили анализ энергетического ландшафта — метод, который физики когда-то использовали для изучения магнитных материалов, а неврологи позже адаптировали для картирования мозговой активности.
Они сравнили "рисунки" нейронных связей в спокойном состоянии мозга у пациентов с разными видами афазии и "внутренние процессы" общедоступных LLM-моделей. И получили любопытный результат: потоки сигналов в цифровых сетях зеркально повторяют хаотичные маршруты в мозге человека с речевыми нарушениями.
Сам метод проще всего представить наглядно: энергетический ландшафт — это поверхность, по которой катится шарик. Если на ней глубокие "впадины", шарик остановится, а если рельеф сглаженный — он будет беспорядочно метаться. У людей с афазией этот шарик символизирует блуждания мозга, а в языковых моделях — непрерывный цифровой сигнал, который "запутывается" из-за особенностей архитектуры и данных.
Что это даёт? Для неврологии — новый подход к диагностике и классификации состояний вроде афазии: не по словам больного, а по "чертежу" его мозговой активности. Для разработчиков ИИ — шанс создать инструменты, которые укажут на слабые места в самих алгоритмах и помогут их перестроить изнутри. Однако исследователи призывают не спешить с выводами: сходство процессов ещё не значит, что у чат-ботов "повреждён цифровой мозг".
По словам Ватанабэ, виртуальные агенты порой застревают в жёстких схемах, теряя гибкость, как люди при некоторых формах афазии. Будут ли будущие модели ИИ способны преодолеть эту "узость мышления" — покажет время.
Зато теперь ясно: понимание таких внутренних параллелей — первый шаг к по-настоящему умному и надёжному искусственному интеллекту.
ChatGPT — чат-бот с генеративным искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках.