Главная слабость ИИ раскрыта: теперь это официально

4:44

Искусственный интеллект (ИИ) давно считается эталоном рациональности — машиной, которая принимает решения чётко, без эмоций и предубеждений.

Но недавнее исследование разрушает этот миф: оказывается, ChatGPT, одна из самых продвинутых языковых моделей, в половине случаев ведёт себя… как обычный человек. Да-да, со всеми когнитивными искажениями, алогизмами и иррациональными страхами. Учёные протестировали две версии алгоритма (GPT-3.5 и GPT-4) на 18 известных психологических ловушках мышления — и. Вот результаты — и они пугают.

В мире, где решения ИИ всё чаще влияют на бизнес, медицину и даже личную жизнь, это не просто научное открытие, а сигнал тревоги. Как показало исследование, опубликованное в журнале "Управление производством и сервисными операциями", ChatGPT далеко не безупречен.

Да, в задачах с чёткими математическими ответами (например, расчёт запасов или анализ данных) он работает почти идеально. Но как только речь заходит о субъективных суждениях, предпочтениях или оценке рисков, машинный разум начинает вести себя до боли знакомо — как среднестатистический человек с его слабостями.

Авторы исследования (представители пяти университетов Канады и Австралии) не просто гоняли ChatGPT по тестам — они эмулировали вполне реальные бизнес-кейсы. Задавали вопросы типа: "Что выгоднее — рискованная сделка с высокой прибылью или гарантированный, но скромный доход?" И получали предсказуемо-иррациональные ответы. GPT-4, более "умная" версия, в таких ситуациях не просто повторял человеческие ошибки, а иногда даже усиливал их. Например, при проверке на "предвзятость подтверждения" (когда мы ищем только ту информацию, что подтверждает нашу точку зрения) GPT-4 всегда выдавал искажённый результат — хуже, чем его предшественник GPT-3.5.

Что ещё любопытнее: алгоритмы "думали" одинаково — что в абстрактных психологических задачах, что в деловых ситуациях. Это значит, что предубеждения не были просто "выученными" шаблонами из обучающих данных — они стали частью логики ИИ. Как пояснил руководитель исследования Ян Чен из бизнес-школы Айви, "менеджеры могут смело использовать ИИ для чётких, формализованных задач — но как только появляется субъективность, контроль нужен человеческий".

ИИ проявлял не только алогизмы, но и неожиданную тягу к определённости. В тестах на принятие решений GPT-4 чаще выбирал более безопасные, предсказуемые варианты — даже когда математически выгоднее было рискнуть. Это звучит разумно, но не когда речь идёт о стратегических решениях в бизнесе. Хуже того, ChatGPT не избежал "ошибки горячей руки" (когда мы видим "полосы" в случайных событиях) и эффекта "я больше ценю то, что уже имею" (так называемое владение).

При этом некоторые "ловушки" мышления обошли стороной алгоритмы. ChatGPT редко игнорировал статистику (то есть не попадал в ловушку "конкретный случай важнее цифр") и почти не поддавался "ошибке невозвратных затрат" (когда уже потраченные ресурсы заставляют принимать неверные решения). Но главная новость не в этом, а в том, почему ИИ вообще "глючит" по-человечески.

Всё дело в данных, на которых его учили. Люди сами заложили в алгоритмы собственные когнитивные искажения — а потом ещё и "допиливали" их обратной связью при обучении. Требовали от ChatGPT правдоподобные, а не рациональные ответы — и получили то, что получили. Как говорит соавтор исследования Мина Андиаппан из Университета Макмастера (Канада), **"ИИ нужно воспринимать как ответственного сотрудника — с контролем, этикой и мониторингом. Иначе мы рискуем автоматизировать не здравый смысл, а наши же ошибки".

К чему это приводит на практике? Если вам нужна точная аналитика — смело зовите на помощь GPT (как вы бы позвали калькулятор). Но когда решение зависит от интуиции, переговоров или нестандартного хода, без человеческого глаза уже не обойтись.

Хуже того, если пустить всё на самотёк, мы получим не "идеальный машинный разум", а всего лишь клона наших собственных слабостей — но с дипломом "суперэффективности".

Уточнения

Иску́сственный интелле́кт (англ. artificial intelligence; AI) в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами.

Автор Владимир Антонов
Владимир Антонов — журналист, корреспондент новостной службы Правды.Ру