Галлюцинации ИИ: глобальная проблема технологий современности ставит мир на колени

6:14

Искусственный интеллект (ИИ) становится всё более совершенным, но вместе с этим растёт и количество ошибок, которые он допускает, выдавая ложную или неточную информацию, известную как "галлюцинации".

Недавнее исследование, проведённое компанией OpenAI, выявило, что их самые передовые модели логического мышления, o3 и o4-mini, демонстрируют галлюцинации в 33% и 48% случаев соответственно при тестировании на специализированном бенчмарке.

Это значительно превышает показатели более ранней модели o1, где уровень ошибок был более чем в два раза ниже. Хотя модель o3 оказалась точнее своей предшественницы, исследователи отметили, что её ошибки стали более серьёзными и вводящими в заблуждение.

Эти данные вызывают серьёзные вопросы о надёжности и точности больших языковых моделей (LLM), таких как чат-боты, работающие на основе ИИ. Один из специалистов в области этики ИИ из Университета Сингулярности подчеркнул, что системы, выдающие выдуманные факты, цитаты или события с той же уверенностью, что и достоверные данные, могут вводить пользователей в заблуждение, причём иногда незаметно, но с серьёзными последствиями.

Эксперты указали, что такие проблемы подчёркивают важность строгой проверки информации, генерируемой ИИ, особенно при использовании сложных языковых моделей.

В чём суть моделей логического мышления? Их задача — решать сложные проблемы, разбивая их на части и предлагая решения для каждой из них. В отличие от традиционных подходов, где ответы основаны на статистической вероятности, такие модели имитируют человеческое мышление, предлагая стратегии решения задач. Однако для поиска новых и творческих решений ИИ должен генерировать "галлюцинации" — иначе он будет ограничен лишь повторением уже известных данных.

Один из исследователей ИИ из компании Vectra AI отметил, что галлюцинации являются не ошибкой, а неотъемлемой частью работы ИИ. Он пояснил, что всё, что выдаёт языковая модель, по сути, является галлюцинацией, но некоторые из них оказываются правдой. Если бы ИИ ограничивался только точным воспроизведением данных из обучающей выборки, его возможности свелись бы к простому поиску. Например, без способности к "галлюцинациям" ИИ не смог бы создавать новый код, открывать неизвестные свойства молекул или генерировать оригинальные тексты, такие как концептуальный альбом, сочетающий стили разных исполнителей.

Тем не менее, галлюцинации становятся проблемой, когда ИИ выдаёт ложную информацию, особенно если пользователи принимают её за истину без проверки. Это особенно опасно в сферах, где точность данных критически важна, таких как медицина, право или финансы.

Специалист по этике ИИ указала, что, хотя новые модели могут уменьшить количество явных ошибок, проблема сохраняется в более скрытых формах, подрывая доверие к ИИ как к надёжному инструменту. Она добавила, что по мере развития технологий ошибки становятся менее очевидными, но их сложнее обнаружить, так как ложная информация часто встраивается в правдоподобные и логичные повествования. Это создаёт риск, что пользователи будут считать такие данные достоверными, не подозревая о возможных искажениях.

Исследователь из Vectra AI также отметил, что, несмотря на ожидания, что проблема галлюцинаций со временем будет решена, последние модели ИИ, наоборот, демонстрируют рост числа ошибок, и пока нет единого объяснения этому явлению. Ситуация осложняется тем, что механизмы работы языковых моделей остаются недостаточно изученными, подобно тому, как до сих пор не до конца понятен человеческий мозг. Генеральный директор компании Anthropic, занимающейся разработкой ИИ, в своём эссе указал, что мы пока не понимаем, почему ИИ выбирает те или иные слова или допускает ошибки, даже если в большинстве случаев работает корректно.

Проблемы, связанные с неточной информацией от ИИ, уже проявляются в реальной жизни. Исследователь из Vectra AI привёл примеры, когда чат-боты выдумывают несуществующие ссылки или придумывают правила компании, что становится всё более распространённым явлением. Он подчеркнул, что пока не существует универсального способа гарантировать точность ответов ИИ на любые вопросы, связанные с доступными ему данными.

Полностью избавиться от галлюцинаций ИИ, особенно в самых продвинутых моделях, будет крайне сложно, отметили эксперты. Однако существуют подходы, которые могут смягчить эту проблему.

Специалист по этике ИИ предложила использовать метод генерации с дополненной выборкой, при котором ИИ опирается на проверенные внешние источники, чтобы повысить достоверность информации. Она также указала на возможность внедрения структурированных рассуждений, побуждающих модель проверять свои выводы, сравнивать разные точки зрения или следовать логическим шагам, что снижает риск необоснованных предположений. Кроме того, она отметила, что ИИ можно обучить распознавать собственную неуверенность, чтобы вместо уверенных, но ошибочных ответов он сигнализировал о необходимости проверки или вмешательства человека. Хотя эти методы не устраняют проблему полностью, они делают результаты работы ИИ более надёжными.

В свою очередь, исследователь из Vectra AI подчеркнул, что к информации, генерируемой языковыми моделями, следует относиться с той же долей скептицизма, что и к информации от людей, особенно учитывая, что галлюцинации остаются неотъемлемой частью работы ИИ.

Уточнения

Иску́сственный интелле́кт (англ. artificial intelligence; AI) в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами. 

Автор Владимир Антонов
Владимир Антонов — журналист, корреспондент новостной службы Правды.Ру