Опросы больше не те: ИИ подменяет мнение человека

Может ли искусственный интеллект искажать результаты научных исследований? Оказывается, да — и это уже происходит. Всё больше социологов замечают: в анкетах, заполненных на платформах вроде Prolific и Amazon Mechanical Turk, стали появляться слишком "совершенные" ответы. Они звучат слишком гладко, слишком корректно — не по-человечески.

В чём суть проблемы

С момента появления ChatGPT участники онлайн-опросов получили новый "инструмент". Взамен честного ответа — сгенерированный ботом текст. И всё бы ничего, если бы это не влияло на достоверность собранных данных.

Именно это обеспокоило Джанет Сюй из Стэнфорда. Вместе с Симоной Чжан (Нью-Йоркский университет) и Эй Джеем Альверо (Корнелл) она решила провести исследование и выяснить: насколько серьёзна угроза.

Признания и цифры

Около 800 пользователей Prolific прошли опрос, в котором их прямо спросили: используют ли они ИИ при ответах?

Важно: всем респондентам пообещали, что признание не повлияет на возможность участвовать в будущем.

Что отличает бота от человека

Учёные пошли дальше: они сравнили старые анкеты (до появления ChatGPT) с ответами, которые теперь генерируют нейросети. Результат:

Пока не критично, но тревожно

Хотя массового засилья ботов в анкетах пока не наблюдается, исследователи бьют тревогу. Если такие технологии станут нормой, данные станут одинаковыми, лишёнными нюансов — и это подорвёт смысл социологии как науки.

Что делать

Авторы исследования предлагают:

Ведь если искусственный интеллект начнёт отвечать вместо нас — потеряем ли мы право голоса?