Может ли искусственный интеллект искажать результаты научных исследований? Оказывается, да — и это уже происходит. Всё больше социологов замечают: в анкетах, заполненных на платформах вроде Prolific и Amazon Mechanical Turk, стали появляться слишком "совершенные" ответы. Они звучат слишком гладко, слишком корректно — не по-человечески.
С момента появления ChatGPT участники онлайн-опросов получили новый "инструмент". Взамен честного ответа — сгенерированный ботом текст. И всё бы ничего, если бы это не влияло на достоверность собранных данных.
Именно это обеспокоило Джанет Сюй из Стэнфорда. Вместе с Симоной Чжан (Нью-Йоркский университет) и Эй Джеем Альверо (Корнелл) она решила провести исследование и выяснить: насколько серьёзна угроза.
Около 800 пользователей Prolific прошли опрос, в котором их прямо спросили: используют ли они ИИ при ответах?
Важно: всем респондентам пообещали, что признание не повлияет на возможность участвовать в будущем.
Учёные пошли дальше: они сравнили старые анкеты (до появления ChatGPT) с ответами, которые теперь генерируют нейросети. Результат:
Хотя массового засилья ботов в анкетах пока не наблюдается, исследователи бьют тревогу. Если такие технологии станут нормой, данные станут одинаковыми, лишёнными нюансов — и это подорвёт смысл социологии как науки.
Авторы исследования предлагают:
Ведь если искусственный интеллект начнёт отвечать вместо нас — потеряем ли мы право голоса?
Уточнения
Иску́сственный интелле́кт (англ. artificial intelligence; AI) в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами.
Хищная рыба с необычной выносливостью неожиданно изменила экосистемы США. Как пришелец из Азии стал угрозой для местных водоёмов — подробности внутри.