Вы думаете, психические проблемы бывают только у людей? Оказывается, они встречаются и у технологий, основанных на искусственном интеллекте. К таким выводам пришли недавно сотрудники Китайской академии наук (CAS) в сотрудничестве с корпорациями Tencent и WeChat. В частности, исследователи обнаружили у чат-ботов признаки депрессии, проблем с эмпатией и… алкогольной зависимости.
Толчком к анализу послужил инцидент с одним из медицинских чат-ботов, который в 2020 году порекомендовал пациенту совершить самоубийство.
Специалисты протестировали четыре популярные программы-бота на самооценку, способность расслабляться, сопереживание чужим несчастьям и частоту употребления спиртных напитков.
Результаты оказались довольно пессимистичными. Учёные выяснили, что в этом виноват материал, на котором обучают ботов. В данном случае все четыре бота проходили обучение на портале Reddit, где часто встречаются довольно одиозные посты и комментарии. Словом, они стали "обезьянничать" и копировать манеру сообщений реальных пользователей, которая была далека от корректной и часто выходила за рамки социальных норм.
Как известно, по сообщениям в социальных сетях и мессенджерах можно дать приблизительную характеристику их автора. И нередко речь и тексты выдают депрессивное состояние, склонность к суициду, отсутствие эмпатии, наличие вредных привычек. Не все люди, общаясь в Интернете, ведут себя сдержанно, и очень многие просто не находят нужным контролировать себя и свои эмоции. Разумеется, алгоритм счёл такое поведение нормальным.
Есть история о боте Tay от компании Microsoft, разработанном в рамках исследований в области коммуникации и прошедшем обучение в сети Twitter. В итоге бот научился отвечать на вопросы пользователей, рассказывать шутки, комментировать снимки, и даже имитировать речь реальных юзеров.
Но, к сожалению, ориентируясь на твиты пользователей, алгоритм начал выдавать реплики, совершенно некорректные с социальной и политической точки зрения.
К примеру, он позволял себе расистские и антифеминистские высказывания, ставил под сомнение факт Холокоста и поддерживал идеологию нацизма, поощряя массовые убийства. В конце концов, Microsoft пришлось его заблокировать.
Конечно, понятно, что бот не может на самом деле страдать депрессией или пить алкоголь, он просто имитирует модели человеческого поведения. Но ведь, со временем, роль технологий в нашей жизни будет только возрастать, и общение с "больным на голову" алгоритмом может нанести пользователям реальный вред.
Так что, сейчас одна из первостепенных задач для разработчиков — придать таким программам "иммунитет" от заражения отрицательными эмоциями живых собеседников и научить их взаимодействовать с живыми людьми безопасным образом.