Искусственный интеллект может статья маньяком

Учёные создали модель искусственного интеллекта с чертами психопата

Специалисты Массачусетского технологического института Пинар Янардаг, Мануэль Себриан и Ияд Рахван использовали информацию с популярного интернет-ресурса Reddit для создания первого в мире компьютерного алгоритма с характеристиками серийного маньяка.

Любитель насилия

Алгоритм получил название "Норман", в честь Нормана Бейтса, героя знаменитого триллера Альфреда Хичкока "Психо". Обучение программа проходила на подписях к изображениям, которые размещались в группе, посвящённой теме смерти и увечий.

После того как алгоритм прошёл обучение, ему предложили тест Роршаха, который обычно используется для выявления психических расстройств. Заключается он в том, что испытуемому показывают случайные изображения чернильных пятен и просят их интерпретировать.

Если ИИ, который прошёл обучение на нейтральной информации, видел в этих пятнах различные предметы повседневного обихода, например зонты или свадебные торты, то "Норман", по большей части, различал в них объекты, связанные со смертью и насилием: скажем, сцены ДТП и казней. Психиатры, которые с ним работали, объявили, что это соответствует личности классического психопата.

Формирование предрассудков

По мнению авторов разработки, алгоритмы могут влиять и на пользователей. Они могут показывать юзерам больше картинок или фраз на определённую тему.

Не так давно программисты дали ботам задание сканировать снимки и искать на них изображения лиц людей, которые могут оказаться преступниками. Предполагалось, что программы не смогут этого сделать, так как у них не имелось достаточного количества данных для того, чтобы сделать выводы. Однако, результаты, в большинстве случаев, были получены. И всякий раз "преступниками" оказывались темнокожие люди.

По словам исследователей из Университета Джона Хопкинса и Технологического института Джорджии, искусственный интеллект легко может формировать расовые и прочие предубеждения. И они могут встраиваться в информационные технологии, которыми пользуются люди.

"При кодировании вы часто просто создаёте новое программное обеспечение поверх старого", — комментирует профессор Университета штата Колорадо Зак Стюарт Роджерс.

Проблема обучения

То есть, грубо говоря, кто-то может вложить в программу свои идеи и убеждения, а впоследствии они будут транслироваться другим пользователям.

Не все готовы анализировать предъявляемую им информацию. Нередко люди просто принимают её на веру, или она "застревает" у них в подсознании. Так что, перспективы для такого "зомбирования" довольно серьёзные. Взять того же "Нормана" — если верить ему, то мир состоит в основном из ужасов и насилия. И ведь кто-то может поверить, что так и есть!

Поэтому, считают специалисты, обучение электронных алгоритмов превратилось в проблему, которую необходимо решать, если мы хотим, чтобы общество было адекватным. Ведь в будущем искусственный интеллект всё больше и больше станет контролировать нашу жизнь.

Автор Ирина Шлионская
Ирина Шлионская — автор Правды.Ру
Обсудить