Учёные обнаружили, что нейросети могут распространять стереотипы

Учёные обнаружили, что нейросети могут распространять стереотипы о людях

1:16

Искусственный интеллект (ИИ) пробивает себе дорогу в различные аспекты человеческой жизни, с каждым днем проникая все глубже. Однако ученые все больше обеспокоены тем, насколько нейронные сети становятся самореферентными, что приводит к распространению ошибок. Другая значительная опасность заключается в широком распространении ошибочных представлений и негативных стереотипов о людях.

Негатив в Интернете

В виртуальной сфере агрессия, негативные комментарии, сомнительные предложения и выводы распространяются как плодовые мухи. ИИ собирает, синтезирует и использует эту "информацию" как надежный источник, формируя свои рекомендации на основе таких "данных".

Ошибки в юриспруденции

Согласно недавнему исследованию, опубликованному в журнале Science, это действительно серьезная угроза. Например, юристы полагаются на советы нейросетей при ведении судебных процессов и вынесении вердиктов.

Если ИИ, впитав негативные мнения об "ограниченности компетенции" определенных социальных групп, начнет давать соответствующие рекомендации в конкретных случаях, юридические ошибки будут встречаться все чаще.

Нейросети: прекрасное будущее или апокалипсис? | ChatGPT, Midjorney и дипфейки
Автор Олег Логинов
Олег Логинов — студент НИУ ВШЭ, внештатный корреспондент Правды.Ру
Обсудить