Ученые Массачусетского технологического института заявляют: у ИИ нет последовательных ценностей.
Исследователи подчеркнули, что "согласование" систем ИИ — это сложная задача, поскольку ИИ в своем нынешнем виде часто галлюцинирует и имитирует, что делает его непредсказуемым. Стивен Каспер, аспирант MIT и соавтор исследования, отметил, что модели не подчиняются предположениям о стабильности и экстраполяции.
Каспер и его команда изучили модели от крупных компаний, чтобы понять, насколько они демонстрируют устойчивые взгляды и ценности. В результате выяснили, что модели не были последовательными в своих предпочтениях и меняли свои точки зрения в зависимости от контекста.
Каспер считает, что это доказывает, что модели крайне "непоследовательны и нестабильны", не обладая устойчивыми убеждениями. Он подчеркнул, что на самом деле ИИ — это подражатели, которые генерируют небылицы.
Майк Кук, научный сотрудник Королевского колледжа Лондона, поддержал выводы исследования, отметив, что многие приписывают ИИ человеческие качества, что может ввести в заблуждение. Все зависит от того, как мы формулируем и описываем поведение ИИ, пишет finance. yahoo.
Уточнения
В более общем смысле экстраполяция — перенос выводов, сделанных относительно какой-либо части объектов или явлений, на всю совокупность данных объектов или явлений, а также на их другую какую-либо часть.