В мире уже создаются боевые человекоподобные роботы — и всё чаще встаёт вопрос: а кто будет контролировать тех, кто сам может решать, кого уничтожить?
Китайские специалисты бьют тревогу: классические три закона робототехники, предложенные Азимовым, больше не работают. И причина в том, что гуманоиды, предназначенные для войны, изначально нарушают главный принцип — не причинять вред человеку.
Юань И, Ма Е и Юэ Шигуан в статье для издания НОАК "Цзефанцзюнь бао" настаивают: военным необходимо срочно пересмотреть этические и правовые нормы применения боевых роботов. Без этого неизбежны моральные катастрофы и юридические коллизии:
"Военные гуманоидные роботы — самое человекоподобное оружие. Массовое применение может привести к неизбирательным убийствам, за которые всё равно придётся отвечать — и морально, и юридически".
Авторы выделяют три новых этических условия, которые должны быть встроены в боевых гуманоидов:
Причём роботы должны уметь отличать людей от целей, останавливаться при чрезмерном применении силы и не вмешиваться в программы, от которых зависит жизнь человека.
Эксперты предлагают пять основных сценариев применения:
Создавая машины, похожие на нас, важно помнить: разум без морали — оружие, которое может повернуться против своего создателя.
Уточнения
Иску́сственный интелле́кт или ИИ (англ. artificial intelligence; AI) в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами.
Хищная рыба с необычной выносливостью неожиданно изменила экосистемы США. Как пришелец из Азии стал угрозой для местных водоёмов — подробности внутри.