Эксперты убеждают ООН: роботы-убийца угрожают будущему человечества

Сто шестнадцать экспертов из 26 стран мира обратились к ООН с призывом запретить использование и разработку автономного оружия, иначе говоря — роботов-убийц.

Среди авторов обращения — гендиректор SpaceX Илон Маск и основатель компании, занимающейся искусственным интеллектом, DeepMind Мустафа Сулейман. Напоминая о пунктах Конвенции об обычных вооружениях, эксперты предупреждают, что новая гонка вооружений грозит миру третьей революции в это области, сравнимой с изобретением пороха и ядерного оружия.

"Если ящик Пандоры будет открыт, закрыть его будет крайне сложно", уверены эксперты. По их мнению, когда будет создано автономное летальное оружие, военные действия будут вестись уже на совершенно другом уровне и в невероятно сжатые сроки.

"Новый тип вооружения может стать оружием диктаторов и террористов, используемым против мирного населения. Хакеры смогут взламывать его и использовать в недопустимых целях", — говорится в обращении.

Свое обращение, в котором подчеркивает, что автономное оружие должно быть запрещено так же, как и химическое, эксперты направили в ООН накануне конференции по вопросам искусственного интеллекта, которая скоро начнет свою работу в Мельбурне.

Однако автономные летальные вооружения — это уже реальность сегодняшнего дня. К примеру робот-часовой SGR-A1, разработанный компанией Samsung. Его создатели утверждали, что он способен самостоятельно принимать решение о необходимости открывать огонь. Предполагалось его использование в особой демилитаризованной зоне, разделяющей Южную и Северную Кореи. Информации об этом точной нет.

Как напоминает The Guardian, разработки "роботов-убийц" ведутся также в США и России. В частности, упоминается боевой робототехнический комплекс "Уран-9", предназначенный для ведения разведки, огневой поддержки и уничтожения танков.

Между тем, данная проблема с 2013 года серьезно волнует представителей ООН. По словам специального докладчика ООН по вопросам внесудебных и произвольных казней Кристофа Хейнса, применение боевых систем, которые в состоянии самостоятельно принимать решение о ликвидации цели, необходимо запрещать законодательно. "У робота не может быть морали, роботы являются "бессмертными", поэтому у них не должно быть права на принятие решения — жить человеку или умирать", — отмечает Хейнс.

Как сообщала "Правда.Ру", основатель компаний SpaceX и Tesla Илон Маск уверен, что опасность, куда большую, чем Северная Корея, представляет искусственный интеллект.

"Если вы еще не обеспокоены безопасностью в связи с ИИ, то вообще-то стоит. Намного больший риск, чем Северная Корея", — написал он в социальной сети.

Маск давно говорит о необходимости регулирования искусственного интеллекта. По его мнению, если развитие технологии не взять под контроль сейчас, позднее может возникнуть угроза для человечества. Он подчеркнул, что эта сфера развивается намного быстрее, чем думают нынешние власти.

Обсудить