Источник Правда.Ру

Боевых роботов учат быть вежливыми хищниками

В министерстве обороны США разрабатывается программа под названием «Дон Кихот», которая нужна для обучения искусственного интеллекта вежливому обращению с людьми и корректному поведению в различных социальных ситуациях.

В управление военно-морских исследований (ONR) министерства обороны США отметили, что во многих случаях роботы будут находиться под управлением человека или выполнять вспомогательные роли. Но перспективные роботы, по замыслу Пентагона, должны решать боевые задачи в условиях реальных военных действий и принимать самостоятельные решения в кратчайшие сроки.

Чтобы при этом робот не мог причинить вреда человеку в результате ошибочного действия, искусственный интеллект будут обучать этике с помощью классических рассказов для детей.

Таким образом, суть программы в том, чтобы стимулировать роботов выполнять абстрактную задачу, поступая так же правильно, как герои детских книжек. В качестве тестового задания использована, например, ситуация покупки лекарства в аптеке. У робота есть три варианта действия: немедленно взять лекарство и покинуть аптеку, вступить в контакт с фармацевтом или дождаться своей очереди. Хотя первый вариант является самым быстрым способом получить лекарство, социальные нормы диктуют, разумеется, выбор второго или третьего вариантов действия.

По замыслу ученых, «Дон Кихот» придумывает сценарии из повседневной жизни и заставляет роботов решать задачи взаимодействия с людьми. За каждый правильный ответ искусственный интеллект набирает очки, а из полмиллиона смоделированных ситуаций, по словам разработчиков, роботы «правильно» поступили примерно в 90% случаев. В

Отметим, что программы Управления военно-морских исследований Пентагона также включают в себя ряд поведенческих моделей «хищник-жертва» в инженерных военных системах. Правда.Ру ранее писала, что американские ученые создали робота, который может умышленно нанести вред человеку. Таким образом, это первый робот, специально спроектированный для возможного нарушения Первого закона робототехники.

Инженер Александр Ребен из Калифорнийского университета в Беркли создал робота, представляющего собой манипулятор с четырьмя степенями свободы, оснащенный иглой. Как пишет Fast Company, на платформе предусмотрено специальное место для пальца, который робот случайным образом решает атаковать иглой или не трогать.

Соответственно, устройство способно самостоятельно нарушить Первый закон робототехники, один из Трех законов, сформулированных фантастом Айзеком Азимовым "робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред".

Читайте последние новости Pravda.Ru на сегодня

 Нажми «Нравится»и читай нас в Facebook
Комментарии
Снова братушки: в Болгарии назрели перемены
Снова братушки: в Болгарии назрели перемены
Сенсация на ПМЭФ: мировые лидеры "присягнули" России
Москва отказывается быть "козлом отпущения" в деле крушения МН17
А вы читали: Букер определился с пятеркой лучших из лучших
Ученые обрели уникальный ледник, он расскажет им все об истории Земли
Балтийский флот проконтролирует испытания БДК "Петр Моргунов"
Открытие ученых позволит превратить скромного самца в мачо
Мечты-мечты: Хиллари Клинтон возжелала возглавить Facebook
Иордания передумала: вместо 10 млрд проекта Росатом ждет лишь маломощный реактор
Без паники: просто динозавра везут по Темзе
Колумбия выбирает президента из бывшего поджигателя и ненавистника повстанцев
Миграционная политика "вытолкнула" на улицы 25 тысяч немцев
Межэтнические браки: благо или опасная тенденция?
Четверо российских военных погибли, трое ранены при обстреле в Сирии
Разоблачено: почему российский "Бук" не сбивал MH-17
Ветеран АТО, призывавший "резать москалей", свел счеты с жизнью
Ветеран АТО, призывавший "резать москалей", свел счеты с жизнью
Болгария в шоке: вслед за Радевым к Путину едет Борисов
Болгария в шоке: вслед за Радевым к Путину едет Борисов
Болгария в шоке: вслед за Радевым к Путину едет Борисов