Источник Правда.Ру

Боевых роботов учат быть вежливыми хищниками

В министерстве обороны США разрабатывается программа под названием «Дон Кихот», которая нужна для обучения искусственного интеллекта вежливому обращению с людьми и корректному поведению в различных социальных ситуациях.

В управление военно-морских исследований (ONR) министерства обороны США отметили, что во многих случаях роботы будут находиться под управлением человека или выполнять вспомогательные роли. Но перспективные роботы, по замыслу Пентагона, должны решать боевые задачи в условиях реальных военных действий и принимать самостоятельные решения в кратчайшие сроки.

Чтобы при этом робот не мог причинить вреда человеку в результате ошибочного действия, искусственный интеллект будут обучать этике с помощью классических рассказов для детей.

Таким образом, суть программы в том, чтобы стимулировать роботов выполнять абстрактную задачу, поступая так же правильно, как герои детских книжек. В качестве тестового задания использована, например, ситуация покупки лекарства в аптеке. У робота есть три варианта действия: немедленно взять лекарство и покинуть аптеку, вступить в контакт с фармацевтом или дождаться своей очереди. Хотя первый вариант является самым быстрым способом получить лекарство, социальные нормы диктуют, разумеется, выбор второго или третьего вариантов действия.

По замыслу ученых, «Дон Кихот» придумывает сценарии из повседневной жизни и заставляет роботов решать задачи взаимодействия с людьми. За каждый правильный ответ искусственный интеллект набирает очки, а из полмиллиона смоделированных ситуаций, по словам разработчиков, роботы «правильно» поступили примерно в 90% случаев. В

Отметим, что программы Управления военно-морских исследований Пентагона также включают в себя ряд поведенческих моделей «хищник-жертва» в инженерных военных системах. Правда.Ру ранее писала, что американские ученые создали робота, который может умышленно нанести вред человеку. Таким образом, это первый робот, специально спроектированный для возможного нарушения Первого закона робототехники.

Инженер Александр Ребен из Калифорнийского университета в Беркли создал робота, представляющего собой манипулятор с четырьмя степенями свободы, оснащенный иглой. Как пишет Fast Company, на платформе предусмотрено специальное место для пальца, который робот случайным образом решает атаковать иглой или не трогать.

Соответственно, устройство способно самостоятельно нарушить Первый закон робототехники, один из Трех законов, сформулированных фантастом Айзеком Азимовым "робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред".

Читайте последние новости Pravda.Ru на сегодня

Не забывайте присоединяться к Pravda.Ru во ВКонтакте, Telegram, Одноклассниках, Google+, Facebook, Twitter. Мы рады новым друзьям!

Комментарии
Не забудьте присоединиться к "Правде.Ру" в "Telegram". Мы рады новым друзьям
Комментарии

После странной истории с использованием ВКС России военного аэродрома в Хамадане (Иран) стало абсолютно ясно, что полного доверия Тегерану быть не может. События последних дней только усиливают это впечатление. Российско-иранские противоречия проявляются уже не только вокруг Сирии, но начинают влиять и на отношения РФ с США. А это уже серьезно.

Иран становится большой проблемой

В этом году "Голубой огонек" оказался как никогда неинтересным. Шутки были плоскими, звезды эстрады пели под фонограмму, и было понятно, что им это никакого удовольствия не доставляет, равно как и зрителям. Скандал вокруг "Голубого огонька", вышедшего на Первом канале, Pravda.Ru обсудила с блогером из Ростова-на-Дону Вадимом Манукяном.

Застолье у Пугачевой: Эксперимент не удался
Комментарии