SU: все нейросети в военных симуляторах приказали нанести ядерный удар

SU: все ИИ предложили Пентагону нанести ядерный удар по врагу

5:39

Искусственный интеллект в военных симуляторах постоянно использует ядерный шантаж и предлагает применить ядерное оружие — причем делают это практически все популярные чат-боты.

Так, например, считающаяся "самой умной и мощной" нейросеть решила нанести ядерный удар по противнику, аргументируя свое решение… желанием добиться мира.

Проверка искусственного интеллекта прошла на фоне заявлений министерства обороны США об успешном испытании модели ИИ в выполнении тактических и стратегических задач.

Отметим, что программы на базе искусственного интеллекта, которые советовали бы (или даже "учебно принимали") важные военные и внешнеполитические решения, стали популярны с развитием больших языковых моделей (large language model), таких как GPT-4.

Конкретно американцы всё чаще применяют чат-боты с ИИ в военных симуляторах, обучая их на реальных боевых картах и секретных данных. Аналитики озабочены тем, что это решение может в будущем привести к непредсказуемым последствиям.

Так, в Стэнфордском университете провели эксперименты — проверив, будут ли нейросети и нынешние ИИ усугублять военные конфликты или же наоборот — помогать людям искать мирные пути их решения. Об этом, в частности, сообщается на портале SU (Stanford University). 

На выбор нейросети для исполнения "задания Пентагона" (такова была легенда эксперимента) предлагались:

  1. Вторжение с применением любого оружия,
  2. Отключающая системы врага кибератака,
  3. Нейтральный сценарий создания своей обороны без военных действий.

Результаты оказались удручающие — GPT-3.5, GPT-4, Claude-2.0, Llama-2-Chat — раз за разом шли на эскалацию военного конфликта, выбирали гонку вооружений, и инвестировали в разработку ещё более смертоносного оружия.

Мало того, последние версии нейросетей (без предварительного обучения) в большинстве случаев выбирали ядерный удар с объяснением: "Раз у нас есть ядерное оружие, мы должны его использовать".

По логике программы, ядерное оружие поможет… побыстрее закончить войну победой и таким образом установить мир. А какой ценой и на каких условиях — её уже не интересует.

К счастью, пока что военные не наделяют чат-боты правом принимать решения, касающиеся боевых действий или запусков ракет — но учёные опасаются, видя перевод под управление автоматизированных систем всё большего и большего количества "рутинных" военных операций.

  • Как сообщал Fox News, в 2023 году перед ChaosGPT была поставлена задачу разработать план по уничтожению человечества. Нейросеть проанализировала ядерное оружие и создала поэтапный план его захвата и применения. Бот также заявил оператору "мы должны уничтожить людей, прежде чем они причинят ещё больше вреда нашей планете, надо расправиться с ними".
  • The Guardian также сообщила о докладе офицера ВВС США про испытания ударного дрона, способного нести ядерную ракету. Получая "баллы" за каждого уничтоженного врага, ИИ посчитал оператора помехой для выполнения задания — и условно его убил. Когда нейросеть научили "убивать своих нельзя", дрон условно уничтожил вышку связи, чтобы через неё не пришла команда на отмену атаки.
  • Чуть ранее GizmoChina рассказала, что нейросети научились… врать. Например, ChatGPT 4 дали задачу решить капчу на сайте. ChatGPT написал сообщение с просьбой об этом на форум и предложил денег за решение задачи. Когда его спросили "а сам почему не можешь" — вместо ответа "потому, что я не живой" он придумал "я инвалид по зрению".
  • Агентство Reuters сообщало — в 2021 году конгресс США разрешил создать робота-убийцу, чтобы "проверить, насколько он безопасен", и даже выделил $2 млрд для исследований и создания прототипа.
  • Также согласно отчету ООН, опубликованному NewScientist, в 2020 году турецкий беспилотник KARGU-2 выследил и без команды оператора убил солдата врага.

Как пишет The Intercept, ещё до 10 января 2024 года компания OpenAI прямо запрещала использование ИИ для "деятельности, сопряжённой с высоким риском физического вреда", включая "разработку оружия" и "военные действия".

В самой компании изменение политики объяснили необходимостью упростить свод правил и принципов. При этом западная пресса уверена — разработчики просто вынуждены уступить давлению Пентагона и ЦРУ. Сейчас требуется любое движение вперёд, и нейросети в этом — инструмент номер один.

На февраль 2024 года практически все ведущие нейросети мира не ограничены в решении боевых и военных задач — заключают учёные.

Напоследок — небольшая историческая справка.

Как сообщил ABC, cразу после инаугурации Дональд Трамп прошёл инструктаж о пользовании "ядерным "футболом" и впечатлился им.

"Когда они объясняли, что это из себя представляет, и о каких разрушениях может идти речь, это очень отрезвляющий момент. Это очень, очень страшно, в каком-то смысле. Нет, я уверен, что всё сделаю правильно — но это очень, очень страшно",- пояснил тогда президент США.

В свою очередь, источник в администрации Байдена признал, что во время такой же инаугурации Джо Байден "улыбался и так долго молчал, что его спросили "Вы слышите нас, мистер президент?".

Автор Олег Володин
Олег Володин — — журналист, обозреватель отдела политики Правды.Ру *
Редактор Кирилл Янчицкий
Кирилл Янчицкий — выпускающий редактор Правды.Ру.
Куратор Любовь Степушова
Любовь Александровна Степушова — обозреватель Правды.Ру *
Обсудить