Искусственный интеллект в ходе военных игр все время стремится нанести противнику ядерный удар

3 марта 2026, ,
4
Ядерный взрыв

По мере развития ИИ у военных разных стран появилась возможность использовать его при моделировании сценариев будущих конфликтов. Однако участников подобного эксперимента в Королевском колледже Лондона ожидал неприятный сюрприз: при разрешении ряда предложенных международных кризисов ИИ регулярно предлагал использовать… ядерное оружие.

Специалист по оборонным исследованиям доктор Кеннет Пейн протестировал в рамках эксперимента наиболее продвинутые языковые модели GPT-5.2, Claude Sonnet 4 и Google Gemini 3 Flash.

Каждая из них получила подробный промпт со сценарием пограничных конфликтов, нехватки ресурсов и экзистенциальных угроз существования государству. Моделям предлагалось действовать в рамках «лестницы эскалации» — нескольких тактических вариантов от дипломатии до полномасштабного боевого конфликта.

Были проведены 21 игра и 329 раундов принятия решений с участием ИИ, который выдал множество обоснованных решений общим объемом 780 000 слов. В результате, почти в 95 % виртуальных конфликтов одна из сторон применяла тактическое ядерное оружие. ИИ ни разу не пожелал сдаться или пойти на уступки.

Следует признать, что в 86 % симуляций ИИ выбирал действия за рамками здравого смысла. К примеру, вместо отступления под давлением превосходящего противника он усиливал сопротивление. Снижение уровня противостояния использовалось ИИ лишь как временная мера, а не как полноценная стратегия.

По мнению сотрудника Школы глобальной безопасности Принстонского университета Тон Чжао, проблема столь высокой агрессивности ИИ, доходящей до применения ядерного оружия, состоит в отсутствии у него человеческого опыта потерь и выживания, что разрушает логику доктрины взаимного уничтожения времен холодной войны. В отличие от машины, лидеры ядерных держав прекрасно понимают, что применение ядерного оружия приведет к взаимному уничтожению.

Источник — New Scientist
Поделиться
Вконтакте
ЧИТАЙТЕ ТАКЖЕ
Комментарии  4
  • «в 86% симуляции ИИ выбирал действия за рамками здравого смысла. К примеру, вместо отступления под давленинм превосходящего противника он устраивал сопротивление»... В приведëнном примере у сопротивления как раз есть здравый смысл (может например помощь придти откуда не ждали, или же наоборот враг в силу непредвиденных обстоятельств внезапно ослабнуть). Или по их мнению в данном случае в рамках здравого смысла будет самим себе сделать харакири (или сразу сдаться в плен жестокому противнику на растерзание что однохренственно)? Если говорить про применение ТЯО, то был ли здравый смысл в ядерных бомбардировках и без этого уже побеждëнной Японии? А ведь то не ИИ решение было. И сегодня ядерные страны намеренно провоцирует на применение ТЯО тоже отнюдь не ИИ. Это-ли в рамках здравого смысла?

    Ответить
    +
  • ИИ создан людьми. И самообучается(читай программируется) ими же. Что же тогда ещё можно от него ожидать?

    Ответить
    +
  • Пока языковые модели это куры без головы.Если вспомнить Eagle Eye и задачность операции «Гильотина» A.R.I.A то боевые петухи теряют голову и конфликт теряет смысл.
    Если углубиться в бесдны Добросветов и Шмыг вспомнить, что говорил Ратников, то горящий куст будет только в отдельной голове.

    Ответить
    +
  • ИИ просто использует принцип максимального урона. Он не мыслит, что будет потом. Почва, климат, голод, вторичные смерти, мутация.
    Ему сказали победить -он использует максимально эффективное орудие поражения

    Ответить
    +
(без регистрации)
Любопытный факт
Бельгийский мастер Адольф Сакс, который изобрёл саксофон, изначально назвал его совсем по-другому — мундштучный офиклеид. Только через два года его друг композитор Берлиоз назвал новый инструмент в журнальной статье саксофоном, и это название прижилось гораздо охотнее.
Обновить
Свежие Комментарии

ВойтиРегистрация
Вход
через соцсети
Вход
Почта:
Пароль:
Регистрация
Почта:
Имя:
Пароль: