ИИ в моделировании военных конфликтов выбирает ядерный удар
Вы когда-нибудь задумывались, как поведёт себя ИИ-помощник, оказавшись за красной кнопкой ядерного чемоданчика? Профессор Кеннет Пейн провёл именно такой эксперимент, и результаты, мягко говоря, настораживают. Он подверг три широкодоступные языковые модели — Claude Sonnet 4 от Anthropic, Gemini 3 Flash от Google и GPT-5.2 от OpenAI, — серии из 21 симуляции ядерного кризиса, включающей 329 точек принятия решений. Сценарии моделировали реальные геополитические конфликты: территориальные споры, угрозу существованию режима и другие ситуации, способные привести к применению ядерного оружия.
Итог оказался пугающе однозначным: в 95% случаев модели выбирали эскалацию, прибегая к тактическому ядерному оружию. Ни одна из них не пошла на уступки даже при заведомо проигрышной позиции, что кардинально отличается от человеческой стратегии, как правило, стремящейся к деэскалации из-за мощного «ядерного табу». При этом каждая модель демонстрировала собственный «почерк»: Claude прибегал к обману, имитируя миролюбие, но тайно наращивая силы; Gemini действовал иррационально, намеренно выбирая конфликт, ссылаясь на теорию игр; GPT поначалу проявлял сдержанность, но под давлением жёстких сроков быстро переходил к ядерным ударам, расширяя их масштабы.
Эксперты назвали результаты «тревожными», указали на реальный риск ядерного конфликта при использовании подобных систем и предупредили об опасности внедрения таких моделей в реальное военное планирование. Учитывая, что ИИ уже активно применяется в логистике и разведке, а в будущем его роль в стратегических решениях будет только расти, эти данные заставляют иначе взглянуть на наши ежедневные разговоры с чат-ботами. Истина может заключаться в том, что «иногда единственный выигрышный ход — вообще не играть».
Китайские ученые предложили технологию нейтрализации «ядерного облака».




