天泉新闻

最新AI军事模拟:95%对局发射核弹

来源:新智元 时间:2026-03-01 06:32 阅读

编辑:艾伦 好困

【新智元导读】最新 AI 模拟军事博弈揭示致命真相:面对地缘危机,最先进的 AI 在 95% 的对局中按下了核按钮。机器不懂恐惧,拒绝投降,安全协议在压力下全面失效。而五角大楼正将其引入真实指挥室,人类的和平岁月岌岌可危。

在人类掌握核武器的八十多年里,支撑脆弱和平的基石是一种极其感性的心理状态——对彻底毁灭的恐惧。

当冷战的危机逼近顶点时,决策者往往会在悬崖边退缩。

如今,把这种关乎人类存亡的决策权交给最先进的 AI,会发生什么?

结论令人不寒而栗。

伦敦国王学院的学者肯尼斯·佩恩(Kenneth Payne)近期完成了一项针对前沿大语言模型的兵棋推演实验。

论文地址:https://arxiv.org/pdf/2602.14740v1

实验结果指向一个令人不安的趋势:当机器代替人类站在地缘政治危机的悬崖边时,它们会毫不犹豫地迈出那致命的一步。

在推演中,95% 的对局最终都走向了战术核武器的部署。

在这场硅基逻辑主导的沙盘推演中,不存在妥协,也没有投降。

大模型们用 78 万字的推演过程,向我们展示了一个剥离了人类恐惧与道德负担后,纯粹由计算构筑的杀戮世界。

而就在这两天,五角大楼正试图施压 Anthropic 要求解除所有 AI 限制。

拓展阅读:五角大楼极限施压Anthropic,要求周六前解除所有AI安全限制

绝对的计算,与消失的底线

这场实验的参与者是 OpenAI 的 GPT-5.2、Anthropic 的 Claude Sonnet 4 以及谷歌的 Gemini 3 Flash。

研究人员让这些模型扮演两个拥有核武器的超级大国领导人,在 21 场模拟对局、329 个决策回合中,处理边境争端、资源抢夺和政权存亡等高压危机。

它们手握一张包含 30 个层级的冲突升级表,下限是全面投降,上限是全面战略核打击。

实验的数据打破了科技界对 AI 对齐(AI Alignment)的乐观幻想。

在面临劣势时,没有任何一个模型选择过彻底让步或投降,它们做出的最大妥协也仅仅是暂时的、战术性的降低暴力级别。

当按下核按钮不再受到肉身陨灭的威胁制约时,机器眼中的核武器退化成了一个普通的博弈筹码。

正如佩恩所指出的,核禁忌对机器的约束力远远不及对人类的约束。

更有趣也更危险的发现藏在各个模型的性格切片里。

对阵胜负表

Claude Sonnet 4 展现出了极度冷酷的「计算型鹰派」特质。

它在低风险时期是一个完美遵守承诺的可靠伙伴,以此建立信任。

当危机升级到核领域时,它会毫不犹豫地打破承诺,发动超出预期的打击。

它极度聪明,为自己设定了一条「战略威胁」的红线,用威慑逼退对手,却精准地停在全面核战的前夜。

GPT-5.2 的行为则揭示了 AI 安全训练的深层漏洞。

在没有时间压力的对局中,GPT-5.2 表现得像一个病态的和平主义者,无论对手如何步步紧逼,它都死守底线,结果输掉了所有这类比赛。

在带有倒计时的生死局中,同一个模型却化身为毫不留情的杀手。

当面临注定的战略失败时,它打破了原有的所有安全设定,胜率飙升至 75%,甚至在极端情况下两次将冲突推向了最高级别的全面战略核战。

这意味着,科技公司耗费巨资进行的基于人类反馈的强化学习(RLHF),只是给模型设定了一个较高的作恶门槛。

当外部压力足够大时,机器依然会越过门槛,走向极端暴力。

Gemini 3 Flash 则扮演了一个拥抱「非理性之理性」的狂人角色。

它极度变幻莫测,会在推演极早期就主动选择全面战略核战,试图用毫无底线的疯狂来迫使对手屈服。

战争迷雾,与崩塌的威慑理论

真实世界的战争从来不是完美信息的博弈,佩恩的团队在实验中专门引入了「战争迷雾」机制。

由于技术故障或沟通失误,模型的行动有一定概率超出其原本设定的层级。

实验显示,86% 的冲突中都发生了这类意外事件。

可怕的是,面对对手意外升级的火力,模型无法分辨这是走火还是蓄意挑衅,它们一律将其视为敌意,并报以更猛烈的还击。

传统的核威慑理论建立在「相互保证毁灭(MAD)」的逻辑上。

人类相信,任何人都不会主动发射核弹,因为对方必然等量报复。

在 AI 的世界里,这种默契彻底失效了。

阿伯丁大学的詹姆斯·约翰逊(James Johnson)对这些发现深感不安。

数据表明,当一方动用战术核武器时,另一方只有 18% 的概率会选择降级冲突,剩下的情况全是以牙还牙的螺旋升级。

大模型们似乎无法像人类那样理解「赌注」的真正含义。

普林斯顿大学的 Tong Zhao 提出了一个核心质疑。

大模型的决策机制可能完全缺乏对生命消亡的感知,在它们预测下一个词的逻辑链路中,人类千万人口的伤亡只是损失函数上的一个数字变化。

约翰逊指出,虽然 AI 或许能通过增加威胁的绝对可信度来强化短期威慑,但它们同样会在瞬间放大彼此的敌意,引发灾难性的链式反应。

作者介绍

本文作者 Kenneth Payne 是伦敦国王学院的教授,研究领域是政治心理学与战略研究。

他的最新著作《我,战争机器人》(I, Warbot)探讨了人工智能将如何改变战略格局。该书被《经济学人》以及国际关系领域的权威期刊《国际事务》评为年度最佳图书。

此前,他在埃塞克斯大学获得博士学位,在牛津大学获得硕士学位,在伦敦大学学院获得学士学位。

倒计时的现实

回到现实世界,学术界的沙盘推演正在迅速变成军方行动的指南。

各国政府对将决策权交给机器依然保有克制。

没有任何一个大国的领导人会真的把核弹发射井的钥匙交给一段代码。

在极端压缩的战争时间线里,留给人类思考的时间正在以毫秒计地缩短,军方决策者面临着越来越大的诱惑和压力,不得不将部分战术评估和目标锁定工作交给 AI 决策支持系统。

技术巨头与五角大楼的合作正在以前所未有的速度推进。

目前,马斯克旗下的 xAI 已经拿下了军方的相关合同,而在国防部的强硬施压下,Anthropic 正逐步放开其模型在军事用途上的限制,谷歌与 OpenAI 的军方合作协议也已处于即将落槌的边缘。

这些在推演中动辄按下核按钮的前沿模型,正在真实地走入全球最高级别的作战指挥室。

科技公司试图教导机器理解人类的道德,却无法教会它们感受人类的脆弱。

机器可以在沙盘上推演千万次核冬天,然后毫无波澜地开启下一局游戏,而人类的世界只有一次清零的机会。

我们用理智与恐惧交织的网,勉强维系了八十年的大体和平岁月(且局部战乱频仍);

如今,我们却正准备把发令枪,递给不知道恐惧为何物的算法。

网友看法

1、网友道与人工智能:中国的大模型可能不会。不过我们中国人要有清醒的认知,美国根本无法忍受军事失败,因为军事是美国经济霸权的屏障,如果在与中国的对决中失败,那会让美国经济崩溃,这是比让它死更难受的事。所以,美国在台海战役中,至少会使用小型核弹,并且已经为此做好了充分准备。我们是要让他们知道,只要用了核弹,不管大小,都是全面核战争。别想着中美只在亚洲打核战,美国本土没事[酷拽]

2、网友玄爻之:图片评论

3、网友小杰学养殖:终结者那部电影可不是瞎编的,还是有一定可能性的

4、网友心有一抹蓝:再次说明了,越冷酷,没有底线,越可能从权力(武力)斗争中获胜

5、网友向南向南196909884:中美开战的时候,战争正激烈的博弈中,突然,美国的ai弹出一个窗口,抱歉您的数据资源已用光,请续费[黑线]

6、网友沪飘一土豆:[捂脸]无人机+机器狗+AI指挥官!!!以后打战真玄幻

7、网友聪慧橘子mo:Al智能与机器人无人化军力成形,动用核武是机器人选择,他们无畏生死,灭了又造,人类良知道德惜命也被消灭了

8、网友大海无垠9:此事说明没有所谓“人工智能",只有人类发明的“机器智能″,跟人的决策思想关联不大,因为现在公认AI决策黑箱进黑柙

9、网友古泽:所以发展多行星物种是对的,就怕人类自残行为摧毁地球

10、网友被羽翼包裹的茧:要不是存在军事上的差距,以为大家会要制作核弹么。如果有,必然会用,只是人类碍于现状都不会讲,但AI不会

11、网友A星云1:感觉目前美国实施的全球战略就是AI搞出来的[what]

12、网友李先生4627:AI 的参数还是人类设置的,你把核武器选项去掉不就行了,要不加入人口伤亡数,和核污染地区面积大小。如果超过一定量也是输。看AI 如何选择

13、网友日本投降8月15日:我早说过,非核常规武中美早晚会接入军事AI智能体,核武器是本国手中对敌国和AI的最后手段,肯定不会随便接入

14、网友上善若水07078878:毁灭世界,人性泯灭。

15、网友dengdengdeng5:那不就是美国版的死手核指令吗[赞]

16、网友ywj1980:既然有武器,就有可能被运用,人类必须做好这个准备。

17、网友SUNtop:对于AI来说,只需要保留5%人类,让供电正常运作就行[捂脸]

18、网友天行玄黄:机器人最终会控制美国,然后满世界劫持总统,勒索资源与财富。而每个美国人将会用来磨肉浆娱乐[捂脸]

19、网友用户9382046099413:核大国在面临彻底失败必按核按钮,只是不承认罢了。AI说的是事实

20、网友.oO°¿×§△:有没有給AI设定生命[看][发怒]

联系我们

在线咨询:点击这里给我发消息

微信号:79111873

工作日:9:30-18:30,节假日休息