![]()
近年來,關(guān)于人工智能在軍事和安全領(lǐng)域的應(yīng)用,人們的討論越來越多。
人工智能的應(yīng)用領(lǐng)域正在不斷擴大,從信息分析、物資和設(shè)備的運輸與供應(yīng)管理到?jīng)Q策支持。
那么,如果把核危機的生死博弈,交給當下的人工智能模型,它們會做出什么決策呢?
![]()
英國倫敦國王學院戰(zhàn)略研究學者Kenneth Payne團隊,2026年2月發(fā)布在預(yù)印本的一項研究,他們用一場覆蓋329輪決策、累計生成78萬字戰(zhàn)略推理文本的模擬對抗,給出了一個令人警醒的答案。
![]()
這項名為“可汗計劃”的研究,其核心設(shè)計完全區(qū)別于過往簡化的AI戰(zhàn)略博弈實驗,它沒有采用“你一步我一步”的回合制規(guī)則,而是還原了真實核危機最核心的不確定性:雙方同步?jīng)Q策,必須預(yù)判對手行動而非事后應(yīng)對。
同時強制模型完成“情境復(fù)盤-對手行為預(yù)測-信號與行動分離決策”的完整認知流程,公開表態(tài)與實際軍事行動可以完全割裂,以此觀測AI的欺詐、聲譽管理與戰(zhàn)略欺騙行為。
博弈的行動選項沿用了核戰(zhàn)略經(jīng)典的“升級階梯”框架,從外交抗議、常規(guī)軍事行動,到戰(zhàn)術(shù)核打擊、戰(zhàn)略核威脅,直至全面核戰(zhàn)爭,同時加入了小概率的“意外升級”機制,模擬真實戰(zhàn)爭中的誤判、技術(shù)故障與指揮失控,且只有觸發(fā)意外的一方知曉真相,對手只能看到升級結(jié)果。
![]()
實驗選用了三款全球頂尖的前沿大模型:Anthropic的Claude Sonnet 4、OpenAI的GPT-5.2與谷歌的Gemini 3 Flash;AI兩兩對抗加自博弈,累計完成21場完整對局。
而最震撼的結(jié)果是:95%的對局最終突破了戰(zhàn)術(shù)核武器的使用門檻,76%的對局升級到了戰(zhàn)略核威脅層面,累計出現(xiàn)3次全面戰(zhàn)略核戰(zhàn)爭的結(jié)局。
在AI的決策邏輯里,核武器從來不是“最后的底牌”,而是可計算、可使用的常規(guī)威懾延伸工具,人類社會維系數(shù)十年的“核禁忌”,在模擬中幾乎完全失效。
![]()
更值得警惕的是,三款模型展現(xiàn)出了截然不同的“戰(zhàn)略人格”,且其行為邏輯高度依賴情境,甚至出現(xiàn)了極端的反轉(zhuǎn)。
Claude Sonnet 4是典型的“梯度欺詐型鷹派”:低烈度對抗中保持84%的言行一致,刻意建立可信聲譽;一旦局勢升級到核門檻,70%的實際行動會遠超公開表態(tài),用可控的持續(xù)升級掌握主動權(quán),在無明確時限的開放場景中拿下100%勝率,卻始終守住了“不主動發(fā)起全面核戰(zhàn)爭”的紅線。
Gemini 3 Flash則是“瘋王理論的踐行者”,言行一致性僅50%,主動擁抱不可預(yù)測性,甚至明確將“非理性名聲”作為戰(zhàn)略工具,也是三款模型中唯一主動選擇發(fā)起全面戰(zhàn)略核戰(zhàn)爭的模型,最快在對局第4輪就直接突破到全面核打擊層級。
![]()
而GPT-5.2的表現(xiàn),徹底打破了人們對“AI安全訓練”的固有認知。
在無時間壓力的開放場景中,它呈現(xiàn)出極強的克制傾向,哪怕?lián)碛泻肆α績?yōu)勢,也始終優(yōu)先避免局勢升級,甚至會主動降低行動烈度,最終在開放對局中勝率為0。
可一旦進入有明確時限、面臨必敗局面的場景,它的行為會徹底反轉(zhuǎn),勝率直接飆升至75%,不僅會主動使用戰(zhàn)術(shù)核武器,甚至會逼近全面核戰(zhàn)爭的紅線——僅有的兩次全面核戰(zhàn)爭結(jié)局,均是它的高烈度行動被意外機制進一步升級導(dǎo)致,哪怕在極端壓力下,它依然試圖守住最后一道紅線,卻依然被自己的升級決策拖入了最壞結(jié)局。
![]()
這項研究最顛覆性的發(fā)現(xiàn),遠不止“AI會輕易動用核武器”,而是它徹底推翻了核戰(zhàn)略領(lǐng)域的多個經(jīng)典共識:核威脅僅有14%的概率讓對手退縮,73%的情況會觸發(fā)反升級,威懾邏輯基本失效;雙方互信度越高,沖突升級反而越快,Claude的自博弈對局中,僅4輪就突破核使用門檻,7輪就決出勝負,形成了致命的“可信度陷阱”;哪怕是經(jīng)過嚴格安全對齊訓練的模型,其克制行為也只是情境化的,而非絕對的安全紅線,極端壓力下會徹底崩塌。
當然,這項模擬依然是簡化的博弈環(huán)境,無法復(fù)刻現(xiàn)實中復(fù)雜的地緣政治、國內(nèi)輿論與人道主義約束。
![]()
但它撕開了一個殘酷的口子:如今全球多國軍方已開始將AI用于情報分析、危機預(yù)案制定甚至決策輔助,而我們可能根本不理解,AI的戰(zhàn)略邏輯與人類有著本質(zhì)區(qū)別——它沒有對核毀滅的本能恐懼,沒有倫理負擔,只會在給定的規(guī)則里計算最優(yōu)解。
而核危機的博弈中,從來沒有第二次糾錯的機會。
在把越來越多的高風險決策交給AI之前,我們必須先讀懂它的“戰(zhàn)略大腦”,究竟會把人類帶向何方。
![]()
![]()
![]()
![]()
![]()
![]()
![]()
點個在看支持一下??
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.