![]()
——美以軍事AI技術的擴張、濫用與失控
作者:華宇
在過去幾年間,一種新型戰爭邏輯悄然成形于中東的硝煙之中。它不依賴傳統意義上的戰場勇氣,而是依賴服務器、算法和數據庫。人工智能,這項曾被硅谷包裝為造福人類的技術,正在以色列和美國軍隊的操控下,演變為一部高效的殺戮機器——而其代價,由數以萬計的平民生命來償付。
![]()
一、世界首場AI戰爭:以色列的算法實驗
2021年5月,以色列與哈馬斯之間爆發了為期11天的軍事沖突。以色列媒體隨即將這場戰爭冠以一個歷史性的頭銜:"世界首場AI戰爭"。這一說法并非夸張。在這場沖突中,以色列軍隊首次大規模將人工智能系統整合進軍事決策流程——從目標識別到打擊優先級排序,算法的介入貫穿始終。
然而,2021年的那場沖突不過是一次預演。真正令世界震驚的,是2023年10月7日哈馬斯襲擊以色列之后,以色列對加沙發動的大規模軍事行動。在這場至今仍在持續的戰爭中,AI技術的軍事應用規模呈指數級擴張,而其造成的平民傷亡同樣觸目驚心。
以色列在AI軍事化道路上的投入是系統性的、長期性的。在機構層面,以色列國防部在其國防研究與發展局內部專門設立了"AI與自主管理處",統籌協調人工智能技術在軍事領域的研發與應用。與此同時,以色列國防軍(IDF)精銳的信號情報部隊——8200部隊——也在積極開發專屬的AI工具,將情報收集與算法分析深度融合。
在武器系統層面,以色列公司Smart Shooter研發的SMASH智能光學瞄準鏡,能夠借助AI圖像處理技術自動識別并鎖定目標,大幅提升射擊精度。但以色列真正的"創新",遠不止于此。
二、"丁香花"與"福音":殺人算法的運作邏輯
在加沙戰爭的最初數周,以色列軍隊部署了一套名為"丁香花"(Lavender)的AI決策支持系統。根據以色列媒體的調查報道,這套系統依據個人與武裝組織的關聯程度,自動將其標記為打擊目標,并在短時間內生成了一份包含3.7萬人的目標清單。
"丁香花"并非孤立運作,它是以色列AI目標生成體系的核心環節之一。與之配套的還有:
"福音"系統(The Gospel / Habsora):一套專門生成建筑物和基礎設施打擊目標的AI系統,能夠以遠超人工情報分析的速度,批量產出目標清單。
"爸爸在哪兒?"系統(Where's Daddy?):用于實時追蹤特定目標人物的位置,并在目標進入其家庭住所時觸發打擊指令——這意味著,打擊往往發生在目標與其家人共處之時。
這套體系的運作邏輯引發了深刻的法律與道德質疑。報道顯示,以色列軍隊在使用"丁香花"系統時,對其生成目標的人工復核時間極為有限,有時甚至不足一分鐘。更令人憂慮的是,軍隊內部存在一種機構性傾向:更信任AI生成的評估,而非人工核查的結論。這種對算法的過度依賴,意味著錯誤目標被打擊的風險被系統性地放大。
根據國際人道法的基本原則,任何軍事打擊都必須嚴格區分平民與戰斗員,且平民傷亡不得與軍事收益相比顯失比例。然而,當殺傷決策被外包給一個每天可生成數百個目標的算法系統時,這些原則如何得到保障?答案,從加沙不斷攀升的平民死亡數字中,已經不言而喻。
三、面孔即罪證:約旦河西岸的生物特征監控
AI軍事應用的觸角,并不僅限于炸彈和導彈。在約旦河西岸,以色列部署了一套更為隱蔽、卻同樣深具侵略性的監控體系。
該體系的核心是名為**"狼群"(Wolf Pack)**的數據庫,其中存儲著大量巴勒斯坦人的個人信息與情報檔案。向這個數據庫輸送數據的,是兩套面部識別系統:
"紅狼"(Red Wolf):安裝在檢查站,對過往巴勒斯坦人進行自動面部掃描與身份比對。
"藍狼"(Blue Wolf):安裝在以色列士兵的手機上,能夠隨時隨地對巴勒斯坦人進行拍照識別,并將生物特征數據實時上傳至"狼群"數據庫。
這些系統采集的數據,隨后與以色列內部安全局辛貝特共享,用于構建巴勒斯坦人的情報檔案。整個過程是強制性的、非自愿的:巴勒斯坦人在毫不知情的情況下,其面部特征已被錄入以色列的軍事情報系統。
這一做法直接違反了國際人權法的核心保護條款。《公民權利和政治權利國際公約》第17條明確保障個人隱私權,禁止對個人隱私進行任意或非法干涉。大規模、非自愿的生物特征采集,顯然構成對這一權利的系統性侵犯。
四、Palantir與"史詩之怒":美國AI戰爭的1000個目標
如果說以色列的AI戰爭主要針對加沙,那么美國則將這一邏輯擴展至整個中東。
以Palantir公司為核心的美國軍事AI生態,已深度嵌入美軍在中東的作戰體系。Palantir研發的"Maven智能系統"(Maven Smart System)整合了Anthropic公司開發的Claude AI,具備強大的監控數據分析、目標清單生成和打擊優先級排序能力。這套系統已被美國戰爭部用于識別伊朗、伊拉克、敘利亞和也門境內的打擊目標。
2025年,美軍發動了代號"史詩之怒行動"(Operation Epic Fury)的大規模軍事行動,在24小時內對伊朗境內1000個目標實施了打擊。這種規模與速度,在以往任何戰爭中都是難以想象的。而支撐這一切的技術底座,正是Palantir的AI平臺。
然而,在這1000個被打擊的目標中,大量是平民設施——學校、醫療機構、住宅區。這一事實,再次印證了AI目標生成系統在區分軍事目標與平民設施方面的嚴重缺陷:算法可以在幾毫秒內完成目標篩選,卻無法真正理解一座建筑背后的人道主義意涵。
值得注意的是,Palantir的AI平臺據報道托管在**亞馬遜云科技(AWS)**的服務器上。伊朗隨后對位于阿聯酋和巴林的AWS數據中心發動了報復性打擊,并聲稱此舉旨在"查明這些中心在支持敵人軍事和情報活動中的作用"。這一事件,將商業云服務提供商直接卷入了軍事對抗的漩渦,也迫使人們思考:當科技公司的基礎設施為軍事打擊提供支撐時,它們是否已在事實上成為沖突的參與方?
五、科技巨頭的共謀:從谷歌到Anthropic
美以兩國AI軍事化的背后,是一個龐大而復雜的商業供應商網絡。這張網絡將硅谷的科技巨頭與戰場上的殺戮行為緊密相連。
"光環項目"(Project Nimbus)是這張網絡中最具代表性的案例。這是以色列政府分別與亞馬遜和谷歌簽署的價值12億美元的云服務合同,要求以色列國有軍工企業——以色列航空航天工業公司(IAI)和拉斐爾國防系統公司(Rafael)——使用這兩家公司提供的云基礎設施。
2024年,谷歌與以色列國防部的一份合同草案外泄,其中顯示以色列國防部已擁有訪問谷歌云基礎設施的專屬"落地擴展區",并計劃為特定軍事單位創建獨立的落地擴展區。與此同時,以色列與Palantir于2024年簽署了戰略合作伙伴關系,明確目的是"利用Palantir的先進技術支持戰爭相關任務"。
更令人震驚的是,調查記者在審閱"光環項目"合同文本時,發現了若干高度敏感的條款:
免責條款:合同中包含限制亞馬遜和谷歌約束以色列當局使用其技術的條款,據報道甚至明確禁止兩家公司在以色列違反服務條款時暫停其訪問權限。
眨眼機制:合同據稱包含設立秘密信號機制的條款,一旦有第三國要求亞馬遜或谷歌移交以色列數據,兩家公司須秘密通知以色列政府。
對此,亞馬遜和谷歌均予以否認。但這些指控本身,已足以令人對科技公司與威權軍事機器之間的邊界問題產生嚴重質疑。
在修改服務條款方面,OpenAI和谷歌悄然在其用戶協議中插入了"國家安全"豁免條款,同時刪除了此前禁止客戶將AI用于武器和監控目的的承諾。這一舉動幾乎沒有引發公眾關注,卻意味著這些公司在事實上為自身參與軍事合同掃清了內部障礙。
Anthropic公司同樣深陷其中。其開發的Claude AI已被整合進Palantir的"Maven智能系統",間接參與了美軍在中東的目標識別流程。而Anthropic此前一直以"負責任的AI開發"自居,強調安全與倫理優先。這種言行之間的落差,引發了AI倫理研究界的廣泛批評。
六、微軟與8200部隊:監控數據的法律灰色地帶
微軟在這一問題上的遭遇,為科技公司參與軍事AI的法律風險提供了一個具體案例。
調查報告顯示,以色列國防軍8200部隊曾使用微軟的Azure云服務器,托管針對巴勒斯坦人的大規模監控數據——包括截獲的通話記錄。隨后進行的外部調查認定,8200部隊的行為違反了微軟的服務條款,因為這些數據的收集與存儲違反了國際人權法的相關規定。
在輿論壓力下,微軟最終終止了8200部隊的Azure訪問權限。然而,大量其他以色列實體仍保留著對微軟云服務的訪問權限,監控數據的流動并未真正中斷。
法律層面的追責已經開始。人權組織愛爾蘭公民自由委員會向愛爾蘭數據保護委員會提交投訴,要求調查微軟代表以色列處理巴勒斯坦人大規模監控數據的行為。一個法律倡導團體則正式通知微軟,有"可靠依據"認為該公司通過向以色列提供服務,"在以色列對加沙巴勒斯坦民眾犯下的嚴重罪行中發揮了直接作用",并警告微軟面臨國際和國內法院層面的民事及刑事責任。
在股東層面,一組微軟股東提交提案,要求公司調查其針對以色列使用微軟技術的人權盡職調查程序是否有效。該提案最終未獲通過,但其本身已標志著科技公司股東對人權問題的關切正在從道德層面向法律層面轉化。
七、治理真空:宣言與現實之間的鴻溝
面對AI軍事技術的迅速擴散,國際社會并非毫無回應。然而,現有治理框架的軟弱無力,與這場技術軍備競賽的兇猛勢頭相比,形成了令人沮喪的反差。
在法律層面,國際人道法確立了約束武力使用的核心原則:區分原則(嚴格區分平民與戰斗員)、比例原則(禁止造成過度平民傷亡)、必要性原則(限制武力使用范圍)以及隱私權保護。這些原則在理論上適用于AI賦能的軍事系統,但其有效執行依賴于國家層面的自我約束——而這在現實中往往形同虛設。
在國際規范層面,現有成果主要包括:
聯合國大會第79/239號決議:確認AI賦能軍事系統受國際人道法和國際人權法管轄,但不具約束力。
《布萊切利宣言》(2023年11月,28國簽署):呼吁基于國際協作進行"負責任的AI創新",同樣不具約束力。
美國主導的《關于負責任地在軍事領域使用人工智能和自主能力的政治宣言》(58國支持):要求AI軍事用途符合國際法,由人類進行監督,并減少無意偏見。然而,作為政治宣言而非法律條約,其執行機制幾乎為零。
上述工具的共同特征,是缺乏約束力、缺乏執行機制、缺乏對商業實體的直接規制。在現有框架下,谷歌、亞馬遜、微軟可以一邊在公司人權政策中援引《聯合國工商企業與人權指導原則》,一邊向涉嫌違反國際法的軍隊提供技術支持,而無需承擔任何系統性法律后果。
值得一提的例外,是瑞典的司法實踐。瑞典目前正在對兩名前能源公司高管進行刑事審判,指控其涉嫌協助和教唆在蘇丹發生的戰爭罪——這一案例表明,在特定司法管轄區內,通過普遍管轄權原則追究商業實體刑事責任并非沒有可能。但這樣的司法實踐目前仍屬罕見,遠未形成普遍約束。
八、"戰斗驗證"的軍火:從中東到全球
中東局勢的惡化,不僅僅是一場地區性的人道主義危機。它正在生產一批經過"實戰檢驗"的AI軍事技術,并以此為賣點向全球市場擴散。
以色列的軍火出口一貫以"經過戰斗驗證"作為營銷標簽。在AI時代,這一邏輯被進一步放大:每一次在加沙或約旦河西岸的技術部署,都在為下一代AI軍事產品積累訓練數據和實戰經驗。
地區其他國家的追趕態勢同樣值得關注:
阿聯酋:其國有防務集團EDGE正在收購以色列AI無人機探測公司Thirdeye Systems 30%的股份,并與美國軍火商Anduril建立合資企業,共同生產AI增強型無人機。
土耳其:軍火商STM和拜卡防務(Baykar Defense)已研發出配備AI圖像處理軟件的無人機。STM的"卡爾古"(Kargu)無人機據報道曾于2020年在利比亞實戰部署,針對哈夫塔爾將軍的部隊發動自主攻擊,被認為是全球首例自主致命無人機實戰案例之一。
伊朗:前最高領袖哈梅內伊曾公開呼吁國家"掌握AI",但其具體進展難以獲得獨立核實。
更令人憂慮的是,這些技術的應用場景正在溢出沖突區邊界。面部識別、預測性警務、大規模公共監控——這些在中東戰場上打磨成熟的技術,正在被輸出至世界各地,在非戰爭環境下用于管控普通民眾。國際人權法侵權行為的全球化,已不再是一種警示,而是正在發生的現實。
結語:算法不會悲憫,但人類必須問責
AI賦能的戰爭,并不比傳統戰爭更干凈、更人道。它只是讓殺戮變得更快、更大規模、更難追責。當一個算法在一秒鐘內將一個人標記為目標,當一枚導彈在數分鐘后摧毀他的家園,當這一切都被包裝在"技術進步"的話語之下——我們必須追問:那些設計算法的工程師、那些簽署合同的高管、那些提供云服務的科技巨頭,是否應當為此承擔責任?
中東正在成為AI軍事技術的全球試驗場。這里發生的一切,將塑造未來戰爭的形態,也將檢驗人類社會是否有能力在技術加速時代守住文明的底線。
國際社會需要的,不是更多不具約束力的宣言,而是針對AI軍事技術的強制性國際法律框架;不是科技公司自我標榜的"負責任AI"承諾,而是具有真實法律效力的供應鏈盡職調查義務;不是對戰爭罪行的選擇性沉默,而是對所有參與者——無論是國家、軍隊還是商業企業——一視同仁的司法追責。
算法沒有良知,但人類有。問題是,我們是否愿意使用它。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.