靠譜的新媒體不多,請關(guān)注美國華人雜談
全文共 4567字,閱讀大約需要8-12分鐘
本文系作者原創(chuàng),授權(quán)“美國華人雜談”獨(dú)家發(fā)布。已開通快捷轉(zhuǎn)載,歡迎轉(zhuǎn)發(fā)。
請使用網(wǎng)站Justicepatch.org查看完整文章及更多內(nèi)容,為防失聯(lián),請通過郵件訂閱網(wǎng)站,或關(guān)注我們的電報(bào)頻道:https://t.me/piyaoba
2026年初,一場圍繞人工智能核心控制權(quán)的沖突將科技界與美國國家機(jī)器推向了對立面。這不再是存在于科幻小說中的假想,而是真切發(fā)生在五角大樓與硅谷之間的權(quán)力博弈。一邊是Anthropic寧可遭受制裁與封殺,也拒絕取消防止大模型被用于國內(nèi)監(jiān)控和自主武器(mass domestic surveillance and autonomous weapons)的安全護(hù)欄;另一邊,則是OpenAI首席執(zhí)行官薩姆·奧特曼在臺面上聲援同行,背地里卻迅速與軍方簽署了包含“所有合法目的”這一巨大漏洞的協(xié)議。這場風(fēng)波直接引爆了全網(wǎng)的 和 運(yùn)動。透過這場紛爭,我們需要嚴(yán)肅探討:人工智能的邊界究竟在哪里?科技巨頭的不同選擇為何會帶來截然相反的社會評價(jià)?當(dāng)國家機(jī)器掌握了無孔不入的AI監(jiān)控技術(shù),我們是否正在不可逆轉(zhuǎn)地滑向《1984》或《黑鏡》中所描繪的深淵?
![]()
Stephanie Arnett/MIT Technology Review | Getty Images
路線分歧與權(quán)力博弈 誰來主導(dǎo)人類的明天
2 月 24 日,美國國防部長皮特·赫格塞斯( Pete Hegseth)給 Anthropic 聯(lián)合創(chuàng)始人兼首席執(zhí)行官達(dá)里奧·阿莫迪(Dario Amodei)下達(dá)了最后期限:在 2 月 27 日星期五下午 5:01 之前讓步,并允許“ 出于所有合法目的 ”不受限制地使用該公司的 AI 模型。
Anthropic 公司周四發(fā)表聲明稱,將不會妥協(xié)。隨后,周五,川普總統(tǒng)指示聯(lián)邦機(jī)構(gòu)停止使用 Anthropic 公司的產(chǎn)品,而 Hegseth 則將該公司列為供應(yīng)鏈風(fēng)險(xiǎn)企業(yè)。
要理解Anthropic與五角大樓沖突的本質(zhì),必須跳出具體合同條款的框架,看到兩者對人工智能未來愿景的根本分歧。正如《華爾街日報(bào)》所剖析的,這本質(zhì)上是一場關(guān)于誰來為初創(chuàng)技術(shù)立規(guī)矩的權(quán)力之爭。
阿莫迪曾表示,他的技術(shù)已被軍方和情報(bào)部門用于網(wǎng)絡(luò)安全和支持作戰(zhàn)行動。通過與數(shù)據(jù)公司 Palantir Technologies 的合作,他的人工智能技術(shù)被用于美軍抓捕委內(nèi)瑞拉領(lǐng)導(dǎo)人尼古拉斯·馬杜羅的行動中。
在五角大樓眼中,人工智能是一種必須被牢牢掌握在國家手中的高效防御與對抗工具。面對極其復(fù)雜的現(xiàn)代地緣政治競爭,軍方高層認(rèn)為,只有利用機(jī)器遠(yuǎn)超人類的反應(yīng)速度,才能在未來的高科技戰(zhàn)爭中占據(jù)先機(jī)。為了迫使Anthropic就范,五角大樓甚至拋出了一個(gè)類似冷戰(zhàn)科幻電影《戰(zhàn)爭游戲》般的極端假設(shè)。他們質(zhì)問,如果美國面臨迫在眉睫的導(dǎo)彈襲擊,Anthropic是否會因?yàn)槠鋬?nèi)部禁止自主武器的規(guī)定,而阻止政府使用AI模型來攔截導(dǎo)彈?在軍方看來,國家生死存亡高于一切企業(yè)倫理。國防部高層對硅谷企業(yè)的態(tài)度感到憤怒,認(rèn)為這些被打上“覺醒”標(biāo)簽的私營企業(yè)無權(quán)干預(yù)國家安全,更不能僭越代議制民主。他們堅(jiān)信規(guī)則應(yīng)當(dāng)由國會制定、總統(tǒng)簽署、軍隊(duì)執(zhí)行,而不是由一家科技公司的董事會來決定。
然而,在硅谷和Anthropic的視角中,人工智能絕非普通的實(shí)用工具,而是可能發(fā)展出自主意識甚至超級智能的未知力量。將這種尚未完全成熟、充滿不可預(yù)測性的技術(shù)直接交由強(qiáng)力部門用于生殺予奪的軍事行動,無異于打開潘多拉魔盒。Anthropic明確指出,當(dāng)前的前沿AI系統(tǒng)還遠(yuǎn)不夠可靠,根本無法安全地驅(qū)動完全自主武器。在他們看來,真正的愛國主義并非對國家機(jī)器的盲從,而是防止這項(xiàng)技術(shù)反噬美國社會賴以生存的民主與自由根基。這場爭端的真正利害關(guān)系,是在決出究竟是軍方的實(shí)用主義,還是硅谷的倫理審慎,將主導(dǎo)人類的明天。
人工智能的倫理邊界:工具與利維坦的界限
討論人工智能的邊界,本質(zhì)上是在討論人類與機(jī)器在生殺大權(quán)和基本自由上的權(quán)力分配。人工智能的邊界不應(yīng)由技術(shù)的算力和迭代速度來定義,而必須由人類的尊嚴(yán)、道德責(zé)任以及憲法賦予的基本權(quán)利來劃定。在這場爭端中,Anthropic所堅(jiān)守的兩條紅線,精準(zhǔn)地標(biāo)定了這條不可逾越的邊界。
首先,人工智能的邊界在于它絕不能成為剝奪人類生命尊嚴(yán)的自動化工具。在軍事和武裝沖突中,將殺戮的決定權(quán)交給毫無感情的算法,跨越了人類最基礎(chǔ)的道德底線。真實(shí)的戰(zhàn)場上,人類士兵在扣動扳機(jī)時(shí)會經(jīng)歷良心的掙扎、猶豫甚至同情,這種人性的弱點(diǎn)恰恰是防止濫殺的最后防線。而自主武器系統(tǒng)僅僅依靠冷酷的代碼運(yùn)行,以極高的計(jì)算速度將活生生的人降格為數(shù)字瞄準(zhǔn)鏡中的數(shù)據(jù)。這不僅導(dǎo)致了責(zé)任歸屬的徹底失效,更讓殺戮淪為一種高效、平庸的數(shù)據(jù)處理過程。人類的生命權(quán)要求,任何涉及致命武力的決定都必須保留有意義的人類控制和主觀意圖,機(jī)器不能作為道德責(zé)任的承載者。
其次,人工智能的邊界在于它不能成為刺探人類內(nèi)心世界的全天候探測器。在大規(guī)模國內(nèi)監(jiān)控領(lǐng)域,AI的介入徹底改變了權(quán)力對個(gè)人的凝視方式。傳統(tǒng)監(jiān)控收集的是物理軌跡和公開言論,而現(xiàn)代大語言模型具備極其恐怖的自然語言理解和心理分析能力。它可以通過分析個(gè)人的瀏覽記錄、消費(fèi)習(xí)慣甚至未發(fā)送的文本草稿,精準(zhǔn)描繪出每個(gè)人的政治光譜和心理弱點(diǎn)。如果允許國家機(jī)器不受限制地使用這種力量,人類內(nèi)心世界這一最后的避難所將被徹底摧毀。因此,保護(hù)思想自由和免于免受無理搜查的權(quán)利,構(gòu)成了AI技術(shù)不可逾越的另一道法律與倫理邊界。
Anthropic守住底線的代價(jià)與尊嚴(yán)
在面對五角大樓取消兩億美元合同、甚至動用《國防生產(chǎn)法》威脅的極限施壓下,Anthropic及其首席執(zhí)行官達(dá)里奧·阿莫代伊選擇了不退讓。他們不僅拒絕了軍方完全無視安全護(hù)欄的要求,也拒絕了那些看似妥協(xié)、實(shí)則暗藏法律漏洞的合同條款。這種堅(jiān)守底線的行為,不僅贏得了公眾的尊重,更在商業(yè)利益與公共利益的博弈中樹立了標(biāo)桿。
Anthropic的堅(jiān)持之所以令人敬佩,是因?yàn)樗麄兇链┝艘試野踩珵槊膫紊疲葱l(wèi)了真正的民主價(jià)值觀。政府往往以地緣政治競爭為由,要求獲得不受限制的技術(shù)力量。但阿莫代伊指出,如果為了對抗外部的極權(quán)威脅,而在國內(nèi)建立起一模一樣的全面監(jiān)控體系和不受人類控制的殺人機(jī)器,這本身就違背了自由社會的根基。他那句“反對政府是世界上最美國的事情”,振聾發(fā)聵地提醒公眾:真正的愛國主義不是對國家機(jī)器的盲從,而是在權(quán)力試圖侵蝕憲法和基本人權(quán)時(shí),敢于站出來說“不”。
此外,Anthropic的決斷體現(xiàn)了對技術(shù)局限性的誠實(shí)與負(fù)責(zé)。他們清醒地認(rèn)識到,當(dāng)前的前沿AI系統(tǒng)依然存在黑箱效應(yīng)和不可預(yù)測性,遠(yuǎn)未達(dá)到能夠安全可靠地驅(qū)動完全自主武器的程度。在明知技術(shù)存在重大缺陷的情況下,拒絕將其用于可能造成不可挽回后果的致命領(lǐng)域,是一家科技企業(yè)最基本的良知。盡管他們因此被列入“國家安全供應(yīng)鏈風(fēng)險(xiǎn)”名單,面臨商業(yè)版圖的重創(chuàng),但這種寧為玉碎不為瓦全的姿態(tài),證明了在充滿不確定性的AI時(shí)代,可信度和道德脊梁才是企業(yè)最核心的資產(chǎn)。這也正是為什么大量用戶選擇轉(zhuǎn)向Claude,將其登頂應(yīng)用商店下載榜首的原因,這是一場消費(fèi)者用行動進(jìn)行的良心投票。
奧特曼的兩面派為何不得人心
![]()
與Anthropic的決絕形成鮮明對比的,是OpenAI及其CEO薩姆·奧特曼的圓滑與虛偽。在競爭對手因堅(jiān)守道德紅線而被封殺之際,OpenAI趁虛而入。OpenAI此前悄悄修改了其使用條款,刪除了此前對“武器開發(fā)”和“軍事與戰(zhàn)爭”用途的明確禁令,取而代之的是更模糊的“不利用服務(wù)傷害他人”原則,并迅速接盤了五角大樓的合同。這種行為本身已經(jīng)引發(fā)了關(guān)于其政治中立性和道德立場的廣泛質(zhì)疑,但真正激怒公眾、導(dǎo)致其搬起石頭砸自己腳的,是奧特曼試圖侮辱公眾智商的公關(guān)操作。
奧特曼在社交媒體上大張旗鼓地宣稱,國防部同意了他們的安全原則,協(xié)議中保留了禁止國內(nèi)大規(guī)模監(jiān)控和自主武器的底線。然而,推特的“社區(qū)筆記”功能和官方聲明迅速撕破了這層偽裝。官方文件冷酷地指出,該協(xié)議允許軍方將模型用于“所有合法目的”。在現(xiàn)行的某些法律框架和緊急狀態(tài)下,這個(gè)模糊的詞匯是一個(gè)足以吞噬一切安全承諾的巨大黑洞。公眾立刻意識到了其中的邏輯悖論:如果五角大樓能夠接受這些限制,Anthropic為何會被封殺?唯一的解釋就是,OpenAI不僅向強(qiáng)權(quán)低了頭,還試圖用“雙重話術(shù)”繼續(xù)維持自己科技理想主義者的人設(shè)。
這種當(dāng)眾撒謊的行為引發(fā)了極其嚴(yán)重的信任危機(jī)。對于用戶而言,AI助手掌握著他們最私密的數(shù)據(jù)、代碼和思想。如果一家公司的領(lǐng)導(dǎo)者可以面不改色地掩蓋與軍方達(dá)成的致命交易,用戶又如何能相信自己的隱私不會被隨時(shí)出賣給國家機(jī)器?伴隨著高管向政治行動委員會砸下數(shù)千萬美元政治獻(xiàn)金的丑聞,以及產(chǎn)品端日益嚴(yán)重的諂媚和過度說教傾向,公眾的憤怒終于化作了洶涌的 #quitgpt 和 #canclegpt 運(yùn)動。據(jù)報(bào)道有70萬用戶卸載應(yīng)用、取消訂閱,宣告了ChatGPT默認(rèn)壟斷地位的終結(jié)。奧特曼試圖在權(quán)力和公眾之間兩頭討好,最終不僅失去了道德制高點(diǎn),也遭受了實(shí)實(shí)在在的商業(yè)重創(chuàng)。
數(shù)字極權(quán)的現(xiàn)實(shí)陰影
當(dāng)我們審視這場政企沖突的深層邏輯,最令人感到脊背發(fā)涼的,是政府試圖利用AI實(shí)施全面?zhèn)€人監(jiān)控的圖謀。如果Anthropic的安全護(hù)欄被徹底打破,OpenAI的妥協(xié)成為行業(yè)常態(tài),我們是否會步入喬治·奧威爾在《1984》中描繪的恐怖世界,或是《黑鏡》中冰冷絕望的科技反烏托邦?答案是,現(xiàn)實(shí)可能比小說更加隱蔽和徹底。
《1984》中的老大哥通過無處不在的電幕進(jìn)行監(jiān)視,這種控制主要依賴于物理層面的觀察和暴力的恐懼。而人工智能帶來的,是一種全新的、無痛的數(shù)字極權(quán)。當(dāng)大語言模型被整合進(jìn)政府的情報(bào)和執(zhí)法系統(tǒng),監(jiān)控將從外部行為深入到人的潛意識。算法不需要特務(wù)去破門而入,它只需靜靜地處理海量的數(shù)據(jù)流,就能計(jì)算出每一個(gè)公民的順從度與潛在威脅。這種“自動化思想警察”能夠提前扼殺任何異見的火苗,讓反抗在未成型前就消弭于無形。
更可怕的是,這種系統(tǒng)與現(xiàn)代數(shù)字生活的深度綁定,使得國家機(jī)器掌握了瞬間剝奪個(gè)人社會生存權(quán)利的能力。正如專家所擔(dān)憂的,AI可以通過調(diào)整算法權(quán)重,讓人在數(shù)字世界中遭遇徹底的社會性死亡。它可以切斷你的支付能力、限制你的出行軌跡、抹除你的網(wǎng)絡(luò)身份。在這個(gè)體系下,暴力的物理鎮(zhèn)壓顯得既低效又多余。人們可能在不知不覺中,為了換取數(shù)字服務(wù)的便利而交出了全部的自由意志,最終在溫水煮青蛙的安逸中,淪為算法矩陣?yán)锏耐该鲾?shù)據(jù)。
此外,當(dāng)這種冷酷的算法被賦予殺戮的權(quán)力,漢娜·阿倫特所提出的“平庸之惡”將在機(jī)器上得到終極演變。不再有瘋狂的獨(dú)裁者或狂熱的劊子手,只有絕對服從指令、以億萬次計(jì)算速度高效抹殺生命的系統(tǒng)程序。在這個(gè)未來里,人類的生命尊嚴(yán)被徹底物化,戰(zhàn)爭和鎮(zhèn)壓成為一種日常的、毫無波瀾的數(shù)據(jù)清理工作。
這場發(fā)生在2026年的對抗,遠(yuǎn)不止是一場商業(yè)合同的爭奪,它是在決出究竟是誰對人工智能的構(gòu)想將主導(dǎo)人類的明天。Anthropic的堅(jiān)守告訴我們,即使在最強(qiáng)大的國家機(jī)器面前,技術(shù)的發(fā)展也必須有所敬畏,良知依然是人類抵御極權(quán)最后的防線。而公眾通過退訂運(yùn)動所展現(xiàn)出的反抗力量也證明了,普通人并非只能被動接受被算法統(tǒng)治的命運(yùn)。如果我們在今天放棄了對技術(shù)權(quán)力的監(jiān)督,明天我們就將永遠(yuǎn)失去定義自身自由的權(quán)利。
https://www.cbsnews.com/news/hegseth-declares-anthropic-supply-chain-risk/
https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-strikes-deal-with-pentagon-following-claude-blacklisting
https://www.opb.org/article/2026/02/27/openais-sam-altman-weighs-in-on-pentagon-anthropic-dispute/
https://www.thestreet.com/technology/sam-altman-just-pulled-off-a-deal-nobody-saw-coming
https://www.tomsguide.com/ai/700-000-users-are-ditching-chatgpt-heres-why-and-where-theyre-going
https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17?mod=article_inline
https://dig.watch/updates/openai-alters-usage-policy-removes-explicit-ban-on-military-use
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.