一家AI公司因為拒絕讓自家模型用于自主武器和監控,被美國政府全面封殺。聯邦機構禁用、軍方供應商斷聯,創始人還在另一場官司里拿到了禁令。但上訴法院的三名共和黨任命法官說:先別急,5月19日再辯。
事件核心:兩道禁令,兩種命運
![]()
Anthropic目前陷入兩場平行的法律戰。
第一場在華盛頓特區。公司向哥倫比亞特區巡回上訴法院申請緊急暫停令,要求阻止特朗普政府的拉黑措施。法院昨天拒絕了這個請求,但同意加速審理,5月19日進行口頭辯論。
第二場在加州北部。同一家公司在3月獲得了地區法院的初步禁令,拜登任命的法官Rita Lin認定政府的拉黑構成對憲法第一修正案權利的報復性侵害。特朗普政府正在向第九巡回上訴法院挑戰這一裁決。
同一套事實,兩個聯邦法院給出了相反方向的臨時結論。這本身就是最值得拆解的信號。
正方立場:政府的安全敘事
特朗普政府的行動鏈條非常清晰。
總統指令要求所有聯邦機構停止使用Anthropic技術。國防部長Pete Hegseth將該公司列為"供應鏈國家安全風險",禁止軍事承包商與其開展業務。這套組合拳的殺傷力在于:它不僅切斷直接采購,還阻斷了國防工業生態的間接合作。
政府的核心法律依據是《國防生產法》第4713條,該條款授權行政部門識別并應對供應鏈風險。在法庭文件中,政府方的論證邏輯是:AI基礎設施具有戰略敏感性,供應商的政治可靠性屬于合理審查范圍。
特區巡回法院的裁決書透露了關鍵細節。三位法官承認"Anthropic若未獲暫停令,可能遭受一定程度的不可彌補損害",但將其定性為"主要是財務性質"。對于公司主張的"因受憲法保護言論而遭報復"這一核心指控,法院認為Anthropic"未能證明其言論在本案審理期間受到壓制"。
這里的法律技術值得注意。法院區分了"已經發生的報復"和"持續中的寒蟬效應"——前者可能構成違憲,后者需要更嚴格的舉證標準。Katsas和Rao兩位特朗普任命法官,加上第三位共和黨任命法官,在這個程序性節點上選擇了保守立場:不干預行政部門的臨時措施,但加速實質審理。
反方立場:企業的言論自由主張
Anthropic的訴訟策略將技術決策重新定義為政治表達。
公司主張,拒絕讓Claude模型用于自主武器和針對美國人的大規模監控,是行使第一修正案權利的行為。這種"拒絕合作"被包裝成一種企業言論——通過技術使用政策表達價值立場。
加州法官Rita Lin接受了這個框架。她在3月的裁決中明確將拉黑措施定性為"報復",認為政府行為與企業的價值表達之間存在因果關聯。這一認定如果在上訴中維持,將創造重要的先例:科技公司的產品限制政策可能獲得憲法保護。
Anthropic的財務損害論證同樣具體。聯邦機構和國防供應鏈的禁令不僅意味著直接收入損失,更關鍵的是聲譽風險——當一家AI公司被貼上"國家安全風險"標簽,商業客戶的盡職調查門檻會系統性抬升。法院承認這些損害"不可彌補",因為金錢賠償無法修復市場信任的斷裂。
但特區巡回法院的回應揭示了舉證難題:公司需要證明"言論正在受到壓制",而不僅僅是"曾經因為言論受到懲罰"。在訴訟進行期間,Anthropic仍然可以公開批評政府政策,這削弱了"持續寒蟬效應"的主張。
關鍵分歧:什么是"供應鏈風險"
裁決書中最誠實的表述可能是這句:"Anthropic的訴請提出了新穎且困難的問題,包括第4713條下的'供應鏈風險'如何界定,以及何種情形構成緊急國家安全需求。"
這兩個問題直指AI監管的核心模糊地帶。
傳統供應鏈風險指向硬件依賴、單一來源脆弱性、外國控制等可量化因素。將"企業拒絕特定應用場景"重新定義為供應鏈風險,是行政權力的顯著擴張。如果這一解釋成立,政府實際上獲得了以國家安全名義懲罰企業價值選擇的工具。
更深層的問題是AI基礎設施的特殊性。與芯片或稀土不同,大模型的"供應鏈"包含訓練數據、人才、計算資源、對齊技術等多重維度。Anthropic的案例表明,政策立場本身可能被納入風險評估——這將使"供應鏈安全"成為涵蓋政治忠誠度的口袋罪名。
法院將這些問題標記為"新穎且困難",意味著5月19日的口頭辯論將觸及行政法的基礎邊界。三位共和黨任命法官的程序性克制,未必預示實質裁判的傾向,但確實反映了司法系統對介入國家安全決策的謹慎。
行業影響:AI公司的政治風險定價
無論最終裁決如何,此案已經改變了AI行業的合規計算。
對于Anthropic的直接競爭對手,案件創造了不對稱的競爭環境。OpenAI和Google DeepMind目前沒有面臨同等級別的政府禁令,但它們的產品政策同樣涉及敏感應用場景。如果Anthropic的"拒絕合作"策略獲得憲法保護,其他公司可能被迫在價值表達和政治風險之間重新權衡。
對于國防科技生態,案件暴露了采購體系的脆弱性。軍事承包商與AI公司的合作關系現在面臨政策突變風險——不是基于技術性能,而是基于行政部門的政治判斷。這種不確定性將推高合規成本,可能加速國防AI的垂直整合(軍方自建能力)或地理隔離(轉向政治更"安全"的供應商)。
對于投資者和董事會,案件提出了新的盡職調查維度。AI公司的"言論"——包括安全政策、使用限制、倫理聲明——現在可能被納入國家安全審查范圍。這要求更復雜的政治風險評估框架,而不僅是技術或財務分析。
我的判斷
此案的重要性不在于Anthropic能否贏得訴訟,而在于它揭示了AI治理的結構性張力。
第一,技術政策正在快速憲法化。企業的模型使用限制、安全對齊決策、應用場景排除,這些原本屬于商業自主或行業自律的范疇,現在被重新定義為受第一修正案保護的表達行為。這種法律框架的遷移將深刻改變AI公司的運營邏輯——價值聲明不再是公關修辭,而是具有憲法權重的政治行動。
第二,行政權力的邊界測試進入關鍵階段。特朗普政府將"供應鏈風險"擴展至涵蓋企業政策立場,如果獲得司法認可,將為廣泛的行業干預打開大門。反之,如果法院嚴格限定第4713條的適用范圍,將迫使行政部門回歸更傳統的國家安全論證。
第三,司法系統的內部張力值得關注。特區巡回法院的程序性克制與加州地區法院的實質介入形成對照,這種地理和意識形態的分裂可能隨上訴程序而收斂,也可能固化為不同司法轄區對AI監管的不同態度。
5月19日的口頭辯論不會給出最終答案,但將暴露法官對這三個問題的初步傾向。對于關注AI治理的從業者,這比任何產品發布都更值得追蹤——它決定了未來五年行業與政府的互動規則。
當一家AI公司因為"不想造殺人機器"而被政府拉黑,法院說財務損失不算"不可彌補",但同意加速審理。這個程序性折中背后,是司法系統對介入國家安全決策的本能回避,還是對行政權力擴張的默許縱容?5月19日之后,我們會更清楚答案嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.