一個可能控制未來的人,為什么連自己最親近的同事都不再相信他?
整理 | 王啟隆
出品丨AI 科技大本營(ID:rgznai100)
2023 年 OpenAI 那場看起來已經翻篇的董事會政變,突然又被人從檔案柜里抽出來,重新攤在了燈下。
那樁“舊案”,根本沒翻篇。外界后來一直在看的,其實只是這場風暴最熱鬧的那一層:誰輸誰贏,誰站隊,誰反殺,誰最后又回到了牌桌中央。
可再往下一層,很多問題其實一直都懸著。那幾個決定趕走 Sam Altman 的人,當時到底看見了什么,才會覺得這個可能控制未來技術的人,已經不適合繼續掌舵 OpenAI。
很多當年沒來得及細想的支線,也會一起冒出來。原首席科學家Ilya Sutskever為什么會倒向董事會,后來又迅速反悔。原 CTOMira Murati為什么會在風暴中心短暫接任 CEO,隨后又越來越不像會長期留在 Altman 體系里的那個人。Dario Amodei為什么會在更早的時候,就開始用私人筆記記錄自己對 OpenAI 領導層的長期失望。還有那些后來一點點散掉的安全承諾,被邊緣化的研究團隊,以及一輪輪被稀釋掉的治理約束。
![]()
把它重新翻出來的,是紐約客的最新報道。他們重新打開的,不只是一個人的爭議新聞,而是 OpenAI 從一開始就埋下的那個根問題,如果 AGI 真的是一種足夠危險、足夠強大的技術,那誰有資格掌舵它,誰又有資格被信任。
![]()
![]()
潘多拉魔盒
上百場采訪,此前沒有被完整披露過的 Ilya 備忘錄,以及 Dario Amodei 多年留下來的私人記錄,這些東西一旦被放到一起,事情的性質就會變。
因為它們共同指向的,不是一條足以瞬間擊倒 Sam 的單一“黑料”,而是一種更麻煩的東西,一種跨很多年、反復出現、由不同人從不同位置觀察到的模式。
過去兩年,外界其實已經默認接受了一個更省事的版本,2023 年那場 OpenAI 政變,本質上是一場失敗的宮斗。一群不懂商業現實的董事,在最關鍵的時候對一個最會贏的人發動了行動,結果五天之內就被員工、微軟、資本和現實反撲回來。
這個故事很順,傳播力也很強,所以后來越來越少人去追問,那幾個董事到底看見了什么,才會在那個時間點認定 Sam 已經不適合繼續坐在那個位置上。
而這次舊案重開的真正重心,也就在這里。外界后來最愛談的是結局,Sam 怎么回來,誰站錯了隊,誰輸了權力斗爭。可這次真正逼著人回頭看的,是動機,是董事會為什么會走到那一步,是那些后來被快速壓扁成一句“not consistently candid”(不夠始終如一地坦誠)的東西,究竟裝著什么。
如果把時間線重新排一遍,你會發現,2023 年那場風波后來之所以會被壓縮成“荒唐宮斗”,是因為結局實在太有戲劇性,幾乎蓋過了所有前因。
11 月 17 日,董事會突然出手
OpenAI 董事會在 2023 年 11 月 17 日宣布 Sam Altman 下臺,離開 CEO 職位,也離開董事會。公開給出的理由只有一句,非常短,也非常重,Sam 對董事會not consistently candid。同一時間,Mira Murati 被推成 interim CEO。
![]()
這個動作本身就說明,那次解職并不是毫無預案的瞬間沖動。至少在董事會看來,事情已經嚴重到需要立刻切斷 CEO 權限,同時安排過渡人選。
更關鍵的是,當時的董事會結構本身就很特別。OpenAI 的非商業母體理論上高于商業實體存在,董事的職責也不是優先保障公司估值,而是優先保障其憲章所承諾的“讓全人類受益”。如果在這樣一套結構里,董事會仍然認定 Sam 必須立即下臺,那就說明在他們眼里,這已經不是普通的管理風格問題。
Mira 當時不是邊緣人物。她是 CTO,長期負責 research、product、safety 等關鍵線。董事會把她推成 interim CEO,等于是在說,至少在那個瞬間,它相信公司還能在技術和執行層面維持基本穩定。
她并不是事后才被卷進來的過渡角色。她曾向 Ilya 的備忘錄提供材料,后來也公開表示,自己當時分享的內容是準確的,這就讓她在整個故事里的位置變得很不一樣。
微軟和員工的倒灌,讓權力天平迅速失衡
但這套方案幾乎還沒來得及展開,就被另一股更大的力量頂了回去。
微軟幾乎瞬間站到了 Sam 這邊。Satya Nadella 事先并不知情,但事情一出,他很快就為 Sam 和 Greg Brockman 提供了落點。緊接著,大量 OpenAI 員工聯名,威脅如果董事會不讓 Sam 回歸,他們就跟著去微軟。公開報道顯示,聯署人數很快從 500 人升到 700 人以上,幾乎覆蓋了 OpenAI 當時的大多數員工。
這里最值得注意的,不是“員工愛戴 Sam”這類表層敘事,而是 Sam 的權力基礎原本就不只在董事會里的正式地位。他同時掌握著資本信任、員工認同、產品神話和組織動員能力。一旦這幾股力量在極短時間內同時向一個方向倒灌,形式上的治理結構幾乎沒法頂住。
這場風波真正戲劇化的地方,在于它推進得太快了。
11 月 19 日,OpenAI 一度宣布由 Emmett Shear 接替 CEO。按常理說,這意味著董事會準備強行把組織重新穩住,哪怕代價是正面承受微軟和員工的壓力。
但現實幾乎立刻把這條路堵死。就在 Shear 上位的同時,微軟宣布 Sam 和 Greg 將加入微軟,領導新的先進 AI 研究團隊。員工聯署規模繼續擴大,Mira 的名字也出現在聯署名單里。
Ilya 隨后公開表示遺憾,說自己深深后悔參與董事會行動,愿意努力讓公司重新團結起來。
![]()
從這一刻起,局面實際上已經很難再逆轉。因為董事會面對的不是單一股東壓力,也不是少數高管反對,而是資本、員工、輿論和組織核心層同時向一個方向傾斜。到 11 月 22 日,Sam 回歸成為 CEO,Brockman 回歸,原來的董事會則被重組。
從結果看,這場風波像一場極短的系統故障。Sam 不僅回來了,而且回來得更強。因為在他復位的同時,原來的董事會結構被迅速拆解,新董事會重組,原本那套對 CEO 形成制衡的治理關系基本宣告失效。
這也是為什么 2023 那場風波后來越來越被講成一出典型的硅谷權力戲。
Sam 不是被趕下臺了嗎,結果五天后更強地回來了。微軟沒拋棄他,員工沒拋棄他,資本沒拋棄他,市場對他的信心甚至比之前還更穩了。
太順利了。順到連當時那句“not consistently candid”后來都像變成了一句禮貌性廢話,沒人在意 Sam 到底誠不誠實,仿佛那不過是某種無法公開說清的人際矛盾,是一些不成熟董事對一個高壓 CEO 的誤判。
![]()
匯在一起的支線
Ilya 的離開,代表的是最核心科學家對 Sam 的失去信任。
Ilya Sutskever 是那種在 OpenAI 敘事里天然帶著“核心科學家”光環的人。如果你真的相信 AGI 是一項接近核按鈕級別的技術,那 Ilya 本來就應該是最有資格判斷誰適不適合站在按鈕旁邊的人。
![]()
這也是為什么他的秘密備忘錄會那么重。重的不是里面用了某個特別狠的詞。硅谷的公司政治里,什么話說不出來。真正重的,是 Ilya 最后歸納出來的那個方向,Sam 的問題不是某一件事沒處理好,不是某一次誤導,不是某個節點上大家溝通不順,而是一種趨勢。
這次披露顯示,Ilya 不只是表達了抽象不滿,而是與同路人一起整理了數十頁 Slack 消息、HR 材料和解釋文本,用極度謹慎的方式發給其他董事。對一個平時更像研究者而不是政治操盤手的人來說,這個動作已經說明,他不是在發泄,而是在試圖說服別人,這件事已經嚴重到需要真正出手。
而且 Ilya 自己后來的搖擺也很有信息量。他既是推動罷免的關鍵人物,又很快對結果表達遺憾,甚至名字出現在員工聯署里。這不是簡單的人設崩塌,而更像在說明,即便是最早感受到危險的人,也未必承受得住那場反撲的現實強度。后來 Ilya 離開 OpenAI、創辦 Safe Superintelligence,本身也像一種余波——那場風暴過去了,但圍繞安全與控制權的根本分歧,并沒有消失。
Mira 從“擁躉”到離開,代表的是組織中軸也在發生裂解。
宮斗的陰影沒有從 OpenAI 的每一個人心里抹去。那一年 Mira 幾乎成為了 OpenAI 的形象大使,Sora 出來很多人采訪她、GPT-4o 出來很多人采訪她,而她在這些采訪無數次的說明,OpenAI 沒有問題,我們很相信 Sam Altman。
然后就在 Ilya 走后不久,短短幾個月的時間,創始人之一 Greg Brockman 選擇長期休假,Mira Murati 也離開了。
![]()
這次披露里提到,她曾向 Ilya 的備忘錄提供材料,而且她后來明確表示,自己當時分享的一切都是準確的,自己現在依然支持這些材料。
這句其實很重。因為它說明,2023 那場風波里,問題不是只停留在董事會和一小撮安全派之間。至少在 Sam Altman 的“自己人”這邊,也有人認為,圍繞 Sam 的那些疑問并不是空穴來風,不是單純的意識形態誤判,而是確實存在的問題。
如果她在 2023 之后穩穩留在 Altman 體系里,很多人還能說,那場風波不過是一時混亂,后來公司還是恢復正常了。可如果連她這種位置的人,最終也和 OpenAI / Altman 分道揚鑣,那你就很難再把整個故事理解成單純的董事會錯判。它更像是在說,對這套領導方式的裂縫并沒有因為 Sam 復位而真正消失。
她不像 Ilya 那樣天然會被貼上“安全派”標簽,也不像 Amodei 那樣容易被解釋成“競爭對手的舊怨”。她越往外走,越說明這不是單一派系的反抗,而是公司中心層也在逐步失去穩定感。
Amodei 代表的是問題不是 2023 年突然爆發,而是早就積累了很多年。
如果真把 OpenAI 這些瓜比喻成甄嬛傳,那 Dario Amodei 怎么說也得是一位“前傳”人物,因為他不是 2023 年才開始懷疑 Sam Altman,更不是離開 OpenAI、創辦 Anthropic 之后,才突然回頭覺得哪里不對。
他多年留下了私人記錄,記錄的焦點并不只是一次沖突,而是圍繞安全、治理邊界和微軟交易條款等關鍵問題的長期失望。
![]()
這次披露中,一個特別關鍵的早期節點,是 2019 年微軟投資 OpenAI 時,Amodei 對一些可能削弱原始憲章精神的條款表達了警惕。比如 merge-and-assist 這種在正常商業邏輯里幾乎不可思議的條款精神,一度代表著 OpenAI 最極端也最自我克制的承諾,如果有另一個更安全、更對齊的項目先接近 AGI,OpenAI 理論上應該停下來協助它。可在現實交易里,這種精神很快開始與商業安排發生碰撞。
后來 Amodei 與妹妹 Daniela Amodei 等人離開 OpenAI,創辦 Anthropic,打造了我們現在全球爆火的 Claude 和 Claude Code,這本身就說明 OpenAI 的裂痕并不是留在公司內部被修補掉了,而是直接外溢成了一家新的公司。Anthropic 早期最重要的自我敘事之一,就是它試圖把安全承諾做得比 OpenAI 更硬、更不容易被商業壓力吞掉。
當然,故事后來也變復雜了。Anthropic 自己并沒有永遠站在道德高地上。隨著融資壓力、軍方合作、國家競爭邏輯一起壓上來,它后來也開始對資本、軍方需求和更現實的擴展壓力做出抵抗與妥協。這恰恰讓這條對照線更有力量。因為它說明,OpenAI 的問題并不只是 Sam 一個人的問題,它也是整個 AI 產業在資本和國家邏輯牽引下越來越難維持原始安全承諾的問題。
只要時間線被拉長,2023 那場政變就不再像一次單點爆炸。它更像是前面很多裂縫、很多沖突、很多積累,在某個瞬間集中沖到了董事會層面。
![]()
Sam Altman 為什么總是能贏?
OpenAI 從來不是一個普通 startup。它一開始就不是按“做出最好產品、賺最多錢”這種普通硅谷邏輯來敘述自己的。它最早的存在理由,是一套非常明確、甚至有點悲壯的前提:AGI 可能是人類歷史上最強大、也最危險的技術,所以它需要一套不同于普通公司的治理結構,需要把 humanity 和 safety 放到公司利益之前,需要避免某個單一的資本方、單一的 CEO、甚至某個“會贏的人”天然掌控一切。
說得再直白一點,OpenAI 最早最重要的承諾,不是“我們會造出最強的模型”,而是“別讓錯誤的人控制 AGI”。當然,這里又可以引入人盡皆知的,馬斯克和奧特曼分道揚鑣的故事了。
![]()
總之,這條線不是停留在抽象口號上的。很長一段時間里,OpenAI 的近乎反商業常識的條款精神,都說明它是真的想把“安全優先于贏”寫進組織基因里。可到了后來,很多具體動作慢慢都在說明,這套東西正在一點點松掉。
這次披露里有幾個具體節點特別值得注意。
一個是 2023 年前后圍繞 superalignment(超級對齊)團隊的資源承諾。公司曾對外高調承諾,會把大量計算資源投入到這一方向。但實際在團隊里工作的研究者后來表示,真正到位的資源遠低于外界感知,甚至很多算力還落在更老舊的集群上。對一家已經把安全當成對外身份的重要組成部分的公司來說,這種“語言上的優先級”和“資源上的優先級”不一致,本身就是一種信號。
另一個是相關安全與 readiness 團隊后來被削弱、邊緣化,甚至解散。也就是說,原本那套被當作組織護欄的東西,并沒有隨著模型能力上升而變得更硬,反而越來越像會在產品壓力、收入壓力和競爭壓力之下被挪開的部件。
再往外看,公司的語言也在變化。早期圍繞存在性安全的那種莊嚴敘述,慢慢被更輕、更商業、更地緣政治化的話語替代。OpenAI 仍然會說安全重要,但“安全”越來越不像一個足以約束擴張方向的原則,更像一種需要時可以拿出來的說法。
這一點如果和 2024 之后的方向一起看,會更明顯。OpenAI 越來越深地卷入國家能力、軍方合作、基礎設施、全球算力布局這些議題,技術的風險邊界沒有消失,組織卻越來越像一臺必須持續擴張的機器。那種最早寫在 Charter 里的自我克制,到了這里,已經很難再成為真正有效的制動器。
OpenAI 并不是在一個完全中性的商業環境里,偶然選了一個爭議 CEO。它本來就是一家公司格外強調“誰有資格掌舵這項技術”的組織。而現在,恰恰是在這點上,它暴露出了最大的裂口。
但 OpenAI 和 YC 的成功又證明了,資本的選擇或許對了。
![]()
所以,Sam Altman 為什么總是能贏?而且是在那么多原本應該約束他的結構失效之后繼續贏。
如果這是個中世紀故事,我會把 Sam Altman 比喻成類似魔女的角色,因為他很顯然有一種魔力,讓不同人都在某個階段相信他和自己的目標是一致的。
對安全派,他可以顯得比誰都懂風險。對監管者,他可以顯得比誰都更歡迎規則。對資本,他可以顯得比誰都更清楚算力競賽沒有退路。對員工,他可以顯得像那個最能把組織帶去更大未來的人。對政府,他又可以迅速切進國家競爭和地緣政治的語境。
這不是簡單意義上的“表里不一”。更像是一種極強的現實調度能力。紙面上的約束,他可以先接受;等約束真的開始生效的時候,再想辦法改掉。安全語言,他可以先講;等它開始妨礙產品和擴張的時候,再把它重新定義。治理結構,他可以先讓它存在;等它真的有機會對自己形成限制的時候,再在現實層面把它拆空。
尤其是在 AI 這件事上。因為 AI 今天已經不只是一個產品賽道了。它越來越像一種基礎設施,一種國家能力,一種戰爭能力,一種監管能力,一種未來經濟秩序的底盤。誰來決定它往哪里走,誰來決定它和軍方、政府、資本、全球數據中心怎么捆在一起,這些都已經不是普通公司治理問題了。
但硅谷就是這樣,資本就是這樣,所有公司都會向現實妥協,Anthropic 后來也一樣,Google 也一樣,OpenAI 只不過把這個問題演得更戲劇化而已。
所以紐約客在他們的文章最后提出了一個質問:如果連 OpenAI 這種一開始把“不能讓錯誤的人控制 AGI”寫進自己 DNA 的組織,最后都走到了這里,那我們今天到底還剩什么機制去約束下一次、更大規模的 AI 權力集中?
這個時代,到底還有沒有任何東西,能真正約束一個既會講故事、又能調動資本、員工、政府和技術神話的人。
如果答案越來越接近“沒有”,那這篇被重新翻出來的舊案,寫的就不只是 OpenAI 了。它寫的是,我們離自己最早說過最害怕的那種東西,到底還有多遠。
紐約客原文:https://www.newyorker.com/magazine/2026/04/13/sam-altman-may-control-our-future-can-he-be-trusted
(投稿或尋求報道:zhanghy@csdn.net)
![]()
"48 小時,與 50+ 位大廠技術決策者,共探 AI 落地真路徑"
由 CSDN&奇點智能研究院聯合舉辦的「全球機器學習技術大會」正式升級為「奇點智能技術大會」。
2026 奇點智能技術大會將于 4 月 17-18 日在上海環球港凱悅酒店正式召開,大會聚焦大模型技術演進、智能體系統工程、OpenClaw 生態實踐及 AI 行業落地等十二大專題板塊,特邀來自BAT、京東、微軟、小紅書、美團等頭部企業的 50+ 位技術決策者分享實戰案例。旨在幫助技術管理者與一線 AI 落地人員規避選型風險、降低試錯成本、獲取可復用的工程方法論,真正實現 AI 技術的規模化落地與商業價值轉化。
這不僅是一場技術的盛宴,更是決策者把握 2026 AI 拐點的戰略機會。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.