當硅谷還在爭論AGI何時到來,29歲的SemiAnalysis創始人Dylan Patel已經在盤算一個更瘋狂的問題:如何在太空軌道上建數據中心。在這場43分鐘的TBPN訪談中,這位芯片產業最鋒利的分析師,用一連串讓人屏息的數字和預測,撕開了AI基礎設施戰爭的真相——從SpaceX火箭發射成本的暴跌,到Nvidia悄然放棄"一個GPU打天下"的策略,再到為什么電力根本不是瓶頸、真正卡脖子的是臺積電的晶圓廠產能。
更震撼的是他透露的一個數字:OpenAI計劃到2028年底部署16GW算力規模,而實現這一目標的關鍵,可能不在德州的沙漠里,而在距離地球數百公里的太空軌道上。
![]()
原文鏈接:https://www.youtube.com/watch?v=EvBddHMCFNk
訪談來源
:TBPN直播節目 @ Cisco AI Summit, San Francisco
受訪者
:Dylan Patel,SemiAnalysis創始人兼CEO
太空不是科幻,是2028年的生意
"大家總說把東西送上太空很貴,"Dylan開場就打破這個刻板印象,“但你看看SpaceX的Starship發射成本曲線,到本世紀末,太空部署的經濟性會接近地面數據中心。”
真空環境下散熱變得簡單粗暴——你只需要裝一塊巨大的散熱器,熱量直接輻射到宇宙空間,不需要任何冷卻系統。太陽能電池板在軌道上持續發電,電力成本在集群總開支里占比不到10%。Dylan強調:“問題不是省下這10%,而是另外90%——芯片的可靠性和維護成本。”
這里有個讓人頭疼的現實:Nvidia GPU剛上線時,10%到15%會在頭兩周內掛掉,需要技術人員去機房拔插頭、換備件。Blackwell芯片現在的失效率還在10-15%,Hopper經過優化已經降到5%,但每一代新芯片上來都會先飆升再慢慢降下來。Dylan調侃:“在地面,肉體工人其實挺便宜的,但在太空誰去拔插頭?”
他提到XAI計算負責人和Anthropic計算負責人之間有個賭約:到2028年底,全球數據中心算力有多少比例會部署在太空?賭注門檻是1%——相當于1GW算力在軌運行。Dylan說這需要大約150次Starship發射,“聽起來瘋狂,但其實不是那么不可能。問題是Starship還沒有完全work,芯片失效了怎么辦,小衛星集群怎么互聯……這些工程問題才是真正的挑戰。”
![]()
Nvidia的大轉向:一刀切時代結束了
過去Nvidia的邏輯很簡單:我有最強的GPU,軟件生態無敵,一個芯片打天下。但Dylan觀察到一個關鍵變化:“他們最近有個巨大的vibe shift(氛圍轉變)。”
Nvidia現在同時推出了三條產品線:CPX芯片專門做預填充和視頻圖像生成,標準GPU繼續扛大規模訓練,收購來的Groq芯片瞄準特定推理場景。Dylan說:“這尖叫著一個事實——Nvidia自己也不知道AI到底會走向哪里。模型架構、軟件棧變化太快,所以他們決定在帕累托最優曲線上多個點同時下注,總有一個會贏。”
這背后還有一層焦慮:OpenAI和Cerebras簽了大單,Nvidia慌了。他們意識到不能再等著讓一個芯片適配所有場景,必須主動分化產品矩陣。
Cerebras的反直覺邏輯:延遲不重要,吞吐量才是王道
"大家老想著延遲,覺得數據中心離用戶近很重要,"Dylan搖頭,“但在AI代理時代,這根本不重要。”
他舉例:當你用Claude寫代碼或者讓AI跑一個復雜任務,你根本不在乎它是10秒回復還是30秒回復,你在乎的是這個任務是5分鐘跑完、10分鐘跑完還是30分鐘跑完。“很多人愿意付10倍價格,只要任務完成時間縮短10倍。”
這就是Cerebras的價值所在:超大片上內存、極致并行吞吐,把長任務的反饋時間從半小時壓到幾分鐘。OpenAI和Cerebras簽了750MW的推理算力協議,專門用于那些"價格完全不敏感"的超長推理任務。Dylan透露,OpenAI的目標是到2028年底達到16GW規模,750MW只是其中不到5%的切片。
他還補了一句:“Andre Karpathy這種頂尖工程師,根本不在乎每秒燒多少錢,他們只要速度。但也有長尾用戶,成本很重要。所以整個產品曲線上都得有解決方案。”
電力不是瓶頸,臺積電才是
Dylan用一組對比數據撕碎了"電力瓶頸論":AI算力大約用掉全球能源產能的1%,但用掉了領先制程晶圓廠產能的50%。
"就算全社會說我們all in AI,電力理論上可以翻好幾倍——你可以讓所有人關空調,把電送給數據中心。"他當然是在開玩笑,但邏輯成立:發電方式多元化,燃氣輪機、雙循環機組、中速往復式發動機,甚至康明斯的柴油發動機都能拿來發電。2025年新增了15到18GW,2026年預計新增30GW,接近翻倍。
"但芯片制造不一樣。"Dylan的語氣變得嚴肅,“有12家公司能造中速往復式發動機,你可以找經紀人加價50%、2倍買到貨。但你能打電話買一條3納米產線嗎?不可能。最后只有臺積電。”
他說晶圓廠是人類建造的最復雜建筑:整個潔凈室的空氣每1.5秒循環一次,顆粒物控制在十億分之一級別,"你可以在里面被COVID患者對著臉咳嗽,都不會被傳染,因為空氣循環太快了。"他甚至提到一個冷知識:武漢疫情時,中國存儲芯片廠YMTC的工人照常上班,因為晶圓廠太干凈,根本不會傳染病毒。
建一座新晶圓廠需要數年時間。Dylan的判斷是:2024到2025年,電力是最大瓶頸;2026年供電跟上了,但到2027年,芯片產能會重新成為卡脖子的那一環。內存廠商從2022年之后就沒建過新產線,因為他們的周期太動蕩,不敢擴產。
Google的秘密武器:跨數據中心訓練
Google有一個被嚴重低估的優勢:他們能把多個數據中心的算力整合成一個超大集群。
Dylan解釋,Google在內布拉斯加、愛荷華、俄亥俄等地建了"區域復合體",每個數據中心相距大約40英里。不是全球分布,而是區域集中,這讓跨數據中心訓練變得可行。
過去這幾乎不可能,因為預訓練需要每10到20秒同步一次所有模型權重,延遲扛不住。但強化學習改變了游戲規則:大部分時間芯片只做前向推理生成數據,只需要把驗證后的最終tokens發回訓練集群。同步頻率從秒級降到分鐘級,數據量大幅減少。
"現在Anthropic也在做這個——一組芯片跑推理,另一組芯片跑訓練。"Dylan說Google已經領先好幾年,其他公司剛剛開始追趕。
Google還在走產品分化路線,他們的TPU以前只有Broadcom一條主線,現在分出了三個項目:Broadcom做一款,聯發科做一款,還有第三個秘密項目。每一款針對不同的算力需求——有的側重超高FLOPS,有的側重超快片上內存,有的側重3D堆疊內存。“大家都意識到,沒有一個芯片能通吃所有場景。”
Cloud Code心理病:華爾街分析師不再需要Excel
Dylan提到他的合伙人Douglas Olaflin最近"患上了Cloud Code心理病"。這位前對沖基金分析師從來沒寫過代碼,但現在用Claude完成所有開發工作。
"他會把整個項目壓縮成zip發給我們的IT主管,文件路徑寫的是localhost。"Dylan笑了,“IT主管一臉懵:兄弟,這不是這么用的。”
更瘋狂的是,他們兩周前去紐約拜訪對沖基金客戶,Doug花了一半時間在跟這些基金經理說:"你們不需要再雇初級分析師了。"用Claude直接構建財務模型、生成圖表、跑分析,完全不需要打開Excel。“你只需要懂金融邏輯怎么運作,Claude會幫你實現。”
Dylan說他們遇到過Vibe Code創業者,被問"為什么選Node.js"時,對方愣了:"什么是Node.js?"完全不知道自己用的技術棧,全是Claude生成的。
這也解釋了為什么軟件股最近暴跌——市場在恐慌AI會殺死SaaS。但Dylan的判斷是:“那些喊著’軟件已死’的頭條,通常標志著市場觸底。這是無差別拋售,估值壓縮到了不合理的程度。”
真正的贏家是平臺,不是創作者
Dylan對未來的判斷很清晰:內容越多,單個創作者的價值越低,平臺永遠贏。
Meta最近一季度的CPM(千次展示成本)上漲了9%,而且是在消費疲軟的情況下。Dylan算了一筆賬:如果剔除掉消費增長的影響,Meta的廣告算法效率提升了兩位數。“這太瘋狂了,一個季度就提升這么多。”
Meta還在瘋狂買小型數據中心集群,因為大型數據中心已經訂不到了。他們已經和Google、CoreWeave簽了大單,但還是不夠,只能去長尾市場找算力。Dylan透露Meta和Midjourney的授權協議金額可能超過10億美元,“Meta的每一筆交易,無論是雇人、買授權還是收購,數字后面都帶個B(十億)。”
Meta還從Google挖了一批搜索團隊的人,用類似規模的package。Dylan說他們的野心很明確:做AI助手,做生產力工具,切入搜索和商務場景。“想象一下你戴著Meta的眼鏡走在街上,看到一副耳機,問一句’這是什么’,AI告訴你型號,你點一下就買了,整個過程你都沒意識到發生了什么。”
29歲的"非理性繁榮"
訪談最后,Dylan做了一段自我剖析:“我29歲,Leopold(利奧波德)20多歲,我們這代人沒經歷過真正的經濟崩潰。我家2008年差點破產,住過汽車旅館,房子被拍賣……但那時我還是小孩,沒有真正被擊倒過。”
"所以也許我們是非理性繁榮的。"他頓了頓,“但我堅信:到今年年底,AI初創公司的總收入會超過1000億美元。Anthropic說他們2030年會有3000億收入,我覺得這個數字還太保守,因為他們創造的經濟價值會是天文數字。”
他提到對沖基金客戶里,幾乎所有人都覺得"兩年后的預測數字太高了",只有少數幾個像Leopold這樣的人覺得"你的數字太低了"。“這取決于你有多相信AI,以及你獲取信息的渠道有多深。”
Dylan最后說了一句讓人印象深刻的話:“OpenAI要在2028年底達到16GW規模,那是3000億美元的開支。很多人問他們怎么付得起,我只能說:你太天真了,Sam Altman會搞定的,他們的收入會爆炸式增長,根本不是問題。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.