AI投資的主敘事,正在發生一次深層且不可逆的結構性遷移。
如果說過去兩年市場圍繞的是“誰擁有更多GPU、誰就擁有未來”,那么現在隨著AI從“生成內容”走向“自動執行任務”,整個產業的核心矛盾,正在從“算力不足”轉向“系統效率不足”,而對應的投資邏輯,也將從“單芯片算力競賽”擴展為“全棧系統工程”。
據追風交易臺,摩根士丹利研究部分析師Shawn Kim在報告中直接寫道,“智能體AI標志著從計算到編排的結構性轉變。”在智能體工作流中,CPU側編排時間可占總時延的50%至90%,由此推導出到2030年新增325億至600億美元的CPU增量市場空間,并將服務器CPU總TAM推至825億至1100億美元量級。在2030年將額外催生15至45EB的DRAM需求,規模相當于2027年全行業年供給的26%至77%。
與此同時,DRAM、ABF載板、晶圓代工、存儲、連接器與被動元件等環節,均將從“配角”躍升為新的瓶頸與利潤池。
這一判斷對市場意味著:AI資本開支的受益者將從少數芯片巨頭擴散至整條全球供應鏈,下一輪超額收益,可能更多來自那些在智能體工作流中最先成為瓶頸、且最難快速擴產的"使能環節"。隨著瓶頸在不同環節遷移,AI價值鏈的權重分布隨之改變。
AI到底在優化什么?
在理解這份研報之前,必須先回答一個更底層的問題:AI系統真正優化的目標是什么?
在生成式AI階段,答案很簡單——模型能力,即“能不能生成更好的內容”。這對應的核心指標是:模型規模(參數量)、訓練效率(FLOPs)、推理性能(tokens/s)。
因此,GPU成為絕對中心,NVIDIA 也自然成為這一階段的最大受益者。
但當AI進入“智能體”(Agentic AI)階段后,目標函數發生了根本變化。系統不再只需生成內容,而是需要完成任務,這意味著評估標準從“能力”轉向“效率”:單位任務成本(cost per task)、系統延遲(latency)、吞吐能力(throughput)。
這一變化直接導出一個關鍵結論:GPU決定“能不能做”,但CPU與系統決定“能不能賺錢”。
結構性轉折:從“生成”到“行動”,瓶頸從算力轉向編排
生成式AI的典型工作流結構相對簡單:用戶請求到達后,CPU完成少量預處理,GPU負責token生成,隨后輸出結果。在這一鏈路中,GPU承擔了絕大多數價值,CPU僅作為輔助存在。
然而,智能體AI的工作流完全不同。一個完整任務往往需要經歷規劃、檢索、工具調用、執行、反饋與再決策等多個階段,同時還涉及多智能體協作、權限管理、狀態持久化以及持續調度。智能體帶來的不是更"重"的單次推理,而是更多步驟、更多狀態、更多協調,而這些工作天然更適合CPU處理。
換言之,AI的主要矛盾,正在從“算不動”,轉向“調不動”。
由此帶來兩個直接后果:其一,集群層面CPU與GPU的配比將系統性上升;其二,DRAM從“容量配置項”升格為“性能與吞吐的核心系統組件”。數據中心的瓶頸將越來越多地出現在內存帶寬、數據搬運、互連時延與系統級協調,而非單純的GPU算力。
CPU重估:從"1:12"走向"1:2"乃至反轉
過去,"1顆CPU服務約12塊GPU"曾是AI服務器的典型架構描述。但報告指出,隨著智能體工作流變長、工具調用與上下文管理趨于復雜,這一比例正在快速收窄。
以NVIDIA路線圖為例,更新估算顯示:在Rubin平臺附近,CPU與GPU的配比已接近1:2;若向Rubin Ultra等更激進形態演進,甚至可能出現2顆CPU對應1顆GPU的反轉配置。即便僅從1:12改善至1:8,對超大規模部署而言,CPU的絕對需求量也將出現量級跳升。
一旦這一方向成立,CPU的需求彈性將從“跟著服務器出貨走”轉變為“跟著智能體復雜度走”,這意味著CPU需求的增長將更具結構性,而非僅僅是傳統硬件換代周期的延續。
![]()
CPU TAM重算:2030年825億—1100億美元,增量來自編排
摩根士丹利采用“系統分層”方法,將智能體帶來的CPU機會從傳統服務器更新換代邏輯中剝離,建立三個獨立分析口徑:
- Head Node CPU對應貼近GPU系統的機架控制層,以2030年全球約500萬顆AI加速器、每顆加速器配2顆高端CPU、CPU平均售價約5000美元為假設,對應約500億美元TAM。
- Orchestration CPU覆蓋智能體編排新增需求,包括規劃與調度、工具鏈、RAG管線、KV cache與向量庫相關內存服務、策略與可觀測性等。算額外新增1000萬至1500萬顆CPU、ASP約3000美元,對應300億至450億美元TAM。
- Other CPU涵蓋存儲節點、部分網絡節點等,對應約25億至150億美元。
三項合計,2030年服務器CPU總TAM約825億至1100億美元,其中智能體帶來的增量約325億至600億美元。整個測算的底層錨點是對2030年全球AI數據中心基礎設施銷售額約1.2萬億美元的判斷(2025年約為2420億美元)。
報告同時給出了“上修開關”:若按NVIDIA口徑,2030年AI基礎設施銷售額達到3萬億或5萬億美元,則CPU TAM區間將被整體推至2060億至2750億美元,乃至3440億至4580億美元。這并非基準預測,但揭示了"AI工廠"規模擴張對CPU需求的系統性放大效應。
內存躍遷:從容量配置到性能核心
如果說CPU是系統的“控制中樞”,那么內存則正在成為系統的“運行空間”。在智能體架構下,大量狀態信息需要被持續保存與快速調用,包括上下文數據、KV cache、工具調用中間態以及多任務并發數據集。
因此,DRAM不再只是容量配置項,而是直接決定系統吞吐能力的核心組件。
根據測算,到2030年,智能體將額外催生15至45EB的DRAM需求,相當于2027年行業年供給的26%至77%。這一增長將推動內存行業從傳統的強周期屬性,向結構性成長轉變。以 SK hynix 和 Samsung Electronics 為代表的廠商,有望在這一過程中獲得更穩定的盈利預期。
更值得關注的是,內存正在成為AI系統中最具“持續變現能力”的層級之一。無論是主機DRAM、內存接口芯片,還是CXL擴展與分層存儲體系,都將成為承接長期價值的重要載體。
![]()
供給越緊的環節越具定價權:ABF載板、代工與使能組件
相比CPU與內存,更具超額收益潛力的,往往是那些“產能擴張緩慢、驗證周期較長”的使能環節。
ABF載板:這輪AI驅動的ABF上行周期可能延續至本十年末,2026至2027年附近存在供需缺口風險。僅"CPU TAM擴大"一項,就可能帶來2030年ABF需求5%至10%的上修;其中服務器CPU ABF載板市場到2030年約達47億美元,CPU帶來的增量需求約12億美元。
![]()
晶圓代工(尤其先進制程):CPU代工可服務市場2026年約330億美元,2028年約370億美元。臺積電在CPU代工領域的份額預計從2026年約70%進一步提升至2028年的約75%;并預計英特爾可能在2027年下半年開始將服務器CPU外包給臺積電。
BMC與內存接口:Aspeed被強調為CPU服務器BMC的核心受益者,其在該細分領域約有70%的市場份額,新一代AST2700平臺帶來40%至50%的ASP提升空間;Montage則被置于"內存互連"價值鏈,全球收入份額約36.8%。
CPU Socket與被動元件:報告以Lotes與FIT作為CPU socket的直接映射,測算每增加100萬顆CPU需求,Lotes收入約增加0.6%、FIT約增加0.2%(僅按socket口徑計)。被動元件方面,以"每臺通用服務器約30美元MLCC內容量"為簡化假設,推算出2030年額外5億美元MLCC需求增量,約占屆時全球MLCC市場的2%至3%。
這些環節的共同特點在于:它們處于AI系統的數據流路徑之中,一旦成為瓶頸,就具備較強的定價權。以 Samsung Electro-Mechanics 為代表的封裝與載板企業,正是這一邏輯的典型體現。
這一現象可以總結為一句話:
AI的利潤,將流向最慢擴產的環節。
市場錯配與投資節奏:從集中到擴散
盡管產業邏輯已經發生變化,但資本市場仍在很大程度上停留在“GPU中心敘事”中。這種錯配意味著,未來一段時間內,資金將逐步從高度集中的算力資產,向更廣泛的基礎設施環節擴散。
從投資節奏來看,可以大致分為三個階段:
GPU主導階段(已發生):算力供給成為核心矛盾
系統瓶頸暴露階段(正在發生):延遲與成本問題凸顯
基礎設施重定價階段(即將展開):內存、CPU與互連全面受益
在這一過程中,超額收益將不再集中于單一公司,而是分布于整個系統鏈條之中。
結語:AI進入“系統效率時代”
綜合來看,這份研報真正揭示的,并非某一個細分賽道的機會,而是AI產業邏輯的整體躍遷。人工智能正在從“算力驅動”邁向“效率驅動”,從“模型競爭”走向“系統競爭”。
在這一新階段中,決定勝負的不再是單一組件的性能極限,而是整個系統的協同效率。GPU依然重要,但它只是系統的一部分;真正的定價權,將屬于那些掌握調度能力、控制數據流并處于關鍵瓶頸位置的參與者。
對于投資者而言,這意味著必須完成一次認知升級:從尋找“最強芯片”,轉向理解“最關鍵系統”。只有把握住這一邏輯遷移,才能在AI的下一輪周期中,真正捕捉到持續且結構性的超額收益。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.