網易首頁 > 網易號 > 正文 申請入駐

內存不夠,AI就得“從頭算”!美光高管:我們跟不上內存需求了,全球建廠5座還不夠

0
分享至

AI對內存的需求,正在以連美光自己都沒預料到的速度爆炸式增長。

The Circuit播客近日發布了一期對話節目,主持人專訪了美光科技數據中心業務部門高級副總裁兼總經理Jeremy Werner。對話圍繞AI時代內存與存儲行業的結構性變化展開。

Werner開門見山地表示,這一輪內存行業的繁榮與以往的周期性波動有本質區別。

內存已經成為數據中心推理環節突破瓶頸的關鍵戰略資產,也是訓練全球最先進模型的核心支撐。我不認為這個趨勢會放緩。


AI推理的“內存墻”:不夠用就得從頭算

Werner用一個直白的邏輯解釋了為什么推理對內存的需求如此特殊。

訓練和推理對內存的使用方式截然不同。Werner說:“訓練用內存來學習,然后遺忘,最終輸出一個模型。但推理用內存來記憶?!?/strong>

推理過程分為兩個階段:預填充(prefill)和解碼(decode)。在解碼階段,模型需要不斷調用此前的計算結果——也就是所謂的KV緩存(KV Cache)——來生成更準確的答案。

問題在于:如果內存不夠存下這些歷史狀態,模型就必須從頭重新計算。Werner解釋了這意味著什么:

每一輪重新計算,所需的算力相當于此前所有輪次的總和。也就是說,算力需求是指數級增長的。而如果你能存下上一輪的狀態,每一輪只需要線性地多做一步。

換句話說,內存不足會讓GPU的算力利用率急劇下降。反過來,Werner指出:“如果你能提供足夠快、足夠大的內存,理論上可以從GPU中榨取出平方倍的算力?!?/p>

推動KV緩存需求膨脹的因素有三個:上下文窗口越來越長、模型參數量越來越大、同時并發使用AI的用戶越來越多。Werner透露,目前上下文長度正以每年30倍的速度增長。

內存層級:從HBM到SSD,一條完整的“存儲鏈”

Werner詳細梳理了AI數據中心的內存層級結構,從最靠近GPU的高帶寬內存(HBM)到最遠端的海量SSD,構成一條完整的“存儲鏈”。

第一層:HBM,緊貼GPU,典型容量在10至100GB之間,速度最快,但容量有限。

第二層:主內存(Main Memory),連接至CPU,容量通常是HBM的4至20倍,但速度更慢、距離更遠。以英偉達Blackwell系統為例,主內存連接至Grace CPU。

第三層:擴展內存(Expansion Memory),通過光纖連接獨立內存模塊,目前尚未大規模量產部署,但已是業界關注的方向。

第四層:上下文內存存儲(Context Memory Storage),即用SSD來存儲KV緩存。Werner指出,英偉達CEO黃仁勛今年已公開談及這一方向。與HBM相比,SSD的延遲更高、帶寬更低,但容量可達HBM的1000倍。

第五層:數據湖,數據中心底層的海量SSD存儲,以EB(艾字節)計。

Werner表示,目前整個層級從上到下都處于供不應求的狀態:“只要我們發布產品,他們就會消耗掉。只要我們提升容量和性能,他們就會找到方法部署?!?/strong>


HBM4與245TB SSD:美光的兩張王牌

面對上述需求,美光正在兩個方向同時發力。

HBM4方面,Werner透露,美光剛剛發布了HBM4產品,帶寬是上一代HBM3e的兩倍以上。他強調,提升帶寬的核心邏輯在于:當瓶頸不是算力而是內存帶寬時,必須加快數據送達GPU的速度。

SSD方面,美光推出了一款245TB超大容量SSD,Werner形容“這個東西比一副撲克牌大不了多少”。

這款產品的意義不僅在于容量本身。Werner解釋,目前數據中心部署的硬盤容量普遍在30TB出頭,而245TB的SSD意味著同等存儲量所需的設備數量大幅減少,連帶減少了網絡連接、電源、風扇等配套設施,最終將存儲占地面積壓縮逾80%,同時顯著降低功耗。

“你只需要為你真正需要的性能付費,而這些性能是以更高效的每瓦特GB來交付的?!盬erner說。

這直接回應了數據中心當前最棘手的兩大約束:電力預算和物理空間。Werner表示:“如果電力是限制增長的瓶頸,那我們就必須在固定功耗預算內,找到提供更高效性能的方法。這正是我們大量創新的來源。”

產能已經跟不上:全球五座晶圓廠同步開建

盡管需求旺盛,Werner坦承,內存行業的產能已經無法跟上需求。

“我們沒有在全球建造足夠多的晶圓廠。”他直接說道。

目前美光正在全球同步推進五座晶圓廠的建設:

  • 愛達荷州博伊西:60萬平方英尺潔凈室,相當于10個足球場大小

  • 紐約州北部:已宣布開工建設

  • 弗吉尼亞州:現有晶圓廠擴建

  • 新加坡:南部晶圓廠(Nanfab)破土動工

  • 日本:DRAM生產設施擴建

  • 中國臺灣:剛剛從PSMC收購一座晶圓廠

Werner表示,目前整個行業都受制于潔凈室空間,這一狀況短期內難以改變。

我們已經無法跟上需求了,其他所有人也一樣——英特爾、英偉達、臺積電都在說,我們已經滿負荷了。晶圓廠不是說長就能長出來的。
市場還沒看懂這件事

對于市場的擔憂,Werner有不同看法。

他認為,市場目前看到云服務商(CSP)資本開支大幅增加,就開始擔心這是否可持續。但他的判斷是:“這些企業正在經歷一場巨大的革命,其潛力仍然超出大多數人的想象?!?/p>

Werner還指出,AI的應用場景遠未飽和。訓練時代已經過去,推理時代剛剛開始,而Agentic AI(智能體AI)和物理AI(Physical AI)甚至還沒有真正大規模落地?!拔艺娴南嘈牛覀冎皇莿倓傆|及AI將要帶來的變革的表面。”

他也承認,硅谷內外對AI的認知存在巨大落差:

在硅谷,大家都非常興奮,很容易陷入自己的信息繭房。但當我和不在這個行業的朋友聊天,他們很多人還沒有意識到未來20年將會發生什么。


訪談全文如下:

突破“內存墻”:美光科技的AI時代戰略
節目:The Circuit 嘉賓:Jeremy Werner,美光科技核心數據中心業務部門高級副總裁兼總經理 主持人:Ben Beharin、Jay Goldberg
第一章:開場介紹
Ben: 大家好,歡迎收聽新一期《The Circuit》。我是Ben Beharin。
Jay: 大家好,我是Jay Goldberg。
Ben: 今天我們有一位非常出色的嘉賓——來自美光科技的Jeremy Werner。大家一直希望節目里有更多聊存儲器的嘉賓,今天這個愿望實現了。Jeremy,感謝你的到來。請先簡單介紹一下自己,然后我們就直接進入討論。
Jeremy: 這可是不小的壓力,大家期望值這么高。我是Jeremy Werner,負責美光科技核心數據中心業務部門,我們向全球數據中心提供SSD和DRAM產品。
第二章:這一輪周期與以往的不同之處
Jay: 我聽說存儲器市場最近表現不錯?
Jeremy: 還可以,當然永遠可以更好。
Jay: 這正是我想問的。存儲器行業歷來以周期性強著稱,而你們現在的處境感覺像是每天早上起來都要捏一下自己——這是真的嗎?你在存儲器行業深耕多年,能不能幫我們對比一下這一輪周期和以往有何不同?
Jeremy:確實有很多有趣的事情正在發生。說實話,在聽了你們評論臺積電財報電話會議的方式之后,我對給出答案還真有點擔心。不過,這一輪確實不一樣——AI正在從根本上改變存儲器為數據中心創造價值的方式。存儲器已經成為破解推理瓶頸、支撐數據中心推理能力的核心戰略資產,同時也是訓練全球最先進模型的關鍵所在。這對存儲器行業而言是一個無比精彩的時代,而且我不認為這個趨勢會放緩。
Ben: 我很好奇,你們對這一切是早有預判,還是像其他人一樣被打了個措手不及?存儲器在AI這波浪潮中的角色,你們是提前看到了,還是算是趕上了?
Jeremy: 我覺得,當LLM模型發展到足夠強大、真正發布出來,讓大家意識到它的能力邊界之后,全世界都有點驚訝。隨著算力和訓練能力突破臨界點,技術實現了跨越式的飛躍,這一點確實超出了所有人的預期。ChatGPT的發布讓全球都意識到了正在發生的事情。當然,說我們完全預見到了需求增長的爆發速度,那并不準確——我們清楚地知道存儲器和存儲在技術上有多重要,但我們沒料到增長會這么快。
第三章:預判AI的爆炸式增長
Ben: Jensen曾公開表示,你們的CEO是AI的早期倡導者。所以你們應該是比較早就看到了吧?
Jeremy: 是的,我們很早就開始布局,持續開發支持AI的各類技術——從靠近GPU的HBM、LPDDR5、SOCAM,到高性能SSD和大容量SSD。這些產品從研發到量產需要三到五年甚至更長時間,絕不是某天突然決定拼湊起來的。Sanjay長期以來構建了一套出色的基礎設施體系,讓我們能夠制定長遠愿景、規劃未來、探索技術、建立大規模運營體系、推進路線圖并與客戶深度合作。所有這些要素聚合在一起,才使美光在這個精彩時代取得了今天的成績。
Jay: 我覺得有一點很關鍵——你們和臺積電、以及存儲器領域的其他玩家都在投入擴產,這種投資力度是建立在一個共同判斷之上的:這不會再回到深度周期性波動。從數字上看,如果半導體行業今年或明年突破萬億美元規模,之后快速邁向兩萬億,它不會再跌回7000億的水平。市場的底部抬高了,行業格局變了,總可尋址市場的體量變大了。大家都在按這個邏輯規劃擴張,因為AI是貫穿整個行業的可持續性創新。
Jeremy: 是的,這是可持續的創新,而且我真心相信,我們現在不過是剛剛觸及AI發展的表面。過去幾年,訓練更復雜的模型是數據中心基礎設施建設的最大驅動力。當然,也有很多人在用AI,比如用它來更快地回答問題、編輯文檔。但僅僅在過去六個月里,AI能做的事情和發展的速度已經讓我不得不完全刷新認知。
Jay,我聽了你的播客,你說你一般同時跑二十個云端AI Agent。
Jay: 哈哈,對,但錄節目的時候只跑五個。
Jeremy: 現在Agentic AI已經出現,個人和企業都剛開始摸索它的可能性;而Physical AI(物理AI)實際上還沒有真正大規模展開——這是一條未來多年持續擴張與變革的路線圖。未來十年、二十年,世界的面貌會截然不同。如果你想看清未來,不妨回頭看看阿西莫夫的作品。我不是說我們真的會在月球中央建一個機器人城市,但他對自動駕駛汽車、飛行自動駕駛交通工具、無所不能的機器人、高度自動化的生產與制造等方面的預言,在今天看來頗具前瞻性。我們現在正處于這場變革的起點。
第四章:AI市場的長期可持續性
Jay: 毫無疑問,所有這些發展都將帶來海量的存儲器需求,同時也會產生需要快速訪問的大量數據,這對我們的SSD產品線同樣是利好。
Ben: 好,那我們來深入聊聊你提到的推理這個話題。我認為這是理解當下正在發生什么的最佳切入點——我們正在從訓練時代走向推理時代。圍繞ASICs和GPU的基礎設施與芯片架構,在很大程度上是為訓練而設計的。而現在,我們看到這個格局正在向推理時代演進。比如英偉達開始推出專門針對推理的產品,谷歌也推出了專用于推理的TPU——這些都是我們預料中會發生的事。訓練架構和推理架構會走向分化,而推理架構面臨著截然不同的存儲挑戰——谷歌稱之為"內存墻"。你能詳細講講推理的工作負載,以及為什么推理加速器對存儲器的需求如此不同,這將對存儲器行業產生怎樣的影響?
第五章:AI推理中的"內存墻"
Jeremy: 當然。訓練用存儲器來學習,學完之后釋放掉,最終輸出一個模型。但推理用存儲器來記憶。推理可以粗略地分為兩個關鍵階段:第一個是預填充階段(prefill),所有的提示詞token在這里被處理;第二個是解碼階段(decode),每個token在這里被反復迭代以得到更好的答案——實際上會有多個解碼階段。
在解碼階段,過去所有的上下文信息都應該被喂給模型,以便獲得最準確的答案——這是模型智能的主要來源。而這正是推理的"內存墻"所在之處。
第六章:KV緩存與上下文窗口詳解
解決這個問題有兩種思路。在傳統架構中,有一種叫做KV緩存的機制:在解碼過程中,計算完token之后,將KV緩存保存在內存里,再把它讀回來,繼續計算下一個token,如此反復迭代。
上下文窗口越長——對于不熟悉這個概念的朋友,可以把它理解為你輸入到問題里的信息量,比如你和AI對話的歷史長度——所需的迭代次數就越多。如果你沒有足夠的內存來存儲歷史上下文,就必須從頭開始重新計算所有內容。這意味著計算量會呈指數級增長——每一輪的計算量,幾乎等于此前所有輪次的計算量之和。相反,如果能保存上一輪的狀態,每一輪只需增加線性的計算量。所以,一旦內存不足以存儲足夠的上下文,計算量就會以平方級別膨脹。
此外,不只是上下文本身——模型規模(即參數量)也在持續增長,這對模型智能至關重要;每次迭代的token數量在增長;同時,每塊GPU上并發運行的Agentic AI用戶數量也在增長。所有這些因素疊加,使得每塊GPU所需的KV緩存量急劇攀升。如果能成功提供足夠的內存和存儲,理論上可以從GPU中榨取出遠超傳統模式——即平方級別——的計算效能。
第七章:內存層次結構——從HBM到SSD
Jay: 我們節目有不少非存儲器、非技術背景的聽眾,能不能退一步,帶大家梳理一下整個存儲器層次結構?存儲器的種類很多、縮寫也很多,整體比較復雜。
Jeremy: 當然。負責AI計算的GPU、TPU或其他加速器,離它最近的是目前受到最多關注的一類存儲器,即HBM——高帶寬內存。它既用于訓練,也用于推理棧中的token生成。通常情況下,緊貼GPU存儲的KV緩存大約在10到100GB之間。
如果HBM容量不夠用,KV緩存就往外移一層,進入主存(main memory)。主存通常掛載在CPU上——比如在H100系統中,往往連接的是英特爾或AMD的x86 CPU;在英偉達最新的Blackwell系統中,主存則掛載在Grace CPU上。這部分內存的容量通常是GPU上HBM的4到20倍——容量更大,但速度更慢、距離更遠。
到目前為止,KV緩存基本上就止步于主存這一層。一旦超出,就只能重新計算。但隨著推理越來越復雜,上下文窗口不斷擴大,大家開始探索進一步擴展內存容量的方案。
往下一層,有一個叫做擴展內存(expansion memory)的概念,目前還沒有在生產中得到實質性部署。思路是將大量高容量DIMM模塊通過光學連接,放在獨立的擴展盒中,與所有GPU相連——當主存不夠用時,可以從這里獲取高速存儲。
再往下,就是Jensen今年重點提及的"上下文存儲"(context memory storage)——用SSD來存儲更多的上下文。這個層級的延遲更高、帶寬更低,但容量可以達到HBM的一千倍。
最底層是數據中心里由海量SSD構成的EB(艾字節)級網絡數據湖。這就是整個層次結構的全貌。
Ben: 那么在今天,瓶頸最集中在哪里?無論是技術層面還是產能層面,痛點最突出的是什么?
Jeremy:DRAM和SSD,整個棧從上到下都有需求。我們一旦推出新產品,立刻就會被消化吸收;容量和性能一旦提升,客戶馬上就能找到部署方式??梢哉f,全線都是瓶頸。
第八章:規模化服務數十億并發用戶
Ben: 從訓練過渡到推理,讓我最為震撼的一點是:在訓練場景中,只是少數人把訓練任務扔給一堆計算節點,目標就是跑完訓練、輸出模型;而推理面臨的挑戰完全不同。我們即將邁入這樣一個階段——數千萬、數億乃至數十億用戶,將同時使用巨大的上下文窗口處理各自的任務。無數用戶在同一時刻,都需要海量內存來支撐他們的工作。我理解像TPU這樣的AI推理架構是為此而生的,但就算有滿架的芯片,再加上你們提到的內存擴展設備,面對這種級別的并發,感覺問題還是極難解決。整個存儲器層次結構中,什么能幫助解決這個問題?同時高并發命中所有這些用戶的工作負載,對存儲器的需求究竟是什么?
Jeremy:關鍵在于速度。如果瓶頸不在算力,而在內存帶寬,那我們就必須提升帶寬,讓所有歷史上下文都能快速到達GPU。很大程度上,這取決于速度——這也是我們在HBM產品上持續高速創新的原因。我們剛剛發布了HBM4產品,其帶寬是上一代HBM3E的兩倍以上,而HBM3E在一年前還是行業前沿。
第九章:破解功耗與效率瓶頸
當然,當你持續提升性能時,就會遭遇其他瓶頸——尤其是在數據中心層面,而這也是長期以來大多數人在AI部署上最關注的問題:功耗。
能否獲得足夠的電力來驅動所有這些算力?能否充分發揮算力的效用?能否讓電力物盡其用?如果性能翻倍的同時功耗也翻倍,而電力總量固定,那實際上能提供給用戶的并沒有增加。所以,關鍵在于:如果電力供應是增長的瓶頸,我們就必須在固定功耗預算內,大幅提升性能效率——這正是我們大量創新工作的核心所在。目標是在不等比增加功耗的前提下,持續提升性能。
大家在存儲器領域經常談帶寬——數據以什么速率傳輸。但現實遠比這復雜。隨著整個棧中一些深層次的動態變化正在發生,美光在這方面有一些很有意思的探索。要真正實現功耗效率的提升,必須深入了解推理的處理方式與細節,這反過來驅動了大量的協同代碼設計需求——比如在GPU和存儲器之間,哪些計算該在哪個層級完成。這是當下存儲器行業另一個深層次變革要素。
第十章:AI為何正在引發存儲短缺
Jay: 我想接著問一個讓我很感興趣的問題??拷麲PU的存儲器、盡可能大的帶寬,這部分需求我很好理解。但聽起來存儲方面也面臨大面積短缺,不只是在計算側或GPU托盤上,而是覆蓋整個數據中心生態系統。這是為什么?
Jeremy: AI對存儲的需求來自幾個方面。首先,AI本身會生成大量數據。用過Grok或者刷過X(推特)的人都知道,AI圖像生成的速度之快,遠超任何一個最熟練的表情包制作者,而所有這些內容都會被存下來。我常說,大多數人都是數字囤積狂——我們不太舍得刪數據。
不僅如此,AI模型正在讓我們每個人——包括那些以前缺乏技術能力來實現創意的人——都能把想法變為現實,至少是數字現實。這是一場面向所有人的創意革命,我們都在創造更多數據。企業也同樣如此,AI讓他們能夠更好地創建和利用自己的數據。而要真正發揮AI的價值,最關鍵的是把所有數據都存放在可以被快速訪問的地方。
AI不只是創造數據,它還要訪問數據來提供洞察、解決問題、給出更好的答案。這就帶出了存儲領域的一個概念——"數據預熱"(warming)。我們通常把數據分為"熱數據"和"冷數據"。熱數據是指近期很可能被訪問的數據;冷數據則是那些基本上沒人會查的東西,比如十年前的稅單。但有了AI,你一提問,它就要翻遍所有數據來找答案——那些曾經的冷數據,正在變暖。一切都在升溫。數據越熱,就需要越快的存儲,因為訪問頻率大幅增加。
此外,還有另一個令人興奮的未來增長點:由于沒有足夠的內存來存儲所有KV緩存,數據中心SSD將迎來巨大的增量需求,用于存儲查詢調度和多輪對話工作流——如果用現有架構來處理,就不得不反復經歷我前面說的那種重新計算的循環。
第十一章:個人AI Agent與持久化內存需求
Jay: 這正是我在使用AI過程中花了大量時間研究各種"框架"的原因——Open Claw、Hermes,各種新工具層出不窮。其中一個很重要的功能是跨模型的負載均衡,但還有一個更重要的部分是為AI創建持久化記憶。現在一個大問題是:你用AI Agent做了一件事,下次打開它什么都不記得了。
Jeremy: 這不會讓你抓狂嗎?就好像教一班學生,每天都要從教材第一頁重新開始。
Jay: 對,太形象了?,F在很多工具都聲稱"你得用這個、你得用那個",本質上都是在為AI Agent創建一個文件結構來模擬記憶——這些都是變通方案。它背后的邏輯是:如果你給AI提供記憶,它的歷史就會存在內存里。如果你離開一段時間,內存要么繼續占著,要么需要卸載到SSD,等你回來時再讀回來。
Ben: 是的。我現在在Claude里管理著好幾個任務和項目,得很刻意地切換到對應的項目或上下文窗口,不然會混在一起。而且我一直擔心每個項目最終都會把上下文窗口撐爆。這周跟很多人聊,大家都在推薦各種工具和"超級插件"——我覺得最終一定會有人做出一個更通用的框架,自動幫你管理這一切。大家都會喜歡它,因為用起來簡單多了,但代價是消耗更多內存?,F在我手動管理,確實比較高效,但我很愿意犧牲這種精細化控制,換來更流暢的體驗——哪怕那意味著需要更多內存,效率更低。
Jeremy:這正是我們觀察到的現象——上下文長度,也就是你說的這個,目前正以每年30倍的速度增長。
Ben(Jay): 天哪。
Ben: 還有一件事讓我覺得難以置信:我現在和AI的交互——比如用ChatGPT或Claude——是一種碎片化的記憶配上碎片化的存儲。它只能看到一個"文件夾",只有當前上下文范圍內的內容是熱數據,我所有的數據并不全部可用。我最近才意識到,我電腦上的文件加起來有好幾個TB,絕大部分在AI的語境里都是冷數據。我非常想對AI說:"喂,幫我找一下這個東西,"但它就是做不到。所以你說的那種場景——企業把全量數據上線,同時開放邊緣訪問——在我看來是AI價值的又一次階躍。當你真正擁有所有數據的訪問權時,那將是質變。但這同時也是一個需要我們解決大量難題的存儲與內存問題。
第十二章:超大容量SSD的創新
Jeremy:正是如此。沿著這個方向,針對企業級大規模數據——加上我們剛才討論的功耗問題——我們最近發布了一款245TB的SSD,體積只比一副撲克牌稍大一點點。
引入這樣的產品,我們能夠大幅降低數據中心和企業在存儲上的功耗,同時將存儲的物理占地面積壓縮超過80%。功耗是一大瓶頸,數據中心的物理空間也是一大瓶頸,而讓存儲更靠近GPU也是未來的重要趨勢。所以,在更低的功耗占用下,釋放數據中心的潛力,提供更高的性能和更大的存儲容量,并且盡量靠近GPU——這是我在文件與對象存儲領域最為期待的事情之一。
Ben: 這種功耗的優化是存儲技術本身的進步,還是因為在單一體積中集成了更大的容量,減少了分散部署的開銷?能不能稍微展開講講功耗方面的機制?我認為這一點非常關鍵——大家都認同Jensen的基本邏輯:在固定的功耗預算內,實現最大化的算力,這包括我們討論的所有基礎設施。所以,任何能降低功耗成本的創新都至關重要。
Jeremy: 當然。首先,SSD相比機械硬盤,在提供性能方面本身就具有天然的功耗優勢——從讀取角度看,根據工作負載不同,SSD的讀取性能可以達到機械硬盤的一千倍,而且沒有活動部件,這從一開始就帶來了顯著的功耗節省。
但更大的收益來自大容量帶來的系統級整合效應。245TB裝進一個大約四分之一機械硬盤大小的空間里,而目前部署的機械硬盤容量大概在30TB出頭。這意味著你需要的網絡連接、線纜、機箱、電源模塊、散熱風扇——所有圍繞著部署多出10倍設備而產生的附加成本——全都大幅減少。這些"附加"的東西都有實實在在的成本和功耗。把這些冗余全部消除掉,做到高度整合,最終你只需要為你真正需要的性能付費,而這些性能是以更高效的每瓦特GB來交付的。
Ben: "每瓦特GB"這個指標,我覺得是個很好的分析框架。
第十三章:加速工程創新的節奏
Ben: 聊聊你們在整個棧上正在推進的創新工作。我想從兩個角度來看這件事。從歷史角度說,你有沒有感受到存儲器領域創新節奏加快的壓力?我一直以為——你可以糾正我——歷史上存儲器,乃至存儲行業在某種程度上,在挑戰極限方面會相對保守,因為很多事情必須做對,良率不能出問題。這一點當然沒有變——我不是說存儲器突然可以像邏輯芯片一樣接受50%的良率了,不可能。但我感覺現在是那種要踩下油門的時刻。你們是怎么看待這個問題的?又在哪些方向上著力解決?對于那些在存儲器與存儲領域專注攻堅的工程師來說,這也是一段很特殊的時期。
Jeremy: 是的,一切都在加速:我們的時間線在加速,創新速度在加速,產品需要內嵌的智能程度在加速,復雜度在加速,超級工廠(mega fab)的建設速度在加速。這是真實的挑戰,但也令人振奮。誰不希望每天來上班,到了晚上回頭一看才意識到自己幾乎沒有喘息過?我們以驚人的速度奔跑,這在美光是一種令人充滿活力的感受。
我們在做的事情之一,是擁抱AI技術本身。如何跑得更快?這個時代給了我們一個絕妙的工具——我不想說是"從天而降",因為我們自己也參與了它的構建——我們正在用它來加速自身的能力,提升良率更快,設計和研發更快,發現問題更快。所有那些傳統上存在的挑戰依然存在,但現在我們要更快、更好、更高效地完成所有事情:更快地流片,更快地迭代制程技術,在全球各地的工廠更快地完成設備安裝和產能爬坡——更快,更快,更快。一周只有七天,到了某個點你就必須尋找創新的方法。我們一直做到了,而現在AI是一個了不起的工具,正在幫助我們邁向下一個層級。
Ben: 在這一點上,我能想象客戶會直接來找你們說:"我們需要你們實現這個,能做到嗎?"然后你們全力投入,協助解決他們兩三年后將面臨的問題。這種在存儲器與存儲方面深度聯合優化的合作模式,在美光與合作伙伴之間,一直是這樣嗎?
Jeremy: 我們一直保持著扎實、深入的技術合作。我們有趣的地方在于,需要與整個鏈條上的所有人協同——軟件提供商、CPU和GPU硬件設計商、制造工藝、系統集成商、數據中心建設方。我們可以和產業鏈上下游的每一個玩家攜手合作。但現在的合作深度,是前所未有的。這種深度聯合設計,正是回到我們一開始說的,這一次對存儲器行業而言真正不同的地方。
第十四章:市場的誤解與AI的未來潛力
Jay: 很有價值的分享。那么,你覺得市場上大家普遍還沒有意識到的是什么?有哪些誤解?
Jeremy: 我覺得人們看到大型云服務提供商和數據中心企業資本支出不斷攀升,會擔心這是否可持續。但我認為,這些企業正在經歷一場深刻的變革——就像我前面提到的,它將從根本上改變人類社會,解決無數難題:沒有醫療資源的人將能獲得診斷和外科建議;我們將以更快的速度實現創新;生產與制造將走向高度自動化,提升全球數十億人的生活質量。
當然,并非所有事情在任何時刻都是清晰可見的——這些模型的商業變現何時轉化為實際營收?他們的投入是否超過了當下的能力?我的答案是:沒有。我認為AI的潛力仍然超出大多數人的想象。
有趣的是,在硅谷,大家對AI的熱情高漲,很容易陷入自己的信息圈,因為周圍的人都深刻理解這項技術的深度,也知道各種令人興奮的進展。但當我和不在這個行業的朋友聊,情況就不一樣了。有的朋友確實說:"這東西讓我能在自己的行業做出難以置信的事情",他們真的在創新。但也有更多的朋友,他們看到的是LLM在ChatGPT上的表現和股市的波動,卻并沒有真正看清楚未來二十年將會發生什么。而我完全相信那一切都會發生。
第十五章:全球超級工廠建設競賽
Jay: 讓我問一個反面的問題。我們大概都同意,AI是真實的,只是大多數人還沒意識到它的潛力。這意味著隨著時間推移,人們會逐漸追上來——他們會意識到ChatGPT不只是用來生成搞笑表情包的,可以真正做嚴肅的工作。需求還在持續加速——但近期內,存儲器行業能跟得上嗎?有沒有可能到了某個時間點,我們只能告訴用戶:"不好意思,我們已經盡力了,新工廠還沒投產,先等半年吧。"
Jeremy:坦率地說,從產能角度來看,那個時刻已經到了。我們已經跟不上需求了。
全球的工廠建設確實不夠用,而建一座工廠絕非易事。給你一些參考:我們目前在全球同時建設五座工廠。我們已宣布在愛達荷州博伊西建設一座60萬平方英尺的潔凈室;在紐約州北部啟動了新工廠建設——這些項目正在把存儲器生產帶回美國本土,同時擴充我們在弗吉尼亞州的存儲器工廠,使美國成為存儲器的重要生產國。僅博伊西和紐約的工廠,每一座的車間面積就相當于十個標準足球場大小。此外,我們宣布在新加坡的Nan Fab破土動工以擴大產能,擴建日本的DRAM生產設施,并從臺灣PSMC收購了一座工廠。我們正在大力推進建設以快速上線產能。
目前,整個行業受限于建筑施工和潔凈室空間,這種狀況短期內不會改變。如何滿足需求,是我們面臨的最大挑戰。我們也在通過提升工藝技術來提高每平方英尺的芯片產出,從而在不擴大面積的情況下多生產一些。但歸根結底,我們已經沒能跟上需求,其他人也一樣——英特爾、英偉達、臺積電都在財報電話會上說:產能已經滿了,工廠不是說長就能長出來的。
Ben: 而且回頭看整個對話,讓我感慨的是變化之快——就連一年前,我們都沒有聊過這些話題。很可能一年后,這里的一切又會大不一樣。但不管形勢怎么變,對算力的需求不會變;而我們正在解決的這些問題,會隨著更多算力、更多存儲器、更多存儲的到位,讓AI變得更有能力。我忘了是誰說的了,但有一句話我特別喜歡:"你今天用的AI,是AI有史以來最蠢的。"然而感覺已經相當聰明了。你們正在解決的這些問題,正是讓AI更有用、更有價值的關鍵——而隨著AI越來越好,超大規模云廠商的變現能力也會提升,吸引更多用戶,創造更多價值。存儲器和存儲,是這一切的核心組成部分。
Jeremy: 說得好。
第十六章:結語
Ben: Jeremy,非常感謝你今天來到《The Circuit》,也感謝你的時間。歡迎隨時回來聊存儲器。感謝大家的收聽,希望這期節目對你們有所啟發,我們下周再見。
Jeremy: 謝謝大家,別忘了告訴你的朋友——還有你的AI Agent。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
“李大嘴終于娶了佟湘玉!”戲里戲外都是暖男,和妻子蝸居45平小屋也幸福

“李大嘴終于娶了佟湘玉!”戲里戲外都是暖男,和妻子蝸居45平小屋也幸福

二胡的歲月如歌
2026-05-06 08:33:17
郭艾倫:麥考爾剛來廣州第一天訓練給我整傷了 我們場下干了一架

郭艾倫:麥考爾剛來廣州第一天訓練給我整傷了 我們場下干了一架

狼叔評論
2026-05-05 21:50:05
一個姿勢刷屏全網,50歲拒絕內卷,李小冉活成了人間清醒

一個姿勢刷屏全網,50歲拒絕內卷,李小冉活成了人間清醒

民宿體驗志
2026-05-06 11:29:00
中美同時向全球下達禁令,各國都傻眼了!美媒:中國此舉史無前例

中美同時向全球下達禁令,各國都傻眼了!美媒:中國此舉史無前例

福建睿平
2026-05-06 08:56:38
“張雪的機車”,賬號被封禁!

“張雪的機車”,賬號被封禁!

營銷報
2026-04-07 13:54:34
新款不知火舞性感手辦推出!前凸后翹難以抵擋!

新款不知火舞性感手辦推出!前凸后翹難以抵擋!

游民星空
2026-05-03 23:45:02
中日交惡之際,高市突行雙膝跪拜,畫面傳遍全球,釋放出特殊信號

中日交惡之際,高市突行雙膝跪拜,畫面傳遍全球,釋放出特殊信號

云舟史策
2026-05-06 07:32:29
31歲女子找不到工作,每天假裝上班:其實她是躲到山上發呆

31歲女子找不到工作,每天假裝上班:其實她是躲到山上發呆

閱微札記
2026-04-19 11:30:46
連沉7船!美軍動真格,真相曝光,德黑蘭權力失控,革命衛隊玩火

連沉7船!美軍動真格,真相曝光,德黑蘭權力失控,革命衛隊玩火

最美的巧合
2026-05-05 16:00:24
44歲凱特王妃公布患癌后首次單獨海外出訪,上次為四年多前

44歲凱特王妃公布患癌后首次單獨海外出訪,上次為四年多前

無意爭春
2026-05-06 10:55:02
球員通道畫面流出!利物浦四大球星遭怒斥:不尊重曼聯太輕浮

球員通道畫面流出!利物浦四大球星遭怒斥:不尊重曼聯太輕浮

夜白侃球
2026-05-06 09:25:01
美國做了個實驗,將3男3女關一起2年,他們出來時,令所有人驚訝

美國做了個實驗,將3男3女關一起2年,他們出來時,令所有人驚訝

千秋文化
2026-05-05 20:32:13
吳宜澤奪冠后,廣東小鎮火出圈,斯諾克冠軍搖籃的含金量還在上升

吳宜澤奪冠后,廣東小鎮火出圈,斯諾克冠軍搖籃的含金量還在上升

洲洲影視娛評
2026-05-05 20:15:23
3場掉出輪換!亞當斯復出,火箭餅皇位置難保?700萬年薪可換射手

3場掉出輪換!亞當斯復出,火箭餅皇位置難保?700萬年薪可換射手

熊哥愛籃球
2026-05-06 12:30:24
場均26+5+5!火箭引進杜蘭特適得其反?舊將發聲:KD影響年輕球員

場均26+5+5!火箭引進杜蘭特適得其反?舊將發聲:KD影響年輕球員

熊哥愛籃球
2026-05-06 12:11:32
1952年部隊駐扎大興安嶺被百匹餓狼圍攻,46名勇士殊死搏斗三晝夜

1952年部隊駐扎大興安嶺被百匹餓狼圍攻,46名勇士殊死搏斗三晝夜

卡西莫多的故事
2025-11-02 13:50:39
黃仁勛徹底破防:中國不應獲得英偉達的最先進芯片,美國應保持AI領先地位!網友:狐貍尾巴終究是藏不住了

黃仁勛徹底破防:中國不應獲得英偉達的最先進芯片,美國應保持AI領先地位!網友:狐貍尾巴終究是藏不住了

大白聊IT
2026-05-06 08:05:27
7冠王亨德利調侃吳宜澤:別拿8個世錦賽冠軍 奧沙利文:他能奪8冠

7冠王亨德利調侃吳宜澤:別拿8個世錦賽冠軍 奧沙利文:他能奪8冠

念洲
2026-05-06 07:42:00
曼聯今夏首筆轉會正式敲定!霍伊倫3800萬英鎊永久轉會那不勒斯

曼聯今夏首筆轉會正式敲定!霍伊倫3800萬英鎊永久轉會那不勒斯

夜白侃球
2026-05-06 10:32:31
新高鐵來了!3小時直達西安!預計開通時間→

新高鐵來了!3小時直達西安!預計開通時間→

91.6陜西交通廣播
2026-05-06 08:21:30
2026-05-06 13:08:49
華爾街見聞官方 incentive-icons
華爾街見聞官方
中國領先的金融商業信息提供商
145656文章數 2653475關注度
往期回顧 全部

科技要聞

“馬斯克不懂AI”:OpenAI當庭戳老底

頭條要聞

綏化兩名十一二歲女孩失聯多日遭遇不測 警方回應

頭條要聞

綏化兩名十一二歲女孩失聯多日遭遇不測 警方回應

體育要聞

活塞1比0騎士:坎寧安不再是一個人了

娛樂要聞

神仙友誼!楊紫連續10年為張一山慶生

財經要聞

人形機器人七小龍:誰真能賣 誰在講故事?

汽車要聞

吉利原生新能源越野架構亮相 AI如何帶來極致越野

態度原創

旅游
健康
本地
藝術
公開課

旅游要聞

湖南岳陽縣:“影旅融合”激活古村民俗游

干細胞治燒燙傷面臨這些“瓶頸”

本地新聞

用青花瓷的方式,打開西溪濕地

藝術要聞

震撼!康斯坦丁攝影作品里的性感曲線讓人驚艷!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版