DeepSeek V4 要來了?這次可能是真的
4 月 19 日,普林斯頓 AI 實驗室研究員Yifan Zhang在 X 上發了一條極其簡短的帖子——"V4, next week."
隨后在跟帖里列出了三項架構組件
![]()
Yifan Zhang 發布的 V4 預告推文 消息源可信度分析
先說說這個爆料人的背景,判斷一下可信度:
Yifan Zhang,本科北大元培、碩士清華姚班,現為普林斯頓大學 AI Lab Fellow
研究方向是大語言模型推理與強化學習,曾在字節跳動 Seed 基礎模型團隊做過研究實習。
? 個人主頁:yfz.ai
需要注意的是,他目前并不在 DeepSeek 任職,DeepSeek 官方截至目前也沒有回應任何媒體關于發布時間的問詢
但結合以下信號,"下周發布"的可信度相當高:
梁文鋒在內部溝通中確認了 4 月下旬發布——這是路透社、創知集等多家媒體獨立報道的
Polymarket 預測市場給出 75% 概率在 4 月底前發布,90% 概率在 5 月中旬前
DeepSeek 網頁端已經上線"快速模式"和"專家模式",產品層面的預熱動作很明顯
DeepSeek 正在烏蘭察布規劃建設大型數據中心,為后續算力需求做準備
DeepGEMM 在 4 月 16 日推送了重大更新——新增 Mega MoE(融合 MoE 大核)、FP8xFP4 GEMM、FP4 Indexer 等核心組件,而這些正是 V4 傳聞架構里的關鍵原語,開源動作和發布節奏高度吻合
所以雖然 Yifan Zhang 的推文帶有"非官方"性質,但綜合各方信息來看,這基本就是最后的預熱了
三項架構組件解讀
Yifan Zhang 在跟帖中提到了 V4 的三項核心架構組件,每一項都對應 LLM 優化里的一條重要方向:
1. 稀疏 MQA(Sparse Multi-Query Attention)
在多查詢注意力(MQA)的基礎上引入稀疏性。簡單說就是:不是每個 token 都去看所有的上下文,只看最相關的部分。
這對百萬級上下文窗口來說至關重要。傳統注意力機制在處理超長上下文時,算力和顯存開銷會呈二次方增長。稀疏 MQA 把這個復雜度壓到了接近線性(O(N) 到 O(N log N)),使得百萬 token 的上下文處理在實際工程中變得可行。
據傳 V4 還搭配了一個叫Lightning Indexer的組件,可以在幾百頁的長文檔中實現 20ms 以內的檢索速度,且不損失連貫性
2. 融合 MoE 大核(Fused MoE Mega Kernel)
MoE(Mixture-of-Experts)架構本身 DeepSeek 從 V2 就開始用了,V3 進一步打磨。但 MoE 有個工程痛點:路由判斷和專家矩陣乘法是兩步操作,中間有大量 kernel 啟動和顯存搬運的開銷
Fused MoE Mega Kernel 把這兩步融合進同一個 GPU kernel,直接砍掉了中間的開銷。這對推理延遲的優化是非常直接的——從架構層面減少了大量不必要的數據搬運
這也是 DeepSeek 一貫的風格:在工程層面把每一個 cycle 都榨干
3. Hyper-Connections(流形約束超連接)
這是三個里面最有學術含量的一項。傳統 Transformer 用的是殘差連接(Residual Connection),就是簡單地把輸入加到輸出上。Hyper-Connections 是對殘差連接的泛化,用多條可學習的加權通路替代單一的殘差加法。
但早期版本的 Hyper-Connections 有一個致命問題:信號放大會失控,在超大模型中放大倍數可以達到 3000 倍以上,導致訓練直接崩潰
DeepSeek 的解決方案叫mHC(Manifold-Constrained Hyper-Connections):用Sinkhorn-Knopp 算法把連接矩陣投影到一個特定的數學流形上,讓信號放大嚴格控制在 2 倍以內
? 論文:arXiv:2512.24880
這項技術的代價只有約 6.7% 的額外計算開銷,但換來的是:萬億參數級別的超深超寬模型可以穩定訓練
這是 V4 能做到萬億參數的關鍵基礎設施
DeepSeek V4 已知信息匯總
綜合各方報道,V4 目前已知的信息:
特性
參數規模
約 1 萬億(萬億級 MoE),每個 token 激活約 32-37B 參數
上下文窗口
百萬級(約 100 萬 token)
訓練芯片
首次深度適配華為昇騰 950PR 等國產芯片,全棧國產算力
開源協議
Apache 2.0,可商用
API 定價
傳聞每百萬 token 約 $0.30,是 GPT 旗艦模型的 1/10
產品版本
V4 旗艦版、V4 Lite(輕量版)、V4 Vision(多模態版)
核心架構
Sparse MQA + Fused MoE Mega Kernel + mHC
幾個值得關注的點
1. 全棧國產算力,這是最大的信號
V4 如果真的完全跑在華為昇騰芯片上,那意味著 DeepSeek 從 CUDA 遷移到了 CANN 框架,實現全鏈路國產化
這對整個中國 AI 產業的意義遠超一個模型發布本身 —— 它證明了在芯片封鎖的條件下,國產算力生態是跑得通的
2. 定價繼續卷
每百萬 token $0.30,延續了 DeepSeek 一貫的"價格屠夫"風格
V3 時期就已經是業內最便宜的了,V4 在萬億參數的情況下還能維持這個價位,MoE 的稀疏激活功不可沒
3. 算力基建正式入場
DeepSeek 之前一直是"輕資產"打法,主要靠算法效率取勝
但 3 月底那次長達 12 小時的宕機暴露了算力瓶頸。這次在烏蘭察布規劃數據中心、首次啟動外部融資(路透社 4 月 17 日報道,估值約 100 億美元),說明 DeepSeek 已經意識到:光有好算法不夠,算力基礎設施也得自己掌握
4. 之前"狼來了"過兩次
實話實說,V4 之前已經有過兩輪"即將發布"的傳聞(2 月和 3 月),結果都跳票了
但綜合 Yifan Zhang 的爆料、梁文鋒的內部確認、產品端的預熱動作、以及預測市場的賠率,這次的信號密度確實是最高的
總結
如果 V4 真的在下周發布,它將是:
國產 AI 模型首個萬億參數級開源模型
首個全面適配國產算力的旗艦大模型
百萬級上下文窗口 + 極致性價比的組合
DeepSeek 從 V2 開始就一直在給行業制造驚喜,V3 更是直接把開源大模型的天花板拉到了跟閉源模型掰手腕的水平。V4 如果能兌現這些技術承諾,那真的可以說是"2026 年國產 AI 的破局之作"
拭目以待,下周分曉
制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.