網易首頁 > 網易號 > 正文 申請入駐

DeepSeek V4登頂了!梁文鋒把四大技術秘方公開

0
分享至


智東西
作者 楊京麗
編輯 李水青

智東西4月24日報道,今天,DeepSeek-V4剛開源就迅速登頂了Hugging Face開源模型榜,相關技術報告也大方披露,覆蓋華為昇騰與英偉達芯片適配、模型架構升級、預訓練和后訓練環節優化等豐富的技術細節,非常值得仔細品讀。


DeepSeek-V4最顯著的提升,除了在推理、知識、代碼能力上全線抬升,整體表現比肩GPT-5.4、Claude Opus 4.6等頂級閉源模型;還在于該模型首次將“百萬上下文”作為默認能力開放,在此設置下單token推理FLOPs相比DeepSeek-V3.2暴降73%,KV cache僅為其10%,大幅降低使用成本。

基礎設施方面,DeepSeek-V4從訓練到推理的全鏈路,已經完整適配了華為昇騰NPU,其自研的細粒度專家并行方案“MegaMoE”,能夠在NVIDIA GPU和華為昇騰NPU上實現1.50-1.73倍的加速

DeepSeek-V4的訓練過程相比前代模型有一些差異化。預訓練中,DeepSeek-V4引入了“樣本級注意力掩碼”機制,語料總規模超過32萬億tokens,涵蓋數學內容、代碼、網頁文本、長文檔等多種高質量類別。后訓練中,DeepSeek-V4則將原先的混合強化學習階段替換為“基于策略的蒸餾”,確保訓練更為可控。


開源地址:

https://huggingface.co/collections/deepseek-ai/deepseek-v4

報告地址:

https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

一、基礎設施再創新,全鏈路高效適配華為昇騰

DeepSeek-V4在基礎設施方面提升較為明顯,采用專家混合(MoE)技術,可通過專家并行化(EP)實現加速

然而,EP需要復雜的節點間通信機制,并對互連帶寬和延遲提出較高要求。為緩解EP中的通信瓶頸,并在降低互連帶寬需求的同時,提升端到端性能,DeepSeek提出了一種細粒度EP方案“MegaMoE”:將通信與計算功能整合為單一流水線內,實現通信與計算的重疊執行。

DeepSeek-V4在英偉達GPU和華為昇騰NPU平臺上驗證了細粒度專家并行(EP)方案。與性能較強的非融合基線相比,該方案在通用推理任務中實現了約1.50-1.73倍的加速,在延遲敏感的場景中最高可達1.96倍。相關CUDA實現已開源,名為MegaMoE2,作為DeepGEMM的一個組件提供。


將專家調度(Dispatch)與Linear-1重疊,將Linear-2與Combine重疊。EP方案通過將專家拆分并按波次調,實現了更細粒度的重疊。

在實際應用中,復雜的模型架構原本會生成數百個細粒度的Torch ATen運算符。為此,DeepSeek采用TileLang開發了一組融合內核,用以替代其中絕大多數運算符,把碎片化的小kernel融成大塊,調用開銷從百微秒壓到1微秒以內,還引入Z3形式化求解器做優化驗證。做到比特級可復現,同一token不管在batch哪里都得到同樣結果,同一模型每次運行完全一致,這對大模型調試是保命設計。

DeepSeek將FP4(MXFP4)量化應用于兩個關鍵部分:第一是MoE專家權重,這部分是GPU顯存占用的主要來源之一;第二是CSA中索引器的Query-Key(QK)路徑,在該路徑中,QK激活值的緩存、加載以及乘法計算全部在FP4精度下完成,從而在長上下文場景中加速注意力分數的計算。

訓練框架建立在為DeepSeek-V3開發的可擴展且高效的基礎設施之上。在訓練DeepSeek-V4時,DeepSeek繼承了這一基礎,同時引入了多項關鍵創新,適配其新的架構組件——包括Muon優化器、mHC,以及混合注意力機制,并在此過程中保持高效的訓練效率與穩定性。


二、架構升級,突破長文本計算效率瓶頸

推理模型興起后,業內建立了一種新的“測試時擴展”范式,顯著推動了大型語言模型的性能提升。然而,這種擴展范式從根本上受限于傳統注意力機制,難以處理超長上下文和復雜推理過程。

同時,從復雜智能體工作流到大規模跨文檔分析,長時序任務的出現,也使得高效支持超長上下文成為未來發展的關鍵需求。盡管近年來一些開源工作(如DeepSeek、MiniMax、Qwen等)已經推動了模型能力的整體提升,但在處理超長序列方面的核心架構低效問題仍然存在。

DeepSeek-V4為解決這個瓶頸,它通過一系列架構創新,讓模型在處理超長上下文時的計算效率大幅提升,從而真正把上下文長度推進到“百萬token”這個量級。

總體而言,DeepSeek-V4系列沿用了Transformer架構和多Token預測模塊,并在DeepSeek-V3基礎上引入了項關鍵改進:

(1)采用混合注意力架構,將壓縮稀疏注意力(CSA)與高壓縮注意力(HCA)結合,以提升長上下文處理效率;

(2)引入流形約束超連接(mHC),增強傳統殘差連接;

(3)使用Muon優化器,實現更快的收斂速度和更高的訓練穩定性。


具體做法上,DeepSeek-V4保留了MoE結構和多token預測策略,重點改造了注意力機制:提出一種“混合注意力”,即把兩種不同的壓縮方式結合起來,一種是先壓縮再做稀疏注意力,另一種是更激進地壓縮但仍保持稠密計算,這樣在保證信息利用的同時大幅減少計算和存儲開銷。此外,它還改進了殘差連接,增強模型表達能力,并引入新的優化器Muon,讓訓練更快更穩定。

除了模型結構本身,DeepSeek對整個訓練和推理系統做了大量工程優化,比如把MoE的計算、通信和內存訪問融合在一起執行,用專門的語言優化內核,實現可復現的計算過程,以及通過低精度(FP4)來減少資源消耗。在推理階段,還設計了更復雜的KV cache存儲方式,甚至可以部分放到磁盤上,從而支持極長上下文而不爆內存。

三、預訓練:基礎模型提升明顯,Flash模型就已超V3.2

預訓練過程主要基于DeepSeek-V3的數據,同時為構建一個更多樣化、高質量且有效上下文更長的訓練語料庫,DeepSeek持續優化數據構建流程。與DeepSeek-V3不同的是,V4在預訓練過程中引入了“樣本級注意力掩碼”(sample-level attention masking)機制。

對于來自網頁的數據,DeepSeek-V4采用過濾策略,去除批量自動生成和模板化內容,從而降低模型崩潰的風險。數學和編程語料仍然是訓練數據的核心組成部分,同時DeepSeek在中期訓練階段引入了智能體數據,進一步提升DeepSeek-V4系列的代碼能力。

在多語言數據方面,DeepSeek-V4構建了更大規模的語料庫,從而增強模型對不同文化中“長尾知識”的理解能力。此外,DeepSeek-V4特別強調長文檔數據的構建,優先收集科學論文、技術報告等材料。

綜合上述各類數據,預訓練語料總規模超過32萬億tokens,涵蓋數學內容、代碼、網頁文本、長文檔等多種高質量類別。

對于基礎模型的評估,DeepSeek-V4覆蓋四個關鍵維度的基準測試,包括世界知識、語言理解與推理、代碼與數學,以及長上下文處理。

DeepSeek-V3.2、DeepSeek-V4-Flash和DeepSeek-V4-Pro的基礎模型在統一的內部框架下進行了評測,獲得以下結果。


盡管DeepSeek-V4-Flash-Base的激活參數量和總參數量都明顯更小,但它在大量基準測試中超過了DeepSeek-V3.2-Base,該優勢在世界知識任務和長上下文場景中尤其明顯。結果表明,DeepSeek-V4-Flash-Base在更緊湊的參數預算下,也能取得更強性能,在大多數評測中有效超過規模更大的DeepSeek-V3.2-Base。

此外,DeepSeek-V4-Pro-Base能力躍升更為明顯,幾乎全面領先DeepSeek-V3.2-Base和DeepSeek-V4-Flash-Base,在基準測試上刷新了DeepSeek基礎模型的性能上限。它在知識密集型評測和長上下文理解能力取得了顯著提升。在大多數推理和代碼基準上,DeepSeek-V4-Pro-Base也超過了前兩個模型。可以說,DeepSeek-V4-Pro-Base在知識、推理、代碼和長上下文能力等多個方面全面超越了前代模型。

四、后訓練:基于策略蒸餾,跨輪次保留推理歷史

在完成預訓練之后,DeepSeek還進行了后訓練,最終得到DeepSeek-V4系列模型。雖然整體訓練流程在很大程度上沿用了DeepSeek-V3.2的方案,但在方法上做出了一項關鍵替換:原先的混合強化學習(RL)階段被完全替換為“基于策略的蒸餾”(On-Policy Distillation,OPD)。

具體做法是,先對每個目標領域各自訓練一個獨立的專家模型。每位專家都經歷相同的流程:先用高質量領域數據做監督微調打底,再用GRPO算法做領域強化學習,這一步會得到十多位各有所長的“偏科高手”。

真正的合并動作發生在第二階段。DeepSeek-V3.2的做法是把各類數據混在一起做RL,容易互相影響,而V4則換成讓統一的學生模型自己采樣答題,過程中由這十多位專家老師在完整詞表的logit層面打分對齊,用reverse KL損失把學生拉向老師。這種方式保證模型在每個領域的專長都能被完整保留。另外一個關鍵改動是DeepSeek-V4堅持做全詞表蒸餾,進而梯度更穩,訓練曲線更可控,但工程難度更高。

依托DeepSeek-V4系列的一百萬 token上下文窗口,DeepSeek進一步優化機制,以最大化智能體環境中交錯思考的效果。


工具調用場景中,所有推理內容都會在整個對話過程中被完整保留。不同于DeepSeek-V3.2會在每一輪新用戶輸入到來時丟棄思考軌跡,DeepSeek-V4系列會跨越所有輪次保留完整的推理歷史,讓模型能夠在長周期智能體任務中維持連貫、持續累積的思考鏈條。

一般對話場景中,DeepSeek-V4仍然保留原有策略:當新的用戶消息到來時,會丟棄上一輪的推理內容,從而保持上下文簡潔。

與DeepSeek-V3.2一樣,那些通過用戶消息來模擬工具交互的智能體框架(例如 Terminus)可能不會觸發工具調用上下文路徑,因此也可能無法受益于增強后的推理持久化機制。對于這類架構,DeepSeek仍然建議使用非思考模型

五、知識、推理、代碼三線抬升,開源模型逼近閉源上限

評測結果上看,DeepSeek-V4-Pro-Max相比其他開源模型也略有領先,部分能力逼近閉源模型。

知識能力和推理能力上,DeepSeek-V4-Pro-Max相比其他開源模型略有領先,但仍遜于閉源模型Gemini 3.1-Pro。推理能力上,DeepSeek-V4-Pro-Max優于GPT-5.2和Gemini-3.0-Pro,落后于GPT-5.4和Gemini-3.1-Pro;DeepSeek-V4-Flash-Max與GPT-5.2和Gemini-3.0-Pro能力近似,在復雜推理任務中展現出很高的性價比。

Agent能力方面,DeepSeek-V4-Pro-Max與Kimi-K2.6和GLM-5.1等領先開源模型表現相當,但略遜于最前沿的閉源模型。長上下文能力方面,DeepSeek-V4-Pro-Max在合成任務和真實應用場景中均表現強勁,在學術基準測試中甚至超過了Gemini-3.1-Pro。


在DeepSeek-V4-Pro與DeepSeek-V4-Flash的對比中,由于參數規模較小,DeepSeek-V4-Flash-Max在知識類評測中的表現略低。但在給予更多推理token時,在推理任務中的表現可以接近DeepSeek-V4-Pro-Max。在智能體評測中DeepSeek-V4-Flash-Max在部分基準上可以達到與DeepSeek-V4-Pro-Max相當的水平,但在更復雜、高難度任務中仍略遜一籌。

結語:高效支持百萬級token上下文,后續需簡化架構

DeepSeek-V4系列預覽版突破了超長上下文處理中的效率瓶頸,其通過融合CSA與HCA的混合注意力架構,并結合系統級基礎設施優化,使模型能夠更高效地支持百萬token級上下文,為測試時擴展、長時序任務和在線學習等方向提供了基礎。

從評測結果看,DeepSeek-V4-Pro-Max在開源模型中表現突出,在知識、推理和智能體任務上均取得較強結果,部分能力接近前沿閉源模型。DeepSeek-V4-Flash-Max則在較低成本下實現了較強推理能力,體現出較高性價比。

不過,DeepSeek-V4的架構也較為復雜,部分穩定性方法如Anticipatory Routing和SwiGLU Clamping的機理仍有待進一步理解。后續工作預計將集中在簡化架構、提升訓練穩定性、探索更多稀疏化方向、降低長上下文推理延遲、增強多輪智能體與多模態能力,以及持續改進數據構建與合成策略等方面。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
86年我在工廠值夜班,半夜撞見廠長媳婦從倉庫出來,她讓我別聲張

86年我在工廠值夜班,半夜撞見廠長媳婦從倉庫出來,她讓我別聲張

千秋文化
2026-04-21 20:11:53
眼紅啊!工資到賬19380.52元,自稱“長沙教培牛馬”發帖刷爆網絡

眼紅啊!工資到賬19380.52元,自稱“長沙教培牛馬”發帖刷爆網絡

火山詩話
2026-04-24 07:35:54
越是不做飯、不操心、愛當“甩手掌柜”的人,家庭存在感越松弛

越是不做飯、不操心、愛當“甩手掌柜”的人,家庭存在感越松弛

富書
2026-04-22 22:02:34
三星長公主前夫:離婚拿了8370萬揮霍一空,和巫女女友淪為階下囚

三星長公主前夫:離婚拿了8370萬揮霍一空,和巫女女友淪為階下囚

照見古今
2026-04-22 18:42:23
夏洛特公主越來越像女王!關于她鮮為人知的7件事!

夏洛特公主越來越像女王!關于她鮮為人知的7件事!

ChicMyGeek
2026-04-25 19:00:24
《楚喬傳》“偽續集”《冰湖重生》豆瓣3分!今年最拉

《楚喬傳》“偽續集”《冰湖重生》豆瓣3分!今年最拉

老吳教育課堂
2026-04-25 19:04:32
房子遭人強拆,因反抗坐3年牢!出獄后揚言:不贏官司就殺人!

房子遭人強拆,因反抗坐3年牢!出獄后揚言:不贏官司就殺人!

談史論天地
2026-04-20 12:16:17
最高可判死刑!奧巴馬結局已定?美國司法部介入,特朗普準備收網

最高可判死刑!奧巴馬結局已定?美國司法部介入,特朗普準備收網

星夜漣漪
2026-04-25 18:56:27
“最長斷糧17天”,烏克蘭前線士兵骨瘦如柴照片遭曝光

“最長斷糧17天”,烏克蘭前線士兵骨瘦如柴照片遭曝光

觀察者網
2026-04-25 08:51:03
烏克蘭清除全部庫皮揚斯克俄軍部隊!摧毀紅軍村通訊系統

烏克蘭清除全部庫皮揚斯克俄軍部隊!摧毀紅軍村通訊系統

項鵬飛
2026-04-24 12:48:43
臺灣最后12個“邦交”全是硬茬,大陸一個個拔除要廢不少功夫

臺灣最后12個“邦交”全是硬茬,大陸一個個拔除要廢不少功夫

混沌錄
2026-04-25 15:27:09
華誼兄弟,被正式申請破產!曾是“中國影視第一股”,坐擁馮小剛、黃曉明等百位明星,8年虧光80多億,如今還不起1000萬

華誼兄弟,被正式申請破產!曾是“中國影視第一股”,坐擁馮小剛、黃曉明等百位明星,8年虧光80多億,如今還不起1000萬

揚子晚報
2026-04-24 12:25:11
iPhone 20 周年版確認,外觀迎來全面革新!

iPhone 20 周年版確認,外觀迎來全面革新!

XCiOS俱樂部
2026-04-25 13:50:03
比亞迪全新大唐賣爆了,全網多渠道訂單喜報刷屏!

比亞迪全新大唐賣爆了,全網多渠道訂單喜報刷屏!

新浪財經
2026-04-25 18:11:07
下周A股重要看點:英偉達重上5萬億美元大關!兩類股將率先突破!

下周A股重要看點:英偉達重上5萬億美元大關!兩類股將率先突破!

丁丁鯉史紀
2026-04-25 19:32:16
為啥很多店沒生意,卻一直在營業?網友:普通人怕是開不了茶葉店

為啥很多店沒生意,卻一直在營業?網友:普通人怕是開不了茶葉店

帶你感受人間冷暖
2026-04-22 02:21:30
導彈直逼上海?中方忍無可忍,打出禁空令,覆蓋范圍超臺灣兩倍

導彈直逼上海?中方忍無可忍,打出禁空令,覆蓋范圍超臺灣兩倍

小楊侃事
2026-04-23 14:17:02
北京車展名場面:雷軍打卡蔚來展臺 李斌聞訊一路小跑趕來

北京車展名場面:雷軍打卡蔚來展臺 李斌聞訊一路小跑趕來

快科技
2026-04-24 20:54:03
詹姆斯談與布朗尼空接:他一直在示意要球,我觀察了很久

詹姆斯談與布朗尼空接:他一直在示意要球,我觀察了很久

懂球帝
2026-04-25 11:35:09
事態升級,中方軍艦越聚越多,四川艦和遼寧艦匯合,菲日休想鬧事

事態升級,中方軍艦越聚越多,四川艦和遼寧艦匯合,菲日休想鬧事

甜到你心坎
2026-04-25 09:50:11
2026-04-25 20:19:00
智東西 incentive-icons
智東西
智東西,AI產業新媒體,專注報道人工智能的前沿技術發展,和技術應用帶來的千行百業產業變革。
11686文章數 117046關注度
往期回顧 全部

科技要聞

DeepSeek V4發布!黃仁勛預言的"災難"降臨

頭條要聞

現場視頻:殲-15掛彈起飛硬剛外軍航母編隊滋擾

頭條要聞

現場視頻:殲-15掛彈起飛硬剛外軍航母編隊滋擾

體育要聞

火箭0-3觸發百分百出局定律:本季加時賽9戰8敗

娛樂要聞

鄧超最大的幸運,就是遇見孫儷

財經要聞

90%訂單消失,中東旺季沒了

汽車要聞

2026款樂道L90亮相北京車展 樂道L80正式官宣

態度原創

房產
時尚
旅游
本地
游戲

房產要聞

新一輪教育大爆發來了!海口,開始瘋狂建學校!

上新|| 入夏第一件短袖,買它!

旅游要聞

去馬登鄉尋找杜鵑花海,結果誤打誤撞,領略了數千畝蘋果花的風韻

本地新聞

云游中國|逛世界風箏都 留學生探秘中國傳統文化

索尼新規落地!所有數字版游戲都要強制30天聯網驗權

無障礙瀏覽 進入關懷版