![]()
2026 年 4 月 24 日,DeepSeek V4系列模型正式發布并同步開源。作為新一代面向Agent 與 Coding 場景深度優化的大模型,DeepSeek V4-Pro與DeepSeek V4-Flash在能力與工程可用性上實現了跨越式升級,模型上下文處理長度由原有的128K顯著擴展至1M,首次增加了 KV Cache 滑窗和壓縮算法,大幅減少 Attention 計算和訪存開銷。
與此同時,昇騰超節點完成全棧適配,AtomGit 平臺首發代碼倉庫與實踐方案,第一時間向開發者開放。
DeepSeek V4:從能力提升,到工程可用
過去一年,大模型的競爭焦點一直集中在“更強能力”。而DeepSeek V4的關鍵變化在于不僅更強,而且更可落地。根據官方的介紹,此次 DeepSeek-V4 在 Agent 能力、世界知識和推理性能上均實現國內與開源領域的領先。
![]()
![]()
昇騰超節點:把“能跑”變成“跑得極致”
昇騰一直同步支持 DeepSeek 系列模型,本次通過雙方芯模技術緊密協同,實現昇騰超節點全系列產品支持 DeepSeek V4 系列模型。昇騰 950 通過融合 kernel 和多流并行技術降低 Attention 計算和訪存開銷,大幅提升推理性能,結合多種量化算法,實現了高吞吐、低時延的 DeepSeek V4 模型推理部署。昇騰 A3 超節點系列產品也全面適配,同時為便于用戶快速微調,提供了基于昇騰 A3 集群的訓練參考實現。
昇騰 950:重新定義長文本推理性能
實現 DeepSeek V4-Pro 20ms 和 DeepSeek V4-Flash 10ms 低時延推理
基于 DeepSeek V4-Pro 模型,在 8K 輸入場景,昇騰 950 超節點可實現 TPOT 約 20ms 時單卡 Decode 吞吐 4700TPS。DeepSeek V4-Flash 模型,8K 長序列輸入場景下可實現 TPOT 約 10ms 時單卡 Decode 吞吐 1600TPS(注:上述 Benchmark 數據均基于 Offine 推理模式采集,不包含 Serving 調度和框架負載均衡影響)。極低時延的實現源于昇騰 950 代際底層架構的三大升級:
原生精度加速:全面支持 FP8 、MXFP8、MXFP4 等數據格式,在保證模型精度的同時,可實現內存占用降低 50%+,計算能力翻倍。
稀疏訪存優化:針對 MoE 模型的離散訪存特征,通過大幅提升硬件級稀疏訪存能力,有效解決了專家路由過程中的帶寬瓶頸。
Vector 與 Cube 共享 Memory:創新的存儲架構設計,實現了向量單元(Vector)與矩陣單元(Cube)的Memory 共享,消除了大量片上數據搬運開銷,極大地降低了端到端推理時延。
除了底層架構的升級,昇騰 950 超節點從基礎器件、協議算法到光電互聯,實現了系統級的創新突破,支持用戶以 64 卡為步長按需擴展,可實現 8192 卡無收斂全互聯,提供業界最大 Scale Up 能力。
同時基于昇騰超節點架構,進一步大幅提升延遲和吞吐,同時實現低成本,且兼顧萬卡級別的 Scale out 集群規模。解決了長序列 4K 到 1M 序列長度范圍內都有低延遲和高吞吐。此架構支持基于 NAND SSU 的超低成本、超大容量、高性能 KV cache 有效支撐支持長序列應用。
昇騰 A3 超節點:規模化推理的現實解
A3 超節點系列產品,實現 DeepSeek V4-Flash 模型單卡 Decode 吞吐 2000+ TPS
Atlas 900 A3 SuperPoD 液冷超節點及 Atlas 800 A3 風冷超節點采用平等架構、全局內存統一編址、點對點互聯帶寬達 784GB/s。提供 32 到 384 多種規格滿足不同業務需求,昇騰超節點是國內唯一成熟規模商用的超節點產品,滿足互聯網、運營商、金融等行業對大模型推理超高吞吐、超大并發的極致性能需求。
基于昇騰 A3 64 卡超節點結合大 EP 模式部署,DeepSeek v4-Flash 模型,8K/1K 輸入輸出場景,基于 vLLM 推理引擎可實現 2000+ TPS 的單卡 Decode 吞吐,單卡吞吐持續提升。針對 DeepSeek V4-Pro 模型,昇騰 A3 同步支持推理部署,性能持續優化中。
訓練側同步突破:不是 Demo,是可復現工程
昇騰同步支持并開源 DeepSeek V4 復雜 Sparse Attention + mHC 架構續訓練參考實現,TorchTitan-NPU 攜手 Autofuse,助力訓練輕松入圖、開箱即優
昇騰 CANN 基于 A3 64 卡超節點正式完成 DeepSeek V4-Flash 模型續訓練(CPT)的 0-day 適配支持。通過 TorchTitan-NPU 插件與 Autofuse 自動融合技術的深度協同,實測模型吞吐量最高達到 1100 tokens/p/s,實現模型訓練性能開箱即優。而這一亮眼的開箱表現,主要源自以下三大維度的硬核系統級優化:
極簡分布式并行架構:突破傳統復雜的混合并行設計,采用超節點親和的大 EP + 純 FSDP 的極簡并行切分策略,以極低適配成本和通信開銷達成內存占用最優,實現易用性與性能的較好均衡
原生“入圖”與自動融合:TorchTitan-NPU 深度適配 torch.compile 機制,使能訓練入圖技術,依托 Inductor + AutoFuse(基于 Ascend C 的 Codegen 后端)實現端到端的 Vector 算子自動融合,為整網帶來高達 31.8% 的開箱即用性能收益
稀疏 Attention 高效融合算子:針對稀疏注意力等復雜結構,開發 SparseAttnSharedkv、LightningIndexer 等多個高效的 NPU 融合算子,從負載均衡分核計算、內存與計算均衡等維度協同優化,充分釋放芯片稀疏算力
開發范式升級:PyPTO + TileLang 開源
為了解決自定義算子開發門檻高、周期長的痛點,昇騰CANN 推出了 PyPTO 編程范式。PyPTO 提供完善的 Python API,使開發者能夠以符合 Python 習慣的語法進行算子開發。
高效的算子開發:PyPTO 依托內置高級編譯優化,可自動完成流水編排與內存管理,使開發者無需關注硬件細節而專注于計算流表達,實現 DeepSeek V4 新一代模型算子開發周期可縮短至天級。
高性能Kernel自動生成:針對 Attention、Compressor、mHC 等復雜邏輯算子,PyPTO 可自動生成高度優化的 Kernel,避免開發者手動處理繁瑣的同步與數據搬運,顯著縮短從算法驗證到部署落地的開發周期。
PTO ISA 虛擬指令集跨代兼容:PyPTO 基于 PTO 虛擬指令集(PTO ISA),實現了對硬件新特性的“零感適配”,針對不同代際芯片統一指令接口,實現了同一套算子代碼,在不同代際芯片上的兼容實現。借助畢昇編譯器的 VF(Vector Fusion) 自動融合能力,可在 micro kernel 級別實現更優融合。
TileLang 社區生態:TileLang-Ascend 是 TileLang 針對華為昇騰平臺深度優化的實現,分別對應 Tilelang-Ascend 的 Expert 和 Developer 開發模式,提供 AscendC 基礎指令和 PTO AS 兩種對接層次,為各種編程前端語言和編譯器提供多層開放接口。DeepSeek V4 模型相關實現已在 TileAI 開源社區正式發布,后續將持續推進性能優化與功能迭代。
昇騰A2、A3及950全系列產品適配DeepSeek v4-Flash、DeepSeek v4-Pro。
AtomGit 首發:讓開發者真正用起來
作為本次 DeepSeek V4 昇騰適配的首發平臺,AtomGit 已同步上線完整實踐體系:
模型推理優化方案
Ascend C 融合算子實現
TorchTitan-NPU 訓練實踐
圍繞 DeepSeek V4 × 昇騰 × AtomGit,我們在今日 16:00 帶來主題直播,看大模型,如何真正進入生產環境?
AtomGit互動討論區
https://atomgit.com/org/cann/discussions/85
相關資源
DeepSeek V4 模型推理優化實踐:https://atomgit.com/cann/cann-recipes-infer/tree/master/docs/models/deepseek-v4/deepseek_v4_inference_guide.md
DeepSeek-V4 Ascend C 融合算子優化:https://atomgit.com/cann/cann-recipes-infer/tree/master/docs/models/deepseek-v4/deepseek_v4_ascendc_operator_guide.md
基于CANN平臺的TorchTitan-NPU + AutoFuse 極簡訓練優化實踐:https://atomgit.com/cann/cann-recipes-train/blob/master/docs/llm_pretrain/deepseek-v4_torchtitan_npu_autofuse.md
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.