雷科技(ID:leitech)算了下,距離DeepSeek上一次大版本更新已經過去484天,雖然期間一直有小版本更新,也引發了不少討論,但這終究不是大家期待的V4。
![]()
圖源:DeepSeek
不過,好消息是我們終于不用再等了,DeepSeek V4在4月24日早上10:56正式發布,首發就有Flash和Pro兩個版本。這個消息很快就在海外刷屏,DeepSeek V4發布的推文,短時間內就收獲了數萬點贊和數百萬次瀏覽,評論區也是擠滿了人。
![]()
圖源:X
DeepSeek V4的關注度實在太高,以至于DeepSeek不得不在官方推文下留言:
請僅以我們官方賬號發布的 DeepSeek 新聞為準。其他渠道的聲明并不代表我們的觀點。
DeepSeek發布這個聲明的原因,是此前有人謠傳DeepSeek迫于壓力將不會開源V4版本(或僅開源小參數版本)。這個謠言甚至在一定程度上引發了開源AI社區的恐慌,不過現在這些謠言都被DeepSeek V4的全模型全量開源擊碎了,而且還是大家熟悉的Apache 2.0許可證。
有外國網友直接在底下留言:開源人工智能之王回歸了。
![]()
圖源:X
對的,DeepSeek,回來了。
開源王者,以怎樣的姿勢歸來?
此次發布的DeepSeek V4預覽版本分為Pro和Flash兩個模型,其中Pro面向復雜推理、高階Agent和高強度任務,Flash則面向高頻調用、低成本部署和快速響應場景。
其中V4-Pro采用1.6T總參數、49B激活參數的MoE架構,V4-Flash則為284B總參數、13B激活參數,兩者都支持100萬 token 的上下文長度。雖然參數差距巨大,但是根據官方的說法,他們借助算法優化了兩個模型的參數調用,使得兩個模型在日常任務中的表現幾乎相同。
![]()
圖源:DeepSeek
在小雷看來,這也揭示了DeepSeek對下一階段大模型競爭方向的判斷:模型不只是要更強,還要更便宜、更開放,這樣才能更容易被企業和開發者真正用起來。如果你深度使用過OpenClaw,云端Token的消耗速度肯定會讓你印象深刻,隨著AI的用途越發廣泛、能力越發強大,Token成本已經成為所有人都必須面對的問題。
但是,很多任務其實并不需要Pro級的AI模型去處理,比如辦公輔助、內容摘要、數據整理等場景,更需要的是速度、穩定性和成本控制。所以將模型一分為二,然后讓Flash版在輕量化任務中保持Pro的性能,就足以讓使用者和企業節省大量的Token費用。
聊回DeepSeek V4,小雷覺得最值得關注的就是百萬級 token 上下文。對普通用戶來說,這意味著更長的文檔、更復雜的對話、更完整的項目資料,可以被一次性納入模型處理,不用再拆分成多個片段分階段完成。
![]()
圖源:DeepSeek
而且DeepSeek V4的Agent及推理能力也得到了大幅度增強,配合更長的上下文,足以讓其具備出色的連貫操作能力,這也是為未來的“Claw”生態大爆發提前做好準備。小雷認為,DeepSeek趕在如今的時間段發布V4版本,肯定也是有這方面的考量。
更關鍵的是,DeepSeek V4延續了DeepSeek一貫的高性價比路線。過去很多大模型競爭喜歡強調參數規模和榜單成績,但DeepSeek卻更強調工程效率和使用門檻,因為它真正想解決的不是讓少數人看到技術上限,而是讓更多人承擔得起AI成本。
![]()
圖源:DeepSeek
這種思路對國產AI非常關鍵,中國市場有龐大的中小企業、垂直行業和內容生產需求,但它們不可能長期承受高昂的海外模型調用成本。DeepSeek V4如果能在性能和價格之間繼續保持平衡,就會成為更廣泛應用場景里的基礎模型。
更何況單論開源模型的話,在目前的各項測試中DeepSeek V4都幾乎拿到了第一,并且媲美海外閉源模型的最新版本(不過V4測試時GPT 5.5和Opus 4.7都還沒發布)。開源意味著你只需要投入前期的硬件成本,就能夠近乎零成本使用該模型,這對于不少大型企業來說也極具誘惑力。
國產算力,終于等來主場
既然聊到硬件成本,那么就不得不提DeepSeek V4對國產算力卡的支持了。在V4版本的開發過程中,華為、寒武紀等中國芯片企業都深度參與其中,并且與DeepSeek一起基于國產芯片重構AI大模型的算法邏輯并進行生態適配。
其實,在過去很長一段時間里,國產AI芯片面臨的最大問題,并不是沒有產品,而是缺少足夠強、足夠主流的真實業務負載,去測試國產算力芯片是否真正能夠穩定運行主流大模型。
當然,你要拿Qwen、kimi、豆包等AI模型去跑也確實可行,但是因為模型都是基于CUDA生態研發的,想在昇騰等芯片上跑通就需要借助兼容層來運行,相當于犧牲效率來換取低廉的硬件成本(某種程度上來說也是不得已而為之),也很難展示國產芯片的真正性能。
而DeepSeek V4的出現就解決了這個問題,它既有長上下文需求,又有復雜推理需求,還會被大量開發者和企業調用。如果國產芯片能在這樣的模型上跑出穩定表現,肯定會比單純公布硬件規格更有說服力,同時也能證明基于國產芯片深度適配后的國產模型,在性能和性價比上依然能夠躋身全球前列。
![]()
圖源:雷科技
對華為昇騰來說,DeepSeek V4應該是今年最重磅的項目了。雖然昇騰過去已經在政企、運營商、云計算和AI訓練推理場景里積累了不少案例,但要真正形成生態,還需要更多頭部模型和開發框架的支持。
除了華為昇騰,還有另一個值得注意的企業——寒武紀,作為另一家在首日就宣布支持DeepSeek V4的芯片企業,它也受到了很多關注,只有少數在開發階段就已經開始進行優化的芯片,能夠在首日直接適配DeepSeek,適配的國產AI芯片數量超過了英偉達芯片。雖然早前傳聞DeepSeek會放棄對CUDA生態的支持,但現在看來顯然是誤傳。
事實上,DeepSeek的早期版本仍然是在英偉達的硬件上訓練出來的,后續才逐漸轉向華為昇騰,并且首批硬件訪問權限僅提供給華為,等于是拉著華為一起搞“聯合研發”。
![]()
圖源:雷科技
這種做法的效果是顯著的,基于昇騰950超節點,DeepSeek V4-Pro在8K輸入場景下可實現約20ms的單token解碼時延,單卡Decode吞吐約4700 TPS,V4-Flash則可實現約10ms的時延,單卡Decode吞吐約1600 TPS,是英偉達此前可公開出口給中國的H20算力卡的2.87倍。
這些數字的意義,不是說讓國產芯片的海報上又增添幾串數字,而是讓市場第一次可以用更接近真實應用的方式去評估國產AI算力。而且也告訴市場,大模型推理不是簡單看芯片峰值算力,還要看顯存訪問、并行調度、低精度計算、通信效率和推理框架的協同。
雖然英偉達的算力卡性能確實稱得上全球最強,但是其真正的核心是CUDA生態,所以國產芯片想要追趕英偉達,就不能只靠堆硬件參數(制程限制下一時半會兒也追不上),而是要讓模型、框架和應用一起遷移過去,打造真正的軟硬件協同。
可以說,DeepSeek V4給Qwen、豆包、kimi等國產頂級大模型提前蹚了路,告訴大家:國產芯片是真的行。
CPU也被DeepSeek重新點燃
在寫這篇文章查詢資料的時候,小雷還看到了一則新聞:英特爾財報發布,Q1營收超預期,盤前股價飆升近30%。在英特爾的財報中,最值得關注的就是數據中心與人工智能業務部門(DCAI)營收達51億美元,同比增長22%。
![]()
圖源:百度股票
AI的需求,正在從GPU逐漸轉移到CPU上。有讀者可能好奇,小雷為什么要在DeepSeek的文章里提這個?因為DeepSeek恰恰是CPU需求增長的主要推手之一,其V4版本就引入了年初曝光的mHC架構,該架構的核心邏輯是“查算分離”。
舉個例子,以前的AI大模型,查資料和推算都是在GPU上完成的,不僅擠占算力,也占用大量顯存;而mHC架構則是將模型中靜態數據(即非調用數據)存儲在CPU的系統內存中,GPU僅需處理推理所需的數據即可。
這種設計,直接將大參數模型對顯存的壓力轉移到了CPU的系統內存上,而CPU即使是消費級的產品,也可以輕松掛載128GB乃至256GB的內存。這使得萬億參數規模的DeepSeek V4無需堆疊昂貴的顯卡陣列就可以完成本地化部署。
不過,CPU也因此需要更深度地介入到AI模型推理中,這使得高性能、高能效且高內存帶寬支持的處理器更受歡迎。而英特爾此前發布的至強6最高可支持12通道內存,單內存規格最高為256GB,意味著一顆CPU最高可掛載3TB的系統內存(在英特爾的產品線中,甚至有支持4TB的特化版本)。
某種程度上,mHC架構也算是降低了市場對HBM內存(VRAM)的需求,卻讓壓力回到了DRAM上。短期來看,可能確實讓內存的價格稍微回落(畢竟DRAM的制造難度比HBM小很多),但是長期來看,估計會讓所有內存都處于持續的緊缺狀態,消費電子行業接下來可能還要繼續承壓。
![]()
圖源:veer
而且,隨著類“OpenClaw”應用的普及,PC對CPU的要求也更高,因為AI需要一個高效的CPU在端側進行指令處理和執行。這也使得英特爾的新處理器備受關注,酷睿Ultra 300系列的高能效+高端側算力設計,恰好滿足此類應用的需求。
在開源模型+開源AI應用的雙重推動下,英特爾的營收估計還會持續上漲,這也讓雷科技(ID:leitech)意識到,如今的AI浪潮中,如何最大程度地利用現有的計算硬件生態,將會是未來AI生態需要優先考慮的事情。
寫在最后
在雷科技(ID:leitech)看來,DeepSeek V4的意義其實已經不只是“又一個強大的國產大模型發布”這么簡單,而是告訴我們,模型能力固然重要,但模型能不能被更多人用起來,能不能跑在更便宜、更容易獲得的硬件上,才是下一階段AI競爭的關鍵。
這不禁讓我想到了當年macOS與Windows的競爭,同為最早的圖形界面操作系統,前者雖然性能更強,但是因為僅支持蘋果的硬件,導致其在后續的幾十年里份額僅有Windows的十分之一甚至更低。而在AI領域也是如此,閉源AI模型雖然能力強大,但是普通開發者和小型企業卻面臨用不起、難以部署等問題。
而DeepSeek V4其實恰好解決了這些問題。首先開源就意味著免費,其次100萬 token 上下文和更強的 Agent 能力,又讓其真正成為生產力工具,而對國產芯片生態的支持,也讓其能夠適應不同的硬件環境,相當于給全球的AI開發者們開辟了一條新的康莊大道。
只能說,484天的等待沒有白費,DeepSeek這次帶回來的,不只是一個更強的V4,而是一個更開放、更低成本、更接近普通人的AI世界。
2026第十九屆北京國際汽車展覽會將于4月24日至5月3日在北京?中國國際展覽中心(順義館)和首都國際會展中心(新國展二期)舉行,本屆車展以“領時代·智未來”為主題,集中展現汽車工業的更多黑科技。
比亞迪、小米、鴻蒙智行(問界等)、小鵬、蔚來、嵐圖等頭部品牌集結,多款重磅新車首秀;地平線、Momenta、卓馭等供應商集體秀肌肉,AI大模型深度賦能,高階智駕、動力電池、超快充技術等前沿科技集中亮相,看點拉滿!
雷科技旗下「電車通」將派出報道團直擊現場,以“關注電動車,更懂智能化”的專業視角,帶來一線獨家報道,敬請關注!
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.