網易首頁 > 網易號 > 正文 申請入駐

ZPedia|一文讀懂 DeepSeek V4:Agent 能力加冕開源新王,94%幻覺率是暗雷,價格優勢不再

0
分享至


DeepSeek V4 的橫空出世,再次攪動了全球開源大模型的格局。

在 Artificial Analysis 最新的 Intelligence Index(AII)評測中,DeepSeek 憑借 V4 Pro 與 V4 Flash 的組合,強勢回歸第一梯隊。其中,V4 Pro 以 52 分的成績位列開源權重推理模型第二,僅次于 Kimi K2.6,宣告了 DeepSeek 在經歷一段激烈的行業追趕后,重新回到了全球開源競技的舞臺中央。

以下是Artificial Analysis 測評的核心觀點。

1. 智能指數大幅提升 10 分

DeepSeek V4 Pro(Max)在 Artificial Analysis Intelligence Index 中得分 52,較 V3.2 的 42 分提升 10 分,成為僅次于 Kimi K2.6 的第二大開源推理模型。需要補充的是,如果 MiMo-V2.5-Pro 后續像小米其他模型一樣開源,它將擠入第二位,DeepSeek V4 Pro 則會位列第三。

V4 Flash(Max)得分 47,低于 V4 Pro,但高于 DeepSeek V3.2。這意味著它雖然仍落后于最前沿模型,但智能水平已經接近 Claude Sonnet 4.6(Max)。


2. 開源模型中領先的 Agent 任務表現

在更接近真實世界工作的智能體任務評測中,DeepSeek V4 Pro(Max)表現領先開源模型。它在 GDPval-AA 測試中獲得 1554 分,高于 Kimi K2.6 的 1484 分、GLM-5.1 的 1535 分、GLM-5 的 1402 分,以及 MiniMax-M2.7 的 1514 分。這說明 V4 Pro 的優勢并不只體現在抽象推理或問答能力上,也開始延伸到更接近真實工作流的 Agent 執行任務中。


3. 知識能力提升,但幻覺率同步上升

DeepSeek V4 Pro(Max)在 AA-Omniscience 測試中得分 -10,相比 V3.2 Reasoning 的 -21 提升 11 分,主要受益于準確率提升。V4 Flash(Max)得分 -23,整體與 V3.2 接近。

但問題在于,V4 Pro 和 V4 Flash 的幻覺率都非常高,分別達到 94% 和 96%。這意味著當模型不知道答案時,它們幾乎總是會繼續給出回答,而不是明確承認「不知道」。對于面向 Agent 的模型來說,這一點尤其值得警惕,因為幻覺不再只是回答錯誤,還可能演變成錯誤的工具調用、代碼修改或業務操作。


4. 比前沿閉源模型便宜,但高于多數開源模型,且較 V3.2 成本明顯上升

運行 Artificial Analysis Intelligence Index 時,DeepSeek V4 Pro 的成本為 1071 美元。這使它比 Claude Opus 4.7 的 4811 美元便宜 4 倍以上。

但與此同時,它仍然比多款開源模型更貴,包括 Kimi K2.6 的 948 美元、GLM-5.1 的 544 美元、DeepSeek V3.2 的 71 美元,以及 gpt-oss-120B 的 67 美元。相比之下,DeepSeek V4 Flash 的成本低得多,僅為 113 美元。

因此,V4 Pro 的價格優勢主要體現在對比閉源前沿模型時;如果放在開源模型內部比較,它并不算便宜。

5. Token 使用量偏高,是總成本上升的重要原因

DeepSeek V4 Pro 在運行 Artificial Analysis Intelligence Index 時使用了 1.9 億個輸出 token,是目前測試模型中 token 消耗最高的一批。DeepSeek V4 Flash 的輸出 token 消耗量更高,達到 2.4 億個。

這也解釋了為什么 V4 Pro 雖然單 token 價格較低,但總運行成本相較其他開源模型仍然偏高。換句話說,大模型的真實成本不能只看 API 單價,還要看模型為了完成任務實際消耗了多少 token。


6. Flash 明顯弱于Pro,但在同等體量下表現突出

DeepSeek V4 Flash(Max)在 Artificial Analysis Intelligence Index 中得分 47,明顯低于 V4 Pro。但考慮到它只有 284B 參數,模型體量遠小于 V4 Pro,因此在「智能水平與模型規!沟臋嗪馍媳憩F不錯,位置接近 MiniMax-M2.7。


作為 DeepSeek 自 V3 以來的架構躍遷,V4 系列明確開啟了“雙軌并進”的產品策略:V4 Pro 聚焦性能巔峰,以 1.6T 總參數(激活參數約 49B)沖擊能力上限;V4 Flash 則主打極致效率,通過 284B 總參數(激活參數約 13B)實現高頻場景下的低延遲與低成本。兩款模型雖皆支持“思考”與“非思考”模式,但側重點已然分明。

這一戰略拆分,是 DeepSeek 對行業競爭邏輯的一次深刻重構。一年前,DeepSeek R1 系列曾領跑榜單,但隨著 Kimi、GLM、MiniMax 等實驗室的群雄逐鹿,開源賽道已陷入激烈競爭。

V4 的發布,標志著 DeepSeek 徹底告別了單一維度的模型比拼。

第一印象:DeepSeek V4 是一個明顯偏向「工程閉環」的模型

從體驗預期上看,DeepSeek V4 不像一個單純為聊天優化的模型。

過去很多模型升級,用戶最容易感知的是三件事:回答更順、推理更強、幻覺更少。但 V4 的重點不完全在這里。它更像是為長任務、多輪工具調用、代碼工程、復雜資料處理和 Agent 執行鏈條設計的模型。

官方給 V4-Pro 的核心標簽是:Agentic Coding 開源 SOTA、世界知識在開源模型中領先、數學/STEM/代碼推理超過現有開源模型并接近頂級閉源模型。V4-Flash 則主打接近 Pro 的推理能力、簡單 Agent 任務上接近 Pro,以及更小參數、更快響應和更低 API 成本。

這意味著 V4 的產品邏輯不是「一個模型包打天下」,而是非常明確地拆成了兩層:

  • Pro 是重型任務模型,適合復雜代碼庫理解、長文檔分析、多步工具調用、科研/數學/工程推理。

  • Flash 是日常高頻模型,適合問答、摘要、輕量代碼、普通 Agent 流程,以及大規模低成本調用。

這個拆分很關鍵。因為 Agent 時代的大模型不只拼智商,還拼「單位任務成本」。V4 想證明開源模型也可以成為 Agent 基礎設施,而不是只在 benchmark 上做「閉源替代品」。


V4 最強的不是聊天,而是長程任務

DeepSeek V4 最明顯的升級,是它對長上下文的重新處理。

大模型正在從聊天工具變成工作系統。早期模型主要處理短問短答,現在卻要寫代碼、讀論文、分析財報、拆解項目、調用工具、連續推理。任務越復雜,模型面對的信息量越大。代碼助手需要理解整個倉庫,科研助手需要比較多篇論文,企業知識助手需要串聯制度文件、會議紀要、合同和歷史決策。這些場景的共同點是:信息很長,任務也不是一次性的。

過去,很多復雜任務依賴 RAG,也就是先從外部知識庫中檢索幾個相關片段,再交給模型回答。RAG 很有用,但它也有天然限制:如果檢索漏掉關鍵材料,模型后面再強也沒用;如果片段之間缺少全局結構,模型容易只看到局部證據,看不到整體脈絡。對于代碼倉庫、法律合同、科研綜述和長期 Agent 任務來說,僅靠幾個片段往往不夠。

但長上下文不是免費的。傳統 Transformer 的 attention 機制在長序列下會帶來巨大的計算壓力。上下文越長,KV cache 越龐大,對顯存、帶寬和推理系統的壓力越大。所以,支持百萬 token 和高效支持百萬 token 是兩件事。前者只是窗口變大,后者才決定它能不能真正進入產品。


DeepSeek-V4 的核心價值就在這里。它不是單純宣稱模型可以接收一百萬 token,而是試圖回答一個更工程化的問題:如何讓百萬 token 上下文在計算上更可承受。它反復強調 FLOPs 和 KV cache 的下降。對于企業部署、Agent 系統、代碼助手和科研工具來說,長上下文能力只有在成本可控時才有意義。

Hugging Face 對 V4 的技術解讀中提到,V4 的關鍵不只是 1M 上下文窗口,而是通過新的注意力機制顯著降低長上下文推理成本。在 1M token 場景下,V4-Pro 的單 token 推理 FLOPs 約為 DeepSeek-V3.2 的 27%,KV cache 內存約為 10%;V4-Flash 則進一步降到 10% FLOPs 和 7% KV cache。相較于常見 grouped query attention 架構,V4 的 KV cache 大約只需要 2% 的緩存規模。


這句話翻譯成普通用戶能感知的體驗,就是:V4 不只是「能塞進很多材料」,而是更有機會在塞進很多材料之后,仍然保持可用的速度、成本和穩定性。

架構看點:DeepSeek V4 把長上下文做成了 Agent 的基礎能力

DeepSeek-V4 并不是推倒重來。它仍然基于 Transformer 和 MoE,繼承 DeepSeekMoE 與 Multi-Token Prediction,同時引入三項關鍵升級:混合注意力機制、mHC 殘差連接和 Muon優化器,attention 層采用 CSA 或 HCA,前饋層使用 DeepSeekMoE,殘差路徑通過 mHC 增強。


其中最關鍵的是 CSA 和 HCA。CSA 是 Compressed Sparse Attention,思路是先壓縮,再選擇:先把連續 token 的 KV 信息壓縮成更少的 entry,再通過輕量 indexer 選擇最相關的 top-k 壓縮塊進行 attention。HCA 是 Heavily Compressed Attention,壓縮得更激進,把更長一段歷史合并成更少的記憶單元。簡單說,CSA 更像精準檢索,HCA 更像長期壓縮記憶。二者結合后,模型既能訪問長程信息,又能控制計算成本。

為了避免長程壓縮帶來近期信息損失,DeepSeek-V4 并沒有只依賴 CSA/HCA 這類壓縮注意力,而是額外加入了sliding window attention分支,用來保留近鄰 token 的高分辨率表示。這樣做的意義在于,模型在處理百萬 token 級上下文時,不需要對所有歷史信息都用同一種精度保存。距離當前問題較遠的內容,可以通過壓縮和稀疏選擇降低計算成本;而最近的上下文通常包含指令約束、局部推理步驟、代碼細節或正在展開的對話狀態,因此需要保留更完整的 token 級信息。簡單說,長程信息靠壓縮與選擇來降低成本,近程信息靠滑動窗口來保留細節,這構成了 DeepSeek-V4 處理超長上下文的基本邏輯。

mHC則主要解決深層模型訓練中的穩定性問題。隨著模型層數加深,普通 Transformer 的殘差連接雖然能幫助信息傳遞,但殘差流本身仍可能出現信號累積、尺度失衡或層間交互不足的問題。mHC 的思路是把原本單一路徑的殘差流擴展為多個通道,讓不同層之間的信息可以通過可學習方式進行混合。這樣一來,模型不僅能保留淺層信息,也能更靈活地調配不同深度的表示。為了進一步避免深層網絡中信號被不斷放大,DeepSeek-V4 還將殘差映射矩陣約束在雙隨機矩陣流形上,使信息混合過程更加穩定,從而提升大規模模型訓練和長鏈推理時的可靠性。

Muon優化器則對應訓練效率和收斂穩定性的提升。DeepSeek-V4 并沒有完全放棄 AdamW,而是采用混合優化策略:對部分對穩定性更敏感或更適合 AdamW 的模塊繼續使用 AdamW,對大部分矩陣參數則使用 Muon。Muon 的核心思想,是對參數更新矩陣進行近似正交化,讓更新方向更加穩定,減少不同維度之間的冗余和干擾。與此同時,它還結合了 Nesterov trick、weight decay 和 update RMS rescaling 等機制,用來改善大規模訓練中的收斂速度、尺度控制和泛化表現。

換句話說,Muon 不是單純為了“訓練更快”,而是為了讓超大規模MoE模型在長上下文、高參數量和復雜數據分布下更穩定地學到有效能力。

Agent 能力:V4 的主戰場不是「問答」,而是「連續執行」

官方明確表示,V4 已經集成到 Claude Code、OpenClaw、OpenCode 等 AI Agent 工具中,也被用于 DeepSeek 內部的 agentic coding。

更關鍵的是,V4 對 Agent 的優化不是簡單的「支持工具調用」。它在訓練和交互范式上做了更深的調整。

Hugging Face 文章提到,V4 在帶工具調用的多輪流程中,會跨用戶消息保留 reasoning content,使模型在長程 Agent 工作流里能夠維持累計推理狀態;同時,V4 引入|DSML|特殊 token 和 XML 風格工具調用格式,以減少 JSON-in-string 工具調用中常見的轉義錯誤和參數解析失敗。

很多 Agent 的失敗,并不是因為模型「不聰明」,而是因為工程鏈路太脆弱:參數格式錯了、字符串轉義壞了、工具返回讀錯了、前一步計劃丟了、后一步不知道為什么執行。模型越頻繁調用工具,這類小錯誤就越容易累計成任務失敗。

V4 的設計思路是,把 Agent 的易錯點提前納入模型訓練與接口設計中。

代碼能力:V4-Pro 已接近「開源 Agentic Coding 第一梯隊」

從公開基準看,V4-Pro 的 Agent 和軟件工程表現相當突出。

Hugging Face 的數據稱,V4-Pro-Max 在 Terminal Bench 2.0 上為 67.9,領先 GLM-5.1 和 K2.6,但落后于 GPT-5.4-xHigh 與 Gemini-3.1-Pro;在 SWE Verified 上解決率為 80.6,幾乎與 Opus-4.6-Max 和 Gemini-3.1-Pro 持平;在 MCPAtlas Public 上為 73.6,僅略低于 Opus-4.6-Max;Toolathlon 得分 51.8,高于 K2.6、GLM-5.1 和 Gemini-3.1-Pro。

這組成績透露出一個清晰信號:V4-Pro 在傳統知識問答上未必全面擊穿閉源巨頭,但在 Agentic Coding 這類更接近真實工作流的任務里,已經進入非?壳暗奈恢。

這對開發者的意義不小。

過去國產開源模型在代碼場景里經常有一個問題:寫小函數可以,解釋代碼可以,但一進入復雜 repo、跨文件修改、運行測試、修復回歸,就明顯弱于 Claude、GPT 或 Gemini。

V4 如果能在真實項目中穩定接住這類任務,就不只是「會寫代碼」,而是開始具備「參與工程流程」的能力。

當然,這里也要保持克制。Benchmark 不等于真實生產環境。復雜工程任務中,模型還會面對依賴安裝、私有代碼規范、模糊需求、測試不完整、歷史包袱和安全約束。

V4 能否在企業真實代碼庫里替代一線閉源模型,還需要更多長期使用反饋。但至少從方向上看,V4 已經不是一個只會刷 HumanEval 的模型了。

價格測評:DeepSeek 最熟悉的刀,還是成本

DeepSeek 的殺傷力一直不只是性能,而是性能和價格的組合。

官方 API 價格顯示,V4-Flash 每 1M input tokens 緩存命中價格為 0.028 美元,緩存未命中為 0.14 美元,輸出為 0.28 美元;V4-Pro 每 1M input tokens 緩存命中為 0.145 美元,緩存未命中為 1.74 美元,輸出為 3.48 美元。兩個模型均支持 1M 上下文,最大輸出為 384K。

尤其是 V4-Flash,它不是一個傳統意義上的「縮水版」。如果它在普通推理、簡單 Agent、長文檔處理和日常代碼任務上能接近 Pro,那么它會成為大量應用開發者的默認選擇。

對企業來說,V4-Pro 負責復雜任務,V4-Flash 負責高頻任務,二者組合起來,會形成一套非常實用的成本結構。

V4 的另一層意義,挑戰 CUDA 的默認規則

DeepSeek V4 還有一個不能忽略的背景:國產算力。

Reuters 報道稱,DeepSeek V4 Preview 被適配到華為 Ascend AI 芯片上,V4 分為 Pro 和 Flash 兩個版本,其中 Pro 面向復雜任務,Flash 更快且更具成本效益。這被視為中國在降低對外國 AI 技術依賴、構建自給自足生態方面的重要一步。

這件事的意義,超過模型本身。

過去開源大模型生態有一個隱含前提:最優先適配 CUDA,最核心的訓練和推理優化都圍繞英偉達生態展開。即便模型是開源的,真正跑起來的基礎設施也高度依賴英偉達。

DeepSeek V4 如果能在華為昇騰生態上形成穩定高效的訓練與推理路徑,就意味著中國大模型產業第一次更認真地嘗試「模型—框架—芯片—應用」的閉環。

這不是說國產算力已經完全替代英偉達,F實情況仍然復雜,軟件生態、開發體驗、性能穩定性、集群規模、工具鏈成熟度都需要時間。但 V4 至少釋放了一個信號:未來中國大模型公司的競爭,可能不只是模型參數和榜單排名,而是整個算力底座的協同能力。

短板與風險:V4 仍然不是完美模型

DeepSeek V4 的優勢很明顯,但它的短板也需要寫清楚。

第一,V4 仍然主要是文本與代碼模型,并不具備音頻、視頻等完整多模態能力。相較于 OpenAI、Google、Anthropic 乃至阿里、字節在全模態方向上的推進,DeepSeek V4 的產品邊界仍然更偏語言、代碼、推理和 Agent。

第二,V4 的長上下文能力需要真實場景驗證。1M token 是上限,但不是所有任務都能從 1M 上下文中受益。長上下文模型常見問題包括中段信息衰減、引用錯位、局部細節遺忘、成本不可控。Hugging Face 引用的 MRCR 8-needle 結果顯示,V4-Pro-Max 在 256K 以內保持較高準確率,但到 1M 時準確率下降到 0.59。


第三,V4 的 Agent 能力很依賴工具生態適配。它引入新的工具調用格式與 reasoning 管理方式,這對官方生態是優勢,但對第三方框架也意味著適配成本。Hugging Face 也指出,一個開放問題是社區工具 harness 如何適配|DSML|schema,以及 interleaved thinking 的收益能否遷移到域外 Agent 框架。

大模型競爭正轉向上下文效率與系統工程競爭

DeepSeek 的技術演進,始終圍繞一個核心目標展開:用更高效率獲得更強能力。早期 DeepSeek LLM 奠定了通用大模型基礎,DeepSeek-Coder 強化了代碼能力,DeepSeekMath 將能力拓展到數學推理;隨后,DeepSeekMoE 通過專家混合架構提升參數利用效率,DeepSeek-V2/V3 進一步把MoE、MLA、多 token 預測和低成本訓練推向系統化階段。

到了 DeepSeek-R1,技術主線從預訓練效率延伸到強化學習推理能力,模型開始通過長鏈推理提升復雜問題求解表現。而 DeepSeek-V4 則可以看作這條路線的繼續推進:在已有 MoE、推理和工程優化基礎上,把重點進一步轉向長上下文效率、KVcache 壓縮和系統級可部署性。

DeepSeek-V4 的行業意義,不只是發布了一個更強模型,而是提示大模型競爭正在換賽道。過去外界討論模型,常常圍繞參數規模和榜單分數。但當模型進入真實工作流,問題會變得更工程化:它能不能讀完整個代碼倉庫,能不能處理復雜文檔,能不能在長任務里保持狀態,能不能把推理成本壓到可接受范圍。

DeepSeek-V4 的路線說明,未來長上下文模型不會只是把窗口越做越大。更現實的路線,是把長上下文拆解為壓縮、索引、稀疏選擇、局部窗口、KVcache 管理和硬件友好計算。科研助手可以從單篇論文總結走向多論文綜合分析,代碼助手可以從函數級補全走向倉庫級理解,企業知識庫可以從片段式問答走向跨文檔推理,Agent 系統則可以擁有更長的任務鏈和更穩定的歷史狀態。

這并不意味著 RAG 會消失。更可能出現的是新分工:RAG 負責從外部知識庫粗篩材料,長上下文模型負責深度閱讀和跨材料推理,模型內部的壓縮注意力負責降低計算成本。

同時,DeepSeek-V4 也說明,大模型公司越來越像系統公司。模型結構只是其中一環,訓練框架、并行策略、kernel、量化、KVcache、推理調度和硬件適配同樣重要。官方報告中提到的 MoE 通信計算重疊、TileLang、確定性 kernel、FP4 量化感知訓練、異構 KV cache 和 on-disk KV cache storage,都說明百萬 token 背后是完整計算棧的競爭。

加入ZF討論群,請先添加小助手微信

我們相信認知能夠跨越階層,

致力于為年輕人提供高質量的科技和財經內容。

稿件經采用可獲邀進入Z Finance內部社群,優秀者將成為簽約作者,00后更有機會成為Z Finance的早期共創成員。

我們正在招募新一期的實習生

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
醪糟再次被關注!醫生發現:高血脂患者喝醪糟,不用多久4大變化

醪糟再次被關注!醫生發現:高血脂患者喝醪糟,不用多久4大變化

芹姐說生活
2026-04-19 15:52:53
鐘楚紅、林青霞,我感覺最左邊的這位長相也不差,她到底是誰

鐘楚紅、林青霞,我感覺最左邊的這位長相也不差,她到底是誰

草莓解說體育
2026-05-09 05:34:27
外交部:堅決反對任何對中方的無端指責和惡意抹黑,相信挪威方面將切實保障中國公民合法權益

外交部:堅決反對任何對中方的無端指責和惡意抹黑,相信挪威方面將切實保障中國公民合法權益

環球網資訊
2026-05-08 15:50:22
斯諾克單賽季獎金榜:趙心童破百萬,世界第1歷史第3,吳宜澤第2

斯諾克單賽季獎金榜:趙心童破百萬,世界第1歷史第3,吳宜澤第2

劉姚堯的文字城堡
2026-05-08 09:00:42
網友偶然碰到佟麗婭吃早餐啦。她都43歲了,素顏的狀態卻特別好。

網友偶然碰到佟麗婭吃早餐啦。她都43歲了,素顏的狀態卻特別好。

東方不敗然多多
2026-05-08 16:46:11
47歲高圓圓沈陽菜市場賣辣白菜!顏值封神,網友:狠狠羨慕趙又廷

47歲高圓圓沈陽菜市場賣辣白菜!顏值封神,網友:狠狠羨慕趙又廷

可樂談情感
2026-05-08 14:09:54
發現了1個殘酷真相:被美軍抓走的馬杜羅,如今已經被徹底遺忘

發現了1個殘酷真相:被美軍抓走的馬杜羅,如今已經被徹底遺忘

共工之錨
2026-05-07 23:58:12
軍售放行后,日烏開始共制武器

軍售放行后,日烏開始共制武器

鳳凰WEEKLY
2026-05-06 19:44:21
一個北方縣城公務員的一生:一眼望到頭,卻是普通人最好的歸宿

一個北方縣城公務員的一生:一眼望到頭,卻是普通人最好的歸宿

王姐懶人家常菜
2026-05-08 03:48:09
這下輪到銀行發愁了!越來越多的儲戶,要把存款分散到多家銀行

這下輪到銀行發愁了!越來越多的儲戶,要把存款分散到多家銀行

夢史
2026-05-09 00:53:33
現役球員季后賽總得分TOP6,只有哈登沒有總冠軍

現役球員季后賽總得分TOP6,只有哈登沒有總冠軍

懂球帝
2026-05-08 11:07:06
機關下設的事業單位,比如各種“中心”,名義上是獨立機構,實際上早成了機關的內設處室?

機關下設的事業單位,比如各種“中心”,名義上是獨立機構,實際上早成了機關的內設處室?

碧翰烽
2026-05-08 07:33:09
不出 5 年,中國貶值最快的不是房子和現金,而是這 3 樣東西

不出 5 年,中國貶值最快的不是房子和現金,而是這 3 樣東西

細說職場
2026-04-26 21:04:20
王健林,被逼到崩潰邊緣...

王健林,被逼到崩潰邊緣...

鳴金網
2026-04-16 19:42:33
亞馬遜爆款衛衣:買家稱"實物比照片貴十倍"

亞馬遜爆款衛衣:買家稱"實物比照片貴十倍"

影視情報室
2026-05-08 00:14:58
34歲肖戰高調官宣喜訊,官方發文全網恭喜,終于等到

34歲肖戰高調官宣喜訊,官方發文全網恭喜,終于等到

豬小艷吖
2026-05-07 11:21:34
4.7萬億!馬斯克打破人類財富紀錄:他一個人的錢抵得過160個國家

4.7萬億!馬斯克打破人類財富紀錄:他一個人的錢抵得過160個國家

通鑒史智
2026-03-15 11:45:00
世乒賽最新戰報!四強全部落位,雨果爆冷,法國3-0橫掃巴西,半決賽對陣出爐,國乒迎生死考驗

世乒賽最新戰報!四強全部落位,雨果爆冷,法國3-0橫掃巴西,半決賽對陣出爐,國乒迎生死考驗

體壇最前線66
2026-05-09 05:39:01
1998年數萬華人遭屠殺,中國為何沒出兵?26年后答案讓人沉默

1998年數萬華人遭屠殺,中國為何沒出兵?26年后答案讓人沉默

哄動一時啊
2026-02-17 22:21:25
中央定調,延遲退休后,1970年出生的,60歲能領到養老金了嗎?

中央定調,延遲退休后,1970年出生的,60歲能領到養老金了嗎?

阿腩講娛樂
2026-05-09 06:10:06
2026-05-09 08:40:49
ZFinance
ZFinance
Z世代的一站式AI、科技和財經資訊
177文章數 16關注度
往期回顧 全部

科技要聞

美國政府強力下場 蘋果英特爾達成代工協議

頭條要聞

媒體:特朗普若順利來華 將是美總統時隔十年再訪中國

頭條要聞

媒體:特朗普若順利來華 將是美總統時隔十年再訪中國

體育要聞

他把首勝讓給隊友,然后用一年時間還清賬單

娛樂要聞

古天樂被曝隱婚生子,新娘竟是她

財經要聞

白宮:特朗普計劃5月14日至15日訪問中國

汽車要聞

MG 4X實車亮相 將于5月11日開啟盲訂

態度原創

數碼
本地
手機
房產
公開課

數碼要聞

極摩客推出NucBox M3 Pro迷你主機:13500H,DDR4,2280+2242

本地新聞

用蘇繡的方式,打開江西婺源

手機要聞

OPPO K15系列手機規格曝光:6.78英寸直屏、8000mAh電池

房產要聞

豪擲6.8億拿地!何猷君大手筆投資三亞!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版