RESEARCH
2026 年 4 月,Nathan Lambert 和 Florian Brand 發布了 The ATOM Report,一份關于開源語言模型生態的綜合采納度快照。這份報告追蹤了約 1500 個主線開源模型的下載量、衍生模型、推理市場份額和性能數據,覆蓋 2023 年 11 月到 2026 年 3 月
核心結論很直白:中國開源模型在 2025 年夏天超過了美國,之后差距持續擴大。到 2026 年 3 月,中國模型的累計下載量達到 11.5 億 次,美國是 7.23 億次,差距超過 4 億
![]()
ATOM Report Figure 1:按地區劃分的開源模型累計下載量
這份報告是誰做的,在做什么
ATOM 是 Interconnects AI 主導的項目,Nathan Lambert 此前在 Hugging Face 工作,后來創辦了 Interconnects AI。數據來源是 Hugging Face 下載量和衍生模型數據、OpenRouter 推理 token 份額、Arena Elo 評分、Artificial Analysis 智能指數
追蹤的是「主線開源語言模型」,不包括 embedding 模型、文生圖擴散模型或其他非生成式架構。約 1500 個模型在研究期間累計產生了超過 30 億 次下載
報告不做政策建議,只做數據呈現。政策建議在 ATOM Project 主站 atomproject.ai 另外發布
Qwen 一家比其他所有頭部組織加起來還多
到 2026 年 3 月,Qwen 的累計下載量達到 9.42 億 次,是 Llama(4.76 億)的將近兩倍。2026 年 2 月,Qwen 單月下載 1.536 億次,超過 Meta、DeepSeek、OpenAI、Mistral、NVIDIA、Zhipu AI、MiniMax、Moonshot AI 八家加起來的 7120 萬次
![]()
按組織劃分的累計下載量:Qwen 遙遙領先
更極端的對比:Qwen3 系列中 6 個小模型(0.6B 到 8B)的月下載量,跟 Zhipu AI、MiniMax、Mistral、Moonshot AI、NVIDIA、OpenAI 六家組織的全部模型加起來差不多
![]()
Qwen3 小模型 vs 六家組織 + DeepSeek vs Qwen 按模型大小
唯一的例外是 250B+ 超大模型,DeepSeek 以 47% 的下載份額領先,Qwen 優勢集中在 10B 以下(44%)。報告稱之為「互補性專業化」
三個維度都指向同一個結論 衍生模型份額
中國從 2023 年 11 月的 10% 上升到 2026 年 2 月的 70%。歐洲從峰值 58% 跌到 4%
推理 token 份額
OpenRouter 數據。中國模型從 2024 年 11 月的 2.8% 上升到 2026 年 1 月的 72.7%。中美完全互換了位置
性能前沿
Arena Elo 和 Artificial Analysis 智能指數都顯示,中國最佳開源模型在 2024 年底超過了美國,之后保持領先
![]()
衍生模型份額(上)+ 推理 token 份額(下)
![]()
Arena Elo(上)+ Artificial Analysis 智能指數(下)
性能上的小幅領先可以創造采納度上的大幅領先,因為用戶默認會選最好的那個
整個開源模型生態的增長速度本身就很驚人。2025 年 3 月到 2026 年 3 月,累計下載量從 3.39 億增長到 20.4 億,同比增長 6 倍。其中中國同比增長 11.9 倍,美國 4.1 倍,歐洲 2.5 倍
RAM:一個新的采納度指標
報告提出了 Relative Adoption Metric(RAM),解決一個老問題:1.5B 小模型天然比 400B 大模型下載量高出 10-50 倍。簡單比較下載量沒有意義
RAM = 某模型發布后第 t 天的累計下載量 / 同參數量級 top 10 模型在同一時間點的中位數。1.0x 是持平,高于 1.0x 是跑贏
![]()
RAM 軌跡:100-250B 和 250B+ 區間
GPT-OSS 120B 發布 7 天后 RAM 達到 20.45x,180 天后仍然 15.35x,是 100-250B 區間的絕對異類。Nemotron Super 120B 開局 7 天 18.03x
250B+ 區間,GLM-5 表現不錯(30 天 8.99x),但 DeepSeek V3.2 和 GLM 4.7 全程低于中位數。Kimi K2.5 有一個有趣的加速曲線,從 7 天 1.38x 到 60 天 7.42x
RAM 揭示了下載量看不到的現象:美國模型在中大型參數區間的相對采納度依然很強
GPT-OSS 和 Nemotron 的 RAM 遠高于大多數中國模型,說明在絕對數量被碾壓的情況下,美國個別模型仍然能在特定尺寸段獲得不成比例的高采納度
幾個讀者可能想知道的 Meta 的處境
Llama 累計下載量排第二(4.76 億),但在推理平臺上已經從 2025 年 1 月 37.4%% 的峰值跌到了零。Llama 4 發布后沒有扭轉趨勢
OpenAI 作為新進入者
GPT-OSS 從 2025 年 9 月才開始發布,到 2026 年春季月下載量已超過 Mistral 全部歷史模型組合。RAM 顯示 GPT-OSS 120B 可能成為有史以來下載量最高的模型之一
歐洲的衰落
Mistral 曾是開源生態先驅(2023 年 12 月衍生模型份額 57%%),但累計下載量從未加速到 Qwen 或 Llama 的水平
報告的局限性
HuggingFace 不是唯一分發渠道(中國還有 ModelScope),下載量不等于活躍使用。但報告的立場是:所有可用使用數據都跟 HuggingFace 下載量趨勢高度相關
參考材料
The ATOM Reporthttps://atomproject.ai/report
The ATOM Projecthttps://atomproject.ai/
Nathan Lambert 推文https://x.com/xeophon/status/2041889677343343014
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.