PRODUCT
今天,智譜開源了 GLM-5.1:744B 參數,40B 激活,MIT 協議
零人工介入,能獨立工作超過 8 小時,GLM-5.1 從零交付了一套完整的 Linux 桌面系統:窗口管理器、文件瀏覽器、終端、文本編輯器、系統監視器、游戲庫等,共計 4.8MB
8小時,構建Linux 桌面系統
SWE-Bench Pro 58.4,超過 GPT-5.4 和 Claude Opus 4.6,全球最高
三項編碼基準綜合平均,全球第三、開源第一
![]()
三項編碼基準綜合平均分
給更多時間,真的會更好
GLM-5.1 能夠在長時間任務中持續保持有效工作,這讓它可以做到以前短對話里做不了的事情。以下是兩個硬核的例子
自主優化一個搜索引擎,連續跑了 655 輪
AI 搜索和推薦系統的背后都有一個向量數據庫,它的查詢速度直接決定用戶體驗。GLM-5.1 用 Rust 從零寫了一個向量搜索引擎,然后自己反復跑測試、看結果、改代碼,連續迭代了 655 輪
向量數據庫 655 輪優化
過程中模型完成了 6 次結構性的策略跳躍,從全庫掃描一路優化到兩級路由 + 提前剪枝,最終把查詢速度從 3108 QPS 提升到 21472 QPS,提高了 6.9 倍
![]()
向量數據庫優化軌跡:階梯型跳躍模式
給 50 個 AI 模型寫加速代碼,跑了 1000 多輪
KernelBench 給模型一個挑戰:拿到 50 個真實 AI 模型(MobileNet、VGG、MiniGPT、Mamba 等)的 PyTorch 代碼,想辦法寫出運行更快的 GPU 版本,功能完全一樣但速度要快
![]()
KernelBench Level 3 優化曲線:四個模型對比
GLM-5.1 在 1000 多輪工具調用中自主編寫了 Triton 和 CUDA 加速代碼,最終達到 3.6 倍加速,遠超 PyTorch 自帶優化器 torch.compile 的 1.49 倍
Benchmark 詳細數據
GLM-5.1 的提升集中在編碼和智能體兩個維度,提升幅度在 19%-42% 之間。推理能力和 GLM-5 基本持平,和 Gemini 3.1 Pro、GPT-5.4 還有明顯差距
![]()
GLM-5.1 Benchmark 總覽
編碼能力
SWE-Bench Pro 衡量的是模型能否在真實 GitHub 倉庫中定位并修復高難度工程 Bug,是目前最接近真實軟件開發的單項指標。GLM-5.1 得分 58.4,全球最高,超過 GPT-5.4(57.7)和 Claude Opus 4.6(57.3)
NL2Repo 要求模型根據自然語言描述從零構建完整的代碼倉庫,測試的是系統級工程能力。GLM-5.1 得分 42.7,vs GLM-5 的 35.9,提升 19%。和 Claude Opus 4.6(49.8)還有 7 分差距
Terminal-Bench 2.0 讓模型在真實終端環境中解決系統管理、運維和開發任務。GLM-5.1 得分 63.5,vs GLM-5 的 56.2
CyberGym 是網絡安全編碼基準,要求模型完成滲透測試、漏洞分析等安全工程任務。GLM-5.1 得分 68.7,vs GLM-5 的 48.3,提升 42%,進步最大的單項
![]()
編碼能力詳細對比
智能體能力
BrowseComp 測試模型能否通過自主瀏覽網頁解決復雜信息檢索問題。GLM-5.1 帶上下文管理得分 79.3
τ3-Bench 在模擬客服場景中測試對話式 Agent 的雙向控制能力。GLM-5.1 得分 70.6
MCP-Atlas 衡量模型在多步驟工作流中調用外部工具(MCP 服務器)的能力。GLM-5.1 得分 71.8
Vending Bench 2 讓模型經營一年的模擬自動售貨機生意,測試長期規劃和資源管理。GLM-5.1 最終賬戶余額 $5634,vs GLM-5 的 $4432。和 Claude Opus 4.6($8017)還有明顯差距
![]()
智能體能力詳細對比
推理能力
HLE 被稱為「人類最后的考試」,由各領域專家出題,專門測試模型的知識和推理極限。GLM-5.1 得分 31.0,和 Gemini 3.1 Pro(45.0)、GPT-5.4(39.8)有明顯差距
AIME 2026 是美國數學邀請賽 2026 年賽題。GLM-5.1 得分 95.3,各家模型在這項上已經非常接近
GPQA-Diamond 是由博士級專家出題的科學問答,涵蓋物理、化學、生物等領域。GLM-5.1 得分 86.2
推理維度整體和 GLM-5 持平,GLM-5.1 的提升集中在編碼和智能體
![]()
推理能力詳細對比
技術報告解讀
GLM-5.1 的技術細節沿用 GLM-5 的論文框架,論文已公開在 arXiv(2602.15763)。這里提取幾個和長程能力直接相關的核心要點
![]()
異步 RL 基礎設施
![]()
GLM-5 整體訓練管線
傳統同步 RL 處理 Agent 任務時 GPU 空閑嚴重,因為不同任務的軌跡長度差異極大。智譜把訓練引擎和推理引擎解耦到不同 GPU 設備上:推理引擎持續生成軌跡,達到閾值后批量送訓練引擎更新模型,權重定期同步
通過一個「多任務 Rollout 編排器」支持超過 1000 個并發 rollout,每個任務實現為獨立的微服務,注冊到中央編排器統一調度
TITO(Token-in-Token-out)
異步 RL 中一個容易被忽視的問題:把推理引擎當作黑箱只取最終文本,訓練器需要重新分詞來重建軌跡。分詞邊界的微小不一致會在數千步的 Agent 任務中逐步累積
TITO 直接消費推理引擎產出的 token ID 流和元數據,保持 action 級別的精確對應,消除重新分詞帶來的誤差
DSA 與 RL 的適配
![]()
DSA 訓練 SFT loss 對比
GLM-5 在預訓練階段引入 DSA(DeepSeek Sparse Attention),用動態稀疏注意力把長上下文的注意力計算降低約 1.5-2 倍
在 RL 階段出現了一個實踐發現:DSA 的 indexer 必須使用確定性的 torch.topk。非確定性的 CUDA 實現會導致 RL 訓練幾步之后 entropy 急劇下降,性能嚴重退化
雙側重要性采樣
異步 RL 中不同軌跡可能由不同版本的模型生成,off-policy 問題嚴重。傳統方案需要維護歷史策略檢查點來計算重要性采樣比率
智譜的做法更直接:直接用 rollout 時的 log-probability 作為行為策略的代理,用 token 級別的雙側裁剪機制控制信任域,超出區間的 token 從梯度計算中屏蔽。不需要跟蹤歷史策略
環境規模
![]()
BrowseComp 上下文管理策略對比
編碼任務:構建超過 10000 個可驗證訓練環境,覆蓋 Python、Java、Go、C、C++、JavaScript、TypeScript、PHP、Ruby 9 種語言
搜索任務:構建 Web 知識圖譜,從 200 萬+ 高信息網頁中抽取實體和關系,合成高難度多跳 QA 對
國產芯片全棧適配
GLM-5 從第一天起就完成了七家國產芯片平臺的全棧適配:華為昇騰、摩爾線程、海光、寒武紀、昆侖芯、沐曦、燧原
在華為昇騰上通過 W4A8 混量化、Lightning Indexer 融合算子、MLAPO 預處理優化等手段,單節點性能接近雙卡國際集群
開源與使用
GLM-5.1 權重以 MIT 協議開源,提供 BF16 和 FP8 兩個版本。支持 vLLM、SGLang、xLLM(華為昇騰)、Ktransformers 本地部署
API 方面,GLM-5.1 已納入 GLM Coding Plan(Max/Pro/Lite 套餐),支持 Claude Code、OpenCode、Kilo Code、Roo Code、Cline 等工具接入
GLM-5.1 即將上線 chat.z.ai
參考材料
GLM-5.1 Bloghttps://z.ai/blog/glm-5.1
GLM-5 Technical Reporthttps://arxiv.org/abs/2602.15763
GitHubhttps://github.com/zai-org/GLM-5
Hugging Facehttps://huggingface.co/zai-org/GLM-5.1
ModelScope 魔搭社區https://modelscope.cn/models/ZhipuAI/GLM-5.1
GLM Coding Planhttps://z.ai/subscribe
BigModel 開放平臺https://docs.bigmodel.cn/cn/guide/models/text/glm-5.1
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.