![]()
新智元報道
編輯:YHluck
【新智元導讀】一個3B激活參數的端側模型,在全球Agent權威評測中,以94%任務完成率,超越了Claude、GPT-5.4、Gemini等國際主流云側和端側大模型。商湯絕影Sage來了,它不是「更聰明的語音助手「,而是第一個真正能在車里「辦成復雜事「的智能體基座。
有人可能不信。
一個部署在車端的小模型,憑什么在Agent評測上贏過Claude、GPT-5.4?
數字擺在這里——在公開Agent評測基準PinchBench上,商湯絕影Sage端側大模型最佳任務完成率:94%。
同場較量的對手?Claude-Opus-4.6(93.3%)、GPT-5.4(90.5%)、Google-Gemini-3(87.0%)、Qwen3.5-27B(90.0%)……全部落后。
![]()
![]()
這不是一場「以大打大」的勝利。
Sage的激活參數只有3B,總參數量32B(MoE架構)。而小米MiMo-v2-Pro的激活參數是42B、總參數規模超1T——Sage所需激活算力僅為其1/14,顯存占用約為其1/31,但在PinchBench上的任務完成率仍高出6.6個百分點。
![]()
1/14的算力,多出6.6個百分點。
這是什么概念?
這意味著一件事被徹底證明了:「只有大模型才能做好Agent任務」,這個判斷,錯了。
從「聽懂指令「到「說到做到」
座艙缺的從來不是語音
先說說這個問題的背景。
今天的智能座艙,卡在哪兒?
不是沒有AI,是AI「太淺了」。
用戶說「幫我訂今晚回北京的高鐵,順便把車內溫度調低兩度」——現有的語音助手,大概率會拆解成兩件事分開問你確認,甚至直接說「我不太明白您的意思」。
這叫「能聽懂指令」,但不叫「能辦成一件復雜的事」。
真正的Agent能力,需要模型跨越多個步驟、多個工具、多輪推理,最終完成任務閉環。這種能力,過去只存在于云端大模型里。
原因很直接:車端芯片算力有限,大參數模型跑不動;小模型又沒有足夠的推理深度。
智能座艙因此陷入兩難:
依賴云端:有延遲、有成本、有斷網風險; 堅守端側:有響應速度,但沒有真正的智能體能力。
Sage的發布,第一次打破了這個僵局。
效果先看
Sage在車里能「干」什么
空談技術路線,不如先看能力。
場景一:復合指令一次解析,多系統自動聯動
用戶說:「今晚出門晚,車內預熱一下,幫我把導航設回家,音樂切換到輕松一點的。」
Sage不需要用戶一句一句確認。
它一次性解析復合指令,自動聯動空調、導航、音樂三個系統,完成任務閉環——整個流程,首字響應約0.5秒,用戶幾乎感覺不到「等待」。
場景二:主動感知,不等喚醒
后排坐著孩子,傳感器檢測到,Sage主動觸發兒童模式:鎖定車窗控制權、切換適齡內容、調整音量上限。
沒有人喚醒它,它已經做了。
場景三:實時路況判斷,主動提出方案
進入擁堵路段,結合實時路況感知,Sage主動問:「當前路段預計延誤23分鐘,是否切換到備選路線?」
不只是回答,而是主動發起。
這三個場景,指向同一個能力轉變:Sage不再是「被動喚醒、單次響應」的語音助手,而是一個真正懂場景、會主動思考的出行伙伴。
在OrinX平臺部署下,Sage可實現首字響應(TTFT)約0.5秒、單Token推理延遲(TPOT)低至0.03秒、生成吞吐達到80tk/s,平均任務時長優于主流API模型,保證座艙體驗的穩定性和實時感。
兩項黑科技
一個讓它「學得快」
一個讓它「做事不出錯」
Sage在PinchBench跑贏一眾大模型的背后,真正的功臣是商湯絕影自研的兩項后訓練技術:SCOUT和ERL。
SCOUT:省60%算力,讓車載AI快速「學會」復雜出行任務
全稱:Sub-Scale Collaboration on Unseen Tasks(分級協同學習框架)。
它解決的是一個工程現實問題——讓大模型學習復雜任務,太貴了。
出行場景涉及空間規劃、多設備聯動、多步決策,直接讓大模型在真實任務中自己反復試錯,既慢又燒算力。
SCOUT的思路是「探路與吸收解耦」:先派一個輕量小模型快速跑一遍,把走得通的路徑篩出來,再把這些高價值經驗喂給大模型學習。
用類比來說,就是「小模型先探路、踩雷、找通道,大模型再吸收精華、直接上手」。
結果是:在復雜任務能力注入過程中,GPU小時消耗節省約60%,同時快速掌握更多真實用車場景技能。
技術論文已上傳arXiv:https://arxiv.org/abs/2601.21754
ERL:讓模型「邊想邊糾錯」,任務完成率提升20%
全稱:Erasable Reinforcement Learning(可擦除強化學習)。
這項技術已被機器學習頂級會議ICLR 2026收錄。
它解決的核心問題是:復雜任務鏈路里,一步出錯,全盤崩。
用戶說一句話,模型可能需要10步推理和執行。哪怕第7步偏了一點,前面6步的努力就白費,整個任務流程失效。
ERL讓模型能夠自動識別推理過程中的錯誤步驟,對錯誤內容進行擦除并重新生成,從源頭阻斷偏差擴散——就像給推理過程裝上了「實時橡皮擦」。
這項技術讓Sage在多跳復雜推理基準上較此前SOTA取得顯著提升,裝車后復雜任務完成率提升20%。
技術論文已上傳arXiv:https://arxiv.org/abs/2510.00861
SCOUT負責學習效率,ERL負責執行穩定性,兩項技術前后協同,共同推動Sage從語言大模型演進為能獨立完成復雜任務的智能體。
能力天花板
Sage和同級端側旗艦的差距有多大
PinchBench上的94%是綜合結果,具體能力維度上,Sage和行業參照點的差距更直觀。
對比對象:Google-Gemma4——本月最新發布的同量級端側旗艦。
跨學科專業知識(MMLUPro):Sage 76分,領先同級端側模型約10%。端側模型,已具備云端級通用知識密度。
研究生級專業推理(GPQA Diamond):Sage 77分,提升33%。這是考察深度推理的維度,也是Agent能否應對復雜決策的關鍵。
座艙語義與視覺理解(Human Semantic Understanding):Sage 91分,提升32%。依托原生車載數據建立的差異化優勢,直接影響真實座艙體驗。
工具調用與任務閉環(τ2-bench):Sage 80分,較Gemma4提升38%,接近翻倍領先。
最后這個數字值得單獨說一下。
τ2-bench,專門評估模型調用工具、走完多步任務的實戰能力——也就是「會聊天」和「會辦事」之間的分水嶺。
接近翻倍的領先,直接印證了Sage作為端側智能體基座在真實任務執行上的核心優勢。
市場轉折點
汽車AI的上半場,靠指令
下半場,靠Agent
為什么「端側Agent基座」這件事,現在重要?
先看一組行業現實。
當前搭載了「智能語音」的汽車,普遍存在同一個用戶體驗瓶頸:語音助手能聽,但不能想;能應答,但不能執行;能單步,但不能多步。
這不是某一家車企的問題,是整個行業在AI算力、模型能力和車端部署之間的結構性矛盾。
依賴云端方案的代價在放大:每次對話都要消耗Token,單任務token消耗就可達數十萬量級;網絡抖動就會影響體驗;數據隱私也是潛在風險。
端側部署才是量產落地的唯一可行路徑——但端側模型的能力天花板,一直是整個行業的卡脖子問題。
Sage的出現,正好踩在這個時間窗口。
Sage可接入OpenClaw、Hermes等主流Agent框架,不只是一個座艙大模型,而是一個為更多端側智能體落地提供核心支撐的基座——可覆蓋出行、家庭等全場景智能體部署。
北京車展期間,商湯絕影將正式推出搭載Sage端側多模態智能體基座大模型的SageBox,為汽車邁入超級智能體時代打下技術底座。
這意味著,車企在引入端側Agent能力時,有了一套經過全球評測驗證的量產方案。
商湯絕影
從「懂AI」到「懂車AI」的技術積累
Sage不是一款從零起步的產品。
它背后是商湯絕影多年在汽車AI領域的技術沉淀——從智能駕駛感知到座艙語義理解,再到今天的端側智能體基座,每一步都在向「真正懂車、懂人、懂場景」靠近。
Sage之所以能在Human Semantic Understanding(座艙語義與視覺理解)上拿到91分、提升32%,正是原生車載數據訓練的結果。
![]()
通用大模型的訓練數據里,沒有「車內乘員狀態感知」,沒有「駕駛場景多步決策」,沒有「空調+導航+影音聯動」這種出行場景特有的任務鏈路。
Sage有。
這種原生優勢,不是靠刷榜刷出來的,是靠在真實出行場景里長期訓練出來的。
智能座艙
正在迎來它真正的「奇點時刻」
回頭看汽車AI的發展歷程。
第一階段:語音識別,能聽懂人話。
第二階段:語音助手,能應答簡單指令。
第三階段:大模型接入,能對話、能聊天。
現在,第四階段來了——
能獨立規劃、能多步執行、能主動感知、能在車端實時完成復雜任務的端側智能體。
Sage代表的技術方向,不只是「更聰明的語音助手」,而是從根本上改變人與汽車的協作方式。
用戶不再需要把一件事拆成十個指令說給汽車聽,汽車開始真正理解「你想要什么」,然后想辦法幫你做到。
3B激活參數贏過了一眾云端旗艦,這個結果告訴行業:智能座艙的上限,不在云端,在端側原生技術路線上還有更多可能。
SageBox即將亮相北京車展。
下一代汽車AI的樣子,已經在那里了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.