![]()
![]()
“超級Eva的量產,第一次讓汽車具備「超級智能體」形態。”
作者丨王瑞昊
編輯丨李雨晨
自2025年7月特斯拉在座艙接入Grok并與FSD形成協同后,AI上車一夜成為風口。但熱鬧背后,當前進展更多停留在“語音交互升級”層面,人車交互范式未有本質改變。真正具備意圖理解與執行能力的“具身智能體”,依然未出現。
行業正在等待,一款真正改變現狀的產品。
4月17日,極氪8X上市,29分鐘大定量突破10000臺,其首發搭載由階躍、吉利、千里科技聯合研發的整車智能體“超級Eva”。這是一款回應行業長期期待的產品。
與以往停留在座艙層的AI不同,超級Eva被定義為“整車智能體”,嘗試打通從感知、理解到執行的整車鏈路,將AI從“對話入口”延伸至系統層能力。
過去一年,圍繞“Grok+FSD”的討論此起彼伏,但多數仍停留在追風口階段。隨著超級Eva實現量產,這一方向第一次有了具象化的落地樣本。
01
大模型上車分水嶺:
不在對話升級,而在執行任務
現在所謂“大模型上車”,本質是把類似Grok這樣的通用模型接入座艙,用來提升語音交互體驗。這種接入通常被稱為“外掛”AI,其提升的是對話交互體驗,但無法深入到規劃與控制層,距離用戶期待中真正意義上的整車級智能體體驗相去甚遠。
雖然“外掛”AI也做到了更自然的對話、更豐富的知識庫、更擬人的交互體驗。但問題在于,這些能力距離真正的汽車智能體標準仍有明顯差距。物理AI不僅要“說得更好”,更關鍵的是要“做得更好”。
換句話說,“外掛”AI的本質仍停留在人控車的輔助工具階段,而真正的整車智能體,則需要具備自主理解、決策與執行任務的能力。
正如麥肯錫在相關研究中指出,當前車載AI的主要瓶頸,并不在語音識別或對話能力,而在于“跨系統任務編排能力”的缺失。系統無法將用戶的一個復雜目標,轉化為多模塊協同執行的動作鏈路。這也是為什么,大多數所謂“AI助手”,本質上仍是被動“響應命令”的工具。
而“超級Eva”意義,就在于把目前的瓶頸突破了,讓大模型上車第一次迎來分水嶺時刻,從此前以提升交互體驗為核心的階段,邁向AI第一次作為整車大腦的智能體階段。
這也是為什么行業將超級Eva與Grok上車Tesla的體驗相提并論,因為它們都代表著一個相同的趨勢:AI正在從回答問題走向完成目標。
舉一個我們開車時的剛需場景——當你對著車機說:“帶我去接孩子放學,順便找一家麥當勞,5點前我要到學校。”
在超級Eva出現前,這句話大概率無法被直接執行。因為系統無法理解其中的多重意圖,用戶必須手動拆解成多個指令:先導航到學校,再搜索麥當勞,再設置途經點,途中還要不斷確認路線與時間。整個過程中,人仍是決策者與控制者,車只是執行工具。
但在超級Eva中,這句話會被當作一個“目標”處理,而不是一串命令。
系統會自動完成三層解析:先識別任務結構——接孩子是主任務,買麥當勞是附加任務,5點前到達是硬約束;再拆解每個任務——篩選合適門店、規劃最優路線、計算時間窗口、評估繞行成本;最后調度系統能力——調用導航、輔助駕駛、泊車等多個模塊形成閉環執行。
更關鍵的是,在執行過程中還能根據實時路況、時間變化進行動態調整。比如遇到前方堵車會提前提醒,并可以完成以達成目標為主的規劃與執行。
這背后真正發生的變化是,用戶不再替AI思考“怎么做”,只需要表達“要什么”,這可以稱得上是一次體驗范式的重構。
Gartner在其2025技術趨勢中將“Agentic AI”列為關鍵方向之一,強調其本質是“能夠自主制定計劃并執行多步驟任務的系統”,不再是傳統的對話式AI。
超級Eva的出現,本質上就是把這一能力,第一次落在了量產車上。
02
為什么是階躍能最先做成這件事?
如果說大模型上車的第一階段,是把“會說話的AI”裝進車里,那么這一階段的上限,其實已經被證明是有限的。
真正的分水嶺,在于AI是否開始具備“感知世界 + 理解意圖 + 執行動作”的閉環能力。極氪8X首發搭載的整車智能體超級Eva,第一次國內讓車載AI具備了這種閉環能力,技術層面是“語言大腦 + 語音表達 + 視覺感知”三套能力協同的結果。
而支撐這一切的底座,是階躍星辰的Step系列模型矩陣。
據我們了解,階躍星辰是國內基座模型研發最全面的公司之一,其自研的Step系列基座模型矩陣覆蓋了從千億參數到萬億參數,構建了從語言、推理到多模態,從理解到生成的全面能力。Agentic 時代,模型要真正從軟件層面走進物理世界,覆蓋了感知-推理-執行全鏈條的系統能力是必備要素。
階躍最新發布的Step 3.5 Flash,是整個超級Eva的“大腦”,其不是一個單純的大語言模型,而是一個面向Agent場景設計的推理與規劃引擎。
![]()
Step 3.5 Flash有三個關鍵能力。
第一是速度與穩定性。模型推理速度最高達到350TPS,在復雜任務中仍能保持低延遲響應,這意味著它可以支撐更流暢的車端實時交互。
第二是復雜任務推理能力。在OpenRouter全球調用榜中登頂,這一成績證明了Step 3.5 Flash具備穩定處理多步邏輯鏈的能力,在現實Agent場景中被大量開發者所選用。
三是長上下文與記憶能力。支持256K級別上下文處理,讓“連續任務”成為可能,這是車載Agent能夠記住用戶偏好,更“懂人”的基礎
這三點能力決定了當前車載AI最關鍵的一個變化:AI第一次能夠“理解一個目標”,而不只是“理解一句話”。得益于這一能力,例如你提出“我要去看演唱會”這一目標,超級Eva便能自動拆解為出發、路線、停車、訂酒店、訂飯店等多個子任務,并在執行過程中根據路況與時間動態調整。
這不再是簡單的導航或推薦,而是一次完整的任務編排與執行,體現出大模型在復雜場景下的推理深度與系統級調度能力。
如果說Step 3.5 Flas這一大腦解決的是“想清楚”,那么語音模型解決的是“說清楚”。
傳統車載語音的問題是交流不擬人,輸出往往是功能播報式的——“已為您規劃路線”“空調已開啟”。而超級Eva接入階躍的語音大模型,改變的正是這種表達方式。
該模型具備幾個能力:情緒理解(識別用戶語氣背后的緊迫性或松弛感);語義重構(將機械指令轉化為自然表達);對話連續性(支持上下文中的持續交流,而不是一次性問答);知識庫(支持智能搜索,什么都能聊)。
舉一個例子,你說“我累了,好想回到小時候”,它會像一個知心朋友一樣陪你聊天。
換句話說,這一模型能力解決的是“人愿不愿意繼續說”,而不是“說得像不像人”,后面的能力此前的車載AI助手就已具備。
如果說Step 3.5 Flash和語音模型是大腦和嘴巴,那么視覺模型就是智能體的眼睛。
這是當前大多數車載AI的短板,Grok也不例外。
超級Eva接入視覺能力,使車輛第一次具備了基礎的環境理解能力,能識別車位是否被占用,還能感知環境變化并調整策略……。
值得一提的是,超級Eva的多模態協同能力,是目前類似Grok也仍未完全覆蓋的方向。Grok強于語言與數字世界理解,但在物理感知與執行閉環上仍處于演進階段。
對于汽車這一最具想象力的物理AI終端來說,超級Eva讓它不再是工具,而開始成為一個可以協助人類完成任務的超級智能體。
03
原生AI時代,需要怎樣的造車模式?
過去AI上車慢和體驗不及預期,癥結在于三方能力的互相割裂:模型公司懂AI,但不一定懂整車系統;車企懂整車,但不一定有最前沿的模型能力;中間工程落地和場景編排,常常缺少一個足夠強的承接方。
這造成的結果就是:模型很強,但上不了車;上了車,但調不動整車系統;功能做出來了,但難以快速量產和穩定交付。
而超級Eva的快速量產,驗證了一條新的可行路徑:AI基座模型公司、汽車廠商、汽車科技公司三方聯手的深度共創,最終呈現的效果最優。
![]()
這種“你中有我”的深度融合,讓三方從第一天起就圍繞“整車智能體”目標做聯合定義和聯合開發。
數據佐證了這一模式的效率,Step 3.5 Flash于2月2日發布并開源;3月16日即接入超級Eva并開啟預售;4月17日隨極氪8X正式上市。從模型發布到量產上車,僅用了兩個多月。
而且,這并非階躍在汽車領域的首次亮相。此前,階躍已聯合吉利、千里打造了智能座艙Agent OS,并率先在吉利銀河M9上實現了端到端語音大模型的上車。此次超級Eva的量產,標志著階躍“AI+終端”的商業化鏈路已完全跑通,并且進入了加速期。
因此,車上智能體要想真正做深、做快、做成量產,不能只靠車企單打獨斗,也不能只靠模型公司技術輸出。階躍、吉利和千里科技的合作,可謂是為行業打造了一個商業范本。
04
超級Eva隨極氪8X量產上市,不能看作是一個簡單功能的加入,它最大的意義在于宣告汽車正式進入“整車智能體”時代。
很多車企都在布局大模型上車,但階躍、吉利、千里聯合研發的超級Eva,可以說是首個真正實現量產落地、性能強、真可用的“中國版Grok上車”。
以此為起點,超級Eva將不再只是車內的伙伴,更是連接出行、生活服務的智能樞紐。從理解一句話到搞定一整件事,階躍AI+終端的商業化進程,正進入全面加速的快車道。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.