「大模型上車將成為2026年兵家必爭之地。」上汽通用一位內部人士近期告訴雷峰網。這句話的潛臺詞是:誰能讓車真正理解人,誰就能拿下下一代智能座艙的定義權。
上汽通用選擇在這個節點出手——聯合火山引擎,將最新一代豆包大模型帶上即將上市的別克至境E7。上汽通用副總經理王晨東在發布會上反復提一個詞:「數字家人」。這背后藏著他對智能座艙的重新理解:車正在從「工具空間」轉向「生活空間」,而大模型是這場轉變的關鍵變量。
![]()
從執行器到理解者:一句話里的三層變化
過去十年,車載語音助手的核心痛點從未真正解決:你必須說得足夠標準,系統才能執行;一旦語義模糊,體驗立刻崩塌。「導航到最近的咖啡店」能聽懂,「我想去那個有露天座位的咖啡店」就開始胡來。
豆包大模型在別克至境E7上的角色,被王晨東定義為從「執行器」變成「理解者」。這個轉變體現在三個層面。
第一層是情緒識別。豆包支持20+情緒表達,能通過語調、語速、用詞判斷用戶狀態——開心、疲憊或煩躁。當你說「今天有點累,放點輕松的歌吧」,系統不再檢索關鍵詞,而是先識別情緒,再推斷需求,最后調用音樂。語音在這里是「意圖表達」,而非簡單輸入。
第二層是上下文記憶。我們現場體驗了一個場景:先說「導航到最近的咖啡店」,再補一句「我要拿鐵」,系統會自動搜索支持拿鐵的店鋪并規劃路線。這種連續性讓交互從「一次性問答」變成「可延續的對話關系」。
第三層是語義推理。傳統導航要求精準表達,而真實人類說話是模糊的。「上海南邊那個圓形湖」「能吃腦花的川菜館」——這些過去幾乎無法被理解的描述,現在可以直接得到答案。路線中途臨時增加停靠點,系統也能自動重新規劃。
這三層能力的本質,是把導航從「執行工具」變成「決策助手」,把車機從「檢索依賴」轉向「理解依賴」。王晨東的判斷是:人類對智能的判斷,從來不是功能有多少,而是是否「像人」。
五個維度的落地:功能不重要,場景融合才重要
豆包大模型在至境E7上的落地,被拆解為陪伴、出行、娛樂、用車、車控五個維度。但真正的變化不在功能數量,而在這些能力與家庭用車場景的融合深度。
陪伴場景是情緒識別能力的直接延伸。基于20+情緒表達的支持,座艙可以承擔情緒反饋角色——語氣變化、表達方式、情緒波動都會被識別,并反饋不同回應。這變成了古詩解讀、角色扮演、情感聊天等具體功能。
家庭出行的時間被拉長、場景更封閉,大模型的價值因此被放大。一個孩子在后排無聊時,系統可以生成專屬故事;家長疲憊時,座艙可以主動調整氛圍。這種「數字家人」的提法,本質是把車機從被動響應變成主動陪伴。
娛樂場景的變化同樣明顯。用戶不再需要記住歌名或視頻標題,而是可以用文化語境表達需求。「星爵出場的音樂」「今天想聽哥哥的歌」——模糊甚至帶有情緒的描述,系統依然可以理解并響應。
用車和車控維度則涉及更復雜的系統協同。一次喚醒執行10個連續指令、跨域語音控座艙,這些能力的背后是全域功能協同的復雜指令處理,也是與傳統車載語音助手的本質區別。
別克至境E7搭載的高通驍龍8775芯片提供了硬件基礎——70-144TOPS的AI算力,是8155芯片的7-14倍。這支撐了多模態交互、艙駕融合等前沿場景,也讓端云實時更新、個性化迭代成為可能。
對比豆包此前上車的其他車型,這種硬件差異直接決定了能力邊界。奔馳純電CLA搭載驍龍8295P芯片(30TOPS),僅開放了豆包大模型的NLP能力,功能局限于「語音助手」范疇;而至境E7支持視覺、多模態交互,覆蓋AI問答、用車顧問、短視頻檢索、AI繪畫、兒童故事生成等全場景,被官方定義為「當前豆包大模型能力最完整的車型」。
三層安全隔離:把AI關進籠子里
當AI足夠聰明時,它能不能直接控制車輛?這個問題在2026年變得格外尖銳。近期汽車行業的一些安全事故,讓「AI篡權」成為頻繁被提及的風險——當模型具備決策能力后,是否會越過邊界,直接影響核心控制系統。
行業出現兩條路徑分化。一部分企業選擇激進方案,讓模型深度參與車輛控制,追求統一的大腦架構,上限高但安全邊界復雜;另一部分選擇克制方案,在能力和安全之間建立明確隔離。
上汽通用選了后者。一位上汽通用智能化工程師告訴雷峰網:「AI可以理解一切,但不能直接控制關鍵部件。」圍繞這一點,他們構建了三層安全隔離。
應用層是價值觀訓練。模型通過大量人類價值觀數據建立基本「是非觀」——當用戶在行駛中喊「關大燈」,系統會識別危險指令并直接拒絕,同時語音反饋「當前行駛環境需要大燈照明,暫時無法關閉」,讓用戶明確感知安全邊界。
服務層是場景判斷。所有控制請求經過實時監測,系統會檢查車速、擋位、駕駛模式。當車輛處于高速行駛(車速>100km/h)或倒車狀態時,自動攔截非必要交互請求(如調整娛樂音量、設置導航目的地),避免分散駕駛員注意力。
機電層是物理隔離。核心車控部件由獨立硬件控制,AI系統僅能通過標準化接口發送請求,無法直接訪問底層控制單元;實體按鍵始終保留最高優先級,即使AI異常,用戶也能物理接管。
這套機制的本質,是把AI「關進籠子里」——可以建議,可以調度資源,但最終執行權牢牢掌握在車輛本身。王晨東在發布會上反復強調的「克制」,正是指這層設計。
這種路徑聽起來保守,但在汽車這個高安全行業,其實是更現實的選擇。一旦出錯,代價遠高于手機或電腦。
為什么是豆包?市場份額背后的合作深度
在大模型百花齊放的背景下,別克選擇豆包并非顯而易見的決定。國內通義千問、文心一言同樣在積極上車,技術路線各有優劣。
數據給出了部分答案。當前中國車載大模型市場,豆包與文心一言合計占據68%份額;其中豆包大模型在公有云調用市場份額達49.2%,日均tokens調用量突破63萬億,覆蓋超20個汽車品牌,2025年新上市車型搭載量位居行業第一。
但市場份額只是入場券。真正決定體驗差異的,是車企與火山引擎的合作模式深度,以及硬件算力的實際支撐能力。
盡管市場上已有多款車型搭載豆包大模型,但由于硬件算力、合作模式與車型定位的差異,實際體驗呈現顯著分層。從基礎語音控制到高階類人交互,不同車型的能力邊界,本質是車企對「智能座艙價值」的理解差異——有的當成語音助手升級包,有的當成內容分發入口,極少數嘗試作為「操作系統級能力」。
別克至境E7屬于第三種。驍龍8775芯片的算力優勢,加上與火山引擎的深度合作,讓它成為當前豆包大模型能力釋放最充分的車型。這種「充分」體現在:一次喚醒10個連續指令、20+情緒表達、全場景上下文記憶、端云實時更新、跨域語音控座艙——這些功能需要硬件、模型、工程能力的協同,缺一不可。
王晨東的判斷是,這件事的意義不只是別克補齊座艙智能化,更在于探索「當大模型進入汽車后,應該做什么,又必須克制什么」。這個命題的答案,或許會定義未來幾年智能座艙的核心走向。
2026年的關鍵變量
智能座艙的競爭正在進入新階段。北美的特斯拉與Grok大模型、國內的智己與千問、吉利的Eva超擬人智能體——行業共識已經形成:下一階段的競爭,是大模型上車后,車是否真正開始理解人。
別克至境E7的落地提供了一個觀察樣本。它展示了一種可能性:當大模型能力被完整釋放,同時被嚴格約束在安全邊界內,智能座艙可以接近「像人」的體驗,而不必犧牲可靠性。
這種平衡的難度在于,它要求車企同時具備兩種能力:對AI潛力的激進探索,和對安全風險的極度保守。上汽通用選擇的三層隔離機制,本質上是用工程冗余換取信任冗余——在消費者真正相信AI之前,這是必要的成本。
豆包大模型在至境E7上的完整能力釋放,也反向證明了火山引擎的野心:不止于提供模型,而是深度參與車企的智能化定義。這種合作模式的深度,可能成為2026年車載大模型競爭的分水嶺。
當大模型成為智能座艙的標配,真正的差異化將來自哪里?是硬件算力的軍備競賽,是模型能力的持續迭代,還是車企對「理解人」這件事的產品定義能力?別克至境E7給出的答案,是把三者擰成一股繩——但這條路徑能否被復制,又會被誰超越,可能才是2026年最值得觀察的變量。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.