4月19日,在2026北京亦莊機器人半程馬拉松賽事現場,阿里巴巴旗下高德地圖正式拋出具身智能領域的重磅突破:全球首個面向AGI的全棧具身技術體系ABot重磅發布,同步完成全球首款開放環境全自主具身機器人“高德途途”的實戰首秀。這款四足機器人在現場成功協助視障人士完成復雜避障、人群穿行、動態路徑規劃等高嚴苛度實戰任務,一舉打破了具身智能長期以來“實驗室驗證完美、真實場景落地困難”的行業魔咒,徹底打通從技術研發到實際應用的最后一公里,標志著中國具身智能正式邁入開放環境規模化落地的全新階段。
![]()
高德途途能夠從容應對導盲這類對安全性、精準性、適應性要求極高的場景,其底層核心支撐正是高德全新打造的ABot全棧具身技術體系。該體系并非傳統技術的簡單堆疊,而是基于上萬種真實生活場景、千萬級多模態Clip數據,將高德沉淀十余年的空間智能資產高效轉化為具身智能核心訓練資源,打造出全球首個以AGI為終極目標的全棧具身技術閉環。截至目前,ABot系列模型已在全球15項權威基準測試中斬獲SOTA(當前最優)成績,用硬核數據坐穩具身智能領域的技術領跑位置。
在全球具身智能行業陷入研發瓶頸的當下,傳統技術路線普遍存在“單點拼湊、封閉驗證”的碎片化問題,企業大多聚焦單一功能優化,難以形成體系化能力,同時面臨數據稀缺、仿真鴻溝、技能泛化三大核心痛點,導致機器人只能在實驗室特定環境下運行,無法適配復雜多變的真實開放場景。高德ABot體系從底層架構重構,徹底摒棄傳統碎片化研發路徑,以AGI為核心導向,首次將數據引擎、基座模型與執行中樞深度耦合為統一系統,采用數據-模型-應用三層飛輪式閉環設計,實現“數據驅動模型、模型服務應用、應用反哺數據”的自我進化邏輯,精準擊穿行業三大瓶頸,構建起持續自我迭代的完整技術生態。
![]()
這一飛輪設計的核心邏輯,直接沿襲自高德深耕多年的空間智能飛輪體系。依托近10億月活用戶在真實世界中產生的海量時空數據與實時行為反饋,ABot體系的算法能夠在閉環中持續快速迭代,模型對物理世界的認知深度與廣度不斷提升。這套飛輪無需人工干預,每日在真實場景中自動演進,形成了高德獨有的體系化優勢——不依賴單一技術點的突發突破,而是依靠技術飛輪在真實場景中的持續運轉速度,構建起難以復制的技術壁壘,這也是ABot能夠快速實現15項SOTA的核心原因。
數據層:ABot-World三大維度全球第一,彌合虛擬與真實鴻溝
數據是具身智能的核心“燃料”,直接決定了機器人泛化能力的上限。與大語言模型不同,具身智能的真機數據采集難以規模化,成本呈指數級攀升,成為行業發展的核心掣肘。作為ABot體系的底層仿真基座,ABot-World是全球首個將物理定律深度嵌入生成全流程的可微分、可進化動力學引擎,從根本上解決了傳統世界模型“視覺幻覺”、動力學與真實物理世界脫節的難題,徹底打通“虛擬訓練-真實部署”的最后閉環。
![]()
架構層面,ABot-World專為具身智能定制14BDiT架構,以觀測數據與動作指令為輸入,在潛空間直接生成符合時空動力學的未來狀態序列,結合千萬級真實數據與多層級采樣治理,突破單一任務的泛化限制,讓模型具備應對未知場景的能力。場景構建上,其搭載3DGS冷啟動空間基座,僅需手機拍攝、航測圖等稀疏輸入,就能通過“粗建模、高保真修復、蒸餾回環”的自動化流程,將低質量視頻轉化為厘米級高精度3D場景,大幅拉低數據生成成本,讓大規模場景復刻成為可能。
訓練技術上,ABot-World首創Diffusion-DPO物理偏好對齊框架,由VLM生成物理規則清單并獨立完成判別,構建優劣樣本對驅動模型主動抑制違反物理規律的行為;同時融合拉格朗日動力學與3DGS重建技術,讓每一幀畫面都成為包含質量、摩擦、接觸力等完整物理屬性的可微分物理快照,讓虛擬訓練完全貼合真實世界規則。此外,ABot-World構建“訓練+數據”雙引擎并行架構,依托高德自有地圖與脫敏數據實現厘米級場景重建與光照一致性,目前已累計生產萬級3D真實場景、百萬級推理數據與千萬級訓練軌跡,覆蓋99%的典型生活場景。
![]()
在PBench、EZSbench、WorldArena、AgibotWorldChallenge等全球主流具身智能評測中,ABot-World持續領跑全球,成為唯一在物理合規性、動作可控性、零樣本泛化三大維度均達到SOTA的世界模型,為上層機器人導航、操作能力提供了最堅實的底層支撐。
![]()
模型層:ABot-N&ABot-M運動雙核,斬獲11項SOTA
如果說ABot全棧體系是具身智能的“運行大腦”,那么ABot-N與ABot-M就是支撐機器人行動的“運動雙核”,分別掌管機器人的“導航雙腿”與“操作雙手”,精準響應物理世界中“去哪里”與“做什么”的核心指令。兩款模型采用統一架構設計,可解耦可協同,一舉突破跨形態適配、跨任務泛化的行業技術瓶頸,累計斬獲11項權威基準SOTA,成為具身智能模型的標桿。
![]()
ABot-N是全球首個實現五大核心導航任務“大一統”的VLA基座模型,具備意圖理解、自主決策與持續進化能力,是高德途途走向開放世界的核心導航引擎。其采用層級式“大腦-動作”架構,通過多模塊協同實現單一模型全覆蓋所有導航任務,徹底打破傳統專用導航架構的泛化天花板。發布后,ABot-N迅速在VLN-CE(R2R/RxR)、HM3D-OVON、EVT-Bench等7大權威基準上全面刷新SOTA紀錄,在導航精度、社會合規性、零樣本泛化能力上實現斷層式領先,讓機器人在人群、城市、復雜地形中都能像人類一樣靈活導航。
![]()
ABot-M則是全球首個統一架構的具身操作基座模型,實現“一個通用大腦適配多種機器人形態”,大幅提升操作模型在異構機器人、多場景任務下的泛化能力。其首創全球首個動作流形學習技術,將學習目標由去噪重構轉為流形投影,顯著提升動作生成的穩定性與解碼效率,在高自由度全身控制等復雜場景中展現極強可擴展性;感知端采用語義流和動作流雙流并行架構,大幅提升精細操作的執行精度。
![]()
在LIBERO、LIBERO-Plus、RoboCasaGR1、RoboTwin2.0等主流操作評測中,ABot-M全面超越π0.5、UniVLA、OpenVLA-OFT等行業強基線,在泛化能力、魯棒性與跨形態遷移三個維度實現系統性領先。
![]()
不僅如此,ABot-N、ABot-M的多項子成果成功入選ICLR、CVPR、ICML、ECCV等全球AI頂會,成為全球機器人精準導航、高效操作的范式參考,代表中國具身智能模型技術躋身世界第一梯隊。
應用層:ABot-Claw首創MapasMemory,邁向體系智能
記憶能力是機器人跨越認知與執行鴻溝的底層基石,傳統機器人視覺存在“視野之外即荒原”的致命缺陷,記憶呈現場景碎片化,無法形成全局認知,嚴重制約機器人的長程任務執行能力。作為ABot體系的“執行中樞”,ABot-Claw首創“MapasMemory”(地圖即記憶)理念,重構具身智能的記憶與執行機制,徹底破解場景孤島難題。
ABot-Claw采用通用集中式Harness架構,將高德地圖與用戶私有地圖設為全局認知錨點,把多模態感知數據統一映射至共享語義空間,形成可動態刷新、持久沉淀的“世界記憶”。新機器人終端接入后,僅需讀取全局上下文即可零成本繼承環境認知,無需重新學習場景,徹底粉碎場景孤島。
![]()
同時,ABot-Claw采用“云端大腦—邊緣響應”兩級設計,既保證了智能決策的深度,又實現了指令執行的低延遲與高可靠性,完美平衡智能與效率。
在調度層面,ABot-Claw支持多種異構機器人的并行協作與任務接力,遇到設備故障時可自動接續任務,實現任務上下文無縫移交與跨形態協同作業。這一突破標志著機器人系統正式從“單體智能”向“體系智能”演進,機器人不再是孤立的執行個體,而是成為共享記憶、統一調度、協同進化的智能網絡節點。此外,ABot-Claw搭載閉環反饋與實時糾錯機制,在模糊指令理解、跨機導引、復雜任務執行等場景中,充分驗證了極強的魯棒性與泛化性。
全棧開源賦能行業,重構具身智能研發范式
伴隨高德途途的全球首秀,高德同步宣布開源ABot全棧技術體系,這是對“AMAPAIInside”核心理念的深度踐行,更是具身智能行業發展的里程碑事件。
長期以來,具身智能行業存在技術門檻高、研發成本高、場景適配難的問題,中小團隊難以參與核心技術研發。高德ABot全棧開源,將數據引擎、世界模型、導航模型、操作模型、執行中樞等核心技術全面開放,直接降低行業技術研發門檻,讓全球開發者、企業都能站在高德的技術肩膀上推進具身智能創新。此舉將徹底重構具身智能的研發范式,打破技術壟斷,推動行業從單點競爭走向生態協同,全面加速AGI時代的到來。
從四足機器人途途的開放場景落地,到ABot全棧體系的15項SOTA,再到全棧技術開源,高德用一套完整的技術閉環與產業布局,重新定義了具身智能的發展方向。依托空間智能的核心優勢,高德ABot實現了從虛擬訓練到真實部署、從單體執行到體系協同、從封閉研發到開放生態的全鏈路突破,不僅彰顯了中國在AGI與具身智能領域的技術實力,更將推動全球具身智能行業邁入快速落地、全面進化的新階段。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.