北京人形機器人創新中心近日宣布,正式開源其自主研發的具身VLA大模型XR-1,以及配套的數據支撐平臺RoboMIND2.0和ArtVIP最新版本。此次開源的模型與工具均已通過具身智能領域的國家標準測試,標志著國內在具身智能技術領域邁出了關鍵一步。
據介紹,XR-1模型聚焦于具身智能的“小腦”能力,旨在解決機器人從感知到行動的轉化難題。通過創新的三階段訓練范式,該模型實現了虛實數據的高效融合。第一階段依托超百萬級的多本體數據與人類行為視頻,構建了動作編碼體系,將復雜場景轉化為可調用的離散指令;第二階段通過大規模跨本體數據預訓練,使模型掌握物理世界的基礎規律,如物體運動軌跡、力學反饋等;第三階段則針對特定任務場景進行微調,使機器人能夠快速適應分揀、搬運、疊放等精細化操作需求。
配套開源的RoboMIND2.0數據平臺與ArtVIP工具鏈,為模型訓練提供了全流程支持。前者整合了多模態數據采集、標注與清洗功能,后者則優化了虛擬仿真環境與真實場景的映射效率。這種虛實結合的訓練模式,顯著降低了機器人對物理樣機的依賴,同時提升了模型在復雜環境中的泛化能力。
研發團隊表示,此次開源的核心目標是推動具身智能技術回歸應用本質。通過降低行業技術門檻,助力更多企業開發出真正“能干活、會干活”的機器人產品。目前,XR-1模型已在工業分揀、物流搬運等場景完成驗證,其動作精準度與任務完成效率達到行業領先水平。隨著開源生態的完善,預計將加速國內具身智能產業向全自主化、場景化方向演進。












