在具身智能領域,一場從技術理念到落地實踐的變革正在悄然發生。大曉機器人董事長王曉剛在近期發布會上,展示了具身超級大腦模組A1與“開悟”世界模型3.0的協同創新,為機器人賦予了“空間智能”與“自主決策”能力,標志著具身智能從“模仿學習”向“理解推理”的跨越。
發布會上,十臺搭載A1模組的機器狗展示了多場景任務執行能力:它們不僅能在城市路面精準識別違停車輛并拍照回傳,還能在禁飛區域定位違規無人機信號,并向操作者發出語音警告。王曉剛指出,這些機器狗背后是“開悟”世界模型3.0的支撐——該模型通過構建物理世界的運行規律,使機器人無需依賴海量真機數據,即可快速適應新環境、完成新任務。例如,學會“開門”的機器人能自主處理不同顏色、形狀的門,甚至在首次進入的餐廳中完成開門動作。
世界模型的突破直指具身智能的核心痛點。傳統VLA模型依賴“畫面-指令-動作”的配對數據,如同“超級模仿者”,在環境或對象變化時成功率顯著下降。為突破數據瓶頸,自動駕駛領域雖能積累數百萬小時數據,但具身智能仍困在10萬小時量級。世界模型則通過“掌握通用公式”替代“死記硬背”,大幅降低對特定場景的依賴。王曉剛以“過環島”場景為例:商湯與上汽智己合作中,世界模型生成大量高風險場景數據與策略,再通過實車驗證校準,使模型能力在真實反饋中持續優化。
技術落地的關鍵在于“閉環驗證”。王曉剛強調,世界模型必須與下游任務結合,在真實場景中迭代。大曉選擇機器狗作為商業化起點,因其硬件成熟、商業化路徑短,能在街面巡查等任務中驗證模型能力。例如,搭載A1模組的機器狗已與徐匯公安探討城市治理方案,未來還將拓展至無人物流倉、家庭場景等增量市場。這一路線圖背后,是商湯11年積累的視覺平臺與海外資源支撐——方舟視覺平臺已落地大量安防、巡檢應用,為機器人快速切入場景提供可能。
世界模型的技術架構分為三層:底層是物理規律文本描述,如“蘋果為何落地”;中層是人類行為數據,通過頭戴攝像機、數采手套等設備記錄人與世界的交互動作;頂層是真機數據,采集不同構型本體的運動信息。王曉剛解釋,以“人”為中心采集數據,能避免機器人數據跨本體復用的難題,再通過少量真機數據校準,即可將訓練成本從萬小時級壓縮至現有規模。例如,模型學會“抓取積木”后,能自主規劃最優移動序列,而非機械重復固定動作。
在商業化策略上,大曉選擇“軟硬一體+生態合作”模式。A1模組集成傳感器、通信與計算能力,可搭載于宇樹、智元等不同品牌本體,但關鍵技術堅持自研。王曉剛坦言,與本體廠商的關系更多是合作而非競爭——當前場景尚未完全打開,大曉優先探索增量市場,如智慧城市、園區管理等,避免與電力巡檢等存量場景沖突。這種策略也降低了本體廠商的投入風險,形成“場景驅動產能”的良性循環。
面向未來,大曉的商業化路徑清晰:先以四足機器人切入B端場景,2-3年后通過輪式雙臂機器人拓展無人物流倉,最終向雙足人形與家庭場景延伸。王曉剛認為,C端市場雖潛力巨大,但對可靠性、安全性的要求極高,需產業鏈成熟后才能大規模落地。因此,大曉將優先通過B端場景驅動技術迭代,同時借助商湯的海外資源,在東南亞、中東等地區推進出海計劃。







