一場突如其來的大規模停電,讓舊金山的夜晚陷入黑暗,也讓自動駕駛技術遭遇了一場前所未有的“大考”。太平洋煤氣與電力公司的一座變電站突發火災,全市約12.5萬用戶陷入無電可用的境地,西區、里士滿、海特 - 阿什伯里、中國城等近三分之一區域受到影響。交通信號燈集體罷工,Muni公交無奈停運,市長緊急呼吁市民非必要不出行,整個城市仿佛按下了暫停鍵。
在這場城市應急事件中,原本被寄予厚望的Waymo自動駕駛車隊卻集體“掉鏈子”,成為眾人關注的焦點。社交媒體上,大量視頻迅速傳播,畫面中多輛白色的Waymo車輛在漆黑潮濕的十字路口一動不動,紅色的尾燈在夜色中格外刺眼,后方車輛排起了長龍,人類司機們有的鳴笛催促,有的無奈選擇繞行。有用戶調侃道:“停電讓Waymos徹底‘歇菜’了。”更有觀察者尖銳地指出:“這些自動駕駛車看起來根本沒經歷過停電的‘訓練’。”
次日,Waymo官方發布聲明,承認已暫停在舊金山的服務,并解釋稱由于大范圍停電,車輛需要比平時停留更長時間來確認受影響交叉路口的狀態。然而,這一輕描淡寫的回應,卻無法掩蓋背后更深層次的技術危機:當外部數字基礎設施出現故障,當前主流的自動駕駛系統為何如此不堪一擊?
從技術層面深入剖析,Waymo車輛在停電夜的停滯并非某個單一模塊出現故障,而是一條典型的“脆弱性傳導鏈”在發揮作用。L4級自動駕駛系統高度依賴多傳感器融合技術,攝像頭、激光雷達和毫米波雷達協同工作。在正常工況下,交通信號燈為系統提供了結構化、高確定性的規則輸入,紅燈停、綠燈行的簡單規則極大地簡化了決策邏輯。
但停電后,情況發生了翻天覆地的變化。紅綠燈物理消失,激光雷達的點云中不再有對應的結構,攝像頭在低照度環境下的識別能力也急劇下降。更為關鍵的是,系統失去了“規則錨點”,不得不將決策權重轉移到對無序人類行為的預測上,而這恰恰是當前人工智能技術的短板所在。
按照美國交規,信號燈失效時應視為“All - Way Stop”,即所有方向停車后依次通行。但要執行這一規則,系統需要精準判斷“誰先停穩”“誰有通行意圖”,并與其他可能不遵守規則的人類司機進行動態博弈。然而,現有的決策規劃算法嚴重依賴預設規則和格式化場景理解,面對混亂路口中搶行、猶豫、變道的人類車輛,系統陷入了高不確定性下的保守死循環:“無法100%確認安全→不行動→持續等待”。
有分析認為,伴隨停電出現的蜂窩網絡波動或實時交通數據中斷,可能是對Waymo車輛的另一重打擊。Waymo等公司依賴遠程協助(Tele - assist)來處理邊緣場景,一旦通信中斷,車輛不僅“看不見”周圍環境,還成了“信息孤島”,無法獲取后臺指令或進行路徑重規劃。
更諷刺的是,硬件冗余設計無法彌補“環境模型”的缺失。系統設計默認“世界有規則”,卻未為“規則本身消失”構建降級運行機制。其“最小風險狀態”(Minimal Risk Condition)策略——原地停車,在單車場景下或許合理,但在車隊規模部署時,反而引發了系統性交通堵塞。
這場“黑夜測試”猶如一面鏡子,映照出當前自動駕駛行業在數據與算法協同方面存在的嚴重問題。近期,李飛飛在與鈦媒體的對話中明確指出,行業普遍存在“算法比數據重要”的認知偏差,算法工程師薪資更高、更受追捧,而數據工作卻被視為“不夠性感”。但現實是,所有AI從業者都承認,數據至少具有與算法同等重要的價值。
Waymo事件正是這一“協同失靈”的典型案例。據相關文件顯示,Waymo目前每周提供45萬次Robotaxi服務,累計路測里程已達數億英里。但這些數據高度集中于“正常工況”,如電力穩定、信號有效、人類基本守規等場景。而“全域大規模停電”這類系統性邊緣場景,因其低概率、高成本、難復現等特點,在訓練集中幾乎是一片空白。算法從未在足夠多樣的樣本上學習“規則失效時該如何反應”,自然在真實世界中“不知所措”。
更深層次的問題在于,當前系統缺乏一個能夠理解物理與社會規則如何動態演化的世界模型。理想的世界模型應具備推理能力,例如能夠推理出“停電→信號燈失效→人類行為從規則主導轉為博弈主導→路口通行效率下降→我應采取更靈活但謹慎的策略(如跟隨前車緩慢蠕動)”。然而,現有系統只是將感知、預測、規劃等環節進行流水線拼接,沒有因果推理能力,也沒有心智理論,當輸入異常時,算法便在“不確定性過高”的循環中空轉,無法調用常識進行降級決策。
面對這些問題,行業必須進行一場數據戰略的范式革命,放棄對總里程的盲目迷信,轉而系統性地構建關鍵場景數據庫。這些場景可以通過定向實采、眾包上報與仿真生成相結合的方式積累。雖然真實停電難以復現,但利用生成式AI與數字孿生技術,可以在虛擬環境中反復模擬“信號燈全滅+通信中斷+人類搶行”的復合場景,生成海量訓練樣本。Wayve、Covariant等公司已經證明,高質量的合成數據能夠顯著提升模型的魯棒性。未來,自動駕駛公司的核心競爭力,或將體現在其“黑暗場景生成引擎”的能力上。
世界模型需要理解“為什么”,而不僅僅是“是什么”。這意味著數據標注需要從傳統的目標檢測、語義分割,升級為意圖標注(如行人揮手是讓行還是求助)、因果關聯(如車輛減速是因為前方有障礙還是準備變道)、社會規范建模(如在無信號燈路口,本地駕駛文化是“先到先走”還是“右側優先”)等“高階語義數據”,這些將成為訓練世界模型的關鍵燃料。
此次事件也給我們敲響了警鐘:過度依賴云端、高精地圖和實時通信,會引入單點故障風險。未來系統需要具備更強的邊緣智能,即使斷網斷電,也能基于局部感知進行長時序風險推演。相應地,訓練數據應包含大量“通信降級”條件下的成功處置案例,讓模型學會在信息受限時依然能夠穩健決策。
在探索世界模型落地路徑的過程中,國內自動駕駛企業蘑菇車聯的實踐值得關注。其自研的MogoMind大模型正嘗試構建一個融合物理規律、交通規則與社會博弈常識的統一認知框架。與傳統模塊化架構不同,MogoMind通過端到端訓練,在感知、預測與決策之間建立了更緊密的協同機制。更重要的是,蘑菇車聯同步打造的AI網絡,一套覆蓋車端、邊緣與云端的分布式智能基礎設施,為大模型提供了持續進化的數據閉環。即使在局部通信中斷或信號失效場景下,車端模型仍能基于本地化世界表征進行穩健推理。這種“物理世界大模型+AI網絡”的雙輪驅動模式,或許為應對類似“舊金山式黑夜”的場景提供了新的思路。











