清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)的研究團(tuán)隊(duì)在自動(dòng)駕駛技術(shù)領(lǐng)域取得了突破性進(jìn)展,其最新研究成果被國際頂級(jí)人工智能會(huì)議NeurIPS 2025接收。這項(xiàng)研究聚焦于自動(dòng)駕駛與具身智能的交叉領(lǐng)域,提出了一種創(chuàng)新方法——利用人類駕駛員的腦電信號(hào)(EEG)認(rèn)知特征優(yōu)化自動(dòng)駕駛模型的訓(xùn)練過程,旨在提升系統(tǒng)在復(fù)雜路況下的決策能力和安全性。
當(dāng)前,基于視覺的端到端自動(dòng)駕駛技術(shù)已成為行業(yè)主流方向,但現(xiàn)有模型主要依賴對(duì)道路、車輛等視覺特征的標(biāo)簽化訓(xùn)練,缺乏類似人類的具身推理能力,尤其在應(yīng)對(duì)突發(fā)或復(fù)雜場(chǎng)景時(shí)表現(xiàn)受限。如何讓自動(dòng)駕駛系統(tǒng)具備更接近人類駕駛員的認(rèn)知與判斷能力,成為科研界亟待解決的難題。針對(duì)這一挑戰(zhàn),清華團(tuán)隊(duì)提出了“駕駛-思考”(Driving-Thinking)訓(xùn)練框架,通過融合多模態(tài)數(shù)據(jù)與腦啟發(fā)技術(shù),為自動(dòng)駕駛模型注入“人類智慧”。
該框架的核心在于采集道路視頻與同步駕駛員腦電信號(hào)的多模態(tài)數(shù)據(jù),并利用通用腦電大模型(LaBraM)提取人類駕駛時(shí)的潛在認(rèn)知特征。通過對(duì)比學(xué)習(xí)技術(shù),自動(dòng)駕駛的視覺網(wǎng)絡(luò)在訓(xùn)練過程中逐步模仿大腦對(duì)交通環(huán)境的認(rèn)知反應(yīng),從而習(xí)得類似人類的決策邏輯。研究團(tuán)隊(duì)特別強(qiáng)調(diào),這一方法采用兩階段訓(xùn)練策略:第一階段通過腦電數(shù)據(jù)完成跨模態(tài)學(xué)習(xí),使模型掌握駕駛認(rèn)知能力;第二階段及實(shí)際部署時(shí),系統(tǒng)僅需車載攝像頭視頻輸入,即可調(diào)用已習(xí)得的認(rèn)知能力輔助決策,無需額外安裝腦電采集設(shè)備,顯著降低了硬件成本。
實(shí)驗(yàn)驗(yàn)證環(huán)節(jié),團(tuán)隊(duì)在公開自動(dòng)駕駛數(shù)據(jù)集nuScenes和閉環(huán)仿真測(cè)試平臺(tái)Bench2Drive上進(jìn)行了全面測(cè)試。結(jié)果顯示,引入人類認(rèn)知特征后,主流端到端自動(dòng)駕駛模型的規(guī)劃軌跡誤差顯著降低,碰撞率下降約18%至26%。尤其在“前車突然切入”等高風(fēng)險(xiǎn)場(chǎng)景中,增強(qiáng)后的模型展現(xiàn)出更接近人類的防御性駕駛策略,例如提前減速、保持安全距離等,有效提升了行駛安全性。
這一成果標(biāo)志著首次將人類駕駛認(rèn)知直接應(yīng)用于端到端自動(dòng)駕駛規(guī)劃任務(wù),為提升自動(dòng)駕駛安全性提供了全新思路。研究團(tuán)隊(duì)指出,該方法不僅突破了傳統(tǒng)模型對(duì)視覺特征的單一依賴,更通過腦啟發(fā)技術(shù)實(shí)現(xiàn)了人類隱性認(rèn)知經(jīng)驗(yàn)的遷移,為具身智能與腦啟發(fā)人工智能領(lǐng)域的交叉研究提供了重要參考。隨著技術(shù)的進(jìn)一步優(yōu)化,未來有望推動(dòng)自動(dòng)駕駛系統(tǒng)向更安全、更智能的方向發(fā)展。









