國內(nèi)腦機接口領(lǐng)域迎來重要突破——頭部科技企業(yè)姬械機(Maschine Robot)正式發(fā)布通用型腦機接口AI計算平臺Mind++。該平臺通過標準化算法服務(wù),為醫(yī)療、教育、工業(yè)等多領(lǐng)域腦機應(yīng)用提供技術(shù)支撐,旨在打通實驗室原型到規(guī)模化落地的關(guān)鍵環(huán)節(jié)。
此前,姬械機已構(gòu)建起覆蓋軟硬件的完整技術(shù)生態(tài):在算法層面,推出腦機夢境生成大模型Dreamer、情感識別算法Lover、音樂交互模型Musician等垂直領(lǐng)域解決方案;在硬件方面,形成1-16通道的X-BCI系列穿戴設(shè)備與可嵌入式的U-BCI單元模塊;數(shù)據(jù)層面則啟動Mind大規(guī)模腦機數(shù)據(jù)集項目,涵蓋運動控制、認知狀態(tài)等多維度交互任務(wù)。
針對行業(yè)長期存在的三大痛點——訓(xùn)練數(shù)據(jù)稀缺性、算法模型成熟度不足、跨設(shè)備泛化能力薄弱,Mind++平臺構(gòu)建了雙重技術(shù)基座:其一,依托MIND腦機交互數(shù)據(jù)集與Action運動操作數(shù)據(jù)集形成的海量標準化數(shù)據(jù)池;其二,采用自監(jiān)督學(xué)習(xí)、遷移學(xué)習(xí)等先進架構(gòu),結(jié)合XGBoost、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、圖神經(jīng)網(wǎng)絡(luò)(GNN)等經(jīng)典與前沿算法,訓(xùn)練出具備強魯棒性的腦電解碼模型。這些模型特別針對腦電信號的低信噪比、高時序性特征進行優(yōu)化,顯著提升跨場景適應(yīng)能力。
平臺核心算法體系包含五大類模型:通用基礎(chǔ)模型通過Brain-MAE等Transformer架構(gòu)實現(xiàn)無標簽數(shù)據(jù)預(yù)訓(xùn)練,開發(fā)者僅需少量數(shù)據(jù)微調(diào)即可適配特定任務(wù);狀態(tài)監(jiān)測模型可實時評估疲勞度、注意力、情緒狀態(tài)及睡眠階段;交互控制模型支持運動想象解碼、意念控制等主動意圖識別;神經(jīng)反饋模型建立腦活動與外部刺激的閉環(huán)調(diào)控;精神健康模型則用于昏迷等級、睡眠障礙等神經(jīng)指標監(jiān)測。
為推動技術(shù)普惠,Mind++將同步開放開發(fā)者生態(tài):開源EEGNet、FBCSP-LDA等基線算法代碼庫,提供數(shù)據(jù)預(yù)處理工具鏈(含濾波、偽跡去除等功能模塊),并配套API/SDK開發(fā)文檔、Jupyter Notebook實戰(zhàn)教程及情緒反饋系統(tǒng)等場景化開發(fā)指南。這些資源將降低腦機應(yīng)用開發(fā)門檻,加速技術(shù)從實驗室到真實場景的轉(zhuǎn)化進程。
據(jù)悉,該平臺未來將面向全球科研機構(gòu)與企業(yè)提供標準化接口(API)與預(yù)訓(xùn)練模型庫,通過"開放共享、協(xié)同演進"的MIND生態(tài)理念,持續(xù)推動腦機接口技術(shù)的迭代創(chuàng)新與應(yīng)用落地。











