在人工智能與神經(jīng)科學交叉領域,一項關于大腦信息處理機制的研究引發(fā)廣泛關注。由天津大學人工智能學院科研團隊主導,聯(lián)合國際學者開展的突破性工作,首次闡明了神經(jīng)網(wǎng)絡中突觸協(xié)同處理時空信息的運作模式,相關成果已發(fā)表于國際權威學術期刊《美國科學院院刊》。
作為神經(jīng)元間的連接樞紐,突觸在信息傳遞中扮演著核心角色。每個突觸都具備雙重調(diào)節(jié)功能:其連接強度可通過長期變化形成記憶基礎,同時能在毫秒級時間內(nèi)動態(tài)調(diào)整信號強度。這兩種特性如何共同影響大腦的學習效率與信息處理能力,此前一直是科學界未解的難題。研究團隊通過構建新型計算模型,發(fā)現(xiàn)當長期調(diào)節(jié)機制作用于短期調(diào)節(jié)機制時,神經(jīng)網(wǎng)絡能夠?qū)r間維度上的信息轉(zhuǎn)化為空間分布模式,從而大幅提升記憶容量與抗干擾能力。
實驗驗證環(huán)節(jié),科研人員在小鼠與人類大腦皮層突觸中觀測到與模型高度吻合的電生理特征。這種跨物種的驗證結果,不僅證實了理論模型的生物合理性,更揭示了大腦信息處理機制的普適性規(guī)律。研究團隊負責人形象地比喻:"這相當于破解了大腦處理信息的協(xié)作密碼,為理解認知功能提供了全新視角。"
該成果在人工智能領域具有重要應用價值。當前主流深度學習模型依賴海量數(shù)據(jù)訓練,且存在"黑箱"特性。此次發(fā)現(xiàn)的突觸協(xié)作機制,為開發(fā)具備可解釋性、適應復雜場景的新型算法提供了生物學啟示。研究團隊透露,后續(xù)將探索如何將這類生物機制轉(zhuǎn)化為計算模型,推動人工智能向更高效、更可靠的方向發(fā)展。這項跨學科研究不僅深化了人類對自身認知機制的理解,也為腦機接口、智能醫(yī)療等領域的技術突破奠定了理論基礎。











