長久以來,科學界普遍認為人類大腦理解語言依賴嚴謹的規則、語法和結構分析,這種觀念已延續數十年。然而,近期一項發表于《自然·通訊》的研究,徹底打破了這一傳統認知,為語言處理機制的研究帶來了全新視角。
研究人員開展了一項別具一格的實驗。他們邀請9名因癲癇接受術前監測的病患參與,這些病患的大腦皮層上已植入高密度ECoG電極。這種電極設備能夠以毫秒級的精度,精準記錄大腦真實的電活動。實驗過程中,受試者聆聽一段30分鐘的播客,研究人員同步采集圍繞每個詞出現時刻的高伽馬腦電信號。這些信號覆蓋了語言通路中的關鍵區域,包括掌管聽覺的mSTG、aSTG,負責語言整合的IFG以及高級語義區的TP。
與此同時,研究人員將同一段文本輸入GPT - 2 XL和Llama - 2這兩種大語言模型。每當模型處理到一個詞時,就暫停操作,抽取該詞在模型內部從第一層到最后一層的所有內部理解表示。隨后,對模型每一層的表示通過CA降維進行簡化,再利用線性模型嘗試預測人腦在對應時刻的電活動。
實驗結果令人震驚。原本以為GPT的層級結構與大腦處理語言的方式并無關聯,若強行將模型層級對齊到大腦的時間軸上,結果可能雜亂無章。但事實并非如此,在腦電時間軸上呈現出明顯的秩序。GPT的48層在大腦語言通路中呈現出清晰的“時間—深度”對應結構,淺層(暖色)在更早的時間點達到峰值,深層(冷色)在更晚時間出現。TP、aSTG、IFG等高階區域表現出強線性關系,而mSTG(近聽覺皮層)幾乎沒有層級結構,因為這里主要處理聲音本身,語言的語義和結構還未展開。一旦進入aSTG、IFG、TP等區域,曲線呈現出從淺到深的整齊分布。在關鍵語言區IFG內部,GPT的層級結構同樣呈現強烈的時間對應關系,淺層至深層的相關度分布呈現出規律性的時間推移,IFG的整體擬合度達到r = .85(p < .001)。
這一發現意味著,大腦理解語言并非按照傳統認知那樣,先按部就班地解析語法,再逐步拆解詞匯。實際上,大腦像GPT一樣,進行著一層又一層的語義推斷和概率預測,而且這套復雜的推斷節奏與大語言模型的內部深度路徑完美重合。
隨著研究的深入,一個更尖銳的問題浮現出來:那些被認為描述語言“最準確”的傳統模型,如音位、詞素、句法、語義等構建的語言理解框架,是否也會呈現出同樣的時間結構?研究人員將這四類符號語言學模型全部納入測試,這些模型是數十年來語言學和心理語言學的基礎框架。按照傳統觀念,如果人類語言依賴這些規則,它們理應比GPT更能精確地預測大腦的反應。
然而,測試結果卻截然不同。傳統符號模型雖然能預測一部分腦電活動,但與GPT相比,差距巨大。在毫秒級時間軸上,這些符號模型的預測曲線找不到明確的“淺到深”“早到晚”的序列分布,沒有層級和時間推進,缺乏連續、動態的語言動力。相比之下,GPT的嵌入式表示呈現出“流動式”的處理軌跡,意義隨著時間不斷更新、壓縮、整合,每一層都有其特定位置,像精密的齒輪嵌在上下文里。而符號模型的結構更像是靜止、離散的標簽堆疊,無法在毫秒級時間維度給出細致、動態的映射。這表明人腦的語言機制并非符號規則的簡單堆疊,而是一種連續、深度預測式的加工過程。當我們用語法樹解釋語言時,大腦實際上已經完成了幾十層的非線性變換,而這些變換正是Transformer模型的核心能力。
這一研究結果引發了對語言本質的重新思考。過去幾十年,我們用語法規則解釋句子,用語義網絡解釋概念,用樹狀結構描述語言的邏輯關系,這些框架強調“結構、類別、層次”,卻很少關注語言在大腦中的即時生成方式,如它如何在毫秒級連續變化、如何在瞬間整合過去與未來。此次研究呈現出的景象截然不同,大腦處理語言更像是沿著一條不斷壓縮、預測、更新的軌道向前推進,淺層負責快速提取線索,中層開始整合語境,深層構建較長的意義鏈條,整個過程是一種向前流動的計算,而非靜止的“語法樹”。
諷刺的是,Transformer模型被設計時試圖通過多層、非線性、依賴上下文、隨時間滾動更新等特性捕捉的“流動結構”,原本被認為是工程師的發明,現在看來,它更像是大腦為高效處理信息,在數十億年進化中選擇的一條計算路徑。語言的定義也因此悄然改變,它不再是規則體系,而是一種動態預測機制。我們理解一句話,并非先知曉其語法,再去匹配意義,而是在每一毫秒里,計算“下一刻可能發生什么”,GPT正是按照這種方式訓練的,這或許就是大型語言模型總讓人感覺像在理解人類的原因,它們意外地匹配了人類大腦的節奏。
當GPT的內部層級在大腦里找到清晰的時間對應,我們看到的不再是某個AI模型的“勝利”,而是一種結構上的趨同,一種底層計算規律的殊途同歸。語言的本質,也許從不是靜態的語法規則,而是連續、動態的預測,大腦和模型都依靠這種機制來理解世界、生成語言、模擬智能,最終兩條路徑在同一個高效的計算規律上相遇,我們熟悉的語言學和認知科學框架,或許需要迎來一次全面的更新,理解GPT的內部結構,也許正是在重新理解我們自己。











