人工智能領域迎來一項重要進展,OpenAI近日開源了一款名為Circuit-Sparsity的新型模型。該模型采用獨特的稀疏架構設計,參數量僅為0.4B,其中99.9%的權重被強制置零,僅保留0.1%的關鍵連接。這項技術突破為解決大語言模型"黑箱"問題提供了全新思路,在醫療、金融等需要高透明度的領域具有潛在應用價值。
傳統Transformer模型存在顯著的不可解釋性缺陷。在密集型網絡中,單個神經元往往需要同時處理多個語義概念,這種"概念糾纏"現象導致模型決策過程難以追溯。OpenAI研究團隊通過反向思維,構建了權重高度稀疏的神經網絡架構。實驗數據顯示,新模型在處理字符串閉合等任務時,僅需12個神經元即可形成完整計算路徑,相比傳統模型縮減了16倍規模。神經元激活模式呈現出明確的語義特征,部分神經元專門檢測引號符號,另一些則像計數器般追蹤嵌套層級。
該技術通過三項核心創新實現突破:動態剪枝機制在訓練過程中持續優化連接結構,每輪迭代僅保留絕對值最大的權重;激活稀疏化策略在注意力機制等關鍵模塊強制保留前25%的激活值;架構層面用RMSNorm替代傳統歸一化方法,并引入Bigram表處理簡單模式匹配。這些改進共同確保了模型在極端稀疏條件下仍能維持基礎性能。
<國際學術社區對這項研究反應熱烈。部分學者認為該技術將顛覆現有混合專家模型(MoE)的設計范式,通過直接構建稀疏結構避免了權重分配的近似計算。但也有觀點指出,稀疏模型的訓練成本較密集模型高出2-3個數量級,當前運算速度存在100-1000倍的差距。這種效率瓶頸使其難以直接應用于千億參數級大模型。
針對計算效率難題,研究團隊提出了"橋梁網絡"解決方案。該方案在稀疏模型與預訓練密集模型之間建立編碼-解碼映射,通過跨模型干預機制實現特征擾動傳遞。這種設計允許研究人員在透明模型上修改特定特征,再將變化映射回復雜模型,為現有大模型提供可解釋性編輯能力。實驗表明,稀疏度與模型性能存在制衡關系,在固定規模下提升稀疏性雖會降低準確率,但能顯著增強決策可追溯性。
開源代碼已在GitHub和Hugging Face平臺同步發布,包含完整的訓練框架與基準測試工具包。研究團隊在技術文檔中強調,當前工作仍處于早期探索階段,后續將聚焦兩大方向:開發從密集模型提取稀疏電路的技術路徑,以及優化稀疏訓練算法效率。這項研究為理解神經網絡內部運作機制開辟了新維度,其提出的稀疏化設計范式或將重新定義人工智能的可解釋性標準。











