清華大學與面壁智能的科研團隊在《自然?機器智能》發表了一項重要研究成果,他們創新性地提出了“能力密度”這一全新指標,用于衡量單位參數所能承載的有效智能水平。這一指標的提出,為評估模型性能提供了新的視角,研究團隊明確指出,在追求模型性能提升的過程中,應更加注重能力密度,而非單純地擴大模型規模。
為了深入探究能力密度的發展規律,科研團隊對51個主流開源大模型展開了系統統計。統計結果顯示,能力密度呈現出快速增長的趨勢,大約每3.5個月就會翻倍。這一變化意味著,在完成同等任務時,模型所需的參數量可以實現指數級的下降,這無疑為模型的高效化發展指明了方向。
研究團隊特別強調,提升能力密度并非簡單的模型壓縮。如果只是將大量知識“生硬地塞進小模型”,就如同把大字典強行裝進小本子,會導致模型智力受損,無法發揮出應有的性能。要實現真正的高能力密度,需要在數據、算力和算法這三個關鍵要素上進行協同設計,通過優化它們的組合方式,來提升模型的整體效能。
基于這一研究成果,面壁智能迅速推出了0.5B - 2B系列的“高密度”模型。經過實際測試,這些模型在同等下游任務中的表現十分出色,性能達到了7B - 13B規模模型的水平。而且,這些模型已經實現了規模化應用,成功落地于手機語音助手、車載交互系統以及智能家居邊緣盒子等多個領域。在實際運行中,它們的推理延遲小于100毫秒,端側功耗更是下降了45%,展現出了強大的實用性和高效性。
面壁智能的CEO李丹透露,接下來,公司將與清華大學進一步深化合作,把能力密度提升曲線納入模型研發的關鍵績效指標(KPI)體系。他們的目標是,在2026年推出能夠在NPU手表端運行的“背包級”個人大模型,以此推動“模型小型化”生態的發展,讓智能模型能夠更加便捷地融入人們的日常生活。













