在近日于香港舉辦的全球圖形學領域頂級學術會議SIGGRAPH Asia 2025上,一場備受矚目的3D Gaussian Splatting Reconstruction Challenge(3DGS重建挑戰賽)落下帷幕。中國科技企業摩爾線程憑借其自主研發的3DGS基礎庫LiteGS,在眾多參賽隊伍中脫穎而出,斬獲銀獎。
3D Gaussian Splatting(3DGS)作為一種新興的3D場景表示與渲染技術,自2023年提出以來便引發了廣泛關注。該技術以可參數化的3D高斯分布為核心,巧妙地平衡了畫質、效率與資源占用之間的關系。與傳統NeRF技術相比,3DGS在保持逼真渲染質量的同時,將渲染效率提升了數百倍甚至上千倍,并且在光線追蹤、VR/AR實時渲染、多模態融合等多個方向展現出強大的適應性與擴展性。它通過數以百萬計的各向異性三維高斯基元來精確表示三維場景,從而實現逼真的渲染效果,在自動駕駛、虛擬現實、數字孿生等領域蘊含著巨大的應用潛力。
然而,3DGS技術也面臨著一些挑戰。盡管其渲染速度極快,但訓練過程卻往往耗時較長,通常需要數十分鐘甚至數小時,這成為制約其廣泛應用的主要瓶頸。現有的優化方案大多僅從單一層面進行改進,難以系統性地解決訓練過程中的性能制約問題。
為了攻克這一難題,摩爾線程自主研發了3DGS基礎庫LiteGS。該庫首次實現了從底層GPU系統、中層數據管理到高層算法設計的全鏈路協同優化。在GPU系統層面,摩爾線程創新性地提出了基于“One Warp Per Tile”原則的“Warp-Based Raster”新范式。這一范式將梯度聚合簡化為一次Warp內歸約,并結合掃描線算法與混合精度策略,大幅降低了梯度計算開銷,同時實現了高效的像素級統計能力。在數據管理層,引入了“聚類-剔除-壓縮”流水線,借助Morton編碼以極低開銷對高斯基元進行動態空間重排,顯著提升了數據局部性,減少了緩存失效與Warp分支。在算法設計層,摒棄了原有模糊的度量指標,采用更為魯棒的像素不透明度梯度方差作為致密化的核心判據,能夠精準識別欠擬合區域,其輕量化計算直接受益于底層光柵化器的高效統計支持。
在本次3DGS重建挑戰賽中,參賽團隊面臨著嚴峻的任務考驗。他們需要在60秒內,基于主辦方提供的真實終端視頻序列(時長10 - 30秒)、存在誤差的相機軌跡以及終端SLAM點云,在極短時間內完成完整的3DGS高質量重建。摩爾線程AI團隊以參賽編號“MT-AI”進入決賽階段,在重建精度與效率兩項關鍵指標上表現出色。其平均PSNR達到27.58,位列前三;重建耗時僅34秒,領先多數參賽隊伍。憑借在3DGS算法構建能力以及軟硬件協同優化方面的優勢,摩爾線程最終榮獲二等獎(銀牌)。
通過系統與算法的協同優化,LiteGS在訓練效率與重建質量上均取得了顯著領先。當達到與當前質量最優方案同等水平時,LiteGS可實現10.8倍的訓練加速,且參數量減少一半以上;在相同參數量下,LiteGS在PSNR指標上超出主流方案0.2 - 0.4 dB,訓練時間縮短3.8至7倍。針對輕量化模型,LiteGS僅需原版3DGS約10%的訓練時間與20%的參數量,即可實現同等質量。目前,LiteGS已在GitHub平臺全面開源,為全球開發者提供了強大的工具支持。






