清華大學TSAIL實驗室與生數科技聯合研發的開源視頻生成加速框架TurboDiffusion近日正式發布,該框架通過技術創新將端到端擴散模型的推理速度提升至原有水平的100到200倍,同時保持視頻生成質量不變。這一突破性成果為高分辨率視頻生成領域帶來了顯著效率提升,尤其適用于消費級硬件環境下的實時應用場景。
技術實現層面,TurboDiffusion采用雙管齊下的優化策略。其核心創新包括SageAttention注意力機制與SLA稀疏線性注意力算法的協同應用,通過動態調整計算密度,將高分辨率視頻處理時的算力消耗降低40%以上。另一關鍵突破在于rCM時間步蒸餾技術,該技術通過重構模型采樣流程,在保持生成效果穩定性的前提下,將擴散模型的迭代次數減少至原有方案的1/10。
實測數據驗證了該框架的卓越性能。在RTX 5090顯卡環境下,針對Wan-2.1-T2V-1.3B-480P模型的測試顯示,生成5秒視頻的耗時從184秒壓縮至1.9秒,加速倍數達97倍。對于參數規模更大的Wan-2.2-I2V-A14B-720P模型,原版1.2小時的生成時間被縮短至38秒,效率提升超過110倍。即便面對Wan-2.1-14B-480P這類重型模型,推理速度仍從27分鐘優化至9.9秒,顯著優于FastVideo等現有加速方案。
為滿足不同硬件配置需求,開發團隊提供了多版本優化方案。針對顯存容量有限的消費級顯卡(如RTX 4090/5090),量化版權重通過8位線性層量化技術,在保持98%以上精度的情況下將顯存占用降低60%。而對于配備80GB顯存的H100等專業級設備,非量化版本可充分發揮硬件性能,實現每秒生成25幀720P視頻的極限效率。所有模型權重均已在GitHub平臺開放下載,配套的硬件適配指南詳細列出了不同場景下的參數配置建議。











