華為近日正式推出名為Flex:ai的AI容器軟件解決方案,該技術通過創新的算力切分機制,將單張GPU或NPU硬件的算力資源進行精細化分割。據技術文檔顯示,系統支持將物理算力卡劃分為多個虛擬單元,切分精度可達總算力的10%,這種設計使得單張硬件能夠同時運行多個AI計算任務。
在資源調度方面,Flex:ai突破了傳統硬件的負載限制。通過動態分配機制,系統能夠根據不同AI模型的計算需求,將切分后的虛擬單元靈活分配給多個工作負載。例如在圖像識別與自然語言處理混合場景中,單張GPU可同時支撐5-8個輕量化模型的并行運算,硬件利用率較傳統模式提升3-5倍。
該技術更引人注目的創新在于構建了分布式算力共享體系。在集群部署環境下,Flex:ai能夠自動識別各節點的空閑算力資源,通過智能聚合算法將這些離散資源整合為統一的"共享算力池"。這種設計使得企業無需額外購置硬件即可應對突發性的算力需求,特別適用于AI訓練任務波動較大的研發場景。
為推動技術生態建設,華為決定將Flex:ai的核心代碼開源發布。開發團隊選擇在魔擎社區作為主要開源平臺,提供完整的開發文檔與使用案例。技術白皮書顯示,開源版本已支持主流AI框架的深度適配,并預留了二次開發接口,方便開發者根據特定場景進行功能擴展。
行業分析師指出,這種軟硬件協同優化方案有望重塑AI算力市場格局。通過將硬件資源虛擬化與集群管理相結合,Flex:ai既降低了中小企業使用高端算力的門檻,也為大型數據中心提供了更高效的資源調度方案。特別是在多模態AI應用快速發展的當下,該技術可能成為推動AI平民化的重要基礎設施。











