在近日舉辦的2025英特爾技術(shù)創(chuàng)新與產(chǎn)業(yè)生態(tài)大會上,英特爾面向酷睿Ultra 200H "Arrow Lake-H"系列處理器推出了一系列AI能力升級方案,重點(diǎn)展示了其在大模型本地化部署與顯存優(yōu)化領(lǐng)域的突破性進(jìn)展。
該系列處理器通過系統(tǒng)架構(gòu)創(chuàng)新,實(shí)現(xiàn)了最高128GB統(tǒng)一內(nèi)存配置,其中120GB可動(dòng)態(tài)分配為顯存資源。這一特性使其能夠直接運(yùn)行參數(shù)量達(dá)1200億的混合專家模型(MoE),無需依賴云端算力即可完成本地推理任務(wù)。以酷睿Ultra 9 285H平臺為例,該型號已實(shí)現(xiàn)對Qwen 3-30B-A3B、Qwen 3-Next-80B-A3B等主流MoE架構(gòu)模型,以及GPT OSS-120B/20B等稠密模型的全面兼容。
針對超大規(guī)模模型部署需求,英特爾開發(fā)了基于雷電接口的雙機(jī)集群方案。通過物理連接兩臺搭載酷睿Ultra 200H的設(shè)備,可構(gòu)建起支持2350億參數(shù)模型本地推理的計(jì)算環(huán)境。這種分布式架構(gòu)在保持低延遲的同時(shí),將推理成本較云端方案降低了約40%,特別適合對數(shù)據(jù)隱私要求嚴(yán)苛的金融、醫(yī)療等領(lǐng)域。
在硬件協(xié)同優(yōu)化方面,英特爾與存儲廠商Phison聯(lián)合研發(fā)的aiDAPTIV+顯存擴(kuò)充技術(shù)成為亮點(diǎn)。該方案通過智能算法動(dòng)態(tài)調(diào)整顯存分配策略,使模型響應(yīng)速度提升3倍以上,同時(shí)將內(nèi)存占用率降低60%。測試數(shù)據(jù)顯示,在運(yùn)行800億參數(shù)模型時(shí),該技術(shù)可使單設(shè)備推理效率達(dá)到主流云服務(wù)的85%水平,而功耗僅為后者的三分之一。















