深度求索(DeepSeek)近日宣布推出全新開源大模型DeepSeek-V3.2及其長思考增強版DeepSeek-V3.2-Speciale,同步完成官方網頁端、移動應用及API接口的版本升級。此次更新標志著該系列模型在推理性能與工具集成領域取得重要突破,引發行業廣泛關注。
根據技術白皮書披露,DeepSeek-V3.2在多項公開推理基準測試中展現卓越表現,其核心推理能力已與GPT-5持平,與Gemini-3.0-Pro的差距縮小至3%以內。特別值得注意的是,該模型通過優化輸出策略,在保持信息完整性的前提下,將平均響應長度壓縮至Kimi-K2-Thinking的65%,有效降低了計算資源消耗。這一改進使得模型在移動端部署時具備更強的實時響應能力。
長思考增強版V3.2-Speciale則聚焦復雜問題求解,通過整合DeepSeek-Math-V2的定理證明模塊,在數學競賽領域取得突破性進展。測試數據顯示,該版本在IMO(國際數學奧林匹克)、CMO(中國數學奧林匹克)、ICPC(國際大學生程序設計競賽)及IOI(國際信息學奧林匹克)等頂級賽事中均斬獲金牌,其中ICPC項目成績達到人類頂尖選手第二名的水平。技術團隊透露,這一成就得益于模型對幾何證明、組合數學等領域的深度優化。
技術架構層面,新版本首次實現思考過程與外部工具的無縫銜接。研發團隊采用大規模Agent訓練數據合成技術,構建了包含1800余個虛擬環境的訓練矩陣,覆蓋超過8.5萬條復雜指令場景。通過強化學習訓練,模型在智能體任務執行中的泛化能力提升40%,在開源模型評測中創下新高,與閉源模型的性能差距進一步縮小至12%以內。
兩個月前發布的實驗版本DeepSeek-V3.2-Exp已通過社區測試驗證了DSA稀疏注意力機制的有效性。測試數據顯示,該機制在長文本處理、多模態交互等場景中保持性能穩定,未出現顯著精度損失。目前,V3.2-Speciale版本已通過臨時API向研究機構開放,供開發者進行壓力測試與場景適配。










