在人工智能領域持續創新的浪潮中,微博近日正式推出自主研發的開源大模型Vibe Thinker,以15億參數的精巧設計在國際頂級數學競賽基準測試中脫穎而出,成功超越擁有6710億參數的DeepSeek R1模型。這一突破不僅體現在準確率上的領先,更在于其單次“后訓練”成本僅需7800美元,相較于DeepSeek-R1和MiniMax-M1等同類模型,成本降低了數十倍,展現了高效能與低成本并重的顯著優勢。
Vibe Thinker的核心競爭力在于其采用的輕量化MoE(混合專家)架構與多輪知識蒸餾技術。這一創新設計使得模型在處理數學問題時,僅需5GB以下的數學語料即可完成高效微調,極大地降低了訓練資源的需求。同時,微博官方宣布,該模型支持通過Hugging Face平臺一鍵下載,并提供了商用許可,為開發者提供了便捷的接入途徑。據微博技術團隊透露,在AIME 2025、HMMT等國際知名數學競賽題庫中,Vibe Thinker的平均得分較DeepSeek R1提升了3.4%,推理延遲時間更是降低了42%,這一性能提升使其在教育、金融等對實時性要求較高的場景中展現出巨大的應用潛力。
為了進一步推動技術的普及與應用,微博在開源版本中提供了PyTorch與GGUF兩種格式,確保模型能夠在不同硬件環境下靈活部署。特別值得一提的是,Vibe Thinker的最低運行要求僅為單張RTX4090顯卡,這一低門檻設計使得更多研究機構和開發者能夠輕松上手,進行模型的二次開發與優化。微博還同步開放了訓練腳本與數據配比方案,為社區貢獻了寶貴的技術資源。
展望未來,微博計劃于12月推出Vibe Thinker-Math專用數學增強版,這一版本將針對數學領域的特定需求進行深度優化,進一步提升模型在數學問題解決上的能力。與此同時,微博還將聯合多所高校舉辦“輕量級數學挑戰賽”,旨在通過競賽的形式激發創新活力,推動低成本、高精度AI技術的廣泛應用,為人工智能領域的發展注入新的動力。






