谷歌在大模型領域即將迎來新一輪技術突破。Google DeepMind的Gemini預訓練項目負責人Sebastian Borgeaud在訪談中透露,未來一年內,長上下文處理效率與上下文長度擴展兩大方向將涌現重大創新。這一判斷與Jeff Dean、Oriol Vinyals和Noam Shazeer三位核心科學家的公開討論形成呼應,顯示出谷歌正從單純追求模型規模轉向構建更復雜的智能系統。
Sebastian指出,團隊在注意力機制研究上取得突破性進展,相關發現可能在未來幾個月重塑研究方向。他特別強調"Scaling Law并未消亡,而是正在演變",暗示傳統依賴參數規模擴張的模式已接近極限。這種認知轉變體現在Gemini 3的開發中——項目團隊不再將工作定義為"訓練模型",而是構建包含預訓練、后期優化和工程部署的完整系統。
混合專家模型(MoE)架構成為Gemini 3的核心設計。這種"大而高效"的路徑選擇,反映出行業正從數據無限供給的粗放模式轉向精細利用有限資源的階段。Sebastian坦言,當前AI發展面臨數據瓶頸,未來競爭焦點將轉向算法效率、模型架構優化和知識提取能力。他以代碼庫分析、科研論文綜合等場景為例,說明超長上下文技術將使模型具備真正的數字工作臺能力。
在技術路線選擇上,谷歌展現出明顯轉向。Noam Shazeer回歸后首次公開表態,將研發重心從"性能峰值"轉向系統穩定性與長期運行能力。這位Transformer架構發明者直言,當前模型缺乏持續思考和自我修正機制,單純堆砌參數的道路已接近邊界。這種判斷與Jeff Dean的工程化思維形成互補,三人對談中"系統"一詞出現頻率遠高于"模型",凸顯谷歌正構建可迭代升級的智能基礎設施。
檢索增強技術成為另一個關鍵方向。Sebastian早年主導的Retro項目經驗被重新重視,團隊探索將知識檢索與推理過程原生融合,使模型能動態調用外部知識庫而非依賴參數記憶。這種設計既能突破知識容量限制,又能降低模型部署成本——隨著用戶規模激增,效率與成本優化已成為關乎技術落地的核心挑戰。
三位科學家的共識指向AI發展的新階段。他們不再用排行榜成績定義技術進步,而是關注模型在復雜任務中的可靠性、遷移能力和持續優化空間。Noam提出的"慢思考"理念,要求研發過程反復權衡技術價值與工程成本,將智能能力轉化為可量化的系統指標。這種思維轉變在Gemini 3的架構設計中得到充分體現,項目團隊通過數百個微調"旋鈕"的持續優化,實現了性能躍升而非依賴突破性創新。







