近期,人工智能領域正經歷一場靜默卻意義深遠的范式變革。Transformer架構聯合發明者、現任OpenAI研究科學家的?ukasz Kaiser在訪談中指出,當前AI發展并非陷入停滯,而是從預訓練階段向推理模型階段過渡,這種轉變的影響力堪比Transformer的誕生。
針對外界關于"AI增長放緩"的質疑,Kaiser通過內部視角給出解釋:AI能力提升遵循指數級增長曲線,如同摩爾定律在芯片領域的持續生效。當前技術迭代速度看似減緩,實則因底層范式轉換導致——預訓練技術雖未失效,但已進入投入產出比下降的階段,行業資源正轉向更具成本效益的推理模型。這種轉變導致公眾感知滯后,未察覺到技術本質的飛躍。
推理模型的核心特征在于引入思維鏈機制。不同于傳統模型直接輸出結果,新范式允許模型在生成答案前進行多步驟推理,并可調用外部工具輔助決策。以編程領域為例,Codex已改變開發者工作模式,程序員現在更傾向于先由模型生成基礎代碼,再進行人工優化。這種協作方式雖未引發廣泛關注,卻標志著生產力的根本性提升。
強化學習技術的突破為推理模型發展提供關鍵支撐。通過獎勵機制驅動的自我優化,模型能夠自主糾正錯誤并改進輸出質量。Kaiser透露,OpenAI正在探索更復雜的強化學習架構,包括利用大模型評估答案質量、融入人類偏好數據等方向。這種技術演進使得模型不僅能處理文本數據,更在多模態推理領域取得初步進展,例如Gemini已具備推理過程中生成圖像的能力。
關于GPT-5.1的版本更新,Kaiser揭示了命名規則背后的戰略調整。新版本看似微小迭代,實則聚焦穩定性提升與用戶體驗優化:通過強化后訓練階段的安全機制、減少幻覺輸出,并引入風格定制功能。內部開發模式也發生轉變,預訓練、強化學習等多個項目并行推進,最終通過知識蒸餾技術整合到統一模型中。這種敏捷開發方式使OpenAI能夠快速響應市場需求,但Kaiser坦承當前模型在多模態遷移能力上仍存在短板。
追溯技術起源,Kaiser回顧了Transformer的誕生歷程。這位理論計算機科學博士在德國完成學業后,先后任職于法國學術界和谷歌Brain團隊。他透露,Transformer論文的八位作者從未線下會面,通過分布式協作完成了這項顛覆性創新。當時學界普遍質疑通用模型處理多任務的能力,而團隊堅持的注意力機制最終證明其前瞻性。這種技術信念促使Kaiser在2018年追隨Ilya Sutskever加入OpenAI,參與構建更具靈活性的研發體系。
在資源分配方面,OpenAI內部形成獨特競爭機制。預訓練項目因計算需求龐大占據主要GPU資源,強化學習與視頻模型緊隨其后。Kaiser所在的團隊采用項目制運作,成員根據技術方向自發組隊,這種模式既保證創新效率,也帶來資源爭奪的挑戰。他特別指出,多模態推理與具身智能的融合將成為下一個突破口,家用機器人可能引發比ChatGPT更直觀的技術革命。
對于AI就業影響,Kaiser持審慎樂觀態度。他以翻譯行業為例說明:盡管機器翻譯已能處理多數語言轉換任務,但高風險場景仍需人類專家把關。這種協作模式將重塑職業結構而非消除工作崗位,基礎性工作自動化程度提升的同時,也會催生新的專業需求。隨著多模態推理能力的突破,機器人技術有望在物理世界實現類似ChatGPT的認知躍遷,硅谷企業正在研發的智能硬件或將加速這一進程。











