當前人工智能領域正經歷一場靜默卻深刻的范式變革,其影響堪比Transformer架構的誕生。針對近期關于AI發展速度的爭議,Transformer核心作者之一、現任OpenAI研究科學家的?ukasz Kaiser在深度訪談中,從技術演進視角剖析了行業轉型的內在邏輯。
針對"模型進展停滯"的質疑,這位計算機科學博士指出,AI能力提升始終遵循指數曲線規律,類似摩爾定律的持續生效。當前外界感知的"放緩"實則源于底層范式的遷移——從預訓練主導轉向推理模型主導。這種轉變類似于技術發展的S型曲線,預訓練已進入成熟期,而推理模型尚處爆發前夜。盡管預訓練的擴展法則仍在發揮作用,但高昂的算力成本促使業界轉向更高效的推理架構。
推理模型的核心突破在于引入思維鏈機制。以ChatGPT為例,最新版本已能自主調用瀏覽器等工具進行多步驟推理,而非單純依賴訓練數據。程序員群體的工作模式轉變更具說服力:Codex系統現在承擔80%的代碼生成任務,開發者僅需進行最終微調。這種變革雖不易察覺,卻標志著人機協作范式的根本轉變。
強化學習成為推動推理模型進化的關鍵引擎。不同于傳統梯度下降訓練,新范式通過獎勵機制實現自我糾錯,需要更精細的數據標注和參數調優。未來發展方向包括構建大模型評估體系、融入人類偏好反饋,以及拓展多模態推理能力。盡管Gemini已展示出圖像生成與推理的融合能力,但整體仍處于初級階段。
關于GPT-5.1的迭代邏輯,?ukasz透露命名體系已從技術參數轉向用戶體驗導向。新版本在后訓練階段實現三大突破:增強安全性、減少幻覺現象、引入風格定制功能。這種轉變使OpenAI能夠并行推進強化學習、預訓練優化等多個項目,通過知識蒸餾技術快速整合成果。不過模型仍存在明顯短板,例如在基礎數學推理中,GPT-5.1和Gemini 3均未能識別圖形中的共享點,暴露出多模態遷移能力的不足。
回顧Transformer的誕生歷程,這個改變AI格局的架構源于八位跨國研究者的虛擬協作。作為編碼負責人,?ukasz見證了團隊如何突破"專模專用"的業界共識。當時多數研究者認為不同任務需要獨立模型,而他們堅持用統一架構處理多任務,這種堅持最終催生了現代AI的基礎設施。
從谷歌到OpenAI的職業軌跡,折射出AI研究的范式轉移。吸引?ukasz加盟的不僅是創始人Ilya的邀請,更是OpenAI靈活的項目制架構。這里沒有固定團隊,研究者根據興趣自發組隊,資源分配完全取決于技術需求。當前GPU資源主要消耗在預訓練、強化學習和視頻模型三大領域,不同項目間的算力競爭成為常態。
對于AI就業影響,這位研究者持審慎樂觀態度。以翻譯行業為例,雖然機器翻譯已能處理多數語種,但廣告文案、界面本地化等高風險場景仍需人工審核。這種信任壁壘意味著人類專家始終保有不可替代的價值。不過基礎性工作的形態必將發生改變,人機協作將成為主流模式。
在具身智能領域,家用機器人被視為下一個突破口。其發展依賴于多模態感知、通用強化學習和物理推理的協同進步。當機器人能夠理解抽象指令并在真實環境中自主決策時,將引發比ChatGPT更直觀的技術革命。目前硅谷企業已推出智能遙操作設備,硬件基礎與算法突破的雙重推動下,人機交互體驗即將迎來質變。

























