meta前首席AI科學家楊立昆近日公開表示,當前科技巨頭對大型語言模型(LLM)的過度投入可能偏離了實現通用人工智能的正確路徑。他在訪談中指出,這類模型本質上依賴統計規律完成文本生成任務,缺乏對物理世界的真實理解,更不具備人類級別的推理與規劃能力。這種技術路線雖能實現特定場景的文本交互,但距離真正的智能系統仍有本質差距。
針對未來發展方向,楊立昆提出"世界模型"框架作為突破口。該理論認為,智能系統需要整合視覺、聽覺等多模態數據,構建對環境動態變化的模擬能力。通過這種機制,機器可逐步形成空間感知、時間序列理解及因果推理等基礎認知能力,類似人類嬰兒的學習過程。據透露,meta內部已啟動相關項目,計劃利用十億小時視頻數據訓練模型,目標在2026年推出可執行復雜虛擬任務的系統原型,并與增強現實設備形成技術協同。
meta官方回應稱,現有語言模型仍是短期產品重點,但公司已同步加大世界模型與具身智能的研發投入。行業觀察人士分析,這項技術若取得實質進展,可能為自動駕駛、智能機器人等領域提供全新解決方案。不過,數據獲取的合規性、算力資源的可持續性,以及模型決策的可解釋性,仍是制約技術落地的關鍵挑戰。當前學術界對世界模型的研究尚處早期階段,其商業化路徑仍需持續探索。
這場技術路線之爭折射出人工智能領域的深層變革。傳統語言模型通過海量文本訓練獲得的表面能力,正面臨理論瓶頸的質疑。而強調環境交互與物理理解的新范式,雖然更具發展潛力,但需要突破數據、算法與硬件的多重限制。科技企業如何在短期商業需求與長期技術布局間取得平衡,將成為決定未來競爭格局的重要因素。








