Runway在紐約正式推出其最新文本生成視頻模型Gen-4.5,宣稱該模型在多項關鍵指標上已超越OpenAI的Sora 2和Google的Veo 3。根據官方披露的技術細節,Gen-4.5在視覺真實感、創作控制精度以及動態畫面細節呈現方面達到新高度,尤其在光影效果、動作連貫性和畫質優化上接近專業影視制作標準。
作為2023年憑借Gen-1模型引發行業關注的科技公司,Runway此次發布的Gen-4.5被視為視頻生成領域的重大突破。官方介紹顯示,新模型通過優化預訓練架構與后訓練算法,顯著提升了時間維度的一致性和動作可控性。具體表現為人物面部特征穩定、物體運動軌跡合理,連續幀之間的過渡更加自然流暢,有效解決了此前同類模型常見的畫面抖動或元素錯位問題。
在權威視頻模型評測平臺Elo的最新排名中,Gen-4.5以1247分的綜合評分位居榜首,領先Google Veo 3(1226分)和OpenAI Sora 2 Pro(1206分)。不過評測數據同時顯示,領先優勢僅維持在2%至3%區間,表明三大模型仍處于技術競速的膠著狀態。
技術特性方面,Gen-4.5延續了前代產品的快速生成優勢,同時強化了對物理規律的模擬能力。模型可精準呈現液體飛濺形態、織物褶皺變化、毛發動態擺動等復雜物理現象,并確保運動過程中的畫面邏輯自洽。在風格適配性上,該模型既能生成具有電影級質感的寫實畫面,也可創作風格化的動畫作品,滿足多元化創作需求。
值得關注的是,Gen-4.5的研發得到英偉達的技術支持,訓練與推理過程均基于Blackwell與Hopper架構的GPU集群運行。盡管在物理模擬精度和畫面穩定性上取得突破,官方仍坦承模型存在局限性:例如對因果關系的理解偶有偏差,物體持久性表現尚未完美,以及存在"成功偏置"現象——部分本應失敗的動態模擬可能呈現反常的成功結果。
針對這些技術短板,Runway研發團隊表示將持續優化模型架構,重點攻克世界模型構建中的核心難題。目前Gen-4.5已面向所有訂閱用戶開放使用,創作者和企業用戶無需支付額外費用即可體驗新功能,這或將進一步加劇AI視頻生成領域的市場競爭。






