在人工智能領域,一場關于模型發展方向的變革正在悄然興起。長期以來,大模型憑借龐大的參數規模和強大的計算能力占據主導地位,然而,近期由Essential AI Labs推出的Rnj-1開源模型,卻以80億參數的“小身板”,為輕量化、開放式AI探索開辟了新路徑。
Rnj-1的誕生,背后有著深厚的學術底蘊。其研發團隊核心成員Ashish Vaswani和Niki Parmar,正是2017年那篇具有里程碑意義的論文《注意力就是你所需要的一切》的作者。這篇論文奠定了Transformer架構的基礎,如今幾乎所有知名大模型,如ChatGPT、Gemini、Claude、Llama等,都采用了這一框架。可以說,他們是大模型時代的開創者之一。
然而,隨著行業的發展,大模型領域逐漸陷入了“軍備競賽”的怪圈。以Google DeepMind CEO哈薩比斯為代表的觀點認為,要實現通用人工智能(AGI),就必須將“擴規模”做到極致,更多數據、更多算力、更大模型成為主流追求。但Ashish Vaswani和Niki Parmar卻對此提出了質疑,他們認為模型并非越大越聰明,從算力效率角度看,大模型時代或許已經接近尾聲,小模型時代正悄然來臨。
Rnj-1正是這種理念的實踐成果。這款從零開始訓練的80億參數模型,雖然參數規模遠不及那些動輒萬億的大模型,但它在多個方面展現出了強大的實力。在代碼生成領域,Rnj-1 Base與Instruct在Humaneval+、MBPP+等算法類代碼任務,以及BigCodeBench等更廣泛的編程任務中,表現與最強同規模開源模型相當,甚至在某些情況下超越了更大的GPT OSS 20B。
在智能體能力方面,Rnj-1 Instruct表現尤為突出。在SWE-bench上,它的表現比同尺寸模型強出近一個數量級,接近大規模模型水平。它能夠主動使用性能分析器檢查瓶頸,提出優化方案并進行多輪迭代。在Enamel任務中,Rnj-1 Instruct超越了強力基線;在伯克利函數調用排行榜(BFCL)中,其工具使用能力也領先同類模型。
數學與科學推理能力也是Rnj-1的一大亮點。在AIME'25(高難度高中數學)中,Rnj-1 Instruct的數學能力與最強開源模型匹敵;Rnj-1 Base在Minerva-MATH上與同規模模型保持一致;在GPQA-Diamond(包含生物、物理、化學的高難度題目)上,表現也接近同尺寸模型中的領先水平。
除了性能出色,Rnj-1對量化也非常穩健。這意味著它能在更便宜、更省電的顯卡上快速運行,且模型質量幾乎不受影響。從BF16到FP8再到NVFP4,在顯著提升提示密集型工作負載的token吞吐量的同時,模型質量依然穩定。Token吞吐量數據基于NVIDIA B200 GPU測得,其中KV Cache的數據類型設為FP8,批大小為128。
Rnj-1之所以能取得如此優異的成績,離不開其獨特的技術架構。它采用全局自注意力機制(global self-attention)和YaRN技術。全局自注意力機制就像為模型配備了一雙“全景眼睛”,無論輸入多長,都能一次全部看清;YaRN技術則如同“長距離閱讀輔助器”,讓模型在32k上下文中仍能保持清晰思考。
Essential AI Labs在研發Rnj-1的過程中,秉持著獨特的理念。他們專注于基礎能力的提升,認為強大的預訓練本身就會產生推理能力,而不是依靠后期堆砌強化學習(RL)來補課。在早期預訓練階段,他們就觀察到模型出現反思與探索式推理的跡象,這印證了“強預訓練是下游成功基礎”的判斷。他們還通過數據分類研究,得到了一種新的“帶重復懲罰的數據分布聚類與混合方法”,提升了模型在STEM(科學、技術、工程、數學)方面的能力。在優化器方面,他們證明了Muon優化器相較AdamW更高效,并開發了適配大模型的分片策略。
Rnj-1的推出,不僅為AI領域帶來了新的技術思路,也在開源生態中引發了關注。當前,輕量化開源生態領域正由中國企業主導,而Essential AI的開源平臺以及Rnj-1的推出,旨在推動美國AI開源領域的發展,搶奪在這一領域的話語權。這一舉措有望打破“越大越好”的行業競爭格局,加速AI人人可用時代的到來,讓更多人能夠享受到人工智能帶來的便利。





