在生成式人工智能領(lǐng)域,當(dāng)人們討論“中國(guó)的OpenAI”時(shí),智譜常被視為答案。這家正在港交所沖刺IPO的大模型創(chuàng)業(yè)公司,在招股書中宣稱自己被OpenAI列為全球主要競(jìng)爭(zhēng)對(duì)手。然而,若將目光轉(zhuǎn)向“中國(guó)的Anthropic”,答案或許會(huì)顛覆許多人的認(rèn)知——MiniMax,這家同樣在港交所遞交IPO申請(qǐng)的中國(guó)AI企業(yè),正以獨(dú)特的方式詮釋著對(duì)標(biāo)國(guó)際頂尖玩家的可能性。
從表面看,MiniMax與Anthropic的相似性并不明顯。前者70%收入來(lái)自C端用戶,擁有覆蓋語(yǔ)音、視頻、文本的全模態(tài)模型矩陣;后者則以B端業(yè)務(wù)為主,旗下Claude模型專注于文本與編程領(lǐng)域。但深入技術(shù)內(nèi)核與商業(yè)邏輯,兩家公司卻展現(xiàn)出驚人的共鳴:它們都選擇了一條“無(wú)標(biāo)簽”的發(fā)展路徑,拒絕被簡(jiǎn)單定義。
這種“無(wú)標(biāo)簽”特質(zhì)首先體現(xiàn)在創(chuàng)始人身上。Anthropic的Dario Amodei曾是OpenAI研究副總裁,擁有生物物理學(xué)博士學(xué)位,卻在百度硅谷實(shí)驗(yàn)室和谷歌語(yǔ)音識(shí)別團(tuán)隊(duì)積累經(jīng)驗(yàn);MiniMax的閆俊杰從中科院自動(dòng)化所博士畢業(yè)后,在商湯擔(dān)任副總裁兼研究院副院長(zhǎng),既非光環(huán)加身的創(chuàng)始人,也非“海歸精英”。兩人都缺乏鮮明的個(gè)人標(biāo)簽,更傾向于用技術(shù)細(xì)節(jié)而非宏大敘事定義自己。這種特質(zhì)也滲透到公司層面——MiniMax同時(shí)布局視頻生成、多模態(tài)、Agent等多個(gè)領(lǐng)域,卻難以用單一產(chǎn)品概括業(yè)務(wù);Anthropic雖以編程能力著稱,但其企業(yè)API收入遠(yuǎn)超專項(xiàng)領(lǐng)域,Claude模型在C端的影響力始終不及競(jìng)爭(zhēng)對(duì)手。
“無(wú)標(biāo)簽”在公眾視野中或許意味著辨識(shí)度缺失,但在技術(shù)迭代加速的當(dāng)下,這反而成為一種戰(zhàn)略優(yōu)勢(shì)。當(dāng)meta的Llama被DeepSeek超越、谷歌憑借Gemini 3逆襲時(shí),模型能力的收斂性正削弱“標(biāo)簽化”企業(yè)的護(hù)城河。MiniMax從線性注意力機(jī)制回歸全面注意力機(jī)制,Anthropic放棄“憲法式AI”轉(zhuǎn)向可解釋性研究,這些技術(shù)路線的調(diào)整鮮少伴隨高調(diào)宣傳,卻通過開源社區(qū)的口碑積累著長(zhǎng)期信任。OpenRouter數(shù)據(jù)顯示,MiniMax M2模型日調(diào)用量突破800億,躋身全球前十,其開源版本更以穩(wěn)定性獲得開發(fā)者青睞——這種“潤(rùn)物細(xì)無(wú)聲”的擴(kuò)張方式,與某些依賴社交媒體炒作的模型形成鮮明對(duì)比。
技術(shù)路線的“笨拙”執(zhí)著,是兩家公司的另一重共鳴。MiniMax在2023年將80%算力投入高風(fēng)險(xiǎn)的MoE架構(gòu),經(jīng)歷兩次失敗后才取得突破;Anthropic則在2024年底將Agent能力與模型推理視為戰(zhàn)略重心,推動(dòng)MCP、Skill等標(biāo)準(zhǔn)建立。這種選擇源于對(duì)技術(shù)第一性原理的堅(jiān)持——閆俊杰直言:“技術(shù)驅(qū)動(dòng)和產(chǎn)品驅(qū)動(dòng)無(wú)法共存,我們只能選擇前者。”這種堅(jiān)持在商業(yè)化層面初見成效:MiniMax的B端業(yè)務(wù)毛利率達(dá)69.4%,整體毛利從2023年的-24.7%快速轉(zhuǎn)正至2025年前九個(gè)月的23.3%;Anthropic的研發(fā)投入與營(yíng)收比則從OpenAI的1.56:1優(yōu)化至1.04:1,展現(xiàn)出更健康的財(cái)務(wù)模型。
兩家公司的成長(zhǎng)軌跡折射出AI行業(yè)的新范式。當(dāng)部分企業(yè)通過資本輸血維持項(xiàng)目制收入時(shí),MiniMax的C端產(chǎn)品(如海螺視頻、Talkie)與B端API訂閱已形成可持續(xù)收入流;當(dāng)某些模型依賴“炸裂效果”吸引眼球時(shí),Anthropic的Claude 4.5系列仍以穩(wěn)健迭代鞏固開發(fā)者生態(tài)。這種“慢即是快”的策略,或許正暗合了Scaling Law的深層邏輯——2014年,Dario Amodei與閆俊杰曾在百度共用GPU集群,那時(shí)他們或許未曾想到,十一年后,兩家公司會(huì)以如此相似的方式,在生成式AI的版圖上刻下自己的坐標(biāo)。









