開源AI領(lǐng)域迎來(lái)新突破,Jan團(tuán)隊(duì)打造的Jan-v2-VL-Max多模態(tài)大模型正式亮相。這款擁有300億參數(shù)的模型并未走“全能路線”,而是聚焦于解決AI在復(fù)雜任務(wù)中的關(guān)鍵痛點(diǎn)——長(zhǎng)周期執(zhí)行時(shí)的連貫性缺失問(wèn)題。通過(guò)針對(duì)性優(yōu)化,模型有效提升了AI在自動(dòng)化流程中的穩(wěn)定性,為需要持續(xù)推理的場(chǎng)景提供了可靠支撐。
技術(shù)層面,該模型以Qwen3-VL-30B-A3B-Thinking為基礎(chǔ)架構(gòu),創(chuàng)新性地融入LoRA-based RLVR技術(shù)。這項(xiàng)技術(shù)通過(guò)動(dòng)態(tài)調(diào)整多步操作中的參數(shù)權(quán)重,顯著降低了誤差在長(zhǎng)序列任務(wù)中的累積效應(yīng)。實(shí)驗(yàn)數(shù)據(jù)顯示,模型在處理需要數(shù)十步推理的復(fù)雜任務(wù)時(shí),輸出結(jié)果的邏輯斷裂率較傳統(tǒng)方法下降了47%,有效抑制了AI常見(jiàn)的“幻覺(jué)”現(xiàn)象。
在性能驗(yàn)證環(huán)節(jié),Jan-v2-VL-Max在“幻象遞減回報(bào)”專項(xiàng)測(cè)試中表現(xiàn)突出。該測(cè)試通過(guò)模擬持續(xù)12小時(shí)以上的自動(dòng)化任務(wù),重點(diǎn)考察模型在長(zhǎng)時(shí)間運(yùn)行中的穩(wěn)定性。結(jié)果顯示,其得分較Gemini2.5Pro和DeepSeek R1等主流模型高出19%,特別是在UI界面交互、多工具協(xié)同等需要嚴(yán)格邏輯控制的場(chǎng)景中,展現(xiàn)出更強(qiáng)的抗干擾能力。
對(duì)于開發(fā)者群體,Jan團(tuán)隊(duì)提供了靈活的使用方案。用戶既可通過(guò)網(wǎng)頁(yè)端直接調(diào)用模型服務(wù),也能借助vLLM框架在本地設(shè)備部署私有化版本。作為Jan生態(tài)體系的重要成員,該模型特別強(qiáng)化了離線運(yùn)行能力,所有數(shù)據(jù)處理均在本地完成,無(wú)需上傳云端,這為對(duì)數(shù)據(jù)隱私敏感的用戶提供了理想選擇。
目前,模型已開放FP8量化版本下載,地址為:https://huggingface.co/janhq/Jan-v2-VL-max-FP8。該版本在保持92%原始性能的同時(shí),將硬件需求降低至單張消費(fèi)級(jí)顯卡即可運(yùn)行,進(jìn)一步降低了技術(shù)落地門檻。隨著更多開發(fā)者參與測(cè)試,這款專注長(zhǎng)周期任務(wù)優(yōu)化的模型有望在工業(yè)自動(dòng)化、智能客服等領(lǐng)域催生新的應(yīng)用場(chǎng)景。










