阿里巴巴Qwen團隊發布了Qwen 3.5小模型系列——一系列涵蓋0.8B、2B、4B和9B參數四種尺寸的緊湊型AI模型。該版本還包含了每種尺寸的基礎模型,團隊表示,這些模型旨在更好地支持研究、實驗和實際工業應用。
這一發布凸顯了人工智能發展的一個日益增長的趨勢:以顯著降低的計算成本交付競爭情報。
1.遠超自身能力
頭條新聞是效率。Qwen 3.5-9B——小系列中最大的型號——正在縮小性能差距,而性能則大一個數量級。與模型同時發布的基準數據顯示,Qwen3.5-9B在多項評估中均與甚至超過GPT-OSS-120B,包括GPQA Diamond(81.7對71.5)、HMMT 2025年2月(83.2對76.7)、MMMU-Pro(70.1對59.7)和ERQA(55.5對44.3)。在多個類別中,9B模型的表現也優于體積更大的GPT-OSS-120B——對于一個規模僅為其一小部分的模型來說,這是一個令人矚目的成績。
![]()
在多語言基準測試(MMMLU)中,Qwen3.5-9B得分為81.2,略勝GPT-OSS的兩個變體,并與Qwen3-Next-80B-A3B-Thinking的81.3分相匹配。在文檔識別與理解方面(OmniDocBench v1.5),它以87.7分領先。
2.適用于每個用例的分層架構
Qwen 3.5小型系列設計有明確的分級策略。0.8B和2B型號優化速度和最小資源消耗,適合邊緣設備、設備內推理及延遲敏感應用。4B定位為輕量級AI代理的多功能基礎模型——在能力與占用空間之間實現了極少有同規模模型能達到的平衡。9B是該系列的旗艦緊湊型車型,性能在一年前的這一參數下根本難以想象。
![]()
所有模型均基于Qwen3.5基礎架構構建,該架構具備原生多模態支持、改進的模型架構以及通過強化學習擴展的技術——這一訓練方法在前沿規模模型中帶來了顯著的能力提升。
3.埃隆·馬斯克注意到了
此次發布引起了科技界一個意想不到的角落的關注。埃隆·馬斯克——近幾個月來對OpenAI和Anthropic持批評態度,經常質疑他們模型的能力或方向——簡潔地推薦了Qwen 3.5 Small Series在X上的節目,他簡單地發帖說:“令人印象深刻的智能密度。”
這條評論雖簡短,卻意義重大。“智能密度”——能力與模型規模的比例——正是阿里巴巴Qwen團隊通過本次發布想要展示的內容。對于一個很少錯過質疑競爭對手AI進展機會的人來說,這一贊譽充分反映了更廣泛的AI社區對這些結果的接受度。
但也有人對此持懷疑態度。Anthropic的Dario Amodei最近表示,中國模型在基準測試中表現優異,但在現實世界中表現不如預期。
4.堅持開源策略
基礎模型與指令調優版本同時發布,是阿里巴巴深化圍繞Qwen的開源生態系統的有意舉措。基礎模型為研究人員和開發者提供了基礎,使其能夠針對專門任務進行微調、構建專有應用或進行學術工作——而不受指令調優行為的限制。
更廣泛的含義顯而易見:開源與封閉專有模型之間的差距持續縮小,而中國的人工智能實驗室正發揮著推動這一融合的核心角色。對于評估人工智能部署的企業——尤其是那些存在成本、延遲或數據主權限制的企業——Qwen 3.5小型系列是一個極具吸引力的新選擇。以計算費用的一小部分進行前沿推理已不再是理論上的承諾。它是一個標桿性的結果。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.