![]()
智東西
編譯 陳佳
編輯 程茜
智東西4月3日消息,今日谷歌DeepMind開(kāi)源發(fā)布Gemma 4系列模型,根據(jù)官方博客,這是谷歌迄今為止最智能的開(kāi)放模型,專(zhuān)為高級(jí)推理和智能體工作流而設(shè)計(jì),實(shí)現(xiàn)了單位參數(shù)下前所未有的智能水平。
其中,31B 模型目前在行業(yè)標(biāo)準(zhǔn)的Arena AI文本排行榜上名列全球開(kāi)放模型第3位,在GPQA Diamond在這一高難度科學(xué)推理基準(zhǔn)上取得85.7%的準(zhǔn)確率,僅次于Qwen3.5 27B的85.8%。
![]()
▲Gemma 4系列模型在多項(xiàng)基準(zhǔn)測(cè)試中的表現(xiàn)對(duì)比(圖源:blog.google)
自第一代模型發(fā)布以來(lái),Gemma的下載量已突破4億次,并衍生出超十萬(wàn)種社區(qū)變體。
Gemma 4系列是基于與Gemini 3相同的技術(shù)體系構(gòu)建的,支持圖像與視頻(以幀序列形式)及文本輸入,小模型版本進(jìn)一步支持音頻理解。該系列共四款型號(hào),E2B、E4B、26B混合專(zhuān)家模型(MoE)與31B 稠密模型,覆蓋從智能手機(jī)、樹(shù)莓派到專(zhuān)業(yè)工作站的完整部署場(chǎng)景,全部采用Apache 2.0協(xié)議開(kāi)放,開(kāi)發(fā)者可自由修改、再分發(fā)并用于商業(yè)產(chǎn)品。
有開(kāi)發(fā)者在社區(qū)評(píng)論中說(shuō):“基準(zhǔn)數(shù)據(jù)一直都在,但沒(méi)人愿意在一個(gè)谷歌隨時(shí)可能改規(guī)則的模型上建立產(chǎn)品。現(xiàn)在它才真的可以部署了。”
![]()
▲Gemma 4官方模型集合頁(yè)面(圖源:Hugging Face)
在硬件覆蓋上,Gemma 4采取“移動(dòng)優(yōu)先”的設(shè)計(jì)理念,同時(shí)兼顧全棧部署需求。E2B與E4B專(zhuān)為邊緣設(shè)備優(yōu)化,可在手機(jī)、樹(shù)莓派、NVIDIA Jetson Orin Nano上完全離線(xiàn)運(yùn)行,延遲趨近于實(shí)時(shí);26B與31B模型的非量化bfloat16權(quán)重可在單張80GB NVIDIA H100 GPU上運(yùn)行,量化版本則支持消費(fèi)級(jí)GPU本地部署。
谷歌DeepMind CEO德米斯·哈薩比斯(Demis Hassabis)將Gemma 4稱(chēng)為“在各自參數(shù)量級(jí)下性能最優(yōu)的全球開(kāi)源模型”。
![]()
▲谷歌DeepMind CEO 德米斯·哈薩比斯(Demis Hassabis)在X平臺(tái)的推文
Hugging Face聯(lián)合創(chuàng)始人克萊門(mén)特·德朗格(Clément Delangue)將Gemma 4模型發(fā)布視為“本地AI正在迎來(lái)關(guān)鍵發(fā)展階段”,并認(rèn)為開(kāi)放模型與可本地部署能力將成為未來(lái)AI的重要方向。
![]()
▲Hugging Face聯(lián)合創(chuàng)始人克萊門(mén)特·德朗格(Clément Delangue)在X平臺(tái)的推文
此次Gemma 4的發(fā)布,被多家外媒視為谷歌重返開(kāi)源主戰(zhàn)場(chǎng),美國(guó)模型陣營(yíng)迎來(lái)關(guān)鍵補(bǔ)位。
Hugging Face地址:https://huggingface.co/collections/google/gemma-4
官方技術(shù)博客:https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
一、4大模型配置,性能表現(xiàn)超越參數(shù)規(guī)模達(dá)其20倍的模型
在官方技術(shù)博客中,谷歌說(shuō)Gemma 4實(shí)現(xiàn)了單位參數(shù)下前所未有的智能水平,能在更低計(jì)算開(kāi)銷(xiāo)下實(shí)現(xiàn)更強(qiáng)性能。
該系列并非延續(xù)單純擴(kuò)大參數(shù)規(guī)模的路徑,而是通過(guò)架構(gòu)設(shè)計(jì)與訓(xùn)練優(yōu)化的系統(tǒng)性改進(jìn),使開(kāi)發(fā)者以更低硬件成本獲得接近前沿模型的能力。
Gemma 4提供四種規(guī)模配置:E2B、E4B、26B混合專(zhuān)家模型(MoE)以及31B稠密模型。
31B 模型目前在行業(yè)標(biāo)準(zhǔn)的Arena AI文本排行榜上名列全球開(kāi)放模型第3位,26B模型則名列第6位。在榜單中,Gemma 4的表現(xiàn)甚至超越了規(guī)模達(dá)其20倍的模型。對(duì)于開(kāi)發(fā)者而言,這種單位參數(shù)智能水平的新高度意味著只需極低的硬件開(kāi)銷(xiāo),即可獲得前沿模型級(jí)別的能力。
![]()
▲Gemma 4 在Arena用戶(hù)偏好排行榜中的參數(shù)量對(duì)比(左)與用戶(hù)偏好(右)(圖源:blog.google)
架構(gòu)層面,26B MoE模型采用“按需激活參數(shù)”的設(shè)計(jì),推理時(shí)僅激活約3.8B活躍參數(shù),在顯著降低算力需求的同時(shí)保持高性能輸出;E2B與E4B小模型則引入Per-Layer Embeddings(PLE)機(jī)制,為解碼器每一層引入獨(dú)立的embedding表,從而增強(qiáng)各層的表達(dá)能力并提升參數(shù)利用效率,使模型在不顯著增加計(jì)算負(fù)擔(dān)的前提下獲得更強(qiáng)的表征能力。
在注意力機(jī)制上,Gemma 4交替使用局部滑動(dòng)窗口注意力與全局注意力機(jī)制,并在最后一層采用全局注意力,在保證長(zhǎng)上下文能力的同時(shí)有效控制內(nèi)存消耗。
在上下文處理能力上,邊緣機(jī)型配備128K的上下文窗口,而更大型號(hào)則提供256K的上下文窗口,允許用戶(hù)在一次提示中處理存儲(chǔ)庫(kù)或長(zhǎng)文檔。
這套架構(gòu)優(yōu)化的實(shí)際效果已在具體應(yīng)用中得到驗(yàn)證。谷歌在博客中列舉了兩個(gè)典型案例:INSAIT基于Gemma系列開(kāi)發(fā)了保加利亞語(yǔ)優(yōu)先大模型BgGPT,耶魯大學(xué)則與谷歌合作推進(jìn)Cell2Sentence-Scale項(xiàng)目,探索癌癥治療新路徑。這些案例基于對(duì)Gemma模型的微調(diào)與適配,體現(xiàn)出Gemma在垂直領(lǐng)域應(yīng)用中的潛力。
二、原生支持圖像、視頻輸入,可處理140種語(yǔ)言
Gemma 4不再局限于文本生成,而是從底層架構(gòu)出發(fā),將多模態(tài)理解與智能體(Agent)調(diào)用能力原生整合進(jìn)同一模型體系。
全系四款模型均原生支持圖像與視頻輸入,其中視頻以幀序列形式處理,在OCR、圖表理解等視覺(jué)任務(wù)中表現(xiàn)較為突出;E2B與E4B進(jìn)一步集成原生音頻能力,支持語(yǔ)音識(shí)別與理解。
在視覺(jué)處理精度上,模型支持可變分辨率與可配置token預(yù)算,官方提供70至1120 token等多檔配置:低預(yù)算適用于分類(lèi)與視頻幀理解等速度敏感場(chǎng)景,高預(yù)算則用于OCR、文檔解析與細(xì)粒度圖像分析。
Gemma 4將函數(shù)調(diào)用(function calling)與結(jié)構(gòu)化輸出能力直接訓(xùn)練進(jìn)模型本身,而非依賴(lài)提示工程引導(dǎo)。模型可原生輸出結(jié)構(gòu)化JSON,支持多工具調(diào)用與多輪任務(wù)執(zhí)行,使其能夠穩(wěn)定參與自動(dòng)化工作流,有效降低開(kāi)發(fā)者構(gòu)建智能體系統(tǒng)的工程成本。
在代碼能力上,Gemma 4支持高質(zhì)量離線(xiàn)代碼生成,可在本地環(huán)境運(yùn)行,被定位為“本地優(yōu)先”的AI編程助手。在多步推理與復(fù)雜指令執(zhí)行任務(wù)中,其表現(xiàn)較上一代顯著提升。此外,模型原生支持超過(guò)140種語(yǔ)言。
三、采用Apache 2.0許可證開(kāi)源,可在手機(jī)上離線(xiàn)運(yùn)行
技術(shù)能力之外,Gemma 4的另一核心變化在于開(kāi)放策略的調(diào)整。谷歌此次全面采用Apache 2.0許可證,取代此前的自定義授權(quán)方式,允許開(kāi)發(fā)者自由修改、再分發(fā)及商業(yè)化部署,賦予其對(duì)模型、數(shù)據(jù)與基礎(chǔ)設(shè)施更高的控制權(quán)。
![]()
▲Apache License 2.0開(kāi)源協(xié)議核心條款說(shuō)明(圖源:devmandan)
在開(kāi)發(fā)與部署層面,Gemma 4強(qiáng)調(diào)“從實(shí)驗(yàn)到生產(chǎn)”的完整鏈路支持。開(kāi)發(fā)者可通過(guò)Google AI Studio(支持31B與26B MoE)與AI Edge Gallery(支持E4B與E2B)快速體驗(yàn)?zāi)P湍芰Γ部稍贏ndroid Studio中結(jié)合Agent模式進(jìn)行移動(dòng)應(yīng)用開(kāi)發(fā)。
在工具鏈適配上,Gemma 4發(fā)布首日即支持Hugging Face(含Transformers、TRL、Transformers.js、Candle)、vLLM、llama.cpp、MLX、Ollama、NVIDIA NIM和NeMo、LM Studio、Unsloth、SGLang等主流框架,模型權(quán)重通過(guò)Hugging Face、Kaggle與Ollama開(kāi)放下載。
此外,Gemma 4針對(duì)NVIDIA GPU(涵蓋Jetson至Blackwell架構(gòu))、AMD GPU(ROCm生態(tài))以及谷歌自研Trillium與Ironwood TPU進(jìn)行了深度優(yōu)化,實(shí)現(xiàn)跨硬件平臺(tái)的高效適配。云端方面,可通過(guò)Vertex AI、Cloud Run、GKE及TPU加速服務(wù)等多種方案擴(kuò)展至生產(chǎn)規(guī)模。
四、實(shí)測(cè)多模態(tài)復(fù)雜任務(wù)效果一般
知名AI開(kāi)發(fā)者Simon Willison在實(shí)際測(cè)試后指出,Gemma 4在“單位參數(shù)能力”(intelligence per parameter)上的表現(xiàn)尤為突出,這一指標(biāo)反映出模型在有限參數(shù)規(guī)模下實(shí)現(xiàn)更高性能的能力。他認(rèn)為,相較于持續(xù)擴(kuò)大模型體量,如何在既有參數(shù)約束下提升性能,正逐漸成為當(dāng)前模型優(yōu)化的重要方向。
Willison以“騎自行車(chē)的鵜鶘”這一復(fù)雜視覺(jué)生成任務(wù)為例,對(duì)不同規(guī)模模型進(jìn)行對(duì)比測(cè)試。結(jié)果顯示,從2B到26B參數(shù)規(guī)模,模型生成質(zhì)量呈現(xiàn)出明顯的遞進(jìn)關(guān)系:小模型在復(fù)雜結(jié)構(gòu)表達(dá)上仍存在不足,而中等規(guī)模模型已能夠生成語(yǔ)義較為完整的圖像。這一現(xiàn)象表明,盡管小模型在效率上取得進(jìn)展,但在多模態(tài)復(fù)雜任務(wù)中仍對(duì)模型規(guī)模存在一定依賴(lài)。
![]()
▲Willison以“騎自行車(chē)的鵜鶘”對(duì)該模型從2B到4B再到26B-A4B的測(cè)試
Willison提到,該系列模型已不僅限于文本處理,還支持圖像及視頻(以幀序列形式)輸入與音頻。其中,E2B與E4B等小參數(shù)模型已具備語(yǔ)音理解能力。不過(guò),從實(shí)際開(kāi)發(fā)環(huán)境來(lái)看,這些能力尚未完全落地,本地推理框架對(duì)音頻等輸入形式的支持仍在完善過(guò)程中。
Hugging Face在Gemma 4技術(shù)解讀中指出,與以往主要依賴(lài)云端部署的超大模型不同,Gemma 4系列覆蓋從2B到31B的多種參數(shù)規(guī)模,使其既可應(yīng)用于數(shù)據(jù)中心,也能夠運(yùn)行在本地設(shè)備乃至邊緣硬件上,體現(xiàn)出模型向“端側(cè)可用”的發(fā)展趨勢(shì)。
Gemma 4通過(guò)結(jié)構(gòu)優(yōu)化與機(jī)制創(chuàng)新,使小參數(shù)模型在保持資源消耗可控的前提下實(shí)現(xiàn)能力提升。以E2B、E4B為代表的小模型,不僅支持多模態(tài)輸入,還通過(guò)結(jié)構(gòu)優(yōu)化提升參數(shù)利用效率,使其在保持較低資源消耗的同時(shí)具備較強(qiáng)任務(wù)能力。
五、編程、高難度推理表現(xiàn),接近Qwen3.5
從Arena榜單的對(duì)比結(jié)果來(lái)看,Gemma 4在文本類(lèi)任務(wù)中的整體能力較上一代實(shí)現(xiàn)了全面提升。無(wú)論是在寫(xiě)作、編程、復(fù)雜指令執(zhí)行,還是多輪對(duì)話(huà)與長(zhǎng)文本理解等場(chǎng)景中,其表現(xiàn)均明顯優(yōu)于Gemma 3和Gemma 2,并在多個(gè)維度接近當(dāng)前開(kāi)源模型的第一梯隊(duì)。
具體來(lái)看,Gemma 4在“專(zhuān)家級(jí)文本理解”和“代碼生成”等高難度任務(wù)上提升尤為顯著,同時(shí)在創(chuàng)意寫(xiě)作、復(fù)雜提示處理等場(chǎng)景中也表現(xiàn)出更穩(wěn)定的輸出質(zhì)量。這種全維度外擴(kuò)的能力曲線(xiàn),意味著該模型不再只在個(gè)別任務(wù)上優(yōu)化,而是在通用文本能力上實(shí)現(xiàn)整體提升。
![]()
▲Gemma系列模型在Arena文本類(lèi)別排名對(duì)比(圖源:Arena.ai)
根據(jù)獨(dú)立AI評(píng)測(cè)媒體ai.rs對(duì)Gemma 4、Qwen與Llama的對(duì)比評(píng)測(cè)分析,此次升級(jí)被認(rèn)為是開(kāi)源模型領(lǐng)域“單代提升幅度最大的一次”,其進(jìn)步并非漸進(jìn)式優(yōu)化,而是跨越式躍升。
尤其在編程能力上,Gemma 4的Codeforces ELO評(píng)分相較上一代Gemma 3的110分(接近勉強(qiáng)可用水平),大幅提升至2150分(接近競(jìng)技編程專(zhuān)家級(jí))。
![]()
▲Gemma 4編碼能力測(cè)試(圖源:ai.rs)
ai.rs進(jìn)一步指出,在高難度推理與代碼生成等關(guān)鍵任務(wù)上,Gemma 4整體表現(xiàn)達(dá)到當(dāng)前開(kāi)源模型中的領(lǐng)先水平。
獨(dú)立AI基準(zhǔn)測(cè)試機(jī)構(gòu)Artificial Analysis發(fā)布的GPQA Diamond排行榜顯示,谷歌Gemma 4 31B模型在高難度科學(xué)推理基準(zhǔn)上取得85.7%的準(zhǔn)確率,位列榜單前列,與Qwen3.5 27B(85.8%)表現(xiàn)接近。
該基準(zhǔn)包含198道由博士級(jí)專(zhuān)家編寫(xiě)的“防搜索”問(wèn)題,涵蓋生物、化學(xué)和物理領(lǐng)域,要求模型具備真正的研究生級(jí)科學(xué)推理能力,而非依賴(lài)外部知識(shí)檢索。相比之下,人類(lèi)領(lǐng)域?qū)<业钠骄鶞?zhǔn)確率約為65%。
值得注意的是,Gemma 4系列在參數(shù)效率上表現(xiàn)出色:其26B和31B變體在得分與參數(shù)量的對(duì)比圖中落入高效象限,證明Gemma 4以相對(duì)較小的參數(shù)規(guī)模實(shí)現(xiàn)了高性能。
![]()
▲GPQA Diamond基準(zhǔn)測(cè)試結(jié)果(柱狀圖)及得分與參數(shù)量關(guān)系(散點(diǎn)圖)(圖源:Artificial Analysis)
結(jié)語(yǔ):從“能用”到“可部署”, 效率、成本與生態(tài)的綜合較量
從此次Gemma 4的發(fā)布來(lái)看,其意義并不只在于單一指標(biāo)的提升,而是性能、部署方式與授權(quán)策略的同步變化。Gemma 4一方面通過(guò)架構(gòu)優(yōu)化提升參數(shù)利用效率,小模型能力持續(xù)逼近中等規(guī)模模型,另一方面多模態(tài)能力與本地部署能力同步推進(jìn),在部分場(chǎng)景下減少對(duì)云端算力的依賴(lài)。
從更宏觀的視角來(lái)看,開(kāi)源大模型競(jìng)爭(zhēng)已不再局限于性能指標(biāo),而是轉(zhuǎn)向效率、成本與生態(tài)的綜合較量。誰(shuí)能在“好用、可部署、可擴(kuò)展”之間取得平衡,誰(shuí)才更有可能在下一階段占據(jù)主導(dǎo)地位。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.