智通財經APP獲悉,東吳證券發布研報稱,Google(GOOGL.US)發布Gemma 4系列開源模型,支持Agent推理、多模態(圖像、視頻、音頻)、長上下文及多語言能力。技術聚焦內存效率優化,降低端側部署門檻,擴大設備覆蓋范圍。Apache 2.0協議放開商用,結合Android生態落地,有望驅動端側硬件升級與新一輪換機周期。
東吳證券主要觀點如下:
Google發布Gemma4開源模型,Agent與多模態能力全面增強
4月3日,Google發布新一代開源語言模型Gemma 4,包括E2B、E4B、26B(MoE)及31B(Dense)四個版本。Gemma4全系模型支持以下能力:Agent和復雜推理:支持多步驟推理與復雜邏輯規劃,具備面向Agent場景的自主工作流執行能力,可調用多種工具與API。多模態:所有模型原生支持圖像與視頻處理,并在OCR與圖表理解等任務中表現突出,其中E2B/E4B版本額外支持原生音頻輸入。離線代碼生成:支持本地環境下代碼生成。長上下文:小模型支持128K上下文窗口,大模型最高支持256K上下文,顯著提升長文檔與復雜任務處理能力。多語言能力:已在超過140種語言上進行原生訓練。
技術迭代聚焦內存效率與多模態能力下沉,提升端側任務承載能力并擴大設備覆蓋范圍
從技術演進路徑來看,Gemma 4的迭代圍繞內存、交互能力等端側部署的核心瓶頸進行優化。具體來看,1)在模型架構層面延續Per-Layer Embeddings(PLE)機制,以E2B為例,總參數約5B,但實際推理僅需加載約2B核心權重,其余通過CPU按需調用,這一變化降低終端硬件的使用門檻,使模型可在當前存量中端設備上運行,擴展了端側AI的可觸達設備基數。2)在長上下文能力上,通過“交替式滑動窗口+全局注意力”以及Shared KVCache設計,大幅優化內存使用效率:多數層僅處理局部token,少數層負責全局建模,同時復用緩存避免重復計算,使KV緩存需求較傳統全注意力機制下降74%。在端側內存受限的背景下,這一優化直接決定模型是否具備處理長文檔、多輪對話等真實工作負載的能力,是端側AI走向生產力工具的關鍵。3)在能力邊界上,Gemma 4將視覺+音頻的原生多模態能力首次下沉至2B級模型,為手機端實現理解屏幕、語音交流、跨應用操作等常用功能提供技術基礎。整體來看,該行認為Gemma 4通過架構創新一方面顯著提升端側模型對日常多模態任務的處理能力,另一方面有效降低硬件門檻、擴大可觸達設備范圍,對端側AI產業節奏具有加速意義。
開源協議全面放開疊加Android體系落地,驅動端側硬件升級與新一輪換機周期開啟
從生態角度看,Gemma系列前幾代版本使用Google自定義許可證,對商用場景存在一定限制。本次Gemma 4切換至Apache 2.0協議,在無強制使用政策約束的前提下提供完全商業自由,顯著降低企業采用門檻,有望吸引更多開發者與商業客戶回流。另一方面,Gemma 4將作為Gemini Nano 4的基礎模型,并計劃于年內落地新一代旗艦Android設備,承擔下一代端側模型基座角色。據官方披露,自首代發布以來Gemma累計下載量已超過4億次,擁有超過10萬個衍生模型,初步形成Gemmaverse開發者生態。該行認為在開源協議放寬與Android體系導入的雙重驅動下,Gemma 4所代表的端側模型能力升級有望顯著拓展端側AI能力邊界,并進一步催化終端硬件性能升級與新形態產品創新,帶動新一輪換機周期與品類突破。
風險提示:技術創新不及預期風險,終端需求不足風險,宏觀環境風險。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.