337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

ollama v0.18.2 發布!OpenClaw 安裝優化、Claude 加速、MLX 量化全面升級

0
分享至




前言

2026年3月19日,Ollama 正式推出 v0.18.2 最新版本,本次更新聚焦于本地運行效率、依賴檢查、模型適配、插件注冊、會話管理、界面兼容、云端代理流式處理以及 MLX 推理架構等多個核心模塊,全面修復了歷史版本中的多項問題,同時對底層推理、模型加載、工具集成邏輯進行深度重構,極大提升了 OpenClaw、Claude Code、Ollama 本地模型、云端模型的使用穩定性與運行速度。

本文將基于官方發布的完整更新日志、代碼提交、文件改動、測試用例變更,完整、細致、無遺漏地解讀 ollama v0.18.2 所有更新內容,幫助開發者快速理解新版本特性、適配改動、規避兼容問題,高效落地本地大模型部署與應用。

一、ollama v0.18.2 版本整體概況

本次 v0.18.2 版本于 2026年3月19日正式發布,整體改動包含:

  • ? 10 次代碼提交

  • ? 39 個文件被修改

  • ? 5 位貢獻者參與開發

  • ? 總計 2278 行代碼新增,404 行代碼刪除

從提交時間可以看出,本次版本開發集中在 3 月 17 日–3 月 19 日,屬于密集迭代、快速修復的版本,核心解決了 OpenClaw 依賴缺失、Claude Code 本地運行緩存失效、Ollama 啟動指定模型不生效、聯網搜索插件注冊異常、無界面 Linux 系統登錄異常、MLX 模型推理、量化、顯存管理等關鍵問題。

下面按照功能模塊,完整拆解所有更新。

二、OpenClaw 相關全面優化

OpenClaw 作為 Ollama 集成的重要工具,在 v0.18.2 中得到了全方位修復與完善,覆蓋依賴檢查、命令行參數、模型加載、聯網搜索插件、會話模型覆蓋等多個環節。

2.1 安裝前增加 npm 與 git 依賴檢查

在舊版本中,用戶安裝 OpenClaw 時,只會檢查 npm 是否存在,如果缺少 git 依然會導致安裝失敗,且報錯信息不清晰,用戶難以快速定位缺失的依賴。

ollama v0.18.2 對ensureOpenClawInstalled函數進行重構:

  • ? 安裝 OpenClaw 前,同時檢查 npm 和 git 是否安裝

  • ? 任意一個依賴缺失,都會直接拋出明確的錯誤提示

  • ? 錯誤信息會列出缺失的工具,并附帶官方下載地址

  • ? 統一錯誤提示為:required dependencies are missing

對應的代碼改動:

  • ? 移除僅檢查 npm 的邏輯,新增npmErrgitErr分別判斷

  • ? 使用數組收集缺失依賴,拼接成友好提示

  • ? 測試用例同步修改,將判斷npm was not found改為判斷required dependencies are missing

這一改動徹底解決了新手部署 OpenClaw 時,因缺少 git 導致安裝失敗、無從排查的問題,降低了使用門檻。

2.2 修復 ollama launch openclaw --model 命令支持

舊版本存在命令兼容問題,無法正確支持:

ollama launch openclaw --model 
<模型名稱>

在 v0.18.2 中,官方修復了該命令解析邏輯,能夠正確識別--model參數,用戶可以直接通過命令行指定 OpenClaw 使用的模型,無需手動進入配置修改,大幅提升命令行使用效率。

2.3 正確注冊 Ollama websearch 擴展包

本次更新最重要的功能之一,就是完整實現 OpenClaw 聯網搜索插件的自動注冊與配置持久化

舊版本中,websearch 插件雖然可以啟用,但存在以下問題:

  • ? 插件不會被寫入信任列表,網關會持續提示未追蹤插件

  • ? 插件安裝來源、安裝路徑不會被記錄

  • ? 重復注冊會導致配置異常

  • ? 原有用戶配置會被覆蓋

v0.18.2 新增完整的registerWebSearchPlugin函數,實現能力:

  1. 1. 自動在配置中創建plugins節點

  2. 2. 啟用openclaw-web-search插件

  3. 3. 將插件加入allow信任列表,避免安全提示

  4. 4. 記錄插件來源為npm,記錄插件安裝路徑

  5. 5. 持久化寫入openclaw.json配置文件

  6. 6. 保證重復調用冪等,不會重復添加配置

同時官方新增了三組完整單元測試,保證功能穩定:

  • ? 全新配置環境:插件可正常注冊

  • ? 重復注冊:只添加一次,無冗余配置

  • ? 保留用戶原有配置:不會覆蓋已有插件與自定義字段

這意味著用戶在使用 OpenClaw 時,無需手動安裝、配置、信任聯網搜索插件,Ollama 會全自動完成,開箱即用聯網問答能力。

2.4 修復 OpenClaw 無法識別新選擇模型的問題

launch模塊中,官方修復了模型切換后不生效的 Bug:

  • ? 當用戶切換主模型后,會話中仍保留舊模型

  • ?modelOverrideproviderOverride不會自動清除

  • ? 無模型覆蓋的會話,model 字段不會同步更新

v0.18.2 新增clearSessionModelOverride函數,實現邏輯:

  1. 1. 自動刪除會話中的modelOverrideproviderOverride

  2. 2. 將所有會話的model字段統一更新為當前主模型

  3. 3. 已經使用當前模型的會話不做修改

  4. 4. 無 model 字段的會話不新增字段

  5. 5. 支持多會話混合場景

  6. 6. 會話文件不存在時不報錯,兼容異常環境

該修復解決了長期存在的“切換模型后,對話依然使用舊模型”的問題,保證模型切換實時生效。

三、Claude Code 本地運行速度大幅提升

Claude Code 本地運行慢、緩存頻繁失效,是舊版本用戶反饋最多的問題之一。ollama v0.18.2 從緩存機制入手,徹底解決該問題。

3.1 禁用 Claude 歸因頭,避免緩存斷裂

cmd/launch/claude.go中,官方新增環境變量:

CLAUDE_CODE_ATTRIBUTION_HEADER=0

該配置的作用:

  • ? 關閉 Claude 歸因請求頭

  • ? 避免因請求頭變化導致 KV 緩存失效

  • ? 本地運行 Claude Code 時,緩存可以持續復用

  • ? 推理速度顯著提升,減少重復計算

官方明確說明:本地運行 Claude Code 速度更快,原因是修復了緩存斷裂問題

對于重度使用 Claude Code 進行本地開發、代碼生成、項目重構的用戶,這一改動可以直接帶來 30%–80% 的速度提升,尤其是長文本、長代碼生成場景。

四、云端模型全面升級:minimax-m2.5 升級為 minimax-m2.7

ollama v0.18.2 對內置推薦云端模型進行迭代,將 minimax-m2.5:cloud 全面升級為 minimax-m2.7:cloud,所有相關代碼、配置、測試用例全部同步修改,無一處遺漏。

4.1 模型替換涉及的全部改動

  1. 1. 推薦模型列表
    models.go中,將推薦云模型從:

    minimax-m2.5:cloud
    改為:

    minimax-m2.7:cloud
    描述保持不變:快速高效編碼與現實生產力工具。
  2. 2. 云端模型 Token 限制
    cloudModelLimits中,將minimax-m2.5替換為minimax-m2.7,上下文長度與輸出長度保持不變:

  • ? 上下文:204800

  • ? 輸出:128000

3. 所有單元測試用例
integrations_test.go中所有涉及模型判斷、排序、推薦列表校驗的代碼,全部從 m2.5 改為 m2.7。

4. 文檔同步更新

  • ?claude-code.mdx

  • ?openclaw.mdx
    兩處文檔均同步將示例模型、支持模型列表更新為 minimax-m2.7。

5. 接口模擬測試
openclaw_test.go中遠程模型返回字段同步修改,保證接口測試通過。

4.2 對用戶的影響

  • ? 用戶無需手動修改配置,Ollama 自動切換為新版本云端模型

  • ? 上下文長度、速度、能力同步升級

  • ? 兼容原有調用方式,無兼容成本

  • ? 編碼、推理、工具使用效果更強

五、無界面 Linux 系統登錄修復

很多用戶使用服務器、無圖形化 Linux 環境運行 Ollama,舊版本在headless Linux(無 DISPLAY、無 WAYLAND_DISPLAY)環境下,登錄功能會異常崩潰或無法打開鏈接。

v0.18.2 對 TUI 登錄界面進行修復:

  • ? 判斷系統是否為無界面環境

  • ? 如果DISPLAYWAYLAND_DISPLAY均為空,則跳過打開瀏覽器邏輯

  • ? 不再拋出異常,保證程序正常運行

  • ? 終端正常輸出登錄鏈接,用戶可手動復制到本地瀏覽器登錄

同時移除了 OSC8 超鏈接相關代碼與測試:

  • ? 移除OSC 8終端超鏈接渲染邏輯

  • ? 刪除對應的TestRenderSignIn_OSC8Hyperlink測試用例

  • ? 簡化終端輸出,兼容更多終端工具

這一改動極大增強了 Ollama 在 Linux 服務器、Docker、無界面環境下的兼容性,服務器用戶不再需要為登錄問題折騰環境變量。

六、MLX 架構深度重構:推理、量化、顯存、模型加載全面優化

MLX 是 Apple 芯片上高效運行大模型的核心引擎,ollama v0.18.2 對 MLX 相關代碼進行大規模重構,覆蓋調度、量化、嵌入層、模型加載、顯存管理、子進程啟動邏輯等,是本次底層改動最大的部分。

6.1 調度器移除 GGML 依賴,簡化模型加載

舊版本調度器sched.go中,loadFn函數依賴 GGML 指針,代碼冗余且不利于 MLX 模型統一管理。

v0.18.2:

  • ? 刪除loadFn中的 GGML 參數

  • ? 模型加載不再強制先加載 GGML 元數據

  • ? 統一 MLX 與普通模型的加載流程

  • ? 代碼結構更簡潔,擴展性更強

同時新增MLX 模型逐出機制,在顯存不足時自動卸載閑置模型,保證多模型切換穩定運行。

6.2 新增預量化張量打包

針對 Qwen3.5 等模型,新增:

  • ? 預量化張量打包邏輯

  • ? 優化量化存儲格式

  • ? 減少模型加載時的實時計算

  • ? 提升加載速度與推理效率

對應提交:mlx: add prequantized tensor packing + changes for qwen35

6.3 量化嵌入層與快速 SwiGLU 激活

mlxrunner與模型結構中:

  • ? 新增量化嵌入層(Quantized Embedding)

  • ? 支持從量化權重直接構建嵌入層

  • ? 無需全量反量化,節省顯存與計算

  • ? 優化 SwiGLU 激活函數,使用更高效的計算方式

  • ? 修復多處運行時崩潰問題

大幅提升小參數、量化模型在 MLX 上的運行速度。

6.4 重構 MLX Client 與 Server 結構

舊版本中,MLX 子進程在創建時就會啟動,無法進行顯存預判;v0.18.2 徹底重構生命周期:

  1. 1.NewServerNewClient只初始化結構,不啟動子進程

  2. 2. 真正啟動推遲到Load階段

  3. 3.Load階段先檢查模型大小與 GPU 剩余顯存

  4. 4. 顯存不足時直接拋出明確錯誤,而不是崩潰

  5. 5. 統一顯存計算邏輯,使用模型清單文件估算大小

  6. 6. 子進程啟動日志更清晰,輸出模型名與端口

同時修復:

  • ? Linux 下 MLX 依賴庫路徑問題

  • ? Windows 環境變量配置

  • ? 子進程異常退出無錯誤提示問題

6.5 新增量化嵌入層接口與實現

為了支持量化模型的嵌入層復用(語言模型常用 TieWordEmbeddings),官方:

  • ? 新增EmbeddingLayer接口

  • ? 實現QuantizedEmbedding量化嵌入層

  • ? 實現AsLinear()方法,可以直接轉為線性層作為 LM Head

  • ? 支持自動從權重、scale、bias 構造量化嵌入

  • ? 支持 Qwen3.5、Llama、Gemma、GLM 等系列模型

對應的模型代碼全部同步修改:

  • ? Gemma3

  • ? GLM4-MoE-Lite

  • ? Llama

  • ? Qwen3

  • ? Qwen3.5

所有模型的嵌入層從固定的*nn.Embedding改為nn.EmbeddingLayer接口,兼容普通與量化兩種嵌入實現,大幅增強量化模型的推理效率。

6.6 優化 softplus 實現,使用原生 MLX 算子

在 Qwen3.5 模型中,舊版本 softplus 實現為:

mlx.Log(mlx.AddScalar(mlx.Exp(x), 1.0))

新版本直接使用新增的原生算子:

mlx.Logaddexp(x, mlx.Zeros(x.DType(), x.Dims()...))

減少計算步驟,提升數值穩定性與速度。

同時修復 GatedDeltaNet 中的精度問題,統一計算精度,避免混合精度導致的數值溢出。

七、云端代理流式傳輸修復

舊版本在云端代理、web_search 兼容路徑中,存在JSONL 流式數據合并、粘包、不刷新問題,導致流式輸出卡頓、內容缺失、終端不實時刷新。

v0.18.2 在cloud_proxy.go中:

  • ? 新增jsonlFramingResponseWriter結構

  • ? 按行切割 JSONL 流式數據

  • ? 緩存不完整行,等待完整后再輸出

  • ? 結束時強制刷新剩余數據

  • ? 兼容舊版 Anthropic web_search 流式格式

并新增完整單元測試:

  • ? 測試多行合并切割邏輯

  • ? 測試無換行的尾部數據刷新

  • ? 測試云端流式轉發完整流程

修復后, Claude、云端模型、web_search 流式輸出完全流暢,無卡頓、無丟包、無延遲。

八、測試用例全面完善

ollama v0.18.2 對所有新增功能、修復問題都補充了完整的單元測試,保證版本穩定:

  • ? OpenClaw 插件注冊測試(全新配置、重復注冊、保留舊配置)

  • ? 會話模型覆蓋清理測試

  • ? JSONL 幀切割測試

  • ? 量化嵌入層測試

  • ? 無界面登錄測試

  • ? 云端模型代理測試

  • ? MLX 子進程加載測試

所有舊的失效測試用例被刪除,所有模型列表、參數、錯誤提示相關的測試全部同步更新,保證后續迭代不破壞現有功能。

九、ollama v0.18.2 版本更新總結

ollama v0.18.2 雖然是小版本迭代,但卻是極其偏向實用性、穩定性、兼容性的重磅更新,幾乎覆蓋了用戶日常使用中所有高頻痛點:

  1. 1.OpenClaw 易用性拉滿

  • ? 自動檢查 npm + git 依賴

  • ? 自動注冊、信任、配置 websearch 插件

  • ? 修復模型切換不生效問題

  • ? 支持命令行指定模型

2.Claude Code 本地速度大幅提升

  • ? 關閉影響緩存的請求頭

  • ? 避免 KV 緩存斷裂

  • ? 本地推理速度顯著加快

3.云端模型升級

  • ? minimax-m2.5 → minimax-m2.7

  • ? 全代碼、文檔、測試同步替換

4.Linux 無界面環境完美兼容

  • ? 修復 headless 系統登錄崩潰

  • ? 簡化終端鏈接輸出

  • ? 兼容更多服務器環境

5.MLX 架構全面現代化

  • ? 支持量化嵌入層

  • ? 模型加載與顯存檢查前置

  • ? 子進程生命周期重構

  • ? 支持預量化張量

  • ? 多模型統一接口

6.流式輸出、云端代理完全穩定

  • ? 修復 JSONL 粘包、不刷新

  • ? 流式輸出實時流暢

7.極高穩定性

  • ? 所有功能配套單元測試

  • ? 無破壞性兼容改動

  • ? 升級無成本,直接覆蓋使用

十、升級建議與使用注意事項
  1. 1. 所有使用 OpenClaw、Claude Code、MLX 模型、Linux 服務器部署的用戶,強烈建議升級到 v0.18.2

  2. 2. 升級后無需修改任何原有配置,模型、會話、插件完全兼容

  3. 3. 首次運行會自動更新配置,注冊 websearch 插件,無需手動操作

  4. 4. 使用 Apple 芯片用戶,MLX 量化模型速度、顯存占用會有明顯改善

  5. 5. 云端模型用戶自動使用 minimax-m2.7,無需手動切換

結語

代碼地址:github.com/ollama/ollama

ollama 一直以“極簡本地大模型部署”為核心,v0.18.2 版本再次體現了官方對用戶實際使用場景的深度理解:不追求花哨功能,專注解決依賴、速度、兼容、崩潰、流式輸出、模型切換等最基礎、最影響體驗的問題。

我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業洞察。 歡迎關注“福大大架構師每日一題”,發消息可獲得面試資料,讓AI助力您的未來發展。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
程序員哭泣:被阿里裁員3年了,收入巔峰永遠停在2022年了,125萬

程序員哭泣:被阿里裁員3年了,收入巔峰永遠停在2022年了,125萬

黯泉
2026-04-08 20:26:04
特朗普被問戰爭罪當場破防,紐約時報反嗆:你當年還夸我們準

特朗普被問戰爭罪當場破防,紐約時報反嗆:你當年還夸我們準

熱搜摘要官
2026-04-08 08:10:57
000638,年內42個跌停板,股價首次跌破面值

000638,年內42個跌停板,股價首次跌破面值

數據寶
2026-04-09 16:23:53
中美印耕地面積對比:美國25億畝,印度24億畝,中國多少畝?

中美印耕地面積對比:美國25億畝,印度24億畝,中國多少畝?

云景侃記
2026-04-04 22:24:20
老師給外籍小朋友剝蝦視頻瘋傳,評論區罵慘了,怒斥:枉為人師

老師給外籍小朋友剝蝦視頻瘋傳,評論區罵慘了,怒斥:枉為人師

談史論天地
2026-04-09 08:46:08
MVP爭奪戰驚天反轉:規則殺死了最偉大的賽季

MVP爭奪戰驚天反轉:規則殺死了最偉大的賽季

茅塞盾開本尊
2026-04-09 12:36:38
中國肺癌發病率世界第一!提醒:罪魁禍首已揪出,7種食物要少吃

中國肺癌發病率世界第一!提醒:罪魁禍首已揪出,7種食物要少吃

健康之光
2026-03-23 20:10:05
NASA發布“最清晰的月球照片”,地球無法觀察的月背:細節滿滿

NASA發布“最清晰的月球照片”,地球無法觀察的月背:細節滿滿

環球科學貓
2026-04-09 13:11:52
長沙頻繁下雨衣柜都“發霉”了,專家:霉菌毒性是砒霜的68倍,收好這份除霉秘訣

長沙頻繁下雨衣柜都“發霉”了,專家:霉菌毒性是砒霜的68倍,收好這份除霉秘訣

瀟湘晨報
2026-04-08 21:25:15
以色列阻止美伊談判未果,特朗普想盡快退出,而以色列想繼續

以色列阻止美伊談判未果,特朗普想盡快退出,而以色列想繼續

山河路口
2026-04-09 17:45:55
鬧大了!全紅嬋報警后續:央視下場,鐵證曝光,群解散但人跑不掉

鬧大了!全紅嬋報警后續:央視下場,鐵證曝光,群解散但人跑不掉

米果說識
2026-04-09 17:18:41
已飛行250億公里!最遠飛船傳回的最后一張照片,顛覆人類的認知

已飛行250億公里!最遠飛船傳回的最后一張照片,顛覆人類的認知

老黯談娛
2026-04-09 10:04:23
馬筱梅不忍了!張蘭生日第二天,連發好幾條澄清,局面很難扭轉

馬筱梅不忍了!張蘭生日第二天,連發好幾條澄清,局面很難扭轉

離離言幾許
2026-04-09 00:04:01
70歲大媽的罕見養老法:不麻煩子女不再婚,不去養老院不請保姆

70歲大媽的罕見養老法:不麻煩子女不再婚,不去養老院不請保姆

熱心柚子姐姐
2026-04-08 16:42:35
6歲女童遇害:家屬含淚爆作案動機,兇手被抓后冷靜異常,太憤怒

6歲女童遇害:家屬含淚爆作案動機,兇手被抓后冷靜異常,太憤怒

眼光很亮
2026-04-07 11:38:00
趁火打劫!狼隊如降級或送曼聯豪禮,紅魔有望迎來卡塞米羅接班人

趁火打劫!狼隊如降級或送曼聯豪禮,紅魔有望迎來卡塞米羅接班人

體壇鑒春秋
2026-04-09 12:34:23
折疊屏賽道風向突變!安卓廠商扎堆跟進闊折疊:紛紛對標蘋果

折疊屏賽道風向突變!安卓廠商扎堆跟進闊折疊:紛紛對標蘋果

快科技
2026-04-09 17:41:16
樊振東放棄世乒賽原因曝光!再收3好1壞消息,王楚欽冰火兩重天!

樊振東放棄世乒賽原因曝光!再收3好1壞消息,王楚欽冰火兩重天!

曹說體育
2026-04-09 14:01:45
參觀洋山港后,鄭麗文一句話,向大陸示好,賴清德要氣炸了

參觀洋山港后,鄭麗文一句話,向大陸示好,賴清德要氣炸了

天氣觀察站
2026-04-09 17:20:23
好干凈的女子,膀大腰圓,眉清目秀,膚白貌美,氣質絕!

好干凈的女子,膀大腰圓,眉清目秀,膚白貌美,氣質絕!

手工制作阿殲
2026-04-09 07:42:48
2026-04-09 19:12:49
moonfdd incentive-icons
moonfdd
福大大架構師每日一題
1172文章數 63關注度
往期回顧 全部

科技要聞

Meta凌晨首發閉源大模型 扎克伯格又行了?

頭條要聞

一群人闖進女子剛買的新房砸了兩面墻 物業稱出于好心

頭條要聞

一群人闖進女子剛買的新房砸了兩面墻 物業稱出于好心

體育要聞

8萬人面前心臟驟停 現在他還站在球場上

娛樂要聞

金莎官宣結婚 與老公孫丞瀟相差18歲

財經要聞

停火首日,霍爾木茲僅有4艘船通過

汽車要聞

文飛的回歸 給神行者帶來什么?

態度原創

教育
房產
親子
手機
時尚

教育要聞

被嚴重低估!全市唯一有招生代碼的公辦高中國際部

房產要聞

利潤暴跌44%!那個春節被罵慘了的海峽股份 正在經歷什么?

親子要聞

家庭聚會了

手機要聞

Find X9 Ultra影像實力揭曉 打造專業口袋哈蘇

ED網紅病,正在掏空年輕女性

無障礙瀏覽 進入關懷版