![]()
![]()
![]()
前言
Ollama 作為當(dāng)下最流行的本地大模型運(yùn)行工具,憑借極簡的部署方式、豐富的模型支持、跨平臺(tái)兼容能力,成為 AI 開發(fā)者、運(yùn)維人員、后端工程師本地運(yùn)行、測(cè)試、集成大模型的首選方案。在 2026 年 3 月 17 日,Ollama 正式推出 v0.18.1 版本,這是一次面向工程化、自動(dòng)化、聯(lián)網(wǎng)能力、性能測(cè)試的重量級(jí)更新。
本次版本核心圍繞 OpenClaw 集成、Web Search、無頭運(yùn)行模式、模型基準(zhǔn)測(cè)試工具、系統(tǒng)兼容性、顯卡驅(qū)動(dòng)支持等方面進(jìn)行了大量重構(gòu)與增強(qiáng)。對(duì)于經(jīng)常在本地運(yùn)行模型、需要做 CI/CD 集成、做模型性能對(duì)比、在容器環(huán)境部署 Ollama 的開發(fā)者來說,v0.18.1 解決了大量實(shí)際工程痛點(diǎn)。
本文將基于官方發(fā)布內(nèi)容,完整、細(xì)致、無遺漏地講解 ollama v0.18.1 所有更新內(nèi)容、使用方式、命令示例、配置變化、代碼改動(dòng)與適配說明,幫助大家快速上手新版本所有能力。
一、ollama v0.18.1 版本整體概覽
ollama v0.18.1 于 2026 年 3 月 17 日正式發(fā)布,本次更新主要包含以下幾大方向:
1. OpenClaw 集成官方 Ollama 認(rèn)證與模型服務(wù),不再使用第三方授權(quán)。
2. 為 OpenClaw 提供官方 Web Search 與 Web Fetch 插件,本地模型與云端模型均可使用聯(lián)網(wǎng)能力。
3. 新增
ollama launch無頭(非交互、headless)運(yùn)行模式,支持 Docker、CI/CD、自動(dòng)化腳本。4. 大幅優(yōu)化內(nèi)置 Go 語言編寫的模型基準(zhǔn)測(cè)試工具,支持 TTFT、VRAM 監(jiān)控、預(yù)熱、CSV 輸出。
5. 完善 Linux 環(huán)境下 systemd 不存在時(shí)的兼容邏輯,自動(dòng)跳過守護(hù)進(jìn)程安裝。
6. 修復(fù)底層模型分配、錯(cuò)誤捕獲、版本對(duì)比、插件校驗(yàn)等問題。
7. 完善 AMD GPU 驅(qū)動(dòng)約束說明,明確 ROCm 7 版本要求,優(yōu)化顯卡問題排查。
本次提交共計(jì) 7 次提交,涉及 10 個(gè)文件修改,5 位貢獻(xiàn)者參與,代碼新增 1684 行、刪除 418 行,屬于功能與穩(wěn)定性并重的版本。
二、OpenClaw 全新集成:官方 Ollama 授權(quán) + 網(wǎng)頁搜索與抓取
OpenClaw 是 Ollama 生態(tài)中非常重要的助手集成框架,在 v0.18.1 中,Ollama 對(duì) OpenClaw 進(jìn)行了徹底重構(gòu),統(tǒng)一使用 Ollama 官方賬號(hào)體系與模型服務(wù),同時(shí)帶來了最受期待的聯(lián)網(wǎng)搜索、網(wǎng)頁內(nèi)容抓取能力。
2.1 Web Search 與 Web Fetch 插件
ollama v0.18.1 為 OpenClaw 內(nèi)置了 Ollama 官方的網(wǎng)頁搜索與網(wǎng)頁抓取插件,這意味著:
? Ollama 的本地模型與云端模型,都可以通過 OpenClaw 訪問互聯(lián)網(wǎng)最新內(nèi)容、新聞、資料。
? OpenClaw 可以抓取網(wǎng)頁并提取可讀文本,交給模型進(jìn)行理解、總結(jié)、處理。
? 該功能不會(huì)執(zhí)行 JavaScript,保證安全、輕量、無風(fēng)險(xiǎn)。
在 OpenClaw 中使用本地模型并開啟網(wǎng)頁搜索,必須先完成 Ollama 登錄:
ollama signin登錄完成后,直接啟動(dòng) OpenClaw:
ollama launch openclaw2.1.2 單獨(dú)安裝網(wǎng)頁搜索插件如果你已經(jīng)配置并正常使用 OpenClaw,可以不重新初始化,直接安裝插件:
openclaw plugins install @ollama/openclaw-web-search2.2 OpenClaw 授權(quán)與初始化邏輯重構(gòu)在舊版本中,OpenClaw 有獨(dú)立的引導(dǎo)流程與授權(quán)體系,v0.18.1 做出以下關(guān)鍵修改:
1.
ollama launch openclaw統(tǒng)一使用 Ollama 官方認(rèn)證體系與模型提供商。2. 初始化流程改為非交互模式,自動(dòng)完成配置、網(wǎng)關(guān)設(shè)置、模型綁定。
3. 自動(dòng)覆蓋舊版 openclaw.json 配置,并重新應(yīng)用模型配置。
4. 安裝時(shí)會(huì)優(yōu)先自動(dòng)更新 OpenClaw,確保使用最新引導(dǎo)參數(shù)。
5. 新增
--auth-choice ollama標(biāo)識(shí),直接使用 Ollama 賬號(hào)體系。6. 自動(dòng)配置自定義網(wǎng)關(guān)地址與模型 ID,不再需要手動(dòng)修改配置文件。
為了保證聯(lián)網(wǎng)功能穩(wěn)定,ollama v0.18.1 增加了嚴(yán)格的插件版本檢查:
? 網(wǎng)頁搜索插件最低要求版本:
0.2.1? 程序會(huì)自動(dòng)檢查
package.json中的版本號(hào)。? 低于最低版本時(shí),會(huì)自動(dòng)重新安裝插件。
? 支持語義化版本比較,自動(dòng)處理帶 v 與不帶 v 的版本號(hào)格式。
同時(shí),系統(tǒng)會(huì)自動(dòng):
? 注冊(cè)插件并設(shè)置為啟用狀態(tài)。
? 關(guān)閉 OpenClaw 內(nèi)置的網(wǎng)頁搜索與抓取,避免沖突。
? 將
ollama_web_search、ollama_web_fetch加入白名單,確保權(quán)限通過策略校驗(yàn)。
在 Linux 環(huán)境中,很多 Docker 容器、精簡系統(tǒng)沒有 systemd。ollama v0.18.1 增加了自動(dòng)判斷邏輯:
? 判斷
/run/systemd/system是否存在。? 判斷環(huán)境變量
XDG_RUNTIME_DIR是否存在。? 不滿足條件時(shí),自動(dòng)跳過
--install-daemon參數(shù),不再嘗試安裝系統(tǒng)服務(wù)。? 無 systemd 環(huán)境直接以前臺(tái)進(jìn)程方式運(yùn)行網(wǎng)關(guān),保證在容器內(nèi)正常運(yùn)行。
這一改動(dòng)極大提升了在 Docker、Kubernetes、精簡 Linux 系統(tǒng)上的兼容性。
三、ollama launch 無頭(非交互)運(yùn)行模式
這是本次更新對(duì)運(yùn)維、自動(dòng)化、CI/CD、開發(fā)流水線最有價(jià)值的功能:ollama launch支持無頭(非交互、headless)模式。
3.1 無頭模式適用場(chǎng)景
1.Docker / 容器環(huán)境
在構(gòu)建流水線中啟動(dòng)模型集成,運(yùn)行評(píng)估、測(cè)試提示詞、驗(yàn)證模型行為,任務(wù)結(jié)束后自動(dòng)銷毀。2.CI/CD 流水線
在自動(dòng)化流程中執(zhí)行代碼審查、安全檢查、批量生成、模型驗(yàn)證等任務(wù)。3.腳本與自動(dòng)化任務(wù)
使用 Ollama 與 Claude 相關(guān)能力編寫自動(dòng)化腳本,無人值守運(yùn)行。
1. 必須使用
--model指定模型,不能使用交互式選擇。2. 可使用
--yes自動(dòng)拉取缺失模型,跳過所有選擇交互。3. 無終端輸入輸出時(shí),會(huì)直接拋出明確錯(cuò)誤,引導(dǎo)用戶使用無頭模式。
基礎(chǔ)啟動(dòng)命令:
ollama launch claude --model kimi-k2.5:cloud --yes -- -p "how does this repository work?"在 OpenClaw 中使用子代理執(zhí)行任務(wù):
ollama launch claude --model kimi-k2.5:cloud --yes -- -p "how does this repository work?" using a subagent這種方式可以完全在腳本、CI 中運(yùn)行,不需要人工干預(yù),是企業(yè)級(jí) AI 自動(dòng)化的關(guān)鍵能力。
3.4 終端交互判斷邏輯
ollama v0.18.1 在代碼層面增加了終端判斷:
? 檢查標(biāo)準(zhǔn)輸入、標(biāo)準(zhǔn)輸出是否為終端。
? 非終端環(huán)境下禁止交互式模型選擇。
? 直接提示:模型選擇需要交互式終端,請(qǐng)使用
--model運(yùn)行在無頭模式。
這讓腳本、后臺(tái)運(yùn)行、管道調(diào)用時(shí)不會(huì)卡住,而是直接報(bào)錯(cuò)并給出解決方案,非常工程化。
四、Ollama 基準(zhǔn)測(cè)試工具全面增強(qiáng)
ollama v0.18.1 對(duì)內(nèi)置的ollama-bench基準(zhǔn)測(cè)試工具進(jìn)行了大規(guī)模升級(jí),該工具由 Go 語言編寫,用于模型性能壓測(cè)、對(duì)比、數(shù)據(jù)輸出。
4.1 新版 Benchmark 工具核心功能
1. 一次運(yùn)行測(cè)試多個(gè)模型。
2. 支持文本與圖像提示詞。
3. 可配置溫度、最大 Token、隨機(jī)種子等生成參數(shù)。
4. 支持預(yù)熱階段(warmup),讓測(cè)試結(jié)果更穩(wěn)定。
5. 支持 TTFT(首詞時(shí)延)監(jiān)控。
6. 實(shí)時(shí)監(jiān)控 VRAM 與 CPU 內(nèi)存占用。
7. 支持固定提示詞 Token 長度,保證測(cè)試可復(fù)現(xiàn)。
8. 輸出格式支持:benchstat、CSV。
9. 展示模型參數(shù)、量化等級(jí)、模型系列、體積、顯存占用。
工具會(huì)輸出以下關(guān)鍵性能指標(biāo):
1.prefill:提示詞處理時(shí)間,單位 ns/token。
2.generate:文本生成時(shí)間,單位 ns/token。
3.ttft:從請(qǐng)求到輸出第一個(gè)字符的時(shí)延。
4.load:模型加載耗時(shí)(一次性開銷)。
5.total:請(qǐng)求總耗時(shí)。
同時(shí)會(huì)輸出模型信息:
? Params:參數(shù)量(如 4.3B)
? Quant:量化等級(jí)(如 Q4_K_M)
? Family:模型系列(如 gemma3)
? Size:模型文件大小
? VRAM:顯卡顯存占用(Size > VRAM 表示部分加載到內(nèi)存)
go build -o ollama-bench ./cmd/bench運(yùn)行:
./ollama-bench -model gemma3 -epochs 6 -format csv4.3.2 直接 go run 運(yùn)行go run ./cmd/bench -model gemma3 -epochs 34.4 常用命令示例 4.4.1 基礎(chǔ)性能測(cè)試./ollama-bench -model llama3 -epochs 10 -temperature 0.7 -max-tokens 500 -seed 42 -warmup 2 -format csv -output results.csv4.4.2 圖片模型測(cè)試./ollama-bench -model qwen3-vl -image photo.jpg -epochs 6 -max-tokens 100 -p "Describe this image"4.4.3 固定提示詞 Token 數(shù)量./ollama-bench -model gemma3 -epochs 6 -prompt-tokens 5124.5 benchstat 格式使用benchstat 是 Go 生態(tài)標(biāo)準(zhǔn)性能分析工具,ollama-bench 默認(rèn)輸出該格式。
保存結(jié)果:
./ollama-bench -model gemma3 -epochs 6 > gemma3.bench按階段統(tǒng)計(jì):
benchstat -col /step gemma3.bench對(duì)比兩次優(yōu)化前后性能:
./ollama-bench -model gemma3 -epochs 6 > before.bench
# 修改后重新測(cè)試
./ollama-bench -model gemma3 -epochs 6 > after.bench
benchstat before.bench after.bench4.6 CSV 機(jī)器可讀格式可直接導(dǎo)出為 CSV,用于 Excel、Python 繪圖、報(bào)表、數(shù)據(jù)庫入庫:
./ollama-bench -model gemma3 -format csv -output result.csvCSV 包含字段:名稱、階段、計(jì)數(shù)、每計(jì)數(shù)納秒、每秒 Token 數(shù),方便后續(xù)數(shù)據(jù)分析。
4.7 命令行參數(shù)完整說明
?
-model:待測(cè)試模型,必填,支持多個(gè)用逗號(hào)分隔。?
-epochs:每個(gè)模型運(yùn)行輪次,默認(rèn) 6。?
-max-tokens:最大生成 Token,默認(rèn) 200。?
-temperature:生成溫度,默認(rèn) 0.0。?
-seed:隨機(jī)種子,0 為隨機(jī)。?
-timeout:超時(shí)時(shí)間,單位秒。?
-p:提示詞內(nèi)容。?
-image:圖片路徑,用于多模態(tài)測(cè)試。?
-k:保活時(shí)間。?
-format:輸出格式 benchstat / csv。?
-output:輸出文件,默認(rèn)標(biāo)準(zhǔn)輸出。?
-warmup:預(yù)熱次數(shù),默認(rèn) 1。?
-prompt-tokens:指定提示詞 Token 長度。?
-v:詳細(xì)日志。?
-debug:調(diào)試日志。
ollama v0.18.1 優(yōu)化了模型不存在時(shí)的提示信息:
? 舊版僅提示執(zhí)行
ollama pull。? 新版提示:可手動(dòng) pull,或使用
--yes自動(dòng)拉取模型。
配合無頭模式,在自動(dòng)化腳本中直接使用--yes即可實(shí)現(xiàn)全自動(dòng)環(huán)境初始化,不需要人工判斷模型是否存在。
六、錯(cuò)誤修復(fù)與底層優(yōu)化 6.1 模型分配錯(cuò)誤修復(fù)
修復(fù)了allocModel中錯(cuò)誤被吞掉的問題:
? 舊版在圖資源預(yù)留失敗時(shí)直接返回 nil,錯(cuò)誤丟失。
? 新版會(huì)返回真實(shí)錯(cuò)誤,方便排查顯存不足、資源搶占問題。
? 修復(fù)網(wǎng)頁搜索底層邏輯問題。
? 增加網(wǎng)頁抓取(fetch)能力。
? 本地模型與云端模型統(tǒng)一啟用聯(lián)網(wǎng)能力。
增加多項(xiàng)校驗(yàn),確保無頭模式必須攜帶--model,避免非法運(yùn)行。
七、AMD GPU 支持與驅(qū)動(dòng)兼容說明
ollama v0.18.1 完善了 AMD 顯卡支持文檔,明確驅(qū)動(dòng)要求與排查方案。
7.1 ROCm 驅(qū)動(dòng)版本要求
Linux 下使用 AMD GPU必須升級(jí)到 ROCm 7 驅(qū)動(dòng),Ollama 內(nèi)置的 ROCm 7 庫不兼容舊版驅(qū)動(dòng)。
如果使用 ROCm 6.x 及更早版本,會(huì)出現(xiàn):
? GPU 發(fā)現(xiàn)超時(shí)。
? 一直卡在 GPU 初始化。
? 最終自動(dòng)降級(jí)到 CPU 運(yùn)行。
升級(jí)方式:使用amdgpu-install工具安裝 ROCm 7 官方驅(qū)動(dòng),升級(jí)后重啟系統(tǒng)。
7.2 GPU 問題排查方法
1. 開啟調(diào)試日志:
OLLAMA_DEBUG=12. 查看內(nèi)核日志:
sudo dmesg | grep -i amdgpu
sudo dmesg | grep -i kfd3. 檢查驅(qū)動(dòng)版本是否為 ROCm 7。
4. 多卡環(huán)境出現(xiàn)亂輸出,需要參考官方多卡適配方案。
1.本地模型終于可以聯(lián)網(wǎng)
過去本地模型只能使用訓(xùn)練數(shù)據(jù),現(xiàn)在通過 OpenClaw 插件直接獲取實(shí)時(shí)信息,實(shí)用性大幅提升。2.真正支持生產(chǎn)級(jí)自動(dòng)化
無頭模式 + CI/CD + Docker,讓 Ollama 從玩具工具變成可用于自動(dòng)化、測(cè)試、流水線的工程組件。3.標(biāo)準(zhǔn)化性能測(cè)試
內(nèi)置 Go 基準(zhǔn)測(cè)試工具,支持量化、顯存、TTFT、吞吐量、預(yù)熱、復(fù)現(xiàn)測(cè)試,非常適合模型優(yōu)化、硬件對(duì)比。4.Linux/容器兼容性極大增強(qiáng)
自動(dòng)判斷 systemd、自動(dòng)跳過守護(hù)進(jìn)程、非交互運(yùn)行,在云原生環(huán)境幾乎零報(bào)錯(cuò)。5.OpenClaw 走向官方化、統(tǒng)一化
不再分散授權(quán),全部接入 Ollama 生態(tài),后續(xù)更新與維護(hù)更穩(wěn)定。
代碼地址:github.com/ollama/ollama
ollama v0.18.1 是一次偏向工程化、自動(dòng)化、企業(yè)化的重要版本,不再只是簡單的模型運(yùn)行工具,而是朝著:
? 本地模型 + 聯(lián)網(wǎng)能力
? 云原生、容器、CI/CD 友好
? 標(biāo)準(zhǔn)化性能測(cè)試與評(píng)估
? 高兼容、高穩(wěn)定、可觀測(cè)
我們相信人工智能為普通人提供了一種“增強(qiáng)工具”,并致力于分享全方位的AI知識(shí)。在這里,您可以找到最新的AI科普文章、工具評(píng)測(cè)、提升效率的秘籍以及行業(yè)洞察。 歡迎關(guān)注“福大大架構(gòu)師每日一題”,發(fā)消息可獲得面試資料,讓AI助力您的未來發(fā)展。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.