之前就聽說openclaw用起來非常花錢,但也有省錢的辦法。最近公司養了幾只龍蝦,也接上了性能最強的claude-sonnet-4.6、gpt5模型。我不敢讓它執行復雜的任務,怕一不小心燒掉幾百塊。于是我在聊天框里打出了我認為最便宜的命令,“你好”。
![]()
查了一下賬戶消費記錄,花費7毛錢(0.111美元)?!總共輸入大約2萬token。
![]()
怎么可能?我又在賬戶里調查了一番,原來我發出的“你好”,前面跟了上萬字openclaw自帶的系統提示詞,而且幾乎無法避免。連“你好”都這么貴,真讓它干活,錢包還受得了?正好我們至頂AI實驗室手上有一些本地AI設備,比如英偉達GB10顯卡系列的機器,可以部署本地大模型。直接把openclaw接入的這些昂貴的云端付費模型換成免費的本地大模型。本地模型接入openclaw可能比較麻煩,不過別擔心,下面我就教大家怎么操作。本地模型的部署方法有很多,我們這里主要講常見的Ollama和vLLM接入方法。(注意:下載模型的時候,要選擇可以調用工具的模型哦)Ollama
1.ollama下載模型
ollama pull gpt-oss:120b2..openclaw允許ollama
openclaw config set models.providers.ollama.apiKey "ollama-local"3.修改配置文件
修改這個文件: ~/.openclaw/openclaw.json
{ agents: { defaults: { model: { primary: "ollama/gpt-oss:120b" }, }, },}給大家看看我修改完的示例,不一定跟我一樣: "agents": { "defaults": { "model": { "primary": "ollama/gpt-oss:120b", "fallbacks": [ "openai/gpt-5.1-codex" ] }, "models": { "ollama/gpt-oss:120b": { "alias": "GPT-OSS-120b" }4.檢查是否成功openclaw models listollama模型,顯示為default
openclaw能開啟新對話則成功。
vLLM這里假設你已經部署好了vLLM,下載好了模型。1.啟動vLLM模型
(以Qwen/Qwen3.5-35B-A3B 為例)
vllm serve Qwen/Qwen3.5-35B-A3B --enable-auto-tool-choice --tool-call-parser qwen3_coder--enable-auto-tool-choice
--tool-call-parser
這兩個參數代表vllm允許自動調用工具
qwen3_coder
這個參數代表--tool-call-parser調用qwen3_coder。!不同模型對應的不一樣,qwen3.5對應qwen3_coder。需要在你用的模型的huggingface上的Modelcard等地方查。!
2.在openclaw添加vLLM運行的模型
openclaw configure(1)選擇 Local->Model->vLLM
(2)填入vLLM API key:
vllm-local(3)模型填入
Qwen/Qwen3.5-35B-A3B(4)檢查是否成功openclaw models listvllm模型,顯示為default
openclaw能開啟新對話則成功。
END本文來自至頂AI實驗室,一個專注于對AI計算機、工作站及各類AI相關硬件設備,開展基于真實使用場景評測的研究機構。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.