![]()
發布時間:2025年10月11日
在 v0.12.5 版本中,Ollama 帶來了多項功能改進、問題修復及平臺兼容性調整。本次更新主要涉及運行流程優化、錯誤處理改進、模型輸出優化以及平臺支持范圍調整。以下是詳細解析。
一、主要更新內容
1.應用啟動等待機制優化
Ollama 的應用在啟動對話前,將等待 Ollama 服務運行完成,避免了在服務尚未啟動的情況下進行會話操作。2.Think 參數兼容性改進
修復了在"think": false時,以前會出現錯誤提示的問題,現版本將改為靜默忽略,提升了非思考模型的兼容性。3.模型輸出問題修復
修正了deepseek-r1模型的輸出異常問題,提升了生成結果的穩定性。4.平臺支持變更
? macOS 12 Monterey 與 macOS 13 Ventura不再支持。
? AMD gfx900 和 gfx906 系列 GPU(如 MI50、MI60)不再通過 ROCm 支持,未來將嘗試通過 Vulkan 提供支持。
在多個圖像處理模塊中,替換了math.Min、math.Max為 Go 語言的內置min()、max()方法:
?
llama4及mllama模型的process_image.go調整了分辨率計算方法,提升了代碼簡潔性與性能。
?llamarunner與ollamarunner都引入了新的運行時間度量方式,將處理階段與生成階段拆分,對處理耗時和生成耗時進行單獨統計。
? 新增了
processingDuration與generationDuration/samplingDuration變量,用于區分不同階段的運行時間。? 在批量處理過程中,增加了
startedAt、lastUpdatedAt的記錄,以便更精準地分析性能數據。
? 在
ollamarunner中,批量處理邏輯修改為使用previousBatch和nextBatch交替進行。? 當模型支持異步運算時(
pooling_type == none),批處理計算會并行執行,提升模型運行效率。
? 在
server/routes.go中,GenerateHandler和ChatHandler的邏輯調整為:? 如果模型支持
thinking,則默認開啟;? 如果模型不支持
thinking且用戶設置了true,將返回錯誤;? 如果設置為
false,則不報錯,正常執行。
在server/routes_generate_test.go中:
? 錯誤提示信息調整為更簡潔的
"\"test\" does not support thinking"。? 新增測試用例,驗證模型不支持
thinking且think=false時的執行結果,確保返回狀態碼 200。
本次ollama v0.12.5更新在性能優化、運行時度量、錯誤處理等方面都有顯著提升,尤其是:
?提升模型執行階段的時間統計精度
?改善非思考模型的兼容性
?優化批處理執行流程
我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業洞察。 歡迎關注“福大大架構師每日一題”,發消息可獲得面試資料,讓AI助力您的未來發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.