![]()
![]()
![]()
2026 年 2 月 4 日,ComfyUI 正式推出了v0.12.2 版本。本次更新為“Immutable Release”,僅支持修改版本標(biāo)題和說明。雖然版本序號看似小幅提升,但更新內(nèi)容十分扎實,重點圍繞新模型支持與顯存管理優(yōu)化展開,進(jìn)一步提升了系統(tǒng)的模型兼容性與運行穩(wěn)定性。
版本概覽
?版本號:v0.12.2
?發(fā)布日期:2026 年 2 月 4 日
?版本性質(zhì):Immutable release(不可更改代碼,僅可修改標(biāo)題與說明)
此次更新共有4 次提交(4 commits),8 個文件修改,由3 位貢獻(xiàn)者協(xié)同完成,主要更新集中在模型支持、顯存管理以及兼容性修復(fù)等方面。
?? 更新亮點一:新增 4B ACE Step 1.5 模型支持
v0.12.2 中最重磅的更新是支持了ACE Step 1.5 的 4B LM 模型。
在此前版本中,ComfyUI 已支持 Qwen3_2B 系列相關(guān)模型。本次更新在comfy/text_encoders/ace15.py與comfy/text_encoders/llama.py文件中,正式擴展了對更大參數(shù)量模型 ——Qwen3_4B_ACE15_lm的支持。
新增內(nèi)容包括:
?新增模型類:
Qwen3_4B_ACE15_lm?新增配置類:
Qwen3_4B_ACE15_lm_Config? 更新ACE15TEModel邏輯,可根據(jù)參數(shù)
lm_model自動加載 2B 或 4B 模型。? 在切換不同 LM 模型時,內(nèi)部常數(shù)與顯存估算邏輯自動調(diào)整。
此外,comfy/sd.py和comfy/supported_models.py亦同步適配,能夠自動檢測并加載Qwen3_2B或Qwen3_4B模型,從而實現(xiàn)雙版本自動識別與切換支持。
簡而言之,v0.12.2 讓 ACE Step 1.5 用戶能夠靈活選擇更大、更高精度的 4B 模型,顯著提升了生成效果和擴展性。更新亮點二:顯存管理優(yōu)化,修復(fù) Dynamic VRAM 內(nèi)存泄漏
在comfy/model_management.py中,移除了空緩存時對 Aimdo 的豁免處理邏輯,修復(fù)了可能的顯存泄漏問題。
torch.cuda.synchronize()
torch.cuda.empty_cache()
torch.cuda.ipc_collect()以往版本中,如果 Aimdo allocator 為空,會導(dǎo)致empty_cache()無法正確釋放顯存,從而引發(fā)長時間運行后的顯存泄漏。
v0.12.2 現(xiàn)已修復(fù)此問題,為長時間推理場景帶來了更穩(wěn)定的運行保障。
? 更新亮點三:Dynamic VRAM 邏輯增強,優(yōu)化版本兼容提示
main.py中的 Dynamic VRAM 初始化邏輯得到改進(jìn):
? 新增Pytorch 版本檢測機制:當(dāng) Pytorch 版本低于 2.8 時,將自動禁用 DynamicVRAM,并提示用戶降級至傳統(tǒng)內(nèi)存管理模式。
? 優(yōu)化日志等級,將部分信息從 “info” 調(diào)整為 “warning”,提高日志可讀性。
這意味著,ComfyUI 現(xiàn)在能更智能地識別當(dāng)前執(zhí)行環(huán)境,避免由于版本不兼容造成的推理崩潰或顯存估算異常。
其他優(yōu)化與修復(fù)
?修復(fù) ACE Step 1.5 相關(guān)崩潰問題:在核心邏輯文件中修復(fù)了模型加載出錯問題。
?更新版本號文件:
comfyui_version.py與pyproject.toml均已同步更新至 v0.12.2。?改進(jìn)推理邏輯:部分
sample_manual_loop_no_classes代碼塊現(xiàn)在加入了音頻 token 范圍控制,提升音頻處理穩(wěn)定性。?logit 計算邏輯:在 llama 模型結(jié)構(gòu)中加入了 BaseQwen3 類統(tǒng)一 logits 計算,進(jìn)一步增強模型通用性。
模塊
更新內(nèi)容摘要
model_management.py
刪除 Aimdo 例外機制,修復(fù)顯存泄漏
sd.py
自動識別 4B / 2B LM 模型類型
supported_models.py
新增 Qwen3_4B 模型檢測邏輯
ace15.py
新增 Qwen3_4B_ACE15 模型類與 lm_model 參數(shù)
llama.py
新增 Qwen3_4B_ACE15_lm_Config 并整合 BaseQwen3 結(jié)構(gòu)
main.py
增強 Pytorch 版本檢測與 Dynamic VRAM 警告邏輯
pyproject.toml
項目版本更新為 0.12.2
comfyui_version.py
同步版本號更新
版本總結(jié)
代碼地址:github.com/Comfy-Org/ComfyUI
ComfyUI v0.12.2 是一次針對模型支持與內(nèi)存管理機制的重要優(yōu)化版本:
? ? 新增 4B ACE Step 1.5 模型支持
? ? 修復(fù)顯存泄漏問題
? ? 優(yōu)化 Dynamic VRAM 初始化與版本兼容邏輯
? ? 提升模型推理的穩(wěn)定性與兼容性
此版本雖然結(jié)構(gòu)變化不大,但為未來的大模型擴展與長時推理環(huán)境打下了堅實基礎(chǔ)。
結(jié)語:
ComfyUI 團(tuán)隊通過 v0.12.2 的更新,再次展現(xiàn)出其對穩(wěn)定性和擴展性的極致追求。如果你正在使用 ACE Step 模型或需要更高顯存利用效率,這是一次值得立即升級的版本。
我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業(yè)洞察。 歡迎關(guān)注“福大大架構(gòu)師每日一題”,發(fā)消息可獲得面試資料,讓AI助力您的未來發(fā)展。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.