深夜,GLM-5來了。
還是老樣子,發(fā)布即開源。
![]()
而且前幾天,OpenRouter平臺(tái)不是有一個(gè)Pony Alpha的匿名模型很火嗎。
![]()
大家一度在猜是DeepSeek V4還是GLM-5,結(jié)果今天基本答案也揭曉了。
這大馬,基本就是明示了。
![]()
到了今天,2026年的主旋律我覺得真的就已經(jīng)就定下了,無論是國內(nèi)還是海外。
Coding與視頻齊飛,人類共AI一色。
這應(yīng)該就是2026年AI領(lǐng)域最核心的兩個(gè)主航道了,在這兩之上,其實(shí)就是Agent。
這幾天真的感覺過年一樣,太熱鬧了,上周GPT-5.3 codex和Claude Opus 4.6中門對(duì)狙,后腳Seedance 2.0席卷全球,而現(xiàn)在,戰(zhàn)場又拉回了Coding這邊。
GLM-5,作為一個(gè)全新的大版本號(hào),我想說,升級(jí)幅度還是很大的,真的可以比肩Claude Opus 4.5,我不開玩笑。
我其實(shí)已經(jīng)提前三天拿到了GLM-5的API,這幾天在我用Codex開發(fā)的時(shí)候,也把GLM-5同步接入到了Claude code里同步開發(fā)進(jìn)行對(duì)比。
雖然作為智譜一直以來的擁簇,很想吹一下GLM-5跟Seedance 2.0一樣全球第一,但是我覺得還是實(shí)事求是。
在我這幾天的使用過程中,我個(gè)人體感是,GLM-5跟GPT-5.3-codex這種變態(tài)肯定還是有一些距離(后面有case會(huì)展示),但是在真正產(chǎn)品的開發(fā)和解決BUG的能力上,我覺得是能摸一下GPT-5.2-codex和Claude Opus 4.5了。
不要覺得這好像是一件很容易的事,Coding國內(nèi)落后的其實(shí)一直都比較遠(yuǎn),能追上Opus 4.5的能力,其實(shí)已經(jīng)非常非常非常牛逼了。
前幾天,在GPT-5.3-codex和Opus 4.6中門對(duì)狙的文章里,我在評(píng)論區(qū)里評(píng)論說,要是DeepSeek能趕上Opus 4.5,我高低得給它磕兩個(gè)。
![]()
我是沒想到,我現(xiàn)在可能得給智譜磕兩個(gè)了。
非常坦誠的講,在我日常開發(fā)過程中,我可能還是會(huì)選擇GPT-5.3-codex + codex的組合,但是,我也深刻的清楚,并不是所有人,都有條件去買ChatGPT的會(huì)員的。
那如果你用不了GPT-5.3-codex的話,那我無比真誠的建議你,不用猶豫,就用GLM-5就行,這就是國內(nèi),你現(xiàn)在能用上的,最好、最棒、性價(jià)比最高的大模型。
Claude Code + GLM-5,是你無需魔法,國內(nèi)可用,最低門檻體驗(yàn)AI Coding魅力的組合。
先老規(guī)矩,看下跑分和性能。
首先,GLM-5從355B(32B激活)擴(kuò)展到744B參數(shù)(40B激活),參數(shù)量大了一倍,智能提升確實(shí)挺多,而且成本沒有加特別多。
跑分上,目前在Artificial Analysis上僅次于那兩個(gè)大爹,開源第1。
![]()
然后整體能力上。
![]()
相較于GLM-4.7,GLM-5全線能力基本都有了大幅提升,而且逼近Opus 4.5。
有一個(gè)比較有特點(diǎn)的,就是BrowseComp基準(zhǔn),這個(gè)我之前也說過,測的是Agent在網(wǎng)上搜索信息的能力,GLM-5得分75.9,直接超第二名普通的GPT-5.2有10個(gè)點(diǎn),這個(gè)已經(jīng)非常強(qiáng)了。
而另外兩個(gè)最頂級(jí)的模型沒放在里面,一個(gè)是GPT-5.2 Pro得分是77.9,Opus 4.6得分是84,GLM-5其實(shí)已經(jīng)逼近最一線的水平了,能跟GPT-5.2 Pro打個(gè)平手,這事本身就挺強(qiáng)的了。
然后其他的,比如現(xiàn)實(shí)場景下改倉庫代碼的測試機(jī)SWE-bench,終端環(huán)境中agent能力的基準(zhǔn)Terminal-Bench 2.0,agent工具使用的τ2-Bench,還有測試模型調(diào)用MCP能力的MCP-Atlas基準(zhǔn)上,基本比Opus都只差那么臨門一腳了。
說實(shí)話,一個(gè)國產(chǎn)模型,還開源出去,能到這個(gè)水平,已經(jīng)非常非常讓人自豪了。
同時(shí)在我看好的系統(tǒng)工程能力、長任務(wù)能力,在跑分上也能得到印證。
比如下面圖上的Long-horizon基準(zhǔn),也就是長鏈條復(fù)雜任務(wù),就能充分體現(xiàn)模型自主進(jìn)行Agent長程多步規(guī)劃和執(zhí)行的能力。
![]()
這個(gè)跑分看下來就很清晰了,也和我實(shí)測下來的感受一致,在真正需要做大開發(fā)的時(shí)候,它的長程任務(wù)上,確實(shí)是對(duì)標(biāo)Opus 4.5的存在。
GLM-5的上下文窗口和GLM-4.7一樣,目前還是200k的上下文窗口,輸出是128K。
不過GLM-5有一個(gè)非常離譜的一點(diǎn),就是這玩意我試下來,非常的省token,就是干活的感覺,非常精準(zhǔn),跟GPT-5.3-codex有的一拼,這點(diǎn)有多重要用過Opus 4.6的都懂,那上下文和消耗量,簡直了。
然后就是價(jià)格上,一個(gè)是API價(jià)格,真的,國產(chǎn)模型,這價(jià)格便宜的讓人心疼。
![]()
Opus 4.5和4.6,都是$5/$25每百萬token(輸入/輸出)。
而GLM-5大概只有Claude的七分之一。
很香,真的香。
另一方面那自然是不得不提的Coding Plan了,也是現(xiàn)在玩Vibe Coding的主流用法,基本都是買包月套餐,對(duì)標(biāo)Claude Max和ChatGPT Pro的。
![]()
價(jià)格是Claude Max套餐的2/3,Token額度是他們的3倍。
甚至因?yàn)橘u的過于火爆,算力不夠,前兩個(gè)套餐額度,直接被搶空了。。。
沒錯(cuò),一個(gè)包月套餐,被搶空了。。。
這個(gè)太離譜了。
白天的時(shí)候大家可以蹲一蹲,網(wǎng)址在此:
https://bigmodel.cn/glm-coding
當(dāng)你有了GLM-5的權(quán)限之后,想用的話,我最推薦的還是在Claude Code里面用。
因?yàn)镃laude Code就是目前確實(shí)最通用的Coding Agent產(chǎn)品,Codex是單純的例外,主要跟GPT適配的太好。
而在Claude code里接入GLM-5挺簡單的。
這一點(diǎn)智譜做的很好,他們做了一個(gè)Coding Tool Helper工具就是可以快速將你的GLM編碼套餐加載到你使用的編碼工具中。
直接打開終端,然后輸入:
npx@z_ai/coding-helper
你就正常登錄。
![]()
目前支持的編碼工具 Claude Code、OpenCode、Crush、Factory Droid。
![]()
跟著配置就好,配置好以后,我們運(yùn)行Claude Code。
你就可以使用GLM-5了。
![]()
我也做了幾個(gè)case,給大家直觀的感受一下,GLM-5的能力。
前天我拿到GLM-5的資格的時(shí)候,正好有個(gè)需求要開發(fā),就是一個(gè)全平臺(tái)分發(fā)文章的需求。
做自媒體的朋友們應(yīng)該知道,文章寫完不是真正的結(jié)束,而是剛剛開始。
我一般寫完微信公眾號(hào)文章需要把文章同步分發(fā)到其他平臺(tái),這是個(gè)很大的工作量,而且有的編輯器還不一樣,會(huì)出現(xiàn)亂碼,文本格式丟失問題,我真。。。
![]()
之前是用一個(gè)開源工具自己改的,但是其實(shí)沒有那么好用,所以最近其實(shí)一直想自己開發(fā)一個(gè)。
所以,我當(dāng)時(shí)就想,不如用GLM-5 Coding一個(gè)這樣的全平臺(tái)內(nèi)容同步分發(fā)的這么個(gè)小產(chǎn)品吧。
開發(fā)完以后,發(fā)現(xiàn)效果居然還不錯(cuò)。
就是下面圖中的這樣,大概的功能就是把我微信公眾號(hào)的文章鏈接放進(jìn)去,然后點(diǎn)擊想要同步的平臺(tái),就可以同步過去。
![]()
當(dāng)時(shí)開發(fā)的時(shí)候其實(shí)Prompt給的巨簡單。
點(diǎn)擊同步后,打開目標(biāo)平臺(tái)發(fā)布頁面,自動(dòng)填充內(nèi)容
當(dāng)時(shí)給過去以后,GLM-5的體感上,其實(shí)就比之前GLM-4.7強(qiáng)很多了。
按慣例,他先提供給我了一些關(guān)鍵設(shè)計(jì)讓我去選擇。
我也秉持著先開發(fā)一個(gè)最小MVP的原則去的。
![]()
所以選的都比較謹(jǐn)慎。
接著GLM-5就給了超詳細(xì)的規(guī)劃。
![]()
速度不慢,很快就搞定了。
總體的完成度和實(shí)用性很好,不過因?yàn)樽铋_始最小MVP的原則,分發(fā)的平臺(tái)有點(diǎn)少,后續(xù)我直接讓他添加其他的平臺(tái),兩輪就完成了。
![]()
整體其實(shí)都還可以,但是在使用的時(shí)候,遇到了一個(gè)BUG。
就是我放入公眾號(hào)鏈接后,讓他提取標(biāo)題、封面、正文,他標(biāo)題和封面倒是可以成功提取出來,但是關(guān)鍵部分,也就是正文提取內(nèi)容總是不全,會(huì)缺失一大截,圖片也獲取不到。
![]()
改了兩三輪,還是有BUG,然后我上Opus 4.5,居然也沒改成功。。。
最后打開了GPT-5.3-codex,一輪,完成了。。。
GLM-5跟Opus 4.5的差距沒那么大,其實(shí)是有道理的。
說實(shí)話,主要還是,GPT-5.3-codex這玩意真的強(qiáng)的有點(diǎn)變態(tài)。
所以這個(gè)case,其實(shí)就是GLM-5做的整體規(guī)劃和方案設(shè)計(jì),然后最后遇到一個(gè)棘手的BUG上Codex解決的,整體體驗(yàn)上,我錄制了一遍效果展示的視頻,總體體驗(yàn)下來還是挺不錯(cuò)的。
然后還有另一個(gè)我覺得特別好玩的case。
就是,看到公司同事終于在用電腦模擬器,打歡樂斗地主。。。
當(dāng)時(shí)他吐槽說,要是有記牌器就好了。。。
于是,我就想,這是個(gè)好思路,雖然不會(huì)幫他作弊,但是可以試一下大模型的能力。
上GLM-5試了一下,這個(gè)開發(fā)過程,還真的有點(diǎn)意思。
用的提示詞很簡單,就一句話。
“我正在我的電腦上玩歡樂斗地主PC模擬器版本,幫我寫一個(gè)記牌插件。”
反正我是完全不知道怎么實(shí)現(xiàn),更不知道怎么跟PC模擬器打通。。。
我就說了這么一個(gè)需求,GLM-5,他會(huì)自己進(jìn)行更深入的咨詢,包括識(shí)別方式、技術(shù)路線、功能需求,都會(huì)一一和我確認(rèn)。
比如在實(shí)現(xiàn)方式上,他提供自動(dòng)識(shí)別記牌、手動(dòng)點(diǎn)擊記牌等方案讓我選擇,每個(gè)方案還會(huì)給出不同的技術(shù)實(shí)現(xiàn)路線。
![]()
還有功能需求的確定,我這里選擇了基礎(chǔ)記牌。
![]()
第一輪對(duì)話下來,記牌器整體框架都搭建好了。
雖然我選擇的是自動(dòng)識(shí)別模式,但他很貼心地把自動(dòng)開發(fā)和手動(dòng)開發(fā)兩種模式都做了。
![]()
手動(dòng)模式第一輪其實(shí)就直接開發(fā)完了,就可以用了。
它的使用邏輯是需要我自己去看對(duì)方出什么牌,我就點(diǎn)擊那張牌,牌數(shù)會(huì)自動(dòng)減一。
但是這個(gè)邏輯太蠢了,一點(diǎn)都不自動(dòng),一點(diǎn)也不AI。
對(duì)方打一個(gè)牌,我還得手動(dòng)點(diǎn)點(diǎn)點(diǎn),這也太呆逼了。
所以我還是想要用自動(dòng)識(shí)別模式,但第一輪對(duì)話后自動(dòng)識(shí)別功能并沒成功。
他這里自動(dòng)識(shí)別的操作邏輯是這樣的。
游戲開始的時(shí)候,我手動(dòng)勾選出牌區(qū)域,他就會(huì)自動(dòng)識(shí)別這個(gè)區(qū)域出的所有牌,并自動(dòng)記牌。
![]()
但實(shí)際上,我選中出牌區(qū)域后,它沒法識(shí)別出的牌。明明這邊都打起來了,它這邊一直等待識(shí)別。。。
![]()
我讓它進(jìn)一步修改。但是這樣的bug它并沒有一次改出來,改了一版后同樣報(bào)錯(cuò)。
這個(gè)時(shí)候,它自己選擇添加了調(diào)試功能。
我看了一下,應(yīng)該是這個(gè)功能實(shí)現(xiàn)的鏈路主要有兩部分,屏幕勾選區(qū)域截圖,截圖撲克牌識(shí)別,所以他需要調(diào)試確定哪個(gè)環(huán)節(jié)出了問題。
![]()
這一步,可能是模擬器的原因,還涉及到比較復(fù)雜的跟屏幕的交互和監(jiān)控,所以我得幫他一起測試一下。
他顯示出我勾選區(qū)域的截圖,也有OCR結(jié)果,這樣我一下就能明白到底是哪個(gè)環(huán)節(jié)出了問題。
然后我就發(fā)現(xiàn),每隔半秒截圖的功能沒問題,核心問題是,OCR一直識(shí)別不出結(jié)果。
bug找到了,后面的活就方便了,我就交給他直接搞了。
GLM-5自己開發(fā)了一套方案,他給出的識(shí)別方案是這樣的,給每張牌都上傳模板。
就像這樣。
![]()
然后他會(huì)對(duì)游戲頁面截圖進(jìn)行灰度處理、二值化,然后和模板進(jìn)行模式匹配,從而實(shí)現(xiàn)識(shí)別。
這個(gè)灰度處理和二值化,說實(shí)話我沒聽懂,我也怕GLM-5給我的不是最優(yōu)解,所以打開了Opus 4.6和GPT-5.3-codex,讓他們也同時(shí)出一套解決方案看看有沒有更優(yōu)解。
沒想到跟GLM-5出的方案,是一模一樣的,搞得還真沒毛病。
這突然一下顯得我有點(diǎn)小肚雞腸,不信任GLM-5了= =
模板處理完之后,很快,他就把這個(gè)系統(tǒng)開發(fā)完了。
由于我注冊的是新號(hào),估計(jì)新手村對(duì)面是人機(jī),出牌特別快。我本來還擔(dān)心識(shí)別速度會(huì)跟不上。
沒想到,識(shí)別效果出乎意料的好。除了大小王識(shí)別有點(diǎn)問題,其他全都能準(zhǔn)確識(shí)別,哪怕是接連出順子,也能精準(zhǔn)識(shí)別。
相當(dāng)牛逼了。。。
要知道,這真的不是那種普通的前端網(wǎng)頁,這個(gè)實(shí)現(xiàn)方式,還是稍微有那么點(diǎn)復(fù)雜的。
GLM-5,完成的非常的好。
大小王的識(shí)別問題我初步想了一下,是因?yàn)樯蟼鞯哪0逯校帜甘且粯拥模皇穷伾灰粯印?/p>
圖片經(jīng)過灰度處理后大小王不就一樣了嗎,那肯定分不清。不過大小王還是比較好記的,所以也沒管這個(gè)。
而且,這是我一兩個(gè)小時(shí)不到就做出來的東西,而且是已經(jīng)可以實(shí)戰(zhàn)用上的東西,這個(gè)效率,還是相當(dāng)恐怖的。。。
同時(shí),這里我也提醒大家上網(wǎng)打牌的時(shí)候,特別是現(xiàn)在這個(gè)階段,在網(wǎng)上用真錢去做一些游戲的時(shí)候,真的要謹(jǐn)慎一點(diǎn),因?yàn)槟悴恢缹?duì)面會(huì)不會(huì)像我一樣,隨手Vibe Coding一個(gè)外掛。。。
除了這兩個(gè)之外,我還隨手,復(fù)刻了一個(gè)QQ農(nóng)場。
![]()
而且還有很多細(xì)節(jié),比如如果我不收已經(jīng)熟了的作物他會(huì)枯萎,然后農(nóng)場里還會(huì)隨機(jī)長出雜草、蟲子。
相當(dāng)有意思。
在數(shù)據(jù)存儲(chǔ)上,還知道用瀏覽器LocalStorage作為數(shù)據(jù)存儲(chǔ),這是一個(gè)典型的前端單機(jī)游戲存儲(chǔ)方案,很適合這種輕量級(jí)項(xiàng)目,大概的流程就是下面這個(gè)樣子。
![]()
而且這個(gè)QQ農(nóng)場消耗的token,也就十三萬。。。
![]()
太離譜了。
從這些case其實(shí)已經(jīng)非常客觀的能看出來,GLM-5的開發(fā)能力,還是很強(qiáng)的,在一些規(guī)劃、架構(gòu)能力上,是真的可以比肩Opus 4.5的,雖然在精準(zhǔn)的BUG修改上,離現(xiàn)在最變態(tài)的GPT-5.3-codex還有一些差距,但是我已經(jīng)非常非常開心了。
而且還有個(gè)場景,GLM-5做的也很好,就是構(gòu)建Skills。
這個(gè)其實(shí)也挺考驗(yàn)?zāi)P偷睦斫夂蛨?zhí)行能力的。
我很喜歡用咱們的老演員yt-dlp測試GLM-5打包Skills的能力。
幫我把這個(gè)開源工具h(yuǎn)ttps://github.com/yt-dlp/yt-dlp打包成一個(gè)Skill,只要我后續(xù)給出視頻鏈接,就可以幫我下載視頻。
GLM-5封裝的基本沒有任何問題,一輪效果,B站視頻就能成功下載了。
![]()
而下載youtube視頻,它也精準(zhǔn)的提出了,需要我給一個(gè)Cookies,他才能幫我下載,我依稀記得,當(dāng)時(shí)用Opus 4.5打包這個(gè)Skills,對(duì)話了6、7輪,改了N版,他也沒告訴我要Cookies這事,就在那自己傻逼兮兮的告訴我改好了,可以下了,一下又報(bào)錯(cuò)。。。
![]()
看著此情此景,回想半年前。
那時(shí)候,如果你問我,國產(chǎn)大模型能不能在Coding領(lǐng)域跟OpenAI和Anthropic正面剛,我會(huì)說很難。
差距太大了,不是一點(diǎn)半點(diǎn),是那種讓人絕望的差距。
但現(xiàn)在,GLM-5出來了,確實(shí)能摸到Opus 4.5的水平。雖然跟最新的Opus 4.6和GPT-5.3-codex還有差距,但這個(gè)差距已經(jīng)從代差縮小到了可以追趕的范圍。
這是一個(gè)很重要的變化。
而且更重要的是,GLM-5是開源的,價(jià)格更是Claude的N分之1。
能力接近,開源免費(fèi),價(jià)格便宜。
而開源,更是意味著,B端能用上,企業(yè)能用上。
AI編程這件事,在國內(nèi),門檻真的,正在急劇降低。
以前你想用頂級(jí)的AI編程能力,得買ChatGPT的會(huì)員,得有魔法,得付得起那個(gè)價(jià)格。
現(xiàn)在不用了。
GLM-5給了你一個(gè)平替選擇,雖然在全球領(lǐng)域,他距離那個(gè)老變態(tài),他還不是最好的,但已經(jīng)是躋身T1行列了,而且人人也都能用得起。
這會(huì)讓更多人開始嘗試AI編程,會(huì)讓更多人感受到AI的魅力。
而當(dāng)更多人用起來之后,社區(qū)會(huì)更活躍,反饋會(huì)更多,模型會(huì)迭代更快。
這是一個(gè)正向循環(huán)。
這也代表,我們在人才、在算力、在資金各方面都缺少的地不是,是能追上的。
當(dāng)然,追上不代表勝利。
OpenAI和Anthropic還在快速迭代,下一個(gè)版本可能又把差距拉開。
但至少,我們已經(jīng)進(jìn)入了同一個(gè)賽道,在同一個(gè)維度上競爭。
這就是進(jìn)步。
我非常非常推薦大家,去試試GLM-5吧,真的還不錯(cuò)。
站在今天這個(gè)節(jié)點(diǎn),我其實(shí)很想說跟馮驥一樣的話:
我真的很慶幸,這個(gè)開源模型。
來自智譜,來自中國。
在ds和sd之后的另外一個(gè)Coding世界里,也有了中國身位。
惟愿。
國運(yùn)昌隆。
以上,既然看到這里了,如果覺得不錯(cuò),隨手點(diǎn)個(gè)贊、在看、轉(zhuǎn)發(fā)三連吧,如果想第一時(shí)間收到推送,也可以給我個(gè)星標(biāo)?~謝謝你看我的文章,我們,下次再見。
>/ 作者:卡茲克、林機(jī)夢逗、tashi
>/ 投稿或爆料,請(qǐng)聯(lián)系郵箱:wzglyay@virxact.com
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.