![]()
![]()
Token正在重塑AI時代的價值坐標,它是效率革命的引擎,還是成本失控的暗礁?
來源 |騰訊科技
作者 |蘇揚
最近關于Token的討論挺魔幻的。
朋友圈隨處能看到Token中文翻譯的討論——
有"詞元"、"智元"等等,甚至有"慧根"之類的搞笑版本。
Token不是一個新概念,大模型落地第一天起,它便與神經網絡共生,但直到OpenClaw(俗稱"龍蝦")在用戶群大規模擴散,各類Agent應用開始把Token帶入了公眾視野。
我認為其中有兩個關鍵問題:它的消耗量太大了,價格也太貴了。
記得OpenAI發布GPT-5.4的時候,有用戶反饋測試一句"你好"就消耗掉了80美元的Token。
當時不少人都說這個使用量太夸張,但隨著小龍蝦大規模在用戶群擴散,一個任務燒完千萬級Token成為常態。
與之相對的是,英偉達CEO黃仁勛在GTC2026大會上以及之后的很多場合,都在強調工程師要大量的使用Token,甚至將Token納入到薪酬激勵機制。
一次對話環節,黃仁勛說:
"如果年薪50萬美元的工程師,連25萬美元的Token都沒用掉,我會極度恐慌。"
問題是,瘋狂的燒Token一定能解決問題嗎,有多少Token是有效的,什么樣的投入產出比是合理的?
結合剛剛外媒的消息,有OpenAI程序員一周燒掉了2100億Token,相當于33個維基百科,但這樣的消耗量最終帶來了什么?
我發了一個朋友圈,說這樣重度使用能升P10嗎,有好友隨即評論,"能幫賣Token的升P10。"
很顯然,這場瘋狂燒Token的運動,能帶來多少效果是存疑的,誰是獲利者則是確定的。
黃仁勛將英偉達描述為"Token之王",擁有世界最先進的"Token制造機",但如果拼命鼓吹這件事,甚至暗示不用Token就會落后,那么可以說:
一方面,黃仁勛想徹底改變AI時代企業"效率考核"的邏輯,另一方面,他也間接制造出了Token焦慮。
01
Token太貴了
不久前,我請教了周鴻祎"Token太貴"這個問題。
他說:"大家覺得Token貴可能存在些誤解,因為大模型后端是可以靈活配置的。"
在他的理解中,用戶可以自主選擇模型控制成本。
"日常聊天對話的成本其實很低。真正消耗Token的是復雜任務,比如幫你生成視頻、創作短劇或寫小說這類調用場景。"
我記得獵豹移動CEO傅盛在一條視頻中說,自己通過一些使用技巧把最初日均幾百美元的Token費用,優化到目前日均10多美元,30天就是2100元,年費是25200元。
問題來了:有多少用戶承擔得起日均10美元的成本?
對比目前中國互聯網上的商用to C類軟件,比如剪映,高端會員年費也只有600元左右,娛樂相關的會員費用大致在300元左右,根本找不到一款年費超過25000元的消費級軟件。
"絕大部分人一天10美金,仍然不會接受,這里會過濾掉大片的非付費用戶。"我對傅盛說,他沒有否認我的判斷。
這些天,我也在嘗試各種類型的小龍蝦產品,要接觸到的費用遠不止Token。
舉個例子,如果用戶對生圖有需求,就需要專門的生圖模型API;
如果要監控動態,也需要接入付費的搜索API,這些潛在的費用會逐步的勸退絕大多數用戶。
雖然可能有一些開源變通的方式降本,但開源項目就間接隱藏著安全風險。
在一次直播中,玄武實驗室的嘉賓Lambda分享過一個數據——他自己平均每個月"養蝦"的費用在千元以上。
不管是參照消費級工具年費,還是行業"養蝦戶"的反饋,基于Agent的Token消耗說一句"Token太貴了",是站得住腳的。
02
存儲瓶頸與效率黑洞
Token簡單理解就是大語言模型處理信息的基本單位——
用戶輸入提示詞,模型輸出答案,每一個字、每一個標點,都會計入Token的消耗量,本質上還是算力成本。
過去大家計算算力總擁有成本,指標有很多,包括衡量能效的Flops/W,核算均值的成本/Flops等等。
今年的"Token經濟學"中,Token/W逐步成為共識。
"我們的每一個Token成本都是世界最低的。"黃仁勛在GTC上說。
但不管有多便宜,不管是哪一種計算單位,它都是投入成本量化,涉及到研發成本、硬件成本,部署成本,能耗成本,運營成本等。
換句話說,降本也都是圍繞上述環節展開。
對于Token降本來說,一個不好的消息是內存價格在瘋漲。
以HBM內存為例,它是支撐大模型訓練和推理的關鍵器件,同時,推理數據量的暴漲也引發出了存儲需求的同步上漲。
2026年第一季度,DRAM的價格環比上漲超過50%,NAND價格環比最高漲幅達到150%。
黃仁勛、蘇姿豐都已經喊出了"HBM有多少要多少",三星、美光這些存儲原廠,已經對外披露頭部客戶的戰略長約已經簽到了5年。
消費級市場,千元機庫存可能都要停產了,但實際上受這個問題的影響,云廠商目前也處于漲價的煎熬之中。
目前行業最樂觀的預計是2028年存儲價格回落,悲觀一點要到2030年。
存儲價格一天不回落,Token降價就缺少一個關鍵的外部杠桿。
模型能力的提升也可以視為降價的另一個杠桿。
"現在一些8B的小模型,能力越來越逼近全量大模型。"一位學術界研究員說。
在這方面,面壁智能聯合清華團隊在《Nature》子刊上提出了Densing Law的概念——
強調大模型的能力密度隨時間指數增長,約每3.5個月翻一倍,同等性能所需參數量每3.5個月減半。
一位國產AI芯片從業者也強調模型能力好、規模小,進而能推動成本降低。
"你看國內開源大模型token價格,基本都跟模型規模正相關。"
多位國產算力從業者表示,提升MFU也會帶來成本壓縮的空間,此外也還包括架構、顯存等多方面的推理優化。
"MFU跟模型本身關系不太大,主要是算子和調度策略有關。"
另一位國產存算一體芯片從業者表示,"目前主流大模型的推理MFU均值在30%左右,優化后可超過50%,估計能省出50%的成本。"
也就是說,行業并沒有榨干GPU的性能——花了100%的GPU錢,現在只用了不到三分之一的算力。
不過,MFU提升雖然可以帶來單Token成本下降,但會不會傳導到C端,取決于大模型提供方的商業考量。
如果用來打價格戰,這毫無疑問是一個有效的杠桿。
03
再來一次價格戰
中國大模型的價格戰,不是沒有先例。
2024年,國內廠商就曾經爆發過一輪激烈的價格戰。
當時恰逢DeepSeek-V2上線,每百萬Token輸入1元、輸出2元,彼時價格相當于GPT-4-Turbo的百分之一。
DeepSeek當時的降價關鍵就在于推理優化——
MoE稀疏架構大幅降低了計算量,MLA多頭潛在注意力把KV緩存壓縮90%以上。
DeepSeek開啟這輪降價之后,隨即阿里、字節、等等先后下場展開價格戰博弈,一度出現了"Token免費"的現象。
王小川當年在一次交流會上談價格戰,他認為與此前團購、網約車大戰有本質不同,"這次價格戰是直接生產力的供給,是B端市場的價格戰。"
在當時,王小川也強調即使短期內虧損,(大廠)也可能在一年后實現盈利。
"在推理效率提升的情況下,通過補貼,用戶有了非常明顯的增長,"一位參與過上一輪價格戰的大模型公司內部人士說,"大概花了幾個億吧。"
不過,這一輪Token的消耗,B端和C端需求同時爆發,反而和團購、網約車大戰一樣,具備改變生產關系的條件,但市場卻表現出了出奇的沉默。
前述參與價格戰的大模型內部人士認為,在模型的特定能力成熟,有了穩定用戶來源的情況下,大家未必有動力再下場去打價格戰。
"Token消耗不像2024年那種規模了,這個情況下,為了蝦打價格戰,存量用戶的ARR收入也會被迫失血。"
前述國產AI芯片從業者表示,"沒必要,價格戰帶來的增量還不確定,先把存量自砍了,這賬不好算。"
![]()
Artificial Analysis跟蹤的大模型API價格
根據Artificial Analysis的跟蹤數據,國產模型的API單價已經足夠便宜了,只是這個便宜程度對于Agent的巨量消耗來說,還遠遠不夠。
如前面所說,受內存和存儲的硬件成本沖擊,國內云廠商現在面對的是漲價的難題,短期不太有降價的可能性。
"現在是前兩年價格戰的持續,國內廠商的價格比北美有明顯的優勢。只是大家清楚搶用戶是個持久戰,不是一兩次價格戰能搞定的。"前述國產存算一體芯片從業者補充道。
04
把模型"焊"在芯片上
為了解決Token瘋狂消耗帶來的成本問題,一部分用戶開始嘗試利用本地部署模型。
到目前為止,已經有不少用戶基于Mac Mini為"小龍蝦"配置本地模型,只不過這種解決方案,在短時間內會不斷地推高Token使用成本,同時本地部署本身就存在門檻,且開源模型的能力未必能夠符合用戶的需求。
針對那些入門級用戶,也有廠商嘗試推出EdgeClaw硬件,并且在硬件生意之上,套上一層安全的故事。
這其實是一個值得嘗試的方向,只是在內存漲價大環境下,顯得有些生不逢時。
此前,一位Mini主機創業者說,漲價對行業都有沖擊。
"以前用戶是覺得'好貴',現在直接根本不看了,他們并不在乎你的內存和硬盤有多大。"該創業者說。
與此同時,一些品牌也在電商平臺推出準系統產品(無內存、存儲),最低價格在2000元以內——
它們雖然沒有"安全故事",卻是Edgeclaw這種創業型項目第一個要逾越的難關。
對"小龍蝦"端側AI硬件來說,最大的挑戰還是Mac Mini。
蘋果的供應鏈話語權和毛利率可以支撐Mac Mini超高性價比的定價,創業團隊在這里很難講故事。
還記得2025年初期,DeepSeek爆火時的"一體機"嗎,你看今天行業里面還有它們的故事嗎?
除了一體機這種集成硬件方案,也有創業項目嘗試從更底層的芯片上去做創新。
2月份,Taalas團隊推出了一款全新的芯片HC1,該芯片基于TSMC N6制程,die size 815mm2,晶體管密度僅53B,單芯片可運行Llama 3.1 8B模型,最核心的是單用戶TPS(Token/s)輸出16960/s,數據堪稱爆表,關鍵就在于HC1的設計。
Taalas團隊在這款芯片上,用Mask ROM將Llama 3.1 8B模型權重硬編碼固化在硅片上,芯片金屬層連線相當于神經元連接——
相當于把模型"焊在"芯片上,同時實現計算與存儲物理融合,徹底消除HBM/DRAM數據搬運,打破了內存墻限制。
雖然TPS性能突出,它的短板也同樣來自于模型"焊在"芯片上這個特點。
這意味著只能跑固定版本的固定模型,權重不能改、結構不能動,想換模型就要重新流片,你也可以理解為專芯專用。
05
一切的討論都基于Token使用成本——
貴的不是單價,而是重度任務對Token使用量的倍數放大。
![]()
我曾經嘗試過用小龍蝦來生成指定時間戳的gif,在和一位同行交流的過程中,他說:"你這里面的gif圖,我們同事做,半分鐘做一張,手工。"
盡管這個案例不是很典型,但如果做幾張gif就要花掉幾元錢,顯然不具備經濟性。
![]()
接入DeepSeek API制作gif的消耗情況
要改變這一點,要么擁有更便宜的Token定價,要么Token消耗最小化,這依賴模型層面的優化,也取決于推理硬件層面的創新。
但無論如何,在Token使用的總費用打不下來,且投入的有效產出不明確的情況下,瘋狂安利Token消耗,甚至強調與績效掛鉤,說是制造Token焦慮,制造AI焦慮也不為過。
再往前看,老黃還呼吁科技行業領袖審慎發聲,避免引發公眾對人工智能技術的非理性恐慌。
這就好比跟全行業說:別打壓人工智能制造恐慌了,你們都要把Token燒起來。
可問題是,誰來解決價格問題呢,會是遲遲沒有到來的DeepSeek V4嗎?
我記得2017年的時候,有一篇刷屏文章叫《人民想念周鴻祎》,現在人民應該很想念Token價格戰,想念DeepSeek。
至少對于"蝦民"來說,大概率如此。
· END ·
合 作 對 接
掃碼添加投資人說運營者微信,備注「商務合作」詳細溝通。
![]()
超 級 社 群
【投資人說】正在組建超級創業者社群、超級讀者群、超級媒體群等,目前總人數已超1000人。
關注【投資人說】微信公眾號,發送信息「進群」,與各行業精英直接交流,共同進步。
旗 下 媒 體
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.