![]()
出品 | 妙投APP
作者 | 董必政
編輯 | 丁萍
頭圖 | AI制圖
今年科技投資不是沒有機(jī)會(huì),而是“閉眼買板塊”的時(shí)代過去了。
隨著美聯(lián)儲(chǔ)降息的預(yù)期推遲或落空,AI為代表的科技板塊的估值不再出現(xiàn)普漲,而將迎來分化。當(dāng)下,我們更應(yīng)該關(guān)注有基本面支撐、有預(yù)期差、還能把業(yè)績(jī)兌現(xiàn)出來的細(xì)分方向。
而新技術(shù)的突破,意味著產(chǎn)生新的市場(chǎng)預(yù)期。這次,OpenClaw和“養(yǎng)龍蝦”的走紅,正在把AI推進(jìn)到一個(gè)新的投資階段。
表面上看,這只是又一個(gè)Agent(智能體)產(chǎn)品爆發(fā);但往深了看,它改寫的是AI系統(tǒng)的運(yùn)行方式。大模型不再只是被動(dòng)回答問題,而是開始自主拆解任務(wù)、多輪調(diào)用模型、持續(xù)訪問工具、長(zhǎng)期維護(hù)上下文。
這意味著,AI產(chǎn)業(yè)的競(jìng)爭(zhēng)焦點(diǎn),正在從“誰的模型更強(qiáng)”,轉(zhuǎn)向“誰能以更低成本生成更多有價(jià)值的Token”。
換句話說,下一階段比拼的不只是總算力,而是單位能耗到底能產(chǎn)出多少有效Token,即Tokens per Watt(Token/W)。
這也是妙投判斷下一階段AI投資機(jī)會(huì)的核心框架。
如果說上一輪AI行情主要圍繞“堆GPU”,那么這一輪更值得關(guān)注哪些環(huán)節(jié)能真正提升Token/W,誰就更可能成為新一輪資本定價(jià)的中心。
順著這條主線看,至少有三類資產(chǎn)正在被重估:
一是負(fù)責(zé)調(diào)度和編排的CPU;
二是負(fù)責(zé)搬運(yùn)數(shù)據(jù)的高速互聯(lián)與CPO;
三是掌握Token收費(fèi)權(quán)的大模型廠商。
一、CPU成為決定效率的指揮官
過去在對(duì)話式AI場(chǎng)景里,CPU的重要性并不高。
從流程上看,用戶發(fā)出請(qǐng)求,CPU負(fù)責(zé)接收、分發(fā),再把任務(wù)交給GPU執(zhí)行,最后返回結(jié)果。
在這個(gè)鏈條里,GPU像廚師,CPU更像傳菜員——等炒好端上來就行,CPU的作用只是“打雜”,能用就行。
但Openclaw為代表的Agent改變了這一點(diǎn)。
Agent不是一次性問答,而是一個(gè)持續(xù)運(yùn)行的系統(tǒng)。它要拆解任務(wù)、調(diào)用工具、等待結(jié)果、修正路徑、再次調(diào)用工具,形成多輪循環(huán)。
這類工作流的復(fù)雜度,遠(yuǎn)高于傳統(tǒng)Chatbot。
問題在于,GPU擅長(zhǎng)的是大規(guī)模并行計(jì)算,不擅長(zhǎng)邏輯控制、任務(wù)編排、I/O管理和跨工具調(diào)度;而這些,恰恰是CPU最擅長(zhǎng)的部分。
所以,進(jìn)入Agent時(shí)代后,CPU的角色不再只是“輔助算力”,而更像是整個(gè)AI工作流的指揮官。
指揮官(CPU)憑借高效的調(diào)度能力,可以減少GPU空轉(zhuǎn)、降低等待時(shí)間、壓縮系統(tǒng)性損耗,從而提高單位能耗下的Token產(chǎn)出。
這便意味著,CPU的重要性將被重估。
有數(shù)據(jù)表明,對(duì)話式AI場(chǎng)景下,CPU主要負(fù)責(zé)Token化等邊緣計(jì)算工作,工作量?jī)H占約5%;代理型AI模式下,CPU承擔(dān)工具調(diào)用、任務(wù)編排、實(shí)時(shí)決策等大量非AI原生計(jì)算,消耗量占AI工作流的80-90%。
需求端已經(jīng)有跡象。
據(jù)Creative Strategies預(yù)測(cè),數(shù)據(jù)中心CPU市場(chǎng)規(guī)模將從2026年的250億美元增長(zhǎng)至2030年的600億美元;如果疊加Agent相關(guān)需求,規(guī)模有望逼近1000億美元。
ARM CEO Rene Haas也曾表示,隨著Agent驅(qū)動(dòng)應(yīng)用擴(kuò)張,數(shù)據(jù)中心單位功耗所需的CPU算力需求可能增長(zhǎng)到當(dāng)前的4倍以上。
更關(guān)鍵的是,CPU還是一個(gè)供給彈性沒那么大的行業(yè)。
和存儲(chǔ)有些類似,服務(wù)器CPU長(zhǎng)期是高度集中的雙寡頭格局,英特爾與AMD主導(dǎo)市場(chǎng);一旦AI鏈條擠占產(chǎn)能、原材料成本上升、交期拉長(zhǎng),CPU的價(jià)格就因供需錯(cuò)配進(jìn)入上行通道。
據(jù)日經(jīng)亞洲3月25日?qǐng)?bào)道,英特爾與AMD已通知客戶上調(diào)全系列CPU價(jià)格,平均漲幅在10%-15%,部分產(chǎn)品漲幅更高;同時(shí),交貨周期將從之前的1-2周大幅延長(zhǎng)至8-12周,個(gè)別情況下甚至將長(zhǎng)達(dá)6個(gè)月。
因此,妙投認(rèn)為,CPU正在進(jìn)入新的景氣周期,整個(gè)賽道將迎來價(jià)值重估。參考存儲(chǔ)的上漲,資本市場(chǎng)愿意給出更高的溢價(jià)。
當(dāng)然,最大的受益者會(huì)是,海外CPU雙雄英特爾、AMD。受益于國產(chǎn)替代,海光信息等國內(nèi)CPU廠商也將迎來發(fā)展機(jī)遇和價(jià)值重估。
二、小龍蝦記憶能力“吃光模塊”
另一方面,OpenClaw(“小龍蝦”)為代表的Agent具備記憶能力,能夠讓用戶感到終于被記住,不用反復(fù)“自我介紹”,協(xié)作效率大幅提升。
“小龍蝦”的記憶能力本質(zhì)上就是長(zhǎng)上下文推理——把"記住"變成"攜帶在上下文里",把更多歷史信息、任務(wù)狀態(tài)和中間結(jié)果持續(xù)塞進(jìn)上下文窗口里,讓模型在生成下一個(gè)Token時(shí),始終帶著這些信息一起推理。
上下文越長(zhǎng),記憶雪球越大(KV Cache越大),需要搬運(yùn)給GPU的數(shù)據(jù)就越多,單個(gè)GPU裝不下,就得分給多個(gè)GPU計(jì)算。
問題也隨之升級(jí)。在每步計(jì)算(每個(gè)token生成)中,GPU之間還需同步全部的記憶(KV Cache);否則,每個(gè)GPU只看到局部信息,生成的Token是"瞎子摸象",上下文理解支離破碎。
因此,上下文越長(zhǎng),GPU之間要對(duì)賬的數(shù)據(jù)越多,需要“搬”的數(shù)據(jù)爆發(fā)式增長(zhǎng)。
于是,Agent的“記憶能力”最終會(huì)轉(zhuǎn)化成一個(gè)物理層問題,即GPU之間的數(shù)據(jù)互聯(lián)(主要依賴于光模塊)是否足夠快、足夠省電。
從Token/W的框架看,這一點(diǎn)也尤其關(guān)鍵。
因?yàn)樵谛碌腁I工作模式里,真正昂貴的未必只是“算”,很多時(shí)候更貴的是“搬”,即光模塊的傳輸效率。
傳統(tǒng)可插拔光模塊的問題在于,電信號(hào)需要經(jīng)過較長(zhǎng)PCB走線,損耗和發(fā)熱都較高;
而CPO(共封裝光學(xué))把光引擎直接放到交換芯片或加速芯片附近,顯著縮短電互聯(lián)距離,從而降低功耗、改善熱管理、提升整體傳輸效率。
![]()
(圖片來源:AI制作)
在Token/W投資框架下,共封裝光學(xué)器件(CPO)的價(jià)值不再僅是“更高帶寬、更低延遲”,而是降低數(shù)據(jù)搬運(yùn)的能量代價(jià),用同樣的電能跑出更多Token。
正因如此,妙投認(rèn)為,共封裝光學(xué)器件(CPO)將進(jìn)入加速落地的快車道,進(jìn)入從“1”到“100”的階段。
集邦咨詢預(yù)測(cè),共封裝光學(xué)器件(CPO)滲透率將從2026年約0.5%攀升至2030年約35%。
從市場(chǎng)預(yù)測(cè)數(shù)據(jù)來看,據(jù)YOLE預(yù)測(cè),CPO市場(chǎng)在2024年的規(guī)模為4600萬美元,預(yù)計(jì)到2030年將達(dá)到81億美元,期間的年復(fù)合增長(zhǎng)率高達(dá)137%。
落地在產(chǎn)業(yè)鏈上,相對(duì)于傳統(tǒng)光模塊,CPO減少了部分有源器件,如激光器芯片、探測(cè)器芯片等,增加了集成多種光器件的光引擎、硅光芯片和薄膜鈮酸鋰調(diào)制器等。
而CPO產(chǎn)業(yè)鏈上游中硅光光引擎和ELS/CW光源需求將迎來爆發(fā),源杰科技、仕佳光子等相關(guān)廠商迎來機(jī)遇。
三、大模型重掌定價(jià)權(quán)
這波“養(yǎng)龍蝦”的浪潮,讓大模型廠商看到了更清晰的商業(yè)化路徑。
過去市場(chǎng)對(duì)大模型商業(yè)化的最大質(zhì)疑在于,模型能力越來越強(qiáng),但誰來付費(fèi)、為哪種價(jià)值付費(fèi)、付費(fèi)能否覆蓋成本,這些問題始終沒有真正解決。
而OpenClaw等改變了這套敘事。
因?yàn)橛脩糍I的不再只是一次性問答,而是一個(gè)持續(xù)工作的數(shù)字勞動(dòng)力。而Token消耗就不再只是“聊天成本”,而變成了企業(yè)愿意為效率提升買單的生產(chǎn)成本。
近期多家廠商開始結(jié)束免費(fèi)公測(cè)、轉(zhuǎn)向正式商用按量計(jì)費(fèi),甚至釋放漲價(jià)信號(hào)。
關(guān)鍵的是,市場(chǎng)已經(jīng)開始接受高質(zhì)量Token的收費(fèi)權(quán),而不是“誰漲了多少價(jià)”。這比單純的調(diào)用量增長(zhǎng)更重要。
例如:2月12日智譜發(fā)布GLM-5時(shí)上調(diào)Coding Plan套餐價(jià)格30%起,3月16日發(fā)布GLM-5-Turbo時(shí)再漲20%,相對(duì)GLM-4.7累計(jì)漲幅達(dá)83%。即便如此,市場(chǎng)依然供不應(yīng)求,調(diào)用量增長(zhǎng)400%。
另外,token消耗的想象空間還很大。
GMI Cloud創(chuàng)始人AlexYeh曾表示,“隨著開源和閉源的模型越來越好,token的調(diào)用量會(huì)越來越高。所以我覺得我們甚至連1%或5%都還沒有到。”
根據(jù)IDC數(shù)據(jù),中國企業(yè)活躍智能體數(shù)量將在2031年突破3.5億規(guī)模,年復(fù)合增長(zhǎng)率達(dá)到135%以上,同時(shí)由于智能體任務(wù)執(zhí)行密度的增長(zhǎng)和任務(wù)復(fù)雜度的提升,也將帶來智能體Token消耗年均超30倍的指數(shù)級(jí)躍升。
![]()
妙投認(rèn)為,大模型廠商持續(xù)受益的確定性很高。
與此同時(shí),資本市場(chǎng)對(duì)大模型企業(yè)商業(yè)化的敘事頗為認(rèn)可,尤其在科技股回調(diào)時(shí)逆勢(shì)上漲。今年以來,智譜、MiniMax的股價(jià)上漲已達(dá)到579%、483%。
這里,不禁有人會(huì)問,智譜等大模型的估值高嗎?
妙投認(rèn)為,由于今年大幅度上漲,智譜的估值已經(jīng)透支了未來的業(yè)績(jī)?cè)鲩L(zhǎng)。
據(jù)華泰證券測(cè)算,在樂觀情形下,智譜有望于2029年實(shí)現(xiàn)營(yíng)收142億元,可給予29倍的市銷率(PS),對(duì)應(yīng)的市值為4118億元。
摩根大通將智譜的目標(biāo)價(jià)從800港元上調(diào)至950港元,基于30倍2030年預(yù)期市盈率。
截至4月1日,智譜的市值已經(jīng)超過4000億元,股價(jià)最高達(dá)到了938港元。也就是說,按照機(jī)構(gòu)的測(cè)算,智譜已經(jīng)透支了2029年甚至2030年的業(yè)績(jī)。
當(dāng)下,大模型廠商估值不具備“性價(jià)比”。接下來,投資者還需關(guān)注智譜大模型的token量以及業(yè)績(jī)能否超出預(yù)期。
小結(jié)
總體而言,妙投認(rèn)為,資本市場(chǎng)將更關(guān)注AI新技術(shù)帶來的“蝴蝶效應(yīng)”,即token激增帶來的新的商業(yè)模式(如:大模型商業(yè)化敘事)以及新的市場(chǎng)需求(CPU、CPO產(chǎn)業(yè)鏈等)。
另外,中東邊緣沖突推高通脹預(yù)期,美聯(lián)儲(chǔ)降息落空或加息影響整體科技股估值,因而科技股出現(xiàn)“殺估值”,同時(shí)也會(huì)跌出“性價(jià)比”。一旦沖突出現(xiàn)結(jié)束信號(hào),資本將重新關(guān)注科技股,甚至“搶跑”并押注新的機(jī)會(huì)。
本文來自虎嗅,原文鏈接:https://www.huxiu.com/article/4847900.html?f=wyxwapp
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.