![]()
HBM憑什么撐起萬億市場?
數(shù)萬億美元的人工智能基建熱潮,正以遠(yuǎn)超市場最初預(yù)期的方式,給半導(dǎo)體價值鏈帶來巨大壓力。此前,GPU始終是行業(yè)熱議的核心,但隨著大模型參數(shù)規(guī)模持續(xù)擴張,數(shù)據(jù)傳輸逐漸成為性能限制的關(guān)鍵,半導(dǎo)體行業(yè)的瓶頸正從計算端轉(zhuǎn)向內(nèi)存端。在超大規(guī)模數(shù)據(jù)中心內(nèi),“內(nèi)存墻”已成為制約人工智能應(yīng)用運行速度與規(guī)模化擴展的核心障礙。
這一限制在高帶寬內(nèi)存(HBM)領(lǐng)域體現(xiàn)得最為突出。作為先進GPU的核心配套組件,HBM堪稱AI芯片的“性能命脈”——沒有它的支撐,即便是算力最強的AI芯片,也會陷入性能受限的窘境。繼2025年內(nèi)存價格同比飆升246%后,各大供應(yīng)商的庫存已基本售罄,部分訂單交付周期甚至排至2026年。由此,內(nèi)存廠商正站在結(jié)構(gòu)性需求增長、產(chǎn)能供應(yīng)受限、定價權(quán)空前強化的三重機遇交匯點,迎來前所未有的發(fā)展窗口期。
這一產(chǎn)業(yè)變局揭示了一個關(guān)鍵趨勢:人工智能硬件的價值版圖,絕非GPU一己之力可以包攬,其增長紅利正加速向更廣闊的半導(dǎo)體器件領(lǐng)域滲透。GlobalX人工智能半導(dǎo)體與量子ETF(CHPX)的布局邏輯,正是瞄準(zhǔn)這一趨勢,為投資者提供參與人工智能硬件生態(tài)系統(tǒng)發(fā)展的機會。
人工智能半導(dǎo)體領(lǐng)域的支出正在加速增長并不斷擴大
人工智能半導(dǎo)體行業(yè)的增長勢頭依舊強勁。2025年,全球芯片銷售額同比增長22%;預(yù)計2026年將再攀新高,同比增幅達(dá)26%,市場規(guī)模有望突破9750億美元。其中,生成式人工智能芯片是當(dāng)之無愧的增長引擎,2026年其收入預(yù)計將達(dá)到5000億美元,占行業(yè)總銷售額的比重接近一半。
![]()
這一爆發(fā)式增長的背后,是超大規(guī)模數(shù)據(jù)中心運營商的資本支出持續(xù)加碼——這一投入規(guī)模,有望躋身企業(yè)發(fā)展史上最大規(guī)模的基建項目之列。到2026年,超大規(guī)模數(shù)據(jù)中心運營商的資本支出或?qū)⒈平?500億美元,其中相當(dāng)大一部分將流向人工智能數(shù)據(jù)中心的建設(shè)。英偉達(dá)的數(shù)據(jù)也印證了這一趨勢:超大規(guī)模數(shù)據(jù)中心運營商正以每周約7.2萬塊的速度部署GPU,創(chuàng)下該公司GPU產(chǎn)品歷史上最快的產(chǎn)能爬坡紀(jì)錄。
兩大核心因素,正推動人工智能行業(yè)的發(fā)展周期持續(xù)延長。其一,是人工智能的核心需求從模型訓(xùn)練向大規(guī)模推理轉(zhuǎn)變,推理場景的廣泛落地將催生海量硬件需求;其二,是行業(yè)正朝著緊湊化的年度硬件升級節(jié)奏邁進,產(chǎn)品迭代速度顯著加快。英偉達(dá)的VeraRubin平臺就是典型案例,該平臺計劃于2026年下半年正式發(fā)布,其推理性能預(yù)計將較前代產(chǎn)品提升約5倍,后續(xù)架構(gòu)的升級更有望帶來跨越式的性能突破。出貨量趨勢也與這一判斷相契合:英偉達(dá)預(yù)計2025年Blackwell系列GPU出貨量將達(dá)520萬塊,隨著Rubin平臺逐步量產(chǎn),2026年出貨量將增至570萬塊。
創(chuàng)紀(jì)錄的人工智能支出為整個芯片堆棧創(chuàng)造了機遇
行業(yè)內(nèi)有一個關(guān)鍵的成本分配邏輯:每投入1美元用于人工智能處理芯片,就會有額外1美元流入先進封裝、電源管理、冷卻系統(tǒng)、網(wǎng)絡(luò)設(shè)備和內(nèi)存等周邊配套組件。以英偉達(dá)GB200NVL72系統(tǒng)為例,一套完整的系統(tǒng)不僅需要搭載72顆BlackwellGPU和36顆GraceCPU,還需配備專用的高速網(wǎng)絡(luò)基礎(chǔ)設(shè)施、芯片級液冷散熱系統(tǒng),以及高達(dá)13.4TB的高帶寬內(nèi)存。隨著這類系統(tǒng)的部署規(guī)模不斷擴大,行業(yè)的核心瓶頸已從算力處理能力,轉(zhuǎn)向硬件連接性與數(shù)據(jù)訪問效率。
高速網(wǎng)絡(luò)作為GPU與服務(wù)器集群互聯(lián)互通的關(guān)鍵,相關(guān)市場支出正快速增長。數(shù)據(jù)顯示,數(shù)據(jù)中心網(wǎng)絡(luò)市場支出預(yù)計將從2025年的200億美元,增長至2030年的750億美元,年均復(fù)合增長率高達(dá)30.2%。
但如果說高速網(wǎng)絡(luò)解決的是系統(tǒng)級連接問題,那么內(nèi)存帶寬與容量,則直接決定了這些系統(tǒng)大規(guī)模運行的效率上限。
內(nèi)存是當(dāng)今的關(guān)鍵瓶頸
無論GPU或?qū)S眉呻娐罚ˋSIC)的算力多么強大,大型語言模型的實際運行性能,最終都取決于數(shù)據(jù)吞吐量與數(shù)據(jù)傳輸速度。這些動輒包含數(shù)十億甚至數(shù)萬億參數(shù)的大模型,對內(nèi)存帶寬的需求遠(yuǎn)超傳統(tǒng)內(nèi)存架構(gòu)的承載極限。為突破這一桎梏,高帶寬內(nèi)存(HBM)應(yīng)運而生。
作為一種特殊的先進動態(tài)隨機存取存儲器(DRAM),HBM能為GPU和AI加速器提供超高數(shù)據(jù)傳輸速度。其核心優(yōu)勢在于垂直堆疊的芯片架構(gòu)——通過將多顆內(nèi)存芯片垂直堆疊,并緊密靠近處理器封裝,HBM實現(xiàn)了帶寬與能效的雙重躍升,性能遠(yuǎn)超傳統(tǒng)內(nèi)存產(chǎn)品。
目前主流的HBM3E標(biāo)準(zhǔn),單堆棧內(nèi)存帶寬可達(dá)1.2TB/s;而下一代HBM4產(chǎn)品已進入量產(chǎn)與早期出貨階段,單堆棧帶寬將突破2TB/s,同時功耗進一步降低。這一技術(shù)路線圖的核心邏輯,是在更小的物理空間內(nèi)實現(xiàn)數(shù)倍于前代的帶寬提升,從而滿足下一代人工智能工作負(fù)載的性能需求。
從產(chǎn)業(yè)價值來看,HBM已徹底擺脫了傳統(tǒng)內(nèi)存“價格波動劇烈的大宗商品”屬性,蛻變?yōu)楦呃麧櫟暮诵膽?zhàn)略資產(chǎn)。如今的HBM行業(yè),正進入一個全新的發(fā)展階段:產(chǎn)能全線售罄、廠商定價權(quán)空前強化、未來數(shù)年需求可預(yù)測性極高。值得一提的是,HBM的成本約為標(biāo)準(zhǔn)DRAM的5倍,其定價通常通過長期協(xié)議鎖定,這讓生產(chǎn)商得以有效規(guī)避現(xiàn)貨市場價格波動的風(fēng)險。
HBM市場蓄勢待發(fā),即將迎來爆發(fā)式增長
伴隨人工智能領(lǐng)域整體支出的加速擴容,HBM市場正經(jīng)歷跨越式發(fā)展,且這一增長勢頭預(yù)計將持續(xù)。數(shù)據(jù)顯示,全球HBM市場支出預(yù)計2026年同比增長58%,規(guī)模達(dá)到546億美元;后續(xù)將以年均約42%的復(fù)合增長率攀升,到2028年市場規(guī)模有望逼近1000億美元。按照這一增速,HBM市場規(guī)模將比此前行業(yè)預(yù)測提前兩年突破千億美元大關(guān),并在2024年就超過整個DRAM市場的規(guī)模。
HBM的爆發(fā)將直接推動存儲器半導(dǎo)體總收入增長,預(yù)計2026年該領(lǐng)域收入將突破4400億美元,同比增幅達(dá)30%。到2030年,隨著人工智能工作負(fù)載的持續(xù)增加,存儲器在半導(dǎo)體價值鏈中的地位將愈發(fā)重要,市場份額也將進一步提升。
支撐內(nèi)存解決方案持續(xù)增長的核心因素有三:
- 從訓(xùn)練到推理的需求轉(zhuǎn)變:人工智能應(yīng)用從模型訓(xùn)練階段轉(zhuǎn)向大規(guī)模推理部署,將直接拉動內(nèi)存需求的放量增長;
- 智能體AI系統(tǒng)的技術(shù)迭代:具備多步驟推理能力的智能體(Agent)系統(tǒng)逐漸落地,這類應(yīng)用需要持久的內(nèi)存上下文支撐,進一步推高內(nèi)存使用需求;
- 自主AI計劃的全球擴張:全球范圍內(nèi)的自主人工智能項目,正在傳統(tǒng)超大規(guī)模數(shù)據(jù)中心渠道之外,開辟全新的內(nèi)存需求市場。
![]()
高帶寬內(nèi)存領(lǐng)域的領(lǐng)導(dǎo)者
隨著內(nèi)存瓶頸問題的解決,純HBM廠商將從中受益。
![]()
SK海力士憑借早期產(chǎn)品創(chuàng)新和規(guī)模化生產(chǎn)能力,被公認(rèn)為HBM領(lǐng)域的先行者。目前,該公司占據(jù)全球HBM收入57%的份額和全球出貨量的62%。該公司進一步鞏固了其領(lǐng)先地位,于2024年初推出首款HBM3E,并于2025年9月推出HBM4。HBM4的引腳傳輸速度超過10Gbps,單堆疊帶寬超過2TB/s,與HBM3E相比,性能提升60%,能效提升40%。
這種領(lǐng)先優(yōu)勢已體現(xiàn)在公司基本面中,預(yù)計2025年營收將同比增長近45%,達(dá)到約680億美元,營業(yè)利潤將幾乎翻一番,達(dá)到約330億美元。
SK海力士作為英偉達(dá)的主要HBM供應(yīng)商,其地位是推動業(yè)務(wù)增長的關(guān)鍵因素。該公司已獲得英偉達(dá)2026年Rubin平臺HBM訂單的三分之二以上。管理層預(yù)計需求不會放緩,這得益于多季度訂單承諾以及到2026年強勁的訂單可見性。為滿足預(yù)計到2030年每年增長超過30%的需求,該公司正在提高HBM4的產(chǎn)能,并計劃將DRAM產(chǎn)能提高至多八倍。
三星電子2025Q4在全球DRAM內(nèi)存市場的銷售額占比升至36.6%,而SK海力士的市占則是32.9%,這意味著三星電子在2025Q1丟掉“第一大DRAM廠”榮譽后的一年內(nèi)奪回了該頭銜。三星電子正加速推進下一代高帶寬內(nèi)存布局。在HBM4今年正式進入量產(chǎn)的同時,三星已將目光投向更遠(yuǎn)一代產(chǎn)品——計劃將HBM5基片工藝從4納米提升至2納米,并以1dDRAM作為HBM5E的核心堆疊存儲。與此同時,HBM4將占據(jù)今年三星HBM總出貨量的逾半數(shù),整體HBM產(chǎn)能較去年增長超過三倍。三星電子還計劃在2026年投入超過110萬億韓元(約合733億美元)用于資本支出和研發(fā),這反映出其正在擴大存儲芯片產(chǎn)能、并加大對人工智能(AI)等領(lǐng)域的探索。該公司在一份簡短聲明中表示,這項投資將用于鞏固其在AI技術(shù)領(lǐng)域的領(lǐng)先地位。
作為美國唯一一家大規(guī)模生產(chǎn)DRAM和NAND閃存的制造商,美光科技在全球內(nèi)存供應(yīng)鏈中占據(jù)著獨特的地位。過去幾年,美光科技通過在尖端制程節(jié)點上實現(xiàn)與三星和SK海力士的制造水平持平,并與超大規(guī)模數(shù)據(jù)中心和人工智能硬件制造商建立了深入的設(shè)計合作,縮小了曾經(jīng)與這兩家公司之間存在的巨大技術(shù)差距。
值得注意的是,美光2026財年的全部HBM供應(yīng)均已簽訂價格和數(shù)量協(xié)議。為了實現(xiàn)22%至23%的HBM市場份額目標(biāo),美光將2026財年的資本支出從之前的180億美元提高到200億美元,用于產(chǎn)能擴張,其中包括在愛達(dá)荷州建設(shè)一座由《芯片創(chuàng)新與創(chuàng)新法案》(CHIPSAct)支持的專用HBM工廠。
*聲明:本文系原作者創(chuàng)作。文章內(nèi)容系其個人觀點,我方轉(zhuǎn)載僅為分享與討論,不代表我方贊成或認(rèn)同,如有異議,請聯(lián)系后臺。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.