![]()
芯東西(公眾號:aichip001)
編譯 劉煜
編輯 陳駿達
芯東西4月14日消息,4月12日,據英國《金融時報》報道,多位分析人士稱,谷歌3月25日發布的可提升內存利用效率的TurboQuant算法,非但不會削弱存儲芯片需求,反而將進一步推高市場對存儲芯片的整體需求。
上個月,谷歌發布TurboQuant算法相關博文后,三星與SK海力士股價一度大幅跳水,引發了資本市場對存儲芯片的焦慮。
4月7日,三星電子公布的第一季度業績指引稱,該公司第一季度利潤預計將超過去年全年總和,合并營業利潤約為57.2萬億韓元(約合人民幣2652.75億元),同比增長超755%。這份盈利預期推動三星股價逼近歷史高點,也一定程度上平息了近兩周因TurboQuant引發的市場焦慮。
![]()
▲圖為三星電子的股價走勢圖(圖源:英國《金融時報》)
TurboQuant是在AI交互時長增加以及用戶數量攀升的背景下誕生的。
當前,市場對更長上下文、更低成本的AI服務需求持續提升,AI服務面臨的存儲成本壓力持續加大,而大模型在長上下文推理時會產生大量重復計算,鍵值緩存(KV Cache)正是通過復用歷史計算結果降低這類開銷。但緩存本身會占用內存資源,于是AI產業鏈對KV緩存優化技術的需求急劇增長。
而TurboQuant能夠壓縮鍵值緩存,即壓縮ChatGPT、Claude等模型用于保存對話上下文的短期存儲單元,并在需要時對其進行重構,這個過程中幾乎不會造成明顯的精度損失。
TurboQuant底層算法模塊PolarQuant和QJL的核心研究者、谷歌研究院的客座研究員韓仁洙(Insu Han)稱,該算法“有望成為實現此前難以完成的高難度任務的基礎,例如在有限存儲資源下處理更長的上下文且不損失精度,或是在小型設備上部署高性能AI”。
谷歌稱,TurboQuant能夠降低單token成本,即AI系統處理每單位數據所需的算力與存儲開銷。其研究人員稱,該方法可將存儲占用最多削減至原來的六分之一。
但谷歌發布TurboQuant算法相關博文后,隨即引發了市場圍繞高帶寬內存(HBM)未來需求的激烈且持續的爭論。
韓仁洙稱:“我們從未想到,一項源于‘如何更完美地壓縮數據’這一學術問題的技術,竟會引發如此巨大的社會與經濟連鎖反應。”
部分投資者認為存儲芯片的繁榮將走向破滅,另一些人則認為TurboQuant影響甚微。
有樂觀觀點指出,若該技術確實能降低AI成本,只會催生更多AI應用需求,進而帶動更多芯片需求。
韓國的研究型綜合大學首爾成均館大學教授權錫俊稱:“TurboQuant有望將LLM的運行成本降低四至八成。乍看之下,這似乎會沖擊HBM的需求。”但他補充道:“推理成本大幅下降,會解鎖此前因成本過高而無法落地的算力任務”,例如實時編碼助手以及多AI Agent并行運行等場景,“最終將推動整體算力需求上升,而非下降”。
半導體分析機構SemiAnalysis的王磊說道:“市場很大程度上誤解了TurboQuant。我們始終認為,隨著AI模型迭代與技術創新,無論是訓練還是推理環節,存儲需求都將持續增長。”他還稱,AI服務商為鎖定供應正越來越多地簽訂長期合約,這將緩沖韓國芯片廠商可能面臨的沖擊。
此外,王磊補充道:“受AI需求持續、快速增長驅動,存儲芯片行業的周期性正在減弱,如今合約定價的重要性已超過現貨定價。”
未來資產證券分析師金英建在研報中用“似曾相識”類比了谷歌此前推出的容器編排技術Kubernetes。該技術可在單臺服務器上運行多個應用,大幅提升硬件利用效率。
那是在2010年代末,Kubernetes開始普及,由于該技術能提高服務器效率,市場擔憂企業用更少資源即可實現同等業務效果,進而導致服務器與存儲需求下滑。但后續事實證明,實際情況與市場預期恰恰相反,成本下降催生了更廣泛的應用落地。
目前,TurboQuant仍停留在博客論文階段。待4月下旬其在巴西舉辦的國際學習表征會議(ICLR)正式發布,且開放對外測試后,其實際影響才能顯現。該技術最終能否成功,取決于大型科技企業能否規模化落地應用。
結語:TurboQuant攪動短期估值,訓練剛需驅動HBM長期成長
與TurboQuant提升存儲效率卻可能帶動更大存儲芯片需求的邏輯相似,1865年,經濟學家威廉?斯坦利?杰文斯在其著作《煤炭問題》中曾指出:詹姆斯?瓦特改良的高效率蒸汽機并未減少煤炭消耗,反而讓煤炭動力在更多場景具備經濟可行性,最終大幅推高了煤炭的整體使用量。
當前行業對TurboQuant爭論的核心,本質或是HBM的需求結構將如何被重新調整。
著眼存儲芯片市場,短期來看,推理環節的HBM使用效率顯著提升,單顆GPU可支持更長上下文,引發市場對存儲芯片估值的階段性重估。長期來看,訓練環節仍需高精度HBM支撐千億乃至萬億參數模型訓練。
以TurboQuant為代表的壓縮技術主要影響推理場景,并不會改變訓練側對高端HBM的核心需求,反而可能推動存儲架構向訓練側重容量與帶寬、推理側重高效利用的方向分化。
不過,TurboQuant等技術紅利能否真正轉化為AI效率提升,關鍵或取決于大型科技企業能否將其規模化落地應用,以及與Chiplet先進封裝、CXL內存互聯等技術是否能協同融合。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.