337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

無問芯穹曾書霖談 AI 2.0 時代的大模型推理:從模型到硬件的協(xié)同優(yōu)化

0
分享至


演講嘉賓|曾書霖 博士

編輯|Kitty

策劃|QCon 全球軟件開發(fā)大會

AI 2.0 模型對算力和數(shù)據(jù)的需求激增,導(dǎo)致硬件系統(tǒng)的能耗開銷逐漸“供不應(yīng)求”,亟需軟硬協(xié)同為 AI 行業(yè)提供高質(zhì)量的 AI 系統(tǒng)能效( Tokens/J) 。本文整理自無問芯穹總經(jīng)理曾書霖博士在 2025 年 QCon 全球軟件開發(fā)大會(上海站) 的演講 “AI 2.0 時代的大模型推理:從模型到硬件的協(xié)同優(yōu)化”。他介紹了軟硬件協(xié)同優(yōu)化以提升智能系統(tǒng)能效的研究成果,包括模型稀疏量化壓縮、高效推理系統(tǒng)設(shè)計與大模型加速器設(shè)計。并且結(jié)合華為昇騰集群的工程實踐,探討下一代 AI 推理系統(tǒng)的演進(jìn)趨勢。

以下是演講實錄(經(jīng) InfoQ 進(jìn)行不改變原意的編輯整理)。

各位好,今天我想和大家介紹一下我們無問芯穹在大模型時代圍繞大模型推理所開展的一些實踐工作,以及我們觀察到的一些趨勢。我將主要從云和端兩個維度展開,并結(jié)合我們在華為昇騰集群上進(jìn)行優(yōu)化的實踐經(jīng)驗進(jìn)行分享。

在開始之前,我想先簡要回顧一下大的背景。我們相信,大家聚集在這里交流今天的工程實踐,是因為我們都認(rèn)同我們正處于一個非常重要的時間節(jié)點。通過人工智能,尤其是大模型技術(shù),我們有望對整個產(chǎn)業(yè)進(jìn)行深刻的變革。在大模型時代,最核心的工具是一套大模型算法以及底層的算力芯片,它們共同實現(xiàn)新的勞動價值創(chuàng)造。而我們最核心的任務(wù)是通過軟硬協(xié)同,將上層的算法與底層的芯片通過中間的模型推理軟件棧連接起來,以此作為放大 AI 產(chǎn)業(yè)價值的關(guān)鍵。這涉及如何在各種芯片和算力集群上進(jìn)行有效的資源調(diào)度,以及如何優(yōu)化模型在芯片上的推理過程,包括模型壓縮、圖算融合以及云和端的協(xié)同。接下來,我將分別從云和端兩個維度詳細(xì)介紹我們所開展的工作。

1 以智能革命,引領(lǐng)大模型推理范式變革

快速回顧一下過去十年 AI 發(fā)展的一些重要節(jié)點。相信各位對大模型的典型發(fā)展趨勢也十分熟悉,無論是在國內(nèi)還是國外。推動這些模型不斷演進(jìn)、不斷涌現(xiàn)出新的創(chuàng)意結(jié)構(gòu)的核心因素,其實是底層堅實的 AI 基礎(chǔ)設(shè)施,包括芯片的演進(jìn)以及整個推理基礎(chǔ)設(shè)施的演進(jìn)。

從發(fā)展歷程來看,2022 年大家還在關(guān)注如何制定一個良好的預(yù)訓(xùn)練方案。隨后,通過 Post-Training 使模型能夠更好地適應(yīng)各種垂直領(lǐng)域以及與人類思維方式對齊。如今,我們已經(jīng)進(jìn)入了一個新的階段,即推理的規(guī)模拓展階段。這一階段的關(guān)鍵是如何將更優(yōu)質(zhì)的模型應(yīng)用于各種垂直領(lǐng)域場景,以及在長文本和更大規(guī)模的推理服務(wù)中進(jìn)行拓展,從而真正實現(xiàn)不同行業(yè)的落地應(yīng)用。


在這一過程中,我們觀察到一些重要的趨勢。首先是推理范式的變化。從最初的逐 Token 推理,到現(xiàn)在基于 Agent 和強(qiáng)化學(xué)習(xí)的引入,推理計算需求發(fā)生了顯著變化。從最初的幾倍增長,到現(xiàn)在由于引入了長上下文推理等因素,算力需求已經(jīng)增長了 10 到 100 倍。這對于從事基礎(chǔ)設(shè)施建設(shè),尤其是推理優(yōu)化的我們來說,無疑帶來了更大的挑戰(zhàn)。

我們探討模型推理,從產(chǎn)業(yè)界的角度來看,未來對算力的需求正逐漸從訓(xùn)練轉(zhuǎn)向推理。今年年初,在 NVIDIA 的 GTC 大會上,黃仁勛也提到,未來我們需要更大規(guī)模的集群來支撐大模型在各行業(yè)的落地。集群規(guī)模越大,優(yōu)化空間越高,由此帶來的企業(yè)收益或 AI 應(yīng)用的效益也會越大。然而,這一切都離不開一套強(qiáng)大的 AI 推理基礎(chǔ)設(shè)施的支撐。

接下來,我將從幾個方面展開分析。首先,我們來看優(yōu)化的對象。端側(cè)包括手機(jī)、PC 等小型設(shè)備,而云側(cè)則涵蓋一體機(jī)和數(shù)據(jù)中心的集群。我們對應(yīng)用及其理論性能進(jìn)行了分析。從端側(cè)來看,現(xiàn)有的手機(jī)或 PC 設(shè)備在運(yùn)行本地 3B 或 7B 模型時,推理性能大致在每秒 10 到 20 個 Token 左右,基本能滿足正常對話需求。但如今,人們不再滿足于單純的對話,還希望 AI 能處理更復(fù)雜的任務(wù),如日程規(guī)劃、屏幕內(nèi)容分析等。這些任務(wù)所需的 Token 量,隨著 Test-Time Scaling 和多模態(tài)的發(fā)展,相比現(xiàn)有能力存在 1 到 2 個量級的差距。如何彌補(bǔ)這一差距,是端側(cè)需要思考的問題。而在云側(cè),無論是單臺機(jī)器還是大規(guī)模集群,核心都是要充分釋放芯片、存儲和互聯(lián)的能力,盡可能用滿集群的算力資源。目前,一些運(yùn)行 DeepSeek 的推理系統(tǒng),其實際性能與理論值仍有 2 到 3 倍的差距,這需要我們從基礎(chǔ)設(shè)施層面去提高利用率,挖掘芯片的每一分潛力。

從實際應(yīng)用場景來看,端側(cè)和云側(cè)各有特點。端側(cè)主要針對單用戶、少請求場景,需要將單個模型、單個用戶請求的性能優(yōu)化到極致。這是一個資源受限的場景,手機(jī)和 PC 的功耗、芯片算力、存儲和帶寬都是有限的。如何選擇合適的模型,使其與芯片協(xié)同,滿足端側(cè)需求,是一個關(guān)鍵問題。云側(cè)則從基礎(chǔ)設(shè)施角度出發(fā),要考慮多用戶、資源搶占以及不同用戶上下文、模型和 Agent 場景的差異。這種差異化的訪問請求,為云側(cè)優(yōu)化提供了更大的空間,也帶來了不同的優(yōu)化目標(biāo)和約束條件。


這些場景背后都繞不開幾個核心挑戰(zhàn)。如何提升計算利用率,以及如何充分利用存儲資源,無論是在筆記本還是集群中,都是關(guān)鍵問題。最近兩個月,內(nèi)存價格幾乎翻了一倍,HBM、DRAM 等供應(yīng)商也在控制產(chǎn)能。隨著模型規(guī)模增大、上下文變長,存儲挑戰(zhàn)將越來越大。在端側(cè),我們還要關(guān)注 SOC 的異構(gòu)調(diào)度,包括 CPU、GPU 和 NPU。而在云側(cè),要在保證每個用戶的 SLO 以及低延遲和高吞吐量的前提下,盡可能用滿整個集群的資源。


2 以彈性算力集群,驅(qū)動云側(cè)智能升級

我們先回顧一下在云側(cè)進(jìn)行大模型推理所面臨的基本挑戰(zhàn),這些挑戰(zhàn)主要集中在計算、存儲和調(diào)度三個維度。

在計算方面,模型推理中的 Prefill(填充)和 Decode(解碼)階段本身就存在較大差異。Prefill 更傾向于計算密集型任務(wù),而 Decode 則更偏向于訪存密集型任務(wù)。在存儲方面,盡管人們可能天然認(rèn)為云側(cè)的存儲資源是充足的,但我們發(fā)現(xiàn),許多端云推理引擎都存在存儲利用率低的問題。這主要是由于 Prefill 和 Decode 對顯存的占用不同,以及多用戶之間的碎片化導(dǎo)致的。此外,在云側(cè),調(diào)度問題也是不可避免的,包括如何進(jìn)行虛擬化、如何實現(xiàn)多用戶的性能隔離,同時還要盡可能提升資源利用率。這些就是目前我們在云側(cè)大模型推理中所面臨的一些挑戰(zhàn)。


從 2022 年大模型出現(xiàn)以來,無論是產(chǎn)業(yè)界還是學(xué)術(shù)界,都有一些代表性的工作,從計算、存儲、調(diào)度等多個不同維度對大模型在云側(cè)的推理服務(wù)進(jìn)行了針對性的優(yōu)化。今天,我將重點介紹其中一項工作,即圍繞 Prefill 和 Decode 分離(P/D 分離)的優(yōu)化實踐。

最初,在進(jìn)行大模型推理時,我們通常會將 Prefill 和 Decode 請求都放在同一張 GPU 卡或一個 GPU 節(jié)點內(nèi)。在這種情況下,它們需要共享 GPU 的計算資源,同時它們的權(quán)重、激活值以及 KV Cache 都存儲在 GPU 的 HBM 中。這種融合式場景在早期被廣泛采用,包括 Kimi 和 DeepSeek 等項目,都是在 P/D 分離的基礎(chǔ)上進(jìn)行大模型推理的實踐。P/D 分離的簡單邏輯是將 Prefill 實例和 Decode 實例進(jìn)行分解,將 Prefill 實例部署在一些算力較高的 GPU 集群上,而將 Decode 實例部署在另一些存儲容量大、帶寬高的 GPU 集群上。例如,對于 Prefill 實例,我們可以選擇算力更強(qiáng)的 GPU 集群;而對于 Decode 實例,我們可以選擇像 H20 這樣算力稍小但 HBM 容量和帶寬較大的集群進(jìn)行部署。這種方案目前在業(yè)界較為常見。


我們分析一下這兩種方案各自的優(yōu)劣勢。對于融合式推理方案,它首先面臨的是我們在云上進(jìn)行推理時不可避免的問題,即資源沖突和資源搶占。Prefill 和 Decode 請求本身對計算和存儲的需求就不一致。我們之前提到,Prefill 是一個算力密集型任務(wù),而 Decode 是一個訪存密集型任務(wù)。將它們都放在同一張 GPU 卡或一個節(jié)點上,自然會面臨由于需求不同導(dǎo)致的延時干擾和計算資源分配不均的問題。在這種情況下,想要對它們進(jìn)行細(xì)粒度的調(diào)控是非常困難的。然而,這種融合式方案也有它的優(yōu)勢,即將存儲融合在一起,無需進(jìn)行 KV Cache 之間的傳輸,相應(yīng)地,存儲管理的實現(xiàn)會更加簡單。

再來看 P/D 分離的方式,它的核心優(yōu)勢在于解決了融合式方案中 Prefill 和 Decode 計算資源搶占的問題。將 Prefill 和 Decode 拆開后,可以根據(jù)它們各自對計算和存儲的需求進(jìn)行針對性的管理。如果 Prefill 實例對計算的要求比較一致,它們的行為和模式就更容易預(yù)測,因此在資源調(diào)度上可以采用更粗粒度、更可預(yù)測的方式進(jìn)行管理,Decode 實例也是如此。此外,P/D 分離還可以更好地進(jìn)行資源配比。然而,這種方式也引入了一些新的問題。首先,它對存儲的開銷和切換會帶來額外的挑戰(zhàn)。例如,P/D 分離后,P 實例和 D 實例之間的 KV Cache 存儲非常不均衡。在 P 實例上,可能只有 23% 的存儲用于 KV Cache,而在 Decode 實例上,可能有 70% 的存儲開銷都用于存儲 KV Cache。這就導(dǎo)致 P 實例和 D 實例之間需要頻繁進(jìn)行 KV Cache 的傳輸,這就要求 GPU 之間以及節(jié)點之間的互聯(lián)帶寬需要更大,同時需要對通信庫進(jìn)行更底層的優(yōu)化支持。此外,由于 P 實例和 D 實例之間存儲的不均衡,在進(jìn)行內(nèi)存管理時,P 實例上可能會出現(xiàn)顯存浪費(fèi)的情況。例如,除了存儲權(quán)重和 KV Cache 之外,可能有 30% 到 40% 的顯存無法被充分利用,這些未被利用的顯存會導(dǎo)致整個集群出現(xiàn)顯存浪費(fèi)的問題。由于顯存成本較高,這種浪費(fèi)會顯著增加整個推理系統(tǒng)的成本。


如何將兩者的優(yōu)點結(jié)合起來,同時避免它們的不足?;谏鲜龇治?,我們提出了一個名為“P/D 半分離”的方式。在計算層面,我們對 Prefill 和 Decode 進(jìn)行隔離,而在存儲層面則進(jìn)行融合。我們希望既能享受計算隔離帶來的優(yōu)勢,又能減少存儲融合導(dǎo)致的 KV Cache 傳輸開銷。

在 P/D 半分離的整體架構(gòu)中,首先從計算層面來看,我們希望對 Prefill 和 Decode 進(jìn)行分離。這種分離借鑒了云計算領(lǐng)域常用的虛擬化技術(shù)。早在 20 年云游戲興起時,就涉及如何在 GPU 的 SM 或其他計算單元上對不同游戲?qū)嵗M(jìn)行隔離式切分,當(dāng)時采用了多種進(jìn)程間虛擬化和隔離技術(shù)。類似地,在大模型出現(xiàn)之前,許多 AI 推理服務(wù)也在進(jìn)程維度對多個任務(wù)進(jìn)行隔離和虛擬化。因此,我們同樣以進(jìn)程間的方式對 Prefill 和 Decode 實例進(jìn)行隔離,并按照 SM 的粒度對資源進(jìn)行分配。這樣做的好處是可以實現(xiàn)細(xì)粒度的資源管控,同時盡可能確保 P 實例和 D 實例之間有較好的分離。


在存儲維度,我們主要針對 Prefill 和 Decode 的不同需求進(jìn)行了針對性優(yōu)化。之前的主要問題是,如果將它們?nèi)诤希捎?Prefill 和 Decode 對顯存的需求是動態(tài)的,核心邏輯是盡可能高效地利用顯存。這就需要了解當(dāng)前顯存的使用情況以及任務(wù)所需的顯存量。具體來說,分為三個步驟:第一步是分析當(dāng)前顯存的使用情況;第二步是確定當(dāng)前是 Prefill 還是 Decode,以及該任務(wù)所需的顯存量;第三步是對顯存空間進(jìn)行資源申請。如果將 Prefill 和 Decode 放在一起運(yùn)行,它們之間可能會出現(xiàn)讀后寫依賴,以及細(xì)粒度訪存請求互相干擾的問題。因此,我們首先將 Prefill 和 Decode 的細(xì)粒度內(nèi)存訪問融合成一個大的原子操作,然后在這個原子操作上對 Prefill 和 Decode 分別進(jìn)行管理。這樣做的好處是,融合后 Prefill 和 Decode 之間不會出現(xiàn)讀后寫依賴沖突,同時也能更好地管理顯存碎片化。

在資源分配方面,我們舉了一個例子。在優(yōu)化前,我們可能給 Prefill 分配了約 2/3 的資源,給 Decode 分配了 60% 的資源。但如果在下一時刻我們認(rèn)為應(yīng)該給 Prefill 分配更多資源,由于這兩個進(jìn)程本身獲得的資源不同,理論上需要重新加載和拷貝 KV Cache、上下文等參數(shù),這會產(chǎn)生額外的資源調(diào)整開銷。于是,我們想到引入一個常駐進(jìn)程來管理 KV Cache 和模型權(quán)重的加載。這樣,原有的 Prefill 和 Decode 進(jìn)程可以預(yù)先依托常駐進(jìn)程進(jìn)行資源加載,無需引入額外的拷貝開銷,從而減少 KV Cache 和資源分配方面的問題。


除了前面提到的方案,我們在實際生產(chǎn)環(huán)境中,也針對實例推理以及集群規(guī)模的 P/D 融合方式進(jìn)行了支持。在實例級別,我們主要關(guān)注一臺或兩臺 8 卡、16 卡的服務(wù)器規(guī)模。在這種情況下,Prefill 實例和 Decode 實例分別進(jìn)行通信,且 Prefill 和 Decode 之間采用異步方式,這樣可以更好地進(jìn)行管理,并減少同步開銷。

在集群規(guī)模方面,我們主要與現(xiàn)有的框架,包括 Kimi 開源的一些 P/D 分離框架進(jìn)行融合。你可以選擇直接使用現(xiàn)有的 Prefill 和 Decode 實例,也可以使用我們這種半分離的實例。核心目標(biāo)是打開整個集群規(guī)模的優(yōu)化空間,從而在上面進(jìn)行更精細(xì)化的優(yōu)化空間探索,找到一些更好的設(shè)計點。

與 SGLang 相比,我們的吞吐率提升了 10%,延時降低了兩倍。同時,我們的 TTFT 和 ITL 的整體延時都得到了顯著優(yōu)化。從完成率曲線可以看出,與 SGLang 相比,我們在實際線上業(yè)務(wù)中完成請求的占比提升明顯快于 SGLang 的結(jié)果。


3 面向華為昇騰的推理優(yōu)化部署實踐

最近,我們在華為昇騰平臺,特別是其 910B 的 384 超節(jié)點上,進(jìn)行了一些探索。這些探索主要集中在百卡到千卡規(guī)模的集群推理實踐上。在開始之前,我們首先進(jìn)一步分析了為什么需要超節(jié)點,以及華為開發(fā)超節(jié)點背后的邏輯。從下圖左邊可以看到,OpenAI 提出了從 L1 到 L5 的演進(jìn)趨勢,橫軸代表智能水平。理論上,從 L1 到 L5,模型的智能水平應(yīng)該越來越強(qiáng)。我們經(jīng)過分析發(fā)現(xiàn),要支撐這種智能水平的演進(jìn),整個推理的能效,即 Token/J,也需要持續(xù)迭代。我們之前介紹的實例推理主要圍繞 L1 到 L2,或接近 L3 的部分。但未來,如果要支持多智能體、超大的 MoE,就需要更強(qiáng)的系統(tǒng)能力。

從右邊的趨勢可以看出,首先,模型規(guī)模越來越大。DeepSeek、Llama、Kimi 等模型從千億規(guī)模演進(jìn)到萬億規(guī)模,這意味著原來的實例推理已經(jīng)無法滿足需求,需要更大的模型來提供支持。其次,目前大家都有意識地向 MoE 的超稀疏多專家方向發(fā)展,且專家數(shù)量越來越多。例如,DeepSeek 有 256 個專家,而 Kimi 有 384 個專家。這種多專家的變化與超節(jié)點多卡的方式天然契合,便于進(jìn)行大規(guī)模 EP(Expert Parallelism,專家并行)部署。此外,超長上下文也是一個趨勢?,F(xiàn)在,上下文長度已經(jīng)從 8K、50K 發(fā)展到 128K,甚至更長。


接下來,我們來看在昇騰平臺上部署會面臨哪些問題。最近,昇騰的許多團(tuán)隊圍繞 910B 和 920C 進(jìn)行了一些具體的實踐,這是一個令人欣喜的過程。從最初的實例推理到現(xiàn)在的集群推理,性能有了量級的提升。然而,從“能用”到“好用”之間仍存在差距。這個差距主要體現(xiàn)在兩個方面:一方面,模型的上下文越來越長,這帶來了計算、存儲和通信的匹配問題;另一方面,華為的昇騰架構(gòu)是一個 NPU 架構(gòu),其算子生態(tài)需要整個行業(yè)共同迭代。這自然會面臨開源社區(qū)和整個軟件棧迭代的問題。未來,模型肯定會逐步演進(jìn),如何將模型與集群更好地匹配起來,也是一個亟待解決的問題。

在這里,我想和大家分享一些我們在超節(jié)點上以及結(jié)合未來模型發(fā)展所遇到的挑戰(zhàn)。首先是長文本問題。長文本的需求在 Agent 以及未來的具身智能等領(lǐng)域肯定會不斷增加。長文本的核心特點是對 KV Cache 的占用會越來越大。如果文本較短,實例推理或許還能應(yīng)對,最多支持 4K 到 8K 的上下文。但如果要支持 128K,甚至未來是 512K 以及更長的上下文,現(xiàn)有的實例推理顯存顯然已經(jīng)無法滿足需求。因此,自然而然地需要從實例推理轉(zhuǎn)向集群推理,以獲得更大的存儲池來支持 KV Cache 的存儲。

這自然帶來了另一個問題:如何解決 KV Cache 之間的傳輸挑戰(zhàn)。從計算層面來看,上下文越長,對應(yīng)的 KV Cache 以及在 Prefill 階段進(jìn)行 Attention 計算時的計算需求也會越大。因為 Attention 計算本身是隨著上下文長度呈二次方增長的,這就必然涉及到 MLA 以及 MoE 算子的計算優(yōu)化問題。在通信層面,KV Cache 越來越大,必然會帶來更多的通信和同步開銷。過去,我們更多關(guān)注的是實例推理中的 TP(張量并行)并行。但現(xiàn)在,我們可能需要從張量并行切換到序列并行,甚至融合序列并行和專家并行的方式,來解決計算和通信開銷問題。從框架層面來看,過去我們主要關(guān)注如何在 P 實例和 D 實例之間進(jìn)行調(diào)度。但如今,超節(jié)點本身是一個融合方案,超節(jié)點與超節(jié)點之間如何協(xié)同支持,以及未來如何將不同模型部署到不同的超節(jié)點上,這都是框架層面需要考慮的模型適配問題。

在對昇騰架構(gòu)的探索中,我們重點關(guān)注了計算層面的優(yōu)化問題,尤其是與長文本處理和集群推理相關(guān)的挑戰(zhàn)。首先,從計算層面來看,隨著模型上下文長度的增加,注意力機(jī)制(Attention)的算力需求顯著增大。這不僅體現(xiàn)在對張量核心(Tensor Core)的計算需求上,還體現(xiàn)在對標(biāo)量計算的需求上。在昇騰架構(gòu)中,標(biāo)量計算單元(Scalar Unit)和向量計算單元(Vector Unit)的算力與矩陣計算單元(Cube Unit)存在較大差距。我們通過分析發(fā)現(xiàn),隨著上下文長度的增加,標(biāo)量和向量計算的時間占比可能會從 10% 飆升到 30% 至 40%。這種非張量計算帶來的瓶頸需要從芯片層面進(jìn)行針對性優(yōu)化。

針對長上下文導(dǎo)致的 KV Cache 存儲不均問題,這與之前提到的 P/D 分離優(yōu)化類似,但面向的是超節(jié)點內(nèi) NPU 和 NPU 之間,甚至是 GPU 和 GPU 之間的部署問題。在長上下文和云端推理場景中,計算力需求與存儲需求的綁定因素不同。算力需求與請求數(shù)(batch size)緊密相關(guān),而存儲需求則與上下文長度相關(guān)。這種不一致性導(dǎo)致在集群推理和云端推理場景中,需要考慮的因素更多,且它們之間的相互影響也更為復(fù)雜。


資源匹配問題也是一個關(guān)鍵挑戰(zhàn)。例如,在 384 超節(jié)點上部署 DeepSeek 模型時,由于模型的專家權(quán)重數(shù)量(320)與超節(jié)點數(shù)量(384)無法整除,導(dǎo)致部分 NPU 或 GPU 資源浪費(fèi)。這表明 384 超節(jié)點在設(shè)計時可能并未完全針對特定模型進(jìn)行優(yōu)化,未來新模型的出現(xiàn)將進(jìn)一步加劇這一問題。

針對這些問題,我們與清華大學(xué)和上海交通大學(xué)的團(tuán)隊進(jìn)行了探索,并針對一些關(guān)鍵算子進(jìn)行了底層優(yōu)化。這些優(yōu)化包括 L2、L1、L0 緩存之間的數(shù)據(jù)搬運(yùn)和復(fù)用策略,以及基于昇騰 CCE 的底層支持。最近,我們還發(fā)表了一篇論文《FlashOverlap》 ,提出了針對昇騰架構(gòu)的細(xì)粒度計算和通信流水優(yōu)化方法,感興趣的朋友可以查閱。


總結(jié)來說,我們認(rèn)為集群推理其實是一個更為復(fù)雜的優(yōu)化問題。在進(jìn)行 AI 推理優(yōu)化時,本質(zhì)上我們都在做各種各樣的多目標(biāo)優(yōu)化。我們既希望延時低,又希望吞吐量高,還希望資源利用率強(qiáng),并且能夠盡可能地服務(wù)更多用戶。然而,在這個過程中,我們需要考慮諸多因素,包括模型的類型、規(guī)模,芯片的算力構(gòu)成,可用的帶寬、顯存,以及整個節(jié)點的規(guī)模和節(jié)點之間的互聯(lián)帶寬等。我們一直強(qiáng)調(diào)軟硬協(xié)同,其本質(zhì)便是在這樣一個龐大的優(yōu)化空間里,嘗試對計算、通信以及框架等資源配比進(jìn)行合理的映射和優(yōu)化搜索。所以,我覺得這個領(lǐng)域是需要持續(xù)進(jìn)行技術(shù)攻關(guān)的,而我們目前也正在不斷地探索,從計算到框架再到通信層面,我們都在持續(xù)地進(jìn)行嘗試。

4 以有限算力架構(gòu),釋放終端應(yīng)用潛能

在一些資源受限的芯片上,比如手機(jī)、PC 上,我們還能做哪些工作呢?大的背景是,我們堅信未來大模型將在更廣泛的智能終端設(shè)備上落地,包括大家手里的手機(jī)、筆記本電腦,以及現(xiàn)在比較火的機(jī)器人,還有各種新形態(tài)的終端,這些都將是未來重要的智能入口。這個智能入口不僅會影響到云側(cè)的配合,也會涉及到端側(cè)有一個更懂你的智能體來幫你處理越來越多的事情。所以,這塊帶來的想象空間是越來越大的。結(jié)合現(xiàn)在比較火的具身智能,不管是自動駕駛、無人機(jī)還是機(jī)器人的場景,其實對 Token 的需求還是很大的,至少是在 100 到 1000 個 Token 這個量級。那么,如何用一個比較好的芯片和基礎(chǔ)設(shè)施去支撐這樣大的 Token 需求,至少在端側(cè)這個場景是一個需要解決的問題。


在端側(cè),我們也是從計算、存儲、通信這幾個方面做了一些分析,包括在 GPU 和 CPU 上的一些優(yōu)化。這可能涉及到在 SOC 上,能否把上面的 NPU 也利用起來。因為端側(cè)本身就是一個存儲非常有限的設(shè)備,所以如何把一個很大的模型進(jìn)行蒸餾、壓縮,壓縮完以后是否還能滿足需求,以及是否能在有限的空間里用計算去換存儲的方式做一些優(yōu)化。

目前業(yè)界的優(yōu)化也分為幾類。一類是做一些投機(jī)解碼等技術(shù),本質(zhì)上是因為端側(cè)存儲比較貴,而算力相對來說有一些富余。因為在端側(cè),你不需要跑很大的 batch size,一般都是單 batch 和單用戶的推理,所以大部分情況下計算是有富余的。那么,多出來的計算就可以用來換取存儲。所以,現(xiàn)在所有的投機(jī)解碼方式都是在做這塊的事情。另一類是模型壓縮,不管是做稀疏量化還是蒸餾,都是為了讓模型在保持智能水平的情況下變得越來越小。其實,包括 MIT 和我們團(tuán)隊之前都做了很多這種壓縮的工作。還有一類是端側(cè)本身是一個 SOC 平臺,那如何在上面做一些協(xié)同優(yōu)化,也是一個重要的方向。


我們團(tuán)隊最近開展了一項工作,這是一個典型的軟硬件協(xié)同優(yōu)化方案。我們的思路是從投機(jī)采樣等技術(shù)入手,從模型和軟件兩個層面進(jìn)行探索。簡單來說,正常情況下,模型推理包含多個層級。之前有早退技術(shù)的概念,即無需完成所有層級的計算就能輸出結(jié)果。例如,一個 32 層的模型,可能在計算到第 31 層時,結(jié)果的概率就已經(jīng)接近閾值,可以提前結(jié)束。但關(guān)鍵問題在于,何時應(yīng)該結(jié)束?這需要一個判斷過程。如果將這個判斷過程建模,實際上是在一個上萬規(guī)模的詞表中進(jìn)行搜索分類。對于典型的大模型,詞表通常是萬級的,比如一個 3 萬詞表,這樣的搜索開銷非常大。我們希望在享受早退技術(shù)帶來的計算和存儲開銷減少優(yōu)勢的同時,盡量使其可用,否則每次都要搜索一遍,可能會帶來不可接受的開銷。


核心問題在于如何構(gòu)建一個中間預(yù)測模型,以縮短在線搜索的開銷。比如在某一層判斷是否可以結(jié)束時,能夠通過一個小的推測模型,在極低開銷下進(jìn)行判斷。這個推測模型會根據(jù)輸入,將原本龐大的詞表縮減為一個非常小的詞表。因為在對話場景中,下一個詞相對比較確定,本質(zhì)上不需要在大詞表中搜索。理論上,可以提前訓(xùn)練一個小模型,讓它知道在什么范圍內(nèi)找到這個詞,然后在這個小詞表下進(jìn)行搜索,從而盡可能降低開銷。

如何以低開銷、高精度的方式進(jìn)行這種級聯(lián)計算。由于我們本質(zhì)上是在做軟硬件協(xié)同優(yōu)化,修改算法不可避免地會引入一些開銷。因此,如果預(yù)測錯誤,就需要一些在線修正機(jī)制。我們在這方面也做了一些工程優(yōu)化,以確保預(yù)測錯誤時能夠快速修正,從而保證精度不受損失。此外,針對頻繁調(diào)度的開銷問題,我們在端側(cè)開發(fā)了一個調(diào)度引擎,用于記錄早退的位置,并提前存儲早退的概率,結(jié)合離線調(diào)度和在線調(diào)度,優(yōu)化整體的調(diào)度效率。

從結(jié)果來看,下圖黃色部分是基于一些稀疏化的優(yōu)化,綠色部分是量化優(yōu)化。我們可以看到,通過軟硬件協(xié)同的方式,在保證精度的同時提升了速度,使性能盡可能向右上角提升。在實際部署中,我們在聯(lián)想的 AI PC 上進(jìn)行了部署,端到端的性能大約提升了兩倍。


5 以大模型推理技術(shù)創(chuàng)新,融合人工智能產(chǎn)業(yè)創(chuàng)新

我們與各位探討了在云和端側(cè)部署大模型時面臨的效率挑戰(zhàn)。我們的核心目標(biāo)是無論在云端還是端側(cè)設(shè)備上,都能充分利用大模型的優(yōu)勢,同時盡可能降低對硬件資源的需求,并滿足用戶對推理服務(wù)質(zhì)量的要求。一直以來,我們致力于將推理系統(tǒng)部署到云端,推動整個產(chǎn)業(yè)鏈的運(yùn)轉(zhuǎn)。因為,盡管從事基礎(chǔ)設(shè)施和技術(shù)工作的人員主要關(guān)注 Token 的性能,但僅靠 Token 性能是不夠的。我們還需要讓足夠多的應(yīng)用企業(yè)參與進(jìn)來,形成產(chǎn)業(yè)閉環(huán)。只有當(dāng)大家廣泛使用大模型,探索其在各行業(yè)的應(yīng)用,并在 Token 量大幅提升后,才能有足夠的需求推動基礎(chǔ)設(shè)施的發(fā)展。我認(rèn)為這是一個良好的正向循環(huán)。在端側(cè),我們則與聯(lián)想等企業(yè)以及各種端設(shè)備進(jìn)行了探索,希望未來無論是 AI PC、AI 手機(jī),還是其他終端設(shè)備,都能為用戶帶來使用體驗上的變革。

我們認(rèn)為未來端和云并非解耦的,而是需要協(xié)同支撐的。在相當(dāng)長的一段時間里,端和云將相互補(bǔ)充、共同存在。在端側(cè),我們可以部署 3B、7B 或 13B 左右的模型,用于本地化處理和個人個性化助理功能。這些模型能夠了解用戶的想法,幫助管理個人日程,并分析個性化需求。由于涉及隱私性要求,這些功能需要在本地實現(xiàn)。而當(dāng)用戶需要處理更復(fù)雜的任務(wù)時,端側(cè)設(shè)備可以調(diào)用云端的 Agent 和更強(qiáng)大的模型,為用戶提供輔助支持。我們相信,在未來很長一段時間里,需要探索出一個云與端協(xié)同的框架,以確保大模型在各行業(yè)的更好落地。


我們的愿景是,就像 30 年前水電走進(jìn)千家萬戶一樣,如今我們希望通過端云協(xié)同和更高效的基礎(chǔ)設(shè)施,與上下游通力合作將大模型的成本降低萬倍,使其普及到更多領(lǐng)域。

演講嘉賓介紹

曾書霖,無問芯穹總經(jīng)理,于 2018 年和 2023 年在清華大學(xué)電子工程系獲得工學(xué)學(xué)士和博士學(xué)位,師從清華大學(xué)電子工程系教授、IEEE Fellow 汪玉,研究領(lǐng)域為軟硬協(xié)同優(yōu)化研究和 AI 加速器設(shè)計。在相關(guān)領(lǐng)域發(fā)表高水平國際會議和期刊論文 20 余篇,谷歌學(xué)術(shù)施引九百余次,包括以第一作者或共同一作發(fā)表高水平論文于可重構(gòu)計算領(lǐng)域旗艦會議( FPGA · 25, FPGA · 24)、體系結(jié)構(gòu)領(lǐng)域頂級會議 (HPCA · 25, MICRO · 23)、以及頂級期刊 IEEE TC、ACM TRETS 等。曾獲 FPGA 2025 會議最佳論文獎( FPGA 會議首次將該獎項授予完全由中國大陸科研團(tuán)隊主導(dǎo)的研究工作,也是亞太國家團(tuán)隊首次獲此殊榮)、IEEE TC 2023 Featured Paper of the Month、清華大學(xué)研究生國家獎學(xué)金等。在創(chuàng)新創(chuàng)業(yè)方面,作為創(chuàng)始成員參與創(chuàng)立上海無問芯穹智能科技有限公司,并作為智能終端業(yè)務(wù)負(fù)責(zé)人,帶領(lǐng)團(tuán)隊打造“端模型 + 端軟件 + 端 IP ”的智能終端一體化解決方案。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
80年陳云建議陳錫聯(lián)辭職,陳錫聯(lián)猛拍桌:讓我干啥,我絕無二話!

80年陳云建議陳錫聯(lián)辭職,陳錫聯(lián)猛拍桌:讓我干啥,我絕無二話!

抽象派大師
2026-03-25 12:04:28
回加拿大生活的大山,60歲須發(fā)皆白很滄桑,重慶妻子仍風(fēng)韻猶存

回加拿大生活的大山,60歲須發(fā)皆白很滄桑,重慶妻子仍風(fēng)韻猶存

素衣讀史
2026-03-25 21:05:22
真不能怪祖院長,就曾醫(yī)生這顏值、這才華和魅力,誰遭的?。?>
    </a>
        <h3>
      <a href=真不能怪祖院長,就曾醫(yī)生這顏值、這才華和魅力,誰遭的?。?/a> 吃瓜局
2025-11-11 16:23:49
場上效果很不理想,湖人鋒線大閘到了季后賽估計還是很難出場?

場上效果很不理想,湖人鋒線大閘到了季后賽估計還是很難出場?

稻谷與小麥
2026-03-27 01:18:15
“14天12板”!000908,復(fù)牌后上演“地天板”

“14天12板”!000908,復(fù)牌后上演“地天板”

大眾證券報
2026-03-26 17:58:54
馬筱梅曬汪寶滿月宴,六菜一湯很低調(diào),張?zhí)m未參加,小心思太明顯

馬筱梅曬汪寶滿月宴,六菜一湯很低調(diào),張?zhí)m未參加,小心思太明顯

阿庫財經(jīng)
2026-03-27 00:01:45
15戰(zhàn)14勝,加時掀翻東部第一!新鷹王27+8+12證明賤賣特雷楊有理

15戰(zhàn)14勝,加時掀翻東部第一!新鷹王27+8+12證明賤賣特雷楊有理

鍋子籃球
2026-03-26 11:25:55
巴薩舊將:當(dāng)時赫萊布知道自己要離隊,他往功能飲料里兌酒喝

巴薩舊將:當(dāng)時赫萊布知道自己要離隊,他往功能飲料里兌酒喝

懂球帝
2026-03-26 06:43:09
外媒:40%的消費(fèi)者希望中國品牌汽車進(jìn)入美國市場

外媒:40%的消費(fèi)者希望中國品牌汽車進(jìn)入美國市場

環(huán)球網(wǎng)資訊
2026-03-24 13:45:12
伊朗再獲重大勝利!美國,又被打慘了!

伊朗再獲重大勝利!美國,又被打慘了!

大嘴說天下
2026-03-26 19:32:16
15名津巴布韋人被俄羅斯騙去烏克蘭當(dāng)炮灰戰(zhàn)死,當(dāng)局怒揭殘酷真相

15名津巴布韋人被俄羅斯騙去烏克蘭當(dāng)炮灰戰(zhàn)死,當(dāng)局怒揭殘酷真相

老馬拉車莫少裝
2026-03-27 00:00:37
伊朗抓捕14名叛國分子

伊朗抓捕14名叛國分子

財聯(lián)社
2026-03-26 20:04:13
路透社:歐盟警告越南,敢用中國5G,就讓外資撤光!

路透社:歐盟警告越南,敢用中國5G,就讓外資撤光!

泠泠說史
2026-03-26 18:06:17
白宮堅稱美伊仍在談判,威脅伊朗“切勿誤判”;伊朗外長:美國談?wù)摗罢勁小睙o異于承認(rèn)“失敗”,伊朗放聲開新戰(zhàn)線

白宮堅稱美伊仍在談判,威脅伊朗“切勿誤判”;伊朗外長:美國談?wù)摗罢勁小睙o異于承認(rèn)“失敗”,伊朗放聲開新戰(zhàn)線

每日經(jīng)濟(jì)新聞
2026-03-26 17:08:49
菲總統(tǒng)候選人莫雷諾:如果當(dāng)選,我會讓菲律賓成為下一個新加坡!

菲總統(tǒng)候選人莫雷諾:如果當(dāng)選,我會讓菲律賓成為下一個新加坡!

小丸說故事
2026-03-17 14:23:29
柯文哲被判重刑,黃國昌蔣萬安回應(yīng),賴清德又盯上鄭麗文?

柯文哲被判重刑,黃國昌蔣萬安回應(yīng),賴清德又盯上鄭麗文?

DS北風(fēng)
2026-03-26 17:58:06
電影《挽救計劃》高口碑熱映 以跨文明協(xié)作詮釋守望相助溫暖內(nèi)核

電影《挽救計劃》高口碑熱映 以跨文明協(xié)作詮釋守望相助溫暖內(nèi)核

封面新聞
2026-03-26 18:56:02
智能麻將桌殺到:傳統(tǒng)麻將館真的要被“取代”了?

智能麻將桌殺到:傳統(tǒng)麻將館真的要被“取代”了?

生活新鮮市
2026-03-20 06:28:56
原油飆漲!黃金、白銀下跌,美股突變!特朗普威脅!霍爾木茲海峽,最新消息!

原油飆漲!黃金、白銀下跌,美股突變!特朗普威脅!霍爾木茲海峽,最新消息!

證券時報e公司
2026-03-26 22:23:23
TOP14位身高170以上的女神,有顏有燈有演技

TOP14位身高170以上的女神,有顏有燈有演技

素然追光
2026-01-02 02:45:02
2026-03-27 02:16:49
InfoQ incentive-icons
InfoQ
有內(nèi)容的技術(shù)社區(qū)媒體
12207文章數(shù) 51820關(guān)注度
往期回顧 全部

科技要聞

美團(tuán)發(fā)布外賣大戰(zhàn)后成績單:虧損超200億

頭條要聞

特朗普:伊朗允許10艘油輪通行霍爾木茲海峽

頭條要聞

特朗普:伊朗允許10艘油輪通行霍爾木茲海峽

體育要聞

申京努力了,然而杜蘭特啊

娛樂要聞

劉曉慶妹妹發(fā)聲!稱姐姐受身邊人挑撥

財經(jīng)要聞

油價"馴服"特朗普?一到100美元就TACO

汽車要聞

一汽奧迪A6L e-tron開啟預(yù)售 CLTC最大續(xù)航815km

態(tài)度原創(chuàng)

教育
手機(jī)
時尚
旅游
親子

教育要聞

精準(zhǔn)研判,提質(zhì)增效丨我校召開2026屆畢業(yè)生就業(yè)工作研判會

手機(jī)要聞

1499 iQOO Z11系列發(fā)布丨9020mAh電池 165Hz高刷

400萬人愛過的女孩,被黃謠網(wǎng)暴180天后

旅游要聞

河南開封萬歲山武俠城,游客買300元門票:給妻子拍照被保安阻攔

親子要聞

看看把孩子嚇得哈哈哈

無障礙瀏覽 進(jìn)入關(guān)懷版