337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

大模型又出新架構(gòu),面壁這次把Transformer上下文能力拉滿了

0
分享至

我有點(diǎn)好奇一個(gè)問題,

讓現(xiàn)階段一個(gè)百萬(wàn)上下文的大模型讀一本百萬(wàn)字的小說(shuō),需要推理嗎?

可能大部分時(shí)候不需要,它需要的只是記住,記住第一章的主角在最后一章說(shuō)了什么。

現(xiàn)在傳統(tǒng)的Transformer架構(gòu)只有一種處理方式,全靠硬算。它像一個(gè)過于認(rèn)真的前排學(xué)霸,為了記住最后一章的內(nèi)容,把前面九十九萬(wàn)字的內(nèi)容跟每一個(gè)新生成的字都做一次對(duì)比計(jì)算。


這樣會(huì)占大量的顯存,計(jì)算量也會(huì)平方級(jí)增長(zhǎng)。

這一周新的大模型也是不停刷新,MiniMax M2.5,GLM5,Gemini 3.1 Pro Preview,DeepSeek新版本(疑似V4),我都希望他們可以接入我的OpenClaw里面,做一個(gè)長(zhǎng)對(duì)話長(zhǎng)記憶的模型。

昨天,面壁還發(fā)了一篇新論文,提出了一個(gè)叫SALA(Sparse Attention-Linear Attention)的混合注意力架構(gòu)。它給出了一個(gè)新觀點(diǎn),

該快的地方就得快,該準(zhǔn)的地方必須準(zhǔn)。


https://github.com/OpenBMB/MiniCPM/blob/main/docs/MiniCPM_SALA.pdf

在他們的SALA架構(gòu)里,

一部分模塊專門負(fù)責(zé)快,

另一部分模塊專門負(fù)責(zé)準(zhǔn)。

結(jié)果就是,基于SALA架構(gòu)的模型,在端側(cè)顯卡上,第一次把百萬(wàn)的長(zhǎng)文本推理,穩(wěn)穩(wěn)跑通了。


我們來(lái)看一個(gè)具體的例子,

模型在處理百萬(wàn)字小說(shuō)時(shí),內(nèi)部發(fā)生了什么。

每生成一個(gè)新詞,模型都要把它和前面所有詞語(yǔ)的鍵值對(duì),也就是KV Cache,全部計(jì)算一遍。計(jì)算復(fù)雜度是隨著文本長(zhǎng)度平方級(jí)增長(zhǎng)的,

同時(shí),這個(gè)KV Cache會(huì)像滾雪球一樣,迅速吃掉你所有的顯存。把上下文從一萬(wàn)字拉到一百萬(wàn)字,計(jì)算量不是漲一百倍,是飆升一萬(wàn)倍。

這就是為什么傳統(tǒng)架構(gòu)在長(zhǎng)上下文任務(wù)面前,會(huì)同時(shí)撞上計(jì)算墻和顯存墻。


這幾十萬(wàn)字的上下文,大部分可能只是背景描述,真正關(guān)鍵的信息也許就那么幾句。

但模型為了找到這幾句關(guān)鍵信息,付出的代價(jià)是把所有內(nèi)容都用最高精度過了一遍。

來(lái)看看SALA的幾個(gè)關(guān)鍵的設(shè)計(jì),

首先是兩種模塊的分工。

線性注意力,我們這里可以理解為負(fù)責(zé)準(zhǔn)的模塊,面壁選用的是Lightning Attention,挑出那些最關(guān)鍵的局部信息進(jìn)行精細(xì)計(jì)算。稀疏注意力,則是負(fù)責(zé)快的模塊,面壁選用的是InfLLM v2,會(huì)高效計(jì)算所有信息。

SALA就是把這兩者結(jié)合了起來(lái)。整個(gè)模型里,75%的層是負(fù)責(zé)準(zhǔn)的線性注意力,剩下的25%,是負(fù)責(zé)快的稀疏注意力。這個(gè)比例經(jīng)過大量實(shí)驗(yàn)找出的效率與精度之間的平衡點(diǎn)。


在不使用任何額外技術(shù)(如YaRN)的前提下,MiniCPM-SALA 可以將上下文長(zhǎng)度拓展至2048K。

怎么保證它們能好好合作,不是互相干擾呢?

SALA用了一個(gè)叫HyPE的混合位置編碼策略。在線性層,它保留了RoPE,保證短文本能力不受影響。在稀疏層,它去掉了位置編碼,避免了信息在長(zhǎng)距離傳遞時(shí)的衰減問題。

模型在檢索幾萬(wàn)甚至幾十萬(wàn)token之前的內(nèi)容時(shí),依然能保持高精度。


最后是模型怎么來(lái)的。

這里有一個(gè)核心問題,要訓(xùn)練一個(gè)全新的混合架構(gòu)模型,成本超級(jí)高。

面壁沒有從零開始,反而是提出了一個(gè)叫HALO的訓(xùn)練范式。簡(jiǎn)單來(lái)說(shuō),就是拿一個(gè)已經(jīng)訓(xùn)練好的全注意力模型,比如MiniCPM-4.0,通過架構(gòu)轉(zhuǎn)換,把它的一部分層變成線性注意力,另一部分變成稀疏注意力,然后進(jìn)行持續(xù)訓(xùn)練。


這種方式,就像是給一輛性能不錯(cuò)的汽車做改裝升級(jí),而不是重新設(shè)計(jì)一輛新車。它繼承了原模型已經(jīng)學(xué)到的所有知識(shí)和能力,只是讓它學(xué)會(huì)了用一種更高效的方式去工作。相比從頭訓(xùn)練,這個(gè)方法的成本直接降低了大約75%。

這個(gè)訓(xùn)練過程也很有講究,分為架構(gòu)轉(zhuǎn)換,穩(wěn)定訓(xùn)練,短衰減,長(zhǎng)衰減和微調(diào)五個(gè)階段。特別是在長(zhǎng)衰減階段,模型逐步把上下文長(zhǎng)度從4K擴(kuò)展到520K,讓模型充分學(xué)習(xí)兩種注意力機(jī)制協(xié)同。

我們來(lái)看效果數(shù)據(jù)。

這次面壁并沒有用一堆榜單來(lái)證明自己,是出了真實(shí)場(chǎng)景下的性能數(shù)據(jù),對(duì)比的是同等規(guī)模的全注意力模型Qwen3-8B,我挑幾個(gè)關(guān)鍵數(shù)據(jù),

在推理速度上,當(dāng)上下文長(zhǎng)度達(dá)到256K時(shí),MiniCPM-SALA的速度是Qwen3-8B的3.5倍。

這個(gè)提升完全來(lái)自架構(gòu)本身的優(yōu)勢(shì)。


在顯存占用上,在RTX 5090這樣的消費(fèi)級(jí)顯卡上,Qwen3-8B在上下文長(zhǎng)度達(dá)到128K時(shí),就會(huì)因?yàn)轱@存不足而崩潰。而MiniCPM-SALA可以穩(wěn)穩(wěn)地跑到1M,也就是一百萬(wàn)token的長(zhǎng)度。


但我是個(gè)挑剔的人,

用了會(huì)丟信息的注意力,模型是不是沒腦子了?

這也是這篇工作最有價(jià)值的部分。實(shí)驗(yàn)數(shù)據(jù)顯示,MiniCPM-SALA在數(shù)學(xué),代碼,知識(shí)問答這些常規(guī)能力上,和同規(guī)模的全注意力模型基本持平,沒有出現(xiàn)明顯的性能折損。


傳統(tǒng)的全注意力模型,在處理長(zhǎng)文本時(shí),它的注意力容量被大量消耗在維持局部依賴上,比如識(shí)別一個(gè)多詞組成的人名。而SALA架構(gòu),把這些任務(wù)交給了更高效的模塊,從而釋放了稀疏注意力層的容量,讓它們可以更專注于建立全局的,跨越超長(zhǎng)距離的上下文聯(lián)系。

為了推動(dòng)這個(gè)架構(gòu)落地,面壁聯(lián)合了SGLang和NVIDIA,發(fā)起了一個(gè)稀疏算子加速大獎(jiǎng)賽SOAR。


SALA雖然在架構(gòu)上做好了,

但底層的計(jì)算算子,相比已經(jīng)被優(yōu)化到極致的FlashAttention,還有很大提升空間。

這個(gè)比賽就是邀請(qǐng)全球的開發(fā)者,一起來(lái)把SALA這臺(tái)新引擎的性能,壓榨到極限。

平時(shí)測(cè)評(píng)模型測(cè)多了,

都是Coding,Coding,Coding,

我很高興看到還不斷能有新的架構(gòu),

新的算法出現(xiàn),

就算是DeepSeek這一年,

更新模型的同時(shí)也沒停過公開自己的算法,

面壁過去這一年也是不停發(fā)端側(cè)模型的工作,

我覺得就這速度都不需要五年十年,

可能過個(gè)兩三年,

在小天才手表上也能跑個(gè)大大大模型。

@ 作者 / 卡爾

最后,感謝你看到這里如果喜歡這篇文章,不妨順手給我們點(diǎn)贊|在看|轉(zhuǎn)發(fā)|評(píng)論

如果想要第一時(shí)間收到推送,不妨給我個(gè)星標(biāo)

如果你有更有趣的玩法,歡迎在評(píng)論區(qū)和我聊聊

更多的內(nèi)容正在不斷填坑中……


特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
科學(xué)家發(fā)現(xiàn):腳下的地球快沒電了,今天的火星就是明天的地球

科學(xué)家發(fā)現(xiàn):腳下的地球快沒電了,今天的火星就是明天的地球

觀察宇宙
2026-03-23 18:58:44
伊朗:與美國(guó)沒有直接溝通,也沒有通過斡旋方進(jìn)行溝通;此前特朗普稱與伊朗進(jìn)行了富有成效的對(duì)話,對(duì)伊朗發(fā)電廠等的打擊行動(dòng)推遲5天

伊朗:與美國(guó)沒有直接溝通,也沒有通過斡旋方進(jìn)行溝通;此前特朗普稱與伊朗進(jìn)行了富有成效的對(duì)話,對(duì)伊朗發(fā)電廠等的打擊行動(dòng)推遲5天

極目新聞
2026-03-23 20:07:21
前國(guó)腳高峰現(xiàn)狀:54歲很滄桑,妻子也是運(yùn)動(dòng)員,兒子和繼父更親

前國(guó)腳高峰現(xiàn)狀:54歲很滄桑,妻子也是運(yùn)動(dòng)員,兒子和繼父更親

素衣讀史
2026-03-23 18:40:20
瞿穎自曝因打網(wǎng)球曬得太黑,在長(zhǎng)沙機(jī)場(chǎng)買咖啡被誤以為是非洲人

瞿穎自曝因打網(wǎng)球曬得太黑,在長(zhǎng)沙機(jī)場(chǎng)買咖啡被誤以為是非洲人

韓小娛
2026-03-23 10:53:50
人到老年才知道,增加骨密度最好的運(yùn)動(dòng),竟然不是跑步和走路

人到老年才知道,增加骨密度最好的運(yùn)動(dòng),竟然不是跑步和走路

墜入二次元的海洋
2026-03-17 10:25:30
大批打工人正在逃離蘇州。

大批打工人正在逃離蘇州。

老陸不老
2026-03-22 20:27:56
中國(guó)不先使用核武器,一旦美國(guó)炸毀北斗衛(wèi)星,中國(guó)是不是就輸了?

中國(guó)不先使用核武器,一旦美國(guó)炸毀北斗衛(wèi)星,中國(guó)是不是就輸了?

蜉蝣說(shuō)
2026-03-23 11:59:33
指揮部被一鍋端。衛(wèi)星被打瞎了,通訊全斷了,上級(jí)在哪兒都不知道

指揮部被一鍋端。衛(wèi)星被打瞎了,通訊全斷了,上級(jí)在哪兒都不知道

安安說(shuō)
2026-03-22 12:40:48
開火之日就是全軍覆滅之時(shí)!可萬(wàn)萬(wàn)沒想到,菲律賓導(dǎo)彈已瞄準(zhǔn)臺(tái)海

開火之日就是全軍覆滅之時(shí)!可萬(wàn)萬(wàn)沒想到,菲律賓導(dǎo)彈已瞄準(zhǔn)臺(tái)海

始于初見見
2026-03-23 09:58:35
迪拜崩了!伊朗美國(guó)大戰(zhàn),迪拜40年的造富神話,11天就崩了!

迪拜崩了!伊朗美國(guó)大戰(zhàn),迪拜40年的造富神話,11天就崩了!

澳洲紅領(lǐng)巾
2026-03-19 14:27:38
瘋了!曼城雙巨星換巴薩神童,哈蘭德逼宮引爆重磅交易

瘋了!曼城雙巨星換巴薩神童,哈蘭德逼宮引爆重磅交易

奶蓋熊本熊
2026-03-23 06:59:39
晚年杜聿明感嘆:我們哪里是敗給共產(chǎn)黨,是敗給了毛澤東一個(gè)人

晚年杜聿明感嘆:我們哪里是敗給共產(chǎn)黨,是敗給了毛澤東一個(gè)人

歷史的煙火
2026-03-17 21:21:34
杜鋒:每支球隊(duì)都會(huì)起伏,可能我們受關(guān)注程度更高話題也最多

杜鋒:每支球隊(duì)都會(huì)起伏,可能我們受關(guān)注程度更高話題也最多

懂球帝
2026-03-23 12:11:05
當(dāng)年勸烏克蘭“為民生投降”,如今同一番話,原封不動(dòng)送給伊朗

當(dāng)年勸烏克蘭“為民生投降”,如今同一番話,原封不動(dòng)送給伊朗

老馬拉車莫少裝
2026-03-18 13:51:32
特朗普發(fā)表有關(guān)伊朗的言論后 原油期貨大跌

特朗普發(fā)表有關(guān)伊朗的言論后 原油期貨大跌

新浪財(cái)經(jīng)
2026-03-23 19:53:49
看了“秦嵐”的穿搭,我悟了:灰色不配亮色、白色,才更時(shí)髦減齡

看了“秦嵐”的穿搭,我悟了:灰色不配亮色、白色,才更時(shí)髦減齡

蓓小西
2026-03-23 08:31:26
中央定調(diào),2026年養(yǎng)老金調(diào)整方式或有變,定額增長(zhǎng)50元可行嗎?

中央定調(diào),2026年養(yǎng)老金調(diào)整方式或有變,定額增長(zhǎng)50元可行嗎?

另子維愛讀史
2026-03-22 21:16:58
章子怡臉上那個(gè)“毛病”,竟是20年前被一個(gè)老外傳染的。

章子怡臉上那個(gè)“毛病”,竟是20年前被一個(gè)老外傳染的。

西樓知趣雜談
2026-03-21 20:56:36
美國(guó)商務(wù)部:在美國(guó)制裁下,中國(guó)別想再造出數(shù)量龐大的AI芯片

美國(guó)商務(wù)部:在美國(guó)制裁下,中國(guó)別想再造出數(shù)量龐大的AI芯片

趙釔是個(gè)熱血青年
2026-03-21 11:54:30
連休6天!貴州中小學(xué)春假來(lái)了!

連休6天!貴州中小學(xué)春假來(lái)了!

知知貴陽(yáng)
2026-03-23 18:26:36
2026-03-23 21:04:49
卡爾的AI沃茨 incentive-icons
卡爾的AI沃茨
前大廠算法工程師,3家科技公司技術(shù)總監(jiān)|致力打造最系統(tǒng)的Al學(xué)習(xí)體系,讓1萬(wàn)人通過Al提高生產(chǎn)力
233文章數(shù) 118關(guān)注度
往期回顧 全部

科技要聞

裁掉2萬(wàn)多名員工后,扎克伯格對(duì)自己下手了

頭條要聞

民警在派出所猥褻女孩獲刑兩年九個(gè)月 當(dāng)?shù)卣ㄎ貞?yīng)

頭條要聞

民警在派出所猥褻女孩獲刑兩年九個(gè)月 當(dāng)?shù)卣ㄎ貞?yīng)

體育要聞

不敢放手一搏,你拿什么去爭(zhēng)冠?

娛樂要聞

劉燁47歲生日,安娜曬全家福為其慶生

財(cái)經(jīng)要聞

市場(chǎng)見底了嗎?誰(shuí)在拋售?機(jī)構(gòu)火線解讀

汽車要聞

"拒絕"豪車稅 新款Panamera盡享版99.8萬(wàn)元起精準(zhǔn)入局

態(tài)度原創(chuàng)

親子
健康
教育
藝術(shù)
軍事航空

親子要聞

男孩生病,他救的小狗守了他一天!

轉(zhuǎn)頭就暈的耳石癥,能開車上班嗎?

教育要聞

小升初,求梯形的面積?勾股定理

藝術(shù)要聞

如此美妙的光影,安靜而溫暖,真令人折服!

軍事要聞

伊朗回應(yīng)美方威脅:將在戰(zhàn)場(chǎng)上堅(jiān)決對(duì)抗

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版