一家靠廣告賺錢的社交公司,為什么要自己造芯片?而且一造就是四顆,從2025年排到2027年,迭代速度快得讓傳統芯片廠側目。
Meta剛剛給出了答案:AI模型進化速度遠超硬件開發周期,等別人造出來,需求早就變了。
![]()
從"買芯片"到"造芯片"的轉身
![]()
Meta周三宣布,MTIA系列新增四款芯片,全部自研。MTIA 300已量產,400、450、500將在2027年前陸續交付。合作伙伴是博通,代工方是臺積電,架構采用開源的RISC-V。
這個節奏在芯片行業極不尋常。傳統芯片從設計到流片動輒2-3年,Meta卻計劃兩年內連推三代。更反常的是執行主體——一家此前從未涉足硬件基礎設施的社交媒體公司。
轉變的伏筆埋在2023年。那年Meta首次公開MTIA計劃,發布首款自研芯片。當時外界將其視為降本嘗試:減少對英偉達GPU的依賴,把推理成本壓下來。
但今年的動作明顯升級。四顆芯片分工明確:300專注訓練推薦算法,400、450、500主攻推理,內存容量逐代翻倍,500還將引入低精度數據創新。
Meta工程副總裁YJ Song在博客中解釋了這個激進策略的邏輯:「與其押注一個長期方案然后等待,我們刻意采取迭代路徑。每一代MTIA都基于前代,使用模塊化芯粒,融入最新的AI負載洞察和硬件技術。」
換句話說,Meta不再追求"一步到位"的芯片設計,而是用軟件行業的敏捷思維改造硬件開發——快速試錯、持續集成、小步快跑。
為什么推薦算法需要專用芯片?
MTIA 300的任務是訓練Facebook和Instagram的內容排序模型。這聽起來不如大語言模型性感,卻是Meta的核心命脈。
每天數億用戶打開App,信息流如何排序、廣告如何插入、Reels推薦什么視頻,全依賴這套系統。推薦質量直接決定用戶時長,用戶時長直接決定廣告收入。
傳統GPU擅長并行計算,但推薦模型的計算特征不同:稀疏嵌入、內存密集型、對延遲極度敏感。用英偉達A100/H100跑推薦,算力利用率往往只有10%-30%,大量晶體管在空轉。
專用芯片可以針對這些特征裁剪架構。Meta 2023年披露的首代MTIA,在特定推薦負載下能效比GPU提升3倍。MTIA 300作為第二代訓練芯片,目標顯然更高。
更關鍵的是數據閉環。推薦系統的優化需要芯片-算法-數據三者協同迭代。自研芯片讓Meta能把硬件特性暴露給算法團隊,把線上反饋快速注入下一代設計。
這是買英偉達芯片永遠無法獲得的自由度。
推理芯片的軍備競賽
MTIA 400、450、500三代推理芯片的密集發布,指向另一個戰場:生成式AI的規模化部署。
訓練一次性燒錢,推理是持續流血。OpenAI每處理一條ChatGPT查詢,都要消耗算力成本。當用戶規模達到十億級,推理效率就是生死線。
Meta的生成式AI布局正在加速。Llama系列開源模型下載量突破數億次,Meta AI助手嵌入WhatsApp、Instagram、Messenger,月活用戶已超5億。這些產品的背后,是天文數字的推理請求。
MTIA 400被Meta描述為"性能與領先商業產品競爭"。考慮到"領先商業產品"大概率指英偉達,這是一個相當大膽的宣稱。該芯片已完成測試,即將進入數據中心。
450和500的迭代重點在內存。450的HBM(高帶寬內存)容量是400的兩倍,500進一步加碼,并引入低精度數據格式創新。這針對的是大模型推理的顯存瓶頸——模型參數越來越大,KV Cache占用爆炸,內存容量和帶寬成為首要約束。
低精度計算是另一個關鍵變量。從FP16到INT8再到FP4,每降低一檔精度,吞吐量和能效都能躍升,但需保證模型輸出質量不崩塌。Meta在500上押注"低精度創新",暗示其在量化算法和硬件協同設計上有突破。
行業連鎖反應
![]()
Meta的芯片路線正在重塑行業預期。
最直接的沖擊對象是英偉達。Meta曾是英偉達最大的客戶之一,2023年采購了數十萬塊H100。自研芯片成熟后,這部分訂單必然收縮。摩根士丹利估算,到2028年,超大規模云廠商的自研芯片可能占據AI加速器市場的30%。
但英偉達并非唯一受影響者。Meta選擇RISC-V架構而非ARM或x86,是對開源指令集的強力背書。RISC-V免授權費、可定制性強,正吸引越來越多芯片廠商。Meta的規模化應用,可能加速其生態成熟。
博通的角色也值得玩味。這家芯片設計巨頭不生產終端產品,而是為蘋果、谷歌、Meta等客戶提供定制芯片服務。Meta與博通合作,說明自研芯片不等于完全自建團隊,"芯片設計外包+自有架構定義"是更務實的路徑。
OpenAI已跟進這一模式。今年早些時候,OpenAI宣布與博通合作開發定制AI加速器,路線與Meta高度相似。當頭部AI實驗室集體轉向自研芯片,英偉達的護城河還能維持多久?
一個有趣的細節是:今年初曾有報道稱Meta在縮減高端芯片自研投入。但最新的四芯片路線圖顯示,調整可能是戰術性的——收縮的是特定項目,整體戰略反而在加速。
硬件即護城河
回到最初的問題:Meta為什么要造芯片?
表面答案是成本。自研芯片一旦規模化部署,TCO(總體擁有成本)通常比采購商用方案低30%-50%。
更深層的答案是控制。AI競爭進入深水區,算力成為比數據更稀缺的資源。誰能以更低成本、更高效率獲取算力,誰就能訓練更大的模型、服務更多的用戶、迭代更快的功能。
最深層的答案是差異化。當所有公司都用英偉達GPU,模型架構和訓練方法趨于同質化。自研芯片允許Meta探索獨特的技術路徑——比如針對推薦系統優化的稀疏計算,針對視頻生成的特定編解碼器,針對端云協同的分布式架構。
這些差異化最終轉化為產品體驗。更快的視頻加載、更準的內容推薦、更流暢的AI助手響應——用戶不會關心底層芯片,但會用腳投票。
Meta的激進迭代策略還有一個隱性收益:人才密度。兩年推三代芯片,需要吸引頂尖的芯片架構師、驗證工程師、物理設計專家。這些人在英偉達、AMD、蘋果之間流動,Meta用項目節奏證明自己是值得加入的戰場。
從2023年首次披露MTIA,到2025年四芯片齊發,Meta用兩年時間完成了從"芯片買家"到"芯片玩家"的身份轉換。這個速度本身,就是對其迭代方法論的最佳驗證。
下一步觀察什么
MTIA 400的實測數據將是第一個關鍵驗證點。Meta宣稱其"與領先商業產品競爭",但具體對比哪款產品、在什么負載下、能效差距多少,細節尚待披露。
450和500的交付節奏是第二個觀察窗口。芯片行業"跳票"是常態,Meta能否在2027年前兌現三代產品,將考驗其供應鏈管理能力。
更長期的變量是軟件生態。芯片性能再強,也需要編譯器、運行時、框架的深度優化。Meta的PyTorch團隊與MTIA團隊的協同效率,將決定硬件潛力能否充分釋放。
如果你在做AI基礎設施相關決策,建議把MTIA納入評估視野。它的成熟度可能超出預期——畢竟,推薦系統的負載特征比大模型訓練更復雜,能在推薦場景跑通的芯片,遷移到生成式AI往往有驚喜。
如果你在看AI行業的競爭格局,建議重新評估"算力護城河"的定義。自研芯片曾是谷歌TPU的獨家標簽,現在Meta、OpenAI、甚至更多公司正在加入。這場軍備競賽的終局,可能不是某家芯片廠商的壟斷,而是每家AI巨頭都有自己的"秘密武器"。
去查查你公司的AI算力支出占比吧。如果超過總IT預算的30%,Meta的路徑可能比你想象的更值得參考。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.