![]()
芯東西(公眾號:aichip001)
作者 ZeR0
編輯 漠影
芯東西2月12日報道,今日,摩爾線程發文宣布旗艦級AI訓推一體全功能GPU MTT S5000率先完成對GLM-5大模型的適配,并首次曝光MTT S5000的硬件參數。
MTT S5000支持FP8到FP64的全精度計算,FP8精度下單卡AI算力最高可達1000TFLOPS,配備80GB顯存,顯存帶寬達1.6TB/s,卡間互聯帶寬達784GB/s。
根據業內人士消息,MTT S5000實測性能對標H100,在多模態大模型微調任務中,部分性能甚至超越H100。
![]()
MTT S5000由摩爾線程在2024年推出,專為大模型訓練、推理及高性能計算而設計。
據接近測試項目的行業人士透露,S5000在產品精度上已超越H100,更接近英偉達Blackwell架構。
在近期一次數千億參數模型的全流程訓練驗證中,該卡表現出了與H100集群極高的結果一致性,最終模型關鍵指標誤差僅維持在千分之幾的范圍內,整體訓練效果甚至實現小幅超越。
另據來自互聯網廠商場景的實測信息反饋,S5000在典型端到端推理及訓練任務中,性能可達競品H20的2.5倍左右。
摩爾線程官網也已上線MTT S5000的詳情頁面。
產品形態上,S5000遵循OAM標準設計,提供兩種計算模組形態:
- 液冷版:專為高密度綠色數據中心打造,釋放極致算力密度的同時,顯著降低PUE與能耗;
- 風冷版:適配標準通用服務器,部署靈活便捷,有效降低運維門檻與長期持有成本。
同時,摩爾線程推出面向AI和高性能計算的MGX 8-GPU模塊化平臺:8顆MTT S5000 OAM計算模組通過MTLink高速互聯,可為大模型訓練、推理及科學計算等應用場景提供超大規模算力。
![]()
MCCX D800 X2服務器是搭載8顆MTT S5000 OAM計算模組的一體化AI服務器,提供計算、存儲、網絡的高端配置,可支撐千億、萬億參數大模型高效運行。
該服務器在散熱、供電、I/O 擴展性等方面充分優化,支持風冷和液冷兩種機型,可預裝優化訓練、推理軟件棧,實現軟硬件一體化交付,開箱即用。
![]()
一、基于第四代MUSA架構,原生支持FP8精度,訓練性能提升30%
在大模型參數持續擴張的趨勢下,FP8計算精度的支持已成為訓練與推理的核心精度標準。相比傳統的BF16/FP16,FP8可將數據位寬減半,顯存帶寬壓力降低50%,理論計算吞吐量翻倍。
MTT S5000是國內最早一批原生支持FP8精度的訓練GPU,配置了硬件級FP8 Tensor Core加速單元。其FP8引擎全面支持DeepSeek、Qwen等前沿架構,在實測中可提升30%以上訓練性能。
![]()
S5000采用第四代MUSA架構“平湖”,專為大規模AI訓練優化,依托MUSA全棧軟件平臺,原生適配PyTorch、Megatron-LM、vLLM及 SGLang等主流框架,讓用戶能夠以“零成本”完成代碼遷移,兼容國際主流CUDA生態。
![]()
這款AI計算卡深度優化了Prefill階段的處理效率,在超長序列輸入場景下,能顯著加速Prompt預處理過程,提供更快的上下文理解與首Token響應速度,有效解決大規模知識庫檢索及長文檔分析中的延遲瓶頸。
在16k長序列輸入測試中,S5000單卡Prefill吞吐量是H20的2.5倍。這意味著在處理長文本Prompt時,國產算力具備更快的上下文理解速度。
![]()
這主要得益于其高達1000TFLOPS的單卡算力。在絕大多數計算密集型場景中,該卡不僅能提供更強勁的算力輸出,也在整體性價比上展現出顯著優勢。
基于FSDP2框架,MTT S5000已率先完成Wan2.1視頻生成全模型訓練驗證,2節點16卡配置下訓練吞吐量達61.83samples/s,模型算力利用率(MFU)達51%,生成效果在視頻邏輯、畫質細膩度、動態一致性上均對齊行業基準。
![]()
二、10EFLOPS萬卡集群已落地,下游任務評測得分優于H100
基于S5000構建的夸娥萬卡集群已經落地,其浮點運算能力達到10EFLOPS,在Dense模型訓練中MFU達60%,在MoE模型中維持在40%左右,有效訓練時間占比超過90%,訓練線性擴展效率達95%。
![]()
依托原生FP8能力,它能夠完整復現頂尖大模型的訓練流程,其中Flash Attention算力利用率超過95%,多項關鍵指標均達到國際主流水平。
在集群通信層面,S5000采用獨創的ACE技術,將復雜通信任務從計算核心卸載,實現計算與通信的零沖突并行,大幅提升MFU。
實測顯示,從64卡擴展至1024卡,其系統保持90%以上的線性擴展效率,訓練速度隨算力增加幾乎同步倍增。
第三方驗證方面,2026年1月,智源研究院基于S5000千卡集群,完成了前沿具身大腦模型RoboBrain 2.5的端到端訓練與對齊驗證。
結果顯示,與英偉達H100集群的訓練結果高度重合,訓練損失值(loss)差異僅為0.62%。
根據摩爾線程官網,在S5000集群上訓練DeepSeek-236B,前3萬步訓練過程中,Loss曲線與H100集群的相對精度誤差僅為0.6%。同等數據量下,其下游任務評測得分優于H100,驗證了萬卡集群的高精度。
![]()
GPU集群的可靠性、可用性和可維護性(RAS)是支撐大規模AI訓練任務持續穩定運行的核心基礎設施能力。
S5000從芯片級到系統級構建了完整的RAS體系,支持故障感知、上報與錯誤隔離,可快速定位并替換故障節點、慢節點及靜默數據損壞節點,并具備主動檢測與修復功能,長期守護集群健康,確保性能穩定與結果正確。
三、刷新國產GPU大模型推理紀錄,科學計算性能完勝H100
S5000在推理場景同樣表現優異。2025年12月,摩爾線程聯合硅基流動,基于S5000完成對DeepSeek-V3 671B滿血版的深度適配與性能測試,實測單卡Prefill吞吐超4000tokens/s,Decode吞吐超1000tokens/s,刷新了國產GPU的推理紀錄。
![]()
針對Agent間的高頻通訊與復雜代碼塊的瞬時生成需求,S5000在DeepSeek等前沿模型的推理實測中,實現了遠超行業基準的token生成速率。
S5000針對文生視頻模型進行了深度優化,基于原生FP8硬件加速能力,在大幅提升推理速度的同時,確保生成內容精度無損,單機性能達到H100的64%-79%,兼顧高性能輸出與高投入產出比(ROI)。
![]()
同時,S5000憑借原生FP64雙精度計算能力,通過與國家級實驗室的深度合作與調優,在關鍵科學計算領域實現性能提升。在SPONGE模擬引擎中,其性能達到H100的1.7倍;在分子對接工具DSDP的實測中,其計算效能展現出壓倒性優勢,性能達到H100的8.1倍。
![]()
此外,作為一款全功能GPU,S5000集成了高性能的多媒體編解碼引擎,硬件原生支持H264、H265、VP9、AV1、AVS2、AVS+、VP8等格式。
![]()
結語:國產GPU已經扛起大模型訓練的重任
根據摩爾線程官網披露信息,無論是構建萬卡級超大規模訓練集群,還是部署高并發、低延遲的在線推理服務,MTT S5000均展現出對標國際主流旗艦產品的卓越性能與穩定性。
作為目前國內少數具備完整大模型訓練能力的AI計算卡之一,MTT S5000提供了一套可行的國產算力替代方案,從FP8精度支持、單卡1000EFLOPS算力等參數到經過萬卡集群實訓、第三方機構驗證的實戰成績,都證明了國產GPU不僅能做好推理,而且已經能支撐起大規模模型訓練的計算需求。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.