日前,有X博主發(fā)文表示,OpenAI目前最強的大模型GPT-5是使用英偉達H100/H200芯片訓練的,用GB200 NVL72進行推理,而并未用上更強大的B200芯片。
![]()
其消息援引自英偉達亞太區(qū)官方賬號于今年8月的一條X推文,內(nèi)容曝光了 OpenAI GPT-5 背后的硬件支撐細節(jié),根據(jù) NVIDIA Asia Pacific 發(fā)布的內(nèi)容,GPT-5 的訓練環(huán)節(jié)并未采用最新的 B200—— 其訓練依賴的是 NVIDIA H100 和 H200 GPU;而在推理部署階段,則用上了 NVIDIA GB200 NVL72 系統(tǒng)。
![]()
這個 GB200 NVL72 系統(tǒng)配置相當 “豪華”:它搭載了 72 個 Blackwell 架構(gòu) GPU,還搭配了 36 個 Grace CPU,整套系統(tǒng)靠 NVIDIA 的 NVLink 及 NVLink Switch 計算架構(gòu)連接,專門適配大規(guī)模的頂尖 AI 運算需求。
同時這條動態(tài)也明確了一個信息:目前市面上還沒有任何模型,是通過 B200 訓練生成的。
![]()
英偉達的 B200(基于 Blackwell 架構(gòu))是比 H100(Hopper 架構(gòu))和 H200(Hopper 的升級版)更強大的芯片,尤其是在 AI 訓練和推理方面。
B200 支持更低精度 FP4 和 FP6,并在 FP4 情況下能達到 ~20 PFLOPS 的推理算力,是 H100 ~4× 的峰值表現(xiàn)。H100 主要優(yōu)化 FP8,但在這些超低精度場景下算力不及 B200。
B200 擁有 192 GB HBM3e 以及 ~8 TB/s 內(nèi)存帶寬,顯著超過 H100/H200。H200 雖然比 H100 內(nèi)存大(~141 GB),但在規(guī)模、帶寬與性能上仍落后于 B200。
此外,在多卡互聯(lián)方面,B200 使用更先進的 NVLink 5(~1.8 TB/s),提升大規(guī)模分布式訓練效率。
當然,并不是說用上B200來訓練大模型,就一定比H100/H200訓練的大模型“必然更強”,但它能讓訓練更便宜、更快,并支持更大的模型規(guī)模和更多訓練迭代,因此在同樣的技術(shù)路線下,大概率會帶來更強的大模型。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.