IT之家 11 月 19 日訊息,當地時間昨日在 SC24 超算大會上推出了 2 款新的 AI 硬體,分別是 H200 NVL PCIeGPU 和GB200 NVL4 超級晶片。
英偉達表示約七成的企業機架僅可提供不到 20kW 的電力供應,並採用空氣冷卻,而PCIe AIC 形態的 H200 NVL就是為這些環境推出的相對低功耗風冷 AI 計算卡。
▲ 四路 NVLink 橋接器互聯的 H200 NVL
H200 NVL 為雙槽厚度,最高 TDP 功耗從 H200 SXM 的 700W 降至 600W,各算力也均有一定下降(IT之家注:如 INT8 Tensor Core 算力下滑約 15.6% ),不過 HBM 記憶體容量和頻寬是與 H200 SXM 相同的 141GB、4.8TB/s。
此外 H200 NVLPCIe GPU 支援雙路或四路的 900GB/s 每 GPU 的 NVLink 橋接器互聯。
英偉達表示 H200 NVL 記憶體容量是此前 H100 NVL 的 1.5 倍,頻寬也達 1.2 倍,擁有 1.7 倍的 AI 推理效能,而在 HPC 應用中效能也高出 30%。
英偉達此次還推出了面向單伺服器解決方案的GB200 NVL4 超級晶片,該模組聚合了 2 個 Grace CPU 和 4 個 Blackwell GPU,HBM 記憶體池容量達 1.3TB,相當於 2 組 GB200 Grace Blackwell 超級晶片,整體功耗自然也來到了 5.4kw。
▲ 圖片引自德媒 Hardwareluxx
相較於包含 4 個 Grace CPU 和 4 個 Hopper GPU 的上代 GH200 NVL4 系統,新的 GB200 NVL4擁有 2.2 倍的模擬效能、1.8 倍的 AI 訓練效能和 1.8 倍的 AI 推理效能。
GB200 NVL4 超級晶片將於 2025 年下半年上市。