英伟达发布新一代 AI 芯片 H200

H200 利用了美光等公司推出的 HBM3e 内存,提供了 141GB 内存容量 (H100 的1.8倍) 和 4.8TB/s 内存带宽 (H100 的1.4倍)。

大型语言模型推理速度方面,GPT-3 175B 是 H100 的1.6倍 (A100 的18倍),LLaMA 2 70B 是 H100 的1.9倍。

英伟达同时宣布2024年的 H100 产量翻倍,2024年第4季度发布基于新一代 Blackwell 架构的 B100。

NVIDIA

投稿:@ZaiHuaBot
频道:@TestFlightCN

via 🆕 科技新闻投稿📮 - Telegram Channel
 
 
Back to Top