Nvidia正在推出一款用于人工智能工作的新一代顶级芯片,即HGX H200。这款新的GPU在广受需求的H100的基础上进行了升级,内存带宽提升了1.4倍,内存容量提升了1.8倍,提高了处理密集生成式人工智能工作的能力。
重要的问题是公司是否能够获得这些新芯片,或者它们是否会像H100一样供应不足,对此Nvidia并没有确切的答案。首批H200芯片将于2024年第二季度发布,Nvidia表示正在与“全球系统制造商和云服务提供商”合作,以使其可用。
H200在外观上与H100基本相同,除了内存方面有所改变。但是对内存的改变使其升级更有意义。新的GPU是第一个使用名为HBM3e的新型更快内存规格的GPU。这使得GPU的内存带宽从H100的每秒3.35TB提升到每秒4.8TB,并且总内存容量从80GB增加到141GB。
H200也被设计为与已经支持H100s的系统兼容。Nvidia表示,云服务提供商在添加H200时不需要进行任何更改。亚马逊、谷歌、微软和甲骨文等云计算服务提供商将是明年首批提供新型GPU的公司。
🗒 标签: #Nvidia #英伟达
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
via Yummy 😋 - Telegram Channel