据报道,英伟达的尖端图像处理半导体(GPU)H200现已开始供货。H200为面向AI领域的半导体,性能超过当前主打的H100。根据英伟达方面公布的性能评测结果,以Meta公司旗下大语言模型Llama2处理速度为例,H200相比于H100,生成式AI导出答案的处理速度最高提高了45%。此前英伟达表示,2024年第二季度推出H200。

英伟达H200于去年11月发布,其为基于英伟达的“Hopper”架构的HGXH200GPU,是H100GPU的继任者,也是该公司第一款使用HBM3e内存的芯片,这种内存速度更快,容量更大,因此更适合大型语言模型。英伟达3月18日在开发者大会上宣布,年内将推出新一代AI半导体“B200”,B200和CPU组合的新产品用于最新的LLM上,推理大语言模型性能比H100提升30倍,成本和能耗降至25分之一。H200作为H100下一代产品,内存性能大幅提升,H200升级主要在HBM3e,单芯片HBM容量提升有望进一步提升HBM需求,随AI应用对算力硬件产品需求不断提升,英伟达供应链有望受益。


#【有奖】芯片还能上车吗?#

#英伟达采购三星HBM芯片,影响几何?#

#英伟达GB200带火“铜缆直连”概念股#

$英伟达(NASDAQ|NVDA)$$标普500ETF(SH513500)$$纳指100ETF(SH513390)$

追加内容

本文作者可以追加内容哦 !