英伟达H200 AI GPU供货启动,年内推出Blackwell架构GB200
时间:2024-03-28
来源:未知
作者:Gushan
近日,《日本经济新闻》报道,全球领先的图形处理半导体制造商英伟达已开始供应其最新一代高性能AI图像处理器——H200 GPU。
这款尖端产品专为人工智能应用场景设计,实际性能表现已超越当前旗舰产品H100,尤其在处理诸如Meta公司的大规模语言模型Llama 2时,H200在生成式AI输出响应速度上最高可提升45%。
回顾2022年,英伟达在全球AI半导体市场上占据了约80%的份额,而AMD等竞争对手正奋力研发新品以挑战英伟达的主导地位,行业竞争日趋激烈。
面对这一形势,英伟达于3月18日在开发者大会上宣布,计划年内推出一款革命性的新一代AI半导体产品——B200。新产品将以B200 Blackwell GPU与Arm架构的Grace CPU相结合的形式,服务于最新的LLM场景。
其中,“最强AI加速卡”GB200整合了两个B200 Blackwell GPU及一个Grace CPU,展现出惊人的性能飞跃,在推理大规模语言模型任务时,相比H100的速度提升高达30倍,同时将成本和能耗降低到了原来的二十五分之一。
回溯至去年11月发布的H200 GPU,作为H100 GPU的升级迭代版本,HGX H200基于英伟达自家先进的“Hopper”架构,并首次搭载了HBM3e内存技术。
H200凭借更快的内存速度和更大的内存容量(高达141GB),特别适应于对内存要求苛刻的大型语言模型训练与推理。相较于前代王者H100,H200实现了性能60%至90%的大幅提升。英伟达官方强调,H200利用HBM3e技术实现了每秒4.8TB的内存带宽,其内存容量几乎是A100的两倍,带宽增长了2.4倍,展现了英伟达在高性能计算和AI领域的持续创新实力。