• Nvidia推出基于Hopper架构的HGX H200 GPU
  • 发布于 2个月前
  • 562 热度
    0 评论

Nvidia 于本周一宣布推出了 HGX H200 Tensor Core GPU。这款 GPU 基于 Hopper 架构,旨在加速 AI 应用。它是继去年推出的 H100 GPU 之后的新产品,H100 之前是 Nvidia 最强大的 AI GPU 芯片。如果 H200 得到广泛应用,它可能会在不久的将来明显提升 AI 模型的性能,加快现有模型如 ChatGPT 的响应速度。


专家指出,在过去一年中,计算能力的不足一直是阻碍 AI 发展的主要瓶颈,这不仅限制了现有 AI 模型的部署,也减缓了新模型的开发速度。导致这一问题的主要原因就是缺乏加速 AI 模型的强大 GPU。解决计算瓶颈的方法有两种:一是制造更多的芯片,二是提高 AI 芯片的性能。后一种方法可能使 H200 成为云服务提供商的理想选择。


尽管 GPU 的名字中含有 “G”(代表图形),但像 H200 这样的数据中心 GPU 通常并不用于图形处理。GPU 非常适合于 AI 应用,因为它们能够执行大量并行的矩阵乘法,这对于神经网络的运行至关重要。在构建 AI 模型的训练阶段以及推理阶段(即向 AI 模型输入数据并得到结果的过程)中,GPU 都是不可或缺的。


Nvidia 的超级计算和高性能计算副总裁 Ian Buck 在一份新闻发布中表示:“为了用生成式 AI 和高性能计算应用创造智能,必须高效地处理大量数据,并且需要大容量、快速的 GPU 内存。通过 Nvidia H200,我们提供了业界领先的端到端 AI 超级计算平台,以更快的速度解决一些世界上最重要的挑战。”

例如,OpenAI 曾多次表示其 GPU 资源不足,导致 ChatGPT 运行缓慢。该公司必须依靠限制使用率来提供服务。理论上,使用 H200 可能会给运行 ChatGPT 的现有 AI 语言模型提供更多的运算空间,从而能够服务更多的客户。

据 Nvidia 称,其新推出的 H200 GPU 是首款搭载 HBM3e 内存的产品。这种高级内存技术使得 H200 拥有 141GB 的内存和 4.8 TB/秒的带宽,Nvidia 称,这比其 2020 年推出的 A100 的内存带宽高出 2.4 倍。尽管 A100 已经推出多年,但由于市场对更强大芯片的需求旺盛,它仍然非常受欢迎。


Nvidia 将以多种形式提供 H200。包括适用于四路和八路配置的 Nvidia HGX H200 服务器板,它们与 HGX H100 系统的硬件和软件兼容。此外,H200 还将在 Nvidia GH200 Grace Hopper Superchip 中提供,该芯片将 CPU 和 GPU 整合到一个包中,从而为 AI 应用提供更强大的性能。


明年开始,Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 将成为首批部署基于 H200 的云服务提供商。Nvidia 表示,H200 将从 2024 年第二季度开始,由全球系统制造商和云服务提供商提供。


与此同时,Nvidia 一直在与美国政府就其强大 GPU 的出口限制进行沟通。去年,美国商务部宣布了旨在 “防止先进技术落入错误人手中” 的出口限制措施,目标包括中国和俄罗斯。Nvidia 为了绕过这些限制,开发了新的芯片,但美国政府最近也禁止了这些新芯片。


根据路透社上周的报道,Nvidia 又推出了三款为中国市场量身定制的降级 AI 芯片(HGX H20、L20 PCIe 和 L2 PCIe),中国市场约占 Nvidia 数据中心芯片收入的 25%。这三款芯片中有两款低于美国的限制标准,第三款处于可能需要特别许可的 “灰色区域”。在未来几个月,我们预计将看到美国和 Nvidia 之间更多的此类博弈。
用户评论