增强 AI 和 HPC 工作负载。
文章目录
- 前言
- 一、通过更大、更快的内存实现更高的性能
- 二、通过高性能 LLM
- 三、增强高性能计算
- 四、Reduce Energy and TCO 降低能耗和 TCO
- 五、通过 H200 NVL 为主流企业服务器释放 AI 加速
前言
The GPU for Generative AI and HPC
用于生成式 AI 和 HPC 的 GPU
NVIDIA H200 Tensor Core GPU 通过改变游戏规则的性能和内存功能为生成式 AI 和高性能计算 (HPC) 工作负载提供动力。作为第一款采用 HBM3e 的 GPU,H200 更大、更快的内存推动了生成式 AI 和大型语言模型 (LLMs,同时推进了 HPC 工作负载的科学计算。
一、通过更大、更快的内存实现更高的性能
NVIDIA H200 基于 NVIDIA Hopper™ 架构,是首款以每秒 4.8 TB (TB/s) 的速度提供 141 GB HBM3e 内存的 GPU,几乎是 NVIDIA H100 Tensor Core GPU 容量的两倍,内存带宽增加了 1.4 倍。H200 更大、更快的内存可加速生成式 AI 和 LLMs,同时以更高的能效和更低的总拥有成本推