- PCIe Gen5
- HBM3
- 94GB
- NV-Link
- MIG
- 標準3年保証
大容量94GB HBM3eメモリを搭載
最新の大容量94GB HBM3eメモリを搭載しており、2つのGPUをリンクする NVLinkインターコネクトを備えています。H100 NVLの最大の特徴はLLMなどの大規模AIモデルをターゲットにして開発されたところであり、デュアルGPU構成にすることにより、これまでのどのNVIDIA製品と比較しても最大の188GBの広大なメモリ空間を実現しています。
大規模AIに特化した設計
NVIDIA H100 NVL は、第 4 世代の Tensor コアと、FP8 精度の Transformer Engine を搭載し、前世代のA100と比較して最大約12倍のGPT3-175B推論スループットを提供可能です。600 ギガバイト/秒 (GB/s) の GPU 間インターコネクトを提供する第 4 世代の NVlink、ノード間の各 GPU による通信を加速する NVLINK Switch システム、PCIe Gen5、および NVIDIA Magnum IO™ ソフトウェアの組み合わせによって、小規模な企業から大規模で統一された GPU クラスターまで効率的に拡張が容易になっています。
リアルタイム ディープラーニング推論
AI は、さまざまなビジネスの課題を、同じくらいさまざまなニューラル ネットワークを使用して解決します。優れた AI 推論アクセラレータには、最高のパフォーマンスだけでなく、様々なネットワークを加速するための多様性も求められます。
H100 では、推論が最大 30 倍高速化になる、レイテンシが最小限に抑えられるなど、機能が強化されます。それにより、市場をリードする NVIDIA の推論のリーダーシップをさらに拡大します。第 4 世代の Tensor コアは FP64、TF32、FP32、FP16、INT8 など、あらゆる精度をスピードアップします。Transformer Engine は FP8 と FP16 の両方を活用してメモリ消費を減らしてパフォーマンスを増やしつつ、大規模な言語モデルで精度を維持します。
H100 では、推論が最大 30 倍高速化になる、レイテンシが最小限に抑えられるなど、機能が強化されます。それにより、市場をリードする NVIDIA の推論のリーダーシップをさらに拡大します。第 4 世代の Tensor コアは FP64、TF32、FP32、FP16、INT8 など、あらゆる精度をスピードアップします。Transformer Engine は FP8 と FP16 の両方を活用してメモリ消費を減らしてパフォーマンスを増やしつつ、大規模な言語モデルで精度を維持します。
エクサスケール ハイパフォーマンス コンピューティング
NVIDIA データ センター プラットフォームは、ムーアの法則を超えるパフォーマンス向上を継続的に提供します。また、H100 の新しい画期的な AI 機能は、HPC+AI のパワーをさらに増幅し、世界の最重要課題の解決に取り組む科学者や研究者にとって、発見までの時間が加速されます。
H100 は、倍精度 Tensor コアの毎秒浮動小数点演算 (FLOPS) を 3 倍にし、HPC で 60 teraFLOPS の FP64 コンピューティングを実現します。AI と融合した HPC アプリケーションでは、H100 の TF32 精度を活用し、コードの変更なしに、単精度行列乗算演算で 1 petaFLOP のスループットを達成することができます。
H100 はまた、DPX 命令を備え、NVIDIA A100 Tensor コア GPU の 7 倍のパフォーマンスを提供し、DNA シーケンス アライメント用の Smith-Waterman など、動的プログラミング アルゴリズムにおいて従来のデュアルソケット CPU のみのサーバーと比較して 40 倍の高速化を実現します。
H100 は、倍精度 Tensor コアの毎秒浮動小数点演算 (FLOPS) を 3 倍にし、HPC で 60 teraFLOPS の FP64 コンピューティングを実現します。AI と融合した HPC アプリケーションでは、H100 の TF32 精度を活用し、コードの変更なしに、単精度行列乗算演算で 1 petaFLOP のスループットを達成することができます。
H100 はまた、DPX 命令を備え、NVIDIA A100 Tensor コア GPU の 7 倍のパフォーマンスを提供し、DNA シーケンス アライメント用の Smith-Waterman など、動的プログラミング アルゴリズムにおいて従来のデュアルソケット CPU のみのサーバーと比較して 40 倍の高速化を実現します。
PCI Express Gen5接続
NVIDIA H100 NVL は128GB/sのPCI ExpressGen5で既存のサーバーシステムに組み込めますので、お手持ちのGPUサーバーやワークステーションでAdaLovelace世代のGPUが利用されているシステムがあてば容易に増設や差し替えが可能です。さらに2枚一組でNVLink接続すればGPU間が600GB/sの広帯域で接続されます。最大熱設計電力 (TDP)も350W-400Wと従来のカードと大きく乖離の無い設計となっており、LLMワークロードを加速したい、システムをスケールアップしたいユーザーにも最適な選択肢です。