- 6912CUDA
- 432Tensor
- Active Fan
- HBM2
- 倍9.7 TFLOPS
- 単19.5TFLOPS
- 標準3年保証
Ampereアーキテクチャを採用
NVIDIA Ampere アーキテクチャをベースにした NVIDIA A8000 GPU は、Ampereアーキテクチャ(GA102)を採用し6912基のCUDAコアを搭載、B倍精度浮動小数点 (FP64) 演算により最大 9.7 TFLOPS および単精度浮動小数点 (FP32) 演算の倍速処理により19.5 TFLOPSの性能をサポートします。そのほかに 数多くの新しいアーキテクチャ機能と最適化により、AI や HPC のコンピューティング能力を最大限に提供できるように設計されています。
第3世代 Tensor コア
倍精度(FP64)およびTensor Float 32(TF32)精度のサポートにより、幅広いAIおよびHPCアプリケーションに対応する性能と汎用性を備え、旧世代と比較して性能と効率が最大2倍向上。構造的スパース性をハードウェアでサポートすることで、推論のスループットが2倍に向上。
マルチインスタンス GPU (MIG)
新しいマルチインスタンス GPU (MIG) 機能を使用すると、Tensor コア GPU を CUDA アプリケーション用に最大 7 つの GPU インスタンスに安全にパーティショニングすることができ、複数のユーザーに別々の GPU リソースを提供してアプリケーションや開発プロジェクトを高速化できます。 MIG を使用すると、各インスタンスのプロセッサに対して、メモリ システム全体を通るパスが個別に提供されます。つまり、オンチップのクロスバー ポート、L2 キャッシュ バンク、メモリ コントローラー、DRAM アドレス バスがすべて、個々のインスタンスに一意に割り当てられます。これにより L2 キャッシュの割り当てと DRAM 帯域幅がどのユーザーも同じになるため、あるユーザーのタスクがキャッシュのスラッシングを起こしていたり、DRAM インターフェイスを飽和させたりしていても、他のユーザーのワークロードは予測可能なスループットとレイテンシで実行できるようになります。
40 GB の HBM2 大容量メモリ
大量のコンピューティング スループットを提供するために、クラス最高の 1,555 GB/秒のメモリ帯域幅を持つ 40 GB の高速 HBM2 メモリを搭載しています。メモリ帯域幅は 前世代と比較して 73% 増加しています。さらにコンピューティング パフォーマンスを最大化するために、40 MB のレベル 2 (L2) キャッシュ (Volta の約 7 倍) を含め、はるかに多くのオンチップ メモリを搭載しています。
PCI Express Gen 4
PCI Express Gen3 の 2倍の帯域幅を提供する PCI Express Gen4 対応したことにより AI やデータサイエンスなどのデータ集約型タスク向けに CPU メモリからのデータ転送速度が向上します。