
NVIDIA A100を最大8基搭載可能な4UラックマウントGPUサーバー。NVIDIA A100 Tensor コア GPUはCUDAコアの増強だけなく、推論ワークロードを最適化するためにTensorコアも増強。FP32 から FP16、INT8 に INT4 まで、あらゆる精度を加速します。 マルチインスタンス GPU (MIG) テクノロジでは、1 個の A100 GPU で複数の AI モデルを同時に運用できるため、計算リソースの利用を最適化できます。また新しいいハードワイヤードの機能としてスパース行列演算にも対応し従来の2 倍の性能を発揮します。
NVIDIAエリートパートナーのジーデップ・アドバンスではNVIDIA NV-Docker上にNGC(NVIDIA GPU CLOUD)開発環境を標準インストール。さらにお客様の利用環境に合わせてコンパイラやライブラリ、ジョブスケジューラなどをオプティマイズすることも可能です。カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて最新のNVIDIA A100を抜群のコストパフォーマンスで提供します。
※A100についての詳細はこちらのページをご覧ください
- EPYC
- 64Core
- 8GPU
- USB3.1
- NVMe
- PCI-Express x16
- Dual GbE
- u.2
- PCIe Gen4
- DDR4
- 3200MHz
- ECC
- Registered
- 80PLUS認証電源
- 冗長化電源
- 標準3年保証
- オンサイト
NVIDIAの最新GPU A100 (40GB)を最大8枚実装可能
ジーデップ・アドバンスのGSV-4U/8G-A100はGen4のPCI-Exppress Gen4 の NVIDIA A100を最大8枚搭載可能です。

NVIDIA A100 (PCI Express Gen4) 性能
ピーク FP64 | 9.7 TF |
ピーク FP64 Tensor コア | 19.5 TF |
ピーク FP32 | 19.5 TF |
ピーク TF32 Tensor コア | 156 TF | 312 TF* |
ピーク BFLOAT16 Tensor コア | 312 TF | 624 TF* |
ピーク FP16 Tensor コア | 312 TF | 624 TF* |
ピーク INT8 Tensor コア | 624 TOPS | 1,248 TOPS* |
ピーク INT4 Tensor コア | 1,248 TOPS | 2,496 TOPS* |
GPU メモリ | 40 GB |
GPU メモリ帯域幅 | 1,555 GB/s |
相互接続 | PCIe Gen4 64 GB/s |
マルチインスタンス GPU | 最大 7MIG @5GB のさまざまなインスタンス サイズ |
フォーム ファクター | PCIe |
最大 TDP 電力 | 250W |
主要アプリケーション実効性能 | 90% |

第2世代 AMD EPYC™ 7002シリーズをDUAL搭載


Samsung製データセンター向け高速 NVMe SSD
高速なPCI-Express3.0(x4)(NMV Express)接続のSamsung製データセンター向けNVMe SSDを標準採用。Samsung 3D V-NAND と、32GB / 秒の帯域幅を提供する PCIe Gen 3.0 x4 ホストインタフェースを備えた最適化された Samsung NVMe コントローラーを使用して、SATA SSD の 4 倍のパフォーマンスを実現します。また、ランダム Read/Write 性能において SAS HDD より 1000 倍速く、2.5 インチ SAS SSD より 3 倍優れています。PM983 は、より低速な SATA SSD と同じ、ギガバイトあたりの低コストを実現します。1 ドルあたり 4 倍の IOPS を提供することで、IT やデータセンター管理者は、サーバーのワークロード利用率を拡大し、コンピューティング環境のコストを削減できます。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA A100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2000W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。
