NVIDIA H100/L40Sを最大8基搭載可能な4UラックマウントGPUサーバー。NVIDIA H100 Tensor Core GPU は、NVIDIA A100の約1.5倍にあたる800億個のトランジスタを搭載したまさに史上最大にして最速のGPUであり、倍精度・単精度をはじめ多様な精度を兼ね備え、マルチインスタンスGPU(MIG)機能により1つのGPUで最大7つのジョブを同時に実行可能。世界で最も困難な計算に AI、データ分析、 HPC分野で驚異的な性能を発揮します。 マルチインスタンス GPU (MIG) テクノロジでは、1 個の H100 GPU で複数の AI モデルを同時に運用できるため、計算リソースの利用を最適化できます。
また、NVIDIA L40Sは、データセンター向けの最も強力なユニバーサルGPUであり、推論とトレーニング、グラフィックス、およびビデオアプリケーションに対して高性能かつ高速な処理を実現します。
NVIDIAエリートパートナーのジーデップ・アドバンスではNVIDIA NV-Docker上にNGC(NVIDIA GPU CLOUD)開発環境を標準インストール。さらにお客様の利用環境に合わせてコンパイラやライブラリ、ジョブスケジューラなどをオプティマイズすることも可能です。カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて最新のNVIDIA H100・L40Sを抜群のコストパフォーマンスで提供します。
※NVIDIA H100についての詳細はこちらのページをご覧ください。
- Xeon
- 8GPU
- Dual CPU
- 120Core
- NVMe
- Dual 10G
- IPMI
- PCIe Gen5
- PCIe 5.0
- DDR5
- 4800MHz
- 8-Channel
- ECC
- Registered
- Rackmount
- 200V入力対応
- 2700Wx4
- 標準3年保証
第4世代・第5世代 Intel® Xeon® Scalable processors 搭載
Intel® Xeon® Scalable processors は 内蔵された AI アクセラレーションにより、必要とされる高レベルの AI パフォーマンスを実現します。インテル® プロセッサー限定の、インテル® DL ブースト・ベクトル・ニューラル・ネットワーク・インストラクション (VNNI) 搭載インテル® AVX-512 は、より短い時間での高速な洞察向けの最適化された AI パフォーマンスを実現します。

最新の NVIDIA HoppoerアーキテクチャGPUH100やL40S を最大8枚搭載可能
NVIDIA L40S GPU は NVIDIA Ada Lovelace GPU アーキテクチャに基づいて設計され、第 4 世代 Tensor コアと FP8 Transformer Engine が搭載されており、1.45 ペタフロップスを超えるTensor処理能力を実現します。

エンタープライズ NVMe SSD
GSVシリーズに搭載されているNVMe SSDはビジネスインテリジェンス(BI)、オンライントランザクション処理(OLTP)、ソフトウェア・デファインド・ストレージ(SDS)、仮想化環境などの 様々な企業向けアプリケーションおよび関連ワークロードに適したリードインテンシブSSDです。 あらゆる状態において、高い安定性能を維持し優れた耐久性と高速性を実現します。※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA H100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2700W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。
