
2Uサイズに最大6枚のGPUを搭載可能な第三世代 Intel® Xeon® Scalable processors(Ice Lake -SP)搭載GPUサーバです。第三世代 Intel® Xeon® Scalable processors (Ice Lake -SP)は AVX512に新しいSIMD命令を追加し、ソフトウェアやアルゴリズムの改善により前世代のCascade Lakeから1.5~8倍の性能向上を実現。また、PCI-Express4.0対応とDDR4 Optane Persistent Memoryでシステム全体のパフォーマンス向上も図られています。
2UサイズながらCPUはトップビンのXeon Platinum 8380 が2ソケットで80コア/160スレッド、ベースクロック2.3GHz、ターボで3.4GHzとなり、ボトムラインのXeon Silver 4310までの13タイプのラインナップをご用意しました。GPUは最大で6枚(A100x4枚 A30,A10各1枚)まで搭載可能です。

2UサイズながらCPUはトップビンのXeon Platinum 8380 が2ソケットで80コア/160スレッド、ベースクロック2.3GHz、ターボで3.4GHzとなり、ボトムラインのXeon Silver 4310までの13タイプのラインナップをご用意しました。GPUは最大で6枚(A100x4枚 A30,A10各1枚)まで搭載可能です。

- Xeon
- Dual CPU
- 80Core
- USB3.1
- NVMe
- PCI-Express x16
- u.2
- PCIe Gen4
- DDR4
- 3200MHz
- ECC
- Registered
- 80PLUS認証電源
- 冗長化電源
- 標準3年保証
第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載
10nmプロセスの開発コードネーム「Ice Lake-SP」サーバー向けCPUの第3世代「Xeon Scalable Processor」を2基搭載。トップビンでは1基あたり最大40コアと60MBのキャッシュを実現し、1クロックあたりの並列実行命令数(Instructions Per Clock,IPC)が約20%向上されています。
また、integer SPECrate2017_int_base や FlotingPoint SPECrate2017_int_base 、LINPAC などベンチマークでは第2世代Xeon Scalable Processor比で約1.46倍の性能向上を実現しています。
また、integer SPECrate2017_int_base や FlotingPoint SPECrate2017_int_base 、LINPAC などベンチマークでは第2世代Xeon Scalable Processor比で約1.46倍の性能向上を実現しています。

2U筐体に最大で6枚のGPUを搭載可能
2UのラックマウンケースにNVIDIA社のAmpereアーキテクチャGPUカードを最大で6枚搭載可能です。NVIDIA A100 x4枚 と NVIDIA A30,A10を各1枚づつ(もしくはNVIDIA A30を6枚)搭載し、Deeplearningの学習や推論はもちろん、HPC用途でも妥協の無いパフォーマンスを実現可能です。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA A100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2000W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。

PCI Gen4 のエンタープライズ NVMe™ SSD
高速なPCI-Express3.0(x4)(NMV Express)接続のSamsung製データセンター向けNVMe SSDを標準採用。Samsung 3D V-NAND と、32GB / 秒の帯域幅を提供する PCIe Gen 3.0 x4 ホストインタフェースを備えた最適化された Samsung NVMe コントローラーを使用して、SATA SSD の 4 倍のパフォーマンスを実現します。また、ランダム Read/Write 性能において SAS HDD より 1000 倍速く、2.5 インチ SAS SSD より 3 倍優れています。PM983 は、より低速な SATA SSD と同じ、ギガバイトあたりの低コストを実現します。1 ドルあたり 4 倍の IOPS を提供することで、IT やデータセンター管理者は、サーバーのワークロード利用率を拡大し、コンピューティング環境のコストを削減できます。
