GSV-IEMSM-4U4G

ninki
GSV-IEMSM-4U4Gは、NVIDIA L40S、NVIDIA A800、RTX6000Ada、NVIDIA RTX PRO™ 6000 Max-Q をはじめとしたNVIDIA Ada Lovelace / Blackwell アーキテクチャ GPUを最大4基搭載可能な4UラックマウントGPUサーバーです。CPUにはAIアクセラレーションを搭載した第5世代のXeon® Scalable processorを採用し、負荷の高いAIワークロードにも対応。GPU以外のプリポスト処理の高速化にも威力を発揮します。また、IOインターフェースはPCI-Express5.0に対応し、32GT/sの広帯域なバンド幅を実現。システム全体のボトルネックを解消すると共に完全な後方互換性を提供しました。ストレージにはフロントアクセスが可能な2基の3.5インチHDDホットスワップベイと、2.5インチSSDが最大4基内蔵でき、高い拡張性を実現します。GPUカードはNVIDIA L40S、NVIDIA A800、RTX6000Ada、NVIDIA RTX PRO™ 6000  Max-Q をはじめとしたNVIDIA Ada Lovelace / Blackwell アーキテクチャ GPUに対応しており、大規模AIの学習にも推論にも利用可能なAIサーバーです。NVIDIAエリートパートナーのジーデップ・アドバンスではNVIDIA NV-Docker上にNGC(NVIDIA GPU CLOUD)開発環境を標準インストール。さらにお客様の利用環境に合わせてコンパイラやライブラリ、ジョブスケジューラなどをシステムに合わせてオプティマイズすることも可能です。ジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて抜群のコストパフォーマンスと安定した利用環境をご提供します。

NVIDIA RTX PRO 6000 Blackwell シリーズ製品比較レポート
  • 4GPU
  • 120Core
  • NVMe
  • Dual 10G
  • u.2
  • DDR5
  • 4800MHz
  • ECC
  • Registered
  • 2200W
  • Rackmount
  • IPMI
  • 200V入力対応
  • 標準3年保証
モデル
特徴
仕様
お問い合わせ

第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載

第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)を採用、Intel 7ノード(旧10nm)で製造され、プロセッサあたり最大60個のGolden Coveコアと新しい専用アクセラレータコアを搭載、新しいアクセラレータを使用したターゲットワークロードにおいて、前世代に比べて平均1.53倍の性能向上と、ワットあたりの平均性能2.9倍の効率改善を実現します。
第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載

最も多機能かつセキュアなインテル® Xeon® プラットフォーム

インテル® Xeon® プラットフォーム​の新機能により、PCIe 5.0、DDR5メモリ、CXL 1.1をサポート、またメインメモリはDDR5-4800規格で8チャネル構成、最大メインメモリ容量4TBなど、大幅な機能の向上に加えて、ネットワークは高速な10Gbpsイーサーネットを標準搭載と管理用IPMIも装備し、リモートメンテナンスにも対応しています。また、 最大8ベイのエンクロージャーはNVMe U.2に対応しており、大容量で高速なストレージ環境も柔軟に構築可能で、これまでにな多機能でセキュアなプラットフォームです。
最も多機能かつセキュアなインテル® Xeon® プラットフォーム

NVIDIA Hopper アーキテクチャ搭載 H100搭載

GPUは、NVIDIA® Hopperアーキテクチャベースで80GB HBM2eの大容量メモリを搭載が可能、NVIDIA H100 Tensor Core GPU は、TMSCの4nm プロセスルールを採用し814平方mmのダイサイズに、従来のA100の約1.5倍にあたる800億個のトランジスタを搭載したまさに史上最大にして最速のGPUであり、倍精度・単精度をはじめ多様な精度を兼ね備え、マルチインスタンスGPU(MIG)機能により1つのGPUで最大7つのジョブを同時に実行可能。世界で最も困難な計算に AI、データ分析、 HPC分野で驚異的な性能を発揮します。また、第 4 世代の Tensor コアと、FP8 精度で混合エキスパート (MoE) モデルのトレーニングを前世代比最大 9 倍高速化するTransformer Engine を備えております。また、NVIDIA RTX シリーズ(RTX A6000/RTX A5000) を搭載したモデルも用意しておりジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
NVIDIA Hopper アーキテクチャ搭載 H100搭載

AI開発環境 G-Works 標準搭載

本システムには Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works」、そしてOpenAI社も利用しているMLopsプラットフォームである「WandB」がプレインストールされており、AI開発ユーザーが届いたその日からすぐに利用できるターンキーでの提供となります。まさに大学、研究機関、企業のR&D部門などのAI開発者に最適なAI開発システムとなります。


 
AI開発環境 G-Works 標準搭載
モデル
特徴
仕様
お問い合わせ

デスクトップ

ワークステーション

サーバー

ストレージ

アクセラレーター

ネットワーク

静音モデル

TOPへ

Linux対応について

Linux対応について
[ 動作確認モデル ]

動作確認を行ったモデルには[ Linux対応 ]のマークを表示しています。

[ ディストリビューション ]

動作確認は標準のインストーラーを使用したインストールとX-windowの起動、及びLANチップの動作確認(DHCPでのインターネット接続)までを確認しました。
ディストリビューションはRed Hat Enterprise Linux とCentOSですが、ご要望によっては、FedraやUbuntuなど、その他ディストリビューションやバージョンについてもお気軽にご相談下さい。

[ 動作確認デバイス ]

ビデオ内蔵モデルについては内蔵ビデオチップを無効化し別途ビデオカード(nVIDIA社製)を搭載して動作確認を行っているモデルもあります。
また同様にオンボードLANチップではなく別途LANカード(Realtek社製、intel社製)を搭載し動作確認を行っているモデルもございます。

※音源(サウンド)の動作については弊社では確認を行っておりません。インストーラー標準のドライバーで動作する場合もございますが、Linuxのドライバー自体が無く動作認識しないチップもございます。ご理解下さい。

[ 設定、インストール ]

インテルやPGI等の有償コンパイラやMKL等のライブラリやツール類のインストール、各種サーバー構築、設定も承っています。お気軽にご相談下さい。

© GDEP ADVANCE,Inc.