第4世代DGXシステム NVIDIA DGX H100の受注を開始しました


2023年1月出荷開始! 
NVIDIA H100 GPU搭載 第4世代DGXシステム「NVIDIA DGX H100」


NVIDIA DGX H100 は 2022年3月のNVIDIA主催のイベントGTC2022Springで発表のあった、世界で初めてNVIDIA H100 Tensor コアGPU を搭載したシステムです。8基のNVIDIA H100 GPUは前世代の1.5倍 7.2TB/Secとより広帯域になったNLSwitch x4で接続され、最大で32PetaFLOPSの演算性能を実現します。

(※NVIDIA H100 についての詳しい説明はこちらをご覧ください。)

さらに、NVIDIA ConnectX®-7 スマート ネットワーク インターフェイス カード(SmartNIC)とNVIDIA BlueField®-3 データ プロセシング ユニット(DPU)で6 倍のパフォーマンスと2 倍高速なネットワーキングを実現し、NVIDIA DGX SuperPOD 向けのハイスピード スケーラビリティを提供します。この次世代アーキテクチャは、自然言語処理やディープ ラーニングによるレコメンデーション モデルなど、大規模で複雑なAI ジョブに対応できるように強化されています。




多様な条件に適合するリーダーシップクラスのインフラ


企業や研究機関でAI を利用する際に重要なのは、パフォーマンスと機能だけではありません。組織のIT 要件と運用要件に適合することも重要です。NVIDIA DGX H100 は、オンプレミスに導入して直接管理できるほか、NVIDIA DGX 対応のデータセンターへのコロケーション、NVIDIA DGX Foundry でのレンタル、NVIDIA 認定のマネージド サービス プロバイダーを介した利用が可能です。また、DGX 対応のライフサイクル管理プログラムにより、最新のシステムの導入を維持するための予測性の高い財務モデルを利用できます。これを利用すると、忙しいIT スタッフの負担を増やすことなく、従来のIT インフラと同じように簡単にNVIDIA DGX H100 を活用、入手できるため、明日を待たずにすぐAI をビジネスに活用できます。

 


NVIDIA DGX SuperPOD へのスケールアウト


NVIDIA DGX H100 は、次世代 NVIDIA DGX POD および NVIDIA DGX SuperPOD といったAIデータセンター インフラストラクチャプラットフォームを構成することが可能です。

NVIDIA DGX SuperPODは、きわめて困難な AI およびハイパフォーマンス コンピューティング (HPC) ワークロードに対して、最高クラスのアクセラレーテッド インフラストラクチャと俊敏かつスケーラブルなパフォーマンスを提供し、業界で認められた結果をもたらします。



 


NVIDIA DGX H100 構成


◆ NVIDIA H100 GPU x8、合計 GPU メモリ 640GB
GPU あたり 12 NVIDIA® NVLinks®、GPU 間の双方向帯域幅 900GB/秒

◆ NVIDIA NVSWITCHES™ x4
7.2 テラバイト/秒の GPU 間双方向帯域幅 、前世代比 1.5 倍以上

◆ NVIDIA CONNECTX®-7 x8 および、NVIDIA BLUEFIELD® DPU 400Gb/秒 ネットワーク インターフェイス x2
ピーク時の双方向ネットワーク帯域幅 1TB/秒

◆ デュアル x86 CPU と 2TB システム メモリ
AI への依存が非常に高い仕事を可能にするパワフルな CPU

◆ 30TB NVME SSD
最高のパフォーマンスを実現するための高速ストレージ


NVIDIA DGX H100 仕様


 

GPU

NVIDIA H100 Tensor Core GPU
80 GB x 8基

GPUメモリ

Total 640 GB

パフォーマンス

32 petaFLOPS FP8

NVIDIA NV Switch数

4X

システム電力

10.2kw

CPU

Dual x86

システムメモリ

2TB

ネットワーク

4 個の OSFP ポートで 8 基の
シングルポート ConnectX-7 へ接続
400Gb/s InfiniBand/Ethernet

2 基のデュアルポート NVIDIA
BlueField-3 DPU VPI
400Gb/s InfiniBand/Ethernet x1
200Gb/s InfiniBand/Ethernet x1

10Gb/s オンボード NIC(RJ45 付き)
50Gb/s Ethernet オプション NIC
ホスト ベースボード管理コントロー
ラー(BMC)(RJ45 付き)
2x NVIDIA BlueField-3 DPU BMC
(それぞれ RJ45 コネクタで接続)

ストレージ

OS: 1.92 TB M.2 NVMe E drives × 2
内部ストレージ:
30 TB (3.84 TB × 8)
U.2 NVMe drives

ソフトウェア

DGX H100システムには、Ubuntu Linuxに基づいて
DGXソフトウェアスタック
(DGX用に最適化されたすべての必要なパッケージとドライバー)
を含むDGX OSがプリインストールされています。
オプションで、お客様はUbuntu LinuxまたはRedHat EnterpriseLinuxと
必要なDGXソフトウェアスタックを個別にインストールできます。

動作温度範囲

5℃~30℃

※仕様は予告なしに変更されることがあります。

導入のご相談はDGX国内累計販売実績No.1の株式会社ジーデップ・アドバンスまで

 

ジーデップ・アドバンスはDGXに対する豊富な実績から、NVIDIAのベストパートナーとして受賞されております。
また、DGXのソフトウェアスタックに標準採用されるBase Command オーケストレーションツールについても、国内トップクラスの知見を有しています。DGX H100という最新で最強のツールをスムーズに導入して頂くためにも是非私達にお手伝いをさせて下さい。

投稿日 : 2022-09-22 12:00:00

デスクトップ

ワークステーション

サーバー

ストレージ

アクセラレーター

ネットワーク

静音モデル

TOPへ

Linux対応について

Linux対応について
[ 動作確認モデル ]

動作確認を行ったモデルには[ Linux対応 ]のマークを表示しています。

[ ディストリビューション ]

動作確認は標準のインストーラーを使用したインストールとX-windowの起動、及びLANチップの動作確認(DHCPでのインターネット接続)までを確認しました。
ディストリビューションはRed Hat Enterprise Linux とCentOSですが、ご要望によっては、FedraやUbuntuなど、その他ディストリビューションやバージョンについてもお気軽にご相談下さい。

[ 動作確認デバイス ]

ビデオ内蔵モデルについては内蔵ビデオチップを無効化し別途ビデオカード(nVIDIA社製)を搭載して動作確認を行っているモデルもあります。
また同様にオンボードLANチップではなく別途LANカード(Realtek社製、intel社製)を搭載し動作確認を行っているモデルもございます。

※音源(サウンド)の動作については弊社では確認を行っておりません。インストーラー標準のドライバーで動作する場合もございますが、Linuxのドライバー自体が無く動作認識しないチップもございます。ご理解下さい。

[ 設定、インストール ]

インテルやPGI等の有償コンパイラやMKL等のライブラリやツール類のインストール、各種サーバー構築、設定も承っています。お気軽にご相談下さい。

Copyright (c) 2013-2019 univPCcom Allright reserved.