NVIDIA H100 80GB PCIe

new
NVIDIA H100 Tensor Core GPU は、2022年3月のNVIDIA社のイベントGTC2022 Spring で発表された新しいアーキテクチャのGPGPU製品です。TMSCの4nm プロセスルールを採用し814平方mmのダイサイズに、従来のA100の約1.5倍にあたる800億個のトランジスタを搭載したまさに史上最大にして最速のGPUであり、倍精度・単精度をはじめ多様な精度を兼ね備え、マルチインスタンスGPU(MIG)機能により1つのGPUで最大7つのジョブを同時に実行可能。世界で最も困難な計算に AI、データ分析、 HPC分野で驚異的な性能を発揮します。
NVIDIA H100についての詳細情報
 
税別参考価格¥4,313,000-  (12ヶ月レンタル月額参考価格:¥347,800)
納期目安:こちらの製品は2022年後半から出荷開始の予定です。
 

※本製品はPassive(ファンレス)の構造であり また消費電力も高く搭載機器を選びます。搭載予定のメーカー・機種については弊社までご相談下さい。NVIDIA H100 搭載対応サーバーもラインナップ予定です。
  • PCIe Gen5
  • 80GB
  • HBM3
  • NV-Link
  • MIG
  • 標準3年保証
モデル
特徴
仕様
お問い合わせ

変革的 AI トレーニング

NVIDIA H100 GPU は、第 4 世代の Tensor コアと、FP8 精度の Transformer Engine を搭載し、MoE (Mixture-of-Experts) モデルのトレーニングを前世代よりも最大 9 倍高速化します。900 ギガバイト/秒 (GB/s) の GPU 間インターコネクトを提供する第 4 世代の NVlink、ノード間の各 GPU による通信を加速する NVLINK Switch システム、PCIe Gen5、および NVIDIA Magnum IO™ ソフトウェアの組み合わせによって、小規模な企業から大規模で統一された GPU クラスターまで効率的に拡張できるようになっています。
変革的 AI トレーニング

リアルタイム ディープラーニング推論

AI は、さまざまなビジネスの課題を、同じくらいさまざまなニューラル ネットワークを使用して解決します。優れた AI 推論アクセラレータには、最高のパフォーマンスだけでなく、様々なネットワークを加速するための多様性も求められます。

H100 では、推論が最大 30 倍高速化になる、レイテンシが最小限に抑えられるなど、機能が強化されます。それにより、市場をリードする NVIDIA の推論のリーダーシップをさらに拡大します。第 4 世代の Tensor コアは FP64、TF32、FP32、FP16、INT8 など、あらゆる精度をスピードアップします。Transformer Engine は FP8 と FP16 の両方を活用してメモリ消費を減らしてパフォーマンスを増やしつつ、大規模な言語モデルで精度を維持します。
リアルタイム ディープラーニング推論

エクサスケール ハイパフォーマンス コンピューティング

NVIDIA データ センター プラットフォームは、ムーアの法則を超えるパフォーマンス向上を継続的に提供します。また、H100 の新しい画期的な AI 機能は、HPC+AI のパワーをさらに増幅し、世界の最重要課題の解決に取り組む科学者や研究者にとって、発見までの時間が加速されます。

H100 は、倍精度 Tensor コアの毎秒浮動小数点演算 (FLOPS) を 3 倍にし、HPC で 60 teraFLOPS の FP64 コンピューティングを実現します。AI と融合した HPC アプリケーションでは、H100 の TF32 精度を活用し、コードの変更なしに、単精度行列乗算演算で 1 petaFLOP のスループットを達成することができます。

H100 はまた、DPX 命令を備え、NVIDIA A100 Tensor コア GPU の 7 倍のパフォーマンスを提供し、DNA シーケンス アライメント用の Smith-Waterman など、動的プログラミング アルゴリズムにおいて従来のデュアルソケット CPU のみのサーバーと比較して 40 倍の高速化を実現します。

エクサスケール ハイパフォーマンス コンピューティング

データ分析

データ分析は多くの場合、AI アプリケーションの開発時間の大半を占めます 大規模なデータセットは複数のサーバーに分散されるため、CPU だけの市販のサーバーによるスケールアウト ソリューションでは、スケーラブルなコンピューティング パフォーマンスに欠け、動かなくなります。

H100 で高速化するサーバー、GPU ごとに毎秒 3 テラバイトのメモリ帯域幅、NVLink と NVSwitch によるスケーラビリティなら、膨大なデータセットに対処するハイパフォーマンスとスケールでデータを分析できます。NVIDIA Quantum-2 Infiniband、Magnum IO ソフトウェア、GPU 高速化 Spark 3.0、NVIDIA RAPIDS™ と組み合わせることで、NVIDIA データ センター プラットフォームは、かつてないレベルのパフォーマンスと効率性で膨大なワークロードを、他にはない方法で、高速化できます。
データ分析

企業で効率的に利用

T マネージャーはデータ センターでコンピューティング リソースの利用率 (ピークと平均の両方) を最大化することを求めます。多くの場合、コンピューティングを動的に再構成し、使用中のワークロードに合わせてリソースを正しいサイズに変更します。

H100 の第 2 世代のマルチインスタンス GPU (MIG) は、最大 7 つのインスタンスに安全に分割することで、各 GPU の利用率を最大化します。コンフィデンシャル コンピューティングをサポートする H100 は、クラウド サービス プロバイダー (CSP) 環境に理想的な、エンドツーエンドで安全なマルチテナント利用を可能にします。

H100 と MIG なら、インフラストラクチャ管理者は GPU アクセラレーテッド インフラストラクチャを標準化できて、同時に、GPU リソースを非常に細かくプロビジョニングできます。正しい量のアクセラレーテッド コンピューティングが安全に開発者に与えられ、GPU リソースの利用を最適化します。

企業で効率的に利用
モデル
特徴
仕様
お問い合わせ

デスクトップ

ワークステーション

サーバー

ストレージ

ノート

アクセラレーター

ネットワーク

静音モデル

TOPへ

Linux対応について

Linux対応について
[ 動作確認モデル ]

動作確認を行ったモデルには[ Linux対応 ]のマークを表示しています。

[ ディストリビューション ]

動作確認は標準のインストーラーを使用したインストールとX-windowの起動、及びLANチップの動作確認(DHCPでのインターネット接続)までを確認しました。
ディストリビューションはRed Hat Enterprise Linux とCentOSですが、ご要望によっては、FedraやUbuntuなど、その他ディストリビューションやバージョンについてもお気軽にご相談下さい。

[ 動作確認デバイス ]

ビデオ内蔵モデルについては内蔵ビデオチップを無効化し別途ビデオカード(nVIDIA社製)を搭載して動作確認を行っているモデルもあります。
また同様にオンボードLANチップではなく別途LANカード(Realtek社製、intel社製)を搭載し動作確認を行っているモデルもございます。

※音源(サウンド)の動作については弊社では確認を行っておりません。インストーラー標準のドライバーで動作する場合もございますが、Linuxのドライバー自体が無く動作認識しないチップもございます。ご理解下さい。

[ 設定、インストール ]

インテルやPGI等の有償コンパイラやMKL等のライブラリやツール類のインストール、各種サーバー構築、設定も承っています。お気軽にご相談下さい。

Copyright (c) 2013-2019 univPCcom Allright reserved.