クアッドコアの高性能および最大16GBのRAM

2.5GbEで、大容量ファイル転送とビデオ編集を効率化

TPUおよびPCIe拡張による、AIベース画像認識およびキャッシュのアクセラレーション

最大5年までのハードウェア保証延長

Intel® Celeron® J3455クアッドコア1.5Ghzプロセッサ 、最大8GB DDR3L RAMを搭載し、SMB/CIFS、NFS、AFPプロトコルに対応しているため、
Windows、Mac、Linux/UNIXネットワークでファイルを共有することができます。少人数でデータ共有を行う際に最適です。
高い機密性とパフォーマンス

シームレスな容量拡張

高信頼性ストレージWD Redシリーズ搭載

Intel® Celeron® J3455クアッドコア1.5Ghzプロセッサ 、最大8GB DDR3L RAMを搭載し、SMB/CIFS、NFS、AFPプロトコルに対応しているため、
Windows、Mac、Linux/UNIXネットワークでファイルを共有することができます。少人数でデータ共有を行う際に最適です。
高い機密性とパフォーマンス

シームレスな容量拡張

高信頼性ストレージWD Redシリーズ搭載

高性能AMD Ryzen™プロセッサ
* * 非ECCメモリとECCメモリの同時使用はできないため、ECCメモリを使用するには標準装備のメモリを取り外す必要があります。
お財布に優しい2.5GbEスイッチにより、ネットワークを変革します
GPUアクセラレーションコンピューティングのためにグラフィックカードを取り付ける

最大5年までのハードウェア保証延長
より高いパフォーマンス x より速い処理能力

マルチポイントのファイルバックアップ、アクセス、および同期

頼れるサービスのための冗長性電源

必要な時にはいつでも、柔軟にストレージ容量を拡張します
QNAPで高速ネットワークを構築
PCIeカードでNASの機能性を拡張

最適化されたストレージ効率のためのSSDキャッシングおよび自動階層化
簡単で安全なファイル管理
QNAPで高速ネットワークを構築
PCIeカードでNASの機能性を拡張

最適化されたストレージ効率のためのSSDキャッシングおよび自動階層化
簡単で安全なファイル管理
クアッドコアプロセッサ、最大バースト2.9 GHz、最大8 GBまで増設可能なメモリ

SSDキャッシュおよび自動階層化によるストレージ効率の最適化

QTS 5、高速でスムーズかつ使いやすい!

包括的なセキュリティおよび権限設定

AMD Ryzen™および最大64GBのRAMによる絶対的なパフォーマンス

マル2.5GbEネットワーキングにアップグレード

SSDキャッシングによるIOPSパフォーマンスの高速化

必要な時にはいつでも、柔軟にストレージ容量を拡張します

クアッドコアプロセッサ、最大バースト2.9 GHz、最大8 GBまで増設可能なメモリ

SSDキャッシュおよび自動階層化によるストレージ効率の最適化

QTS 5、高速でスムーズかつ使いやすい!

包括的なセキュリティおよび権限設定

クアッドコアプロセッサ、最大バースト2.9 GHz、最大8 GBまで増設可能なメモリ

SSDキャッシュおよび自動階層化によるストレージ効率の最適化

QTS 5、高速でスムーズかつ使いやすい!

包括的なセキュリティおよび権限設定

AMD Ryzen™および最大64GBのRAMによる絶対的なパフォーマンス

マル2.5GbEネットワーキングにアップグレード

SSDキャッシングによるIOPSパフォーマンスの高速化

必要な時にはいつでも、柔軟にストレージ容量を拡張します
AMD Ryzen™および最大64GBのRAMによる絶対的なパフォーマンス

マル2.5GbEネットワーキングにアップグレード

SSDキャッシングによるIOPSパフォーマンスの高速化

必要な時にはいつでも、柔軟にストレージ容量を拡張します
高性能AMD Ryzen™プロセッサ
* * 非ECCメモリとECCメモリの同時使用はできないため、ECCメモリを使用するには標準装備のメモリを取り外す必要があります。
お財布に優しい2.5GbEスイッチにより、ネットワークを変革します
GPUアクセラレーションコンピューティングのためにグラフィックカードを取り付ける

最大5年までのハードウェア保証延長
高性能AMD Ryzen™プロセッサ
* * 非ECCメモリとECCメモリの同時使用はできないため、ECCメモリを使用するには標準装備のメモリを取り外す必要があります。
お財布に優しい2.5GbEスイッチにより、ネットワークを変革します
GPUアクセラレーションコンピューティングのためにグラフィックカードを取り付ける

最大5年までのハードウェア保証延長
ハイエンドビデオカードも搭載可能で、様々な用途に答えるコストパフォーマンスにすぐれたマルチなエントリーモデルです。
第12世代インテル® Core™プロセッサ”Alder Lake-S”を標準搭載
第12世代インテル® Core™ プロセッサー(コードネーム:Alder Lake-S)はGolden Cove 高性能CPUコア(P-CORE)とGracemont 高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大16コアを搭載しています。効率的なコアの使用により没入感のある高精細なゲームのパフォーマンス向上をはじめ、4K超ビデオコンテンツ制作、仮想現実(VR)などの最新の映像体験において驚異のエンターテインメント・ハブを提供します。

Intel® B660チップセット
第12世代Intel®プロセッサーの潜在能力を最大限に引き出すために、熟練した技術を駆使して設計されています。
B660マザーボードには、システムのあらゆる側面を調整するための柔軟なツールが搭載されており、あなたの作業方法にぴったり合ったパフォーマンス調整を可能にし、生産性を最大限に高めます。

最大128GBまで搭載可能な広帯域3200MHz DDR4メモリー
マザーボード上には合計4つのメモリスロットを確保しており最大で128GBのメモリ空間を広帯域で実現します。

DisprayPortを搭載
また、PCIe4.0/3.0 x16対応バスにも対応。
ハイエンドビデオカードも選択可能です。

ハイエンドビデオカードも搭載可能で、様々な用途に答えるコストパフォーマンスにすぐれたマルチなエントリーモデルです。
第12世代インテル® Core™プロセッサ”Alder Lake-S”を標準搭載
第12世代インテル® Core™ プロセッサー(コードネーム:Alder Lake-S)はGolden Cove 高性能CPUコア(P-CORE)とGracemont 高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大16コアを搭載しています。効率的なコアの使用により没入感のある高精細なゲームのパフォーマンス向上をはじめ、4K超ビデオコンテンツ制作、仮想現実(VR)などの最新の映像体験において驚異のエンターテインメント・ハブを提供します。

Intel® B660チップセット
第12世代Intel®プロセッサーの潜在能力を最大限に引き出すために、熟練した技術を駆使して設計されています。
B660マザーボードには、システムのあらゆる側面を調整するための柔軟なツールが搭載されており、あなたの作業方法にぴったり合ったパフォーマンス調整を可能にし、生産性を最大限に高めます。

最大128GBまで搭載可能な広帯域3200MHz DDR4メモリー
マザーボード上には合計4つのメモリスロットを確保しており最大で128GBのメモリ空間を広帯域で実現します。

DisprayPortを搭載
また、PCIe4.0/3.0 x16対応バスにも対応。
ハイエンドビデオカードも選択可能です。

前世代 Alder Lake-Sからクロック数の向上に加え、キャッシュメモリの容量増とE-COREのコア数の増加で大幅な性能向上を実現しております。Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載。効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第13世代インテル® Core™プロセッサー “Raptor Lake-S”搭載
効率的なコアの使用により没入感のある高精細なゲームのパフォーマンス向上をはじめ、4K超ビデオコンテンツ制作、仮想現実(VR)などの最新の映像体験において驚異のエンターテインメント・ハブを提供します。

Intel® Z790チップセット

PCI-Express 5.0 に対応

最大5基のストレージベイを搭載



最新インテル第14世代 コードネーム Raptor Lake-S Refresh(ラプターレイクリフレッシュ)を搭載したデスクサイドGPUワークステーションです。Pコア+Eコア合計24コアで 最大Thermal Velocity Boost 6.0GHz動作の「Inte® Core™ i9-14900KF」をはじめとした」ラインナップによりCPU性能を大幅に向上させています。また、プラットフォームでは PCIe 5.0をサポート 、最大16のPCI Express 5.0レーンにより、RTX 4090 をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
※注意:このモデルはCPU 仕様によりPCIe Lanes数は20までとなり、2枚のGPUを搭載可能ですが、1枚目はx16転送レート(理論値 256.0Gbps)、2枚目はx4転送レート(理論値 64.0Gbps)での動作となります。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能

第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載

GPU を最適な環境で動作
https://developer.nvidia.com/ja-jp/blog/cuda-toolkit-12-0-released-for-general-availability/

安定度抜群の高効率電源


前世代 Alder Lake-Sからクロック数の向上に加え、キャッシュメモリの容量増とE-COREのコア数の増加で大幅な性能向上を実現しております。Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載。効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第13世代インテル® Core™プロセッサー “Raptor Lake-S”搭載
効率的なコアの使用により没入感のある高精細なゲームのパフォーマンス向上をはじめ、4K超ビデオコンテンツ制作、仮想現実(VR)などの最新の映像体験において驚異のエンターテインメント・ハブを提供します。

Intel® Z790チップセット

PCI-Express 5.0 に対応

最大5基のストレージベイを搭載


エアーフローによる冷却と静音のバランスを考え誕生した空冷システムを採用しております。厳選されたパーツの組み合わせにより、高性能に加え、格段の冷却性能と静音性を実現しました。静音性を追求したIntel Z790チップセット搭載DDR5対応タワー型モデルになります。システム騒音値はアイドル時で18.8db、高負荷時で30.1dbと静音性を保っております。CPUは第14世代 Raptor Lake Refreshを搭載しており、Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載しております。前世代のパフォーマンスを継承、改良を加えさらなる性能の向上を実現、効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載

Intel® Z790チップセット

CPUクーラーに「こだわり」の空冷システムメーカー Noctua搭載

負荷 40% 以下でのセミファンレスモード& ハイブリッドスイッチ搭載 80 PLUS Gold認証の静音電源
高効率を実現できるハーフブリッジ形 LLC方式 DC/DCコンバータに、日本製コンデンサを100% 使用し、プロフェッショナルグレードの品質を実現しつつ、本体のハイブリッドスイッチで ON/OFFを切替可能なセミファンレスモードを搭載することにより、静音性と冷却性にも優れ た 80 PLUS Gold 認証 850W電源です。

ノイズを最小限に抑え、冷却効率に優れたSILENCIOデザイン

ハイエンドビデオカードも搭載可能で、様々な用途に答えるコストパフォーマンスにすぐれたマルチなエントリーモデルです。
第12世代インテル® Core™プロセッサ”Alder Lake-S”を標準搭載
第12世代インテル® Core™ プロセッサー(コードネーム:Alder Lake-S)はGolden Cove 高性能CPUコア(P-CORE)とGracemont 高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大16コアを搭載しています。効率的なコアの使用により没入感のある高精細なゲームのパフォーマンス向上をはじめ、4K超ビデオコンテンツ制作、仮想現実(VR)などの最新の映像体験において驚異のエンターテインメント・ハブを提供します。

Intel® B660チップセット
第12世代Intel®プロセッサーの潜在能力を最大限に引き出すために、熟練した技術を駆使して設計されています。
B660マザーボードには、システムのあらゆる側面を調整するための柔軟なツールが搭載されており、あなたの作業方法にぴったり合ったパフォーマンス調整を可能にし、生産性を最大限に高めます。

最大128GBまで搭載可能な広帯域3200MHz DDR4メモリー
マザーボード上には合計4つのメモリスロットを確保しており最大で128GBのメモリ空間を広帯域で実現します。

DisprayPortを搭載
また、PCIe4.0/3.0 x16対応バスにも対応。
ハイエンドビデオカードも選択可能です。

Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で3枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
「G-Works 4.0」をインストール
DeepLearning BOXIIIには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
DeepLearning BOXIIIはAI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
インテル Xeon W プロセッサー 搭載

強化されたプラットフォーム

ウルトラハイエンドGPUカードを 最大3枚搭載可能
搭載GPUはNVIDIA RTX 6000 Ada/*A6000*/A5000/A4000 を最大3枚搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。また、標準でCEM5に対応ケーブルを標準採用しており、最新世代のGPU搭載もサポートしております。
*200V 入力時のみ対応

バージョンアップされたDeepLearning開発環境「G-Works4.0」
G-Worksの詳細はこちらからご覧ください。

Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではMMLなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
「G-Works 4.0」をインストール
DeepLearning BOXIIIには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
DeepLearning BOXIIIはAI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
インテル Xeon W プロセッサー 搭載

強化されたプラットフォーム

ウルトラハイエンドGPUカードを 最大4枚を搭載可能
搭載GPUはNVIDIA RTX 6000 Ada/*A6000*/A5000/A4000 を最大4枚搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。また、標準でCEM5に対応ケーブルを標準採用しており、最新世代のGPU搭載もサポートしております。
*200V 入力時のみ対応

バージョンアップされたDeepLearning開発環境「G-Works4.0」
G-Worksの詳細はこちらからご覧ください。

エアーフローによる冷却と静音のバランスを考え誕生した空冷システムを採用しております。厳選されたパーツの組み合わせにより、高性能に加え、格段の冷却性能と静音性を実現しました。静音性を追求したIntel Z790チップセット搭載DDR5対応タワー型モデルになります。システム騒音値はアイドル時で18.8db、高負荷時で30.1dbと静音性を保っております。CPUは第14世代 Raptor Lake Refreshを搭載しており、Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載しております。前世代のパフォーマンスを継承、改良を加えさらなる性能の向上を実現、効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載

Intel® Z790チップセット

CPUクーラーに「こだわり」の空冷システムメーカー Noctua搭載

負荷 40% 以下でのセミファンレスモード& ハイブリッドスイッチ搭載 80 PLUS Gold認証の静音電源
高効率を実現できるハーフブリッジ形 LLC方式 DC/DCコンバータに、日本製コンデンサを100% 使用し、プロフェッショナルグレードの品質を実現しつつ、本体のハイブリッドスイッチで ON/OFFを切替可能なセミファンレスモードを搭載することにより、静音性と冷却性にも優れ た 80 PLUS Gold 認証 850W電源です。

ノイズを最小限に抑え、冷却効率に優れたSILENCIOデザイン

エアーフローによる冷却と静音のバランスを考え誕生した空冷システムを採用しております。厳選されたパーツの組み合わせにより、高性能に加え、格段の冷却性能と静音性を実現しました。静音性を追求したIntel Z790チップセット搭載DDR5対応タワー型モデルになります。システム騒音値はアイドル時で18.8db、高負荷時で30.1dbと静音性を保っております。CPUは第14世代 Raptor Lake Refreshを搭載しており、Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載しております。前世代のパフォーマンスを継承、改良を加えさらなる性能の向上を実現、効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載

Intel® Z790チップセット

CPUクーラーに「こだわり」の空冷システムメーカー Noctua搭載

負荷 40% 以下でのセミファンレスモード& ハイブリッドスイッチ搭載 80 PLUS Gold認証の静音電源
高効率を実現できるハーフブリッジ形 LLC方式 DC/DCコンバータに、日本製コンデンサを100% 使用し、プロフェッショナルグレードの品質を実現しつつ、本体のハイブリッドスイッチで ON/OFFを切替可能なセミファンレスモードを搭載することにより、静音性と冷却性にも優れ た 80 PLUS Gold 認証 850W電源です。

ノイズを最小限に抑え、冷却効率に優れたSILENCIOデザイン

DeepLearning BOXIII はインテル® Xeon® W プロセッサー(開発コード:Sapphire Rapids) W3400シリーズを搭載した GPUディープラーニングワークステーションです。
Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではMMLなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
Windows11 WSL2セッティング済み
Windows11をOSに採用した本システムはLinux OS仮想環境を共存させ、Linuxのネイティブアプリケーションを実行可能とするWindows Subsystem for Linux Version 2 (WSL2) を利用しています。多くのAIアプリケーションがLinux上で開発されている中、それらのAIアプリケーションとWindowsデスクトップ環境の統合が容易になります。
一般的にWSL2環境はユーザーアカウントの中に構築されるため、基本的にユーザー自身が設定を行う必要があり、複雑な操作を正しく行うことは研究者とって大きな負担となります。
そこで「DeepLearingBOXIII/Win」では、専用のセットアップスクリプトを配備し、アカウントを作成後、ユーザー自身がWSL2と AI開発環境を、わずか数クリックで構築できる仕組みをプリインストールしました。
システム仕様に最適なDeep Learning環境をWindows上で容易に構築できるこの仕組みはユーザーのAI開発環境構築の負担を大幅に削減し、ファイルシステムへのアクセスも、Windows – Linuxの双方向でほぼシームレスに扱うことが可能で、非常に大きなユーザーベネフィットを提供します。
「DeepLearingBOXIII/Win」ではユーザーがAI開発において面倒で複雑な開発環境設定を行うことなく、届いたその日から利用することが可能です。
WSL2において以下のコンテナ環境でAI開発環境が提供されます。

製品初期設定時にはインターネット接続が必要です。
*Docker DesktopはDocker社の利用条件に従ってご利用ください。
DeepLearning BOXIIIはインテル® Xeon® W プロセッサー(開発コード:Sapphire Rapids) W3400シリーズを搭載した GPUディープラーニングワークステーションです。
Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではMMLなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
Windows11 WSL2セッティング済み
Windows11をOSに採用した本システムはLinux OS仮想環境を共存させ、Linuxのネイティブアプリケーションを実行可能とするWindows Subsystem for Linux Version 2 (WSL2) を利用しています。多くのAIアプリケーションがLinux上で開発されている中、それらのAIアプリケーションとWindowsデスクトップ環境の統合が容易になります。
一般的にWSL2環境はユーザーアカウントの中に構築されるため、基本的にユーザー自身が設定を行う必要があり、複雑な操作を正しく行うことは研究者とって大きな負担となります。
そこで「DeepLearingBOXIII/Win」では、専用のセットアップスクリプトを配備し、アカウントを作成後、ユーザー自身がWSL2と AI開発環境を、わずか数クリックで構築できる仕組みをプリインストールしました。
システム仕様に最適なDeep Learning環境をWindows上で容易に構築できるこの仕組みはユーザーのAI開発環境構築の負担を大幅に削減し、ファイルシステムへのアクセスも、Windows – Linuxの双方向でほぼシームレスに扱うことが可能で、非常に大きなユーザーベネフィットを提供します。
「DeepLearingBOXIII/Win」ではユーザーがAI開発において面倒で複雑な開発環境設定を行うことなく、届いたその日から利用することが可能です。
WSL2において以下のコンテナ環境でAI開発環境が提供されます。

製品初期設定時にはインターネット接続が必要です。
*Docker DesktopはDocker社の利用条件に従ってご利用ください。
Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
「G-Works 4.0」をインストール
DeepLearning BOXIIIには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
DeepLearning BOXIIIはAI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
インテル Xeon W プロセッサー 搭載

強化されたプラットフォーム

ウルトラハイエンドGPUカードを 最大4枚を搭載可能
搭載GPUはNVIDIA RTX 6000 Ada/*A6000*/A5000/A4000 を最大4枚搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。また、標準でCEM5に対応ケーブルを標準採用しており、最新世代のGPU搭載もサポートしております。
*200V 入力時のみ対応

バージョンアップされたDeepLearning開発環境「G-Works4.0」
G-Worksの詳細はこちらからご覧ください。

DeepLearning BOXIIIはインテル® Xeon® W プロセッサー(開発コード:Sapphire Rapids) W3400シリーズを搭載した GPUディープラーニングワークステーションです。
Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではMMLなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
Windows11 WSL2セッティング済み
Windows11をOSに採用した本システムはLinux OS仮想環境を共存させ、Linuxのネイティブアプリケーションを実行可能とするWindows Subsystem for Linux Version 2 (WSL2) を利用しています。多くのAIアプリケーションがLinux上で開発されている中、それらのAIアプリケーションとWindowsデスクトップ環境の統合が容易になります。
一般的にWSL2環境はユーザーアカウントの中に構築されるため、基本的にユーザー自身が設定を行う必要があり、複雑な操作を正しく行うことは研究者とって大きな負担となります。
そこで「DeepLearingBOXIII/Win」では、専用のセットアップスクリプトを配備し、アカウントを作成後、ユーザー自身がWSL2と AI開発環境を、わずか数クリックで構築できる仕組みをプリインストールしました。
システム仕様に最適なDeep Learning環境をWindows上で容易に構築できるこの仕組みはユーザーのAI開発環境構築の負担を大幅に削減し、ファイルシステムへのアクセスも、Windows – Linuxの双方向でほぼシームレスに扱うことが可能で、非常に大きなユーザーベネフィットを提供します。
「DeepLearingBOXIII/Win」ではユーザーがAI開発において面倒で複雑な開発環境設定を行うことなく、届いたその日から利用することが可能です。
WSL2において以下のコンテナ環境でAI開発環境が提供されます。

製品初期設定時にはインターネット接続が必要です。
*Docker DesktopはDocker社の利用条件に従ってご利用ください。
最新インテル第14世代 コードネーム Raptor Lake-S Refresh(ラプターレイクリフレッシュ)を搭載したデスクサイドGPUワークステーションです。Pコア+Eコア合計24コアで 最大Thermal Velocity Boost 6.0GHz動作の「Inte® Core™ i9-14900KF」をはじめとした」ラインナップによりCPU性能を大幅に向上させています。また、プラットフォームでは PCIe 5.0をサポート 、最大16のPCI Express 5.0レーンにより、RTX 4090 をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能

第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載

GPU を最適な環境で動作
https://developer.nvidia.com/ja-jp/blog/cuda-toolkit-12-0-released-for-general-availability/

安定度抜群の高効率電源


前世代 Alder Lake-Sからクロック数の向上に加え、キャッシュメモリの容量増とE-COREのコア数の増加で大幅な性能向上を実現しております。Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載。効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第13世代インテル® Core™プロセッサー “Raptor Lake-S”搭載
効率的なコアの使用により没入感のある高精細なゲームのパフォーマンス向上をはじめ、4K超ビデオコンテンツ制作、仮想現実(VR)などの最新の映像体験において驚異のエンターテインメント・ハブを提供します。

Intel® Z790チップセット

PCI-Express 5.0 に対応

最大5基のストレージベイを搭載


最新インテル第14世代 コードネーム Raptor Lake-S Refresh(ラプターレイクリフレッシュ)を搭載したデスクサイドGPUワークステーションです。Pコア+Eコア合計24コアで 最大Thermal Velocity Boost 6.0GHz動作の「Inte® Core™ i9-14900KF」をはじめとした」ラインナップによりCPU性能を大幅に向上させています。また、プラットフォームでは PCIe 5.0をサポート 、最大16のPCI Express 5.0レーンにより、RTX 4090 をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
※注意:このモデルはCPU 仕様によりPCIe Lanes数は20までとなり、2枚のGPUを搭載可能ですが、1枚目はx16転送レート(理論値 256.0Gbps)、2枚目はx4転送レート(理論値 64.0Gbps)での動作となります。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能

第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載

GPU を最適な環境で動作
https://developer.nvidia.com/ja-jp/blog/cuda-toolkit-12-0-released-for-general-availability/

安定度抜群の高効率電源


お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。また、フロントアクセスが可能な2基のHDDスワップベイと、4基の内蔵SSDが高いストレージ拡張性を実現します。
更にオプションのラックマウントレールを装着することにより、デスクサイド利用に加え19インチラックへの搭載も可能となっています。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なAIワークステーションです。
また、ベースとなるプラットフォームは、Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。
「G-Works 4.0」をインストール
DeepLearningSTATION シリーズには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
ジーデップ・アドバンスのAIワークステーションは、AI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
独自設計 4GPU ワークステーションケース
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。
デスクサイドでLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意しています。

フロントアクセス可能なストレージベイ
フロントベイはセキュリティーキーを標準装備、サイドパネルはワイヤーロックに対応し、セキュリティー面も考慮した設計となっています。

デュアルパワーサプライユニット搭載
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。

ラックマウントにも対応
オプションの 19インチラック マウントキットを装着することで6.5Uサイズで19インチラックへの搭載が可能です。
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。

当社独自のDeepLearning開発環境「G-Works4.0」をインストール
当社独自のDeepLearning開発環境である「G-Works 4.0」は、OSネーティブでディープラーニングフレームワークを利用できる環境に加えて、MLOpsプラットフォームであるWandBをプリインストールしており、実験結果のトラッキングや学習効率の可視化が可能です。
OSはUbuntu 22.04 LTSに対応、業界標準となっている仮想環境Dockerに加え、AI/HPCアプリケーションに適したSingularity、およびワークロードマネジメント用にSlurmをインストールしました。
また、NVIDIA社が提供するNVIDIA GPU Cloud (NGC)の内容を検索できるngcスクリプトも配置してありますので、コマンドラインから利用出来るDocker Imageを簡単に探し出すことが可能です。
G-Worksの詳細はこちらからご覧ください。


お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。また、フロントアクセスが可能な2基のHDDスワップベイと、4基の内蔵SSDが高いストレージ拡張性を実現します。
更にオプションのラックマウントレールを装着することにより、デスクサイド利用に加え19インチラックへの搭載も可能となっています。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なAIワークステーションです。
また、ベースとなるプラットフォームは、Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。
「G-Works 4.0」をインストール
DeepLearningSTATION シリーズには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
ジーデップ・アドバンスのAIワークステーションは、AI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
独自設計 4GPU ワークステーションケース
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。
デスクサイドでLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意しています。

フロントアクセス可能なストレージベイ
フロントベイはセキュリティーキーを標準装備、サイドパネルはワイヤーロックに対応し、セキュリティー面も考慮した設計となっています。

デュアルパワーサプライユニット搭載
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。

ラックマウントにも対応
オプションの 19インチラック マウントキットを装着することで6.5Uサイズで19インチラックへの搭載が可能です。
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。

当社独自のDeepLearning開発環境「G-Works4.0」をインストール
当社独自のDeepLearning開発環境である「G-Works 4.0」は、OSネーティブでディープラーニングフレームワークを利用できる環境に加えて、MLOpsプラットフォームであるWandBをプリインストールしており、実験結果のトラッキングや学習効率の可視化が可能です。
OSはUbuntu 22.04 LTSに対応、業界標準となっている仮想環境Dockerに加え、AI/HPCアプリケーションに適したSingularity、およびワークロードマネジメント用にSlurmをインストールしました。
また、NVIDIA社が提供するNVIDIA GPU Cloud (NGC)の内容を検索できるngcスクリプトも配置してありますので、コマンドラインから利用出来るDocker Imageを簡単に探し出すことが可能です。
G-Worksの詳細はこちらからご覧ください。


お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。また、フロントアクセスが可能な2基のHDDスワップベイと、4基の内蔵SSDが高いストレージ拡張性を実現します。
更にオプションのラックマウントレールを装着することにより、デスクサイド利用に加え19インチラックへの搭載も可能となっています。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なAIワークステーションです。
また、ベースとなるプラットフォームは、Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。
「G-Works 4.0」をインストール
DeepLearning STATION シリーズには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
ジーデップ・アドバンスのAIワークステーションは、AI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
独自設計 4GPU ワークステーションケース
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。
デスクサイドでLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意しています。

フロントアクセス可能なストレージベイ
フロントベイはセキュリティーキーを標準装備、サイドパネルはワイヤーロックに対応し、セキュリティー面も考慮した設計となっています。

デュアルパワーサプライユニット搭載
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。

ラックマウントにも対応
オプションの 19インチラック マウントキットを装着することで6.5Uサイズで19インチラックへの搭載が可能です。
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。

当社独自のDeepLearning開発環境「G-Works4.0」をインストール
当社独自のDeepLearning開発環境である「G-Works 4.0」は、OSネーティブでディープラーニングフレームワークを利用できる環境に加えて、MLOpsプラットフォームであるWandBをプリインストールしており、実験結果のトラッキングや学習効率の可視化が可能です。
OSはUbuntu 22.04 LTSに対応、業界標準となっている仮想環境Dockerに加え、AI/HPCアプリケーションに適したSingularity、およびワークロードマネジメント用にSlurmをインストールしました。
また、NVIDIA社が提供するNVIDIA GPU Cloud (NGC)の内容を検索できるngcスクリプトも配置してありますので、コマンドラインから利用出来るDocker Imageを簡単に探し出すことが可能です。
G-Worksの詳細はこちらからご覧ください。


ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用いただける、最新のAda LovelaceアーキテクチャGPUを搭載したモデルをご用意いたしました。
2基の電源ユニットが最大4基のハイエンドGPUを安定動作させ、144 レーンのPCI Express5.0により理論値224GT/秒の広帯域でGPU間の通信が可能となり、計算のボトルネックを大きく解消できます。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でもハイエンドマルチGPUが利用いただけます。
※更にオプションのラックマウントレールを装着することにより、デスクサイドだけでなく19インチラックへの搭載も可能となっています。
最先端の5nm「Zen 4」アーキテクチャをベースに構築されたAMD Ryzen™ Threadripper™ PRO シリーズ プロセッサーの採用により、シングルソケットで最大96個のメニーコア環境を実現しています。最大5.1GHzのCPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、AMDメモリー・ガード1によるリアルタイムの完全なシステム・メモリー暗号化機能を備えます。
また、フロントアクセスが可能な2基の3.5インチHDDホットスワップベイと、2.5インチSSDが最大4基内蔵でき、高いストレージ拡張性を実現します。
「G-Works 4.0」をインストール
DeepLearningSTATION シリーズには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
ジーデップ・アドバンスのAIワークステーションは、AI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
当社独自設計 4GPU ワークステーションケース
理論値224GT/秒の広帯域でGPU間の通信が可能となり、計算のボトルネックを大きく解消できます。

大容量ストレージを搭載
内蔵ベイは2.5インチの高速SSDを最大で4基搭載可能で、システムとデータエリアを分けた運用が可能です。

デュアルパワーサプライユニット搭載
100Vx2入力で理論値2400Wの消費電力までに対応し、高性能CPUに加えてハイエンドGPUを最大で4枚まで搭載可能です。
CPU冷却は液冷を採用し、可能な限り静粛性を維持することでデスクサイドでの利用を可能としました。

ラックマウントにも対応
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。

当社独自のDeepLearning開発環境「G-Works」
(https://www.gdep.co.jp/information/press_release/g-works4/)

第5世代(ZEN 4)AMD Ryzen プロセッサー搭載を搭載

堅牢なコンポーネントを装備し、安定性を重視したマザーボード

最大128GBまで搭載可能な広帯域4800MHz DDR5メモリー

PCI-Express 5.0 に対応

最大5基のストレージベイを搭載


第5世代(ZEN 4)AMD Ryzen プロセッサー搭載を搭載

堅牢なコンポーネントを装備し、安定性を重視したマザーボード

最大128GBまで搭載可能な広帯域4800MHz DDR5メモリー

PCI-Express 5.0 に対応

最大5基のストレージベイを搭載


AMD新APU Ryzen 5000Gシリーズ を採用

世界屈指の空冷最強メーカー Noctua製 「NH-U12S redux」を選択可能
スリムな120 mmサイズにより、PCケース・メモリ・PCIeスロットとの互換性を確保。静音のNF-P12 redux-1700 120mm PWMファンの自動速度制御機能:アイドル時には静音性に優れ、必要に応じてフル回転でパフォーマンスを発揮します。

高品質な部品を採用し、安定性を重視したプロフェッショナルユーザー向けマザーボード
プロフェッショナルの作業効率を高めるだけでなく、マルチメディア用途や普段使いなど、あらゆるシチュエーションに対応するシステムチューニング機能を搭載しております。

AMD新APU Ryzen 5000Gシリーズ を採用

世界屈指の空冷最強メーカー Noctua製 「NH-U12S redux」を選択可能
スリムな120 mmサイズにより、PCケース・メモリ・PCIeスロットとの互換性を確保。静音のNF-P12 redux-1700 120mm PWMファンの自動速度制御機能:アイドル時には静音性に優れ、必要に応じてフル回転でパフォーマンスを発揮します。

高品質な部品を採用し、安定性を重視したプロフェッショナルユーザー向けマザーボード
プロフェッショナルの作業効率を高めるだけでなく、マルチメディア用途や普段使いなど、あらゆるシチュエーションに対応するシステムチューニング機能を搭載しております。

第5世代(ZEN 4)AMD Ryzen プロセッサー搭載を搭載

堅牢なコンポーネントを装備し、安定性を重視したマザーボード

最大128GBまで搭載可能な広帯域4800MHz DDR5メモリー

PCI-Express 5.0 に対応

最大5基のストレージベイを搭載


AMD新APU Ryzen 5000Gシリーズ を採用

世界屈指の空冷最強メーカー Noctua製 「NH-U12S redux」を選択可能
スリムな120 mmサイズにより、PCケース・メモリ・PCIeスロットとの互換性を確保。静音のNF-P12 redux-1700 120mm PWMファンの自動速度制御機能:アイドル時には静音性に優れ、必要に応じてフル回転でパフォーマンスを発揮します。

高品質な部品を採用し、安定性を重視したプロフェッショナルユーザー向けマザーボード
プロフェッショナルの作業効率を高めるだけでなく、マルチメディア用途や普段使いなど、あらゆるシチュエーションに対応するシステムチューニング機能を搭載しております。

最大で56コア/112スレッドのメニーコア環境を実現します。使い易さを追求したユーザーインターフェースを実現するiKVM機能のIPMI を搭載し、温度センサー、CPUステータス、ファンのスピードや電圧といったサーバーの正常動作を監視が可能です。リモートからの起動、再起動などの電源操作を実行するなど、サーバー管理者やメンテナンス責任者が容易に稼動状況を管理できる環境を提供し、運用コストの大幅な低減を実現します。電源は80PLUS Platinum認証のリダンダント700W。フロントに4台のHDD/SSDをホットスワップで搭載可能なユニットを標準装備するなど本格的な1Uサーバーです。
第2世代Xeonスケーラブル・プロセッサー 搭載可能

Hotswapベイ標準装備

洗練されたIPMIユーザーインターフェース
温度センサー、CPUステータス、ファンのスピードや電圧といったサーバーの正常動作を監視したり、リモートからの起動、再起動などの電源操作を実行するなど、サーバー管理者やメンテナンス責任者が容易に稼動状況を管理できる環境を提供し、運用コストの大幅な低減を実現します。

80PLUS PLATINUM認証リダンダント電源ユニット

第2世代Xeonスケーラブル・プロセッサー 搭載可能

Hotswapベイ標準装備

洗練されたIPMIユーザーインターフェース
温度センサー、CPUステータス、ファンのスピードや電圧といったサーバーの正常動作を監視したり、リモートからの起動、再起動などの電源操作を実行するなど、サーバー管理者やメンテナンス責任者が容易に稼動状況を管理できる環境を提供し、運用コストの大幅な低減を実現します。

80PLUS PLATINUM認証リダンダント電源ユニット

第2世代Xeonスケーラブル・プロセッサー 搭載可能

Hotswapベイ標準装備

洗練されたIPMIユーザーインターフェース
温度センサー、CPUステータス、ファンのスピードや電圧といったサーバーの正常動作を監視したり、リモートからの起動、再起動などの電源操作を実行するなど、サーバー管理者やメンテナンス責任者が容易に稼動状況を管理できる環境を提供し、運用コストの大幅な低減を実現します。

80PLUS PLATINUM認証リダンダント電源ユニット

サイドフローCPUファンや185mmの大口径排気ファンが抜群の静粛性を実現しており、高性能と拡張性、そして静粛性を実現した人気モデルです。
第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載
また、integer SPECrate2017_int_base や FlotingPoint SPECrate2017_int_base 、LINPAC などベンチマークでは第2世代Xeon Scalable Processor比で約1.46倍の性能向上を実現しています。

抜群の静粛性を誇る静音ケース
2基のCPUを効率よく冷却するサイドフローのCPUファンと、1850回転の大型120mm排気ファンがケース全体のエアフロー効率を高め効率の良い冷却性能を実現します。
筐体サイズはH150xW86xL185mm とミニタワーサイズながら7つの拡張スロット、2基の5.25”ベイ、4基の3.5”ベイ、など拡張性も抜群です。

安定度抜群の高効率電源
サーバーレベルの要求仕様はもちろん、高いTDPを要求する演算用GPUカードも安定した性能を発揮出来る余裕のマージン設計です。

あらゆる利用シーンに対応した拡張性
例えばハイエンドなAmpereグラクィックにHDRのinfinibandカードを追加するなど、よりパワフルな使い方も可能です。

サイドフローCPUファンや185mmの大口径排気ファンが抜群の静粛性を実現しており、高性能と拡張性、そして静粛性を実現した人気モデルです。
第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載
また、integer SPECrate2017_int_base や FlotingPoint SPECrate2017_int_base 、LINPAC などベンチマークでは第2世代Xeon Scalable Processor比で約1.46倍の性能向上を実現しています。

抜群の静粛性を誇る静音ケース
2基のCPUを効率よく冷却するサイドフローのCPUファンと、1850回転の大型120mm排気ファンがケース全体のエアフロー効率を高め効率の良い冷却性能を実現します。
筐体サイズはH150xW86xL185mm とミニタワーサイズながら7つの拡張スロット、2基の5.25”ベイ、4基の3.5”ベイ、など拡張性も抜群です。

安定度抜群の高効率電源
サーバーレベルの要求仕様はもちろん、高いTDPを要求する演算用GPUカードも安定した性能を発揮出来る余裕のマージン設計です。

あらゆる利用シーンに対応した拡張性
例えばハイエンドなAmpereグラクィックにHDRのinfinibandカードを追加するなど、よりパワフルな使い方も可能です。

NVIDIA H100/L40Sを最大8基搭載可能な4UラックマウントGPUサーバー。NVIDIA H100 Tensor Core GPU は、NVIDIA A100の約1.5倍にあたる800億個のトランジスタを搭載したまさに史上最大にして最速のGPUであり、倍精度・単精度をはじめ多様な精度を兼ね備え、マルチインスタンスGPU(MIG)機能により1つのGPUで最大7つのジョブを同時に実行可能。世界で最も困難な計算に AI、データ分析、 HPC分野で驚異的な性能を発揮します。 マルチインスタンス GPU (MIG) テクノロジでは、1 個の H100 GPU で複数の AI モデルを同時に運用できるため、計算リソースの利用を最適化できます。
また、NVIDIA L40Sは、データセンター向けの最も強力なユニバーサルGPUであり、推論とトレーニング、グラフィックス、およびビデオアプリケーションに対して高性能かつ高速な処理を実現します。
NVIDIAエリートパートナーのジーデップ・アドバンスではNVIDIA NV-Docker上にNGC(NVIDIA GPU CLOUD)開発環境を標準インストール。さらにお客様の利用環境に合わせてコンパイラやライブラリ、ジョブスケジューラなどをオプティマイズすることも可能です。カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて最新のNVIDIA H100・L40Sを抜群のコストパフォーマンスで提供します。
※NVIDIA H100についての詳細はこちらのページをご覧ください。
第4世代・第5世代 Intel® Xeon® Scalable processors 搭載
Intel® Xeon® Scalable processors は 内蔵された AI アクセラレーションにより、必要とされる高レベルの AI パフォーマンスを実現します。インテル® プロセッサー限定の、インテル® DL ブースト・ベクトル・ニューラル・ネットワーク・インストラクション (VNNI) 搭載インテル® AVX-512 は、より短い時間での高速な洞察向けの最適化された AI パフォーマンスを実現します。

最新の NVIDIA HoppoerアーキテクチャGPUH100やL40S を最大8枚搭載可能
NVIDIA L40S GPU は NVIDIA Ada Lovelace GPU アーキテクチャに基づいて設計され、第 4 世代 Tensor コアと FP8 Transformer Engine が搭載されており、1.45 ペタフロップスを超えるTensor処理能力を実現します。

エンタープライズ NVMe SSD
GSVシリーズに搭載されているNVMe SSDはビジネスインテリジェンス(BI)、オンライントランザクション処理(OLTP)、ソフトウェア・デファインド・ストレージ(SDS)、仮想化環境などの 様々な企業向けアプリケーションおよび関連ワークロードに適したリードインテンシブSSDです。 あらゆる状態において、高い安定性能を維持し優れた耐久性と高速性を実現します。※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA H100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2700W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。

高速広帯域なノード間通信やフレキシブルなストレージ構築にも対応しています。管理ノードやログインノードにも最適なエントリークラスサーバーモデルです。
第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載
また、integer SPECrate2017_int_base や FlotingPoint SPECrate2017_int_base 、LINPAC などベンチマークでは第2世代Xeon Scalable Processor比で約1.46倍の性能向上を実現しています。

高信頼性エンタープライズストレージを搭載
さらにOS用のNVMeストレージもRAID-1で冗長化を施し障害に強い構成を実現しています。

安定度抜群の高効率電源

多様で高速なインターコネクトでスケールアウトも可能

高速広帯域なノード間通信やフレキシブルなストレージ構築にも対応しています。管理ノードやログインノードにも最適なエントリークラスサーバーモデルです。
第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載
また、integer SPECrate2017_int_base や FlotingPoint SPECrate2017_int_base 、LINPAC などベンチマークでは第2世代Xeon Scalable Processor比で約1.46倍の性能向上を実現しています。

高信頼性エンタープライズストレージを搭載
さらにOS用のNVMeストレージもRAID-1で冗長化を施し障害に強い構成を実現しています。

安定度抜群の高効率電源

多様で高速なインターコネクトでスケールアウトも可能

GSV-IEMSM-2U4Gはジーデップ・アドバンスが国内代理店をしている Super Micro Computer, Inc. の SuperServer SYS-221H-TNR をベースにしたGPUサーバーです。2Uサイズに最大4枚のGPUを実装可能で、CPUには第4世代、第5世代 Intel® Xeon® Scalable processorsを2基搭載しています。 Intel® Xeon® Scalable processors は 内蔵された AI アクセラレーションにより、必要とされる高レベルの AI パフォーマンスを実現します。インテル® プロセッサー限定の、インテル® DL ブースト・ベクトル・ニューラル・ネットワーク・インストラクション (VNNI) 搭載インテル® AVX-512 は、より短い時間での高速な洞察向けの最適化された AI パフォーマンスを実現します。
また、PCI-Express5.0対応とDDR5 Memoryでシステム全体のパフォーマンス向上も図られています。
2UサイズながらCPUはトップビンのXeon Platinum8490H が2ソケットで120コア/240スレッド、ベースクロック1.9GHz、ターボで3.5GHzとなり、ボトムラインのXeon Silver 4410までのラインナップをご用意しました。GPUは最大で4枚まで搭載可能です。
第4世代・第5世代 Intel® Xeon® Scalable processors 搭載

最新の NVIDIA L40S を最大4枚搭載可能
NVIDIA L40S GPU は最大4枚搭載可能で、第 4 世代 Tensor コアと FP8 Transformer Engine が搭載されており、1.45 ペタフロップスを超えるTensor処理能力を実現します。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA H100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2700W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。

エンタープライズ NVMe SSD
GSVシリーズに搭載されているNVMe SSDはビジネスインテリジェンス(BI)、オンライントランザクション処理(OLTP)、ソフトウェア・デファインド・ストレージ(SDS)、仮想化環境などの 様々な企業向けアプリケーションおよび関連ワークロードに適したリードインテンシブSSDです。 あらゆる状態において、高い安定性能を維持し優れた耐久性と高速性を実現します。※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。

高速広帯域なノード間通信やフレキシブルなストレージ構築にも対応しています。管理ノードやログインノードにも最適なエントリークラスサーバーモデルです。
第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載
また、integer SPECrate2017_int_base や FlotingPoint SPECrate2017_int_base 、LINPAC などベンチマークでは第2世代Xeon Scalable Processor比で約1.46倍の性能向上を実現しています。

高信頼性エンタープライズストレージを搭載
さらにOS用のNVMeストレージもRAID-1で冗長化を施し障害に強い構成を実現しています。

安定度抜群の高効率電源

多様で高速なインターコネクトでスケールアウトも可能

GDEPでは軽量かつ直感的で扱いやすいOSネイティブなオリジナルツール G-Worksバイナリアプリケーションと、より最新技術へのアクセスが容易となるコンテナアプリケーションの併用した「G-Works & Container Hybridパッケージ」をプレインストールし、DeepLearningターンキーシステムとしてお届けします。
第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載

PCI-Express 4.0 x16 対応ハイエンドGPUを2基搭載可能
本機には x16スロットが3本、x8スロットが2つ搭載されております。ダブルワイドPCI Express 4.0 x16対応する拡張スロットを計2本装備されています。NVIDIA RTX A6000などのハイエンドGPUをはじめ、NVIDIA RTX A6000/A5000/A4000 を最大2基搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。

様々な用途で使用可能な筐体

第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載

PCI-Express 4.0 x16 対応ハイエンドGPUを2基搭載可能
本機には x16スロットが3本、x8スロットが2つ搭載されております。ダブルワイドPCI Express 4.0 x16対応する拡張スロットを計2本装備されています。NVIDIA RTX A6000などのハイエンドGPUをはじめ、NVIDIA RTX A6000/A5000/A4000 を最大2基搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。

様々な用途で使用可能な筐体

第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載

PCI-Express 4.0 x16 対応ハイエンドGPUを2基搭載可能
本機には x16スロットが3本、x8スロットが2つ搭載されております。ダブルワイドPCI Express 4.0 x16対応する拡張スロットを計2本装備されています。NVIDIA RTX A6000などのハイエンドGPUをはじめ、NVIDIA RTX A6000/A5000/A4000 を最大2基搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。

様々な用途で使用可能な筐体

入力電圧環境及び構成されたパーツの最大消費電力の問題で選択できない(構成できない)場合があります。
第3世代 インテル® Xeon® スケーラブル・プロセッサーを2基搭載

多彩なストレージベイと拡張ポート

80Plus Titanium認証 の高効率電源

第3世代 インテル® Xeon® スケーラブル・プロセッサーを2基搭載

多彩なストレージベイと拡張ポート

80Plus Titanium認証 の高効率電源

第3世代 インテル® Xeon® スケーラブル・プロセッサーを2基搭載

多彩なストレージベイと拡張ポート

80Plus Titanium認証 の高効率電源

GPUは、NVIDIA® Hopperアーキテクチャベースで80GB HBM2eの大容量メモリを搭載が可能、第4世代の Tensor コアと、FP8 精度で混合エキスパート (MoE) モデルのトレーニングを前世代比最大9倍高速化するTransformer Engine を備えております。また、NVIDIA RTX シリーズ(RTX A6000/RTX A5000) を搭載したモデルも用意しておりジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
また、本システムには Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works」、そしてOpenAI社も利用しているMLopsプラットフォームである「WandB」がプレインストールされており、AI開発ユーザーが届いたその日からすぐに利用できるターンキーでの提供となります。まさに大学、研究機関、企業のR&D部門などのAI開発者に最適なAI開発システムとなります。
第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載

最も多機能かつセキュアなインテル® Xeon® プラットフォーム

NVIDIA Hopper アーキテクチャ搭載 H100搭載

AI開発環境 G-Works 標準搭載


また、PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
GPU演算に加えて、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能

インテル Xeon W プロセッサー 搭載

強化されたプラットフォーム

安定度抜群の高効率電源

また、PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
GPU演算に加えて、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能

インテル Xeon W プロセッサー 搭載

強化されたプラットフォーム

安定度抜群の高効率電源

また、PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
GPU演算に加えて、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能

インテル Xeon W プロセッサー 搭載

強化されたプラットフォーム

安定度抜群の高効率電源


GPUは、NVIDIA® Hopperアーキテクチャベースで80GB HBM2eの大容量メモリを搭載が可能、第4世代の Tensor コアと、FP8 精度で混合エキスパート (MoE) モデルのトレーニングを前世代比最大9倍高速化するTransformer Engine を備えております。また、NVIDIA RTX シリーズ(RTX A6000/RTX A5000) を搭載したモデルも用意しておりジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
また、本システムには Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works」、そしてOpenAI社も利用しているMLopsプラットフォームである「WandB」がプレインストールされており、AI開発ユーザーが届いたその日からすぐに利用できるターンキーでの提供となります。まさに大学、研究機関、企業のR&D部門などのAI開発者に最適なAI開発システムとなります。
第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載

最も多機能かつセキュアなインテル® Xeon® プラットフォーム

NVIDIA Hopper アーキテクチャ搭載 H100搭載

AI開発環境 G-Works 標準搭載


また、PCI Express 5.0 を備え、GPUは200V環境で最大4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
オプションのラックレールキットを用いることにより、サーバーラックでの運用も可能です。
最新の インテル® Xeon® W プロセッサー・ファミリー(開発コード Sapphire Rapids)は、さまざまなクリエイターのために設計されています。インテル® Xeon® W-3400/2400 プロセッサー搭載のプラットフォームは、VFX、3D レンダリング、複雑な 3D CAD、および AI 開発とエッジ導入向けの拡張されたプラットフォーム機能とともに、卓越したパフォーマンス、セキュリティー、信頼性を提供し、プロフェッショナルなクリエイター向けに究極のワークステーション・ソリューションを実現します。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能

インテル Xeon W プロセッサー 搭載

強化されたプラットフォーム

安定度抜群の高効率電源

また、PCI Express 5.0 を備え、GPUは200V環境で最大4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
オプションのラックレールキットを用いることにより、サーバーラックでの運用も可能です。
最新の インテル® Xeon® W プロセッサー・ファミリー(開発コード Sapphire Rapids)は、さまざまなクリエイターのために設計されています。インテル® Xeon® W-3400/2400 プロセッサー搭載のプラットフォームは、VFX、3D レンダリング、複雑な 3D CAD、および AI 開発とエッジ導入向けの拡張されたプラットフォーム機能とともに、卓越したパフォーマンス、セキュリティー、信頼性を提供し、プロフェッショナルなクリエイター向けに究極のワークステーション・ソリューションを実現します。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能

インテル Xeon W プロセッサー 搭載

強化されたプラットフォーム

安定度抜群の高効率電源


NVIDIA H100/L40Sを最大8基搭載可能な4UラックマウントGPUサーバー。NVIDIA H100 Tensor Core GPU は、NVIDIA A100の約1.5倍にあたる800億個のトランジスタを搭載したまさに史上最大にして最速のGPUであり、倍精度・単精度をはじめ多様な精度を兼ね備え、マルチインスタンスGPU(MIG)機能により1つのGPUで最大7つのジョブを同時に実行可能。世界で最も困難な計算に AI、データ分析、 HPC分野で驚異的な性能を発揮します。 マルチインスタンス GPU (MIG) テクノロジでは、1 個の H100 GPU で複数の AI モデルを同時に運用できるため、計算リソースの利用を最適化できます。
また、NVIDIA L40Sは、データセンター向けの最も強力なユニバーサルGPUであり、推論とトレーニング、グラフィックス、およびビデオアプリケーションに対して高性能かつ高速な処理を実現します。
NVIDIAエリートパートナーのジーデップ・アドバンスではNVIDIA NV-Docker上にNGC(NVIDIA GPU CLOUD)開発環境を標準インストール。さらにお客様の利用環境に合わせてコンパイラやライブラリ、ジョブスケジューラなどをオプティマイズすることも可能です。カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて最新のNVIDIA H100・L40Sを抜群のコストパフォーマンスで提供します。
※NVIDIA H100についての詳細はこちらのページをご覧ください。
第4世代・第5世代 Intel® Xeon® Scalable processors 搭載
Intel® Xeon® Scalable processors は 内蔵された AI アクセラレーションにより、必要とされる高レベルの AI パフォーマンスを実現します。インテル® プロセッサー限定の、インテル® DL ブースト・ベクトル・ニューラル・ネットワーク・インストラクション (VNNI) 搭載インテル® AVX-512 は、より短い時間での高速な洞察向けの最適化された AI パフォーマンスを実現します。

最新の NVIDIA HoppoerアーキテクチャGPUH100やL40S を最大8枚搭載可能
NVIDIA L40S GPU は NVIDIA Ada Lovelace GPU アーキテクチャに基づいて設計され、第 4 世代 Tensor コアと FP8 Transformer Engine が搭載されており、1.45 ペタフロップスを超えるTensor処理能力を実現します。

エンタープライズ NVMe SSD
GSVシリーズに搭載されているNVMe SSDはビジネスインテリジェンス(BI)、オンライントランザクション処理(OLTP)、ソフトウェア・デファインド・ストレージ(SDS)、仮想化環境などの 様々な企業向けアプリケーションおよび関連ワークロードに適したリードインテンシブSSDです。 あらゆる状態において、高い安定性能を維持し優れた耐久性と高速性を実現します。※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA H100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2700W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。

GSV-IEMSM-2U4Gはジーデップ・アドバンスが国内代理店をしている Super Micro Computer, Inc. の SuperServer SYS-221H-TNR をベースにしたGPUサーバーです。2Uサイズに最大4枚のGPUを実装可能で、CPUには第4世代、第5世代 Intel® Xeon® Scalable processorsを2基搭載しています。 Intel® Xeon® Scalable processors は 内蔵された AI アクセラレーションにより、必要とされる高レベルの AI パフォーマンスを実現します。インテル® プロセッサー限定の、インテル® DL ブースト・ベクトル・ニューラル・ネットワーク・インストラクション (VNNI) 搭載インテル® AVX-512 は、より短い時間での高速な洞察向けの最適化された AI パフォーマンスを実現します。
また、PCI-Express5.0対応とDDR5 Memoryでシステム全体のパフォーマンス向上も図られています。
2UサイズながらCPUはトップビンのXeon Platinum8490H が2ソケットで120コア/240スレッド、ベースクロック1.9GHz、ターボで3.5GHzとなり、ボトムラインのXeon Silver 4410までのラインナップをご用意しました。GPUは最大で4枚まで搭載可能です。
第4世代・第5世代 Intel® Xeon® Scalable processors 搭載

最新の NVIDIA L40S を最大4枚搭載可能
NVIDIA L40S GPU は最大4枚搭載可能で、第 4 世代 Tensor コアと FP8 Transformer Engine が搭載されており、1.45 ペタフロップスを超えるTensor処理能力を実現します。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA H100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2700W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。

エンタープライズ NVMe SSD
GSVシリーズに搭載されているNVMe SSDはビジネスインテリジェンス(BI)、オンライントランザクション処理(OLTP)、ソフトウェア・デファインド・ストレージ(SDS)、仮想化環境などの 様々な企業向けアプリケーションおよび関連ワークロードに適したリードインテンシブSSDです。 あらゆる状態において、高い安定性能を維持し優れた耐久性と高速性を実現します。※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。

GSV-IEMSM-2U4Gはジーデップ・アドバンスが国内代理店をしている Super Micro Computer, Inc. の SuperServer SYS-221H-TNR をベースにしたGPUサーバーです。2Uサイズに最大4枚のGPUを実装可能で、CPUには第4世代、第5世代 Intel® Xeon® Scalable processorsを2基搭載しています。 Intel® Xeon® Scalable processors は 内蔵された AI アクセラレーションにより、必要とされる高レベルの AI パフォーマンスを実現します。インテル® プロセッサー限定の、インテル® DL ブースト・ベクトル・ニューラル・ネットワーク・インストラクション (VNNI) 搭載インテル® AVX-512 は、より短い時間での高速な洞察向けの最適化された AI パフォーマンスを実現します。
また、PCI-Express5.0対応とDDR5 Memoryでシステム全体のパフォーマンス向上も図られています。
2UサイズながらCPUはトップビンのXeon Platinum8490H が2ソケットで120コア/240スレッド、ベースクロック1.9GHz、ターボで3.5GHzとなり、ボトムラインのXeon Silver 4410までのラインナップをご用意しました。GPUは最大で4枚まで搭載可能です。
第4世代・第5世代 Intel® Xeon® Scalable processors 搭載

最新の NVIDIA L40S を最大4枚搭載可能
NVIDIA L40S GPU は最大4枚搭載可能で、第 4 世代 Tensor コアと FP8 Transformer Engine が搭載されており、1.45 ペタフロップスを超えるTensor処理能力を実現します。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA H100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2700W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。

エンタープライズ NVMe SSD
GSVシリーズに搭載されているNVMe SSDはビジネスインテリジェンス(BI)、オンライントランザクション処理(OLTP)、ソフトウェア・デファインド・ストレージ(SDS)、仮想化環境などの 様々な企業向けアプリケーションおよび関連ワークロードに適したリードインテンシブSSDです。 あらゆる状態において、高い安定性能を維持し優れた耐久性と高速性を実現します。※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。

また、PCI Express 5.0 を備え、GPUは200V環境で最大4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
オプションのラックレールキットを用いることにより、サーバーラックでの運用も可能です。
最新の インテル® Xeon® W プロセッサー・ファミリー(開発コード Sapphire Rapids)は、さまざまなクリエイターのために設計されています。インテル® Xeon® W-3400/2400 プロセッサー搭載のプラットフォームは、VFX、3D レンダリング、複雑な 3D CAD、および AI 開発とエッジ導入向けの拡張されたプラットフォーム機能とともに、卓越したパフォーマンス、セキュリティー、信頼性を提供し、プロフェッショナルなクリエイター向けに究極のワークステーション・ソリューションを実現します。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能

インテル Xeon W プロセッサー 搭載

強化されたプラットフォーム

安定度抜群の高効率電源


NVIDIA H100/L40Sを最大8基搭載可能な4UラックマウントGPUサーバー。NVIDIA H100 Tensor Core GPU は、NVIDIA A100の約1.5倍にあたる800億個のトランジスタを搭載したまさに史上最大にして最速のGPUであり、倍精度・単精度をはじめ多様な精度を兼ね備え、マルチインスタンスGPU(MIG)機能により1つのGPUで最大7つのジョブを同時に実行可能。世界で最も困難な計算に AI、データ分析、 HPC分野で驚異的な性能を発揮します。 マルチインスタンス GPU (MIG) テクノロジでは、1 個の H100 GPU で複数の AI モデルを同時に運用できるため、計算リソースの利用を最適化できます。
また、NVIDIA L40Sは、データセンター向けの最も強力なユニバーサルGPUであり、推論とトレーニング、グラフィックス、およびビデオアプリケーションに対して高性能かつ高速な処理を実現します。
NVIDIAエリートパートナーのジーデップ・アドバンスではNVIDIA NV-Docker上にNGC(NVIDIA GPU CLOUD)開発環境を標準インストール。さらにお客様の利用環境に合わせてコンパイラやライブラリ、ジョブスケジューラなどをオプティマイズすることも可能です。カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて最新のNVIDIA H100・L40Sを抜群のコストパフォーマンスで提供します。
※NVIDIA H100についての詳細はこちらのページをご覧ください。
第4世代・第5世代 Intel® Xeon® Scalable processors 搭載
Intel® Xeon® Scalable processors は 内蔵された AI アクセラレーションにより、必要とされる高レベルの AI パフォーマンスを実現します。インテル® プロセッサー限定の、インテル® DL ブースト・ベクトル・ニューラル・ネットワーク・インストラクション (VNNI) 搭載インテル® AVX-512 は、より短い時間での高速な洞察向けの最適化された AI パフォーマンスを実現します。

最新の NVIDIA HoppoerアーキテクチャGPUH100やL40S を最大8枚搭載可能
NVIDIA L40S GPU は NVIDIA Ada Lovelace GPU アーキテクチャに基づいて設計され、第 4 世代 Tensor コアと FP8 Transformer Engine が搭載されており、1.45 ペタフロップスを超えるTensor処理能力を実現します。

エンタープライズ NVMe SSD
GSVシリーズに搭載されているNVMe SSDはビジネスインテリジェンス(BI)、オンライントランザクション処理(OLTP)、ソフトウェア・デファインド・ストレージ(SDS)、仮想化環境などの 様々な企業向けアプリケーションおよび関連ワークロードに適したリードインテンシブSSDです。 あらゆる状態において、高い安定性能を維持し優れた耐久性と高速性を実現します。※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA H100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2700W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。


GPUは、NVIDIA® Hopperアーキテクチャベースで80GB HBM2eの大容量メモリを搭載が可能、第4世代の Tensor コアと、FP8 精度で混合エキスパート (MoE) モデルのトレーニングを前世代比最大9倍高速化するTransformer Engine を備えております。また、NVIDIA RTX シリーズ(RTX A6000/RTX A5000) を搭載したモデルも用意しておりジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
また、本システムには Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works」、そしてOpenAI社も利用しているMLopsプラットフォームである「WandB」がプレインストールされており、AI開発ユーザーが届いたその日からすぐに利用できるターンキーでの提供となります。まさに大学、研究機関、企業のR&D部門などのAI開発者に最適なAI開発システムとなります。
第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載

最も多機能かつセキュアなインテル® Xeon® プラットフォーム

NVIDIA Hopper アーキテクチャ搭載 H100搭載

AI開発環境 G-Works 標準搭載


ジーデップ・アドバンスが国内代理店をしている Super Micro Computer, Inc. の SuperServer をベースにしたAMD 第3世代EPYC™ "MILAN" 7003 Serie搭載のGPUサーバです。4Uラックマウント筐体に最大8枚までのハイエンドGPUを搭載可能。Gen4対応の広帯域なPCI-Eepress 接続と、NVLINKで高速なCPU-GPU間、GPU-GPU間のデータ疎通を実現します。
NVIDIAエリートパートナーのジーデップ・アドバンスでは最新のNVIDIA社のハイエンドGPUを搭載し、AIやHPCでご利用頂けるようOSやミドルウェアをプリインストールしたモデルをご用意しました。
GDEPでは軽量かつ直感的で扱いやすいOSネイティブなオリジナルツール G-Worksバイナリアプリケーションと、より最新技術へのアクセスが容易となるコンテナアプリケーションの併用した「G-Works & Container Hybridパッケージ」をプレインストールし、DeepLearningターンキーシステムとしてお届けします。
*こちらのモデル(GSV-AGESM-4U8G)のGPUアカデミック価格は、3枚以上のご購入からご選択いただけます。
NVIDIAの最新GPU A100 (40GB)を最大8枚実装可能
ジーデップ・アドバンスのGSV-SMC4U8GはGen4のPCI-Exppress Gen4 の NVIDIA A100を最大8枚搭載可能です。

NVIDIA A100 (PCI Express Gen4) 性能
ピーク FP64 | 9.7 TF |
ピーク FP64 Tensor コア | 19.5 TF |
ピーク FP32 | 19.5 TF |
ピーク TF32 Tensor コア | 156 TF | 312 TF* |
ピーク BFLOAT16 Tensor コア | 312 TF | 624 TF* |
ピーク FP16 Tensor コア | 312 TF | 624 TF* |
ピーク INT8 Tensor コア | 624 TOPS | 1,248 TOPS* |
ピーク INT4 Tensor コア | 1,248 TOPS | 2,496 TOPS* |
GPU メモリ | 40 GB |
GPU メモリ帯域幅 | 1,555 GB/s |
相互接続 | PCIe Gen4 64 GB/s |
マルチインスタンス GPU | 最大 7MIG @5GB のさまざまなインスタンス サイズ |
フォーム ファクター | PCIe |
最大 TDP 電力 | 250W |
主要アプリケーション実効性能 | 90% |

AMD EPYC™ 7003シリーズをDUAL搭載
AMD EPYC 7003 シリーズ・プロセッサーは、AMD「Zen 3」マイクロアーキテクチャー・ベースのコアと AMD Infinity アーキテクチャーをベースに、業界をリードする I/O、7nm x86 CPU テクノロジー、イに統合されたセキュリティー・プロセッサーなど、充実した機能を製品ラインアップ全体で提供します。
同時に、コアあたり最大 32 MB の L3 キャッシュを搭載し、4-6-8 チャネルのメモリー・インターリーブを提供して様々な DIMM 構成でパフォーマンスを最適化するほか、ファブリックとメモリー間のクロック同期など、リーダーシップのパフォーマンスを発揮する様々なテクノロジーも提供します。


エンタープライズ NVMe SSD
GSVシリーズに搭載されているNVMe SSDはビジネスインテリジェンス(BI)、オンライントランザクション処理(OLTP)、ソフトウェア・デファインド・ストレージ(SDS)、仮想化環境などの 様々な企業向けアプリケーションおよび関連ワークロードに適したリードインテンシブSSDです。 あらゆる状態において、高い安定性能を維持し優れた耐久性と高速性を実現します。※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA A100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2000W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。


ジーデップ・アドバンスが国内代理店をしている Super Micro Computer, Inc. の SuperServer をベースにしたAMD 第3世代EPYC™ "MILAN" 7003 Serie搭載のGPUサーバです。4Uラックマウント筐体に最大8枚までのハイエンドGPUを搭載可能。Gen4対応の広帯域なPCI-Eepress 接続と、NVLINKで高速なCPU-GPU間、GPU-GPU間のデータ疎通を実現します。
NVIDIAエリートパートナーのジーデップ・アドバンスでは最新のNVIDIA社のハイエンドGPUを搭載し、AIやHPCでご利用頂けるようOSやミドルウェアをプリインストールしたモデルをご用意しました。
NVIDIAの最新GPU A100 (40GB)を最大8枚実装可能
ジーデップ・アドバンスのGSV-4U/8G-A100はGen4のPCI-Exppress Gen4 の NVIDIA A100を最大8枚搭載可能です。

NVIDIA A100 (PCI Express Gen4) 性能
ピーク FP64 | 9.7 TF |
ピーク FP64 Tensor コア | 19.5 TF |
ピーク FP32 | 19.5 TF |
ピーク TF32 Tensor コア | 156 TF | 312 TF* |
ピーク BFLOAT16 Tensor コア | 312 TF | 624 TF* |
ピーク FP16 Tensor コア | 312 TF | 624 TF* |
ピーク INT8 Tensor コア | 624 TOPS | 1,248 TOPS* |
ピーク INT4 Tensor コア | 1,248 TOPS | 2,496 TOPS* |
GPU メモリ | 40 GB |
GPU メモリ帯域幅 | 1,555 GB/s |
相互接続 | PCIe Gen4 64 GB/s |
マルチインスタンス GPU | 最大 7MIG @5GB のさまざまなインスタンス サイズ |
フォーム ファクター | PCIe |
最大 TDP 電力 | 250W |
主要アプリケーション実効性能 | 90% |

第2世代 AMD EPYC™ 7002シリーズをDUAL搭載


Samsung製データセンター向け高速 NVMe SSD
高速なPCI-Express3.0(x4)(NMV Express)接続のSamsung製データセンター向けNVMe SSDを標準採用。Samsung 3D V-NAND と、32GB / 秒の帯域幅を提供する PCIe Gen 3.0 x4 ホストインタフェースを備えた最適化された Samsung NVMe コントローラーを使用して、SATA SSD の 4 倍のパフォーマンスを実現します。また、ランダム Read/Write 性能において SAS HDD より 1000 倍速く、2.5 インチ SAS SSD より 3 倍優れています。PM983 は、より低速な SATA SSD と同じ、ギガバイトあたりの低コストを実現します。1 ドルあたり 4 倍の IOPS を提供することで、IT やデータセンター管理者は、サーバーのワークロード利用率を拡大し、コンピューティング環境のコストを削減できます。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA A100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2000W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。


ジーデップ・アドバンスが国内代理店をしている Super Micro Computer, Inc. の SuperServer をベースにしたAMD 第3世代EPYC™ "MILAN" 7003 Serie搭載のGPUサーバです。4Uラックマウント筐体に最大8枚までのハイエンドGPUを搭載可能。Gen4対応の広帯域なPCI-Eepress 接続と、NVLINKで高速なCPU-GPU間、GPU-GPU間のデータ疎通を実現します。
NVIDIAエリートパートナーのジーデップ・アドバンスでは最新のNVIDIA社のハイエンドGPUを搭載し、AIやHPCでご利用頂けるようOSやミドルウェアをプリインストールしたモデルをご用意しました。
NVIDIAの最新GPU A100 (40GB)を最大8枚実装可能
ジーデップ・アドバンスのGSV-4U/8G-A100はGen4のPCI-Exppress Gen4 の NVIDIA A100を最大8枚搭載可能です。

NVIDIA A100 (PCI Express Gen4) 性能
ピーク FP64 | 9.7 TF |
ピーク FP64 Tensor コア | 19.5 TF |
ピーク FP32 | 19.5 TF |
ピーク TF32 Tensor コア | 156 TF | 312 TF* |
ピーク BFLOAT16 Tensor コア | 312 TF | 624 TF* |
ピーク FP16 Tensor コア | 312 TF | 624 TF* |
ピーク INT8 Tensor コア | 624 TOPS | 1,248 TOPS* |
ピーク INT4 Tensor コア | 1,248 TOPS | 2,496 TOPS* |
GPU メモリ | 40 GB |
GPU メモリ帯域幅 | 1,555 GB/s |
相互接続 | PCIe Gen4 64 GB/s |
マルチインスタンス GPU | 最大 7MIG @5GB のさまざまなインスタンス サイズ |
フォーム ファクター | PCIe |
最大 TDP 電力 | 250W |
主要アプリケーション実効性能 | 90% |

第2世代 AMD EPYC™ 7002シリーズをDUAL搭載


Samsung製データセンター向け高速 NVMe SSD
高速なPCI-Express3.0(x4)(NMV Express)接続のSamsung製データセンター向けNVMe SSDを標準採用。Samsung 3D V-NAND と、32GB / 秒の帯域幅を提供する PCIe Gen 3.0 x4 ホストインタフェースを備えた最適化された Samsung NVMe コントローラーを使用して、SATA SSD の 4 倍のパフォーマンスを実現します。また、ランダム Read/Write 性能において SAS HDD より 1000 倍速く、2.5 インチ SAS SSD より 3 倍優れています。PM983 は、より低速な SATA SSD と同じ、ギガバイトあたりの低コストを実現します。1 ドルあたり 4 倍の IOPS を提供することで、IT やデータセンター管理者は、サーバーのワークロード利用率を拡大し、コンピューティング環境のコストを削減できます。

安心&安定のTITANIUM96%+レベル 2+2リダンダント電源
GPUサーバーの安定動作の重要なファクターは何と言っても電源ユニットです。最大8枚の NVIDIA A100 搭載構成時においても安定動作を担保できる高効率96%+となる高効率2000W TITANIUM電源を採用しています。低 ESR・超低インピーダンスと抜群の耐久性を誇り、2+2の冗長性を確保。負荷の高いワークロードでも全てのGPUへ余裕のある電源供給を実現します。

Alveo アクセラレータ カードは、変化するアクセラレーション要件やアルゴリズム規格に柔軟に対応でき、ハードウェアを変更しなくてもあらゆるワークロードを加速できる上に、総保有コスト (TCO) を削減できます。
Alveo アクセラレータ カードの利用は、一般的なデータセンター ワークロード向けにザイリンクスおよびパートナーが提供するアプリケーションの広範なエコシステムでサポートされています。カスタム ソリューションを構築する場合は、アプリケーション開発者ツール (SDAccel™ ツール) および Machine Learning Suite を利用することで、差別化したアプリケーションを市場へ送り出すことができます。
※このカードはPassive(ファンレス)設計であり、高い冷却性能を有する筐体への搭載を前提としています。
第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載
また、integer SPECrate2017_int_base や FlotingPoint SPECrate2017_int_base 、LINPAC などベンチマークでは第2世代Xeon Scalable Processor比で約1.46倍の性能向上を実現しています。

高信頼性エンタープライズストレージを搭載
さらにOS用のNVMeストレージもRAID-1で冗長化を施し障害に強い構成を実現しています。

信頼のハードウェアRAIDコントローラ

多様で高速なインターコネクトでスケールアウトも可能

安心のオンサイトサポート



2Uラックマウントの筐体に安定のintel製CPU Skylake-SP 第二世代Xeon® Scalable Family を搭載しました。ストレージべイは前後で合計12スロット装備し様々なRIADレベル 0, 1, 5, 6, 10,50,60 に対応。エンタープライズクラスの高信頼性ストレージとの組み合わせはミッションクリティカルなシーンでも安定した利用が可能です。インターコネクトも標準で10GBase-Tを2ポート、オプションでInfiniBand(EDR)も増設可能ですので、高速広帯域なノード間通信やフレキシブルなストレージ増設にも対応しています。
第3世代 インテル® Xeon® スケーラブル・プロセッサーを搭載
また、integer SPECrate2017_int_base や FlotingPoint SPECrate2017_int_base 、LINPAC などベンチマークでは第2世代Xeon Scalable Processor比で約1.46倍の性能向上を実現しています。

高信頼性エンタープライズストレージを搭載

信頼のハードウェアRAIDコントローラ

多様で高速なインターコネクトでスケールアウトも可能

安心のオンサイトサポート



安定のインテルXeonプロセッサを採用
解析、高速計算、シミュレーションなど高いマシンスペックを要求される仕事に納得のパフォーマンスを提供するハイスペックストレージシステムです

高信頼性エンタープライズストレージを搭載
さらにOS用のNVMeストレージもRAID-1で冗長化を施し障害に強い構成を実現しています。

信頼のハードウェアRAIDコントローラ

多様で高速なインターコネクトでスケールアウトも可能

安心のオンサイトサポート

安定のインテルXeonプロセッサを採用
解析、高速計算、シミュレーションなど高いマシンスペックを要求される仕事に納得のパフォーマンスを提供するハイスペックストレージシステムです

高信頼性エンタープライズストレージを搭載
さらにOS用のNVMeストレージもRAID-1で冗長化を施し障害に強い構成を実現しています。

信頼のハードウェアRAIDコントローラ

多様で高速なインターコネクトでスケールアウトも可能

安心のオンサイトサポート


2Uラックマウントの筐体に安定のintel製CPU Skylake-SP 第二世代Xeon® Scalable Family を搭載しました。ストレージべイは前後で合計12スロット装備し様々なRIADレベル 0, 1, 5, 6, 10,50,60 に対応。エンタープライズクラスの高信頼性ストレージとの組み合わせはミッションクリティカルなシーンでも安定した利用が可能です。インターコネクトも標準で10GBase-Tを2ポート、オプションでInfiniBand(EDR)も増設可能ですので、高速広帯域なノード間通信やフレキシブルなストレージ増設にも対応しています。
第三世代 Intel® Xeon® Scalable processors (Ice Lake -SP)搭載
第三世代 Intel® Xeon® Scalable processors (Ice Lake -SP)は AVX512に新しいSIMD命令を追加し、ソフトウェアやアルゴリズムの改善により、前世代のCascade Lakeから1.5~8倍のパフォーマンス向上が図られています。2ソケットで最大80コア/160スレッドを実現し全世代と比較して1.74倍のAI性能向上を実現します。
※性能は使用状況、構成、その他要因によって異なります。詳しくは弊社までお問い合わせ下さい。

高信頼性エンタープライズストレージを搭載

信頼のハードウェアRAIDコントローラ

多様で高速なインターコネクトでスケールアウトも可能

安心のオンサイトサポート


2Uラックマウントの筐体に安定のintel製CPU Skylake-SP 第二世代Xeon® Scalable Family を搭載しました。ストレージべイは前後で合計12スロット装備し様々なRIADレベル 0, 1, 5, 6, 10,50,60 に対応。エンタープライズクラスの高信頼性ストレージとの組み合わせはミッションクリティカルなシーンでも安定した利用が可能です。インターコネクトも標準で10GBase-Tを2ポート、オプションでInfiniBand(EDR)も増設可能ですので、高速広帯域なノード間通信やフレキシブルなストレージ増設にも対応しています。
安定のインテルXeonプロセッサを採用
解析、高速計算、シミュレーションなど高いマシンスペックを要求される仕事に納得のパフォーマンスを提供するハイスペックストレージシステムです

高信頼性エンタープライズストレージを搭載

信頼のハードウェアRAIDコントローラ

多様で高速なインターコネクトでスケールアウトも可能

安心のオンサイトサポート

NVIDIAエリートパートナ ジーデップ・アドバンスはGTC2021で発表された 最新Ampere GPU NVIDIA® RTX™ A4000 の取り扱いを開始しました。
NVIDIA RTX™ A4000 はプロフェッショナルのための非常にパワフルなシングルスロット GPU であり、リアルタイム レイ トレーシング、AI アクセラレーテッド コンピューティング、高性能グラフィックスのパフォーマンスをデスクトップに届けます。さまざまなシステムに適合し制限なく作業できるソリューションで、次世代製品の設計、未来の都市景観のデザイン、臨場感あふれるエンターテインメント体験の制作を行えます。
【NVIDIA ハイエンドGPU製品比較】
RTX 6000 Ada | RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 | |
アーキテクチャ | Ada Lovelace | Ampere | Ampere | Ampere | Ampere | Ampere |
メモリ容量 | 48GB GDDR6 | 48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
メモリ帯域 | 最大960GB/s | 最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
メモリバス幅 | 384bit | 384bit | 384bit | 384bit | 384bit | 384bit |
CUDAコア数 | 18176 | 10752 | 10240 | 8192 | 7168 | 6144 |
Tensorコア数 | 568 | 336 | 320 | 256 | 224 | 192 |
RTコア数 | 142 | 84 | 80 | 64 | 56 | 48 |
インターフェース | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 |
NVLink | 非対応 | 対応 | 対応 | 対応 | 対応 | 非対応 |
熱設計電力(TDP) | 300W | 300W | 230W | 230W | 200W | 140W |
冷却方法 | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ |
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内代理店の保証書が添付されておらず国内での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。
Ampereアーキテクチャを採用

第 2 世代 RT コア

第 3 世代 Tensor コア

シングルスロットフォームファクタ

PCI Express Gen 4

200GHDR対応カード:NVIDIA Mellanox ConnectX-6 アダプタカードは、NVIDIA Mellanox スマート・インターコネクトスイートの最新製品です。協調設計(Co-Design)、「In-Network Compute」のサポートしています。、HPC環境、クラウド、データ分析、ストレージプラットフォームにおいて最適化、高速通信が可能なカードです。
ConnectX-6 VPI | Single/Dual-Port 200Gb/s Adapter Card with Virtual Protocol Interconnect |
INFINIBAND | ・HDR /HDR100 /EDR / FDR / QDR / DDR / SDR ・IBTA仕様1.3 準拠 ・RDMA、Send/Receive semantics ・ハードウェアベースの輻輳制御 ・アトミック操作 ・1,600万I/O チャネル ・256 to 4Kバイト MTU、2Gバイトメッセージ ・8 仮想レーン + VL15 |
ETHERNET | ・200GbE/ 100GbE/ 50GbE/ 40GbE/ 25GbE/ 10GbE/ 1GbE (詳細はブローシャ参照) |
強化機能 | (詳細はブローシャ参照) |
CPU オフロード | ・RDMA over Converged Ethernet (RoCE) ・TCP/UDP/IP ステートレスオフロード ・LSO、LRO、チェックサムオフロード ・(カプセル化されたパケットを含めた)RSS、TSS、HDS、VLANおよびMPLS tag insertion / stripping、Receive flow steering、Receive flow steering ・カーネル・バイパス・アプリケーションのためのData Plane Development Kit (DPDK) ・ASAP2を活用する、Open VSwitch (OVS) オフロード ・Flexible match-action flow tables ・トンネリング カプセル化 / カプセル化解除 ・Intelligent interrupt coalescence ・NATルータのハードウェア・オフロードをサポートするヘッダの書き換え |
ストレージオフロード | ・ブロックーレベル暗号化:XTS-AES 256/512ビットキー ・ターゲット機器のためのNVMe over Fabricsオフロード ・リードソロモン演算をオフロードする、イレイジャーコーディング(Erasure Coding)オフロード ・T10 DIF - 入力および出力トラフィックのワイヤースピードでのシグネチャーハンドオーバー操作 ・ストレージプロトコル: ・SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF |
オーバーレイ ネットワーク |
・オーバーレイネットワークを介したRoCE ・オーバーレイネットワークのトンネリングプロトコルのためのステートレスオフロード ・VXLAN、NVGRE、およびGENEVEオーバーレイネットワークのカプセル化とカプセル化解除のハードウェア・オフロード |
ハードウェアベースの I/O仮想化 |
・Single Root IOV ・Address translation and protection ・VMware NetQueue support ・SR-IOV:最大512 仮想機能 ・SR-IOV:ホスト毎に最大16 の物理機能 ・仮想化階層(別名 NPAR) ・物理ポート上の物理機能の仮想化 ・すべての物理機能上のSR-IOV ・設定可能でユーザがプログラム可能なOoS ・VMのための保証されたQoS |
HPC ソフトウェア ライブラリ |
・HPC-X、Open MPI、 MVAPICH、MPICH、Open SHMEM, PGAS 及び様々なコマーシャルパッケージ |
管理とコントロール | ・NC-SI、MCTP over SMBus と MCTP over PCIe - ベースボード管理コントローラインターフェイス ・モニタおよび制御用のPLDM DSP0248 ・ファームウェア更新用のPLDM DSP0267 ・eSwitchを管理するためのSDN 管理インターフェイス ・デバイス制御と設定のためのI2C インターフェイス ・General Purpose I/O ピン ・FlashへのSPI インターフェイス ・JTAG IEEE 1149.1と IEEE 1149.6 |
リモート起動 | ・InfiniBandを介したリモート起動 ・Ethernetを介したリモート起動 ・iSCSI を介したリモート起動 ・Unified Extensible Firmware Interface (UEFI) ・Pre-execution Environment (PXE) |
パーツナンバー | InfiniBandで サポートされる 速度 (Gb/s) |
Ethernetで サポートされる 速度 (GbE) |
ポート数 | ケージ | PCI Express設定 |
---|---|---|---|---|---|
MCX653105A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25, 10 |
1 | QSFP56 | PCIe 3.0 x16 |
MCX653106A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | PCIe 3.0 x16 |
MCX653105A-HDAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | PCIe 3.0/4.0 x16 |
MCX653106A-HDAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | PCIe 3.0/4.0 x16 |
Socket Direct | |||||
MCX653105A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 1 | QSFP56 | PCIe3.0/4.0 Socket Direct 2x8 in a row |
MCX653106A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | PCIe3.0/4.0 Socket Direct 2x8 in a row |
MCX654105A-HCAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
MCX654106A-HCAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
MCX654106A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
OCP 3.0 | |||||
MCX653435A-HDAI | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | OCP 3.0, with host management PCIe4.0 x16, Internal Lock |
MCX653436A-HDAI | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | OCP 3.0, with host management PCIe4.0 x16, Internal Lock |
MCX653435A-EDAI | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 1 | QSFP56 | OCP 3.0, with host management PCIe 3.0/4.0 x16, Internal Lock |
注:ブラケットなしの寸法は167.65mm x 68.90mmです。すべてのトール(背の高い)・ブラケットアダプタには、トール・ブラケットが取り付けられ、ショート・ブラケットが付属品として添付され出荷されます。l
200GHDR対応カード:NVIDIA Mellanox ConnectX-6 アダプタカードは、NVIDIA Mellanox スマート・インターコネクトスイートの最新製品です。協調設計(Co-Design)、「In-Network Compute」のサポートしています。、HPC環境、クラウド、データ分析、ストレージプラットフォームにおいて最適化、高速通信が可能なカードです。
ConnectX-6 VPI | Single/Dual-Port 200Gb/s Adapter Card with Virtual Protocol Interconnect |
INFINIBAND | ・HDR /HDR100 /EDR / FDR / QDR / DDR / SDR ・IBTA仕様1.3 準拠 ・RDMA、Send/Receive semantics ・ハードウェアベースの輻輳制御 ・アトミック操作 ・1,600万I/O チャネル ・256 to 4Kバイト MTU、2Gバイトメッセージ ・8 仮想レーン + VL15 |
ETHERNET | ・200GbE/ 100GbE/ 50GbE/ 40GbE/ 25GbE/ 10GbE/ 1GbE (詳細はブローシャ参照) |
強化機能 | (詳細はブローシャ参照) |
CPU オフロード | ・RDMA over Converged Ethernet (RoCE) ・TCP/UDP/IP ステートレスオフロード ・LSO、LRO、チェックサムオフロード ・(カプセル化されたパケットを含めた)RSS、TSS、HDS、VLANおよびMPLS tag insertion / stripping、Receive flow steering、Receive flow steering ・カーネル・バイパス・アプリケーションのためのData Plane Development Kit (DPDK) ・ASAP2を活用する、Open VSwitch (OVS) オフロード ・Flexible match-action flow tables ・トンネリング カプセル化 / カプセル化解除 ・Intelligent interrupt coalescence ・NATルータのハードウェア・オフロードをサポートするヘッダの書き換え |
ストレージオフロード | ・ブロックーレベル暗号化:XTS-AES 256/512ビットキー ・ターゲット機器のためのNVMe over Fabricsオフロード ・リードソロモン演算をオフロードする、イレイジャーコーディング(Erasure Coding)オフロード ・T10 DIF - 入力および出力トラフィックのワイヤースピードでのシグネチャーハンドオーバー操作 ・ストレージプロトコル: ・SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF |
オーバーレイ ネットワーク |
・オーバーレイネットワークを介したRoCE ・オーバーレイネットワークのトンネリングプロトコルのためのステートレスオフロード ・VXLAN、NVGRE、およびGENEVEオーバーレイネットワークのカプセル化とカプセル化解除のハードウェア・オフロード |
ハードウェアベースの I/O仮想化 |
・Single Root IOV ・Address translation and protection ・VMware NetQueue support ・SR-IOV:最大512 仮想機能 ・SR-IOV:ホスト毎に最大16 の物理機能 ・仮想化階層(別名 NPAR) ・物理ポート上の物理機能の仮想化 ・すべての物理機能上のSR-IOV ・設定可能でユーザがプログラム可能なOoS ・VMのための保証されたQoS |
HPC ソフトウェア ライブラリ |
・HPC-X、Open MPI、 MVAPICH、MPICH、Open SHMEM, PGAS 及び様々なコマーシャルパッケージ |
管理とコントロール | ・NC-SI、MCTP over SMBus と MCTP over PCIe - ベースボード管理コントローラインターフェイス ・モニタおよび制御用のPLDM DSP0248 ・ファームウェア更新用のPLDM DSP0267 ・eSwitchを管理するためのSDN 管理インターフェイス ・デバイス制御と設定のためのI2C インターフェイス ・General Purpose I/O ピン ・FlashへのSPI インターフェイス ・JTAG IEEE 1149.1と IEEE 1149.6 |
リモート起動 | ・InfiniBandを介したリモート起動 ・Ethernetを介したリモート起動 ・iSCSI を介したリモート起動 ・Unified Extensible Firmware Interface (UEFI) ・Pre-execution Environment (PXE) |
パーツナンバー | InfiniBandで サポートされる 速度 (Gb/s) |
Ethernetで サポートされる 速度 (GbE) |
ポート数 | ケージ | PCI Express設定 |
---|---|---|---|---|---|
MCX653105A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25, 10 |
1 | QSFP56 | PCIe 3.0 x16 |
MCX653106A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | PCIe 3.0 x16 |
MCX653105A-HDAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | PCIe 3.0/4.0 x16 |
MCX653106A-HDAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | PCIe 3.0/4.0 x16 |
Socket Direct | |||||
MCX653105A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 1 | QSFP56 | PCIe3.0/4.0 Socket Direct 2x8 in a row |
MCX653106A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | PCIe3.0/4.0 Socket Direct 2x8 in a row |
MCX654105A-HCAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
MCX654106A-HCAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
MCX654106A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
OCP 3.0 | |||||
MCX653435A-HDAI | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | OCP 3.0, with host management PCIe4.0 x16, Internal Lock |
MCX653436A-HDAI | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | OCP 3.0, with host management PCIe4.0 x16, Internal Lock |
MCX653435A-EDAI | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 1 | QSFP56 | OCP 3.0, with host management PCIe 3.0/4.0 x16, Internal Lock |
注:ブラケットなしの寸法は167.65mm x 68.90mmです。すべてのトール(背の高い)・ブラケットアダプタには、トール・ブラケットが取り付けられ、ショート・ブラケットが付属品として添付され出荷されます。l
NVIDIAエリートパートナ ジーデップ・アドバンスは NVIDIA® RTX™ A4500 の取り扱いを開始しました。
※ジーデップ・アドバンスなら購入はもちろん 長期レンタルでもトータルコストが大きく変わらずおトクです。
NVIDIA® RTX™ A4500 グラフィックス カードをデスクトップ PC に搭載することで、リアルタイムのレイ トレース、シミュレーション、および AI の機能が自分のものになります。NVIDIA Ampere アーキテクチャ上に構築され、20 GB の GPU メモリを搭載しており、デザイナー、エンジニア、クリエイターは、複雑なモデルやデータセットをインタラクティブに操作して、イノベーションの限界を押し広げることができます。
【NVIDIA ハイエンドGPU製品比較】
RTX 6000 Ada | RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 | |
アーキテクチャ | Ada Lovelace | Ampere | Ampere | Ampere | Ampere | Ampere |
メモリ容量 | 48GB GDDR6 | 48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
メモリ帯域 | 最大960GB/s | 最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
メモリバス幅 | 384bit | 384bit | 384bit | 384bit | 384bit | 384bit |
CUDAコア数 | 18176 | 10752 | 10240 | 8192 | 7168 | 6144 |
Tensorコア数 | 568 | 336 | 320 | 256 | 224 | 192 |
RTコア数 | 142 | 84 | 80 | 64 | 56 | 48 |
インターフェース | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 |
NVLink | 非対応 | 対応 | 対応 | 対応 | 対応 | 非対応 |
熱設計電力(TDP) | 300W | 300W | 230W | 230W | 200W | 140W |
冷却方法 | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ |
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内代理店の保証書が添付されておらず国内での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。
Ampereアーキテクチャを採用

第 2 世代 RT コア

第 3 世代 Tensor コア

20GB ECC GDDR6メモリ

PCI Express Gen 4

NVIDIAエリートパートナ ジーデップ・アドバンスはGTC2022で発表された 最新ハイエンドGPU NVIDIA® RTX™ A5500 の取り扱いを開始しました。
※ジーデップ・アドバンスなら購入はもちろん 長期レンタルでもトータルコストが大きく変わらずおトクです。
NVIDIA RTX™ A5500 グラフィックス カードでデスクトップ PC のパワーを開放しよう。高い処理能力が要求されるマルチアプリケーション ワークフローに必要なパフォーマンス、信頼性、機能を提供します。NVIDIA Ampere アーキテクチャに基づいて構築され、24GBのGPUメモリを搭載したこのカードは、デザイナー、エンジニア、サイエンティスト、アーティストの無限の創造力に必要なものをすべて備えています。
【NVIDIA ハイエンドGPU製品比較】
RTX 6000 Ada | RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 | |
アーキテクチャ | Ada Lovelace | Ampere | Ampere | Ampere | Ampere | Ampere |
メモリ容量 | 48GB GDDR6 | 48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
メモリ帯域 | 最大960GB/s | 最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
メモリバス幅 | 384bit | 384bit | 384bit | 384bit | 384bit | 384bit |
CUDAコア数 | 18176 | 10752 | 10240 | 8192 | 7168 | 6144 |
Tensorコア数 | 568 | 336 | 320 | 256 | 224 | 192 |
RTコア数 | 142 | 84 | 80 | 64 | 56 | 48 |
インターフェース | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 |
NVLink | 非対応 | 対応 | 対応 | 対応 | 対応 | 非対応 |
熱設計電力(TDP) | 300W | 300W | 230W | 230W | 200W | 140W |
冷却方法 | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ |
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内代理店の保証書が添付されておらず国内での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。
Ampereアーキテクチャを採用

第 2 世代 RT コア

第 3 世代 Tensor コア

24GB ECC GDDR6メモリ

PCI Express Gen 4

NVIDIAエリートパートナ ジーデップ・アドバンスはGTC2022で発表された 最新ハイエンドGPU NVIDIA® RTX™ A5500 の取り扱いを開始しました。
※ジーデップ・アドバンスなら購入はもちろん 長期レンタルでもトータルコストが大きく変わらずおトクです。
NVIDIA RTX™ A5500 グラフィックス カードでデスクトップ PC のパワーを開放しよう。高い処理能力が要求されるマルチアプリケーション ワークフローに必要なパフォーマンス、信頼性、機能を提供します。NVIDIA Ampere アーキテクチャに基づいて構築され、24GBのGPUメモリを搭載したこのカードは、デザイナー、エンジニア、サイエンティスト、アーティストの無限の創造力に必要なものをすべて備えています。
【NVIDIA RTX製品比較】
RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 |
Ampere | Ampere | Ampere | Ampere | Ampere |
48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
384bit | 384bit | 384bit | 384bit | 384bit |
10752 CUDAコア | 10240 CUDAコア | 8192 CUDAコア | 7168 CUDAコア | 6144 CUDAコア |
336 Tensorコア | 320 Tensorコア | 256 Tensorコア | 224 Tensorコア | 192 Tensorコア |
84 RTコア | 80 RTコア | 64 RTコア | 56 RTコア | 48 RTコア |
PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 |
NVLink対応 | NVLink対応 | NVLink対応 | NVLink 対応 | NVLink 非対応 |
TDP 300W | TDP 230W | TDP 230W | TDP 200W | TDP 140W |
アクティブ冷却 | アクティブ冷却 | アクティブ冷却 | アクティブ冷却 | アクティブ冷却 |
※NVIDIA RTX A5500、RTXシリーズ搭載のGPUワークステーションも特別価格でご提供しています。
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内代理店の保証書が添付されておらず国内での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。

NVIDIAエリートパートナ ジーデップ・アドバンスはGTC2022で発表された 最新ハイエンドGPU NVIDIA® RTX™ A5500 の取り扱いを開始しました。
※ジーデップ・アドバンスなら購入はもちろん 長期レンタルでもトータルコストが大きく変わらずおトクです。
NVIDIA RTX™ A5500 グラフィックス カードでデスクトップ PC のパワーを開放しよう。高い処理能力が要求されるマルチアプリケーション ワークフローに必要なパフォーマンス、信頼性、機能を提供します。NVIDIA Ampere アーキテクチャに基づいて構築され、24GBのGPUメモリを搭載したこのカードは、デザイナー、エンジニア、サイエンティスト、アーティストの無限の創造力に必要なものをすべて備えています。
【NVIDIA RTX製品比較】
RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 |
Ampere | Ampere | Ampere | Ampere | Ampere |
48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
384bit | 384bit | 384bit | 384bit | 384bit |
10752 CUDAコア | 10240 CUDAコア | 8192 CUDAコア | 7168 CUDAコア | 6144 CUDAコア |
336 Tensorコア | 320 Tensorコア | 256 Tensorコア | 224 Tensorコア | 192 Tensorコア |
84 RTコア | 80 RTコア | 64 RTコア | 56 RTコア | 48 RTコア |
PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 |
NVLink対応 | NVLink対応 | NVLink対応 | NVLink 対応 | NVLink 非対応 |
TDP 300W | TDP 230W | TDP 230W | TDP 200W | TDP 140W |
アクティブ冷却 | アクティブ冷却 | アクティブ冷却 | アクティブ冷却 | アクティブ冷却 |
※NVIDIA RTX A5500、RTXシリーズ搭載のGPUワークステーションも特別価格でご提供しています。
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内代理店の保証書が添付されておらず国内での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。
納期目安:こちらの製品は現在在庫がございます。
※ご注意点
RTX 6000 Ada は従来のRTXシリーズとは異なり、電源供給が16ピン(CEM-5 PCIeコネクタ)となります。ジーデップ・アドバンスでは、既存のPCI-Express8ピン x2本 を PCI-Express CEM5 16ピン x1本へ変換するアダプタを標準添付しています。利用予定のマシンに PCI-Express8ピン x2本 があることをご確認下さい。
詳しい形状は弊社Twitterからご覧いただけます。
NVIDIA認定 エリートパートナー ジーデップ・アドバンスは最新ハイエンドGPU NVIDIA RTX™ 6000 Ada を特別価格でご提供します。さらにジーデップ・アドバンスのオリジナルレンタルなら購入時と比較してもトータルコストが大きく変わらずおトクです。
アカデミックユーザー 様/「NVIDIA Inception Program」パートナー企業 様向け「ドラゴンブーストキャンペーン」
【価格】¥999,900-(税込み・送料込み)
2022年9月開催のNVIDIA GTC 2022 秋において「NVIDIA RTX™ 6000 Ada」が発表されました。NVIDIA RTX A6000 Adaは NVIDIA Ada Lovelaceアーキテクチャを採用したワークステーション向けGPUです。第3世代の RT コア、第4世代の Tensor コア、次世代 CUDA® コアを 48GB の広帯域GDDR6メモリと組み合わせることにより、かつてないコンピューティング パフォーマンスを実現します。
NVIDIA RTX 6000 Ada は、前世代となるNVIDIA RTX A6000と比較して約2倍の性能パフォーマンスを提供し、レンダリング、グラフィックス、AI、NVIDIA Omniverseを使ったコンテンツ制作など、開発や研究をさらに加速します。
RTX 6000 Ada のパフォーマンスベンチはこちらを御覧ください。
【NVIDIA ハイエンドGPU製品比較】
RTX 6000 Ada | RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 | |
アーキテクチャ | Ada Lovelace | Ampere | Ampere | Ampere | Ampere | Ampere |
メモリ容量 | 48GB GDDR6 | 48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
メモリ帯域 | 最大960GB/s | 最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
メモリバス幅 | 384bit | 384bit | 384bit | 384bit | 384bit | 384bit |
CUDAコア数 | 18176 | 10752 | 10240 | 8192 | 7168 | 6144 |
Tensorコア数 | 568 | 336 | 320 | 256 | 224 | 192 |
RTコア数 | 142 | 84 | 80 | 64 | 56 | 48 |
インターフェース | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 |
NVLink | 非対応 | 対応 | 対応 | 対応 | 対応 | 非対応 |
熱設計電力(TDP) | 300W | 300W | 230W | 230W | 200W | 140W |
冷却方法 | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ |
※NVIDIA RTX 6000 Ada 搭載のGPUワークステーション「GWS-TRP/4G」「GWS-621XW/4G」「UNI-XW-621AT」も特別価格でご提供しています。
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内でのシリアル管理が行われておらず日本での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。
新コアAda Lovelace AD102
Ada Lovelaceアーキテクチャは、2018年に発表されたTuring(チューリング)、2020年に投入されたAmpere(アンペア)に続く同社がRTXと呼んでいるハードウエア・レイトレーシングのエンジン(RTコア)を内蔵したGPUアーキテクチャの第3世代となります。(NVIDIA GPUの開発コードネームは過去の科学者の名前に基づいており、今回のAda Lovelaceも、世界初のコンピュータプログラマーとして知られる19世紀のイギリスの数学者の名前が元になっています)
Ada Lovelaceの最大の特徴は、NVIDIAがGPC、TPC、SM、CUDAコアと呼んでいる演算器がいずれも増えていることあり、AmpereではGPCが最大7基だったのに対して、Ada Lovelaceでは最大12基に増加しています。これはTuring世代に比べると倍、Ampere世代に比較すると71%も増えていることになり、それに比例してTPCも、SMも、CUDAコアも71%増加しており大きな性能向上が期待できます。

第4世代Tensorコア
NVIDIA RTX 6000 Adaは、NVIDIA Tensor コアは、NVIDIA DLSS や、新しいフレーム レートの飛躍技術 NVIDIA DLSS 3 などの革新的な AI 技術の実現と高速化を担います。
Ada の新しい第 4 世代 Tensor コアは、NVIDIA の Hopper H100 データセンター GPU で初めて導入された、新しい FP8 Transformer エンジンを使用して、驚異的に速い、最大 5 倍のスループットの向上と、1.4 Tensor-petaFLOPS の性能を実現します。

第 3 世代の RT コア
Ada の第 3 世代 RT コアは、レイ-トライアングル交差のスループットが 2 倍になり、RT-TFLOP 性能が 2 倍以上向上します。
新しい RT コアには、新しい Opacity Micromap (OMM) エンジンと新しい Displaced Micro-Mesh (DMM) エンジンも含まれています。OMM エンジンは、葉、粒子、格子によく使用されるアルファテストされたテクスチャのレイ トレーシングをより高速に実現します。DMM エンジンは、バウンディング ボリューム階層 (BVH) の構築時間を最大 10 倍高速化し、容量を最大 20 倍削減することで、ジオメトリが複雑な場面のリアルタイム レイ トレーシングを実現します。

シェーダー実行リオーダー
シェーダー実行リオーダリング (SER) 技術は、以前は非効率だった処理を動的に再編成し、高効率の処理に変えます。SER はレイ トレーシング実行のためのシェーダー性能を最大 3 倍、ゲーム内フレーム レートを最大 25% 向上させることができます。

DLSS 3

納期目安:ご好評につき最新の在庫状況についてはお問い合わせください。
※ご注意点
RTX 6000 Ada は従来のRTXシリーズとは異なり、電源供給が16ピン(CEM-5 PCIeコネクタ)となります。ジーデップ・アドバンスでは、既存のPCI-Express 8ピン ケーブル x2本をPCI-Express CEM5 16ピン ケーブル x1本へ変換するアダプタを標準添付していますが、搭載予定のマシンにPCI-Express 8ピン ケーブル x2本が追加可能であることをご確認下さい。
詳しい形状は弊社Twitterからご覧いただけます。
2022年9月開催のNVIDIA GTC 2022 秋において「NVIDIA RTX™ 6000 Ada」が発表されました。NVIDIA RTX A6000 Adaは NVIDIA Ada Lovelaceアーキテクチャを採用したワークステーション向けGPUです。第3世代の RT コア、第4世代の Tensor コア、次世代 CUDA® コアを 48GB の広帯域GDDR6メモリと組み合わせることにより、かつてないコンピューティング パフォーマンスを実現します。
NVIDIA RTX 6000 Ada は、前世代となるNVIDIA RTX A6000と比較して約2倍の性能パフォーマンスを提供し、レンダリング、グラフィックス、AI、NVIDIA Omniverseを使ったコンテンツ制作など、開発や研究をさらに加速します。
RTX 6000 Ada のパフォーマンスベンチはこちらを御覧ください。
【NVIDIA ハイエンドGPU製品比較】
RTX 6000 Ada | RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 | |
アーキテクチャ | Ada Lovelace | Ampere | Ampere | Ampere | Ampere | Ampere |
メモリ容量 | 48GB GDDR6 | 48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
メモリ帯域 | 最大960GB/s | 最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
メモリバス幅 | 384bit | 384bit | 384bit | 384bit | 384bit | 384bit |
CUDAコア数 | 18176 | 10752 | 10240 | 8192 | 7168 | 6144 |
Tensorコア数 | 568 | 336 | 320 | 256 | 224 | 192 |
RTコア数 | 142 | 84 | 80 | 64 | 56 | 48 |
インターフェース | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 |
NVLink | 非対応 | 対応 | 対応 | 対応 | 対応 | 非対応 |
熱設計電力(TDP) | 300W | 300W | 230W | 230W | 200W | 140W |
冷却方法 | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ |
※NVIDIA RTX 6000 Ada 搭載のGPUワークステーション「DeepLearningBOXIII」「GWS-741SI4U4G」「GWS-i9XG」も特別価格でご提供しています。
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内でのシリアル管理が行われておらず日本での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。
新コアAda Lovelace AD102
Ada Lovelaceアーキテクチャは、2018年に発表されたTuring(チューリング)、2020年に投入されたAmpere(アンペア)に続く同社がRTXと呼んでいるハードウエア・レイトレーシングのエンジン(RTコア)を内蔵したGPUアーキテクチャの第3世代となります。(NVIDIA GPUの開発コードネームは過去の科学者の名前に基づいており、今回のAda Lovelaceも、世界初のコンピュータプログラマーとして知られる19世紀のイギリスの数学者の名前が元になっています。)
Ada Lovelaceの最大の特徴は、NVIDIAがGPC、TPC、SM、CUDAコアと呼んでいる演算器がいずれも増えていることあり、AmpereではGPCが最大7基だったのに対して、Ada Lovelaceでは最大12基に増加しています。これはTuring世代に比べると倍、Ampere世代に比較すると71%も増えていることになり、それに比例してTPCも、SMも、CUDAコアも71%増加しており大きな性能向上が期待できます。

第4世代Tensorコア
NVIDIA RTX 6000 Adaは、NVIDIA Tensor コアは、NVIDIA DLSS や、新しいフレーム レートの飛躍技術 NVIDIA DLSS 3 などの革新的な AI 技術の実現と高速化を担います。
Ada の新しい第 4 世代 Tensor コアは、NVIDIA の Hopper H100 データセンター GPU で初めて導入された、新しい FP8 Transformer エンジンを使用して、驚異的に速い、最大 5 倍のスループットの向上と、1.4 Tensor-petaFLOPS の性能を実現します。

第 3 世代の RT コア
Ada の第 3 世代 RT コアは、レイ-トライアングル交差のスループットが 2 倍になり、RT-TFLOP 性能が 2 倍以上向上します。
新しい RT コアには、新しい Opacity Micromap (OMM) エンジンと新しい Displaced Micro-Mesh (DMM) エンジンも含まれています。OMM エンジンは、葉、粒子、格子によく使用されるアルファテストされたテクスチャのレイ トレーシングをより高速に実現します。DMM エンジンは、バウンディング ボリューム階層 (BVH) の構築時間を最大 10 倍高速化し、容量を最大 20 倍削減することで、ジオメトリが複雑な場面のリアルタイム レイ トレーシングを実現します。

シェーダー実行リオーダー
シェーダー実行リオーダリング (SER) 技術は、以前は非効率だった処理を動的に再編成し、高効率の処理に変えます。SER はレイ トレーシング実行のためのシェーダー性能を最大 3 倍、ゲーム内フレーム レートを最大 25% 向上させることができます。

DLSS 3

納期目安:こちらの製品は現在在庫がございます。
※ご注意点
RTX 6000 Ada は従来のRTXシリーズとは異なり、電源供給が16ピン(CEM-5 PCIeコネクタ)となります。ジーデップ・アドバンスでは、既存のPCI-Express8ピン x2本 を PCI-Express CEM5 16ピン x1本へ変換するアダプタを標準添付しています。利用予定のマシンに PCI-Express8ピン x2本 があることをご確認下さい。
詳しい形状は弊社Twitterからご覧いただけます。
NVIDIA認定 エリートパートナー ジーデップ・アドバンスは最新ハイエンドGPU NVIDIA RTX™ 6000 Ada を特別価格でご提供します。さらにジーデップ・アドバンスのオリジナルレンタルなら購入時と比較してもトータルコストが大きく変わらずおトクです。
アカデミックユーザー 様/「NVIDIA Inception Program」パートナー企業 様向けキャンペーン価格
【価格】¥899,800-(税込み・送料込み) 24ケ月レンタル目安 月額¥38,691-
2022年9月開催のNVIDIA GTC 2022 秋において「NVIDIA RTX™ 6000 Ada」が発表されました。NVIDIA RTX A6000 Adaは NVIDIA Ada Lovelaceアーキテクチャを採用したワークステーション向けGPUです。第3世代の RT コア、第4世代の Tensor コア、次世代 CUDA® コアを 48GB の広帯域GDDR6メモリと組み合わせることにより、かつてないコンピューティング パフォーマンスを実現します。
NVIDIA RTX 6000 Ada は、前世代となるNVIDIA RTX A6000と比較して約2倍の性能パフォーマンスを提供し、レンダリング、グラフィックス、AI、NVIDIA Omniverseを使ったコンテンツ制作など、開発や研究をさらに加速します。
RTX 6000 Ada のパフォーマンスベンチはこちらを御覧ください。
【NVIDIA ハイエンドGPU製品比較】
RTX 6000 Ada | RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 | |
アーキテクチャ | Ada Lovelace | Ampere | Ampere | Ampere | Ampere | Ampere |
メモリ容量 | 48GB GDDR6 | 48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
メモリ帯域 | 最大960GB/s | 最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
メモリバス幅 | 384bit | 384bit | 384bit | 384bit | 384bit | 384bit |
CUDAコア数 | 18176 | 10752 | 10240 | 8192 | 7168 | 6144 |
Tensorコア数 | 568 | 336 | 320 | 256 | 224 | 192 |
RTコア数 | 142 | 84 | 80 | 64 | 56 | 48 |
インターフェース | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 | PCIe Gen4 x16 |
NVLink | 非対応 | 対応 | 対応 | 対応 | 対応 | 非対応 |
熱設計電力(TDP) | 300W | 300W | 230W | 230W | 200W | 140W |
冷却方法 | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ |
※NVIDIA RTX 6000 Ada 搭載のGPUワークステーション「GWS-TRP/4G」「GWS-621XW/4G」「UNI-XW-621AT」「GWS-i9/2G」も特別価格でご提供しています。
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内でのシリアル管理が行われておらず日本での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。
新コアAda Lovelace AD102
Ada Lovelaceアーキテクチャは、2018年に発表されたTuring(チューリング)、2020年に投入されたAmpere(アンペア)に続く同社がRTXと呼んでいるハードウエア・レイトレーシングのエンジン(RTコア)を内蔵したGPUアーキテクチャの第3世代となります。(NVIDIA GPUの開発コードネームは過去の科学者の名前に基づいており、今回のAda Lovelaceも、世界初のコンピュータプログラマーとして知られる19世紀のイギリスの数学者の名前が元になっています。)
Ada Lovelaceの最大の特徴は、NVIDIAがGPC、TPC、SM、CUDAコアと呼んでいる演算器がいずれも増えていることあり、AmpereではGPCが最大7基だったのに対して、Ada Lovelaceでは最大12基に増加しています。これはTuring世代に比べると倍、Ampere世代に比較すると71%も増えていることになり、それに比例してTPCも、SMも、CUDAコアも71%増加しており大きな性能向上が期待できます。

第4世代Tensorコア
NVIDIA RTX 6000 Adaは、NVIDIA Tensor コアは、NVIDIA DLSS や、新しいフレーム レートの飛躍技術 NVIDIA DLSS 3 などの革新的な AI 技術の実現と高速化を担います。
Ada の新しい第 4 世代 Tensor コアは、NVIDIA の Hopper H100 データセンター GPU で初めて導入された、新しい FP8 Transformer エンジンを使用して、驚異的に速い、最大 5 倍のスループットの向上と、1.4 Tensor-petaFLOPS の性能を実現します。

第 3 世代の RT コア
Ada の第 3 世代 RT コアは、レイ-トライアングル交差のスループットが 2 倍になり、RT-TFLOP 性能が 2 倍以上向上します。
新しい RT コアには、新しい Opacity Micromap (OMM) エンジンと新しい Displaced Micro-Mesh (DMM) エンジンも含まれています。OMM エンジンは、葉、粒子、格子によく使用されるアルファテストされたテクスチャのレイ トレーシングをより高速に実現します。DMM エンジンは、バウンディング ボリューム階層 (BVH) の構築時間を最大 10 倍高速化し、容量を最大 20 倍削減することで、ジオメトリが複雑な場面のリアルタイム レイ トレーシングを実現します。

シェーダー実行リオーダー
シェーダー実行リオーダリング (SER) 技術は、以前は非効率だった処理を動的に再編成し、高効率の処理に変えます。SER はレイ トレーシング実行のためのシェーダー性能を最大 3 倍、ゲーム内フレーム レートを最大 25% 向上させることができます。

DLSS 3

生成AIの爆発的な普及により、あらゆる業界で大規模なコンピューティングリソースを導入する必要性が高まっています。パフォーマンス、効率、ROI*[1]向上のため、現代のデータセンターには、複雑なワークロード、高速コンピューティング、グラフィックス、ビデオ処理機能を提供する技術が必要です。
NVIDIA L40Sは、データセンター向けの最も強力なユニバーサルGPUであり、推論とトレーニング、グラフィックス、およびビデオアプリケーションに対して高性能かつ高速な処理を実現します。マルチモーダル*[2]生成 AI のプレミアプラットフォームとして、推論、トレーニング、グラフィックス、ビデオワークフローのエンドtoエンドでの高速処理を可能にし、次世代の AI 対応オーディオ、音声、ビデオ、2Dおよび 3D アプリケーションを強化します。
*[1] Return On Investment(投資利益率)。事業や施策において、投下した資本に対しての収益性を図る指標のこと。
*[2] Multi(複数)とModal(様式)を組み合わせたコンピューター用語。さまざまな種類の情報を利用して高度な判断を行うAIを指す。
GPUリソースの安定確保にむけて
現在、世界的なGPUの急激な需要増加によってNVIDIA H100やNVIDIA A100などのデータセンターGPUの納期が非常に長期化している状況です。ジーデップ・アドバンスでは NVIDIA A100を凌駕したAIトレーニングパフォーマンスを誇る新製品 NVIDIA L40S を搭載した製品ラインナップを増強し、多彩なポートフォリオでお客様のご要望にお応えして参ります。
GPUリソースの安定確保にむけて
現在、世界的なGPUの急激な需要増加によってNVIDIA H100やNVIDIA A100などのデータセンターGPUの納期が非常に長期化している状況です。ジーデップ・アドバンスでは NVIDIA A100を凌駕したAIトレーニングパフォーマンスを誇る新製品 NVIDIA L40S を搭載した製品ラインナップを増強し、多彩なポートフォリオでお客様のご要望にお応えして参ります。
NVIDIA L40S 製品 仕様比較
L40S |
A100 80GB SXM |
|
GPU Architecture |
NVIDIA Ada Lovelace |
NVIDIA Ampere |
FP64 |
N/A |
9.7 TFLOPS |
FP32 |
91.6 TFLOPS |
19.5 TFLOPS |
RT Core |
212 TFLOPS |
N/A |
TF32 TensorCore* |
366 TFLOPS |
312 TFLOPS |
FP16/BF16 Tensor Core* |
733 TFLOPS |
624 TFLOPS |
FP8 Tensor Core* |
1466 TFLOPS |
N/A |
INT8 Tensor Core* |
1466 TOPS |
1248 TOPS |
GPU Memory |
48 GB GDDR6 |
80 GB HBM2e |
GPU Memory Bandwidth |
864 GB/s |
2039 GB/s |
L2 Cache |
96 MB |
40 MB |
Power |
Up to 350 W |
Up to 400 W |
Form Factor |
2-slot FHFL |
8-way HGX |
Interconnect |
PCIe Gen4 x16: 64 GB/s |
PCIe Gen4 x16: 64 GB/s |
強力なAIパフォーマンス
第4世代TensorコアとTransformer Engine、新しい半精度性能(FP8)フォーマットは、NVIDIA A100 Tensor Core GPUの推論性能を最大1.5倍上回ります。18,176個のNVIDIA Ada Lovelace GPUアーキテクチャーCUDA® コアを搭載し、A100の約5倍の単精度性能 (FP32)を提供します。

次世代グラフィックス機能

企業向けデータセンター対応

DLSS3

さらに40GB HBMGPUに加えGPU間を第3世代NV Linkにより400GB/s高速インターコネクトで接続とマルチインスタンスGPU(MIG)による、マルチテナントによるGPUリソースの分割利用が可能になります。
また、「NVIDIA A800 40GB Active」は、デスクサイド ワークステーションにマルチGPU利用してコンピューティングパフォーマンスを高め、AI学習性能、AI推論、CSM(個体力学)、流体力学(CFD)、電磁気学 等のCAEのシュミレーション性能向上により計算時間を縮めます。
尚、本製品には、3年間のNVIDIA AI Enterprise のサブスクリプションが提供されます。
【NVIDIA@ A100 vs A800 比較】
「NVIDIA A800 40GB Active」は、NVIDIA A100と同等仕様を有しており、デスクサイド利用においては A800 40GBの搭載をお勧め致します。
仕様 | A100 40GB PCIe | A800 40GB Active |
GPUメモリー | 40GB HBM2 | |
メモリーインターフェース | 5120-bit | |
メモリー帯域幅 | 1555.2 GB/s | |
CUDA コア | 6912 | |
Tensor コア | 432 | |
倍精度(64)演算性能 | 9.7 TFLOPS | |
単精度(32)演算性能 | 19.5 TFLOPS | |
マルチインスタンス GPU | 最大7MIG | |
NVIDIA NVLink | Yes(×3) | Yes(×2) |
NVLink 帯域幅 | 600GB/s | 400GB/s |
システムインターフェース | PCIe 4.0×16 | |
消費電力 | 250W | 240W |
サーマル | Passive | Active |
フォームファクタ | 4.4"H×10.5" L -デュアルスロット | |
ディスプレイ対応 | 出力無し | |
電力供給コネクタ形状 | 1×CPU-8pin | 1x PCIe CEM5 16-pin |
重さ | 1240g | 1182g |
カタログダウンロードはこちらから
Ampereアーキテクチャを採用

第3世代 Tensor コア

マルチインスタンス GPU (MIG)

40 GB の HBM2 大容量メモリ

PCI Express Gen 4

さらに40GB HBMGPUに加えGPU間を第3世代NV Linkにより400GB/s高速インターコネクトで接続とマルチインスタンスGPU(MIG)による、マルチテナントによるGPUリソースの分割利用が可能になります。
また、「NVIDIA A800 40GB Active」は、デスクサイド ワークステーションにマルチGPU利用してコンピューティングパフォーマンスを高め、AI学習性能、AI推論、CSM(個体力学)、流体力学(CFD)、電磁気学 等のCAEのシュミレーション性能向上により計算時間を縮めます。
尚、本製品には、3年間のNVIDIA AI Enterprise のサブスクリプションが提供されます。
【NVIDIA@ A100 vs A800 比較】
「NVIDIA A800 40GB Active」は、NVIDIA A100と同等仕様を有しており、デスクサイド利用においては A800 40GBの搭載をお勧め致します。
仕様 | A100 40GB PCIe | A800 40GB Active |
GPUメモリー | 40GB HBM2 | |
メモリーインターフェース | 5120-bit | |
メモリー帯域幅 | 1555.2 GB/s | |
CUDA コア | 6912 | |
Tensor コア | 432 | |
倍精度(64)演算性能 | 9.7 TFLOPS | |
単精度(32)演算性能 | 19.5 TFLOPS | |
マルチインスタンス GPU | 最大7MIG | |
NVIDIA NVLink | Yes(×3) | Yes(×2) |
NVLink 帯域幅 | 600GB/s | 400GB/s |
システムインターフェース | PCIe 4.0×16 | |
消費電力 | 250W | 240W |
サーマル | Passive | Active |
フォームファクタ | 4.4"H×10.5" L -デュアルスロット | |
ディスプレイ対応 | 出力無し | |
電力供給コネクタ形状 | 1×CPU-8pin | 1x PCIe CEM5 16-pin |
重さ | 1240g | 1182g |
カタログダウンロードはこちらから
Ampereアーキテクチャを採用

第3世代 Tensor コア

マルチインスタンス GPU (MIG)

40 GB の HBM2 大容量メモリ

PCI Express Gen 4

100G対応カード:NVIDIA Mellanox ConnectX-5 アダプターカードシリーズは、HPC環境に柔軟なソリューションと高性能を提供する製品です。ConnectX-5 VPIは、100Gb/s Infiniband(インフィニバンド)およびEthernet(イーサネット)で動作するポートを実装し、600ナノ秒以下のレイテンシー、非常に高いメッセージレートをサポートしています。
100G対応カード:NVIDIA Mellanox ConnectX-5 アダプターカードシリーズは、HPC環境に柔軟なソリューションと高性能を提供する製品です。ConnectX-5 VPIは、100Gb/s Infiniband(インフィニバンド)およびEthernet(イーサネット)で動作するポートを実装し、600ナノ秒以下のレイテンシー、非常に高いメッセージレートをサポートしています。
100G対応カード:NVIDIA Mellanox ConnectX-5 アダプターカードシリーズは、HPC環境に柔軟なソリューションと高性能を提供する製品です。ConnectX-5 VPIは、100Gb/s Infiniband(インフィニバンド)およびEthernet(イーサネット)で動作するポートを実装し、600ナノ秒以下のレイテンシー、非常に高いメッセージレートをサポートしています。
SB7800シリーズはNVIDIAの36ポートノンブロッキング EDR 100Gb/s インフィニバンド・スマートスイッチです。1Uポートに36個のEDR 100Gb/s双方向フル帯域幅のポートを搭載し、最大7.2Tb/sのノンブロッキング帯域幅と90ナノ秒のポート間遅延という市場で最も高いファブリックパフォーマンスを発揮します。また協調設計アーキテクチャScalable Hierarchical Aggregation Protocol (SHARP)がデータセンターの稼働中の全デバイスの利用を可能にし、組込ハードウェアを利用した通信フレームワークの高速化によりアプリケーションのパフォーマンスを大幅に高めます。managed、unmaneged、P2Cエアフロー、C2Pエアフローの4タイプが用意されています。
NVIDIA MELLANOX SB7800 シリーズ |
36-ポート ノンブロッキング管理型EDR 100Gb/s InfiniBand(インフィニバンド) スマートスイッチ ・19インチラックマウント可能な1U シャーシ ・最大7Tb/s (EDR) のアグリゲートデータスループットを実現する、36のQSFP28 ノンブロッキングポート |
スイッチ仕様 | ・IBTA 1.2/1.3準拠 ・仮想レーンx9 :データx8+管理x1 ・256 – 4Kbyte MTU ・アダプティブルーティング ・輻輳制御 ・ポートミラーリング ・VL2VLマッピング ・4X48K エントリ リニア転送データベース |
管理ポート | ・10/100/1000 Ethernet(イーサネット) ポート ・DB9接続によるRS232ポート ・USBポート ・DHCP ・一般的な業界標準CLI ・IPv6による管理 ・管理IP ・SNMP v1、v2、v3 ・Web UI |
ファブリック管理機能 | ・最大2,000ノードのファブリック管理に対応したオンボードSubnet Manager ・Unified Fabric Manager™(UFM™) Agent |
コネクタとケーブル | ・QSFP28コネクタ ・パッシブカッパーまたはアクティブ光ケーブル ・オプティカルモジュール |
インジケータ | ・ポート別のリンク/稼働状態表示用LED ・システム状態表示用LED:システム、ファン、電源 ・ポートエラー表示用LED ・ユニットID 表示用LED |
物理仕様 | ・サイズ:4.4cm(高さ)x 42.8cm(幅) x 68.6cm(奥行) ・重量:11kg |
パワーサプライ | ・冗長電源用デュアルスロット ・ホットプラグ対応 ・入力電圧レンジ:100~127VAC、200~240VAC ・電源周波数:50~60Hz、単相AC、4.5A、2.9A |
冷却装置 | ・正面から背面あるいは背面から正面へのエアフローによる冷却オプション ・ホットスワップ対応ファンユニット |
消費電力 | ・ATIS仕様に基づく消費電力:136W |
発注型番 | Managed | ポート 数 |
最大転送 レート |
電源 数 |
FRU 構成 |
エア フロー |
筐体の 奥行 |
---|---|---|---|---|---|---|---|
MSB7800-ES2F | ○ | 36 | EDR (Switch-IB2) |
2 | Yes | P2C | Standard |
MSB7800-ES2R | C2P | ||||||
MSB7890-ES2F | × | P2C | |||||
MSB7890-ES2R | C2P |
SB7800シリーズはNVIDIAの36ポートノンブロッキング EDR 100Gb/s インフィニバンド・スマートスイッチです。1Uポートに36個のEDR 100Gb/s双方向フル帯域幅のポートを搭載し、最大7.2Tb/sのノンブロッキング帯域幅と90ナノ秒のポート間遅延という市場で最も高いファブリックパフォーマンスを発揮します。また協調設計アーキテクチャScalable Hierarchical Aggregation Protocol (SHARP)がデータセンターの稼働中の全デバイスの利用を可能にし、組込ハードウェアを利用した通信フレームワークの高速化によりアプリケーションのパフォーマンスを大幅に高めます。managed、unmaneged、P2Cエアフロー、C2Pエアフローの4タイプが用意されています。
NVIDIA MELLANOX SB7800 シリーズ |
36-ポート ノンブロッキング管理型EDR 100Gb/s InfiniBand(インフィニバンド) スマートスイッチ ・19インチラックマウント可能な1U シャーシ ・最大7Tb/s (EDR) のアグリゲートデータスループットを実現する、36のQSFP28 ノンブロッキングポート |
スイッチ仕様 | ・IBTA 1.2/1.3準拠 ・仮想レーンx9 :データx8+管理x1 ・256 – 4Kbyte MTU ・アダプティブルーティング ・輻輳制御 ・ポートミラーリング ・VL2VLマッピング ・4X48K エントリ リニア転送データベース |
管理ポート | ・10/100/1000 Ethernet(イーサネット) ポート ・DB9接続によるRS232ポート ・USBポート ・DHCP ・一般的な業界標準CLI ・IPv6による管理 ・管理IP ・SNMP v1、v2、v3 ・Web UI |
ファブリック管理機能 | ・最大2,000ノードのファブリック管理に対応したオンボードSubnet Manager ・Unified Fabric Manager™(UFM™) Agent |
コネクタとケーブル | ・QSFP28コネクタ ・パッシブカッパーまたはアクティブ光ケーブル ・オプティカルモジュール |
インジケータ | ・ポート別のリンク/稼働状態表示用LED ・システム状態表示用LED:システム、ファン、電源 ・ポートエラー表示用LED ・ユニットID 表示用LED |
物理仕様 | ・サイズ:4.4cm(高さ)x 42.8cm(幅) x 68.6cm(奥行) ・重量:11kg |
パワーサプライ | ・冗長電源用デュアルスロット ・ホットプラグ対応 ・入力電圧レンジ:100~127VAC、200~240VAC ・電源周波数:50~60Hz、単相AC、4.5A、2.9A |
冷却装置 | ・正面から背面あるいは背面から正面へのエアフローによる冷却オプション ・ホットスワップ対応ファンユニット |
消費電力 | ・ATIS仕様に基づく消費電力:136W |
発注型番 | Managed | ポート 数 |
最大転送 レート |
電源 数 |
FRU 構成 |
エア フロー |
筐体の 奥行 |
---|---|---|---|---|---|---|---|
MSB7800-ES2F | ○ | 36 | EDR (Switch-IB2) |
2 | Yes | P2C | Standard |
MSB7800-ES2R | C2P | ||||||
MSB7890-ES2F | × | P2C | |||||
MSB7890-ES2R | C2P |
QM8700シリーズ - メラノックスQuantum™ HDR 200Gb/s InfiniBandスマートスイッチ
QM8700シリーズはNVIDIAの40ポートノンブロッキング HDR 200Gb/s インフィニバンド・スマートスイッチです。1Uポートに40個のHDR 200Gb/s双方向フル帯域幅のポートを搭載し、最大16Tb/sのノンブロッキング帯域幅と130ナノ秒のポート間遅延という市場で最も高いファブリックパフォーマンスを発揮します。また協調設計アーキテクチャScalable Hierarchical Aggregation Protocol (SHARP)がデータセンターの稼働中の全デバイスの利用を可能にし、組込ハードウェアを利用した通信フレームワークの高速化によりアプリケーションのパフォーマンスを大幅に高めます。managed、unmaneged、P2Cエアフロー、C2Pエアフローの4タイプが用意されています。
NVIDIA MELLANOX QM8700 シリーズ |
40-ポート ノンブロッキング管理型/外部管理型 HDR 200Gb/s InfiniBand(インフィニバンド) スマートスイッチ ・19インチラックマウント可能な1U シャーシ ・最大16Tb/s (HDR) のアグリゲートデータスループットを実現する、40のQSFP56 ノンブロッキングポート |
スイッチ仕様 | ・IBTA 1.21/1.3準拠 ・仮想レーンx9 :データx8+管理x1 ・256 – 4Kbyte MTU ・アダプティブルーティング ・輻輳制御 ・ポートミラーリング ・VL2VLマッピング ・4X48K エントリ リニア転送データベース |
管理ポート | ・100/1000 RJ45 Ethernet(イーサネット) ポート ・RS232 コンソールポート ・USBポート ・DHCP ・業界標準のCLI ・IPv6による管理 ・管理IP ・SNMP v1、v2、v3 ・Web UI |
ファブリック管理機能 | ・最大2,000ノードのファブリック管理に対応したオンボードSubnet Manager ・Unified Fabric Manager™(UFM™) Agent |
コネクタとケーブル | ・QSFP56コネクタ ・パッシブカッパーまたはアクティブ光ケーブル ・オプティカルモジュール |
インジケータ | ・ポート別のリンク/稼働状態表示用LED ・システム状態表示用LED:システム、ファン、電源 ・ポートエラー表示用LED ・ユニットID 表示用LED |
パワーサプライ | ・冗長電源用デュアルスロット ・ホットプラグ対応 ・入力電圧レンジ:100~127VAC、200~240VAC ・電源周波数:50~60Hz、単相AC、4.5A、2.9A |
冷却装置 | ・正面から背面あるいは背面から正面へのエアフローによる冷却オプション ・ホットスワップ対応ファンユニット |
消費電力 | ・常温で最大スループットを得るための定常消費電力: - すべてのポートにAOCを接続:650W - すべてのポートにDACを接続:450W |
発注型番 | Managed | ポート 数 |
最大転送 レート |
電源 数 |
FRU 構成 |
エア フロー |
筐体の 奥行 |
---|---|---|---|---|---|---|---|
MQM8700-HS2F | ○ | 40 | 200Gb/s HDR (Quantum™) |
2 | Yes | P2C | Standard |
MQM8700-HS2R | C2P | ||||||
MQM8790-HS2F | × | P2C | |||||
MQM8790-HS2R | C2P |
QM8700シリーズ - メラノックスQuantum™ HDR 200Gb/s InfiniBandスマートスイッチ
QM8700シリーズはNVIDIAの40ポートノンブロッキング HDR 200Gb/s インフィニバンド・スマートスイッチです。1Uポートに40個のHDR 200Gb/s双方向フル帯域幅のポートを搭載し、最大16Tb/sのノンブロッキング帯域幅と130ナノ秒のポート間遅延という市場で最も高いファブリックパフォーマンスを発揮します。また協調設計アーキテクチャScalable Hierarchical Aggregation Protocol (SHARP)がデータセンターの稼働中の全デバイスの利用を可能にし、組込ハードウェアを利用した通信フレームワークの高速化によりアプリケーションのパフォーマンスを大幅に高めます。managed、unmaneged、P2Cエアフロー、C2Pエアフローの4タイプが用意されています。
NVIDIA MELLANOX QM8700 シリーズ |
40-ポート ノンブロッキング管理型/外部管理型 HDR 200Gb/s InfiniBand(インフィニバンド) スマートスイッチ ・19インチラックマウント可能な1U シャーシ ・最大16Tb/s (HDR) のアグリゲートデータスループットを実現する、40のQSFP56 ノンブロッキングポート |
スイッチ仕様 | ・IBTA 1.21/1.3準拠 ・仮想レーンx9 :データx8+管理x1 ・256 – 4Kbyte MTU ・アダプティブルーティング ・輻輳制御 ・ポートミラーリング ・VL2VLマッピング ・4X48K エントリ リニア転送データベース |
管理ポート | ・100/1000 RJ45 Ethernet(イーサネット) ポート ・RS232 コンソールポート ・USBポート ・DHCP ・業界標準のCLI ・IPv6による管理 ・管理IP ・SNMP v1、v2、v3 ・Web UI |
ファブリック管理機能 | ・最大2,000ノードのファブリック管理に対応したオンボードSubnet Manager ・Unified Fabric Manager™(UFM™) Agent |
コネクタとケーブル | ・QSFP56コネクタ ・パッシブカッパーまたはアクティブ光ケーブル ・オプティカルモジュール |
インジケータ | ・ポート別のリンク/稼働状態表示用LED ・システム状態表示用LED:システム、ファン、電源 ・ポートエラー表示用LED ・ユニットID 表示用LED |
パワーサプライ | ・冗長電源用デュアルスロット ・ホットプラグ対応 ・入力電圧レンジ:100~127VAC、200~240VAC ・電源周波数:50~60Hz、単相AC、4.5A、2.9A |
冷却装置 | ・正面から背面あるいは背面から正面へのエアフローによる冷却オプション ・ホットスワップ対応ファンユニット |
消費電力 | ・常温で最大スループットを得るための定常消費電力: - すべてのポートにAOCを接続:650W - すべてのポートにDACを接続:450W |
発注型番 | Managed | ポート 数 |
最大転送 レート |
電源 数 |
FRU 構成 |
エア フロー |
筐体の 奥行 |
---|---|---|---|---|---|---|---|
MQM8700-HS2F | ○ | 40 | 200Gb/s HDR (Quantum™) |
2 | Yes | P2C | Standard |
MQM8700-HS2R | C2P | ||||||
MQM8790-HS2F | × | P2C | |||||
MQM8790-HS2R | C2P |
SN2100システムは、1Uスペースに2台収納可能な高密度100ギガビットEthernetスイッチです。16ポートのQSFP28ポートはポート毎に40/56/100ギガビットの幅広いポートスピードに対応。さらに最大64の10/25Gb や 32の50GbEポートにも対応します。1Uサイズでのスイッチ冗長化にも対応しコンパクトかつ広帯域を求めるシステムに最適なハーフサイズネットワークスイッチです。
OS3種類 Mellanox ONYX、Cumulus Linux、ONIE x エアフロー2種類 P2C、C2P、の計6タイプが用意されています。
物理仕様 | サイズ | 43.8mm (H) x 200mm (W) x 508mm (D) |
---|---|---|
マウント | 19インチラックマウント | |
重量 | 4.540kg | |
スピード | 10/25/40/50/56/100GbE per port | |
コネクタ | 16ポートxQSFP28 | |
電源 | 入力電圧 | 100-127VAC 50/60Hz 4.5A; 200-240 50/60Hz 2.9A |
グローバル 消費電力 |
●40GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(SR4ケーブル利用時) (QSFP28ポートあたり1.5W想定): 216.6W |
|
●100GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(オプティカルケーブル利用時) (QSFP28ポートあたり3.5W想定): 248.6W |
||
主な デバイス |
CPU | Intel x86 2.40GHz Quad Core |
PCIe | 4x Gen2.0 | |
スイッチ | Mellanox Spectrum™ | |
メモリ | ・SDRAM: 8GB DDR3L 1600 MT/s SO-DIMM ・Storage: 16GB Dual Channel MLC M.2-SATA SSD |
|
スループット | 3.2Tb/s |
SN2100システムは、1Uスペースに2台収納可能な高密度100ギガビットEthernetスイッチです。16ポートのQSFP28ポートはポート毎に40/56/100ギガビットの幅広いポートスピードに対応。さらに最大64の10/25Gb や 32の50GbEポートにも対応します。1Uサイズでのスイッチ冗長化にも対応しコンパクトかつ広帯域を求めるシステムに最適なハーフサイズネットワークスイッチです。
OS3種類 Mellanox ONYX、Cumulus Linux、ONIE x エアフロー2種類 P2C、C2P、の計6タイプが用意されています。
物理仕様 | サイズ | 43.8mm (H) x 200mm (W) x 508mm (D) |
---|---|---|
マウント | 19インチラックマウント | |
重量 | 4.540kg | |
スピード | 10/25/40/50/56/100GbE per port | |
コネクタ | 16ポートxQSFP28 | |
電源 | 入力電圧 | 100-127VAC 50/60Hz 4.5A; 200-240 50/60Hz 2.9A |
グローバル 消費電力 |
●40GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(SR4ケーブル利用時) (QSFP28ポートあたり1.5W想定): 216.6W |
|
●100GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(オプティカルケーブル利用時) (QSFP28ポートあたり3.5W想定): 248.6W |
||
主な デバイス |
CPU | Intel x86 2.40GHz Quad Core |
PCIe | 4x Gen2.0 | |
スイッチ | Mellanox Spectrum™ | |
メモリ | ・SDRAM: 8GB DDR3L 1600 MT/s SO-DIMM ・Storage: 16GB Dual Channel MLC M.2-SATA SSD |
|
スループット | 3.2Tb/s |
SN2100システムは、1Uスペースに2台収納可能な高密度100ギガビットEthernetスイッチです。16ポートのQSFP28ポートはポート毎に40/56/100ギガビットの幅広いポートスピードに対応。さらに最大64の10/25Gb や 32の50GbEポートにも対応します。1Uサイズでのスイッチ冗長化にも対応しコンパクトかつ広帯域を求めるシステムに最適なハーフサイズネットワークスイッチです。
OS3種類 Mellanox ONYX、Cumulus Linux、ONIE x エアフロー2種類 P2C、C2P、の計6タイプが用意されています。
物理仕様 | サイズ | 43.8mm (H) x 200mm (W) x 508mm (D) |
---|---|---|
マウント | 19インチラックマウント | |
重量 | 4.540kg | |
スピード | 10/25/40/50/56/100GbE per port | |
コネクタ | 16ポートxQSFP28 | |
電源 | 入力電圧 | 100-127VAC 50/60Hz 4.5A; 200-240 50/60Hz 2.9A |
グローバル 消費電力 |
●40GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(SR4ケーブル利用時) (QSFP28ポートあたり1.5W想定): 216.6W |
|
●100GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(オプティカルケーブル利用時) (QSFP28ポートあたり3.5W想定): 248.6W |
||
主な デバイス |
CPU | Intel x86 2.40GHz Quad Core |
PCIe | 4x Gen2.0 | |
スイッチ | Mellanox Spectrum™ | |
メモリ | ・SDRAM: 8GB DDR3L 1600 MT/s SO-DIMM ・Storage: 16GB Dual Channel MLC M.2-SATA SSD |
|
スループット | 3.2Tb/s |
AI 推論は、スマートでリアルタイムな体験で消費者の生活の質を高め、エンドポイントに設置された無数のセンサーとカメラからインサイトを得るために展開されます。CPU のみのサーバーと比較した場合、NVIDIA A2 Tensor コア GPU 搭載のエッジおよびエントリ レベルのサーバーは、推論で最大 20 倍のパフォーマンスを発揮し、最新の AI を処理できるよう、あらゆるサーバーを一瞬でアップグレードします。
クラウドで、データ センターで、エッジで、業界をリードする AI 推論パフォーマンス

NVIDIA AI ENTERPRISE

メインストリームの NVIDIA-Certified Systems

NVIDIA Ampere アーキテクチャのパワー

NVIDIA Ada Lovelace アーキテクチャ採用の CUDA コア

第 3 世代 RT コア

第 4 世代 Tensor コア

20 ギガバイト (GB) の GPU メモリ

AV1 エンコーダー

【同梱物】
・保証書
・保証書
・クイックスタートガイド
・サポートガイド
・mDP to DP変換アダプター
・ATXブラケット
QM9700シリーズはNVIDIAの64ポートノンブロッキング NDR 400Gb/s インフィニバンド・スマートスイッチです。
1U筐体に、64個のNDR 400Gb/s双方向フル帯域幅のポートを搭載し、最大51.2Tb/sの双方向スループットを実現しています。
また、32ポートのoctal small form-factor pluggable (OSFP) コネクタを搭載。NVIDIAポートスプリットテクノロジーを実装することにより、QM970シリーズは、200Gb /sのデータ速度の倍密度基数を提供し、ネットワーク設計とネットワークトポロジのコストを削減します。
最大128ポートの200Gb/sをサポートするNVIDIAは、市場で入手可能な最も高密度のトップオブラック(TOR)スイッチを提供します。
QM9700シリーズのスイッチを使用すると、中小規模の展開で2レベルのFat Treeトポロジーに拡張するると同時に、電力、遅延、およびスペースの要件を削減できます。
managed、unmaneged、P2Cエアフローの他に、C2Pエアフロータイプもございます。
C2Pをお探しの場合はご相談くださいませ。
NVIDIA Ada Lovelace アーキテクチャ採用の CUDA コア

第 3 世代 RT コア

第 4 世代 Tensor コア

20 ギガバイト (GB) の GPU メモリ

AV1 エンコーダー

・保証書
・保証書
・クイックスタートガイド
・サポートガイド
・mDP to DP変換アダプター
・ATXブラケット
QM9700シリーズはNVIDIAの64ポートノンブロッキング NDR 400Gb/s インフィニバンド・スマートスイッチです。
1U筐体に、64個のNDR 400Gb/s双方向フル帯域幅のポートを搭載し、最大51.2Tb/sの双方向スループットを実現しています。
また、32ポートのoctal small form-factor pluggable (OSFP) コネクタを搭載。NVIDIAポートスプリットテクノロジーを実装することにより、QM970シリーズは、200Gb /sのデータ速度の倍密度基数を提供し、ネットワーク設計とネットワークトポロジのコストを削減します。
最大128ポートの200Gb/sをサポートするNVIDIAは、市場で入手可能な最も高密度のトップオブラック(TOR)スイッチを提供します。
QM9700シリーズのスイッチを使用すると、中小規模の展開で2レベルのFat Treeトポロジーに拡張するると同時に、電力、遅延、およびスペースの要件を削減できます。
managed、unmaneged、P2Cエアフローの他に、C2Pエアフロータイプもございます。
C2Pをお探しの場合はご相談くださいませ。
NVIDIA H100 Tensor Core GPU は、2022年3月のNVIDIA社のイベントGTC2022 Spring で発表された新しいアーキテクチャのGPGPU製品です。TMSCの4nm プロセスルールを採用し814平方mmのダイサイズに、従来のA100の約1.5倍にあたる800億個のトランジスタを搭載したまさに史上最大にして最速のGPUであり、倍精度・単精度をはじめ多様な精度を兼ね備え、マルチインスタンスGPU(MIG)機能により1つのGPUで最大7つのジョブを同時に実行可能。世界で最も困難な計算に AI、データ分析、 HPC分野で驚異的な性能を発揮します。
NVIDIA H100についての詳細情報
※本製品は消費電力が非常に高くNVIDIAが認定したシステムにのみ搭載が可能です。動作認証済のシステムや搭載方法については弊社までご相談下さい。
変革的 AI トレーニング


リアルタイム ディープラーニング推論
H100 では、推論が最大 30 倍高速化になる、レイテンシが最小限に抑えられるなど、機能が強化されます。それにより、市場をリードする NVIDIA の推論のリーダーシップをさらに拡大します。第 4 世代の Tensor コアは FP64、TF32、FP32、FP16、INT8 など、あらゆる精度をスピードアップします。Transformer Engine は FP8 と FP16 の両方を活用してメモリ消費を減らしてパフォーマンスを増やしつつ、大規模な言語モデルで精度を維持します。


エクサスケール ハイパフォーマンス コンピューティング
NVIDIA データ センター プラットフォームは、ムーアの法則を超えるパフォーマンス向上を継続的に提供します。また、H100 の新しい画期的な AI 機能は、HPC+AI のパワーをさらに増幅し、世界の最重要課題の解決に取り組む科学者や研究者にとって、発見までの時間が加速されます。
H100 は、倍精度 Tensor コアの毎秒浮動小数点演算 (FLOPS) を 3 倍にし、HPC で 60 teraFLOPS の FP64 コンピューティングを実現します。AI と融合した HPC アプリケーションでは、H100 の TF32 精度を活用し、コードの変更なしに、単精度行列乗算演算で 1 petaFLOP のスループットを達成することができます。
H100 はまた、DPX 命令を備え、NVIDIA A100 Tensor コア GPU の 7 倍のパフォーマンスを提供し、DNA シーケンス アライメント用の Smith-Waterman など、動的プログラミング アルゴリズムにおいて従来のデュアルソケット CPU のみのサーバーと比較して 40 倍の高速化を実現します。

データ分析
H100 で高速化するサーバー、GPU ごとに毎秒 3 テラバイトのメモリ帯域幅、NVLink と NVSwitch によるスケーラビリティなら、膨大なデータセットに対処するハイパフォーマンスとスケールでデータを分析できます。NVIDIA Quantum-2 Infiniband、Magnum IO ソフトウェア、GPU 高速化 Spark 3.0、NVIDIA RAPIDS™ と組み合わせることで、NVIDIA データ センター プラットフォームは、かつてないレベルのパフォーマンスと効率性で膨大なワークロードを、他にはない方法で、高速化できます。

企業で効率的に利用
T マネージャーはデータ センターでコンピューティング リソースの利用率 (ピークと平均の両方) を最大化することを求めます。多くの場合、コンピューティングを動的に再構成し、使用中のワークロードに合わせてリソースを正しいサイズに変更します。
H100 の第 2 世代のマルチインスタンス GPU (MIG) は、最大 7 つのインスタンスに安全に分割することで、各 GPU の利用率を最大化します。コンフィデンシャル コンピューティングをサポートする H100 は、クラウド サービス プロバイダー (CSP) 環境に理想的な、エンドツーエンドで安全なマルチテナント利用を可能にします。
H100 と MIG なら、インフラストラクチャ管理者は GPU アクセラレーテッド インフラストラクチャを標準化できて、同時に、GPU リソースを非常に細かくプロビジョニングできます。正しい量のアクセラレーテッド コンピューティングが安全に開発者に与えられ、GPU リソースの利用を最適化します。

NVIDIA RTX™ 5000 Ada 世代 は、あらゆる業界で最高の仕事と画期的なイノベーションを実現するために最大のパフォーマンスと信頼性を求めるプロフェッショナル向けに設計された、究極のワークステーショングラフィックスカードです。 RTX 5000 は、ハイエンドデザイン、リアルタイムレンダリング、AI、および高性能コンピューティングワークフローに不可欠な比類のないパフォーマンスと機能を提供します。
NVIDIA Ada Lovelace アーキテクチャに基づいて構築された RTX 5000 は、100 個の第 3 世代 RTコア、400 個の第 4 世代 Tensorコア、および 12,800 個の CUDA® コアと 32GB のエラー訂正コード 付き(ECC) グラフィックス メモリを組み合わせています。
次世代の AI グラフィックスと petaFLOPS 推論パフォーマンスを提供し、レンダリング、AI、グラフィックス、コンピューティング ワークロードを高速化します。
NVIDIA RTX プロフェッショナルグラフィックスカードは、幅広いプロフェッショナルアプリケーションで認定されており、主要な独立系ソフトウェアベンダー (ISV) およびワークステーションメーカーによってテストされ、サポートスペシャリストのグローバルチームによって支えられています。ミッションクリティカルなビジネス向けの最高のビジュアルコンピューティングソリューションで安心して重要なことに集中できます。
新コアAda Lovelace
Ada Lovelaceアーキテクチャは、2018年に発表されたTuring(チューリング)、2020年に投入されたAmpere(アンペア)に続く同社がRTXと呼んでいるハードウエア・レイトレーシングのエンジン(RTコア)を内蔵したGPUアーキテクチャの第3世代となります。(NVIDIA GPUの開発コードネームは過去の科学者の名前に基づいており、今回のAda Lovelaceも、世界初のコンピュータプログラマーとして知られる19世紀のイギリスの数学者の名前が元になっています。)
Ada Lovelaceの最大の特徴は、NVIDIAがGPC、TPC、SM、CUDAコアと呼んでいる演算器がいずれも増えていることあり、AmpereではGPCが最大7基だったのに対して、Ada Lovelaceでは最大12基に増加しています。これはTuring世代に比べると倍、Ampere世代に比較すると71%も増えていることになり、それに比例してTPCも、SMも、CUDAコアも71%増加しており大きな性能向上が期待できます。

第4世代Tensorコア
Ada の新しい第 4 世代 Tensor コアは、NVIDIA の Hopper H100 データセンター GPU で初めて導入された、新しい FP8 Transformer エンジンを使用して、驚異的に速い、最大 5 倍のスループットの向上と、1.4 Tensor-petaFLOPS の性能を実現します。

第 3 世代の RT コア
Ada の第 3 世代 RT コアは、レイ-トライアングル交差のスループットが 2 倍になり、RT-TFLOP 性能が 2 倍以上向上します。
新しい RT コアには、新しい Opacity Micromap (OMM) エンジンと新しい Displaced Micro-Mesh (DMM) エンジンも含まれています。OMM エンジンは、葉、粒子、格子によく使用されるアルファテストされたテクスチャのレイ トレーシングをより高速に実現します。DMM エンジンは、バウンディング ボリューム階層 (BVH) の構築時間を最大 10 倍高速化し、容量を最大 20 倍削減することで、ジオメトリが複雑な場面のリアルタイム レイ トレーシングを実現します。

シェーダー実行リオーダー
シェーダー実行リオーダリング (SER) 技術は、以前は非効率だった処理を動的に再編成し、高効率の処理に変えます。SER はレイ トレーシング実行のためのシェーダー性能を最大 3 倍、ゲーム内フレーム レートを最大 25% 向上させることができます。

DLSS 3

※仕様などは予告なしに変更されることがあります。
※1 ピークレートはGPUブーストクロックに基づいています。
※2 新しいスパース性機能を使用した効果的なFP8 TFLOPS。
※3 ディスプレイポートは、RTX 5000 Ada世代のデフォルトでオンになっています。vGPUソフトウェアを使用している場合、ディスプレイポートはアクティブになりません。RTX 5000 Ada 世代の仮想化サポートは、2023 年第 3 四半期に予定されている今後の NVIDIA 仮想 GPU (vGPU) リリースで利用できるようになります。
NVIDIA RTX™ 4500 Ada 世代 は、あらゆる業界で最高の仕事と画期的なイノベーションを実現するために最大のパフォーマンスと信頼性を求めるプロフェッショナル向けに設計された、究極のワークステーショングラフィックスカードです。 RTX 4500 は、ハイエンドデザイン、リアルタイムレンダリング、AI、および高性能コンピューティングワークフローに不可欠な比類のないパフォーマンスと機能を提供します。
NVIDIA Ada Lovelace アーキテクチャに基づいて構築された RTX 4500 は、60 個の第 3 世代 RTコア、240 個の第 4 世代 Tensorコア、および 7,680 個の CUDA® コアと 24GB のエラー訂正コード 付き(ECC) グラフィックス メモリを組み合わせています。
次世代の AI グラフィックスと petaFLOPS 推論パフォーマンスを提供し、レンダリング、AI、グラフィックス、コンピューティング ワークロードを高速化します。
NVIDIA RTX プロフェッショナルグラフィックスカードは、幅広いプロフェッショナルアプリケーションで認定されており、主要な独立系ソフトウェアベンダー (ISV) およびワークステーションメーカーによってテストされ、サポートスペシャリストのグローバルチームによって支えられています。ミッションクリティカルなビジネス向けの最高のビジュアルコンピューティングソリューションで安心して重要なことに集中できます。
新コアAda Lovelace
Ada Lovelaceアーキテクチャは、2018年に発表されたTuring(チューリング)、2020年に投入されたAmpere(アンペア)に続く同社がRTXと呼んでいるハードウエア・レイトレーシングのエンジン(RTコア)を内蔵したGPUアーキテクチャの第3世代となります。(NVIDIA GPUの開発コードネームは過去の科学者の名前に基づいており、今回のAda Lovelaceも、世界初のコンピュータプログラマーとして知られる19世紀のイギリスの数学者の名前が元になっています。)
Ada Lovelaceの最大の特徴は、NVIDIAがGPC、TPC、SM、CUDAコアと呼んでいる演算器がいずれも増えていることあり、AmpereではGPCが最大7基だったのに対して、Ada Lovelaceでは最大12基に増加しています。これはTuring世代に比べると倍、Ampere世代に比較すると71%も増えていることになり、それに比例してTPCも、SMも、CUDAコアも71%増加しており大きな性能向上が期待できます。

第4世代Tensorコア
Ada の新しい第 4 世代 Tensor コアは、NVIDIA の Hopper H100 データセンター GPU で初めて導入された、新しい FP8 Transformer エンジンを使用して、驚異的に速い、最大 5 倍のスループットの向上と、1.4 Tensor-petaFLOPS の性能を実現します。

第 3 世代の RT コア
Ada の第 3 世代 RT コアは、レイ-トライアングル交差のスループットが 2 倍になり、RT-TFLOP 性能が 2 倍以上向上します。
新しい RT コアには、新しい Opacity Micromap (OMM) エンジンと新しい Displaced Micro-Mesh (DMM) エンジンも含まれています。OMM エンジンは、葉、粒子、格子によく使用されるアルファテストされたテクスチャのレイ トレーシングをより高速に実現します。DMM エンジンは、バウンディング ボリューム階層 (BVH) の構築時間を最大 10 倍高速化し、容量を最大 20 倍削減することで、ジオメトリが複雑な場面のリアルタイム レイ トレーシングを実現します。

シェーダー実行リオーダー
シェーダー実行リオーダリング (SER) 技術は、以前は非効率だった処理を動的に再編成し、高効率の処理に変えます。SER はレイ トレーシング実行のためのシェーダー性能を最大 3 倍、ゲーム内フレーム レートを最大 25% 向上させることができます。


※仕様などは予告なしに変更されることがあります。
※1 ピークレートはGPUブーストクロックに基づいています。
※2 新しいスパース性機能を使用した効果的なFP8 TFLOPS。
※3 ディスプレイポートは、RTX 4500 Ada世代のデフォルトでオンになっています。
NVIDIA RTX™ 4000 Ada 世代 は、あらゆる業界で最高の仕事と画期的なイノベーションを実現するために最大のパフォーマンスと信頼性を求めるプロフェッショナル向けに設計された、究極のワークステーショングラフィックスカードです。 RTX 4000 は、ハイエンドデザイン、リアルタイムレンダリング、AI、および高性能コンピューティングワークフローに不可欠な比類のないパフォーマンスと機能を提供します。
NVIDIA RTX™ 4000 Ada Generationは、最も強力なシングルスロットGPUです。専門家のために、AIのための驚くべき加速、リアルタイムレンダリング、グラフィックス、およびコンピューティングワークロードをデスクトップに提供します。NVIDIA Ada Lovelace 上に構築されたアーキテクチャ、RTX 4000は48の第3世代RTコア、192の第4世代RTコアを組み合わせ、6,144GBのグラフィックメモリを備えた20個のCUDA®コアにより簡単に大規模なデータセットと複雑なビジュアルワークロードを処理します。
NVIDIA RTX プロフェッショナルグラフィックスカードは、幅広いプロフェッショナルアプリケーションで認定されており、主要な独立系ソフトウェアベンダー (ISV) およびワークステーションメーカーによってテストされ、サポートスペシャリストのグローバルチームによって支えられています。ミッションクリティカルなビジネス向けの最高のビジュアルコンピューティングソリューションで安心して重要なことに集中できます。
新コアAda Lovelace
Ada Lovelaceアーキテクチャは、2018年に発表されたTuring(チューリング)、2020年に投入されたAmpere(アンペア)に続く同社がRTXと呼んでいるハードウエア・レイトレーシングのエンジン(RTコア)を内蔵したGPUアーキテクチャの第3世代となります。(NVIDIA GPUの開発コードネームは過去の科学者の名前に基づいており、今回のAda Lovelaceも、世界初のコンピュータプログラマーとして知られる19世紀のイギリスの数学者の名前が元になっています。)
Ada Lovelaceの最大の特徴は、NVIDIAがGPC、TPC、SM、CUDAコアと呼んでいる演算器がいずれも増えていることあり、AmpereではGPCが最大7基だったのに対して、Ada Lovelaceでは最大12基に増加しています。これはTuring世代に比べると倍、Ampere世代に比較すると71%も増えていることになり、それに比例してTPCも、SMも、CUDAコアも71%増加しており大きな性能向上が期待できます。

第4世代Tensorコア
Ada の新しい第 4 世代 Tensor コアは、NVIDIA の Hopper H100 データセンター GPU で初めて導入された、新しい FP8 Transformer エンジンを使用して、驚異的に速い、最大 5 倍のスループットの向上と、1.4 Tensor-petaFLOPS の性能を実現します。

第 3 世代の RT コア
Ada の第 3 世代 RT コアは、レイ-トライアングル交差のスループットが 2 倍になり、RT-TFLOP 性能が 2 倍以上向上します。
新しい RT コアには、新しい Opacity Micromap (OMM) エンジンと新しい Displaced Micro-Mesh (DMM) エンジンも含まれています。OMM エンジンは、葉、粒子、格子によく使用されるアルファテストされたテクスチャのレイ トレーシングをより高速に実現します。DMM エンジンは、バウンディング ボリューム階層 (BVH) の構築時間を最大 10 倍高速化し、容量を最大 20 倍削減することで、ジオメトリが複雑な場面のリアルタイム レイ トレーシングを実現します。

シェーダー実行リオーダー
シェーダー実行リオーダリング (SER) 技術は、以前は非効率だった処理を動的に再編成し、高効率の処理に変えます。SER はレイ トレーシング実行のためのシェーダー性能を最大 3 倍、ゲーム内フレーム レートを最大 25% 向上させることができます。

DLSS 3

※仕様などは予告なしに変更されることがあります。
※1 ピークレートはGPUブーストクロックに基づいています。
※2 新しいスパース性機能を使用した効果的なFP8 TFLOPS。
※3 ディスプレイポートは、RTX 4000 Ada世代のデフォルトでオンになっています。

さらに、2枚の「H100 NVL」をNVLink(TM)で接続することにより188GBの広大なメモリ空間を実現し、各GPU間は600GB/sの広帯域で疎通可能で生成AIのような大規模AIモデルの学習に最適なハイエンドスペックとなっています。米OpenAI社がChat GPT-3(GPT-175Bモデル)の開発に利用したNVIDIA A100と比較して最大12倍の高速化を実現します。また、H100 NVLはPCI Gen5 で搭載が可能ですので、既存のGPUサーバーインフラで置換や増設も可能です。
※本製品は消費電力が非常に高くNVIDIAが認定したシステムにのみ搭載が可能です。動作認証済のシステムや搭載方法については弊社までご相談下さい。
※NVLinkでのGPU接続は、NVIDIA H100 NVL を2枚接続する際に有効です。異なるGPUカードや、同じH100シリーズでも40GBや80GBのカードとの接続は動作保障外となりますのでご注意ください。
大容量94GB HBM3eメモリを搭載

大規模AIに特化した設計

リアルタイム ディープラーニング推論
H100 では、推論が最大 30 倍高速化になる、レイテンシが最小限に抑えられるなど、機能が強化されます。それにより、市場をリードする NVIDIA の推論のリーダーシップをさらに拡大します。第 4 世代の Tensor コアは FP64、TF32、FP32、FP16、INT8 など、あらゆる精度をスピードアップします。Transformer Engine は FP8 と FP16 の両方を活用してメモリ消費を減らしてパフォーマンスを増やしつつ、大規模な言語モデルで精度を維持します。

エクサスケール ハイパフォーマンス コンピューティング
H100 は、倍精度 Tensor コアの毎秒浮動小数点演算 (FLOPS) を 3 倍にし、HPC で 60 teraFLOPS の FP64 コンピューティングを実現します。AI と融合した HPC アプリケーションでは、H100 の TF32 精度を活用し、コードの変更なしに、単精度行列乗算演算で 1 petaFLOP のスループットを達成することができます。
H100 はまた、DPX 命令を備え、NVIDIA A100 Tensor コア GPU の 7 倍のパフォーマンスを提供し、DNA シーケンス アライメント用の Smith-Waterman など、動的プログラミング アルゴリズムにおいて従来のデュアルソケット CPU のみのサーバーと比較して 40 倍の高速化を実現します。

PCI Express Gen5接続


さらに、2枚の「H100 NVL」をNVLink(TM)で接続することにより188GBの広大なメモリ空間を実現し、各GPU間は600GB/sの広帯域で疎通可能で生成AIのような大規模AIモデルの学習に最適なハイエンドスペックとなっています。米OpenAI社がChat GPT-3(GPT-175Bモデル)の開発に利用したNVIDIA A100と比較して最大12倍の高速化を実現します。また、H100 NVLはPCI Gen5 で搭載が可能ですので、既存のGPUサーバーインフラで置換や増設も可能です。
※本製品は消費電力が非常に高くNVIDIAが認定したシステムにのみ搭載が可能です。動作認証済のシステムや搭載方法については弊社までご相談下さい。
※NVLinkでのGPU接続は、NVIDIA H100 NVL を2枚接続する際に有効です。異なるGPUカードや、同じH100シリーズでも40GBや80GBのカードとの接続は動作保障外となりますのでご注意ください。
大容量94GB HBM3eメモリを搭載

大規模AIに特化した設計

リアルタイム ディープラーニング推論
H100 では、推論が最大 30 倍高速化になる、レイテンシが最小限に抑えられるなど、機能が強化されます。それにより、市場をリードする NVIDIA の推論のリーダーシップをさらに拡大します。第 4 世代の Tensor コアは FP64、TF32、FP32、FP16、INT8 など、あらゆる精度をスピードアップします。Transformer Engine は FP8 と FP16 の両方を活用してメモリ消費を減らしてパフォーマンスを増やしつつ、大規模な言語モデルで精度を維持します。

エクサスケール ハイパフォーマンス コンピューティング
H100 は、倍精度 Tensor コアの毎秒浮動小数点演算 (FLOPS) を 3 倍にし、HPC で 60 teraFLOPS の FP64 コンピューティングを実現します。AI と融合した HPC アプリケーションでは、H100 の TF32 精度を活用し、コードの変更なしに、単精度行列乗算演算で 1 petaFLOP のスループットを達成することができます。
H100 はまた、DPX 命令を備え、NVIDIA A100 Tensor コア GPU の 7 倍のパフォーマンスを提供し、DNA シーケンス アライメント用の Smith-Waterman など、動的プログラミング アルゴリズムにおいて従来のデュアルソケット CPU のみのサーバーと比較して 40 倍の高速化を実現します。

PCI Express Gen5接続

さらに、2枚の「H100 NVL」をNVLink(TM)で接続することにより188GBの広大なメモリ空間を実現し、各GPU間は600GB/sの広帯域で疎通可能で生成AIのような大規模AIモデルの学習に最適なハイエンドスペックとなっています。米OpenAI社がChat GPT-3(GPT-175Bモデル)の開発に利用したNVIDIA A100と比較して最大12倍の高速化を実現します。また、H100 NVLはPCI Gen5 で搭載が可能ですので、既存のGPUサーバーインフラで置換や増設も可能です。
※本製品は消費電力が非常に高くNVIDIAが認定したシステムにのみ搭載が可能です。動作認証済のシステムや搭載方法については弊社までご相談下さい。
※NVLinkでのGPU接続は、NVIDIA H100 NVL を2枚接続する際に有効です。異なるGPUカードや、同じH100シリーズでも40GBや80GBのカードとの接続は動作保障外となりますのでご注意ください。
大容量94GB HBM3eメモリを搭載

大規模AIに特化した設計

リアルタイム ディープラーニング推論
H100 では、推論が最大 30 倍高速化になる、レイテンシが最小限に抑えられるなど、機能が強化されます。それにより、市場をリードする NVIDIA の推論のリーダーシップをさらに拡大します。第 4 世代の Tensor コアは FP64、TF32、FP32、FP16、INT8 など、あらゆる精度をスピードアップします。Transformer Engine は FP8 と FP16 の両方を活用してメモリ消費を減らしてパフォーマンスを増やしつつ、大規模な言語モデルで精度を維持します。

エクサスケール ハイパフォーマンス コンピューティング
H100 は、倍精度 Tensor コアの毎秒浮動小数点演算 (FLOPS) を 3 倍にし、HPC で 60 teraFLOPS の FP64 コンピューティングを実現します。AI と融合した HPC アプリケーションでは、H100 の TF32 精度を活用し、コードの変更なしに、単精度行列乗算演算で 1 petaFLOP のスループットを達成することができます。
H100 はまた、DPX 命令を備え、NVIDIA A100 Tensor コア GPU の 7 倍のパフォーマンスを提供し、DNA シーケンス アライメント用の Smith-Waterman など、動的プログラミング アルゴリズムにおいて従来のデュアルソケット CPU のみのサーバーと比較して 40 倍の高速化を実現します。

PCI Express Gen5接続
「SX-Aurora TSUBASA」は、NECが長年スーパーコンピュータ開発で培ったLSI技術と高密度実装技術、高効率冷却技術などを結集したカード型のベクトルエンジン(VE)を多数搭載する省電力なサーバです。世界トップクラスの単一コア性能及び単一コアメモリ帯域を持ち、科学技術計算や大規模データの高速処理を得意とし、気象予報、地球環境変動解析、流体解析、ナノテクノロジーや新規素材開発などのシミュレーション、AI活用において高い実効性能を実現しており、大量のデータ解析や人口知能(AI)の開発、流通業の需要予測やセキュリティ分野など、中小規模のR&Dにおけるエッジ領域で新たなビジネス創出をサポートします。
特長
●世界トップクラスの単一コア性能/単一コアメモリ帯域を有するコア8個を内蔵し、1枚で2.45テラ
フロップスの演算性能と1.53テラバイト/秒のメモリ帯域を実現
●C/C++/Fortranで開発でき、ソースコードの書き換えなど特別な前処理は不要
●コンパイラの自動ベクトル環境に対応し、既存のライブラリやツール資産をそのまま活用可能

処理スピードを飛躍的に向上します

SX-Aurora TSUBASAアーキテクチャ
PCIeカードに搭載されるVE部はベクトルプロセッサ、及び高速メモリから構成され、x86/LinuxノードであるVHとPCIe経由で接続されます。
アプリケーション全体をVE上で実行し、VHがOS昨日を提供する新しいベクトルアーキテクチャにより、ベクトルプロセッサの高性能を標準のx86/Linux環境上で利用いただけます。

動作確認AP


高い拡張性に対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューション

高い信頼性を実現

オールフラッシュに対応した高性能ストレージキット

高い信頼性を実現

豊富な仮想化ソリューション

最大72台まで拡張可能な卓越したスケーラビリティ

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性に対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューション

高い信頼性を実現

高い拡張性に対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューション

高い信頼性を実現

高い拡張性に対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューション

高い信頼性を実現

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性に対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューション

高い信頼性を実現

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
中小規模ビジネス向けに最適なNASキット

高い拡張性とSSDキャッシュに対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューションとさまざまな専用アプリをラインナップ
iOSやAndroidデバイス用の専用アプリを用意しており、音楽、写真、動画コンテンツ向けにはもちろん、外出先でのデータ確認・共有、システム状態やサーバーのセキュリティ監視などを行うことができる様々なアプリがご使用いただけます。

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
オールフラッシュに対応した高性能ストレージキット

高い信頼性を実現

豊富な仮想化ソリューション

最大72台まで拡張可能な卓越したスケーラビリティ

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性とSSDキャッシュに対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューションとさまざまな専用アプリをラインナップ
iOSやAndroidデバイス用の専用アプリを用意しており、音楽、写真、動画コンテンツ向けにはもちろん、外出先でのデータ確認・共有、システム状態やサーバーのセキュリティ監視などを行うことができる様々なアプリがご使用いただけます。

高い信頼性を実現

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性に対応
電源ユニットを2基装備しており、電源システムの冗長化に対応。片方の電源ユニットが故障しても、増設電源ユニットが稼働し続けるため、システムダウンを予防することができます。

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューション

高い信頼性を実現

中小規模ビジネス向けに最適なNASキット

高い拡張性とSSDキャッシュに対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューションとさまざまな専用アプリをラインナップ
iOSやAndroidデバイス用の専用アプリを用意しており、音楽、写真、動画コンテンツ向けにはもちろん、外出先でのデータ確認・共有、システム状態やサーバーのセキュリティ監視などを行うことができる様々なアプリがご使用いただけます。

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
中小規模ビジネス向けに最適なNASキット

高い拡張性とSSDキャッシュに対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューションとさまざまな専用アプリをラインナップ
iOSやAndroidデバイス用の専用アプリを用意しており、音楽、写真、動画コンテンツ向けにはもちろん、外出先でのデータ確認・共有、システム状態やサーバーのセキュリティ監視などを行うことができる様々なアプリがご使用いただけます。

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性に対応
電源ユニットを2基装備しており、電源システムの冗長化に対応。片方の電源ユニットが故障しても、増設電源ユニットが稼働し続けるため、システムダウンを予防することができます。

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューション

高い信頼性を実現

高い拡張性に対応
電源ユニットを2基装備しており、電源システムの冗長化に対応。片方の電源ユニットが故障しても、増設電源ユニットが稼働し続けるため、システムダウンを予防することができます。

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューション

高い信頼性を実現

高い拡張性とSSDキャッシュに対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューションとさまざまな専用アプリをラインナップ
iOSやAndroidデバイス用の専用アプリを用意しており、音楽、写真、動画コンテンツ向けにはもちろん、外出先でのデータ確認・共有、システム状態やサーバーのセキュリティ監視などを行うことができる様々なアプリがご使用いただけます。

高い信頼性を実現

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性とSSDキャッシュに対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューションとさまざまな専用アプリをラインナップ
iOSやAndroidデバイス用の専用アプリを用意しており、音楽、写真、動画コンテンツ向けにはもちろん、外出先でのデータ確認・共有、システム状態やサーバーのセキュリティ監視などを行うことができる様々なアプリがご使用いただけます。

高い信頼性を実現

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性に対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューション

高い信頼性を実現

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
中小規模ビジネス向けに最適なNASキット

高い拡張性とSSDキャッシュに対応

ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」

豊富な仮想化ソリューションとさまざまな専用アプリをラインナップ
iOSやAndroidデバイス用の専用アプリを用意しており、音楽、写真、動画コンテンツ向けにはもちろん、外出先でのデータ確認・共有、システム状態やサーバーのセキュリティ監視などを行うことができる様々なアプリがご使用いただけます。

※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。

4Uラックマウント筐体にトップローディングで最大60基のストレージを搭載可能な大容量ファイルサーバー。第二世代Xeon® Scalable Family を2基とBroadcomのRAIDコントローラーを搭載。RIADレベル 0, 1, 5, 6, 10,50,60 に対応しエンタープライズクラスの高信頼性ストレージとの組み合わせはミッションクリティカルなシーンでも安定した利用が可能です。インターコネクトも標準で10GBase-Tを2ポート、オプションでInfiniBand(EDR)も増設可能ですので、高速広帯域なノード間通信やフレキシブルなストレージ増設にも対応しています。さらにOS冗長化や高速インターコネクトで高い堅牢性と拡張性を実現しています。
トップローディングで最大60基のストレージを搭載可能

Skylake-SP Xeon® Scalable Family 搭載
解析、高速計算、シミュレーションなど高いマシンスペックを要求される仕事に納得のパフォーマンスを提供するハイスペックワークステーションです。

高信頼性エンタープライズストレージを搭載
さらにOS用のストレージもRAID-1で冗長化を施し障害に強い構成を実現しています。

多様で高速なインターコネクトでスケールアウトも可能

安心のオンサイトサポート

最大 112 レーン の PCIe Gen 5.0 接続、最大 4TB の DDR5 RDIMM メモリーサポートなど、広範囲にわたるデータセンター、AI、ワークステーションのワークロードで、最適化されたパフォーマンスを発揮致します。
革新的なプラットフォーム機能により構成に柔軟性を持たせ、プロフェッショナルで複雑なコンピューティング需要に簡単に応えることができます。
インテル® Xeon® Wプロセッサー・ファミリー

ワークステーションの静音性と冷却性を保つプレミアムCPUクーラー

強化されたプラットフォーム

高品質なサーバーグレード ECCレジスタードDDR5-4800メモリを標準搭載

PCI-Express 5.0 に対応

最大 112 レーン の PCIe Gen 5.0 接続、最大 4TB の DDR5 RDIMM メモリーサポートなど、広範囲にわたるデータセンター、AI、ワークステーションのワークロードで、最適化されたパフォーマンスを発揮致します。
革新的なプラットフォーム機能により構成に柔軟性を持たせ、プロフェッショナルで複雑なコンピューティング需要に簡単に応えることができます。
インテル® Xeon® Wプロセッサー・ファミリー

ワークステーションの静音性と冷却性を保つプレミアムCPUクーラー

強化されたプラットフォーム

高品質なサーバーグレード ECCレジスタードDDR5-4800メモリを標準搭載

PCI-Express 5.0 に対応

最大 112 レーン の PCIe Gen 5.0 接続、最大 4TB の DDR5 RDIMM メモリーサポートなど、広範囲にわたるデータセンター、AI、ワークステーションのワークロードで、最適化されたパフォーマンスを発揮致します。
革新的なプラットフォーム機能により構成に柔軟性を持たせ、プロフェッショナルで複雑なコンピューティング需要に簡単に応えることができます。
インテル® Xeon® Wプロセッサー・ファミリー

ワークステーションの静音性と冷却性を保つプレミアムCPUクーラー

強化されたプラットフォーム

高品質なサーバーグレード ECCレジスタードDDR5-4800メモリを標準搭載

PCI-Express 5.0 に対応
