クアッドコアの高性能および最大16GBのRAM
2.5GbEで、大容量ファイル転送とビデオ編集を効率化
TPUおよびPCIe拡張による、AIベース画像認識およびキャッシュのアクセラレーション
最大5年までのハードウェア保証延長
Intel® Celeron® J3455クアッドコア1.5Ghzプロセッサ 、最大8GB DDR3L RAMを搭載し、SMB/CIFS、NFS、AFPプロトコルに対応しているため、
Windows、Mac、Linux/UNIXネットワークでファイルを共有することができます。少人数でデータ共有を行う際に最適です。
高い機密性とパフォーマンス
シームレスな容量拡張
高信頼性ストレージWD Redシリーズ搭載
Intel® Celeron® J3455クアッドコア1.5Ghzプロセッサ 、最大8GB DDR3L RAMを搭載し、SMB/CIFS、NFS、AFPプロトコルに対応しているため、
Windows、Mac、Linux/UNIXネットワークでファイルを共有することができます。少人数でデータ共有を行う際に最適です。
高い機密性とパフォーマンス
シームレスな容量拡張
高信頼性ストレージWD Redシリーズ搭載
クアッドコアCPUとハードウェア暗号化を備えた高効率NASアーキテクチャ
GNAS-QN2U8Bは、Intel® Celeron® N5095 クアッドコアプロセッサ(最大バースト 2.9 GHz)を搭載し、標準 4 GB の DDR4 メモリは最大 16 GB まで拡張可能です。また、Intel® AES-NI 暗号化エンジンを備えており、AES-256 ビット暗号化のハードウェアアクセラレーションにより、暗号化処理を高速化しつつシステム全体のパフォーマンスを最適化します。これにより、NAS に保存されるビジネスデータを高い安全性で保護できます。
Qtier™ による自動階層化とSSDキャッシュで高速I/Oを実現
QTS 5 ベースの高効率管理オペレーティング環境
高信頼性を支えるアクセス制御と統合セキュリティ
クアッドコアプロセッサ、最大バースト2.9 GHz、最大8 GBまで増設可能なメモリ
SSDキャッシュおよび自動階層化によるストレージ効率の最適化
QTS 5、高速でスムーズかつ使いやすい!
包括的なセキュリティおよび権限設定
クアッドコアプロセッサ、最大バースト2.9 GHz、最大8 GBまで増設可能なメモリ
SSDキャッシュおよび自動階層化によるストレージ効率の最適化
QTS 5、高速でスムーズかつ使いやすい!
包括的なセキュリティおよび権限設定
クアッドコアプロセッサ、最大バースト2.9 GHz、最大8 GBまで増設可能なメモリ
SSDキャッシュおよび自動階層化によるストレージ効率の最適化
QTS 5、高速でスムーズかつ使いやすい!
包括的なセキュリティおよび権限設定
Ryzen™ V1500B搭載、高性能ラックマウントNAS
2.5GbE対応LANポートとリンクアグリゲーションによる高速・冗長ネットワーク
SSDキャッシュによるランダムI/O最適化と低レイテンシ化
VJBOD対応による柔軟なNASストレージ拡張
AMD Ryzen™および最大64GBのRAMによる絶対的なパフォーマンス
マル2.5GbEネットワーキングにアップグレード
SSDキャッシングによるIOPSパフォーマンスの高速化
必要な時にはいつでも、柔軟にストレージ容量を拡張します
AMD Ryzen™および最大64GBのRAMによる絶対的なパフォーマンス
マル2.5GbEネットワーキングにアップグレード
SSDキャッシングによるIOPSパフォーマンスの高速化
必要な時にはいつでも、柔軟にストレージ容量を拡張します
高性能AMD Ryzen™プロセッサ
* * 非ECCメモリとECCメモリの同時使用はできないため、ECCメモリを使用するには標準装備のメモリを取り外す必要があります。
お財布に優しい2.5GbEスイッチにより、ネットワークを変革します
GPUアクセラレーションコンピューティングのためにグラフィックカードを取り付ける
最大5年までのハードウェア保証延長
高性能AMD Ryzen™プロセッサ
* * 非ECCメモリとECCメモリの同時使用はできないため、ECCメモリを使用するには標準装備のメモリを取り外す必要があります。
お財布に優しい2.5GbEスイッチにより、ネットワークを変革します
GPUアクセラレーションコンピューティングのためにグラフィックカードを取り付ける
最大5年までのハードウェア保証延長
高性能AMD Ryzen™プロセッサ
* * 非ECCメモリとECCメモリの同時使用はできないため、ECCメモリを使用するには標準装備のメモリを取り外す必要があります。
既存CAT5eをそのまま活用し、コストを抑えた高速・安全なネットワーク環境を実現
GTX1650相当の無給電GPU拡張に対応。4KトランスコードやVMパススルー性能の強化が可能に
最大5年までのハードウェア保証延長
高性能AMD Ryzen™プロセッサ
* * 非ECCメモリとECCメモリの同時使用はできないため、ECCメモリを使用するには標準装備のメモリを取り外す必要があります。
お財布に優しい2.5GbEスイッチにより、ネットワークを変革します
GPUアクセラレーションコンピューティングのためにグラフィックカードを取り付ける
最大5年までのハードウェア保証延長
より高いパフォーマンス x より速い処理能力
マルチポイントのファイルバックアップ、アクセス、および同期
頼れるサービスのための冗長性電源
データ増加に応じて拡張できる、モジュール型ストレージ拡張フレームワーク
QNAPで高速ネットワークを構築
PCIeカードでNASの機能性を拡張
最適化されたストレージ効率のためのSSDキャッシングおよび自動階層化
簡単で安全なファイル管理
QNAPで高速ネットワークを構築
PCIeカードでNASの機能性を拡張
最適化されたストレージ効率のためのSSDキャッシングおよび自動階層化
簡単で安全なファイル管理
エアーフローによる冷却と静音のバランスを考え誕生した空冷システムを採用しております。厳選されたパーツの組み合わせにより、高性能に加え、格段の冷却性能と静音性を実現しました。静音性を追求したIntel Z790チップセット搭載DDR5対応タワー型モデルになります。システム騒音値はアイドル時で18.8db、高負荷時で30.1dbと静音性を保っております。CPUは第14世代 Raptor Lake Refreshを搭載しており、Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載しております。前世代のパフォーマンスを継承、改良を加えさらなる性能の向上を実現、効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載
Intel® B760チップセット
CPUクーラーに「こだわり」の空冷システムメーカー Noctua搭載
負荷 40% 以下でのセミファンレスモード& ハイブリッドスイッチ搭載 80 PLUS Gold認証の静音電源
高効率を実現できるハーフブリッジ形 LLC方式 DC/DCコンバータに、日本製コンデンサを100% 使用し、プロフェッショナルグレードの品質を実現しつつ、本体のハイブリッドスイッチで ON/OFFを切替可能なセミファンレスモードを搭載することにより、静音性と冷却性にも優れ た 80 PLUS Gold 認証 850W電源です。
ノイズを最小限に抑え、冷却効率に優れたSILENCIOデザイン
エアーフローによる冷却と静音のバランスを考え誕生した空冷システムを採用しております。厳選されたパーツの組み合わせにより、高性能に加え、格段の冷却性能と静音性を実現しました。静音性を追求したIntel Z790チップセット搭載DDR5対応タワー型モデルになります。システム騒音値はアイドル時で18.8db、高負荷時で30.1dbと静音性を保っております。CPUは第14世代 Raptor Lake Refreshを搭載しており、Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載しております。前世代のパフォーマンスを継承、改良を加えさらなる性能の向上を実現、効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載
Intel® Z790チップセット
CPUクーラーに「こだわり」の空冷システムメーカー Noctua搭載
負荷 40% 以下でのセミファンレスモード& ハイブリッドスイッチ搭載 80 PLUS Gold認証の静音電源
高効率を実現できるハーフブリッジ形 LLC方式 DC/DCコンバータに、日本製コンデンサを100% 使用し、プロフェッショナルグレードの品質を実現しつつ、本体のハイブリッドスイッチで ON/OFFを切替可能なセミファンレスモードを搭載することにより、静音性と冷却性にも優れ た 80 PLUS Gold 認証 850W電源です。
ノイズを最小限に抑え、冷却効率に優れたSILENCIOデザイン
エアーフローによる冷却と静音のバランスを考え誕生した空冷システムを採用しております。厳選されたパーツの組み合わせにより、高性能に加え、格段の冷却性能と静音性を実現しました。静音性を追求したIntel Z790チップセット搭載DDR5対応タワー型モデルになります。システム騒音値はアイドル時で18.8db、高負荷時で30.1dbと静音性を保っております。CPUは第14世代 Raptor Lake Refreshを搭載しており、Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載しております。前世代のパフォーマンスを継承、改良を加えさらなる性能の向上を実現、効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載
Intel® Z790チップセット
CPUクーラーに「こだわり」の空冷システムメーカー Noctua搭載
負荷 40% 以下でのセミファンレスモード& ハイブリッドスイッチ搭載 80 PLUS Gold認証の静音電源
高効率を実現できるハーフブリッジ形 LLC方式 DC/DCコンバータに、日本製コンデンサを100% 使用し、プロフェッショナルグレードの品質を実現しつつ、本体のハイブリッドスイッチで ON/OFFを切替可能なセミファンレスモードを搭載することにより、静音性と冷却性にも優れ た 80 PLUS Gold 認証 850W電源です。
ノイズを最小限に抑え、冷却効率に優れたSILENCIOデザイン
UNI-i9ZRは、第14世代 Intel® Core™ デスクトッププロセッサ(Raptor Lake-S Refresh)を搭載したモデルです。前世代の Alder Lake-S と比較して、クロックの向上に加え、キャッシュメモリ容量の増加や E-CORE のコア数拡張により、大幅な性能向上を実現しました。Raptor Cove を採用した高性能コア(P-CORE)と、Gracemont を採用した高効率コア(E-CORE)によるハイブリッド構成により、最大24コアを搭載可能です。これにより、効率的なコア利用が可能となり、高精細コンテンツの処理性能向上はもちろん、高速演算、シミュレーション、グラフィック作業など、CPUパワーを必要とする幅広い作業において高いパフォーマンスを提供します。
第14世代 Intel® Core™ デスクトッププロセッサ(Raptor Lake-S Refresh)搭載
第14世代 インテル® Core™ プロセッサー(コードネーム:Raptor Lake-S Refresh)は、Raptor Cove 高性能CPUコア(P-CORE)と Gracemont 高効率CPUコア(E-CORE)によるハイブリッド構成を採用し、最大24コアを搭載する最新アーキテクチャです。前世代からの改良によりクロックが向上し、キャッシュメモリの強化や E-CORE 数の拡張によって、さらなる性能向上を実現しています。効率的なコア運用により、没入感のある高精細ゲームの描画性能向上はもちろん、4K 以上のビデオ編集、映像制作、仮想現実(VR)など、最新の映像・クリエイティブワークにおいても優れたパフォーマンスを発揮し、卓越したエンターテインメント体験を提供します。
Intel® B760チップセット
PCI-Express 5.0 に対応
最大5基のストレージベイを搭載

前世代 Alder Lake-Sからクロック数の向上に加え、キャッシュメモリの容量増とE-COREのコア数の増加で大幅な性能向上を実現しております。Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載。効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第13世代インテル® Core™プロセッサー “Raptor Lake-S”搭載
効率的なコアの使用により没入感のある高精細なゲームのパフォーマンス向上をはじめ、4K超ビデオコンテンツ制作、仮想現実(VR)などの最新の映像体験において驚異のエンターテインメント・ハブを提供します。
Intel® Z790チップセット
PCI-Express 5.0 に対応
最大5基のストレージベイを搭載

前世代 Alder Lake-Sからクロック数の向上に加え、キャッシュメモリの容量増とE-COREのコア数の増加で大幅な性能向上を実現しております。Raptor Cove 高性能CPUコア(P-CORE)とGracemont高効率CPUコア(E-CORE)によるハイブリッド構成の全く新しい新アーキテクチャで最大24コアを搭載。効率的なコアの使用により没入感のある高精細なコンテンツのパフォーマンス向上をはじめ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
第13世代インテル® Core™プロセッサー “Raptor Lake-S”搭載
効率的なコアの使用により没入感のある高精細なゲームのパフォーマンス向上をはじめ、4K超ビデオコンテンツ制作、仮想現実(VR)などの最新の映像体験において驚異のエンターテインメント・ハブを提供します。
Intel® Z790チップセット
PCI-Express 5.0 に対応
最大5基のストレージベイを搭載

カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて抜群のコストパフォーマンスと安定した利用環境をご提供します。
NVIDIA RTX PRO 6000 Blackwell シリーズ製品比較レポート
Intel Core Ultra を採用
最大1基の高性能GPUを搭載
効率化ストレージ設計
DeepLearning開発環境「G-Suite」
G-Suiteは、これまでジーデップ・アドバンスが提供してきた「G-Works」の仕組み(Deep Learning の主要なフレームワークを、各世代のGPU に最適化してビルドしたソフトウェア群)を継承し、さらに発展させたOS ネイティブ環境+コンテナ環境のハイブリッドアプリケーションリソースマネージメントツールです。インターネット上のWeb サイトから様々なレシピやサポートツール群をダウンロードし、簡易解説書やチュートリアルを含むアプリケーション実行環境を構築することが可能です。Ubuntu 24.04に対応し、開発環境は miniforgeをベースとしています。各世代のGPU に最適化してビルドしたソフトウェア群に加え、OS ネイティブ環境+コンテナ環境をハイブリッドにサポートしています。

Ubuntu 22.04に対応する「G-Works4.0」を選択されたい場合はこちらからご覧ください。
大切なシステムを丸ごと守る、安心の完全バックアップIntegrated Backup搭載
【動作条件】
・システムディスク以外にデータディスクが一つ以上装備されている必要があります。
・バックアップイメージはシステムディスク以外のディスクに独立して組み込まれます。
・OSをシャットダウンさせたうえで、バックアップが入っているディスクからブートさせます。
・バックアップデータは日付別に分類されて保存されます。

カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて抜群のコストパフォーマンスと安定した利用環境をご提供します。
Intel Core Ultra を採用
最大1基の高性能GPUを搭載
効率化ストレージ設計
DeepLearning開発環境「G-Suite」
G-Suiteは、これまでジーデップ・アドバンスが提供してきた「G-Works」の仕組み(Deep Learning の主要なフレームワークを、各世代のGPU に最適化してビルドしたソフトウェア群)を継承し、さらに発展させたOS ネイティブ環境+コンテナ環境のハイブリッドアプリケーションリソースマネージメントツールです。インターネット上のWeb サイトから様々なレシピやサポートツール群をダウンロードし、簡易解説書やチュートリアルを含むアプリケーション実行環境を構築することが可能です。Ubuntu 24.04に対応し、開発環境は miniforgeをベースとしています。各世代のGPU に最適化してビルドしたソフトウェア群に加え、OS ネイティブ環境+コンテナ環境をハイブリッドにサポートしています。

大切なシステムを丸ごと守る、安心の完全バックアップIntegrated Backup搭載
コンピュータのシステム領域を完全バックアップするためのユーティリティツールです。
システムディスクのパーティション、ファイルシステムフォーマット、データ内容をすべて記録することが可能で、日付やコメントをつけてバックアップ内容を管理できます。ブートディスク消失時の復旧や、過去にバックアップしたの状態への復帰などが容易に行えます。
【動作条件】
・システムディスク以外にデータディスクが一つ以上装備されている必要があります。
・バックアップイメージはシステムディスク以外のディスクに独立して組み込まれます。
・OSをシャットダウンさせたうえで、バックアップが入っているディスクからブートさせます。
・バックアップデータは日付別に分類されて保存されます。
カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて抜群のコストパフォーマンスと安定した利用環境をご提供します。
Intel Core Ultra を採用
最大1基の高性能GPUを搭載
効率化ストレージ設計
DeepLearning開発環境「G-Suite」
G-Suiteは、これまでジーデップ・アドバンスが提供してきた「G-Works」の仕組み(Deep Learning の主要なフレームワークを、各世代のGPU に最適化してビルドしたソフトウェア群)を継承し、さらに発展させたOS ネイティブ環境+コンテナ環境のハイブリッドアプリケーションリソースマネージメントツールです。インターネット上のWeb サイトから様々なレシピやサポートツール群をダウンロードし、簡易解説書やチュートリアルを含むアプリケーション実行環境を構築することが可能です。Ubuntu 24.04に対応し、開発環境は miniforgeをベースとしています。各世代のGPU に最適化してビルドしたソフトウェア群に加え、OS ネイティブ環境+コンテナ環境をハイブリッドにサポートしています。

大切なシステムを丸ごと守る、安心の完全バックアップIntegrated Backup搭載
コンピュータのシステム領域を完全バックアップするためのユーティリティツールです。
システムディスクのパーティション、ファイルシステムフォーマット、データ内容をすべて記録することが可能で、日付やコメントをつけてバックアップ内容を管理できます。ブートディスク消失時の復旧や、過去にバックアップしたの状態への復帰などが容易に行えます。
【動作条件】
・システムディスク以外にデータディスクが一つ以上装備されている必要があります。
・バックアップイメージはシステムディスク以外のディスクに独立して組み込まれます。
・OSをシャットダウンさせたうえで、バックアップが入っているディスクからブートさせます。
・バックアップデータは日付別に分類されて保存されます。
最新インテル第14世代 コードネーム Raptor Lake-S Refresh(ラプターレイクリフレッシュ)を搭載したデスクサイドGPUワークステーションです。Pコア+Eコア合計24コアで 最大Thermal Velocity Boost 6.0GHz動作の「Inte® Core™ i9-14900KF」をはじめとした」ラインナップによりCPU性能を大幅に向上させています。また、プラットフォームでは PCIe 5.0をサポート 、最大16のPCI Express 5.0レーンにより、RTX 4090 をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
※注意:このモデルはCPU 仕様によりPCIe Lanes数は20までとなり、2枚のGPUを搭載可能ですが、1枚目はx16転送レート(理論値 256.0Gbps)、2枚目はx4転送レート(理論値 64.0Gbps)での動作となります。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能
第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載
GPU を最適な環境で動作
https://developer.nvidia.com/ja-jp/blog/cuda-toolkit-12-0-released-for-general-availability/
安定度抜群の高効率電源
最新インテル第14世代 コードネーム Raptor Lake-S Refresh(ラプターレイクリフレッシュ)を搭載したデスクサイドGPUワークステーションです。Pコア+Eコア合計24コアで 最大Thermal Velocity Boost 6.0GHz動作の「Inte® Core™ i9-14900KF」をはじめとした」ラインナップによりCPU性能を大幅に向上させています。また、プラットフォームでは PCIe 5.0をサポート 、最大16のPCI Express 5.0レーンにより、RTX 4090 をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができ、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
※注意:このモデルはCPU 仕様によりPCIe Lanes数は20までとなり、2枚のGPUを搭載可能ですが、1枚目はx16転送レート(理論値 256.0Gbps)、2枚目はx4転送レート(理論値 64.0Gbps)での動作となります。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能
第14世代インテル® Core™プロセッサー “Raptor Lake Refresh”搭載
GPU を最適な環境で動作
https://developer.nvidia.com/ja-jp/blog/cuda-toolkit-12-0-released-for-general-availability/
安定度抜群の高効率電源
AMD新APU Ryzen 5000Gシリーズ を採用
世界屈指の空冷最強メーカー Noctua製 「NH-U12S redux」を選択可能
スリムな120 mmサイズにより、PCケース・メモリ・PCIeスロットとの互換性を確保。静音のNF-P12 redux-1700 120mm PWMファンの自動速度制御機能:アイドル時には静音性に優れ、必要に応じてフル回転でパフォーマンスを発揮します。
高品質な部品を採用し、安定性を重視したプロフェッショナルユーザー向けマザーボード
プロフェッショナルの作業効率を高めるだけでなく、マルチメディア用途や普段使いなど、あらゆるシチュエーションに対応するシステムチューニング機能を搭載しております。
AMD新APU Ryzen 5000Gシリーズ を採用
世界屈指の空冷最強メーカー Noctua製 「NH-U12S redux」を選択可能
スリムな120 mmサイズにより、PCケース・メモリ・PCIeスロットとの互換性を確保。静音のNF-P12 redux-1700 120mm PWMファンの自動速度制御機能:アイドル時には静音性に優れ、必要に応じてフル回転でパフォーマンスを発揮します。
高品質な部品を採用し、安定性を重視したプロフェッショナルユーザー向けマザーボード
プロフェッショナルの作業効率を高めるだけでなく、マルチメディア用途や普段使いなど、あらゆるシチュエーションに対応するシステムチューニング機能を搭載しております。
AMD新APU Ryzen 5000Gシリーズ を採用
世界屈指の空冷最強メーカー Noctua製 「NH-U12S redux」を選択可能
スリムな120 mmサイズにより、PCケース・メモリ・PCIeスロットとの互換性を確保。静音のNF-P12 redux-1700 120mm PWMファンの自動速度制御機能:アイドル時には静音性に優れ、必要に応じてフル回転でパフォーマンスを発揮します。
高品質な部品を採用し、安定性を重視したプロフェッショナルユーザー向けマザーボード
プロフェッショナルの作業効率を高めるだけでなく、マルチメディア用途や普段使いなど、あらゆるシチュエーションに対応するシステムチューニング機能を搭載しております。
第5世代(ZEN 4)AMD Ryzen プロセッサー搭載を搭載
次世代ワークステーションを支える AMD X870 マザーボード
最大128GBまで搭載可能な広帯域4800MHz DDR5メモリー
PCI-Express 5.0 に対応
最大5基のストレージベイを搭載

第5世代(ZEN 4)AMD Ryzen プロセッサー搭載を搭載
堅牢なコンポーネントを装備し、安定性を重視したマザーボード
最大128GBまで搭載可能な広帯域4800MHz DDR5メモリー
PCI-Express 5.0 に対応
最大5基のストレージベイを搭載

第5世代(ZEN 4)AMD Ryzen プロセッサー搭載を搭載
堅牢なコンポーネントを装備し、安定性を重視したマザーボード
最大128GBまで搭載可能な広帯域4800MHz DDR5メモリー
PCI-Express 5.0 に対応
最大5基のストレージベイを搭載

カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて抜群のコストパフォーマンスと安定した利用環境をご提供します。
NVIDIA RTX PRO 6000 Blackwell シリーズ製品比較レポート
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
ウルトラハイエンドGPUカードを 最大3枚搭載可能
搭載GPUはNVIDIA RTX 6000 Ada/*A6000*/A5000/A4000 を最大3枚搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。また、標準でCEM5に対応ケーブルを標準採用しており、最新世代のGPU搭載もサポートしております。
*200V 入力時のみ対応
DeepLearning開発環境「G-Suite」
G-Suiteは、これまでジーデップ・アドバンスが提供してきた「G-Works」の仕組み(Deep Learning の主要なフレームワークを、各世代のGPU に最適化してビルドしたソフトウェア群)を継承し、さらに発展させたOS ネイティブ環境+コンテナ環境のハイブリッドアプリケーションリソースマネージメントツールです。インターネット上のWeb サイトから様々なレシピやサポートツール群をダウンロードし、簡易解説書やチュートリアルを含むアプリケーション実行環境を構築することが可能です。Ubuntu 24.04に対応し、開発環境は miniforgeをベースとしています。各世代のGPU に最適化してビルドしたソフトウェア群に加え、OS ネイティブ環境+コンテナ環境をハイブリッドにサポートしています。

大切なシステムを丸ごと守る、安心の完全バックアップIntegrated Backup搭載
【動作条件】
・システムディスク以外にデータディスクが一つ以上装備されている必要があります。
・バックアップイメージはシステムディスク以外のディスクに独立して組み込まれます。
・OSをシャットダウンさせたうえで、バックアップが入っているディスクからブートさせます。
・バックアップデータは日付別に分類されて保存されます。

Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではMMLなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
「G-Works 4.0」をインストール
DeepLearning BOXIIIには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
DeepLearning BOXIIIはAI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
ウルトラハイエンドGPUカードを 最大4枚を搭載可能
搭載GPUはNVIDIA RTX 6000 Ada/*A6000*/A5000/A4000 を最大4枚搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。また、標準でCEM5に対応ケーブルを標準採用しており、最新世代のGPU搭載もサポートしております。
*200V 入力時のみ対応
バージョンアップされたDeepLearning開発環境「G-Works4.0」
G-Worksの詳細はこちらからご覧ください。
Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
「G-Works 4.0」をインストール
DeepLearning BOXIIIには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
DeepLearning BOXIIIはAI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
ウルトラハイエンドGPUカードを 最大4枚を搭載可能
搭載GPUはNVIDIA RTX 6000 Ada/*A6000*/A5000/A4000 を最大4枚搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。また、標準でCEM5に対応ケーブルを標準採用しており、最新世代のGPU搭載もサポートしております。
*200V 入力時のみ対応
バージョンアップされたDeepLearning開発環境「G-Works4.0」
G-Worksの詳細はこちらからご覧ください。
大規模言語モデル(LLM)の開発において、機密性の高い学習データをイントラから外に出すことに安全上の様々な懸念があることが多い中、お手軽・迅速・安全利用したいユーザーに最適です。
スタンダードモデルとなるワークステーションのGPUは NVIDIA Ada Lovelaceアーキテクチャを採用したRTX Adaシリーズを搭載し、第3世代の RT コア、第4世代の Tensor コア、次世代 CUDA® コアを搭載。高いAI学習性能及び推論性能を実現します。
開発環境には Dify OpenWebUIと Ollama Xinference を実装し、 AIモデルには2025年1月7日に公開された最新のMicrosoft Phi-4 [14Bモデル] 、2024年公開のLlama 3.1など複数のモデルをプリインストールしています。そのため、届いたその日から最短時間で基本機能が稼働し、迅速に業務への導入が可能です。加えてRidge-iのQ&Aに利用できるQ&Aチケットが付属していますので、サポートを受けながらスムーズな導入が可能です。
また、ローカルRAGスターターBOXは、ハードウェア構成のオプションとしてGPUカードの追加、ストレージの増設などにも柔軟に対応し、PoCから実装運用フェーズまで包括的にサポートするワークステーションです。
セキュアなローカル環境
短期導入・即運用可能
安心のQ&Aチケット
さらにローカルRAGスターターBOXでのPoCを経て、本格的なシステムの導入をご検討のお客様には、GPUとAIのプロフェッショナルであるジーデップ・アドバンスとRidge-iが実運用フェーズまで包括的にサポートし、LLM/RAGローカル運用環境の構築をお手伝いいたします。
※Q&A サポートの範囲はマニュアルに記載の内容に沿った操作方法となります。
抜群のコストパフォーマンス
他に類を見ない拡張性と柔軟性
大規模言語モデル(LLM)の開発において、機密性の高い学習データをイントラから外に出すことに安全上の様々な懸念があることが多い中、お手軽・迅速・安全利用したいユーザーに最適です。
スタンダードモデルとなるワークステーションのGPUは NVIDIA Ada Lovelaceアーキテクチャを採用したRTX Adaシリーズを搭載し、第3世代の RT コア、第4世代の Tensor コア、次世代 CUDA® コアを搭載。高いAI学習性能及び推論性能を実現します。
開発環境には Dify OpenWebUIと Ollama Xinference を実装し、 AIモデルには2025年1月7日に公開された最新のMicrosoft Phi-4 [14Bモデル] 、2024年公開のLlama 3.1など複数のモデルをプリインストールしています。そのため、届いたその日から最短時間で基本機能が稼働し、迅速に業務への導入が可能です。加えてRidge-iのQ&Aに利用できるQ&Aチケットが付属していますので、サポートを受けながらスムーズな導入が可能です。
また、ローカルRAGスターターBOXは、ハードウェア構成のオプションとしてGPUカードの追加、ストレージの増設などにも柔軟に対応し、PoCから実装運用フェーズまで包括的にサポートするワークステーションです。
セキュアなローカル環境
短期導入・即運用可能
安心のQ&Aチケット
さらにローカルRAGスターターBOXでのPoCを経て、本格的なシステムの導入をご検討のお客様には、GPUとAIのプロフェッショナルであるジーデップ・アドバンスとRidge-iが実運用フェーズまで包括的にサポートし、LLM/RAGローカル運用環境の構築をお手伝いいたします。
※Q&A サポートの範囲はマニュアルに記載の内容に沿った操作方法となります。
抜群のコストパフォーマンス
他に類を見ない拡張性と柔軟性
大規模言語モデル(LLM)の開発において、機密性の高い学習データをイントラから外に出すことに安全上の様々な懸念があることが多い中、お手軽・迅速・安全利用したいユーザーに最適です。
スタンダードモデルとなるワークステーションのGPUは NVIDIA Ada Lovelaceアーキテクチャを採用したRTX Adaシリーズを搭載し、第3世代の RT コア、第4世代の Tensor コア、次世代 CUDA® コアを搭載。高いAI学習性能及び推論性能を実現します。
開発環境には Dify OpenWebUIと Ollama Xinference を実装し、 AIモデルには2025年1月7日に公開された最新のMicrosoft Phi-4 [14Bモデル] 、2024年公開のLlama 3.1など複数のモデルをプリインストールしています。そのため、届いたその日から最短時間で基本機能が稼働し、迅速に業務への導入が可能です。加えてRidge-iのQ&Aに利用できるQ&Aチケットが付属していますので、サポートを受けながらスムーズな導入が可能です。
また、ローカルRAGスターターBOXは、ハードウェア構成のオプションとしてGPUカードの追加、ストレージの増設などにも柔軟に対応し、PoCから実装運用フェーズまで包括的にサポートするワークステーションです。
セキュアなローカル環境
短期導入・即運用可能
安心のQ&Aチケット
さらにローカルRAGスターターBOXでのPoCを経て、本格的なシステムの導入をご検討のお客様には、GPUとAIのプロフェッショナルであるジーデップ・アドバンスとRidge-iが実運用フェーズまで包括的にサポートし、LLM/RAGローカル運用環境の構築をお手伝いいたします。
※Q&A サポートの範囲はマニュアルに記載の内容に沿った操作方法となります。
抜群のコストパフォーマンス
他に類を見ない拡張性と柔軟性
また、PCI Express 5.0 を備え、GPUは200V環境で最大4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
オプションのラックレールキットを用いることにより、サーバーラックでの運用も可能です。
最新の インテル® Xeon® W プロセッサー・ファミリー(開発コード Sapphire Rapids)は、さまざまなクリエイターのために設計されています。インテル® Xeon® W-3400/2400 プロセッサー搭載のプラットフォームは、VFX、3D レンダリング、複雑な 3D CAD、および AI 開発とエッジ導入向けの拡張されたプラットフォーム機能とともに、卓越したパフォーマンス、セキュリティー、信頼性を提供し、プロフェッショナルなクリエイター向けに究極のワークステーション・ソリューションを実現します。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
安定度抜群の高効率電源
また、PCI Express 5.0 を備え、GPUは200V環境で最大4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
オプションのラックレールキットを用いることにより、サーバーラックでの運用も可能です。
最新の インテル® Xeon® W プロセッサー・ファミリー(開発コード Sapphire Rapids)は、さまざまなクリエイターのために設計されています。インテル® Xeon® W-3400/2400 プロセッサー搭載のプラットフォームは、VFX、3D レンダリング、複雑な 3D CAD、および AI 開発とエッジ導入向けの拡張されたプラットフォーム機能とともに、卓越したパフォーマンス、セキュリティー、信頼性を提供し、プロフェッショナルなクリエイター向けに究極のワークステーション・ソリューションを実現します。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
安定度抜群の高効率電源
また、PCI Express 5.0 を備え、GPUは200V環境で最大4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
オプションのラックレールキットを用いることにより、サーバーラックでの運用も可能です。
最新の インテル® Xeon® W プロセッサー・ファミリー(開発コード Sapphire Rapids)は、さまざまなクリエイターのために設計されています。インテル® Xeon® W-3400/2400 プロセッサー搭載のプラットフォームは、VFX、3D レンダリング、複雑な 3D CAD、および AI 開発とエッジ導入向けの拡張されたプラットフォーム機能とともに、卓越したパフォーマンス、セキュリティー、信頼性を提供し、プロフェッショナルなクリエイター向けに究極のワークステーション・ソリューションを実現します。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
安定度抜群の高効率電源
DeepLearning BOXIII はインテル® Xeon® W プロセッサー(開発コード:Sapphire Rapids) W3400シリーズを搭載した GPUディープラーニングワークステーションです。
Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではMMLなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
NVIDIA RTX PRO 6000 Blackwell シリーズ製品比較レポート
Windows11 WSL2セッティング済み
Windows11をOSに採用した本システムはLinux OS仮想環境を共存させ、Linuxのネイティブアプリケーションを実行可能とするWindows Subsystem for Linux Version 2 (WSL2) を利用しています。多くのAIアプリケーションがLinux上で開発されている中、それらのAIアプリケーションとWindowsデスクトップ環境の統合が容易になります。
一般的にWSL2環境はユーザーアカウントの中に構築されるため、基本的にユーザー自身が設定を行う必要があり、複雑な操作を正しく行うことは研究者とって大きな負担となります。
そこで「DeepLearingBOXIII/Win」では、専用のセットアップスクリプトを配備し、アカウントを作成後、ユーザー自身がWSL2と AI開発環境を、わずか数クリックで構築できる仕組みをプリインストールしました。
システム仕様に最適なDeep Learning環境をWindows上で容易に構築できるこの仕組みはユーザーのAI開発環境構築の負担を大幅に削減し、ファイルシステムへのアクセスも、Windows – Linuxの双方向でほぼシームレスに扱うことが可能で、非常に大きなユーザーベネフィットを提供します。
「DeepLearingBOXIII/Win」ではユーザーがAI開発において面倒で複雑な開発環境設定を行うことなく、届いたその日から利用することが可能です。
WSL2において以下のコンテナ環境でAI開発環境が提供されます。
製品初期設定時にはインターネット接続が必要です。
*Docker DesktopはDocker社の利用条件に従ってご利用ください。
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
ウルトラハイエンドGPUカードを 最大3基搭載可能
WSL2セッティング済みAI学習フレームワーク搭載
DeepLearning BOXIIIはインテル® Xeon® W プロセッサー(開発コード:Sapphire Rapids) W3400シリーズを搭載した GPUディープラーニングワークステーションです。
Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではMMLなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
Windows11 WSL2セッティング済み
Windows11をOSに採用した本システムはLinux OS仮想環境を共存させ、Linuxのネイティブアプリケーションを実行可能とするWindows Subsystem for Linux Version 2 (WSL2) を利用しています。多くのAIアプリケーションがLinux上で開発されている中、それらのAIアプリケーションとWindowsデスクトップ環境の統合が容易になります。
一般的にWSL2環境はユーザーアカウントの中に構築されるため、基本的にユーザー自身が設定を行う必要があり、複雑な操作を正しく行うことは研究者とって大きな負担となります。
そこで「DeepLearingBOXIII/Win」では、専用のセットアップスクリプトを配備し、アカウントを作成後、ユーザー自身がWSL2と AI開発環境を、わずか数クリックで構築できる仕組みをプリインストールしました。
システム仕様に最適なDeep Learning環境をWindows上で容易に構築できるこの仕組みはユーザーのAI開発環境構築の負担を大幅に削減し、ファイルシステムへのアクセスも、Windows – Linuxの双方向でほぼシームレスに扱うことが可能で、非常に大きなユーザーベネフィットを提供します。
「DeepLearingBOXIII/Win」ではユーザーがAI開発において面倒で複雑な開発環境設定を行うことなく、届いたその日から利用することが可能です。
WSL2において以下のコンテナ環境でAI開発環境が提供されます。
製品初期設定時にはインターネット接続が必要です。
*Docker DesktopはDocker社の利用条件に従ってご利用ください。
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
ウルトラハイエンドGPUカードを 最大3基搭載可能
WSL2セッティング済みAI学習フレームワーク搭載
DeepLearning BOXIIIはインテル® Xeon® W プロセッサー(開発コード:Sapphire Rapids) W3400シリーズを搭載した GPUディープラーニングワークステーションです。
Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではMMLなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
Windows11 WSL2セッティング済み
Windows11をOSに採用した本システムはLinux OS仮想環境を共存させ、Linuxのネイティブアプリケーションを実行可能とするWindows Subsystem for Linux Version 2 (WSL2) を利用しています。多くのAIアプリケーションがLinux上で開発されている中、それらのAIアプリケーションとWindowsデスクトップ環境の統合が容易になります。
一般的にWSL2環境はユーザーアカウントの中に構築されるため、基本的にユーザー自身が設定を行う必要があり、複雑な操作を正しく行うことは研究者とって大きな負担となります。
そこで「DeepLearingBOXIII/Win」では、専用のセットアップスクリプトを配備し、アカウントを作成後、ユーザー自身がWSL2と AI開発環境を、わずか数クリックで構築できる仕組みをプリインストールしました。
システム仕様に最適なDeep Learning環境をWindows上で容易に構築できるこの仕組みはユーザーのAI開発環境構築の負担を大幅に削減し、ファイルシステムへのアクセスも、Windows – Linuxの双方向でほぼシームレスに扱うことが可能で、非常に大きなユーザーベネフィットを提供します。
「DeepLearingBOXIII/Win」ではユーザーがAI開発において面倒で複雑な開発環境設定を行うことなく、届いたその日から利用することが可能です。
WSL2において以下のコンテナ環境でAI開発環境が提供されます。
製品初期設定時にはインターネット接続が必要です。
*Docker DesktopはDocker社の利用条件に従ってご利用ください。
カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて抜群のコストパフォーマンスと安定した利用環境をご提供します。
NVIDIA RTX PRO 6000 Blackwell シリーズ製品比較レポート
NVIDIA Blackwell アーキテクチャーGPUカードが搭載可能
また、Blackwell ストリーミング マルチプロセッサ(SM) は、GPU あたり最大24,064 のCUDA コアを搭載し、FP32 スループットは前世代比で最大1.4 倍向上。また、最大125TFLOPS の単精度のパフォーマンスを実現し、産業用シミュレーションや 3D モデリングを加速します。
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
安定度抜群の高効率電源
大切なシステムを丸ごと守る、安心の完全バックアップIntegrated Backup搭載
コンピュータのシステム領域を完全バックアップするためのユーティリティツールです。
システムディスクのパーティション、ファイルシステムフォーマット、データ内容をすべて記録することが可能で、日付やコメントをつけてバックアップ内容を管理できます。ブートディスク消失時の復旧や、過去にバックアップしたの状態への復帰などが容易に行えます。
【動作条件】
・システムディスク以外にデータディスクが一つ以上装備されている必要があります。
・バックアップイメージはシステムディスク以外のディスクに独立して組み込まれます。
・OSをシャットダウンさせたうえで、バックアップが入っているディスクからブートさせます。
・バックアップデータは日付別に分類されて保存されます。

また、PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
GPU演算に加えて、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
安定度抜群の高効率電源
また、PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待でき、RTX 4090(1基 限定) をはじめとする 次世代 NVIDIA Ada Lovelace アーキテクチャ GPU搭載で最適に動作することができます。
GPU演算に加えて、高速演算やシミュレーション、グラフィック作業などCPUパワーを必要する作業に満足のいくパフォーマンスを提供できるモデルです。
NVIDIA Ada Lovelace アーキテクチャ 世代 TDP 450W クラスGPUカードが搭載可能
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム
安定度抜群の高効率電源
DeepLearningSTATION II は、当社独自のケース設計によりNVIDIA Blackwell アーキテクチャーGPUであるRTX PRO 6000 Blackwellシリーズを最大4基搭載可能なAIワークステーションです。CPUにはインテル® Xeon® W プロセッサー(開発コード:Sapphire Rapids) W3500シリーズを採用し、シングルソケットで最大 60 個のメニーコア環境を実現。インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。ストレージにはフロントアクセスが可能な2台の3.5インチHDDベイと、2.5インチSSDが最大4台内蔵でき、高い拡張性を実現します。GPUカードはNVIDIA Blackwell アーキテクチャーGPUであるRTX PRO 6000 Blackwellシリーズに対応しており、LLMなどの複雑で大規模なAI学習でもご利用いただけるワークステーションです。さらに100V-15A入力の高性能電源を2基搭載したDual PSU構成によりトータル2000W以上の電源供給を可能にし、サーバールームなど特別な電源環境を備えていない居室でもハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。加えてオプションのラックマウントレールを装着することにより、デスクサイド利用のみならず19インチラックへの搭載も可能となっています。
カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて抜群のコストパフォーマンスと安定した利用環境をご提供します。
NVIDIA RTX PRO 6000 Blackwell シリーズ製品比較レポート
▼ より詳しい情報は以下の特設ページでご案内しております。
https://www.gdep.co.jp/lp-deeplearningstation2/
独自設計 4GPU ワークステーションケース
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。
デスクサイドでLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意しています。
フロントアクセス可能なストレージベイ
フロントベイはセキュリティーキーを標準装備、サイドパネルはワイヤーロックに対応し、セキュリティー面も考慮した設計となっています。
デュアルパワーサプライユニット搭載
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。
ラックマウントにも対応
オプションの 19インチラック マウントキットを装着することで6.5Uサイズで19インチラックへの搭載が可能です。
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。
DeepLearning開発環境「G-Suite」
G-Suiteは、これまでジーデップ・アドバンスが提供してきた「G-Works」の仕組み(Deep Learning の主要なフレームワークを、各世代のGPU に最適化してビルドしたソフトウェア群)を継承し、さらに発展させたOS ネイティブ環境+コンテナ環境のハイブリッドアプリケーションリソースマネージメントツールです。インターネット上のWeb サイトから様々なレシピやサポートツール群をダウンロードし、簡易解説書やチュートリアルを含むアプリケーション実行環境を構築することが可能です。Ubuntu 24.04に対応し、開発環境は miniforgeをベースとしています。各世代のGPU に最適化してビルドしたソフトウェア群に加え、OS ネイティブ環境+コンテナ環境をハイブリッドにサポートしています。
Ubuntu 22.04に対応する「G-Works4.0」を選択されたい場合はこちらからご覧ください。
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。また、フロントアクセスが可能な2基のHDDスワップベイと、4基の内蔵SSDが高いストレージ拡張性を実現します。
更にオプションのラックマウントレールを装着することにより、デスクサイド利用に加え19インチラックへの搭載も可能となっています。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なAIワークステーションです。
また、ベースとなるプラットフォームは、Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。
「G-Works 4.0」をインストール
DeepLearningSTATION シリーズには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
ジーデップ・アドバンスのAIワークステーションは、AI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
独自設計 4GPU ワークステーションケース
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。
デスクサイドでLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意しています。
フロントアクセス可能なストレージベイ
フロントベイはセキュリティーキーを標準装備、サイドパネルはワイヤーロックに対応し、セキュリティー面も考慮した設計となっています。
デュアルパワーサプライユニット搭載
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。
ラックマウントにも対応
オプションの 19インチラック マウントキットを装着することで6.5Uサイズで19インチラックへの搭載が可能です。
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。
当社独自のDeepLearning開発環境「G-Works4.0」をインストール
当社独自のDeepLearning開発環境である「G-Works 4.0」は、OSネーティブでディープラーニングフレームワークを利用できる環境に加えて、MLOpsプラットフォームであるWandBをプリインストールしており、実験結果のトラッキングや学習効率の可視化が可能です。
OSはUbuntu 22.04 LTSに対応、業界標準となっている仮想環境Dockerに加え、AI/HPCアプリケーションに適したSingularity、およびワークロードマネジメント用にSlurmをインストールしました。
また、NVIDIA社が提供するNVIDIA GPU Cloud (NGC)の内容を検索できるngcスクリプトも配置してありますので、コマンドラインから利用出来るDocker Imageを簡単に探し出すことが可能です。
G-Worksの詳細はこちらからご覧ください。
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。また、フロントアクセスが可能な2基のHDDスワップベイと、4基の内蔵SSDが高いストレージ拡張性を実現します。
更にオプションのラックマウントレールを装着することにより、デスクサイド利用に加え19インチラックへの搭載も可能となっています。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なAIワークステーションです。
また、ベースとなるプラットフォームは、Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。
「G-Works 4.0」をインストール
DeepLearning STATION シリーズには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
ジーデップ・アドバンスのAIワークステーションは、AI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
独自設計 4GPU ワークステーションケース
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。
デスクサイドでLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意しています。
フロントアクセス可能なストレージベイ
フロントベイはセキュリティーキーを標準装備、サイドパネルはワイヤーロックに対応し、セキュリティー面も考慮した設計となっています。
デュアルパワーサプライユニット搭載
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。
ラックマウントにも対応
オプションの 19インチラック マウントキットを装着することで6.5Uサイズで19インチラックへの搭載が可能です。
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。
当社独自のDeepLearning開発環境「G-Works4.0」をインストール
当社独自のDeepLearning開発環境である「G-Works 4.0」は、OSネーティブでディープラーニングフレームワークを利用できる環境に加えて、MLOpsプラットフォームであるWandBをプリインストールしており、実験結果のトラッキングや学習効率の可視化が可能です。
OSはUbuntu 22.04 LTSに対応、業界標準となっている仮想環境Dockerに加え、AI/HPCアプリケーションに適したSingularity、およびワークロードマネジメント用にSlurmをインストールしました。
また、NVIDIA社が提供するNVIDIA GPU Cloud (NGC)の内容を検索できるngcスクリプトも配置してありますので、コマンドラインから利用出来るDocker Imageを簡単に探し出すことが可能です。
G-Worksの詳細はこちらからご覧ください。
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。また、フロントアクセスが可能な2基のHDDスワップベイと、4基の内蔵SSDが高いストレージ拡張性を実現します。
更にオプションのラックマウントレールを装着することにより、デスクサイド利用に加え19インチラックへの搭載も可能となっています。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なAIワークステーションです。
また、ベースとなるプラットフォームは、Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。
「G-Works 4.0」をインストール
DeepLearning STATION シリーズには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
ジーデップ・アドバンスのAIワークステーションは、AI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
独自設計 4GPU ワークステーションケース
お客様のご要望によって設計されたGDEPオリジナルケースは2つの電源ユニットで構成され、最大4枚のハイエンドGPUを112レーンのPCI Express5.0で搭載。理論値224GT/秒の広帯域でGPU間疎通が可能となり、計算のボトルネックを大きく解消できます。
デスクサイドでLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意しています。
フロントアクセス可能なストレージベイ
フロントベイはセキュリティーキーを標準装備、サイドパネルはワイヤーロックに対応し、セキュリティー面も考慮した設計となっています。
デュアルパワーサプライユニット搭載
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。
ラックマウントにも対応
オプションの 19インチラック マウントキットを装着することで6.5Uサイズで19インチラックへの搭載が可能です。
居室だけでは無くサーバールームやデータセンターなど設置場所を選びません。
当社独自のDeepLearning開発環境「G-Works4.0」をインストール
当社独自のDeepLearning開発環境である「G-Works 4.0」は、OSネーティブでディープラーニングフレームワークを利用できる環境に加えて、MLOpsプラットフォームであるWandBをプリインストールしており、実験結果のトラッキングや学習効率の可視化が可能です。
OSはUbuntu 22.04 LTSに対応、業界標準となっている仮想環境Dockerに加え、AI/HPCアプリケーションに適したSingularity、およびワークロードマネジメント用にSlurmをインストールしました。
また、NVIDIA社が提供するNVIDIA GPU Cloud (NGC)の内容を検索できるngcスクリプトも配置してありますので、コマンドラインから利用出来るDocker Imageを簡単に探し出すことが可能です。
G-Worksの詳細はこちらからご覧ください。
拡張性にも優れ、PCIe 5.0 x16スロットを9基搭載。NVIDIA NVLink Bridge(オプション)によるGPU間の高速通信にも対応します。ストレージは、2.5インチNVMeホットスワップベイを4基、さらに1基のM.2 NVMeスロットを備え、リードライトの高速性と柔軟な構成を両立。OCP 3.0/AIOMスロットによるネットワーク機能の拡張性も確保しています。
冷却面では、高性能ファン合計10基により安定したエアフローを維持。電源には、96%以上の効率を誇るTitaniumレベルの2700W冗長電源を6基(4+2構成)を搭載し、常時高負荷が想定される環境でも高可用性を維持します。
※NVIDIA RTX PRO 6000 Blackwell Server Edition を8基搭載される場合は、動作温度環境を27度以下に設定いただく必要があります。詳しくは当社までお問い合わせください。
AMD 第5世代 AMD EPYC CPU 「Turin」 搭載
AMD EPYC™ Turinは、次世代のデータセンターおよびHPC向けに設計された第5世代EPYCプロセッサで、Zen 5アーキテクチャを採用しています。最大192コア/384スレッドという圧倒的な並列処理能力を備え、AI、HPC、仮想化、クラウド、データ分析などの高負荷ワークロードに最適です。最新のDDR5メモリとPCIe 5.0をサポートし、広帯域かつ低レイテンシのデータ転送を実現。優れた電力効率とセキュリティ機能を兼ね備え、次世代インフラの中核を担う高性能CPUです。
最新の NVIDIA Blackwell世代GPUや、Hopper世代 GPU H200 を最大8枚搭載可能
GSV-ATRSM-5U8Gは、NVIDIAの最新GPUであるRTX 6000 Blackwell Max-Q(Blackwellアーキテクチャ)をはじめ、Hopper世代のH200、Ada世代のRTX 6000 Adaなどに対応した高性能GPUサーバーです。AI推論や生成AI、HPC、3Dレンダリングといった多様なワークロードに最適な性能を提供します。特にBlackwell Max-QはFP8演算や高度なTransformer処理を省電力で実現し、高効率かつ高密度なAI環境を構築可能。第6世代Intel® Xeon® Scalableプロセッサー(Granite Rapids)との組み合わせにより、柔軟かつ拡張性の高いシステム構成が可能です。
エンタープライズ NVMe SSD
GSVシリーズに搭載されているNVMe SSDはビジネスインテリジェンス(BI)、オンライントランザクション処理(OLTP)、ソフトウェア・デファインド・ストレージ(SDS)、仮想化環境などの様々な企業向けアプリケーションおよび関連ワークロードに適したリードインテンシブSSDです。 あらゆる状態において、高い安定性能を維持し優れた耐久性と高速性を実現します。
※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。
DeepLearning開発環境「G-Suite」
G-Suiteは、これまでジーデップ・アドバンスが提供してきた「G-Works」の仕組み(Deep Learning の主要なフレームワークを、各世代のGPU に最適化してビルドしたソフトウェア群)を継承し、さらに発展させたOS ネイティブ環境+コンテナ環境のハイブリッドアプリケーションリソースマネージメントツールです。インターネット上のWeb サイトから様々なレシピやサポートツール群をダウンロードし、簡易解説書やチュートリアルを含むアプリケーション実行環境を構築することが可能です。Ubuntu 24.04に対応し、開発環境は miniforgeをベースとしています。各世代のGPU に最適化してビルドしたソフトウェア群に加え、OS ネイティブ環境+コンテナ環境をハイブリッドにサポートしています。

Ubuntu 22.04に対応する「G-Works4.0」を選択されたい場合はこちらからご覧ください。
大切なシステムを丸ごと守る、安心の完全バックアップIntegrated Backup搭載
コンピュータのシステム領域を完全バックアップするためのユーティリティツールです。
システムディスクのパーティション、ファイルシステムフォーマット、データ内容をすべて記録することが可能で、日付やコメントをつけてバックアップ内容を管理できます。ブートディスク消失時の復旧や、過去にバックアップしたの状態への復帰などが容易に行えます。
【動作条件】
・システムディスク以外にデータディスクが一つ以上装備されている必要があります。
・バックアップイメージはシステムディスク以外のディスクに独立して組み込まれます。
・OSをシャットダウンさせたうえで、バックアップが入っているディスクからブートさせます。
・バックアップデータは日付別に分類されて保存されます。

拡張性にも優れ、PCIe 5.0 x16スロットを9基搭載。NVIDIA NVLink Bridge(オプション)によるGPU間の高速通信にも対応します。ストレージは、2.5インチNVMeホットスワップベイを4基、さらに1基のM.2 NVMeスロットを備え、リードライトの高速性と柔軟な構成を両立。OCP 3.0/AIOMスロットによるネットワーク機能の拡張性も確保しています。
冷却面では、高性能ファン合計10基により安定したエアフローを維持。電源には、96%以上の効率を誇るTitaniumレベルの2700W冗長電源を6基(4+2構成)を搭載し、常時高負荷が想定される環境でも高可用性を維持します。
※NVIDIA RTX PRO 6000 Blackwell Server Edition を8基搭載される場合は、動作温度環境を27度以下に設定いただく必要があります。詳しくは当社までお問い合わせください。
AMD 第5世代 AMD EPYC CPU 「Turin」 搭載
最新の NVIDIA Blackwell世代GPUや、Hopper世代 GPU H200 を最大8枚搭載可能
エンタープライズ NVMe SSD
※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。
DeepLearning開発環境「G-Suite」

Ubuntu 22.04に対応する「G-Works4.0」を選択されたい場合はこちらからご覧ください。
大切なシステムを丸ごと守る、安心の完全バックアップIntegrated Backup搭載
コンピュータのシステム領域を完全バックアップするためのユーティリティツールです。
システムディスクのパーティション、ファイルシステムフォーマット、データ内容をすべて記録することが可能で、日付やコメントをつけてバックアップ内容を管理できます。ブートディスク消失時の復旧や、過去にバックアップしたの状態への復帰などが容易に行えます。
【動作条件】
・システムディスク以外にデータディスクが一つ以上装備されている必要があります。
・バックアップイメージはシステムディスク以外のディスクに独立して組み込まれます。
・OSをシャットダウンさせたうえで、バックアップが入っているディスクからブートさせます。
・バックアップデータは日付別に分類されて保存されます。

拡張性にも優れ、PCIe 5.0 x16スロットを9基搭載。NVIDIA NVLink Bridge(オプション)によるGPU間の高速通信にも対応します。ストレージは、2.5インチNVMeホットスワップベイを4基、さらに1基のM.2 NVMeスロットを備え、リードライトの高速性と柔軟な構成を両立。OCP 3.0/AIOMスロットによるネットワーク機能の拡張性も確保しています。
冷却面では、高性能ファン合計10基により安定したエアフローを維持。電源には、96%以上の効率を誇るTitaniumレベルの2700W冗長電源を6基(4+2構成)を搭載し、常時高負荷が想定される環境でも高可用性を維持します。
※NVIDIA RTX PRO 6000 Blackwell Server Edition を8基搭載される場合は、動作温度環境を27度以下に設定いただく必要があります。詳しくは当社までお問い合わせください。
AMD 第5世代 AMD EPYC CPU 「Turin」 搭載
最新の NVIDIA Blackwell世代GPUや、Hopper世代 GPU H200 を最大8枚搭載可能
エンタープライズ NVMe SSD
※メーカー・型番は調達状況により異なります。特定のメーカー・型番のご指定は弊社までご相談下さい。
DeepLearning開発環境「G-Suite」

Ubuntu 22.04に対応する「G-Works4.0」を選択されたい場合はこちらからご覧ください。
大切なシステムを丸ごと守る、安心の完全バックアップIntegrated Backup搭載
コンピュータのシステム領域を完全バックアップするためのユーティリティツールです。
システムディスクのパーティション、ファイルシステムフォーマット、データ内容をすべて記録することが可能で、日付やコメントをつけてバックアップ内容を管理できます。ブートディスク消失時の復旧や、過去にバックアップしたの状態への復帰などが容易に行えます。
【動作条件】
・システムディスク以外にデータディスクが一つ以上装備されている必要があります。
・バックアップイメージはシステムディスク以外のディスクに独立して組み込まれます。
・OSをシャットダウンさせたうえで、バックアップが入っているディスクからブートさせます。
・バックアップデータは日付別に分類されて保存されます。

Alveo アクセラレータ カードは、変化するアクセラレーション要件やアルゴリズム規格に柔軟に対応でき、ハードウェアを変更しなくてもあらゆるワークロードを加速できる上に、総保有コスト (TCO) を削減できます。
Alveo アクセラレータ カードの利用は、一般的なデータセンター ワークロード向けにザイリンクスおよびパートナーが提供するアプリケーションの広範なエコシステムでサポートされています。カスタム ソリューションを構築する場合は、アプリケーション開発者ツール (SDAccel™ ツール) および Machine Learning Suite を利用することで、差別化したアプリケーションを市場へ送り出すことができます。
※このカードはPassive(ファンレス)設計であり、高い冷却性能を有する筐体への搭載を前提としています。
SB7800シリーズはNVIDIAの36ポートノンブロッキング EDR 100Gb/s インフィニバンド・スマートスイッチです。1Uポートに36個のEDR 100Gb/s双方向フル帯域幅のポートを搭載し、最大7.2Tb/sのノンブロッキング帯域幅と90ナノ秒のポート間遅延という市場で最も高いファブリックパフォーマンスを発揮します。また協調設計アーキテクチャScalable Hierarchical Aggregation Protocol (SHARP)がデータセンターの稼働中の全デバイスの利用を可能にし、組込ハードウェアを利用した通信フレームワークの高速化によりアプリケーションのパフォーマンスを大幅に高めます。managed、unmaneged、P2Cエアフロー、C2Pエアフローの4タイプが用意されています。
| NVIDIA MELLANOX SB7800 シリーズ |
36-ポート ノンブロッキング管理型EDR 100Gb/s InfiniBand(インフィニバンド) スマートスイッチ ・19インチラックマウント可能な1U シャーシ ・最大7Tb/s (EDR) のアグリゲートデータスループットを実現する、36のQSFP28 ノンブロッキングポート |
| スイッチ仕様 | ・IBTA 1.2/1.3準拠 ・仮想レーンx9 :データx8+管理x1 ・256 – 4Kbyte MTU ・アダプティブルーティング ・輻輳制御 ・ポートミラーリング ・VL2VLマッピング ・4X48K エントリ リニア転送データベース |
| 管理ポート | ・10/100/1000 Ethernet(イーサネット) ポート ・DB9接続によるRS232ポート ・USBポート ・DHCP ・一般的な業界標準CLI ・IPv6による管理 ・管理IP ・SNMP v1、v2、v3 ・Web UI |
| ファブリック管理機能 | ・最大2,000ノードのファブリック管理に対応したオンボードSubnet Manager ・Unified Fabric Manager™(UFM™) Agent |
| コネクタとケーブル | ・QSFP28コネクタ ・パッシブカッパーまたはアクティブ光ケーブル ・オプティカルモジュール |
| インジケータ | ・ポート別のリンク/稼働状態表示用LED ・システム状態表示用LED:システム、ファン、電源 ・ポートエラー表示用LED ・ユニットID 表示用LED |
| 物理仕様 | ・サイズ:4.4cm(高さ)x 42.8cm(幅) x 68.6cm(奥行) ・重量:11kg |
| パワーサプライ | ・冗長電源用デュアルスロット ・ホットプラグ対応 ・入力電圧レンジ:100~127VAC、200~240VAC ・電源周波数:50~60Hz、単相AC、4.5A、2.9A |
| 冷却装置 | ・正面から背面あるいは背面から正面へのエアフローによる冷却オプション ・ホットスワップ対応ファンユニット |
| 消費電力 | ・ATIS仕様に基づく消費電力:136W |
| 発注型番 | Managed | ポート 数 |
最大転送 レート |
電源 数 |
FRU 構成 |
エア フロー |
筐体の 奥行 |
|---|---|---|---|---|---|---|---|
| MSB7800-ES2F | ○ | 36 | EDR (Switch-IB2) |
2 | Yes | P2C | Standard |
| MSB7800-ES2R | C2P | ||||||
| MSB7890-ES2F | × | P2C | |||||
| MSB7890-ES2R | C2P |
SB7800シリーズはNVIDIAの36ポートノンブロッキング EDR 100Gb/s インフィニバンド・スマートスイッチです。1Uポートに36個のEDR 100Gb/s双方向フル帯域幅のポートを搭載し、最大7.2Tb/sのノンブロッキング帯域幅と90ナノ秒のポート間遅延という市場で最も高いファブリックパフォーマンスを発揮します。また協調設計アーキテクチャScalable Hierarchical Aggregation Protocol (SHARP)がデータセンターの稼働中の全デバイスの利用を可能にし、組込ハードウェアを利用した通信フレームワークの高速化によりアプリケーションのパフォーマンスを大幅に高めます。managed、unmaneged、P2Cエアフロー、C2Pエアフローの4タイプが用意されています。
| NVIDIA MELLANOX SB7800 シリーズ |
36-ポート ノンブロッキング管理型EDR 100Gb/s InfiniBand(インフィニバンド) スマートスイッチ ・19インチラックマウント可能な1U シャーシ ・最大7Tb/s (EDR) のアグリゲートデータスループットを実現する、36のQSFP28 ノンブロッキングポート |
| スイッチ仕様 | ・IBTA 1.2/1.3準拠 ・仮想レーンx9 :データx8+管理x1 ・256 – 4Kbyte MTU ・アダプティブルーティング ・輻輳制御 ・ポートミラーリング ・VL2VLマッピング ・4X48K エントリ リニア転送データベース |
| 管理ポート | ・10/100/1000 Ethernet(イーサネット) ポート ・DB9接続によるRS232ポート ・USBポート ・DHCP ・一般的な業界標準CLI ・IPv6による管理 ・管理IP ・SNMP v1、v2、v3 ・Web UI |
| ファブリック管理機能 | ・最大2,000ノードのファブリック管理に対応したオンボードSubnet Manager ・Unified Fabric Manager™(UFM™) Agent |
| コネクタとケーブル | ・QSFP28コネクタ ・パッシブカッパーまたはアクティブ光ケーブル ・オプティカルモジュール |
| インジケータ | ・ポート別のリンク/稼働状態表示用LED ・システム状態表示用LED:システム、ファン、電源 ・ポートエラー表示用LED ・ユニットID 表示用LED |
| 物理仕様 | ・サイズ:4.4cm(高さ)x 42.8cm(幅) x 68.6cm(奥行) ・重量:11kg |
| パワーサプライ | ・冗長電源用デュアルスロット ・ホットプラグ対応 ・入力電圧レンジ:100~127VAC、200~240VAC ・電源周波数:50~60Hz、単相AC、4.5A、2.9A |
| 冷却装置 | ・正面から背面あるいは背面から正面へのエアフローによる冷却オプション ・ホットスワップ対応ファンユニット |
| 消費電力 | ・ATIS仕様に基づく消費電力:136W |
| 発注型番 | Managed | ポート 数 |
最大転送 レート |
電源 数 |
FRU 構成 |
エア フロー |
筐体の 奥行 |
|---|---|---|---|---|---|---|---|
| MSB7800-ES2F | ○ | 36 | EDR (Switch-IB2) |
2 | Yes | P2C | Standard |
| MSB7800-ES2R | C2P | ||||||
| MSB7890-ES2F | × | P2C | |||||
| MSB7890-ES2R | C2P |
QM8700シリーズ - メラノックスQuantum™ HDR 200Gb/s InfiniBandスマートスイッチ
QM8700シリーズはNVIDIAの40ポートノンブロッキング HDR 200Gb/s インフィニバンド・スマートスイッチです。1Uポートに40個のHDR 200Gb/s双方向フル帯域幅のポートを搭載し、最大16Tb/sのノンブロッキング帯域幅と130ナノ秒のポート間遅延という市場で最も高いファブリックパフォーマンスを発揮します。また協調設計アーキテクチャScalable Hierarchical Aggregation Protocol (SHARP)がデータセンターの稼働中の全デバイスの利用を可能にし、組込ハードウェアを利用した通信フレームワークの高速化によりアプリケーションのパフォーマンスを大幅に高めます。managed、unmaneged、P2Cエアフロー、C2Pエアフローの4タイプが用意されています。
| NVIDIA MELLANOX QM8700 シリーズ |
40-ポート ノンブロッキング管理型/外部管理型 HDR 200Gb/s InfiniBand(インフィニバンド) スマートスイッチ ・19インチラックマウント可能な1U シャーシ ・最大16Tb/s (HDR) のアグリゲートデータスループットを実現する、40のQSFP56 ノンブロッキングポート |
| スイッチ仕様 | ・IBTA 1.21/1.3準拠 ・仮想レーンx9 :データx8+管理x1 ・256 – 4Kbyte MTU ・アダプティブルーティング ・輻輳制御 ・ポートミラーリング ・VL2VLマッピング ・4X48K エントリ リニア転送データベース |
| 管理ポート | ・100/1000 RJ45 Ethernet(イーサネット) ポート ・RS232 コンソールポート ・USBポート ・DHCP ・業界標準のCLI ・IPv6による管理 ・管理IP ・SNMP v1、v2、v3 ・Web UI |
| ファブリック管理機能 | ・最大2,000ノードのファブリック管理に対応したオンボードSubnet Manager ・Unified Fabric Manager™(UFM™) Agent |
| コネクタとケーブル | ・QSFP56コネクタ ・パッシブカッパーまたはアクティブ光ケーブル ・オプティカルモジュール |
| インジケータ | ・ポート別のリンク/稼働状態表示用LED ・システム状態表示用LED:システム、ファン、電源 ・ポートエラー表示用LED ・ユニットID 表示用LED |
| パワーサプライ | ・冗長電源用デュアルスロット ・ホットプラグ対応 ・入力電圧レンジ:100~127VAC、200~240VAC ・電源周波数:50~60Hz、単相AC、4.5A、2.9A |
| 冷却装置 | ・正面から背面あるいは背面から正面へのエアフローによる冷却オプション ・ホットスワップ対応ファンユニット |
| 消費電力 | ・常温で最大スループットを得るための定常消費電力: - すべてのポートにAOCを接続:650W - すべてのポートにDACを接続:450W |
| 発注型番 | Managed | ポート 数 |
最大転送 レート |
電源 数 |
FRU 構成 |
エア フロー |
筐体の 奥行 |
|---|---|---|---|---|---|---|---|
| MQM8700-HS2F | ○ | 40 | 200Gb/s HDR (Quantum™) |
2 | Yes | P2C | Standard |
| MQM8700-HS2R | C2P | ||||||
| MQM8790-HS2F | × | P2C | |||||
| MQM8790-HS2R | C2P |
QM8700シリーズ - メラノックスQuantum™ HDR 200Gb/s InfiniBandスマートスイッチ
QM8700シリーズはNVIDIAの40ポートノンブロッキング HDR 200Gb/s インフィニバンド・スマートスイッチです。1Uポートに40個のHDR 200Gb/s双方向フル帯域幅のポートを搭載し、最大16Tb/sのノンブロッキング帯域幅と130ナノ秒のポート間遅延という市場で最も高いファブリックパフォーマンスを発揮します。また協調設計アーキテクチャScalable Hierarchical Aggregation Protocol (SHARP)がデータセンターの稼働中の全デバイスの利用を可能にし、組込ハードウェアを利用した通信フレームワークの高速化によりアプリケーションのパフォーマンスを大幅に高めます。managed、unmaneged、P2Cエアフロー、C2Pエアフローの4タイプが用意されています。
| NVIDIA MELLANOX QM8700 シリーズ |
40-ポート ノンブロッキング管理型/外部管理型 HDR 200Gb/s InfiniBand(インフィニバンド) スマートスイッチ ・19インチラックマウント可能な1U シャーシ ・最大16Tb/s (HDR) のアグリゲートデータスループットを実現する、40のQSFP56 ノンブロッキングポート |
| スイッチ仕様 | ・IBTA 1.21/1.3準拠 ・仮想レーンx9 :データx8+管理x1 ・256 – 4Kbyte MTU ・アダプティブルーティング ・輻輳制御 ・ポートミラーリング ・VL2VLマッピング ・4X48K エントリ リニア転送データベース |
| 管理ポート | ・100/1000 RJ45 Ethernet(イーサネット) ポート ・RS232 コンソールポート ・USBポート ・DHCP ・業界標準のCLI ・IPv6による管理 ・管理IP ・SNMP v1、v2、v3 ・Web UI |
| ファブリック管理機能 | ・最大2,000ノードのファブリック管理に対応したオンボードSubnet Manager ・Unified Fabric Manager™(UFM™) Agent |
| コネクタとケーブル | ・QSFP56コネクタ ・パッシブカッパーまたはアクティブ光ケーブル ・オプティカルモジュール |
| インジケータ | ・ポート別のリンク/稼働状態表示用LED ・システム状態表示用LED:システム、ファン、電源 ・ポートエラー表示用LED ・ユニットID 表示用LED |
| パワーサプライ | ・冗長電源用デュアルスロット ・ホットプラグ対応 ・入力電圧レンジ:100~127VAC、200~240VAC ・電源周波数:50~60Hz、単相AC、4.5A、2.9A |
| 冷却装置 | ・正面から背面あるいは背面から正面へのエアフローによる冷却オプション ・ホットスワップ対応ファンユニット |
| 消費電力 | ・常温で最大スループットを得るための定常消費電力: - すべてのポートにAOCを接続:650W - すべてのポートにDACを接続:450W |
| 発注型番 | Managed | ポート 数 |
最大転送 レート |
電源 数 |
FRU 構成 |
エア フロー |
筐体の 奥行 |
|---|---|---|---|---|---|---|---|
| MQM8700-HS2F | ○ | 40 | 200Gb/s HDR (Quantum™) |
2 | Yes | P2C | Standard |
| MQM8700-HS2R | C2P | ||||||
| MQM8790-HS2F | × | P2C | |||||
| MQM8790-HS2R | C2P |
SN2100システムは、1Uスペースに2台収納可能な高密度100ギガビットEthernetスイッチです。16ポートのQSFP28ポートはポート毎に40/56/100ギガビットの幅広いポートスピードに対応。さらに最大64の10/25Gb や 32の50GbEポートにも対応します。1Uサイズでのスイッチ冗長化にも対応しコンパクトかつ広帯域を求めるシステムに最適なハーフサイズネットワークスイッチです。
OS3種類 Mellanox ONYX、Cumulus Linux、ONIE x エアフロー2種類 P2C、C2P、の計6タイプが用意されています。
| 物理仕様 | サイズ | 43.8mm (H) x 200mm (W) x 508mm (D) |
|---|---|---|
| マウント | 19インチラックマウント | |
| 重量 | 4.540kg | |
| スピード | 10/25/40/50/56/100GbE per port | |
| コネクタ | 16ポートxQSFP28 | |
| 電源 | 入力電圧 | 100-127VAC 50/60Hz 4.5A; 200-240 50/60Hz 2.9A |
| グローバル 消費電力 |
●40GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(SR4ケーブル利用時) (QSFP28ポートあたり1.5W想定): 216.6W |
|
| ●100GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(オプティカルケーブル利用時) (QSFP28ポートあたり3.5W想定): 248.6W |
||
| 主な デバイス |
CPU | Intel x86 2.40GHz Quad Core |
| PCIe | 4x Gen2.0 | |
| スイッチ | Mellanox Spectrum™ | |
| メモリ | ・SDRAM: 8GB DDR3L 1600 MT/s SO-DIMM ・Storage: 16GB Dual Channel MLC M.2-SATA SSD |
|
| スループット | 3.2Tb/s | |
SN2100システムは、1Uスペースに2台収納可能な高密度100ギガビットEthernetスイッチです。16ポートのQSFP28ポートはポート毎に40/56/100ギガビットの幅広いポートスピードに対応。さらに最大64の10/25Gb や 32の50GbEポートにも対応します。1Uサイズでのスイッチ冗長化にも対応しコンパクトかつ広帯域を求めるシステムに最適なハーフサイズネットワークスイッチです。
OS3種類 Mellanox ONYX、Cumulus Linux、ONIE x エアフロー2種類 P2C、C2P、の計6タイプが用意されています。
| 物理仕様 | サイズ | 43.8mm (H) x 200mm (W) x 508mm (D) |
|---|---|---|
| マウント | 19インチラックマウント | |
| 重量 | 4.540kg | |
| スピード | 10/25/40/50/56/100GbE per port | |
| コネクタ | 16ポートxQSFP28 | |
| 電源 | 入力電圧 | 100-127VAC 50/60Hz 4.5A; 200-240 50/60Hz 2.9A |
| グローバル 消費電力 |
●40GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(SR4ケーブル利用時) (QSFP28ポートあたり1.5W想定): 216.6W |
|
| ●100GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(オプティカルケーブル利用時) (QSFP28ポートあたり3.5W想定): 248.6W |
||
| 主な デバイス |
CPU | Intel x86 2.40GHz Quad Core |
| PCIe | 4x Gen2.0 | |
| スイッチ | Mellanox Spectrum™ | |
| メモリ | ・SDRAM: 8GB DDR3L 1600 MT/s SO-DIMM ・Storage: 16GB Dual Channel MLC M.2-SATA SSD |
|
| スループット | 3.2Tb/s | |
SN2100システムは、1Uスペースに2台収納可能な高密度100ギガビットEthernetスイッチです。16ポートのQSFP28ポートはポート毎に40/56/100ギガビットの幅広いポートスピードに対応。さらに最大64の10/25Gb や 32の50GbEポートにも対応します。1Uサイズでのスイッチ冗長化にも対応しコンパクトかつ広帯域を求めるシステムに最適なハーフサイズネットワークスイッチです。
OS3種類 Mellanox ONYX、Cumulus Linux、ONIE x エアフロー2種類 P2C、C2P、の計6タイプが用意されています。
| 物理仕様 | サイズ | 43.8mm (H) x 200mm (W) x 508mm (D) |
|---|---|---|
| マウント | 19インチラックマウント | |
| 重量 | 4.540kg | |
| スピード | 10/25/40/50/56/100GbE per port | |
| コネクタ | 16ポートxQSFP28 | |
| 電源 | 入力電圧 | 100-127VAC 50/60Hz 4.5A; 200-240 50/60Hz 2.9A |
| グローバル 消費電力 |
●40GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(SR4ケーブル利用時) (QSFP28ポートあたり1.5W想定): 216.6W |
|
| ●100GbEモデル ・標準消費電力(パッシブケーブル利用時) (ATIS): 94.3W ・最大消費電力(オプティカルケーブル利用時) (QSFP28ポートあたり3.5W想定): 248.6W |
||
| 主な デバイス |
CPU | Intel x86 2.40GHz Quad Core |
| PCIe | 4x Gen2.0 | |
| スイッチ | Mellanox Spectrum™ | |
| メモリ | ・SDRAM: 8GB DDR3L 1600 MT/s SO-DIMM ・Storage: 16GB Dual Channel MLC M.2-SATA SSD |
|
| スループット | 3.2Tb/s | |
NVIDIA RTX PRO™ 6000 Blackwell Workstation Edition は、これまでに作られた中で最も強力なワークステーション GPU で、プロフェッ ショナル向けのパフォーマンスと機能を備えています。比類のない AI 処理能力で最も要求の厳しいクリエイティブワークフローに取り組みます。画期的な NVIDIA Blackwell アーキテクチャーに基づいて構築され、96GB の超高速 GDDR7 メモリを搭載した RTX PRO™ 6000 Workstation Edition は、高い速度、精度、効率を提供します。また、Blackwellストリーミング マルチプロセッサ(SM)は、GPU あたり最大24,064のCUDAコアを搭載し、FP32スループットは前世代比で最大1.4倍向上。また、最大125TFLOPSの単精度のパフォーマンスを実現し、産業用シミュレーションや 3Dモデリングを加速します。
プロフェッショナル向けのパフォーマンスと機能
NVIDIA Blackwell アーキテクチャー
また、Blackwell ストリーミング マルチプロセッサ(SM) は、GPU あたり最大24,064 のCUDA コアを搭載し、最大125TFLOPS の単精度のパフォーマンスを実現し、産業用シミュレーションや 3D モデリングを加速します。
高帯域で大容量なGDDR7 メモリ
最大96GB のGPU メモリで大規模な3D プロジェクトやAI プロジェクトに対応し、VR 環境の探索やマルチアプリケーションのワークフローを効率的に処理します。また、GDDR7メモリは、レイトレーシング、レンダリング、およびAIワークロードを加速するために、最大2 倍のメモリ帯域幅を実現します。
NVIDIA RTX PRO™は、レイテンシに対して敏感なプロフェッショナルアプリケーションにおいて、最大のデータセットとモデルに対応するために業界最高のメモリ容量を搭載しています。
PCIe Gen5
製品サイズ

200GHDR対応カード:NVIDIA Mellanox ConnectX-6 アダプタカードは、NVIDIA Mellanox スマート・インターコネクトスイートの最新製品です。協調設計(Co-Design)、「In-Network Compute」のサポートしています。、HPC環境、クラウド、データ分析、ストレージプラットフォームにおいて最適化、高速通信が可能なカードです。
| ConnectX-6 VPI | Single/Dual-Port 200Gb/s Adapter Card with Virtual Protocol Interconnect |
| INFINIBAND | ・HDR /HDR100 /EDR / FDR / QDR / DDR / SDR ・IBTA仕様1.3 準拠 ・RDMA、Send/Receive semantics ・ハードウェアベースの輻輳制御 ・アトミック操作 ・1,600万I/O チャネル ・256 to 4Kバイト MTU、2Gバイトメッセージ ・8 仮想レーン + VL15 |
| ETHERNET | ・200GbE/ 100GbE/ 50GbE/ 40GbE/ 25GbE/ 10GbE/ 1GbE (詳細はブローシャ参照) |
| 強化機能 | (詳細はブローシャ参照) |
| CPU オフロード | ・RDMA over Converged Ethernet (RoCE) ・TCP/UDP/IP ステートレスオフロード ・LSO、LRO、チェックサムオフロード ・(カプセル化されたパケットを含めた)RSS、TSS、HDS、VLANおよびMPLS tag insertion / stripping、Receive flow steering、Receive flow steering ・カーネル・バイパス・アプリケーションのためのData Plane Development Kit (DPDK) ・ASAP2を活用する、Open VSwitch (OVS) オフロード ・Flexible match-action flow tables ・トンネリング カプセル化 / カプセル化解除 ・Intelligent interrupt coalescence ・NATルータのハードウェア・オフロードをサポートするヘッダの書き換え |
| ストレージオフロード | ・ブロックーレベル暗号化:XTS-AES 256/512ビットキー ・ターゲット機器のためのNVMe over Fabricsオフロード ・リードソロモン演算をオフロードする、イレイジャーコーディング(Erasure Coding)オフロード ・T10 DIF - 入力および出力トラフィックのワイヤースピードでのシグネチャーハンドオーバー操作 ・ストレージプロトコル: ・SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF |
| オーバーレイ ネットワーク |
・オーバーレイネットワークを介したRoCE ・オーバーレイネットワークのトンネリングプロトコルのためのステートレスオフロード ・VXLAN、NVGRE、およびGENEVEオーバーレイネットワークのカプセル化とカプセル化解除のハードウェア・オフロード |
| ハードウェアベースの I/O仮想化 |
・Single Root IOV ・Address translation and protection ・VMware NetQueue support ・SR-IOV:最大512 仮想機能 ・SR-IOV:ホスト毎に最大16 の物理機能 ・仮想化階層(別名 NPAR) ・物理ポート上の物理機能の仮想化 ・すべての物理機能上のSR-IOV ・設定可能でユーザがプログラム可能なOoS ・VMのための保証されたQoS |
| HPC ソフトウェア ライブラリ |
・HPC-X、Open MPI、 MVAPICH、MPICH、Open SHMEM, PGAS 及び様々なコマーシャルパッケージ |
| 管理とコントロール | ・NC-SI、MCTP over SMBus と MCTP over PCIe - ベースボード管理コントローラインターフェイス ・モニタおよび制御用のPLDM DSP0248 ・ファームウェア更新用のPLDM DSP0267 ・eSwitchを管理するためのSDN 管理インターフェイス ・デバイス制御と設定のためのI2C インターフェイス ・General Purpose I/O ピン ・FlashへのSPI インターフェイス ・JTAG IEEE 1149.1と IEEE 1149.6 |
| リモート起動 | ・InfiniBandを介したリモート起動 ・Ethernetを介したリモート起動 ・iSCSI を介したリモート起動 ・Unified Extensible Firmware Interface (UEFI) ・Pre-execution Environment (PXE) |
| パーツナンバー | InfiniBandで サポートされる 速度 (Gb/s) |
Ethernetで サポートされる 速度 (GbE) |
ポート数 | ケージ | PCI Express設定 |
|---|---|---|---|---|---|
| MCX653105A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25, 10 |
1 | QSFP56 | PCIe 3.0 x16 |
| MCX653106A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | PCIe 3.0 x16 |
| MCX653105A-HDAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | PCIe 3.0/4.0 x16 |
| MCX653106A-HDAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | PCIe 3.0/4.0 x16 |
| Socket Direct | |||||
| MCX653105A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 1 | QSFP56 | PCIe3.0/4.0 Socket Direct 2x8 in a row |
| MCX653106A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | PCIe3.0/4.0 Socket Direct 2x8 in a row |
| MCX654105A-HCAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
| MCX654106A-HCAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
| MCX654106A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
| OCP 3.0 | |||||
| MCX653435A-HDAI | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | OCP 3.0, with host management PCIe4.0 x16, Internal Lock |
| MCX653436A-HDAI | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | OCP 3.0, with host management PCIe4.0 x16, Internal Lock |
| MCX653435A-EDAI | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 1 | QSFP56 | OCP 3.0, with host management PCIe 3.0/4.0 x16, Internal Lock |
注:ブラケットなしの寸法は167.65mm x 68.90mmです。すべてのトール(背の高い)・ブラケットアダプタには、トール・ブラケットが取り付けられ、ショート・ブラケットが付属品として添付され出荷されます。l
200GHDR対応カード:NVIDIA Mellanox ConnectX-6 アダプタカードは、NVIDIA Mellanox スマート・インターコネクトスイートの最新製品です。協調設計(Co-Design)、「In-Network Compute」のサポートしています。、HPC環境、クラウド、データ分析、ストレージプラットフォームにおいて最適化、高速通信が可能なカードです。
| ConnectX-6 VPI | Single/Dual-Port 200Gb/s Adapter Card with Virtual Protocol Interconnect |
| INFINIBAND | ・HDR /HDR100 /EDR / FDR / QDR / DDR / SDR ・IBTA仕様1.3 準拠 ・RDMA、Send/Receive semantics ・ハードウェアベースの輻輳制御 ・アトミック操作 ・1,600万I/O チャネル ・256 to 4Kバイト MTU、2Gバイトメッセージ ・8 仮想レーン + VL15 |
| ETHERNET | ・200GbE/ 100GbE/ 50GbE/ 40GbE/ 25GbE/ 10GbE/ 1GbE (詳細はブローシャ参照) |
| 強化機能 | (詳細はブローシャ参照) |
| CPU オフロード | ・RDMA over Converged Ethernet (RoCE) ・TCP/UDP/IP ステートレスオフロード ・LSO、LRO、チェックサムオフロード ・(カプセル化されたパケットを含めた)RSS、TSS、HDS、VLANおよびMPLS tag insertion / stripping、Receive flow steering、Receive flow steering ・カーネル・バイパス・アプリケーションのためのData Plane Development Kit (DPDK) ・ASAP2を活用する、Open VSwitch (OVS) オフロード ・Flexible match-action flow tables ・トンネリング カプセル化 / カプセル化解除 ・Intelligent interrupt coalescence ・NATルータのハードウェア・オフロードをサポートするヘッダの書き換え |
| ストレージオフロード | ・ブロックーレベル暗号化:XTS-AES 256/512ビットキー ・ターゲット機器のためのNVMe over Fabricsオフロード ・リードソロモン演算をオフロードする、イレイジャーコーディング(Erasure Coding)オフロード ・T10 DIF - 入力および出力トラフィックのワイヤースピードでのシグネチャーハンドオーバー操作 ・ストレージプロトコル: ・SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF |
| オーバーレイ ネットワーク |
・オーバーレイネットワークを介したRoCE ・オーバーレイネットワークのトンネリングプロトコルのためのステートレスオフロード ・VXLAN、NVGRE、およびGENEVEオーバーレイネットワークのカプセル化とカプセル化解除のハードウェア・オフロード |
| ハードウェアベースの I/O仮想化 |
・Single Root IOV ・Address translation and protection ・VMware NetQueue support ・SR-IOV:最大512 仮想機能 ・SR-IOV:ホスト毎に最大16 の物理機能 ・仮想化階層(別名 NPAR) ・物理ポート上の物理機能の仮想化 ・すべての物理機能上のSR-IOV ・設定可能でユーザがプログラム可能なOoS ・VMのための保証されたQoS |
| HPC ソフトウェア ライブラリ |
・HPC-X、Open MPI、 MVAPICH、MPICH、Open SHMEM, PGAS 及び様々なコマーシャルパッケージ |
| 管理とコントロール | ・NC-SI、MCTP over SMBus と MCTP over PCIe - ベースボード管理コントローラインターフェイス ・モニタおよび制御用のPLDM DSP0248 ・ファームウェア更新用のPLDM DSP0267 ・eSwitchを管理するためのSDN 管理インターフェイス ・デバイス制御と設定のためのI2C インターフェイス ・General Purpose I/O ピン ・FlashへのSPI インターフェイス ・JTAG IEEE 1149.1と IEEE 1149.6 |
| リモート起動 | ・InfiniBandを介したリモート起動 ・Ethernetを介したリモート起動 ・iSCSI を介したリモート起動 ・Unified Extensible Firmware Interface (UEFI) ・Pre-execution Environment (PXE) |
| パーツナンバー | InfiniBandで サポートされる 速度 (Gb/s) |
Ethernetで サポートされる 速度 (GbE) |
ポート数 | ケージ | PCI Express設定 |
|---|---|---|---|---|---|
| MCX653105A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25, 10 |
1 | QSFP56 | PCIe 3.0 x16 |
| MCX653106A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | PCIe 3.0 x16 |
| MCX653105A-HDAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | PCIe 3.0/4.0 x16 |
| MCX653106A-HDAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | PCIe 3.0/4.0 x16 |
| Socket Direct | |||||
| MCX653105A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 1 | QSFP56 | PCIe3.0/4.0 Socket Direct 2x8 in a row |
| MCX653106A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | PCIe3.0/4.0 Socket Direct 2x8 in a row |
| MCX654105A-HCAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
| MCX654106A-HCAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
| MCX654106A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 2 | QSFP56 | Socket Direct 2x PCIe3.0 x16 |
| OCP 3.0 | |||||
| MCX653435A-HDAI | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 1 | QSFP56 | OCP 3.0, with host management PCIe4.0 x16, Internal Lock |
| MCX653436A-HDAI | HDR, HDR100, EDR, FDR, QDR, DDR, SDR | 200,100,50,40,25,10 | 2 | QSFP56 | OCP 3.0, with host management PCIe4.0 x16, Internal Lock |
| MCX653435A-EDAI | HDR100, EDR, FDR, QDR, DDR, SDR | 100,50,40,25,10 | 1 | QSFP56 | OCP 3.0, with host management PCIe 3.0/4.0 x16, Internal Lock |
注:ブラケットなしの寸法は167.65mm x 68.90mmです。すべてのトール(背の高い)・ブラケットアダプタには、トール・ブラケットが取り付けられ、ショート・ブラケットが付属品として添付され出荷されます。l
NVIDIA® RTX PRO 6000 Blackwell Server Edition は、最新GPUアーキテクチャ「Blackwell」を採用した、データセンター向けの次世代GPUです。96GBの大容量GDDR7メモリと最大3.7ペタFLOPSに達するAI演算性能を備え、第5世代Tensorコアと第4世代RTコアにより生成AIや大規模言語モデル(LLM)、エージェントAIの推論処理に最適化されています。前世代のNVIDIA L40Sと比較して、生成AI推論では最大6倍、レンダリングでは最大4倍、エネルギー効率においては最大18倍の性能向上を実現。従来膨大な計算リソースと時間を要した高度なシミュレーションや高精度ビジュアライゼーションも、短時間で実行可能としました。これにより、研究開発、生産設計、映像制作、メタバースなど、あらゆる領域において新たなイノベーションを加速させます。
さらに、マルチインスタンスGPU(MIG)機能により、1枚のGPUを最大4つの独立したインスタンスとして活用でき、複数ユーザーや多様なワークロードを同時に効率的に処理可能です。Confidential Computing対応による高度なセキュリティ機能も備え、エンタープライズ環境における安全なAI活用を支えます。加えて、第9世代NVENC/第6世代NVDECによる高性能なエンコード・デコード、DisplayPort 2.1対応による16K出力など、AIからHPC、映像処理まで幅広いユースケースに対応します。
NVIDIAが提唱する「AIファクトリー」の中核を担う存在として、本製品はデータセンターを“AIを生み出す工場”へと進化させます。AIファクトリーとは、生成AIや大規模言語モデルを学習・推論し続けるための新しいコンピューティング基盤の概念であり、AIを知識・価値として生産し社会に供給する仕組みです。RTX PRO 6000 Blackwellは、その柔軟性・高性能・効率性をもって、次世代の産業や研究を支えるAIファクトリの実現に不可欠なソリューションです。
RTX PRO 6000 Blackwell Server Edition は、AI時代のデータセンターを変革し、企業や研究機関の競争力を大きく高める、強力かつ信頼性の高いGPUです。
このカードを搭載したモデルはこちらから
GSV-IGRAX-4U8G
GSV-ATRSM-5U8G
※ジーデップ・アドバンスのサーバー、ワークステーションは最新の高負荷GPUカードが安定して最高のパフォーマンスが発揮できるよう、
NVIDIA社やベアボーンメーカーと連携し、ハードウェア・OS・ミドルウェア・開発ツールまで最適化した形でご提供しています。
データセンター向けのパフォーマンスと機能
Blackwellアーキテクチャの革新
更に、ユニバーサルMIGにより単一のRTX PRO 6000 Blackwellを最大4つの完全に分離されたインスタンスに分割可能にする次世代GPUプラットフォームです。
高帯域で大容量なGDDR7 メモリ
PCIe Gen5
製品サイズ

NVIDIA® RTX PRO 6000 Blackwell Server Edition は、最新GPUアーキテクチャ「Blackwell」を採用した、データセンター向けの次世代GPUです。96GBの大容量GDDR7メモリと最大3.7ペタFLOPSに達するAI演算性能を備え、第5世代Tensorコアと第4世代RTコアにより生成AIや大規模言語モデル(LLM)、エージェントAIの推論処理に最適化されています。前世代のNVIDIA L40Sと比較して、生成AI推論では最大6倍、レンダリングでは最大4倍、エネルギー効率においては最大18倍の性能向上を実現。従来膨大な計算リソースと時間を要した高度なシミュレーションや高精度ビジュアライゼーションも、短時間で実行可能としました。これにより、研究開発、生産設計、映像制作、メタバースなど、あらゆる領域において新たなイノベーションを加速させます。
さらに、マルチインスタンスGPU(MIG)機能により、1枚のGPUを最大4つの独立したインスタンスとして活用でき、複数ユーザーや多様なワークロードを同時に効率的に処理可能です。Confidential Computing対応による高度なセキュリティ機能も備え、エンタープライズ環境における安全なAI活用を支えます。加えて、第9世代NVENC/第6世代NVDECによる高性能なエンコード・デコード、DisplayPort 2.1対応による16K出力など、AIからHPC、映像処理まで幅広いユースケースに対応します。
NVIDIAが提唱する「AIファクトリー」の中核を担う存在として、本製品はデータセンターを“AIを生み出す工場”へと進化させます。AIファクトリーとは、生成AIや大規模言語モデルを学習・推論し続けるための新しいコンピューティング基盤の概念であり、AIを知識・価値として生産し社会に供給する仕組みです。RTX PRO 6000 Blackwellは、その柔軟性・高性能・効率性をもって、次世代の産業や研究を支えるAIファクトリの実現に不可欠なソリューションです。
RTX PRO 6000 Blackwell Server Edition は、AI時代のデータセンターを変革し、企業や研究機関の競争力を大きく高める、強力かつ信頼性の高いGPUです。
このカードを搭載したモデルはこちらから
GSV-IGRAX-4U8G
GSV-ATRSM-5U8G
※ジーデップ・アドバンスのサーバー、ワークステーションは最新の高負荷GPUカードが安定して最高のパフォーマンスが発揮できるよう、
NVIDIA社やベアボーンメーカーと連携し、ハードウェア・OS・ミドルウェア・開発ツールまで最適化した形でご提供しています。
データセンター向けのパフォーマンスと機能
Blackwellアーキテクチャの革新
更に、ユニバーサルMIGにより単一のRTX PRO 6000 Blackwellを最大4つの完全に分離されたインスタンスに分割可能にする次世代GPUプラットフォームです。
高帯域で大容量なGDDR7 メモリ
PCIe Gen5
製品サイズ

NVIDIA® RTX PRO 6000 Blackwell Server Edition は、最新GPUアーキテクチャ「Blackwell」を採用した、データセンター向けの次世代GPUです。96GBの大容量GDDR7メモリと最大3.7ペタFLOPSに達するAI演算性能を備え、第5世代Tensorコアと第4世代RTコアにより生成AIや大規模言語モデル(LLM)、エージェントAIの推論処理に最適化されています。前世代のNVIDIA L40Sと比較して、生成AI推論では最大6倍、レンダリングでは最大4倍、エネルギー効率においては最大18倍の性能向上を実現。従来膨大な計算リソースと時間を要した高度なシミュレーションや高精度ビジュアライゼーションも、短時間で実行可能としました。これにより、研究開発、生産設計、映像制作、メタバースなど、あらゆる領域において新たなイノベーションを加速させます。
さらに、マルチインスタンスGPU(MIG)機能により、1枚のGPUを最大4つの独立したインスタンスとして活用でき、複数ユーザーや多様なワークロードを同時に効率的に処理可能です。Confidential Computing対応による高度なセキュリティ機能も備え、エンタープライズ環境における安全なAI活用を支えます。加えて、第9世代NVENC/第6世代NVDECによる高性能なエンコード・デコード、DisplayPort 2.1対応による16K出力など、AIからHPC、映像処理まで幅広いユースケースに対応します。
NVIDIAが提唱する「AIファクトリー」の中核を担う存在として、本製品はデータセンターを“AIを生み出す工場”へと進化させます。AIファクトリーとは、生成AIや大規模言語モデルを学習・推論し続けるための新しいコンピューティング基盤の概念であり、AIを知識・価値として生産し社会に供給する仕組みです。RTX PRO 6000 Blackwellは、その柔軟性・高性能・効率性をもって、次世代の産業や研究を支えるAIファクトリの実現に不可欠なソリューションです。
RTX PRO 6000 Blackwell Server Edition は、AI時代のデータセンターを変革し、企業や研究機関の競争力を大きく高める、強力かつ信頼性の高いGPUです。
このカードを搭載したモデルはこちらから
GSV-IGRAX-4U8G
GSV-ATRSM-5U8G
※ジーデップ・アドバンスのサーバー、ワークステーションは最新の高負荷GPUカードが安定して最高のパフォーマンスが発揮できるよう、
NVIDIA社やベアボーンメーカーと連携し、ハードウェア・OS・ミドルウェア・開発ツールまで最適化した形でご提供しています。
データセンター向けのパフォーマンスと機能
Blackwellアーキテクチャの革新
更に、ユニバーサルMIGにより単一のRTX PRO 6000 Blackwellを最大4つの完全に分離されたインスタンスに分割可能にする次世代GPUプラットフォームです。
高帯域で大容量なGDDR7 メモリ
PCIe Gen5
製品サイズ

NVIDIA® H200 NVL は、最新のGPUアーキテクチャ「Hopper」を採用し、大容量141GBのHBM3eメモリと4.8TB/sの帯域幅を実現し生成AIに最適化されたGPUです。700億パラメータの大規模言語モデル 「Llama2 70B」の推論を前モデルである、NVIDIA H100と比較して1.9倍、1750億パラメータの大規模言語モデル「GPT3-175B」の推論で1.6倍高速化し、HPCアプリケーションにおいてはCPU (Xeon® Platinum 8480+ 2CPU) に比べて110倍の高速化を実現します。
これにより、大規模言語モデルの開発や、複雑なシミュレーションなどの高度な計算処理を短時間で実行可能になりました。また、NVIDIA AI Enterpriseの5年サブスクリプションを付属することで、より円滑なAI開発環境を提供します。
※本製品は消費電力が非常に高くNVIDIAが認定したシステムにのみ搭載可能です。動作認証済のシステムや搭載方法については弊社にご相談下さい。 ※NVLinkでのGPU接続は、NVIDIA H100 NVL を2枚接続する際に有効です。異なるGPUカードとの接続は動作保障外となりますのでご注意下さい。
| NVIDIA H100 for PCIe | NVIDIA H100 NVL for PCIe | NVIDIA H200 NVL for PCIe | |
| アーキテクチャ | Hopper | Hopper | Hopper |
| FP64 | 24 TFLOPS | 30TFLOPS | 30 TFLOPS |
| FP64 Tensor コア | 30 TFLOPS | 60TFLOPS | 60 TFLOPS |
| FP32 | 30 TFLOPS | 60TFLOPS | 60 TFLOPS |
| TF32 Tensor コア* | 395 TFLOPS | 835TFLOPS | 835 TFLOPS |
| BFLOAT16 Tensor コア* | 395 TFLOPS | 1,671TFLOPS | 1,671 TFLOPS |
| FP16 Tensor コア* | 1,513 TFLOPS | 1,671TFLOPS | 1,671 TFLOPS |
| FP8 Tensor コア* | 3,026 TFLOPS | 3,341TFLOPS | 3,341 TFLOPS |
| INT8 Tensor コア* | 3,026 TOPS | 3,341 TOPS | 3,341 TFLOPS |
| GPU メモリ | 80 GB HBM2e | 94GB HBM3 | 141GB HBM3e |
| GPU メモリ帯域幅 | 2TB/秒 | 3.9TB/秒 | 4.8TB/秒 |
| デコーダー | 7 NVDEC | 7 NVDEC | 7 NVDEC |
| TDP | 約350W | 350-400W (構成可能) | 最大600W(設定可能) |
| マルチインスタンス GPU | 最大 7 個の MIG(第3世代) | 各 12GB の最大 14 個の MIG | 最大7パーティション(各16.5GB) |
| フォーム ファクター | PCIe Dual Slot | PCIe Dual Slot | PCIe Dual Slot |
| 冷却方法 | Passive | Passive | Passive |
| NVIDIA AI Enterprise | 含む(5年間) | 含む(5年間) | 含む(5年間) |
| 保証 | 3年 | 3年 | 3年 |
このカードを搭載したモデルはこちらから
➡【GSV-IGRAS-4U8G】【GSV-ATRSM-5U8G】
※ジーデップ・アドバンスのサーバー、ワークステーションは最新の高負荷GPUカードが安定して最高のパフォーマンスが発揮できるよう、 NVIDIA社やベアボーンメーカーと連携し、ハードウェア・OS・ミドルウェア・開発ツールまで最適化した形でご提供しています。
大容量で高速なHBM3eメモリによる高いパフォーマンス
NVIDIA Hopper アーキテクチャをベースとする NVIDIA H200 は、毎秒 4.8 テラバイト (TB/s) で 141 ギガバイト (GB) の HBM3eメモリを提供する初の GPU です。
これは、NVIDIA H100 Tensor コア GPU の約 2 倍の容量で、メモリ帯域幅は 1.4 倍です。H200 の大容量かつ高速なメモリは、生成 AI と LLM を加速し、エネルギー効率を向上させ、総所有コストを低減し、HPC ワークロードに最適化されています。

LLM・推論速度がH100と比較して最大 2倍向上
LLMを円滑に稼働させるためには、高性能なコンピュータが必要不可欠です。NVIDIA H200 AIアクセラレータは、この課題を解決する画期的なGPUです。700億パラメータの大規模言語モデル 「Llama2 70B」の推論を前モデルである、NVIDIA H100と比較して1.9倍、1750億パラメータの大規模言語モデル「GPT3-175B」の推論で1.6倍高速化し、LLMの処理速度を最大約2倍に向上させることで、より多くのユーザーに、より迅速かつ高品質なAIサービスを提供することが可能になります。

HPCアプリケーションに対してデータ転送110倍に高速化(対CPU)
NVIDIA H200は、膨大なデータを高速に処理する能力に長けたGPUです。GPUはデータの読み書き速度を示す指標としてメモリ帯域幅があり、H200は前モデルのH100 80GBの2.0TB/s、H100 NVL 94GBの3.9TB/s からさらに進化して4.8TB/s のメモリ帯域をもっています。スーパーコンピューターで複雑な計算を行う場合、大量のデータをメモリーとCPUの間で何度もやり取りが行われるのですが、これがボトルネックとなり計算速度が遅くなってしまうことがあります。
NVIDIA H200は、このボトルネックを解消するために、4.8TB/sと非常に高いメモリ帯域幅を実現しています。データをスムーズにやり取りできるため、シミュレーションやAIの学習など、大規模な計算を短時間で処理することが可能です。
また、H200は従来のCPU (Xeon® Platinum 8480+ 2CPU) と比べて、110倍の速さでデータを処理でき、高速なメモリ帯域幅は、科学研究やAI開発など技術革新を加速させる上で不可欠な存在となります。

エネルギーとTCOの効率化
NVIDIA H200は、驚異的な性能を発揮しながらも、同時にTCO(総所有コスト)を大幅に削減できる画期的なGPUです。
前世代のH100と同等の電力消費量でありながらはるかに高いパフォーマンスを実現します。AIモデルの学習や、大規模なシミュレーションなど、高度な計算処理を必要とする分野においてこの高いエネルギー効率は、電気料金の削減に直結し、TCOを大幅に抑えることに貢献します。
高いエネルギー効率を実現することで消費電力を削減し環境負荷を軽減します。これは、サステナビリティ社会の実現に向けた重要なファクター言えるでしょう。

NVIDIA AI Enterprise エンタープライズサポートを含む5年のソフトウェアサブスクリプションが付属
NVIDIA H200とNVIDIA AI Enterpriseの組み合わせは、AI 対応プラットフォームの構築が簡素化され、生成AIやコンピュータビジョンなど、多様なAIモデルの開発と導入を加速させ、企業レベルのセキュリティと安定性を確保します。AI開発者は複雑な環境設定に煩わされることなく、AIモデルの開発に集中することができます。
これらの要素が組み合わさることで、企業はAIの導入障壁を下げ、より迅速にビジネスにAIを導入し、競争優位性を確立することができます。
NVIDIA H200には5年間分のNVIDIA AI Enterprise ソフトウェアとサポートが含まれています。

2. With sparsity.
スケーラブルなコンピューティングのための究極のワークステーション向けGPU「 NVIDIA RTX PRO™ 6000 Blackwell Max-QWorkstation Edition」は、これまでにないスケーラビリティとパフォーマンスを実現します。96GB のGDDR7 メモリ搭載により、膨大なデータセット、複雑なシミュレーション、AI 強化アプリケーションを高いパフォーマンスと精度で処理できます。複数のRTX PRO™ 6000 Max-Q GPU を組み合わせることで、ユーザーは比類のないレベルのコンピューティング パワー、メモリ容量、データ スループットを実現できるため、AI、グラフィックス、コンピューティングのアップデートを必要とする ミッション クリティカルなアプリケーションに最適なソリューションです。データサイエンスやエージェントAI からプロフェッショナルな視覚化や仮想制作まで、ブレークスルーを推進するために必要なスケーラビリティ、信頼性、イノベーションを提供します。
プロフェッショナル向けのパフォーマンスと機能
NVIDIA Blackwell アーキテクチャー
また、Blackwell ストリーミング マルチプロセッサ(SM) は、GPU あたり最大24,064 のCUDA コアを搭載し、最大110TFLOPS の単精度のパフォーマンスを実現し、産業用シミュレーションや 3D モデリングを加速します。
高帯域で大容量なGDDR7 メモリ
最大96GB のGPU メモリで大規模な3D プロジェクトやAI プロジェクトに対応し、VR 環境の探索やマルチアプリケーションのワークフローを効率的に処理します。また、GDDR7メモリは、レイトレーシング、レンダリング、およびAIワークロードを加速するために、最大2 倍のメモリ帯域幅を実現します。
PCIe Gen5
製品サイズ

スケーラブルなコンピューティングのための究極のワークステーション向けGPU「 NVIDIA RTX PRO™ 6000 Blackwell Max-QWorkstation Edition」は、これまでにないスケーラビリティとパフォーマンスを実現します。96GB のGDDR7 メモリ搭載により、膨大なデータセット、複雑なシミュレーション、AI 強化アプリケーションを高いパフォーマンスと精度で処理できます。複数のRTX PRO™ 6000 Max-Q GPU を組み合わせることで、ユーザーは比類のないレベルのコンピューティング パワー、メモリ容量、データ スループットを実現できるため、AI、グラフィックス、コンピューティングのアップデートを必要とする ミッション クリティカルなアプリケーションに最適なソリューションです。データサイエンスやエージェントAI からプロフェッショナルな視覚化や仮想制作まで、ブレークスルーを推進するために必要なスケーラビリティ、信頼性、イノベーションを提供します。
プロフェッショナル向けのパフォーマンスと機能
NVIDIA Blackwell アーキテクチャー
また、Blackwell ストリーミング マルチプロセッサ(SM) は、GPU あたり最大24,064 のCUDA コアを搭載し、最大110TFLOPS の単精度のパフォーマンスを実現し、産業用シミュレーションや 3D モデリングを加速します。
高帯域で大容量なGDDR7 メモリ
最大96GB のGPU メモリで大規模な3D プロジェクトやAI プロジェクトに対応し、VR 環境の探索やマルチアプリケーションのワークフローを効率的に処理します。また、GDDR7メモリは、レイトレーシング、レンダリング、およびAIワークロードを加速するために、最大2 倍のメモリ帯域幅を実現します。
PCIe Gen5
製品サイズ

スケーラブルなコンピューティングのための究極のワークステーション向けGPU「 NVIDIA RTX PRO™ 6000 Blackwell Max-QWorkstation Edition」は、これまでにないスケーラビリティとパフォーマンスを実現します。96GB のGDDR7 メモリ搭載により、膨大なデータセット、複雑なシミュレーション、AI 強化アプリケーションを高いパフォーマンスと精度で処理できます。複数のRTX PRO™ 6000 Max-Q GPU を組み合わせることで、ユーザーは比類のないレベルのコンピューティング パワー、メモリ容量、データ スループットを実現できるため、AI、グラフィックス、コンピューティングのアップデートを必要とする ミッション クリティカルなアプリケーションに最適なソリューションです。データサイエンスやエージェントAI からプロフェッショナルな視覚化や仮想制作まで、ブレークスルーを推進するために必要なスケーラビリティ、信頼性、イノベーションを提供します。
プロフェッショナル向けのパフォーマンスと機能
NVIDIA Blackwell アーキテクチャー
また、Blackwell ストリーミング マルチプロセッサ(SM) は、GPU あたり最大24,064 のCUDA コアを搭載し、最大110TFLOPS の単精度のパフォーマンスを実現し、産業用シミュレーションや 3D モデリングを加速します。
高帯域で大容量なGDDR7 メモリ
最大96GB のGPU メモリで大規模な3D プロジェクトやAI プロジェクトに対応し、VR 環境の探索やマルチアプリケーションのワークフローを効率的に処理します。また、GDDR7メモリは、レイトレーシング、レンダリング、およびAIワークロードを加速するために、最大2 倍のメモリ帯域幅を実現します。
PCIe Gen5
製品サイズ

QM9700シリーズはNVIDIAの64ポートノンブロッキング NDR 400Gb/s インフィニバンド・スマートスイッチです。
1U筐体に、64個のNDR 400Gb/s双方向フル帯域幅のポートを搭載し、最大51.2Tb/sの双方向スループットを実現しています。
また、32ポートのoctal small form-factor pluggable (OSFP) コネクタを搭載。NVIDIAポートスプリットテクノロジーを実装することにより、QM970シリーズは、200Gb /sのデータ速度の倍密度基数を提供し、ネットワーク設計とネットワークトポロジのコストを削減します。
最大128ポートの200Gb/sをサポートするNVIDIAは、市場で入手可能な最も高密度のトップオブラック(TOR)スイッチを提供します。
QM9700シリーズのスイッチを使用すると、中小規模の展開で2レベルのFat Treeトポロジーに拡張するると同時に、電力、遅延、およびスペースの要件を削減できます。
managed、unmaneged、P2Cエアフローの他に、C2Pエアフロータイプもございます。
C2Pをお探しの場合はご相談くださいませ。
QM9700シリーズはNVIDIAの64ポートノンブロッキング NDR 400Gb/s インフィニバンド・スマートスイッチです。
1U筐体に、64個のNDR 400Gb/s双方向フル帯域幅のポートを搭載し、最大51.2Tb/sの双方向スループットを実現しています。
また、32ポートのoctal small form-factor pluggable (OSFP) コネクタを搭載。NVIDIAポートスプリットテクノロジーを実装することにより、QM970シリーズは、200Gb /sのデータ速度の倍密度基数を提供し、ネットワーク設計とネットワークトポロジのコストを削減します。
最大128ポートの200Gb/sをサポートするNVIDIAは、市場で入手可能な最も高密度のトップオブラック(TOR)スイッチを提供します。
QM9700シリーズのスイッチを使用すると、中小規模の展開で2レベルのFat Treeトポロジーに拡張するると同時に、電力、遅延、およびスペースの要件を削減できます。
managed、unmaneged、P2Cエアフローの他に、C2Pエアフロータイプもございます。
C2Pをお探しの場合はご相談くださいませ。
NVIDIA RTX™ 5000 Ada 世代 は、あらゆる業界で最高の仕事と画期的なイノベーションを実現するために最大のパフォーマンスと信頼性を求めるプロフェッショナル向けに設計された、究極のワークステーショングラフィックスカードです。 RTX 5000 は、ハイエンドデザイン、リアルタイムレンダリング、AI、および高性能コンピューティングワークフローに不可欠な比類のないパフォーマンスと機能を提供します。
NVIDIA Ada Lovelace アーキテクチャに基づいて構築された RTX 5000 は、100 個の第 3 世代 RTコア、400 個の第 4 世代 Tensorコア、および 12,800 個の CUDA® コアと 32GB のエラー訂正コード 付き(ECC) グラフィックス メモリを組み合わせています。
次世代の AI グラフィックスと petaFLOPS 推論パフォーマンスを提供し、レンダリング、AI、グラフィックス、コンピューティング ワークロードを高速化します。
NVIDIA RTX プロフェッショナルグラフィックスカードは、幅広いプロフェッショナルアプリケーションで認定されており、主要な独立系ソフトウェアベンダー (ISV) およびワークステーションメーカーによってテストされ、サポートスペシャリストのグローバルチームによって支えられています。ミッションクリティカルなビジネス向けの最高のビジュアルコンピューティングソリューションで安心して重要なことに集中できます。
新コアAda Lovelace
Ada Lovelaceアーキテクチャは、2018年に発表されたTuring(チューリング)、2020年に投入されたAmpere(アンペア)に続く同社がRTXと呼んでいるハードウエア・レイトレーシングのエンジン(RTコア)を内蔵したGPUアーキテクチャの第3世代となります。(NVIDIA GPUの開発コードネームは過去の科学者の名前に基づいており、今回のAda Lovelaceも、世界初のコンピュータプログラマーとして知られる19世紀のイギリスの数学者の名前が元になっています。)
Ada Lovelaceの最大の特徴は、NVIDIAがGPC、TPC、SM、CUDAコアと呼んでいる演算器がいずれも増えていることあり、AmpereではGPCが最大7基だったのに対して、Ada Lovelaceでは最大12基に増加しています。これはTuring世代に比べると倍、Ampere世代に比較すると71%も増えていることになり、それに比例してTPCも、SMも、CUDAコアも71%増加しており大きな性能向上が期待できます。
第4世代Tensorコア
Ada の新しい第 4 世代 Tensor コアは、NVIDIA の Hopper H100 データセンター GPU で初めて導入された、新しい FP8 Transformer エンジンを使用して、驚異的に速い、最大 5 倍のスループットの向上と、1.4 Tensor-petaFLOPS の性能を実現します。
第 3 世代の RT コア
Ada の第 3 世代 RT コアは、レイ-トライアングル交差のスループットが 2 倍になり、RT-TFLOP 性能が 2 倍以上向上します。
新しい RT コアには、新しい Opacity Micromap (OMM) エンジンと新しい Displaced Micro-Mesh (DMM) エンジンも含まれています。OMM エンジンは、葉、粒子、格子によく使用されるアルファテストされたテクスチャのレイ トレーシングをより高速に実現します。DMM エンジンは、バウンディング ボリューム階層 (BVH) の構築時間を最大 10 倍高速化し、容量を最大 20 倍削減することで、ジオメトリが複雑な場面のリアルタイム レイ トレーシングを実現します。
シェーダー実行リオーダー
シェーダー実行リオーダリング (SER) 技術は、以前は非効率だった処理を動的に再編成し、高効率の処理に変えます。SER はレイ トレーシング実行のためのシェーダー性能を最大 3 倍、ゲーム内フレーム レートを最大 25% 向上させることができます。
DLSS 3
※仕様などは予告なしに変更されることがあります。
※1 ピークレートはGPUブーストクロックに基づいています。
※2 新しいスパース性機能を使用した効果的なFP8 TFLOPS。
※3 ディスプレイポートは、RTX 5000 Ada世代のデフォルトでオンになっています。vGPUソフトウェアを使用している場合、ディスプレイポートはアクティブになりません。RTX 5000 Ada 世代の仮想化サポートは、2023 年第 3 四半期に予定されている今後の NVIDIA 仮想 GPU (vGPU) リリースで利用できるようになります。
NVIDIA RTX™ 4000 Ada 世代 は、あらゆる業界で最高の仕事と画期的なイノベーションを実現するために最大のパフォーマンスと信頼性を求めるプロフェッショナル向けに設計された、究極のワークステーショングラフィックスカードです。 RTX 4000 は、ハイエンドデザイン、リアルタイムレンダリング、AI、および高性能コンピューティングワークフローに不可欠な比類のないパフォーマンスと機能を提供します。
NVIDIA RTX™ 4000 Ada Generationは、最も強力なシングルスロットGPUです。専門家のために、AIのための驚くべき加速、リアルタイムレンダリング、グラフィックス、およびコンピューティングワークロードをデスクトップに提供します。NVIDIA Ada Lovelace 上に構築されたアーキテクチャ、RTX 4000は48の第3世代RTコア、192の第4世代RTコアを組み合わせ、6,144GBのグラフィックメモリを備えた20個のCUDA®コアにより簡単に大規模なデータセットと複雑なビジュアルワークロードを処理します。
NVIDIA RTX プロフェッショナルグラフィックスカードは、幅広いプロフェッショナルアプリケーションで認定されており、主要な独立系ソフトウェアベンダー (ISV) およびワークステーションメーカーによってテストされ、サポートスペシャリストのグローバルチームによって支えられています。ミッションクリティカルなビジネス向けの最高のビジュアルコンピューティングソリューションで安心して重要なことに集中できます。
新コアAda Lovelace
Ada Lovelaceアーキテクチャは、2018年に発表されたTuring(チューリング)、2020年に投入されたAmpere(アンペア)に続く同社がRTXと呼んでいるハードウエア・レイトレーシングのエンジン(RTコア)を内蔵したGPUアーキテクチャの第3世代となります。(NVIDIA GPUの開発コードネームは過去の科学者の名前に基づいており、今回のAda Lovelaceも、世界初のコンピュータプログラマーとして知られる19世紀のイギリスの数学者の名前が元になっています。)
Ada Lovelaceの最大の特徴は、NVIDIAがGPC、TPC、SM、CUDAコアと呼んでいる演算器がいずれも増えていることあり、AmpereではGPCが最大7基だったのに対して、Ada Lovelaceでは最大12基に増加しています。これはTuring世代に比べると倍、Ampere世代に比較すると71%も増えていることになり、それに比例してTPCも、SMも、CUDAコアも71%増加しており大きな性能向上が期待できます。
第4世代Tensorコア
Ada の新しい第 4 世代 Tensor コアは、NVIDIA の Hopper H100 データセンター GPU で初めて導入された、新しい FP8 Transformer エンジンを使用して、驚異的に速い、最大 5 倍のスループットの向上と、1.4 Tensor-petaFLOPS の性能を実現します。
第 3 世代の RT コア
Ada の第 3 世代 RT コアは、レイ-トライアングル交差のスループットが 2 倍になり、RT-TFLOP 性能が 2 倍以上向上します。
新しい RT コアには、新しい Opacity Micromap (OMM) エンジンと新しい Displaced Micro-Mesh (DMM) エンジンも含まれています。OMM エンジンは、葉、粒子、格子によく使用されるアルファテストされたテクスチャのレイ トレーシングをより高速に実現します。DMM エンジンは、バウンディング ボリューム階層 (BVH) の構築時間を最大 10 倍高速化し、容量を最大 20 倍削減することで、ジオメトリが複雑な場面のリアルタイム レイ トレーシングを実現します。
シェーダー実行リオーダー
シェーダー実行リオーダリング (SER) 技術は、以前は非効率だった処理を動的に再編成し、高効率の処理に変えます。SER はレイ トレーシング実行のためのシェーダー性能を最大 3 倍、ゲーム内フレーム レートを最大 25% 向上させることができます。
DLSS 3
※仕様などは予告なしに変更されることがあります。
※1 ピークレートはGPUブーストクロックに基づいています。
※2 新しいスパース性機能を使用した効果的なFP8 TFLOPS。
※3 ディスプレイポートは、RTX 4000 Ada世代のデフォルトでオンになっています。
生成AIの爆発的な普及により、あらゆる業界で大規模なコンピューティングリソースを導入する必要性が高まっています。パフォーマンス、効率、ROI*[1]向上のため、現代のデータセンターには、複雑なワークロード、高速コンピューティング、グラフィックス、ビデオ処理機能を提供する技術が必要です。
NVIDIA L40Sは、データセンター向けの最も強力なユニバーサルGPUであり、推論とトレーニング、グラフィックス、およびビデオアプリケーションに対して高性能かつ高速な処理を実現します。マルチモーダル*[2]生成 AI のプレミアプラットフォームとして、推論、トレーニング、グラフィックス、ビデオワークフローのエンドtoエンドでの高速処理を可能にし、次世代の AI 対応オーディオ、音声、ビデオ、2Dおよび 3D アプリケーションを強化します。
*[1] Return On Investment(投資利益率)。事業や施策において、投下した資本に対しての収益性を図る指標のこと。
*[2] Multi(複数)とModal(様式)を組み合わせたコンピューター用語。さまざまな種類の情報を利用して高度な判断を行うAIを指す。

GPUリソースの安定確保にむけて
現在、世界的なGPUの急激な需要増加によってNVIDIA H100やNVIDIA A100などのデータセンターGPUの納期が非常に長期化している状況です。ジーデップ・アドバンスでは NVIDIA A100を凌駕したAIトレーニングパフォーマンスを誇る新製品 NVIDIA L40S を搭載した製品ラインナップを増強し、多彩なポートフォリオでお客様のご要望にお応えして参ります。
GPUリソースの安定確保にむけて
現在、世界的なGPUの急激な需要増加によってNVIDIA H100やNVIDIA A100などのデータセンターGPUの納期が非常に長期化している状況です。ジーデップ・アドバンスでは NVIDIA A100を凌駕したAIトレーニングパフォーマンスを誇る新製品 NVIDIA L40S を搭載した製品ラインナップを増強し、多彩なポートフォリオでお客様のご要望にお応えして参ります。
NVIDIA L40S 製品 仕様比較
|
L40S |
A100 80GB SXM |
|
|
GPU Architecture |
NVIDIA Ada Lovelace |
NVIDIA Ampere |
|
FP64 |
N/A |
9.7 TFLOPS |
|
FP32 |
91.6 TFLOPS |
19.5 TFLOPS |
|
RT Core |
212 TFLOPS |
N/A |
|
TF32 TensorCore* |
366 TFLOPS |
312 TFLOPS |
|
FP16/BF16 Tensor Core* |
733 TFLOPS |
624 TFLOPS |
|
FP8 Tensor Core* |
1466 TFLOPS |
N/A |
|
INT8 Tensor Core* |
1466 TOPS |
1248 TOPS |
|
GPU Memory |
48 GB GDDR6 |
80 GB HBM2e |
|
GPU Memory Bandwidth |
864 GB/s |
2039 GB/s |
|
L2 Cache |
96 MB |
40 MB |
|
Power |
Up to 350 W |
Up to 400 W |
|
Form Factor |
2-slot FHFL |
8-way HGX |
|
Interconnect |
PCIe Gen4 x16: 64 GB/s |
PCIe Gen4 x16: 64 GB/s |
強力なAIパフォーマンス
第4世代TensorコアとTransformer Engine、新しい半精度性能(FP8)フォーマットは、NVIDIA A100 Tensor Core GPUの推論性能を最大1.5倍上回ります。18,176個のNVIDIA Ada Lovelace GPUアーキテクチャーCUDA® コアを搭載し、A100の約5倍の単精度性能 (FP32)を提供します。
次世代グラフィックス機能
企業向けデータセンター対応
DLSS3
さらに40GB HBMGPUに加えGPU間を第3世代NV Linkにより400GB/s高速インターコネクトで接続とマルチインスタンスGPU(MIG)による、マルチテナントによるGPUリソースの分割利用が可能になります。
また、「NVIDIA A800 40GB Active」は、デスクサイド ワークステーションにマルチGPU利用してコンピューティングパフォーマンスを高め、AI学習性能、AI推論、CSM(個体力学)、流体力学(CFD)、電磁気学 等のCAEのシュミレーション性能向上により計算時間を縮めます。
尚、本製品には、3年間のNVIDIA AI Enterprise のサブスクリプションが提供されます。
【NVIDIA@ A100 vs A800 比較】
「NVIDIA A800 40GB Active」は、NVIDIA A100と同等仕様を有しており、デスクサイド利用においては A800 40GBの搭載をお勧め致します。
| 仕様 | A100 40GB PCIe | A800 40GB Active |
| GPUメモリー | 40GB HBM2 | |
| メモリーインターフェース | 5120-bit | |
| メモリー帯域幅 | 1555.2 GB/s | |
| CUDA コア | 6912 | |
| Tensor コア | 432 | |
| 倍精度(64)演算性能 | 9.7 TFLOPS | |
| 単精度(32)演算性能 | 19.5 TFLOPS | |
| マルチインスタンス GPU | 最大7MIG | |
| NVIDIA NVLink | Yes(×3) | Yes(×2) |
| NVLink 帯域幅 | 600GB/s | 400GB/s |
| システムインターフェース | PCIe 4.0×16 | |
| 消費電力 | 250W | 240W |
| サーマル | Passive | Active |
| フォームファクタ | 4.4"H×10.5" L -デュアルスロット | |
| ディスプレイ対応 | 出力無し | |
| 電力供給コネクタ形状 | 1×CPU-8pin | 1x PCIe CEM5 16-pin |
| 重さ | 1240g | 1182g |
カタログダウンロードはこちらから
Ampereアーキテクチャを採用
第3世代 Tensor コア
マルチインスタンス GPU (MIG)
40 GB の HBM2 大容量メモリ
PCI Express Gen 4
さらに40GB HBMGPUに加えGPU間を第3世代NV Linkにより400GB/s高速インターコネクトで接続とマルチインスタンスGPU(MIG)による、マルチテナントによるGPUリソースの分割利用が可能になります。
また、「NVIDIA A800 40GB Active」は、デスクサイド ワークステーションにマルチGPU利用してコンピューティングパフォーマンスを高め、AI学習性能、AI推論、CSM(個体力学)、流体力学(CFD)、電磁気学 等のCAEのシュミレーション性能向上により計算時間を縮めます。
尚、本製品には、3年間のNVIDIA AI Enterprise のサブスクリプションが提供されます。
【NVIDIA@ A100 vs A800 比較】
「NVIDIA A800 40GB Active」は、NVIDIA A100と同等仕様を有しており、デスクサイド利用においては A800 40GBの搭載をお勧め致します。
| 仕様 | A100 40GB PCIe | A800 40GB Active |
| GPUメモリー | 40GB HBM2 | |
| メモリーインターフェース | 5120-bit | |
| メモリー帯域幅 | 1555.2 GB/s | |
| CUDA コア | 6912 | |
| Tensor コア | 432 | |
| 倍精度(64)演算性能 | 9.7 TFLOPS | |
| 単精度(32)演算性能 | 19.5 TFLOPS | |
| マルチインスタンス GPU | 最大7MIG | |
| NVIDIA NVLink | Yes(×3) | Yes(×2) |
| NVLink 帯域幅 | 600GB/s | 400GB/s |
| システムインターフェース | PCIe 4.0×16 | |
| 消費電力 | 250W | 240W |
| サーマル | Passive | Active |
| フォームファクタ | 4.4"H×10.5" L -デュアルスロット | |
| ディスプレイ対応 | 出力無し | |
| 電力供給コネクタ形状 | 1×CPU-8pin | 1x PCIe CEM5 16-pin |
| 重さ | 1240g | 1182g |
カタログダウンロードはこちらから
Ampereアーキテクチャを採用
第3世代 Tensor コア
マルチインスタンス GPU (MIG)
40 GB の HBM2 大容量メモリ
PCI Express Gen 4
NVIDIA Ada Lovelace アーキテクチャ採用の CUDA コア
第 3 世代 RT コア
第 4 世代 Tensor コア
20 ギガバイト (GB) の GPU メモリ
AV1 エンコーダー
【同梱物】
・保証書
・保証書
・クイックスタートガイド
・サポートガイド
・mDP to DP変換アダプター
・ATXブラケット
NVIDIA Ada Lovelace アーキテクチャ採用の CUDA コア
第 3 世代 RT コア
第 4 世代 Tensor コア
20 ギガバイト (GB) の GPU メモリ
AV1 エンコーダー
・保証書
・保証書
・クイックスタートガイド
・サポートガイド
・mDP to DP変換アダプター
・ATXブラケット
NVIDIAエリートパートナ ジーデップ・アドバンスはGTC2022で発表された 最新ハイエンドGPU NVIDIA® RTX™ A5500 の取り扱いを開始しました。
※ジーデップ・アドバンスなら購入はもちろん 長期レンタルでもトータルコストが大きく変わらずおトクです。
NVIDIA RTX™ A5500 グラフィックス カードでデスクトップ PC のパワーを開放しよう。高い処理能力が要求されるマルチアプリケーション ワークフローに必要なパフォーマンス、信頼性、機能を提供します。NVIDIA Ampere アーキテクチャに基づいて構築され、24GBのGPUメモリを搭載したこのカードは、デザイナー、エンジニア、サイエンティスト、アーティストの無限の創造力に必要なものをすべて備えています。
【NVIDIA RTX製品比較】
| RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 |
| Ampere | Ampere | Ampere | Ampere | Ampere |
| 48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
| 最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
| 384bit | 384bit | 384bit | 384bit | 384bit |
| 10752 CUDAコア | 10240 CUDAコア | 8192 CUDAコア | 7168 CUDAコア | 6144 CUDAコア |
| 336 Tensorコア | 320 Tensorコア | 256 Tensorコア | 224 Tensorコア | 192 Tensorコア |
| 84 RTコア | 80 RTコア | 64 RTコア | 56 RTコア | 48 RTコア |
| PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 |
| NVLink対応 | NVLink対応 | NVLink対応 | NVLink 対応 | NVLink 非対応 |
| TDP 300W | TDP 230W | TDP 230W | TDP 200W | TDP 140W |
| アクティブ冷却 | アクティブ冷却 | アクティブ冷却 | アクティブ冷却 | アクティブ冷却 |
※NVIDIA RTX A5500、RTXシリーズ搭載のGPUワークステーションも特別価格でご提供しています。
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内代理店の保証書が添付されておらず国内での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。
NVIDIAエリートパートナ ジーデップ・アドバンスはGTC2022で発表された 最新ハイエンドGPU NVIDIA® RTX™ A5500 の取り扱いを開始しました。
※ジーデップ・アドバンスなら購入はもちろん 長期レンタルでもトータルコストが大きく変わらずおトクです。
NVIDIA RTX™ A5500 グラフィックス カードでデスクトップ PC のパワーを開放しよう。高い処理能力が要求されるマルチアプリケーション ワークフローに必要なパフォーマンス、信頼性、機能を提供します。NVIDIA Ampere アーキテクチャに基づいて構築され、24GBのGPUメモリを搭載したこのカードは、デザイナー、エンジニア、サイエンティスト、アーティストの無限の創造力に必要なものをすべて備えています。
【NVIDIA RTX製品比較】
| RTX A6000 | RTX A5500 | RTX A5000 | RTX A4500 | RTX A4000 |
| Ampere | Ampere | Ampere | Ampere | Ampere |
| 48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
| 最大768GB/s | 最大768GB/s | 最大768GB/s | 最大640GB/s | 最大512GB/s |
| 384bit | 384bit | 384bit | 384bit | 384bit |
| 10752 CUDAコア | 10240 CUDAコア | 8192 CUDAコア | 7168 CUDAコア | 6144 CUDAコア |
| 336 Tensorコア | 320 Tensorコア | 256 Tensorコア | 224 Tensorコア | 192 Tensorコア |
| 84 RTコア | 80 RTコア | 64 RTコア | 56 RTコア | 48 RTコア |
| PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 |
| NVLink対応 | NVLink対応 | NVLink対応 | NVLink 対応 | NVLink 非対応 |
| TDP 300W | TDP 230W | TDP 230W | TDP 200W | TDP 140W |
| アクティブ冷却 | アクティブ冷却 | アクティブ冷却 | アクティブ冷却 | アクティブ冷却 |
※NVIDIA RTX A5500、RTXシリーズ搭載のGPUワークステーションも特別価格でご提供しています。
-国内正規流通品について-
NVIDIA認定パートナー ジーデップ・アドバンスが扱っているNVIDIA社製GPUカードは全て「国内正規流通品」です。並行輸入品や組込向けのバルク品ではありません。並行輸入品には国内代理店の保証書が添付されておらず国内での保証修理が受けられません。そのため修理や交換に通常よりも長い時間を要します。またメーカー出荷時から時間が経過しており保証期間が短くなっている場合が多く、販売店が独自で交換保証を付ける等の対応を行っているケースもあります。
加えて並行輸入品は以下の様な正規代理店対応も受けられませんのでご注意下さい。
・輸出関連資料の対応 非該当判定用パラメーターシートや米国輸出関連資料作成
・環境物質資料の対応 RoHS2,REACH,SVHC その他大学研究機関定型形式での資料作成
・紛争鉱物(コンフリクトミネラル)調査資料の対応
・ドライバーのバグなどクリティカルな不具合に関するメーカーリレーションとその対応
ご購入の際には安心の国内正規流通品をお勧め致します。
オールフラッシュに対応した高性能ストレージキット
高い信頼性を実現
豊富な仮想化ソリューション
最大72台まで拡張可能な卓越したスケーラビリティ
※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
オールフラッシュに対応した高性能ストレージキット
高い信頼性を実現
豊富な仮想化ソリューション
最大72台まで拡張可能な卓越したスケーラビリティ
※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
オールフラッシュに対応した高性能ストレージキット
高い信頼性を実現
豊富な仮想化ソリューション
最大72台まで拡張可能な卓越したスケーラビリティ
※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性に対応
ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」
豊富な仮想化ソリューション
高い信頼性を実現
※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性に対応
ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」
豊富な仮想化ソリューション
高い信頼性を実現
※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
高い拡張性に対応
ブラウザベースのオペレーティングシステム「DiskStation Manager(DSM)」
豊富な仮想化ソリューション
高い信頼性を実現
※ 製品に付属・対応する各種ソフトウェアがある場合、予告なく提供を終了することがあります。提供が終了された各種ソフトウェアについての問い合わせにはお応えできない場合がありますので予めご了承ください。
4Uラックマウント筐体にトップローディングで最大60基のストレージを搭載可能な大容量ファイルサーバー。第二世代Xeon® Scalable Family を2基とBroadcomのRAIDコントローラーを搭載。RIADレベル 0, 1, 5, 6, 10,50,60 に対応しエンタープライズクラスの高信頼性ストレージとの組み合わせはミッションクリティカルなシーンでも安定した利用が可能です。インターコネクトも標準で10GBase-Tを2ポート、オプションでInfiniBand(EDR)も増設可能ですので、高速広帯域なノード間通信やフレキシブルなストレージ増設にも対応しています。さらにOS冗長化や高速インターコネクトで高い堅牢性と拡張性を実現しています。
トップローディングで最大60基のストレージを搭載可能
Skylake-SP Xeon® Scalable Family 搭載
解析、高速計算、シミュレーションなど高いマシンスペックを要求される仕事に納得のパフォーマンスを提供するハイスペックワークステーションです。
高信頼性エンタープライズストレージを搭載
さらにOS用のストレージもRAID-1で冗長化を施し障害に強い構成を実現しています。
多様で高速なインターコネクトでスケールアウトも可能
安心のオンサイトサポート
最大 112 レーン の PCIe Gen 5.0 接続、最大 4TB の DDR5 RDIMM メモリーサポートなど、広範囲にわたるデータセンター、AI、ワークステーションのワークロードで、最適化されたパフォーマンスを発揮致します。
革新的なプラットフォーム機能により構成に柔軟性を持たせ、プロフェッショナルで複雑なコンピューティング需要に簡単に応えることができます。
インテル® Xeon® Wプロセッサー・ファミリー
ワークステーションの静音性と冷却性を保つプレミアムCPUクーラー
強化されたプラットフォーム
高品質なサーバーグレード ECCレジスタードDDR5-4800メモリを標準搭載
PCI-Express 5.0 に対応
最大 112 レーン の PCIe Gen 5.0 接続、最大 4TB の DDR5 RDIMM メモリーサポートなど、広範囲にわたるデータセンター、AI、ワークステーションのワークロードで、最適化されたパフォーマンスを発揮致します。
革新的なプラットフォーム機能により構成に柔軟性を持たせ、プロフェッショナルで複雑なコンピューティング需要に簡単に応えることができます。
インテル® Xeon® Wプロセッサー・ファミリー
ワークステーションの静音性と冷却性を保つプレミアムCPUクーラー
強化されたプラットフォーム
高品質なサーバーグレード ECCレジスタードDDR5-4800メモリを標準搭載
PCI-Express 5.0 に対応
最大 112 レーン の PCIe Gen 5.0 接続、最大 4TB の DDR5 RDIMM メモリーサポートなど、広範囲にわたるデータセンター、AI、ワークステーションのワークロードで、最適化されたパフォーマンスを発揮致します。
革新的なプラットフォーム機能により構成に柔軟性を持たせ、プロフェッショナルで複雑なコンピューティング需要に簡単に応えることができます。
インテル® Xeon® Wプロセッサー・ファミリー
ワークステーションの静音性と冷却性を保つプレミアムCPUクーラー
強化されたプラットフォーム
高品質なサーバーグレード ECCレジスタードDDR5-4800メモリを標準搭載
PCI-Express 5.0 に対応
PCIe 5.0拡張スロットは最大8基のデュアルスロットGPUを搭載でき、NVIDIA RTX Pro 6000 ServerEditionをはじめ、NVIDIA H200 141GB やNVIDIA RTX Pro 6000 Workstation MAX-Q などのGPUに対応。用途に合わせて最適なGPU構成を選べるため、生成AI、ディープラーニング、HPC、レンダリングといった高負荷なワークロードに、圧倒的なパフォーマンスを発揮します。高性能なだけでなく、運用面にも配慮したツールレス設計を採用し、メンテナンスも容易になっております。冗長電源とインテリジェントな冷却機構を備えることで、システムの信頼性を確保して安心して運用できる環境を提供します。
高性能と拡張性、優れた運用性を兼ね備えたGSV-IGRAS-4U8Gは、AI時代におけるインフラ基盤として、お客様の生産性向上に貢献します。
インテル® Xeon® 6プロセッサー(1ソケットあたり最大86コア)搭載
![]()
GSV-IGRAS-4U8Gは、最新のIntel® Xeon® 6プロセッサーをデュアルソケットで搭載可能なハイエンドGPUサーバーです。1CPUあたり最大86コア、350W TDPまで対応し、AI推論、科学技術計算、データ分析などの高負荷な計算処理を強力に支援します。新アーキテクチャーとなるXeon 6は、PCIe 5.0およびDDR5メモリと組み合わせることで、より高速かつ効率的なデータ処理を実現。スケーラブルな設計により、将来の拡張性にも優れており、大規模なAI・HPC環境においてそのパフォーマンスを発揮します。
GSV-IGRAS-4U8Gは、Xeon 6の性能を最大限に引き出すための冷却・電源・構成設計を備え、次世代データセンターの中核となるシステムです。
デュアルスロットのハイエンドGPUを最大8基搭載可能。各GPUは最大600wまでサポート
マルチGPUを最大限に活用するための電源・冷却設計も充実しており、研究機関や企業の次世代計算環境に理想的なプラットフォームです。

最新GPU・Blackwell世代の RTX6000 PPRO Server Ediiton に対応

ASUS Control Center IT管理ソフトウェアとハードウェアレベルのRoot-of-Trustソリューションを搭載し、セキュリティと制御を強化

PCIe 5.0拡張スロットは最大8基のデュアルスロットGPUを搭載でき、NVIDIA RTX Pro 6000 ServerEditionをはじめ、NVIDIA H200 141GB やNVIDIA RTX Pro 6000 Workstation MAX-Q などのGPUに対応。用途に合わせて最適なGPU構成を選べるため、生成AI、ディープラーニング、HPC、レンダリングといった高負荷なワークロードに、圧倒的なパフォーマンスを発揮します。高性能なだけでなく、運用面にも配慮したツールレス設計を採用し、メンテナンスも容易になっております。冗長電源とインテリジェントな冷却機構を備えることで、システムの信頼性を確保して安心して運用できる環境を提供します。
高性能と拡張性、優れた運用性を兼ね備えたGSV-IGRAS-4U8Gは、AI時代におけるインフラ基盤として、お客様の生産性向上に貢献します。
インテル® Xeon® 6プロセッサー(1ソケットあたり最大86コア)搭載
![]()
GSV-IGRAS-4U8Gは、最新のIntel® Xeon® 6プロセッサーをデュアルソケットで搭載可能なハイエンドGPUサーバーです。1CPUあたり最大86コア、350W TDPまで対応し、AI推論、科学技術計算、データ分析などの高負荷な計算処理を強力に支援します。新アーキテクチャーとなるXeon 6は、PCIe 5.0およびDDR5メモリと組み合わせることで、より高速かつ効率的なデータ処理を実現。スケーラブルな設計により、将来の拡張性にも優れており、大規模なAI・HPC環境においてそのパフォーマンスを発揮します。
GSV-IGRAS-4U8Gは、Xeon 6の性能を最大限に引き出すための冷却・電源・構成設計を備え、次世代データセンターの中核となるシステムです。
デュアルスロットのハイエンドGPUを最大8基搭載可能。各GPUは最大600wまでサポート
マルチGPUを最大限に活用するための電源・冷却設計も充実しており、研究機関や企業の次世代計算環境に理想的なプラットフォームです。

最新GPU・Blackwell世代の RTX6000 PPRO Server Ediiton に対応

ASUS Control Center IT管理ソフトウェアとハードウェアレベルのRoot-of-Trustソリューションを搭載し、セキュリティと制御を強化

PCIe 5.0拡張スロットは最大8基のデュアルスロットGPUを搭載でき、NVIDIA RTX Pro 6000 ServerEditionをはじめ、NVIDIA H200 141GB やNVIDIA RTX Pro 6000 Workstation MAX-Q などのGPUに対応。用途に合わせて最適なGPU構成を選べるため、生成AI、ディープラーニング、HPC、レンダリングといった高負荷なワークロードに、圧倒的なパフォーマンスを発揮します。高性能なだけでなく、運用面にも配慮したツールレス設計を採用し、メンテナンスも容易になっております。冗長電源とインテリジェントな冷却機構を備えることで、システムの信頼性を確保して安心して運用できる環境を提供します。
高性能と拡張性、優れた運用性を兼ね備えたGSV-IGRAS-4U8Gは、AI時代におけるインフラ基盤として、お客様の生産性向上に貢献します。
インテル® Xeon® 6プロセッサー(1ソケットあたり最大86コア)搭載
![]()
GSV-IGRAS-4U8Gは、最新のIntel® Xeon® 6プロセッサーをデュアルソケットで搭載可能なハイエンドGPUサーバーです。1CPUあたり最大86コア、350W TDPまで対応し、AI推論、科学技術計算、データ分析などの高負荷な計算処理を強力に支援します。新アーキテクチャーとなるXeon 6は、PCIe 5.0およびDDR5メモリと組み合わせることで、より高速かつ効率的なデータ処理を実現。スケーラブルな設計により、将来の拡張性にも優れており、大規模なAI・HPC環境においてそのパフォーマンスを発揮します。
GSV-IGRAS-4U8Gは、Xeon 6の性能を最大限に引き出すための冷却・電源・構成設計を備え、次世代データセンターの中核となるシステムです。
デュアルスロットのハイエンドGPUを最大8基搭載可能。各GPUは最大600wまでサポート
マルチGPUを最大限に活用するための電源・冷却設計も充実しており、研究機関や企業の次世代計算環境に理想的なプラットフォームです。

最新GPU・Blackwell世代の RTX6000 PPRO Server Ediiton に対応

ASUS Control Center IT管理ソフトウェアとハードウェアレベルのRoot-of-Trustソリューションを搭載し、セキュリティと制御を強化

GPUは、NVIDIA® Hopperアーキテクチャベースで80GB HBM2eの大容量メモリを搭載が可能、第4世代の Tensor コアと、FP8 精度で混合エキスパート (MoE) モデルのトレーニングを前世代比最大9倍高速化するTransformer Engine を備えております。また、NVIDIA RTX シリーズ(RTX A6000/RTX A5000) を搭載したモデルも用意しておりジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
また、本システムには Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works」、そしてOpenAI社も利用しているMLopsプラットフォームである「WandB」がプレインストールされており、AI開発ユーザーが届いたその日からすぐに利用できるターンキーでの提供となります。まさに大学、研究機関、企業のR&D部門などのAI開発者に最適なAI開発システムとなります。
第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載
最も多機能かつセキュアなインテル® Xeon® プラットフォーム
NVIDIA Hopper アーキテクチャ搭載 H100搭載
AI開発環境 G-Works 標準搭載

GPUは、NVIDIA® Hopperアーキテクチャベースで80GB HBM2eの大容量メモリを搭載が可能、第4世代の Tensor コアと、FP8 精度で混合エキスパート (MoE) モデルのトレーニングを前世代比最大9倍高速化するTransformer Engine を備えております。また、NVIDIA RTX シリーズ(RTX A6000/RTX A5000) を搭載したモデルも用意しておりジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
また、本システムには Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works」、そしてOpenAI社も利用しているMLopsプラットフォームである「WandB」がプレインストールされており、AI開発ユーザーが届いたその日からすぐに利用できるターンキーでの提供となります。まさに大学、研究機関、企業のR&D部門などのAI開発者に最適なAI開発システムとなります。
第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載
最も多機能かつセキュアなインテル® Xeon® プラットフォーム
NVIDIA Hopper アーキテクチャ搭載 H100搭載
AI開発環境 G-Works 標準搭載

GPUは、NVIDIA® Hopperアーキテクチャベースで80GB HBM2eの大容量メモリを搭載が可能、第4世代の Tensor コアと、FP8 精度で混合エキスパート (MoE) モデルのトレーニングを前世代比最大9倍高速化するTransformer Engine を備えております。また、NVIDIA RTX シリーズ(RTX A6000/RTX A5000) を搭載したモデルも用意しておりジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
また、本システムには Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works」、そしてOpenAI社も利用しているMLopsプラットフォームである「WandB」がプレインストールされており、AI開発ユーザーが届いたその日からすぐに利用できるターンキーでの提供となります。まさに大学、研究機関、企業のR&D部門などのAI開発者に最適なAI開発システムとなります。
第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載
最も多機能かつセキュアなインテル® Xeon® プラットフォーム
NVIDIA Hopper アーキテクチャ搭載 H100搭載
AI開発環境 G-Works 標準搭載


































































































































