NVIDIAエリートパートナ ジーデップ・アドバンスはGTC2021で発表された Tensorコア GPU NVIDIA® A30 の取り扱いを開始しました。
価格 ¥881,650(税込み・送料込み)
NVIDIA A30 は AI推論やトレーニングの用途はもちろん、倍精度演算性能もFP64 Tensorコアで10.3 teraFLOPSを誇り、従来のV100の1.1倍、T4の実に8倍の演算性能を実現します。またMIGをサポートしておりマルチユーザーでの利用にも適しています。もちろんNVLINKも装着可能でNVIDIA Mellanxoxネットワーキングと組み合わせで、スケールアウトのGPUシステムがより身近になります。
NVIDIA A30 Tensor コア GPU は、企業のあらゆるワークロードのパフォーマンスを高速化します。NVIDIA Ampere アーキテクチャの Tensor コアとマルチインスタンス GPU (MIG) で、大規模な AI 推論やハイパフォーマンス コンピューティング (HPC) アプリケーションといった、多様なワークロードを安全に高速化します。PCIe フォーム ファクターに高速のメモリ帯域幅と少ない電力消費が組み合わされており、メインストリーム サーバーに最適です。A30 はエラスティック データ センターを実現し、ユーザーに最大限の価値をもたらします。
- PCIe Gen4
- 24GB
- HBM2
- NV-Link
- MIG
- 標準3年保証
ディープラーニング推論
市場をリードする NVIDIA の AI パフォーマンスは MLPerf 推論で実証されました。AI を簡単に大規模展開する NVIDIA Triton™ 推論サーバー との組み合わせで、A30 はあらゆる企業に圧倒的なパフォーマンスをもたらします。

倍精度はV100比較で最大 1.1 倍、T4比較で8 倍のスループット
FP64 Tensor コアと MIG の組み合わせにより、研究機関は、GPU を安全に分割して複数の研究者がコンピューティング リソースを利用できるようにし、QoS を保証し、GPU 使用率を最大限まで高めることができます。AI を展開している企業は要求のピーク時に A30 を推論に利用し、オフピーク時には同じコンピューティング サーバーを HPC や AI トレーニングのワークロードに転用できます。

エンタープライズでの利用を加速するMIG機能
MIG は、Kubernetes、コンテナー、 ハイパーバイザーベースのサーバー仮想化と連動します。MIG を利用することで、インフラストラクチャ管理者はあらゆるジョブに適切なサイズの GPU を提供し、QoS を保証できます。アクセラレーテッド コンピューティング リソースをすべてのユーザーに届けることが可能になります。

NVIDIA製の秀逸なソフトウェアスイート

多様なCertified Systems
