NVIDIA DGX
- AI/ディープラーニング
AI・ディープラーニングに不可欠なシステムNVIDIA DGXは、GPU最適化ソフトウェアと簡素化された管理が組み合わさった統合ソリューションによって、AI研究を加速させます。
AIインフラストラクチャの金字塔
NVIDIA DGX H100
DGX H100は、世界初の専用AIインフラストラクチャの第4世代であり、完全に最適化されたハードウェアおよびソフトウェア・プラットフォームです。新しいNVIDIA AIソフトウェア・ソリューションに対応し、多様なサードパーティのサポートを受けられるエコシステムを利用でき、NVIDIAプロフェッショナル・サービスによりエキスパートからのアドバイスを受けることができます。
大規模なワークロードに対応できるように強化されています
NVIDIA DGX H100は、6倍高速なパフォーマンス、2倍高速なネットワーキング、およびハイスピードなスケーラビリティをNVIDIA DGX SuperPODに対して発揮します。この次世代アーキテクチャは、自然言語処理やディープラーニングによるレコメンデーション・モデルといった大規模なワークロードに対応できるように強化されています。

思いのままに使えるインフラストラクチャ
DGX H100は、オンプレミスにインストールして直接管理したり、NVIDIA DGX対応のデータ センターでの設置、NVIDIA認定のマネージド・サービス・プロバイダーを通じてアクセスすることもできます。また、 DGX対応のライフサイクル管理により、組織は予測性の高い財務モデルを入手して、最先端のデプロイメントを維持できます。
NVIDIA DGX H100 スペック表
仕様 | DGX H100 | |
---|---|---|
GPU | NVIDIA H100 Tensor Core GPU 80GB x8 | |
GPUメモリ | 総計640GB | |
演算性能 | 32ペタFLOPS FP8 | |
CPU | Dual x86 | |
システムメモリ | 2TB | |
ネットワーク | 4個のOSFPポートで8基のシングルポートConnectX-7へ接続 400Gb/s InfiniBand/Ethernet 2基のデュアルポート NVIDIA BlueField-3 DPU VPI 400Gb/s InfiniBand/Ethernet x1 200Gb/s InfiniBand/Ethernet x1 10Gb/s オンボード NIC(RJ45 付き) 50Gb/s Ethernet オプション NIC ホスト ベースボード管理コントローラー(BMC)(RJ45 付き) 2x NVIDIA BlueField-3 DPU BMC(それぞれ RJ45 コネクタで接続) |
|
ストレージ | OS 1.9TB M.2 NVME x2 内部ストレージ 30TB(3.84 TB ×8)U.2 NVMe |
|
ソフトウェア | DGX H100システムには、Ubuntu Linuxに基づいてDGXソフトウェアスタック(DGX用に最適化されたすべての必要なパッケージとドライバー)を含むDGX OSがプリインストールされています。オプションで、お客様はUbuntu LinuxまたはRedHat EnterpriseLinuxと必要なDGXソフトウェアスタックを個別にインストールできます。 | |
最大消費電力 | 最大10.2kW | |
運用温度範囲 | 5℃ - 30℃ |
第3世代統合AIシステム
NVIDIA DGX A100
すべてのAIワークロードに対応する統合システム「NVIDIA DGX A100」は、世界初の5ペタFLOPSを実現するAIシステムとして、これまでにない計算密度、パフォーマンス、柔軟性を提供します。
世界初のシングルノードによる5ペタFLOPSの性能を実現します
NVIDIA DGX A100は最新GPUのNVIDIA A100 Tensor コア GPUを8基搭載しています。GPU間を600GB/sの次世代NVSwichで結合し、分析からトレーニング、推論まですべてのAIワークロードに対応する統合システムとして、世界初のシングルノードによる5ペタFLOPSを実現しました。

NVIDIA DGX A100は最高のAIパフォーマンスを実現します
NVIDIA DGX A100を、同一ベンチマークでCPUサーバーと比較すると、トレーニングで6倍、推論で172倍、データ分析で13倍の高速化を実現します。
※NVIDIA DGX A100 40GBx8との比較です。



NVIDIA DGX A100 スペック表
仕様 | DGX A100 80GB x8 | DGX A100 40GB x8 |
---|---|---|
GPU | A100 80GB GPU x8 | A100 40GB GPU x8 |
GPUメモリ | 総計640GB | 総計320GB |
演算性能 | 5ペタFLOPS AI 10ペタFLOPS INT8 |
|
CPU | Dual AMD Rome 7742/総計128 cores/2.25 GHz(ベース)/3.4 GHz(最大ブースト) | |
システムメモリ | 2TB | 1TB |
ネットワーク | シングルポート Mellanox ConnectX-6 VPI x8 200Gb/s HDR InfiniBand デュアルポート Mellanox ConnectX-6 VPI x2 10/25/50/100/200Gb/s Ethernet |
シングルポート Mellanox ConnectX-6 VPI x8 200Gb/s HDR InfiniBand デュアルポート Mellanox ConnectX-6 VPI x1 10/25/50/100/200Gb/s Ethernet |
ストレージ | OS 1.92TB M.2 NVME x2 Data 3.84TB U.2 NVME x8 |
OS 1.92TB M.2 NVME x2 Data 3.84TB U.2 NVME x4 |
ソフトウェア | Ubuntu Linux OS | |
最大消費電力 | 6500W | |
重量 | 123kg | |
サイズ | 897.1 D x 482.3 W x 264 H (mm) |
多くのディープラーニングフレームを利用できる
NVIDIA DGX共通のソフトウェアスタック
DGXシリーズ共通のソフトウェアスタックは、多くのディープラーニングフレームを利用することができます。最高のパフォーマンスを発揮するように最適化されており、常に最新の状態を維持できるようにアップデートされます。
ディープラーニングの統合環境であるNVIDIA DIGITSやサードパーティのGPU対応アプリケーション、NVIDIA Deep Learning SDK(cuDNN、cuBLAS)、CUDAツールキット、マルチGPUの高速な集合通信を実現するNCCL、そしてNVIDIA GPUドライバを含んでいます。
NVIDIA Dockerによるコンテナ技術をベースに構築された統合ディープラーニングソフトウェアスタックは、ワークフローを簡素化し、データセンターやクラウド環境にモデルを展開する際の再コンパイル時間を節約できます。DGX Stationで実行されているワークロードは、そのままDGXA100やクラウド環境へカンタンに移行できます。
をご利用・ご検討のお客様におすすめのソリューション

製品やソリューションについて、
お気軽にお問い合わせください。