大規模 AI および HPC アプリケーションのための画期的な設計
NVIDIA GH200 Grace Hopper™ Superchip は、大規模 AI とハイパフォーマンス コンピューティング (HPC) アプリケーションのためにゼロから設計された画期的なプロセッサです。この Superchip は、テラバイト級のデータを処理するアプリケーションに対して最大 10 倍のパフォーマンスを発揮し、科学者や研究者は、世界で最も複雑な問題に対してこれまで見いだせなかった解決策を導き出せるようになります。
GH200 Grace Hopper Superchip では、NVIDIA NVLink™-C2C を使用して NVIDIA Grace™ と Hopper™ アーキテクチャが組み合わされており、アクセラレーテッド AI および HPC アプリケーションに適した CPU + GPU コヒーレント メモリ モデルを提供します。この Superchip には 900 ギガバイト/秒 (GB/s) のコヒーレント インターフェイスが備わっており、PCIe Gen5 と比較して 7 倍の速度を実現します。さらに、HBM3 と HBM3e GPU メモリにより、アクセラレーテッド コンピューティングと生成 AI をさらに強化します。GH200 は、NVIDIA AI Enterprise、HPC SDK、Omniverse™ を含む、すべての NVIDIA ソフトウェア スタックとプラットフォームが実行できます。
GH200 は現在入手可能です。
NVIDIA GH200 NVL2 は 2 つの GH200 Superchip を NVLink で完全に接続し、最大 288GB の高帯域幅メモリ、10 テラバイト/秒 (TB/s) のメモリ帯域幅、1.2 TB の高速メモリを提供します。現在販売中の GH200 NVL2 は、NVIDIA H100 Tensor コア GPU と比較して、最大 3.5 倍の GPU メモリ容量と 3 倍の帯域幅を単一のサーバーで提供し、コンピューティングとメモリを大量に消費するワークロードに対応します。
このデモでは、NVIDIA GH200 Grace Hopper Superchip と NVIDIA のソフトウェア スタックのシームレスな統合を体験できます。インタラクティブなデモ、実世界でのアプリケーションやケース スタディが含まれています。
NVIDIA MGX™ は、さまざまなエンタープライズのワークロードを高速化できるモジュール式のリファレンス デザインです。MGX には、GH200 Superchip の高度な機能と NVIDIA BlueField®-3 DPU、OEM による I/O (入出力)、第 4 世代 NVLink が組み合わさっており、最新のデータ センター向けにカスタマイズされたソリューションを提供します。
NVIDIA は、パフォーマンス チューニング ガイド、開発者ツール、ライブラリにより NVIDIA Grace のサポートを綿密に行います。