NVIDIA GH200 Grace Hopper Superchip

大規模 AI および HPC アプリケーションのための画期的な設計

より優れた処理能力と高速メモリ。広い帯域幅で計算効率を向上。

NVIDIA GH200 Grace Hopper™ Superchip は、大規模 AIハイパフォーマンス コンピューティング (HPC) アプリケーションのためにゼロから設計された画期的なプロセッサです。この Superchip は、テラバイト級のデータを処理するアプリケーションに対して最大 10 倍のパフォーマンスを発揮し、科学者や研究者は、世界で最も複雑な問題に対してこれまで見いだせなかった解決策を導き出せるようになります。

Superchip の詳細

NVIDIA GH200 Grace Hopper Superchip

GH200 Grace Hopper Superchip では、NVIDIA NVLink™-C2C を使用して NVIDIA Grace™ と Hopper™ アーキテクチャが組み合わされており、アクセラレーテッド AI および HPC アプリケーションに適した CPU + GPU コヒーレント メモリ モデルを提供します。この Superchip には 900 ギガバイト/秒 (GB/s) のコヒーレント インターフェイスが備わっており、PCIe Gen5 と比較して 7 倍の速度を実現します。さらに、HBM3 と HBM3e GPU メモリにより、アクセラレーテッド コンピューティングと生成 AI をさらに強化します。GH200 は、NVIDIA AI Enterprise、HPC SDK、Omniverse™ を含む、すべての NVIDIA ソフトウェア スタックとプラットフォームが実行できます。

GH200 は現在入手可能です。

NVIDIA GH200 NVL2

NVIDIA GH200 NVL2 は 2 つの GH200 Superchip を NVLink で完全に接続し、最大 288GB の高帯域幅メモリ、10 テラバイト/秒 (TB/s) のメモリ帯域幅、1.2 TB の高速メモリを提供します。現在販売中の GH200 NVL2 は、NVIDIA H100 Tensor コア GPU と比較して、最大 3.5 倍の GPU メモリ容量と 3 倍の帯域幅を単一のサーバーで提供し、コンピューティングとメモリを大量に消費するワークロードに対応します。

パフォーマンス

GH200 とデュアルソケット プレミアム CPU の比較 | 物理: MILC Apex Medium

科学技術計算

NVIDIA GH200 Superchip は、Arm® ベースの Grace CPU と NVLink-C2C を使用した Hopper GPU アーキテクチャを統合することで、世界中のスーパーコンピューターでの科学研究と発見を加速します。NVIDIA Grace Hopper Superchip を採用したスーパーコンピューターを組み合わせることで、200 エクサフロップス (毎秒 2 垓回の演算) というエネルギー効率に優れた AI 処理能力を実現します。

NVIDIA RAPIDS™ アクセラレータを使用して Apache Spark を実行したときの NDS-DS の結果。SF10 を使用した 16 ノード GH200 と 16 ノード プレミアム CPU を比較。

データ処理

ストレージとネットワーク帯域幅の最近の進歩、およびムーアの法則の終焉により、分析とクエリのボトルネックは CPU に移行しました。さらに、GH200 では、CPU と GPU がプロセスごとに 1 つのページ テーブルを共有するため、すべての CPU スレッドと GPU スレッドは、物理 CPU または GPU メモリに配置できるシステム割当メモリにアクセスできるようになります。GH200 は、CPU とGPU 間のメモリのやりとりの必要性を排除し、データ処理を最大 36 倍高速化します。

フェイス | バッチ = 1,024 | 出力ベクトル = 85M のサイズ 768。ベクトル検索: バッチ = 10,000 | ベクトル検索クエリ = 10,000、85M 以上のベクトル。

検索拡張生成

検索拡張生成 (RAG) は、大規模言語モデル (LLM) にナレッジベースを組み合わせ、モデルの精度を向上させます。 RAG では、埋め込みの生成とベクトル検索の大規模な実行が必要です。 72 個のエネルギー効率に優れた Arm ベースの Grace CPU コアがナレッジベース データの前処理を高速化し、NVLink-C2C が事前処理済みデータの Hooper GPU への転送速度を PCIe と比較して 7 倍高速化することで、埋め込みの生成プロセスが 30 倍高速化します。

グラフ ニューラル ネットワーク。フルの GraphSAGE モデルによる測定に基づいて、PCIe H100 と GH200 を比較。

グラフ ニューラル ネットワーク

グラフ ニューラル ネットワーク (GNN) は、ソーシャル ネットワーク分析、創薬、不正検知、分子化学など、幅広いアプリケーションで使用されています。 GH200 は、最大 624GB の 高速メモリ (CPU と GPU の合計)、4 PFLOPSの H200 GPU、900 GB/秒の NVLink-C2C を活用し、H100 PCIe GPU と比較して GNN トレーニングを最大 8 倍高速化します。

LaunchPad ラボで GH200 の詳細を見る

Grace Hopper でコンピューティングと AI を加速する

このデモでは、NVIDIA GH200 Grace Hopper Superchip と NVIDIA のソフトウェア スタックのシームレスな統合を体験できます。インタラクティブなデモ、実世界でのアプリケーションやケース スタディが含まれています。

最新のデータ センター ワークロード向けの Grace Hopper リファレンス デザイン

AI トレーニング、推論、5G、HPC に適した GH200 搭載 NVIDIA MGX

NVIDIA MGX™ は、さまざまなエンタープライズのワークロードを高速化できるモジュール式のリファレンス デザインです。MGX には、GH200 Superchip の高度な機能と NVIDIA BlueField®-3 DPU、OEM による I/O (入出力)、第 4 世代 NVLink が組み合わさっており、最新のデータ センター向けにカスタマイズされたソリューションを提供します。

NVIDIA は、パフォーマンス チューニング ガイド、開発者ツール、ライブラリにより NVIDIA Grace のサポートを綿密に行います。