生成 AI と AI エージェントの推論により、エッジからセントラル クラウドまで AI コンピューティング インフラストラクチャを分散する必要性が高まります。 IDC は、「ビジネス AI (消費者を除く) は、2030 年までに世界経済に 19.9 兆ドルの貢献をし、GDP の 3.5% を占めるようになる」と予測しています。
5G ネットワークも、この新しい AI トラフィックに対応するために進化しなければなりません。 同時に、通信事業者には、データのプライバシーと主権の要件を満たしながら、ネットワーク接続に依存せずにエンタープライズ AI ワークロードをホストするためのローカル AI コンピューティング インフラストラクチャになる機会があります。 ここで、無線信号処理と AI ワークロードの両方を高速化する機能を備えた高速コンピューティング インフラストラクチャが活躍します。 そして最も重要なのは、同じコンピューティング インフラストラクチャを使用して AI サービスと無線アクセス ネットワーク (RAN) サービスの処理が可能であることです。 この組み合わせは、通信業界では AI-RAN と呼ばれています。
NVIDIA は、世界初の AI-RAN 展開プラットフォームである Aerial RAN Computer-1 を導入し、共通のアクセラレーテッド インフラストラクチャで AI と RAN のワークロードを同時にサービスできます。
また、T-Mobile による AI-RANイノベーション センターの立ち上げに続き、Aerial RAN Computer-1 は、通信会社が世界中で採用できるプラットフォームで AI-RAN を現実のものにします。 小規模、中規模、大規模の構成で使用でき、セルサイト、分散型または集中型のサイトで展開して、ネットワークを音声、ビデオ、データ、AIトラフィックに対応する多目的インフラストラクチャに効果的に変えることができます。
これは、AI を活用した AI のためのワイヤレス ネットワークの概念を再構築する変革的なソリューションです。 また、通信事業者にとっては、分散ネットワーク インフラストラクチャ、低遅延、保証されたサービス品質、大規模なスケール、データのプライバシー、セキュリティ、ローカリゼーションの維持能力など、AI 推論とエージェント AI アプリケーションの重要な要件を活用して、AI フライホイールを活性化する大きなチャンスでもあります。
AI-RAN、AI Aerial、および Aerial RAN Computer-1
AI-RAN は、AI ネイティブな多目的ネットワークを構築するためのテクノロジ フレームワークです。 通信会社が AI-RAN を採用し、従来の単一 ASIC ベースの RAN コンピューティング ネットワークから、RAN と AI の両方に対応する新しい多目的アクセラレーテッド コンピューティング ベースのネットワークに移行するにつれて、通信会社は新しい AI エコノミーに参加し、AI を活用してネットワークの効率を向上できます。
NVIDIA AI Aerial には、AI-RAN ベースの 5G および 6G ワイヤレス ネットワークを設計、シミュレーション、トレーニング、展開する 3 つのコンピューター システムが含まれています。 Aerial RAN Computer-1 は、NVIDIA AI Aerial の基盤であり、AI-RAN の商業グレードのプラットフォームを提供します。
Aerial RAN Computer-1 (図 1) は、ソフトウェア デファインド 5G、NVIDIA またはその他の RAN ソフトウェア プロバイダーのプライベート 5G RAN、コンテナー化されたネットワーク機能、NVIDIA またはパートナーのAI マイクロサービス、内部およびサードパーティの生成 AI アプリケーションをホストするなど、RAN と AI ワークロードを実行するための共通の拡張可能なハードウェア基盤を提供します。 Aerial RAN Computer-1 はモジュール式の設計であり、D-RAN から C-RAN アーキテクチャまで拡張でき、郊外から密集した都市部まで幅広いユース ケースに対応します。
NVIDIA CUDA-X ライブラリは、アクセラレーテッド コンピューティングの中心であり、効率の向上に加え、速度、精度、信頼性を提供します。 つまり、同じパワー エンベロープでより多くの作業が行われるということです。 最も重要なのは、通信通信事業固有の適応を含むドメイン固有のライブラリが、Aerial RAN Computer-1 を通信事業の展開に適したものにする上で重要です。
NVIDIA DOCA は、RDMA、PTP/タイミング同期、イーサネットベースのフロントホール (eCPRI) などの通信ワークロードや、最新のネットワーク インフラストラクチャに不可欠な AI ワークロードのパフォーマンスを大幅に向上できるツールとライブラリのスイートを提供します。
総合的に、フルスタックにより、スケーラブルなハードウェア、共通ソフトウェア、オープン アーキテクチャが実現し、エコシステムパートナーと協力して高性能な AI-RAN を提供できます。

Aerial RAN Computer-1 の利点
Aerial RAN Computer-1 により、ワイヤレス ネットワークは、AI と RAN データ センターの大規模な分散グリッドに変身し、ソフトウェアのアップグレードにより 6G の道を開きつ、通信会社にとって新しい収益化の道を開きます。
通信サービス プロバイダー向け Aerial RAN Computer-1 の利点には、次のものがあります。
- AI および生成 AI アプリケーション、エッジでの AI 推論、または GPU-as-a-Service を使用して収益化します。
- 現在は通常 30% しか利用されていない単目的基地局と比較して、インフラストラクチャの使用率を 2 ~ 3 倍に向上します。 同じインフラストラクチャを使用して、内部生成 AI ワークロードや、UPF や RIC などのコンテナー化されたネットワーク機能をホストできます。
- サイト固有の AI 学習を通じて無線ネットワークのパフォーマンスを向上させ、スペクトル効率を最大 2 倍向上できます。 これは、取得スペクトラムの Mhz あたりの直接コストを削減することを意味します。
- あらゆるインタラクションに AI を組み込む次世代アプリケーションに、高性能 RAN と AI 体験を提供します。 Aerial RAN Computer-1 は、RAN のみモードで最大 170 Gb/s のスループットと、AI のみモードで 25K トークン/秒、または両方の組み合わせてサービスを提供でき、従来のネットワークと比較して優れたパフォーマンスを発揮できます。
Aerial RAN Computer-1 の構成要素
Aerial RAN Computer-1 の主要なハードウェア コンポーネントには、以下が含まれます。
- NVIDIA GB200 NVL2
- NVIDIA Blackwell GPU
- NVIDIA Grace CPU
- NVLink2 C2C
- 第 5 世代 NVIDIA NVLink
- Key-value caching
- MGX リファレンス アーキテクチャ
- リアルタイム 主流 LLM 推論
NVIDIA GB200 NVL2
Aerial RAN Computer-1 で使用される NVIDIA GB200 NVL2 プラットフォーム (図 2) は、データ センターとエッジ コンピューティングに革命をもたらし、主流の大規模言語モデル (LLM)、vRAN、ベクター データベース検索、データ処理で比類のないパフォーマンスを提供します。
2 つの NVIDIA Blackwell GPU との NVIDIA Grace CPU を搭載したこのスケールアウトのシングルノード アーキテクチャは、アクセラレーテッド コンピューティングを既存のインフラストラクチャにシームレスに統合します。
この汎用性により、広範囲のシステム設計とネットワーキング オプションが可能になり、GB200 NVL2 プラットフォームは、AI の力を活用したいデータ センター、エッジ、セルサイトの場所に理想的な選択肢となります。
たとえば、GB200 サーバーの半分を RAN タスクに割り当てられ、残りの半分は単一セルサイトでマルチインスタンス GPU (MIG) テクノロジを通じて AI 処理に割り当てることができます。 集約サイトでは、完全な GB200 サーバーを RAN に専用し、もう 1 つを AI 専用に使用できます。 集中型の展開では、GB200サーバーのクラスターをRANとAIワークロード間で共有できます。
NVIDIA Blackwell GPU
NVIDIA Blackwell は、パフォーマンス、効率、拡張性の向上を実現する革命的なアーキテクチャです。 NVIDIA Blackwell GPU は 208Bトランジスタをパックし、カスタム構築されたTSMC 4NP プロセスを使用して製造されています。 すべての NVIDIA Blackwell 製品には、統一された単一 GPU で 10 TB/s のチップ間相互接続により接続された 2 つのレチクル制限付きダイが特徴です。
NVIDIA Grace CPU
NVIDIA Grace CPU は、AI、vRAN、クラウド、ハイパフォーマンス コンピューティング (HPC) アプリケーションを実行する最新のデータ センター向けに設計された画期的なプロセッサです。 優れたパフォーマンスとメモリ帯域幅を提供し、現在の主要なサーバー プロセッサの 2 倍のエネルギー効率で、優れたパフォーマンスとメモリ帯域幅を提供します。
NVLink2 C2C
GB200 NVL2 プラットフォームは、NVLink-C2C を使用して、各 NVIDIA Grace CPU と NVIDIA Blackwell GPU の間で 900 GB/s の相互接続を実現します。 第5世代 NVLink と組み合わせると、1.4 TB の巨大なコヒーレント メモリ モデルが提供され、AI と vRAN のパフォーマンスを加速します。
第 5 世代 NVIDIA NVLink
エクサスケール コンピューティングと 1 兆パラメーターの AI モデルのパワーを最大限に活用するには、サーバー クラスター内のすべての GPU がシームレスかつ迅速に通信する必要があります。
第5世代 NVLink は、GB200 NVL2 プラットフォームから高速なパフォーマンスを実現する高性能相互接続です。
Key-value caching
キー値 (KV) キャッシュは、会話のコンテキストと履歴を保存することで、LLM の応答速度を向上します。
GB200 NVL2 は、NVLink-C2C で接続された完全にコヒーレントな NVIDIA Grace GPU と NVIDIA Blackwell GPU メモリを通じて KV キャッシュを最適化し、PCIe よりも 7 倍高速です。 これにより、LLM は、x86 ベースの GPU 実装よりも速く単語を予測できます。
MGX リファレンス アーキテクチャ
MGX GB200 NVL2 は、CPU C-Link と GPU NVLink が接続された 2:2 構成です。
HPM には、次のコンポーネントが含まれています。
- NVIDIA Grace CPU (2)
- GPU パックと I/O カード用のコネクター
- 2U AC Server に搭載された GPU モジュール (2)
各プラグ可能な GPU モジュールには、GPU、B2B 接続、NVLink コネクターが含まれています。

GPU コンピューティング | 40 PFLOPS FP4 | 20 PFLOPS FP8/FP6 10x GH200 |
GPU メモリ | 最大 384 GB |
CPU | 144 コア ARMv9、 960 GB LPDDR5、 2x SPR と比較して 1.4 倍のパフォーマンスと 30% の電力削減 |
CPU から GPU NVLink C2C | GPU あたりの900 GB/s bi-dir.とキャッシュコヒーレント |
GPU から GPU NVLink | 1,800 GB/s bi-dir.、NVLink |
スケールアウト | Spectrum-X イーサネット、InfiniBand Connect-X、BlueField |
OS | 2 CPU + 2 GPU をカバーする統一アドレス空間を持つ単一 OS |
システム パワー | フル システム ~3,500W、構成可能 |
スケジュール | サンプル: Q4 2024 四半期 MP: 第1 Q1 2025 |
リアルタイム 主流 LLM 推論
GB200 NVL2 プラットフォームは、2 つの NVIDIA Grace CPU と 2 つの NVIDIA Blackwell GPU で共有される最大 1.3 TB の巨大な整合メモリを導入します。 この共有メモリは、第 5 世代 NVIDIA NVLink と高速チップ間 (C2C) 接続と組み合わせて、Llama3-70B などの主流言語モデルで 5 倍高速なリアルタイム LLM 推論パフォーマンスを実現します。
入力シーケンス長 256 、出力シーケンス長 8000 の出力シーケンス長、FP4 の精度により、GB200 NVL2 プラットフォームは最大 25K トークン/秒(2.16B トークン/日)を生成できます。
図 3 は、AI と RAN ワークロードをサポートする場合に GB200 NVL2 のパフォーマンスを示します。

GB200 NVL2 プラットフォームで RAN と AI のプラットフォーム テナンスの様子は、次のとおりです。
- 100% 使用率のワークロード
- RAN: ~36x 100 MHz 64T64R
- *トークン: 25K トークン/秒
- AI: ~10ドル/時 | ~9 万ドル/年
- 50:50 分割使用率でのワークロード
- RAN: ~18x 100 MHz 64T64R
- *トークン:12.5K トークン/秒
- AI: ~5ドル/時間。 | ~45,000 ドル/年
*トークン AI ワークロード: Llama-3-70B FP4 | シーケンス長入力 256 / 出力 8K
Aerial RAN Computer-1 のサポート ハードウェア
NVIDIA BlueField-3 と NVIDIAネットワーキング Spectrum-X は、Aerial RAN Computer-1 のサポートハードウェアです。
NVIDIA BlueField-3
NVIDIA BlueField-3 DPU は、フロントホール eCPRI トラフィックに必要な正確な 5G タイミングでリアルタイム データ伝送を可能にします。
NVIDIA は、完全な IEEE 1588v2 Precision Time Protocol (PTP) ソフトウェア ソリューションを提供します。 NVIDIA PTP ソフトウェア ソリューションは、最も要求の厳しい PTP プロファイルに対応するように設計されています。 NVIDIA BlueField-3 には統合 PTP ハードウェア クロック (PHC) が組み込まれており、時間トリガーのスケジューリングや時間ベースのソフトウェア デファインド ネットワーキング (SDN) 加速などのタイミング関連機能を提供しながら、デバイスが 20 ナノ秒未満の精度を実現できます。
このテクノロジは、ソフトウェア アプリケーションがフロントホール、RAN 互換性のデータを高帯域幅で送信することを可能にします。
NVIDIA ネットワーキング Spectrum-X
エッジおよびデータセンター ネットワークは、AI とワイヤレスの進歩とパフォーマンスを推進する上で重要な役割を果たし、分散 AI モデル推論、生成 AI、世界クラスの vRAN パフォーマンスのバックボーンとして機能します。
NVIDIA BlueField-3 DPUは、数百万台の NVIDIA Blackwell GPU で効率的な拡張性を実現し、最適なアプリケーション パフォーマンスを実現します。
NVIDIA Spectrum-X イーサネット プラットフォームは、イーサネット ベースの AI クラウドのパフォーマンスと効率を向上させるために特別に設計されており、5G タイミング同期に必要なすべての機能が含まれています。 従来のイーサネットと比較して 1.6 倍の AI ネットワーキング パフォーマンスを実現し、マルチテナント環境で一貫した予測可能なパフォーマンスを実現します。
Aerial RAN Computer-1 がラック構成で展開される場合、Spectrum-X イーサネット スイッチは 2 つの目的を持つファブリックとして機能します。 コンピューティング ファブリックでフロントホールと AI (イーストウエスト) トラフィックの両方を処理し、コンバージ ファブリックでバックホールまたはミッドホールと AI (ノースサウス) トラフィックも搬送します。 リモート 無線ユニットは、eCPRI プロトコルに準拠してスイッチで終了します。
Aerial RAN Computer-1 上のソフトウェア スタック
Aerial RAN Computer-1 の主要なソフトウェア スタックには、以下が含まれます。
- NVIDIA Aerial CUDA-Accelerated RAN
- NVIDIA AI Enterprise と NVIDIA NIM
- NVIDIA Cloud Functions
NVIDIA Aerial CUDA-Accelerated RAN
NVIDIA Aerial CUDA-Accelerated RAN は、Aerial RAN Computer-1 上で実行される 5G とプライベート 5G 向けに NVIDIA が構築した主要 RAN ソフトウェアです。
これには、AI コンポーネントを使用して簡単に変更し、シームレスに拡張できる、NVIDIA GPU アクセラレーションの相互運用可能な PHY および MAC レイヤー ライブラリが含まれています。 これらの強化された RAN ソフトウェア ライブラリは、他のソフトウェア プロバイダー、通信会社、クラウド サービス プロバイダー (CSP)、カスタムの商用グレードのソフトウェア デファインド 5G および将来の 6G 無線アクセス ネットワーク (RAN) を構築するために企業でも使用できます。
Aerial CUDA-Accelerated RA は、NVIDIA Aerial AI Radio Frameworks と統合され、フレームワーク ツールである pyAerial、NVIDIA Aerial Data Lake、NVIDIA Sionna を使用して RAN のトレーニングと推論を可能に AI 強化パッケージを提供します。
また、ワイヤレス システムの物理的に正確なシミュレーションを可能にするシステム レベルのネットワーク デジタル ツイン開発プラットフォームである NVIDIA Aerial Omniverse Digital Twin が補完されています。
NVIDIA AI Enterprise と NVIDIA NIM
NVIDIA AI Enterprise は、エンタープライズ生成 AI のためのソフトウェア プラットフォームです。 NVIDIA NIM は、生成 AI アプリケーションのための基盤モデルの展開を簡素化するマイクロサービスのコレクションです。
全体的に、これらの製品は、データ サイエンスのパイプラインを高速化し、企業向けの本番環境グレードのコ パイロットやその他の生成 AI アプリケーションの開発とデプロイを合理化する使いやすいマイクロサービスとブループリントを提供します。
企業と通信会社は、マネージド NVIDIA Elastic NIM サービスに登録するか、NIM を自ら展開し管理できます。 Aerial RAN Computer-1 は、NVIDIA AI Enterprise、NIM ベースの AI および生成 AI ワークロードをホストできます。
NVIDIA Cloud Functions
NVIDIA Cloud Functions は、GPU アクセラレーテッド AI ワークロードのためのサーバーレス プラットフォームを提供し、セキュリティ、拡張性、信頼性を確保します。. さまざまな通信プロトコルをサポートします。
- HTTP polling
- ストリーミング
- gRPC
Cloud Functions は、主に推論やファインチューニングなど、実行時間が短い、事前処理可能なワークロードに適しています。 RAN ワークロード リソース使用率が 1 日の時間とともに変化するため、Aerial RAN Computer-1 プラットフォームに最適です。
一時的に先占可能な AI ワークロードは、通常、1 日の使用されていない時間を埋めることができ、Aerial RAN Computer-1 プラットフォームの高使用率を維持します。
展開のオプションとパフォーマンス
Aerial RAN Computer-1 には、無線アクセス ネットワークのすべてのポイントを含む複数の展開のオプションがあります。
- 無線基地局セルサイト
- 拠点の場所
- 移動式スイッチング オフィス
- ベースバンド ホテル
プライベート 5G の場合は、企業の敷地内に設置できます。
Aerial RAN Computer-1 は、場所やインターフェイス標準に関係なく同じソフトウェアを使用しながら、プライベート、パブリック、ハイブリッド クラウド環境など、さまざまな構成と場所をサポートできます。 この機能は、従来の単一目的 RAN コンピューターと比較して前例のない柔軟性を提供します。
このソリューションは、広範囲のネットワーク テクノロジもサポートしています。
- オープン無線アクセス ネットワーク (Open-RAN) アーキテクチャ
- AI-RAN
- 3GPP 標準
- その他の業界をリードする仕様
GB200 をベースとする Aerial RAN Computer-1 は、以前の NVIDIA H100 と NVIDIA H200 GPU と比較して、RAN 処理、AI 処理、エネルギー効率のパフォーマンスが継続的に向上します (図 4)。
GB200 NVL2 プラットフォームは、既存のインフラストラクチャに 1 つの MGX サーバーを提供し、展開と拡張が容易です。 ハイエンド RAN コンピューティングで主流の LLM 推論とデータ処理を実現します。

まとめ
AI-RAN は、通信業界に革命をもたらし、通信会社が新しい収益源を獲得し、生成 AI、ロボティクス、自律テクノロジを通じて強化された体験を提供することを可能にします。 NVIDIA AI Aerial プラットフォームは、AI-RAN を実装し、ワイヤレス ネットワークを AI ネイティブにすることという NVIDIA の広範なビジョンと一致しています。
Aerial RAN Computer-1 により、通信会社は今日、共通のインフラストラクチャに AI-RAN を展開できます。 RAN と AI ワークロードを同時に実行することで使用率を最大化し、AI アルゴリズムで RAN のパフォーマンスを向上できます。
最も重要なのは、この共通コンピューターを使用すると、AI ワークロードにローカル コンピューティングとデータ主権を必要とする企業にとって最適な AI ファブリックになるというまったく新しい機会を活用できることです。 AI ファーストのアプローチから始めて、次にソフトウェア アップグレードで RAN を実施すれば、初日から ROI を最大化するための取り組みを開始できます。
T-Mobile とソフトバンクは、NVIDIA AI Aerial のハードウェアとソフトウェア コンポーネントを使用して、主要な RAN ソフトウェア プロバイダーと AI-RAN を商業化する計画を発表しました。
Mobile World Congress で、アメリカ、Vapor IO とラスベガス市は、NVIDIA AI Aerial を使用した世界初のプライベート 5GAI-RAN デプロイを発表しました。
私たちは、AI による AI のためのワイヤレス ネットワークの変革の転換点にいます。 ワシントンD.C. で開催される NVIDIA AI Summit と NVIDIA 6G Developer Day にぜひ参加して、NVIDIA Aerial AI と NVIDIA Aerial RAN Computer-1 について詳しく学んでください。