ブログを購読する

Red Hat は、通信業界のオープンな無線アクセスネットワーク (RAN) ソリューションへの移行を加速するため、Red Hat OpenShift 上で 5G vRAN 用の NVIDIA GPU をサポートすることを発表しました。これにより、あらゆるクラウド上の業界標準のサーバーで、コンテナ化された RAN のデプロイが可能になります。NVIDIA GPU で駆動するこのソリューションは、特注のハードウェアを必要とせず、標準的なカーネル上の Red Hat OpenShift で実行されます。これにより、お客様の総所有コスト (TCO) を削減するだけでなく、あらゆるクラウドへのネットワーク展開を加速し、マルチテナンシーや RAN-as-a-Service の提供を実現することが可能になります。

NVIDIA のテクノロジーを採用した Red Hat のソリューションは、サービスプロバイダーがエッジの経済性と vRAN の利点を最大限に活用できるよう支援します。Red Hat のスポンサーで執筆された ACG レポートによると、5G のコアと RAN エッジコンピューティングの両方で水平的に横断する共通インフラストラクチャを使用することにより、事業者はエンドツーエンドのインフラストラクチャ全体で総所有コスト (TCO) のメリットを拡大できることが分かっています。Red Hat 認定の NVIDIA GPU Operator を介した GPU との統合により、OpenShift は同じ OpenShift ノード上で機械学習 (ML) ジョブや RAN アプリケーションを実行するための高い計算リソース要件をシームレスに満たせるようになります。

このコラボレーションにより、プロバイダーは位置情報に基づいた新しいアプリケーションやサービスを開発、提供、サポートできるようになります。このソリューションは、5G ネットワークにおける遅延や中断を解決できるよう設計されています。この vRAN ソリューションにより、通信事業者は分散型クラウドにおけるスケーラビリティと運用効率を実現することができます。

5G は、network-as-a-platform によって通信サービスプロバイダー (CSP) にさらなる収益化と成長の機会をもたらします。エンドツーエンド (E2E) の 5G ネットワーク・アーキテクチャは、先進的な無線アクセスネットワーク (従来の NR または仮想 RAN、クラウド RAN、オープン RAN などのディスアグリゲーションされた RAN で構成される NG-RAN)、マルチアクセス・エッジコンピューティング (MEC)、5G コアサービスベースのアーキテクチャ (SBA)、サービスベースインターフェース (SBI) に移行する IMS コアとアプリケーションサービス層で構成されています (すべて AI/ML 対応のクラウドネイティブな通信事業クラウド上で構築)。

プロプライエタリー・ベンダーによる従来の RAN からの移行には、複雑なベースバンドユニット (BBU) アーキテクチャへの対応、ネットワーク機能仮想化 (NFV) の導入によるソフトウェアとハードウェアの分離が必要です。Red Hat と NVIDIA が提供するソリューションには、仮想 BBU のために再設計されたアーキテクチャが含まれており、その機能を集約ユニット (CU) と分散ユニット (DU) の 2 つのコンポーネントに分割する必要がありました。この分割により、MAC スケジューリング、再送によるエラー訂正、ビームフォーミング、セグメンテーション、リセグメンテーション、変調など、BBU が行うリアルタイム処理タスクのほとんどが DU 側に配置されました。CU 側には、経営や管理に関する機能が含まれます。レイテンシー要件を満たすため、DU は無線ユニット (RU) の近くに配置されるよう設計されています。DU と RU 間のサンプル伝送には Common Public Radio Interface (CPRI) が使用され、DU はフロントホール・ネットワークを通じて RU に接続されます。CU はより高いレイテンシーを許容できるため、RU や DU から離れた場所に配置することができ、CU のグループを集中エッジロケーションにプールしておくことができます。CU と DU の間の接続はミッドホールと呼ばれ、F1-C と F1-U のインタフェースが CU との間で終端しています。

RAN の仮想化の複雑さとベンダーの相互運用性の必要性を考慮し、O-RAN ALLIANCE は、RAN コンポーネントのクラウド化とオーケストレーションのための標準化モデルの提供に取り組んでいます。仮想化 RANのオーケストレーションと管理には、スライス管理、拡張性、フォールトトレランス、中断のないアップグレードを実現するベンダーニュートラルなアプローチが必要です。

テレコム向けインストールのレイアウト図

NVIDIA Aerial™ SDK は、5G NR PHY 処理のためのインライン L1 GPU アクセラレーションを備えた、5G 無線 RAN ソリューションを提供します。gNB の統合 L2/L3 (MAC、RLC、PDCP) に加え、管理性、オーケストレーションのためのフルスタックのフレームワークをサポートします。Aerial SDK は、5G 以外の信号処理ユースケースもサポートしています。以下の 2 つのコンポーネントにより、プログラム可能でスケーラブルなソフトウェア・デファインドの 5G RAN PHY の構築を単純化することができます。

  1. CUDA Baseband (cuBB):NVIDIA cuBB SDK は、レイヤー 1 の 5G PHY 向けの cuPHY を含む、GPU で高速化された 5G 信号処理パイプラインを提供し、すべての物理層処理を高性能 GPU メモリ内に保持することにより、これまでにないスループットと効率性を実現します。
  2. DOCA GPUNetIO:GPU 主導の通信を可能にするライブラリで、CUDA カーネルが DOCA GPUNetIO ライブラリの CUDA デバイス関数を呼び出して GPUDirect 対応ネットワークカード (NVIDIA ConnectX-6 DX またはA100X コンバージド・アクセラレータ) にパケットの送信や受信を指示できます。

GPU ソフトウェアの層構成図

図 1:NVIDIA DOCA GPUNetIO と CUDA ドライバーおよびライブラリを同一プラットフォーム上にインストール。

下図は NVIDIA cuBB SDK のソフトウェアとハードウェアのコンポーネントを示しています。

ハードウェアパスのチャート

図 2:cuBB SDK のソフトウェアとハードウェアコンポーネント、および NIC と GPU 間のインライン接続。

cuPHY には、GPU で高速化された 5G PHY レイヤーのソフトウェア・ライブラリと SDK の例が含まれています。これにより、GPU でオフロードされる 5G 信号処理が実現します。

cuPHY-CP は、レイヤー 1 の cuPHY と上位レイヤーのスタックとの間のコントロールプレーン・インタフェースを提供する cuPHY コントロールプレーン・ソフトウェアです。

NVIDIA Aerial は、5G PHY レイヤー (レイヤー 1) のフルインライン・オフロードを行います。GPUNetIO と Data Plane Development Kit (DPDK) の GPU Direct RDMA ドライバーという 2 つのイノベーションは、GPU におけるレイヤー 1 処理の最適化、高性能化、リアルタイム化を実現します。レイヤー 1 は GPU に完全にオフロードされ、CPU とのインタラクションがないため、CPU で動作するリアルタイムカーネルが不要になります。 

Linux のリアルタイムカーネルが CPU で必要なのは、レイヤー 1 の一部が CPU 上で動作している場合のみです。Aerial レイヤー 1 のソリューションは GPU で最適化されているので、これには該当しません。

GPU 上の OpenShift の図

5G カード一覧

コンポーザブル・インフラストラクチャでは、スペースを必要とする特殊なハードウェアや専用ソフトウェアが不要であるため、リソースの効率化と既存の IT 環境の最適化を実現できます。NVIDIA GPU、DPU、コンバージド・アクセラレータは、コンピュート、ストレージ、ネットワークリソースを分離してパケットを高速に処理し、インフラストラクチャに負荷のかかるタスクを分離してより高いセキュリティ対策を行うことで、従来の CPU の負担を軽減することができます。 

Red Hat がサポートする NVIDIA コンバージド・アクセラレータと NVIDIA Aerial SDK により、お客様には以下のようなメリットがあります:

  • 総所有コスト (TCO) を低減し、RAN と AI の大規模な展開と維持に伴うシステム全体のコストを削減する。
  • ハイブリッドクラウドやマルチクラウドへのネットワーク展開をより加速させ、マルチテナンシーや RAN-as-a-Service の提供を実現する。
  • 専用ハードウェアの必要性を軽減するコンポーザブル・インフラストラクチャと Red Hat Enterprise Linux を組み合わせることで、低レイテンシーと一貫性の強化を実現する。
  • エッジのすべてのデバイスに AI 機能とアプリケーションのリーチを拡大し、何十億ものデバイスを接続する。
  • エッジでの AI や ML の実現により、マルチアクセス・エッジコンピューティング (MEC)、自動運転車、産業、農業などのユースケースを加速させる。

詳細については、プレスリリースまたは www.redhat.com/nvidia をご覧ください。 


執筆者紹介

チャンネル別に見る

automation icon

自動化

テクノロジー、チーム、環境にまたがる自動化プラットフォームの最新情報

AI icon

AI (人工知能)

お客様が AI ワークロードをどこでも自由に実行することを可能にするプラットフォームについてのアップデート

cloud services icon

クラウドサービス

マネージド・クラウドサービスのポートフォリオの詳細

security icon

セキュリティ

環境やテクノロジー全体に及ぶリスクを軽減する方法に関する最新情報

edge icon

エッジコンピューティング

エッジでの運用を単純化するプラットフォームのアップデート

Infrastructure icon

インフラストラクチャ

世界有数のエンタープライズ向け Linux プラットフォームの最新情報

application development icon

アプリケーション

アプリケーションの最も困難な課題に対する Red Hat ソリューションの詳細

Original series icon

オリジナル番組

エンタープライズ向けテクノロジーのメーカーやリーダーによるストーリー