Red Hat OpenShift での AI/ML とは
Red Hat® OpenShift® の AI/ML (人工知能/機械学習) は、セルフマネージドの Red Hat OpenShift や Red Hat が提供する AI/ML のクラウドサービスで AI/ML のワークフローと AI、OpenShift に組み込まれた MLOps (機械の運用) を活用し、インテリジェントなアプリケーションの提供を迅速化します。
NTT東日本、データ活用で地域社会の課題解決を推進する「映像AIサービス」を開発
Red Hat OpenShift が可能にする MLOps
Red Hat OpenShift には、データセンター、パブリッククラウド・コンピューティング、エッジコンピューティング全体で一貫した方法で MLOps (機械学習の運用) を可能にする主要な機能が含まれています。
DevOps と GitOps の原則を適用した MLOps により、組織は ML モデルのソフトウェア開発プロセスへの統合、本番環境へのロールアウト、モニタリング、再トレーニング、再デプロイという反復プロセスを自動化し、簡素化して、継続的な予測精度の向上を実現します。
ML のライフサイクル
ML のライフサイクルとは、大量の多種多様なデータ、豊富なコンピューティング、オープンソースの機械学習ツールの能力を取り入れて、インテリジェントなアプリケーションを構築する、多段階のプロセスです。
おおまかに言うと、ML のライフサイクルには 4 つのステップがあります。
- データの収集と準備:入力データが完全で、高品質であることを確認します。
- モデルの開発:最高レベルの予測精度を持つモデルのトレーニング、テスト、選択など。
- モデルの統合:アプリケーション開発のプロセスおよび推論に組み込みます。
- モニタリングと管理のモデル化:ビジネスパフォーマンスを測定し、潜在的なプロダクションデータのドリフトに対処します。
データの取得と準備
ML モデリング
ML モデルのデプロイ
ML モデルの監視と管理
データサイエンティストが抱える主な課題
ML モデリングを担当するデータサイエンティストは、選択したモデルが最高レベルの予測精度を維持できるようにする必要があります。
データサイエンティストが抱える主な課題は、以下のとおりです。
- 適切な ML ツールの選択とデプロイ (例:Apache Spark、Jupyter notebook、TensorFlow、PyTorch)
- 最高レベルの予測精度を提供する ML モデルのトレーニング、テスト、選択、再トレーニングに伴う複雑さ、それに費す時間
- ハードウェア・アクセラレーションを伴わないことによる、モデリングおよび推論タスクの実行速度が遅延
- インフラストラクチャのプロビジョニングおよび管理は IT 運用部門に依頼しなくてはならない
- データエンジニアやソフトウェア開発者と協力して、入力データをクレンジングし、アプリケーション開発プロセスでの ML モデルのデプロイを確実に実行する必要がある
機械学習 (ML) の取り組みにコンテナと Kubernetes を使用する理由
コンテナと Kubernetes は、ML ライフサイクルの高速化にとって重要です。これらのテクノロジーにより、データサイエンティストが ML モデルをトレーニング、テスト、デプロイするためのアジリティ、柔軟性、可搬性、スケーラビリティが得られるからです。
Red Hat® OpenShift は業界をリードするコンテナと Kubernetes のハイブリッドクラウド・プラットフォームです。こうしたすべてのメリットを提供し、統合された DevOps 機能 (OpenShift Pipelines、OpenShift GitOps、Red Hat Quay) およびハードウェア・アクセラレーションとの統合により、データサイエンティストとソフトウェア開発者のコラボレーションを強化し、インテリジェントなアプリケーションのハイブリッドクラウド (データセンター、エッジ、パブリッククラウド) への展開を迅速化します。
Red Hat OpenShift Data Science
Red Hat OpenShift AI は、AI/ML の実験およびモデルのライフサイクル全体で利用できるツールを提供する AI に重点を置いたポートフォリオであり、これには Red Hat OpenShift Data Science が含まれます。
Red Hat OpenShift® Data Science は、インテリジェント・アプリケーションに関わるデータサイエンティストおよび開発者向けのセルフマネージド型およびマネージド型のクラウドサービスです。フルサポート付きのサンドボックスを備えており、本番環境にデプロイする前に、パブリッククラウドで機械学習 (ML) モデルを迅速に開発、トレーニング、テストすることができます。
ML の取り組みに Red Hat OpenShift を使用するメリット
データサイエンティストの能力を強化する
- データサイエンティストは、ハイブリッドクラウド全体でセルフサービスの一貫したクラウドエクスペリエンスを得られる
- データ サイエンティストは、コンテナ化された ML ツールを自由に選択できる柔軟性と可搬性を得られるため、ML モデルをすばやく構築し、スケーリングし、再現し、共有できるようになる
- セルフマネージド型と AI クラウドサービスの両オプションについて、Red Hat 認定 Kubernetes Operator を介して、最も関連性の高い ML ツールを使用できる
- 繰り返される処理負荷の高い ML モデリングタスク用のインフラストラクチャを IT 部門に依存せずにプロビジョニングできる
- 特定のクラウドプロバイダーやそのプロバイダーが提供する ML ツールへの「ロックイン」の懸念を除外できる
- CI/CD ツールとの緊密な統合により、ML ツールを必要に応じてすばやく、かつ繰り返しデプロイできる
処理負荷の高い ML モデリングジョブを高速化する
NVIDIA GPU などの一般的なハードウェア・アクセラレーションを Red Hat 認定 GPU Operator を介して統合すると、コンピューティング・リソースの高いニーズにシームレスに対応し、最高レベルの予測精度を発揮する最適な ML モデルの選択と、そのモデルが本番環境で新しいデータを処理する際の ML 推論ジョブの選択に役立ちます。
インテリジェントなアプリケーションを開発する
OpenShift に組み込まれた DevOps 機能により、MLOps は AI を活用したアプリケーションの提供を高速化し、ML モデルの統合と予測精度を向上させるための継続的な再デプロイという反復プロセスを単純化します。
OpenShift DevOps の自動化機能を ML ライフサイクルに拡張すると、データサイエンティスト、ソフトウェア開発者、IT 運用のコラボレーションが実現し、ML モデルをインテリジェントなアプリケーションの開発にすばやく組み込めます。これにより生産性が向上し、ML を活用したインテリジェントなアプリケーションのライフサイクル管理が単純化されます。これらの機能により次のことが可能になります。
- OpenShift Build でコンテナモデル・イメージ・レジストリから構築する
- OpenShift Pipelines で、ML モデルを活用したインテリジェントなアプリケーションを継続的に、かつ繰り返し開発する
- OpenShift GitOps で、ML モデルを活用したインテリジェントなアプリケーションの継続的デプロイを自動化する
- Red Hat Quay で、モデルコンテナイメージとマイクロサービスをバージョン管理するイメージリポジトリを使用する
Red Hat OpenShift での機械学習の主なユースケース
OpenShift は、ハイブリッドクラウドでインテリジェントなアプリケーションを開発して、さまざまな業界の組織がビジネスとミッションクリティカルなイニシアチブを迅速に進められるよう支援します。ユースケースの例として、不正行為の検出、データ駆動型医療診断、コネクテッドカー、石油ガス探査、自動保険見積もり、クレーム処理などがあります。

ML ライフサイクルにおけるデータ管理のための Red Hat Data Services
Red Hat Data Services は、データの取り込みと準備から ML モデリング、推論段階まで、ML ライフサイクルにおけるペタバイト単位のストレージ要件に対処するために構築されました。Red Hat Data Services ポートフォリオに付属の Red Hat Ceph Storage は、オープンソースのソフトウェア・デファインド・ストレージ・システムで、S3 オブジェクトとブロック、ファイルストレージの包括的なサポートを提供し、業界標準のコモディティハードウェアに対して優れたスケーラビリティを発揮します。
たとえばスケーラブルな Ceph ストレージを、S3 または永続ボリュームを介して OpenShift 上のコンテナ化された Jupyter Notebook に提供することができます。
お客様導入事例
トルコの大手携帯電話会社である Turkcell は、AI を活用したアプリケーション・ワークロードの基盤として Red Hat OpenShift を導入しました。OpenShift を使用することで、革新的な AI アプリケーションをより迅速に提供する応答性の高いインフラストラクチャを構築し、数カ月かかっていたプロビジョニング時間を数秒に短縮できました。これにより、AI の開発コストと運用コストが 70% 削減されました。
Turkcell がオープンソースの重要性について語る (動画)
Royal Bank of Canada とその AI 研究機関である Borealis AI は、Red Hat および NVIDIA との提携により、カスタマーバンキング・エクスペリエンスを変革し、急速なテクノロジーの変化と進化する顧客の期待に対応できるよう設計された、新しい AI コンピューティング・プラットフォームを開発しました。
完全な ML プラットフォームを構築するための Open Data Hub プロジェクト

Open Data Hub プロジェクトは、Red Hat OpenShift、Red Hat Ceph Storage、Red Hat AMQ Streams、および複数のアップストリーム・オープンソース・プロジェクトに基づく機能的アーキテクチャで、必要な ML ツールによるオープンな ML プラットフォームの構築を支援します。
エンタープライズ対応 AI
Red Hat OpenShift と NVIDIA-Certified Systems 上で実行される NVIDIA AI Enterprise ソフトウェアスイートの機能を組み合わせることで、さまざまな AI ユースケースの迅速化に役立つスケーラブルなプラットフォームが実現します。このプラットフォームには、ハイブリッドクラウド、ベアメタル、または仮想化環境全体で AI ワークロードを一貫して安全にデプロイ、管理、スケーリングするための NVIDIA と Red Hat の主要テクノロジーが含まれています。
Red Hat の AI/ML パートナーエコシステム
変革をもたらす AI/ML のユースケースは、医療、金融サービス、通信、自動車などの業界で発生しています。Red Hat は、AI を活用したインテリジェント・アプリケーション向けの ML モデルとディープラーニングモデルの作成、デプロイ、管理に対応する完全なソリューションを提供するために、堅牢なパートナーエコシステムを育成してきました。