Red Hat OpenShift での AI/ML とは
Red Hat OpenShift での AI/ML (人工知能と機械学習) は、自己管理型 Red Hat OpenShift または AI/ML クラウドサービスによって、AI/ML のワークフローと AI を活用したインテリジェント・アプリケーションの提供を迅速化します。
AI/ML (人工知能と機械学習) ワークロードを OpenShift にデプロイする理由 (動画の再生時間:3 分)
Red Hat OpenShift による MLOps
Red Hat OpenShift には、データセンター、パブリッククラウド・コンピューティング、エッジコンピューティング全体で一貫した方法で MLOps (機械学習の運用) を可能にする主要な機能が含まれています。
DevOps と GitOps の原則を適用することで、ソフトウェア開発プロセス、本番環境のロールアウト、監視、再トレーニング、再デプロイに機械学習 (ML) モデルを統合する反復プロセスを自動化および単純化して、継続的な予測精度の向上を実現します。
Red Hat のリソース
ML のライフサイクルとは
大量の多種多様なデータ、豊富なコンピューティング、オープンソースの機械学習ツールの能力を取り入れて、インテリジェントなアプリケーションを構築する、多段階のプロセスです。
データサイエンティストが抱える主な課題
データサイエンティストは主に ML モデリングを担当し、選択したモデルが最高レベルの予測精度を発揮し続けるようにします。
データサイエンティストが抱える主な課題は、以下のとおりです。
- 適切な ML ツールの選択とデプロイ (例:Apache Spark、Jupyter notebook、TensorFlow、PyTorch)
- 最高レベルの予測精度を提供する ML モデルのトレーニング、テスト、選択、再トレーニングに伴う複雑さと必要な時間
- ハードウェア・アクセラレーションがないため、モデリングおよび推論タスクの実行速度が遅い
- インフラストラクチャのプロビジョニングおよび管理は都度 IT 運用部門に依頼しなくてはならない
- データエンジニアやソフトウェア開発者と協力して、入力データをクレンジングして、アプリケーション開発プロセスで ML モデルのデプロイを成功させる
OpenShift によるインテリジェント・アプリケーションの構築と管理
Red Hat® OpenShift® は、ハイブリッドクラウド環境やエッジで AI/ML ライフサイクルを管理するための統合アプリケーション・プラットフォームです。OpenShift は、コラボレーティブなワークフローへのセルフサービスアクセス、集中的な計算能力 (GPU)、最適化された運用を提供して、 AI ソリューションの提供を一貫して大規模に単純化します。
Red Hat OpenShift AI
Red Hat OpenShift AI は、AI/ML の実験およびモデルのライフサイクル全体にわたって、データサイエンティストおよびインテリジェント・アプリケーションの開発者をサポートするツールを提供します。フルサポート付きのサンドボックスを備えており、本番環境にデプロイする前に、パブリッククラウドで機械学習 (ML) モデルを迅速に開発、トレーニング、テストすることができます。
ML イニシアチブに関する Red Hat OpenShift のメリット
データサイエンティストの能力を強化する
- データサイエンティストが、ハイブリッドクラウド上のクラウドを一貫した方法でセルフサービスで使用できる
- データ サイエンティストは、好みのコンテナ化された ML ツールを使用できる柔軟性と可搬性を得られるため、ML モデルをすばやく構築、スケーリング、再現、共有できるようになる
- セルフマネージド型と AI クラウドサービスの両オプションについて、Red Hat 認定 Kubernetes Operator を介して、最も関連性の高い ML ツールを使用できる
- 繰り返される処理負荷の高い ML モデリングタスク用のインフラストラクチャを IT 部門に依存せずにプロビジョニングできる
- 特定のクラウドプロバイダーやそのプロバイダーが提供する ML ツールへの「ロックイン」の懸念を除外できる
- CI/CD ツールとの緊密な統合により、ML ツールを必要に応じてすばやく繰り返しデプロイできる
処理負荷の高い ML モデリングジョブを高速化する
NVIDIA GPU などの一般的なハードウェア・アクセラレーションを Red Hat 認定 GPU Operator を介して統合すると、コンピューティング・リソースの高いニーズにシームレスに対応し、最高レベルの予測精度を発揮する最適な ML モデルと、モデルが本番環境で新しいデータを処理するときの ML 推論ジョブの選択に役立ちます。
インテリジェントなアプリケーションを開発する
OpenShift に組み込まれた DevOps 機能により、MLOps は AI を活用したアプリケーションの提供を高速化し、ML モデルの統合と予測精度のための継続的な再デプロイという反復プロセスを単純化します。
OpenShift DevOps 自動化機能を ML ライフサイクルに拡張すると、データサイエンティスト、ソフトウェア開発者、IT 運用のコラボレーションが実現し、ML モデルをインテリジェントなアプリケーションの開発にすばやく組み込めます。これにより生産性が向上し、ML を活用したインテリジェントなアプリケーションのライフサイクル管理が単純化されます。
- OpenShift Build でコンテナモデル・イメージ・レジストリから構築する
- OpenShift Pipelines で、ML モデルを活用したインテリジェントなアプリケーションを継続的に繰り返し開発する
- OpenShift GitOps で、ML モデルを活用したインテリジェントなアプリケーションの継続的デプロイを自動化する
- Red Hat Quay による、モデルコンテナイメージとマイクロサービスをバージョン管理するイメージリポジトリ
Red Hat OpenShift での機械学習の主なユースケース
OpenShift は、ハイブリッドクラウドでインテリジェントなアプリケーションを開発して、さまざまな業界の組織がビジネスとミッションクリティカルなイニシアチブを迅速に進められるよう支援します。ユースケースの例として、不正行為検出、データ駆動型医療診断、コネクテッドカー、石油ガス探査、自動保険見積もり、クレーム処理などがあります。
Red Hat の AI/ML パートナーエコシステム
変革をもたらす AI/ML のユースケースは、医療、金融サービス、通信、自動車などの業界で発生しています。Red Hat は、AI を活用したインテリジェント・アプリケーション向けの ML モデルとディープラーニングモデルの作成、デプロイ、管理に対応する完全なソリューションを提供するために、堅牢なパートナーエコシステムを育成してきました。
お客様事例
Banco Galicia は、Red Hat コンサルティングと連携して AI ベースの自然言語処理 (NLP) ソリューションを Red Hat OpenShift 上で構築し、90% の精度で検証時間を数日から数分に短縮し、アプリケーションのダウンタイムを 40% 削減することができました。
エンタープライズ対応の AI
Red Hat OpenShift と NVIDIA-Certified Systems 上で実行される NVIDIA AI Enterprise ソフトウェアスイートの機能を組み合わせることで、さまざまな AI ユースケースの迅速化に役立つスケーラブルなプラットフォームが実現します。このプラットフォームには、ハイブリッドクラウド、ベアメタル、または仮想化環境全体で AI ワークロードを一貫して安全にデプロイ、管理、スケーリングするための NVIDIA と Red Hat の主要テクノロジーが含まれています。
Red Hat 公式ブログ
Red Hat のお客様、パートナー、およびコミュニティのエコシステムに関する最新の情報を入手しましょう。