Jump to section

Red Hat OpenShift での AI/ML

URL をコピー

Red Hat® OpenShift® での AI/ML は、自己管理型 Red Hat OpenShift または AI/ML クラウドサービスによって、AI/ML のワークフローと AI を活用したインテリジェント・アプリケーションの提供を迅速化します。

Red Hat OpenShift には、データセンター、パブリッククラウド・コンピューティング、エッジコンピューティング全体で一貫した方法で機械学習の運用 (MLOps) を可能にする主要な機能が含まれています。

DevOps と GitOps の原則を適用することで、ソフトウェア開発プロセス、本番環境のロールアウト、監視、再トレーニング、再デプロイに ML モデルを統合する反復プロセスを自動化および単純化して、継続的な予測精度の向上を実現します。 

大量の多種多様なデータ、豊富なコンピューティング、オープンソースの機械学習ツールの能力を取り入れて、インテリジェントなアプリケーションを構築する、多段階のプロセスです。

おおまかに言うと、ライフサイクルには 4 つのステップがあります。

  1. データの収集と準備:入力データが完全で、高品質であることを確認します。
  2. モデルの開発:最高レベルの予測精度を持つモデルのトレーニング、テスト、選択など。
  3. モデルの統合:アプリケーション開発プロセスおよび推論に組み込みます。
  4. モニタリングと管理のモデル化:ビジネスパフォーマンスを測定し、潜在的なプロダクションデータのドリフトに対処します。
Icon-Red_Hat-Diagrams-Graph_Arrow_Up-A-Black-RGB
データの取得と準備
Icons-Red_Hat-Diagrams-Development_Model-A-Black-RGB
ML モデリング
ML モデルのデプロイ
Icons-Red_Hat-Objects-Binoculars-A-Black-RGB
ML モデルの監視と管理

データサイエンティストは主に ML モデリングを担当し、選択したモデルが最高レベルの予測精度を発揮し続けるようにします。 

データサイエンティストが抱える主な課題は、以下のとおりです。

  • 適切な ML ツールの選択とデプロイ (例:Apache Spark、Jupyter notebook、TensorFlow、PyTorch)
  • 最高レベルの予測精度を提供する ML モデルのトレーニング、テスト、選択、再トレーニングに伴う複雑さと必要な時間
  • ハードウェア・アクセラレーションがないため、モデリングおよび推論タスクの実行速度が遅い
  • インフラストラクチャのプロビジョニングおよび管理は都度 IT 運用部門に依頼しなくてはならない
  • データエンジニアやソフトウェア開発者と協力して、入力データをクレンジングして、アプリケーション開発プロセスで ML モデルのデプロイを成功させる

コンテナと Kubernetes は、ML ライフサイクルの高速化にとって重要です。これらのテクノロジーにより、データサイエンティストが ML モデルをトレーニング、テスト、デプロイするためのアジリティ、柔軟性、可搬性、スケーラビリティが得られるからです。

Red Hat® OpenShift® は業界をリードするコンテナと Kubernetes のハイブリッドクラウド・プラットフォームです。こうしたすべてのメリットを提供し、統合された DevOps 機能 (OpenShift PipelinesOpenShift GitOpsRed Hat Quay) およびハードウェア・アクセラレーションとの統合により、データサイエンティストとソフトウェア開発者のコラボレーションを改善し、ハイブリッドクラウド (データセンター、エッジ、パブリッククラウド) へのインテリジェントなアプリケーションの展開を迅速化します。

Red Hat OpenShift Data Science

Red Hat OpenShift® Data Science は、インテリジェント・アプリケーションに携わるデータサイエンティストおよび開発者向けのマネージド・クラウドサービスです。フルサポート付きのサンドボックスを備えており、本番環境にデプロイする前に、パブリッククラウドで機械学習 (ML) モデルを迅速に開発、トレーニング、テストすることができます。

    データサイエンティストの能力を強化する

    • データサイエンティストが、ハイブリッドクラウド上のクラウドを一貫した方法でセルフサービスで使用できる
    • データ サイエンティストは、好みのコンテナ化された ML ツールを使用できる柔軟性と可搬性を得られるため、ML モデルをすばやく構築、スケーリング、再現、共有できるようになる
    • 自己管理型と AI クラウドサービスの両オプションについて、Red Hat 認定 Kubernetes Operator を介して、最も関連性の高い ML ツールを使用できる
    • 繰り返される処理負荷の高い ML モデリングタスク用のインフラストラクチャを IT 部門に依存せずにプロビジョニングできる
    • 特定のクラウドプロバイダーやそのプロバイダーが提供する ML ツールへの「ロックイン」の懸念を除外できる
    • CI/CD ツールとの緊密な統合により、ML ツールを必要に応じてすばやく繰り返しデプロイできる

    処理負荷の高い ML モデリングジョブを高速化する

    NVIDIA GPU などの一般的なハードウェア・アクセラレーションを Red Hat 認定 GPU Operator を介して統合すると、コンピューティング・リソースの高いニーズにシームレスに対応し、最高レベルの予測精度を発揮する最適な ML モデルと、モデルが本番環境で新しいデータを処理するときの ML 推論ジョブの選択に役立ちます。

    インテリジェントなアプリケーションを開発する

    OpenShift に組み込まれた DevOps 機能により、MLOps は AI を活用したアプリケーションの提供を高速化し、ML モデルの統合と予測精度のための継続的な再デプロイという反復プロセスを単純化します。    

    OpenShift DevOps 自動化機能を ML ライフサイクルに拡張すると、データサイエンティスト、ソフトウェア開発者、IT 運用のコラボレーションが実現し、ML モデルをインテリジェントなアプリケーションの開発にすばやく組み込めます。これにより生産性が向上し、ML を活用したインテリジェントなアプリケーションのライフサイクル管理が単純化されます。

    • OpenShift Build でコンテナモデル・イメージ・レジストリから構築する
    • OpenShift Pipelines で、ML モデルを活用したインテリジェントなアプリケーションを継続的に繰り返し開発する
    • OpenShift GitOps で、ML モデルを活用したインテリジェントなアプリケーションの継続的デプロイを自動化する
    • Red Hat Quay による、モデルコンテナイメージとマイクロサービスをバージョン管理するイメージリポジトリ

    OpenShift は、ハイブリッドクラウドでインテリジェントなアプリケーションを開発して、さまざまな業界の組織がビジネスとミッションクリティカルなイニシアチブを迅速に進められるよう支援します。ユースケースの例として、不正行為検出、データ駆動型医療診断コネクテッドカー、石油ガス探査、自動保険見積もり、クレーム処理などがあります。

    HCA Healthcare logo and BMW Group logo

    Red Hat Data Services は、データの取り込みと準備から ML モデリング、推論段階まで、ML ライフサイクルにおけるペタバイト単位のストレージ要件に対処するために構築されました。Red Hat Data Services ポートフォリオに付属の Red Hat Ceph Storage は、オープンソースのソフトウェア・デファインド・ストレージ・システムで、S3 オブジェクトとブロック、ファイルストレージの包括的なサポートを提供し、業界標準のコモディティハードウェアに対して優れたスケーラビリティを発揮します。

    たとえばスケーラブルな Ceph ストレージを、S3 または永続ボリュームを介して OpenShift 上のコンテナ化された Jupyter Notebook に提供することができます。

    トルコの大手携帯電話会社である Turkcell は、AI を活用したアプリケーション・ワークロードの基盤として Red Hat OpenShift を導入しました。OpenShift を使用することで、革新的な AI アプリケーションをより迅速に提供する応答性の高いインフラストラクチャを構築し、数カ月かかっていたプロビジョニング時間を数秒に短縮できました。これにより、AI の開発コストと運用コストが 70% 削減されました。


    Royal Bank of Canada とその AI 研究機関である Borealis AI は、Red Hat および NVIDIA との提携により、カスタマーバンキング・エクスペリエンスを変革し、急速なテクノロジーの変化と進化する顧客の期待に対応できるよう設計された、新しい AI コンピューティング・プラットフォームを開発しました。

    Open Data Hub logo

    Open Data Hub プロジェクトは、Red Hat OpenShift、Red Hat Ceph Storage、Red Hat AMQ Streams、および複数のアップストリーム・オープンソース・プロジェクトに基づく機能的アーキテクチャで、必要な ML ツールによるオープンな ML プラットフォームの構築を支援します。

    Red Hat OpenShift と NVIDIA-Certified Systems 上で実行される NVIDIA AI Enterprise ソフトウェアスイートの機能を組み合わせることで、さまざまな AI ユースケースの迅速化に役立つスケーラブルなプラットフォームが実現します。このプラットフォームには、ハイブリッドクラウド、ベアメタル、または仮想化環境全体で AI ワークロードを一貫して安全にデプロイ、管理、スケーリングするための NVIDIA と Red Hat の主要テクノロジーが含まれています。

    変革をもたらす AI/ML のユースケースは、医療、金融サービス、通信、自動車などの業界で発生しています。Red Hat は、AI を活用したインテリジェント・アプリケーション向けの ML モデルとディープラーニングモデルの作成、デプロイ、管理に対応する完全なソリューションを提供するために、堅牢なパートナーエコシステムを育成してきました。

    関連資料

    記事

    Red Hat OpenShift Operator とは

    Red Hat OpenShift Operators automate the creation, configuration, and management of instances of Kubernetes-native applications.

    記事

    Red Hat OpenShift Serverless を選ぶ理由

    Red Hat OpenShift Serverless は Kubernetes を拡張し、サーバーレス・ワークロードのデプロイと管理ができるようにします。

    記事

    Red Hat OpenShift Service Mesh を選ぶ理由

    Red Hat OpenShift Service Mesh で、マイクロサービスベースのアプリケーションを接続、管理、監視する方法を統一することができます。

    OpenShift の詳細はこちら

    製品

    エンタープライズ対応の Kubernetes コンテナ・プラットフォームで、ハイブリッドクラウド、マルチクラウド、エッジのデプロイメントを管理するフルスタックの自動運用機能を備えています。

    コンテナのスピンアップおよびスピンダウン時に環境全体でデータを永続的に保存できるソフトウェア・デファインド・ストレージ。

    クラウドネイティブ・アプリケーションのより安全な構築、デプロイ、実行を可能にする、エンタープライズ向けの Kubernetes ネイティブのコンテナ・セキュリティ・ソリューション。

    Kubernetes クラスタとアプリケーションを制御する、セキュリティポリシーを組み込んだ単一のコンソール。

    リソース

    e ブック

    Red Hat OpenShift のビジネス価値に関する IDC エグゼクティブサマリー

    アナリスト資料

    Red Hat が Forrester によりマルチクラウドコンテナ開発プラットフォーム分野のリーダーの 1 社に選出

    トレーニング

    無料のトレーニングコース

    Running Containers with Red Hat Technical Overview

    無料のトレーニングコース

    Developing Cloud-Native Applications with Microservices Architectures

    無料のトレーニングコース

    Containers, Kubernetes and Red Hat OpenShift Technical Overview

    Illustration - mail

    その他の関連コンテンツ

    無料のニュースレター「Red Hat Shares」(英語) では、注目の IT トピックスに関するコンテンツをお届けしています。