Red Hat OpenShift AI に関するお客様の FAQ トップ 10
はじめに
この FAQ は、Red Hat® OpenShift® AI に関して最もよくある 10 の質問に対する回答をまとめたものです。
Red Hat OpenShift AI とは何ですか?
回答:Red Hat OpenShift AI は、AI 対応アプリケーションや予測モデル、基盤モデルをハイブリッドクラウド環境全体で大規模に構築、トレーニング、チューニング、デプロイ、監視するためのプラットフォームです。OpenShift AI は、信頼性の高い AI ソリューションを統合する際に AI イノベーション・プロジェクトを加速させ、運用の一貫性を促進し、リソースへのアクセスを最適化するのに役立ちます。
OpenShift AI は Red Hat OpenShift 上に構築されており、エンタープライズ AI プロジェクトのワークロードとパフォーマンス要求の処理において、最適化および自動化された、一貫したエクスペリエンスを提供します。機械学習運用 (MLOps) 機能を備えているため、AI ワークロードの制御・自動化を通じて、AI 対応アプリケーションをよりタイムリーに実稼働に導入できるようになります。
OpenShift AI と Red Hat AI はどのような関係ですか?
回答:Red Hat AI は、Red Hat AI Inference Server、Red Hat Enterprise Linux AI、OpenShift AI を含む製品ポートフォリオです。これらを統合した Red Hat AI は、AI イノベーションを加速させ、ハイブリッドクラウド環境全体で AI ソリューションの開発と提供における運用コストを削減するプラットフォームとして機能します。最適化されたモデルと効率的な推論によってコストを削減し、プライベートデータとの統合を単純化し、スケーラブルで柔軟なプラットフォームによってエージェント型 AI ワークフローの提供を加速します。
Red Hat OpenShift AI にはどのようなメリットがありますか?
回答:OpenShift AI には、効率性の向上、運用の単純化、ハイブリッドクラウド環境のサポート能力という 3 つの主なメリットがあります。
- 大規模に効率を最適化
OpenShift AI は、非常に要求の厳しい AI ワークロードを処理する一方でコストも削減します。これは、トレーニング、チューニング、実行にかかるコストが低い、より小型の最適化済みモデルへのアクセスを提供することで実現されます。さらに、OpenShift AI は、仮想大規模言語モデル (vLLM) などの最適化されたサービングエンジンを提供し、基盤となるインフラストラクチャをワークロードのニーズに応じてスケーリングすることで、モデル推論のコスト管理を支援します。 - 運用の複雑さを軽減
OpenShift AI は、エンタープライズデータを用いたモデルのファインチューニングを単純化し、効率的で高性能なモデルを提供します。これらのモデルを運用化するための支援として、OpenShift AI はデプロイの自動化とライフサイクルの管理を実現する高度な AI ツールを提供します。スケーラブルなクラスタ環境全体で AI アクセラレーター、グラフィック・プロセッシング・ユニット (GPU)、ワークロードリソースをより効果的に管理することで、効率を向上し、運用の複雑さを軽減します。データ担当者が、生成 AI や予測型 AI のワークロードのニーズに応じてモデルトレーニングおよび提供のための環境をセルフサービスで拡張できるようになり、お客様はモデル、モデルツール、モデルアプリケーションをすべて同じプラットフォーム上で実行することができます。 - ハイブリッドクラウドの柔軟性を向上
OpenShift AI は、クラウド環境、オンプレミスのデータセンター、ネットワークエッジなど、データが生成されたり配置されたりする場所に近いところで AI/ML ワークロードをトレーニング、デプロイ、監視する機能を提供します。この柔軟性により AI 戦略を進化させることができ、ビジネスの必要に応じてクラウドやエッジに運用を移すことができます。組織はエアギャップ環境や切断された環境など、関連する規制、セキュリティ、データ要件を満たす必要があるどの場所でも、モデルや AI 対応アプリケーションをトレーニングおよびデプロイすることができます。
OpenShift AI を使用するには、Red Hat OpenShift のライセンスと、基盤となる実装が必要ですか?
回答:はい。OpenShift AI は Red Hat OpenShift 上に構築されたソフトウェア製品またはサービスです。Red Hat OpenShift Container Platform への従来のソフトウェア製品アドオンとして、あるいは Red Hat OpenShift Service on AWS または Red Hat OpenShift Dedicated へのマネージド・クラウドサービス・アドオンとして提供されます。
Red Hat OpenShift AI の料金はいくらですか?
回答:OpenShift AI の価格設定は OpenShift Container Platform をモデルとしており、コアベースおよびベアメタルの SKU では Standard および Premium サポートを利用できます。
Red Hat OpenShift は別途購入する必要があります。
セルフマネージド型の OpenShift AI:Red Hat は OpenShift Container Platform の料金体系に従って価格を設定しています。OpenShift AI をインストールする前に、OpenShift Container Platform または Red Hat OpenShift Platform Plus のいずれかを導入する必要があります。Standard サポートと Premium サポートのオプションは、コアベースおよびベアメタルの SKU で利用できます。これらは年間単位 (若干の割引あり) で、または Hybrid Committed Spend 契約の場合は小口単位で購入することができます。
セルフマネージド型を利用する場合は、OpenShift AI が使用するクラスタユニットに対してのみ料金が発生します。
- たとえば、既存の OpenShift Container Platform クラスタに OpenShift AI 用として 2 つのベアメタルノードを追加する場合、その追加する 2 つのノードをカバーする OpenShift AI サブスクリプションを購入するだけで済みます。
- 使用量がサブスクリプションの容量を超えた場合、超過分の自己申告と、超過使用量をカバーする SKU/ユニットの追加購入はお客様の責任で行っていただきます。
大規模なワーカーノードの場合、使用量分のみがサブスクリプションの対象となります。
- たとえば、64 vCPU のワーカーノードで OpenShift AI が 32 vCPUを使用した場合、その 32 vCPU に対してのみサブスクリプションが必要となります。
マネージド型の OpenShift AI:Red Hat は、Red Hat OpenShift Service on AWS と、AWS および Google Cloud Platform (GCP) 上の OpenShift Dedicated のアドオンサービスとしてこのバージョンを提供しています。Red Hat OpenShift on AWS、OpenShift Dedicated、基盤となる AWS インフラストラクチャは、別途購入する必要があります。
マネージド型 OpenShift AI の年間 SKU 料金は、クラスタ内のすべてのワーカーノードの合計 vCPU 数に基づき、1 vCPU あたりの年間料金で設定されます。また、1 vCPU あたりの時間料金 (すべてのクラスタワーカーノードの vCPU 時間) に基づく従量課金制の SKU も提供しています。
OpenShift AI は、他の AI プラットフォームとどのように異なるのですか?
回答:OpenShift AI は、AI のオープンソース・コミュニティを基盤として構築されており、透明性と信頼性の高いサポートを提供します。Red Hat は、Jupyter、PyTorch、Kubeflow、KServe、vLLM、TrustyAI などのプロジェクトやテクノロジーに長年にわたって貢献し、オープンソース AI へのコミットメントを示してきました。
OpenShift AI は、お客様が独自の AI モデルやアプリケーションサービスを構築できる、包括的なオープンソース AI プラットフォームとなります。Red Hat OpenShift を基盤とする OpenShift AI を通じて、お客様は Red Hat OpenShift が誇る信頼性の高いアプリケーション・プラットフォーム・サービスを利用できます。これにより、必要とされる場所 (データの近くやエッジへの拡張など) に OpenShift AI をデプロイでき、完全にサポートされたハイブリッド AI プラットフォームが実現します。
OpenShift AI は生成 AI 専用ですか?
回答:いいえ。OpenShift AI は、従来の AI から生成 AI まで、考えられるすべての AI/ML プロジェクトに対応しています。
Red Hat OpenShift AI を試用するにはどうすればよいですか?
回答:開発者向けサンドボックスで OpenShift AI を無料でお試しいただけます。また、お客様ご自身のクラスタで試用できる、専用の 60 日間トライアルもご用意しています。
OpenShift AI には生成 AI モデルが含まれていますか?
回答:OpenShift AI は、技術プレビュー機能として、検証済み・最適化済みモデルをまとめたモデルカタログを提供します。このモデルカタログには、HuggingFace 上の Red Hat AI リポジトリに公開されている、サードパーティ提供の検証済み・最適化済み AI モデルの一部が含まれます。モデルカタログは一般的な生成 AI モデルの読み取り専用バージョンですが、ユーザーは統合されたモデルレジストリを通じて、これらのモデルを修正したり、管理したりすることができます。
Red Hat OpenShift AI のコアコンポーネントは何ですか?
回答:コアコンポーネントは、基盤となる Red Hat OpenShift プラットフォーム上で連携し、AI を活用したアプリケーションの構築、デプロイ、管理のための包括的で統合された環境を提供します。コアコンポーネントには以下が含まれます。
- OpenShift AI ダッシュボード:アプリケーション、利用可能なリソース、管理機能を明確に把握できるユーザーフレンドリーなインタフェース。
- データサイエンス・ワークベンチと JupyterLab:データサイエンティストがモデルの開発や実験を行うためのインタラクティブな環境を提供します。
- 主要な AI/ML フレームワークとライブラリ:OpenShift AI は、TensorFlow、PyTorch、Scikit-learn などの広く利用されているフレームワークをサポートしています。その他のフレームワークもサポートされています。
- Kubeflow コンポーネント:OpenShift AI は、AI/ML ワークフローの大規模デプロイを単純化するオープンソース・フレームワークである Kubeflow の主要コンポーネントを統合しています。これには、ノートブック・コントローラー、モデル提供 (KServe)、データサイエンス・パイプラインが含まれます。
- ハードウェア・アクセラレーションの統合:OpenShift AI は、NVIDIA GPU、Intel XPU (例:Intel Gaudi AI アクセラレーター)、AMD GPU など、AI/ML ワークロードを高速化する専用ハードウェアと連携するように設計されています。
- モデル提供:OpenShift AI は、AI Inference Server (最適化された vLLM を搭載)、OpenVINO、NVIDIA NIM (検証済み) など、複数のモデル提供エンジンとランタイムを統合しています。
- モデルのファインチューニングと RAG:分散型 InstructLab ファインチューニング機能 (技術プレビュー)、パートナーとの連携によるベクトル DB 埋め込み、LoRA/QLoRA が提供されます。
- モデルの監視と評価:OpenShift AI は、一元化された監視機能、ドリフト検出、バイアス、AI ガードレールのためのツールを提供します。LMEval は、LLM が正しく実行されているかどうかを判別するのに役立つフレームワークです。
- 分散ワークロード・コンポーネント (CodeFlare、Ray、Kueue):データサイエンティストが複数のノードを並行して使用して ML モデルをトレーニングまたは提供できるようにします。
- モデルレジストリ、モデルカタログ、機能ストア (すべて技術プレビュー):検証済み・最適化済みモデルへのアクセスを提供し、カスタマイズされたモデルとデータ機能の管理とガバナンスを支援します。
- サードパーティのテクノロジーパートナーの統合:ダッシュボードから、NVIDIA、AMD、インテル、Starburst、Hewlett Packard Enterprise (旧 Pachyderm)、Elastic、EDB などのパートナーが提供する関連技術にアクセスできます。
さらに詳しく
Red Hat OpenShift AI のページにアクセスして AI の機能とメリットの詳細をご覧ください。また、当社の AI パートナーについてもご確認ください。
利用を開始するには、 営業担当者にお問い合わせください。Red Hat の担当者が OpenShift AI についてご説明いたします。