プライベートクラウドおよびハイブリッドクラウド向けのプロダクション AI
AI モデルとアプリケーションの開発、トレーニング、デプロイ
Red Hat® OpenShift® AI は、AI モデルとアプリケーションの開発、トレーニング、プライベートおよびハイブリッドクラウド環境へのデプロイを大規模に実行できる MLOps プラットフォームです。OpenShift AI を使用すると、生成 AI と予測型 AI および機械学習 (AI/ML) モデリングの両方を実行する一般的なオープンソースツールとサードパーティ製ツールの統合セットを効率的にデプロイできます。これを導入することで、実験モデルを構築し、それらのモデルをコンテナ対応形式でパブリッククラウド、プライベートクラウド、オンプレミス、エッジ環境にわたって一貫してプロダクション環境に提供できるコラボレーティブなオープンソースのツールセットとプラットフォームを得ることができます。
Red Hat AI の主要コンポーネントである OpenShift AI は、IT 運用担当者やプラットフォーム・エンジニアに、管理がシンプルでセキュリティに重点を置いたスケーラブルな環境を提供します。また、AI ソリューションの大規模な開発とデプロイメントのための包括的な統合プラットフォームをデータサイエンティストや AI エンジニア向けに提供します。
OpenShift AI は、生成 AI 基盤モデルをサポートしており、プライベートデータをファインチューニングして提供できます。ワークロードを、その所在する場所にかかわらず、複数の Red Hat OpenShift クラスタ上に分散させることもできます。このプラットフォームは Red Hat OpenShift に統合され、その上にレイヤー化されています。これにより、AI ハードウェア・アクセラレーションを単純化し、中央処理装置 (CPU) やグラフィック処理装置 (GPU) ベースのハードウェア・インフラストラクチャ (NVIDIA GPU、AMD GPU、Intel XPU など) を、オンプレミスかソブリンクラウドか、またはパブリッククラウドかを問わず、サポートできます。
表 1.Red Hat OpenShift AI の特長とメリット
ハイライト
ビジネスへの AI の導入を単純化し、AI の導入を促進し、AI イニシアチブに柔軟性をもたらします。
一貫したユーザーエクスペリエンスでチーム全体に AI/ML の運用上の一貫性を確立し、AI エンジニア、データサイエンティスト、データエンジニア、DevOps チームが効果的にコラボレーションできるようにします。
あらゆるハードウェアやハイブリッドクラウドにわたって AI を大規模に構築、デプロイ、管理できる柔軟性と一貫性を提供し、データの制約、プライバシー、セキュリティ、コスト管理に対処します。
特長 | メリット |
モデルの開発とカスタマイズ | AI/ML ライブラリとワークベンチを備えたインタラクティブな JupyterLab インタフェース。データの取り込み、合成データの生成、InstructLab ツールキット、プライベートデータ接続のための検索拡張生成 (RAG) を統合します。 |
モデルのトレーニングと実験 | 開発ファイルとアーティファクトを整理します。分散ワークロードをサポートしているため、効率的にトレーニングおよびチューニングできます。実験の追跡と単純化されたハードウェア割り当てが可能です。 |
インテリジェントな GPU とハードウェアスピード
| セルフサービスで GPU にアクセスできます。ワークロード・スケジューリング、クォータ管理、優先アクセス、ハードウェアプロファイルを通じた使用状況の可視化など、GPU をインテリジェントに使用できます。 |
AI パイプライン | モデルの提供とテストを自動化できます。パイプラインのバージョン管理、追跡、管理が可能なため、ユーザーエラーを削減し、実験とプロダクション環境のワークフローを単純化できます。 |
最適化されたモデル提供 | 高スループットと低レイテンシーに最適化された仮想大規模言語モデル (vLLM) を介して、さまざまなプロバイダーやフレームワークのモデルを提供します。llm-d 分散推論フレームワークは、予測可能でスケーラブルなパフォーマンスと効率的なリソース管理をサポートします。LLM compressor と、最適化および検証済みの一般的な生成 AI モデルへのアクセスが含まれます。 |
エージェント型 AI と生成 AI のユーザー・インタフェース (UI) | コア・プラットフォーム・サービスによってエージェント型 AI ワークフローを高速化します。統合されたアプリケーション・プログラミング・インタフェース (API) レイヤー (MCP と Llama Stack API) および専用のダッシュボード・エクスペリエンス (AI hub と gen AI studio)。 |
モデルの可観測性とガバナンス | ライフサイクル管理、パフォーマンス、管理のための共通オープンソースツール。パフォーマンス、データドリフトとバイアス検出、AI ガードレールまたは推論などの指標を追跡します。LLM 評価 (LM Eval) と LLM ベンチマーク (GuideLLM) を提供し、実際の推論デプロイを支援します。 |
カタログとレジストリ | 予測 AI モデルや生成 AI モデル、MCP サーバーとそのメタデータ、およびアーティファクトの一元管理。 |
機能ストア | ML モデルのためのクリーンで明確に定義されたデータ機能を管理し、パフォーマンスを向上させ、ワークフローを高速化する UI。 |
Models-as-a-Service | AI エンジニアはマネージド型の組み込み API ゲートウェイを介してモデルを使用し、セルフサービスでアクセスして使用状況を追跡できます (開発者プレビュー機能)。 |
切断された環境およびエッジ | セキュリティと規制へのコンプライアンスを確保するために、接続されていないクラスタやエアギャップ環境のクラスタをサポートします。 |
OpenShift AI の機能に加えて、統合パートナー製品には次のようなものがあります。
- Starburst:多様なデータセットにわたる分散データアクセス
- HPE:データリネージュとバージョン管理
- NVIDIA:GPU のパフォーマンス管理
- AMD:GPU アクセラレーション
- インテル:インテルのハードウェアでの高性能推論
- Elastic と EDB:検索拡張生成 (RAG) アプリケーション対応のベクトルデータベース