Red Hat OpenShift AI
Red Hat® OpenShift® AI は、ハイブリッドクラウド環境全体で、予測 AI および生成 AI モデルのライフサイクルを大規模に管理するためのプラットフォームです。
Red Hat OpenShift AI とは
OpenShift AI はオープンソース・テクノロジーを使用して構築されており、実験、モデル提供、革新的なアプリケーションの提供のための、信頼性と一貫性に優れた運用機能を提供します。
OpenShift AI は、データの取得と準備、モデルのトレーニングとファインチューニング、モデルの提供とモデルのモニタリング、およびハードウェアのアクセラレーションを可能にします。OpenShift AI は、ハードウェアパートナーとソフトウェアパートナーのオープンエコシステムにより、特定のユースケースに必要な柔軟性をもたらします。
AI 対応アプリケーションをより迅速にプロダクションに導入
Red Hat OpenShift AI と Red Hat OpenShift の実証済みの機能を、各チームを結び付ける 1 つのエンタープライズ対応 AI アプリケーション・プラットフォームに統合しましょう。データサイエンティスト、エンジニア、アプリケーション開発者は、一貫性、セキュリティ、スケーラビリティを促進する同じ目標に向けてコラボレーションすることができます。
OpenShift AI の最新リリースは、より小規模な事前最適化済みモデルを利用できるため、さらなる効率アップを図ることができます。さらに、vLLM フレームワークを通じた分散型サービスにより、推論コストの管理がしやすくなります。OpenShift AI は、デプロイメントを自動化するための高度なツールを提供し、モデル、ツール、リソースにセルフサービスでアクセスできるようにすることで、運用の複雑さをより一層軽減します。
特長とメリット
AI インフラストラクチャの管理に費やす時間を削減
チームがリソースにオンデマンドでアクセスできるようにすることで、必要なときにモデルのトレーニングやサービス環境をセルフサービスでスケーリングできます。さらに、スケーラブルなクラスタ環境全体で AI アクセラレーター (GPU) とワークロードリソースを管理することで、運用の複雑さが軽減されます。
テスト済み、サポート付きの AI/ML ツール
Red Hat OpenShift アプリケーション・プラットフォーム上で提供される一般的な AI/ML ツールとモデルは、Red Hat が追跡、統合、テスト、サポートを担います。OpenShift AI は、Red Hat の Open Data Hub コミュニティプロジェクトや Kubeflow のようなオープンソース・プロジェクトでの長年にわたる支援が基盤となっています。
ハイブリッドクラウドにおける柔軟性
Red Hat OpenShift AI は、セルフマネージドのソフトウェアとして、または OpenShift 上のフルマネージド型クラウドサービスとして提供され、オンプレミスでも、パブリッククラウドでも、さらにはエッジでも、モデルを開発しデプロイする場所を選択できる安全で柔軟なプラットフォームです。
Red Hat のベストプラクティスを活用
Red Hat コンサルティングは、Red Hat OpenShift AI をインストールして設定し、最大限に活用できるようにするためのサービスを提供します。
AI の導入を加速したい、ML プラットフォームチームのスキルアップを図りたい、あるいは MLOps の基盤作りに関するガイダンスがほしいなど、お客様のご希望に合わせて Red Hat コンサルティングがサポートやメンターシップを提供します。
Red Hat Enterprise Linux AI
Red Hat® Enterprise Linux® AI は、エンタープライズアプリケーション向けの Granite 大規模言語モデル (LLM) ファミリーをシームレスに開発し、テストし、実行するための基盤モデルプラットフォームです。
パートナーシップ
Red Hat OpenShift AI プラットフォームは、他の統合サービスや製品で拡張することで、活用の幅を拡げることができます。
NVIDIA と Red Hat は、比類のない柔軟性で多様な AI ユースケースを促進するスケーラブルなプラットフォームを提供します。
Intel® と Red Hat は、AI の導入を加速させ、AI/ML モデルを迅速に運用できるよう組織を支援します。
IBM と Red Hat は、AI 構築者のためのエンタープライズ対応 AI スタジオである IBM watsonx.aiTM などを通じて、AI 開発を促進するオープンソース・イノベーションを提供しています。
Starburst Enterprise と Red Hat は、統合されていない複数の分散データプラットフォームにわたる迅速なデータ分析を通して、優れた知見をタイムリーに取得するのをサポートします。
AI プラットフォームのためのスケーラブルな Kubernetes インフラストラクチャ
AI を活用したアプリケーションを構築するための機械学習運用 (MLOPs) の原則とプラクティスの実践方法を学びましょう。
モデルワークベンチを通じたコラボレーション
データサイエンティストが希望する IDE (JupyterLab など) を使ってモデルを操作できるよう、事前構築済みまたはカスタマイズ済みのクラスタイメージを提供します。Red Hat OpenShift AI は、Jupyter、TensorFlow、PyTorch をはじめとするオープンソース AI テクノロジーの変更を追跡します。
Red Hat OpenShift AI でモデルの提供をスケーリング
モデルは、vLLM (またはお客様のご希望に応じたその他のモデルサーバー) の最適化されたバージョンを使って提供され、オンプレミス、パブリッククラウド、エッジの AI 対応アプリケーションに統合できます。これらのモデルは、ソースノートブックへの変更に基づいて再構築、再デプロイ、監視することが可能です。
ソリューションパターン
Red Hat と NVIDIA AI Enterprise による AI アプリケーション
RAG アプリケーションを作成する
Red Hat OpenShift AI は、データサイエンス・プロジェクトを構築し、AI 対応アプリケーションを提供するためのプラットフォームです。独自の参照ドキュメントから AI の回答を取得する手法の 1 つである 検索拡張生成 (RAG) をサポートするために必要なすべてのツールを統合できます。OpenShift AI を NVIDIA AI Enterprise に接続すると、 大規模言語モデル (LLM) を試して、アプリケーションに最適なモデルを見つけることができます。
ドキュメントのパイプラインを構築する
RAG を利用するには、まずドキュメントをベクトルデータベースに取り込む必要があります。サンプルアプリでは、一連の製品ドキュメントを Redis データベースに埋め込んでいます。これらのドキュメントは頻繁に変更されるため、定期的に実行するこのプロセス用のパイプラインを作成すると、常に最新バージョンのドキュメントを入手できます。
LLM カタログを閲覧する
NVIDIA AI Enterprise ではさまざまな LLM のカタログにアクセスできるため、さまざまな選択肢を試して、最良の結果が得られるモデルを選択できます。モデルは NVIDIA API カタログでホストされています。API トークンを設定したら、OpenShift AI から直接 NVIDIA NIM モデル提供プラットフォームを使用してモデルをデプロイできます。
適切なモデルを選択する
さまざまな LLM をテストする際、ユーザーは生成される応答をそれぞれ評価することができます。Grafana モニタリング・ダッシュボードを設定して、各モデルの評価だけでなく、レイテンシーと応答時間も比較できます。そしてそのデータを使用して、プロダクションで使用する最適な LLM を選択できます。
関連資料
事例
DenizBank、Red Hat OpenShift AI でデータサイエンティストを支援
動画
LLM の AI ガードレールで生成 AI モデルを確実に保護
アナリスト資料
Omdia レポート:AI のための強固な運用基盤を構築
チェックリスト
組織への MLOps の実装を成功させるための 5 つの方法
Red Hat OpenShift AI を試す方法
開発者向けサンドボックス
事前構成済みの柔軟な環境で、AI 対応アプリケーションの構築を試してみたい開発者やデータサイエンティスト向け。
60 日間のトライアル
OpenShift AI のすべての機能を評価する準備が整ったら、60 日間の製品トライアルをお試しください。ご利用にあたっては、あらかじめ Red Hat OpenShift クラスタが必要です。