Red Hat OpenShift AI
Red Hat OpenShift AI とは
Red Hat® OpenShift® AI とは、柔軟でスケーラブルな人工知能 (AI) および機械学習 (ML) プラットフォームです。このプラットフォームにより、企業はハイブリッドクラウド環境全体で AI 対応アプリケーションを大規模に作成および提供できるようになります。
OpenShift AI はオープンソース・テクノロジーを使用して構築されており、実験、モデル提供、革新的なアプリケーションの提供のための、信頼性と一貫性に優れた運用機能を提供します。
AI 対応アプリケーションをより迅速にプロダクションに導入
Red Hat OpenShift AI と Red Hat OpenShift の実証済みの機能を、各チームを結び付ける 1 つのエンタープライズ対応 AI アプリケーション・プラットフォームに統合しましょう。データサイエンティスト、エンジニア、アプリケーション開発者は、一貫性、セキュリティ、スケーラビリティを促進する同じ目標に向けてコラボレーションすることができます。
OpenShift AI は、データの取得と準備、モデルのトレーニングとファインチューニング、モデルの提供とモデルのモニタリング、およびハードウェアのアクセラレーションを可能にします。OpenShift AI は、ハードウェアパートナーとソフトウェアパートナーのオープンエコシステムにより、特定のユースケースに必要な柔軟性をもたらします。
Red Hat OpenShift AI の最新リリースでは、スケーラビリティの向上、バイアスおよびドリフトの検出、アクセラレーターへのアクセスの改善が実現されています。また、モデルの共有、デプロイ、追跡のためのレジストリが一元化されています。これにより、パブリッククラウド、データセンター、エッジ環境をまたいで広範囲にわたり、エンタープライズの AI/ML イノベーションと運用の一貫性が加速されます。
特長とメリット
AI インフラストラクチャの管理に費やす時間を短縮
チームはリソースにオンデマンドでアクセスできるため、データの探索や組織に真の価値をもたらすアプリケーションの構築に集中できます。組み込み型のセキュリティやオペレーターのライフサイクル統合なども時間を節約できるメリットに含まれます。
テスト済み、サポート付きの AI/ML ツール
Red Hat OpenShift アプリケーション・プラットフォーム上で提供される一般的な AI/ML ツールとモデルの追跡、統合、テスト、サポートは Red Hat が担うため、お客様にはその必要はありません。OpenShift AI は、Red Hat の Open Data Hub コミュニティプロジェクトや Kubeflow のようなオープンソース・プロジェクトでの長年にわたる支援から生まれました。
ハイブリッドクラウドにおける柔軟性
Red Hat OpenShift AI は、セルフマネージドのソフトウェアとして、または OpenShift 上のフルマネージド型クラウドサービスとして提供され、オンプレミスでも、パブリッククラウドでも、さらにはエッジでも、モデルを開発しデプロイする場所を選択できる安全で柔軟なプラットフォームです。
当社のベストプラクティスを活用
Red Hat コンサルティングは、Red Hat OpenShift AI をインストールして設定し、最大限に活用できるようにするためのサービスを提供します。
OpenShift AI Pilot を活用したい場合でも、MLOps 基盤の構築に対するガイダンスを必要とする場合でも、Red Hat コンサルティングがサポートとメンターシップを提供します。
Red Hat Enterprise Linux AI
Red Hat® Enterprise Linux® AI は、エンタープライズアプリケーション向けの Granite 大規模言語モデル (LLM) ファミリーをシームレスに開発し、テストし、実行するための基盤モデルプラットフォームです。
パートナーシップ
Red Hat OpenShift AI プラットフォームは、他の統合サービスや製品で拡張することで、活用の幅を拡げることができます。
NVIDIA と Red Hat は、比類のない柔軟性で多様な AI ユースケースを促進するスケーラブルなプラットフォームを提供します。
Intel® と Red Hat は、AI の導入を加速させ、AI/ML モデルを迅速に運用できるよう組織を支援します。
IBM と Red Hat は、AI 構築者のためのエンタープライズ対応 AI スタジオである IBM watsonx.aiTM などを通じて、AI 開発を促進するオープンソース・イノベーションを提供しています。
Starburst Enterprise と Red Hat は、統合されていない複数の分散データプラットフォームにわたる迅速なデータ分析を通して、優れた知見をタイムリーに取得するのをサポートします。
IBM watsonx.ai で AI 機能を拡張する
Red Hat OpenShift AI は、IBM watson.ai にオープンソース基盤を提供しています。これによりさらなる生成 AI 機能が実現します。
サービスとしての Jupyter Notebook (Jupyter Notebooks-as-a-service) を介したコラボレーション
Jupyter Notebook を使用してモデルを構築するために、事前構築またはカスタマイズされたクラスタイメージを、データサイエンティストに提供できます。Red Hat OpenShift AI は、Jupyter、TensorFlow、PyTorch、その他のオープンソース AI テクノロジーの変更を追跡します。
Red Hat OpenShift AI でモデルの提供をスケーリング
モデルは、オンプレミス、パブリッククラウド、またはエッジでのインテリジェント・アプリケーションに統合することができます。これらのモデルは、ソースノートブックへの変更に基づいて再構築、再デプロイ、監視することが可能です。
ソリューションパターン
Red Hat と NVIDIA AI Enterprise による AI アプリケーション
RAG アプリケーションを作成する
Red Hat OpenShift AI は、データサイエンス・プロジェクトを構築し、AI 対応アプリケーションを提供するためのプラットフォームです。独自の参照ドキュメントから AI の回答を取得する手法の 1 つである 検索拡張生成 (RAG) をサポートするために必要なすべてのツールを統合できます。OpenShift AI を NVIDIA AI Enterprise に接続すると、 大規模言語モデル (LLM) を試して、アプリケーションに最適なモデルを見つけることができます。
ドキュメントのパイプラインを構築する
RAG を利用するには、まずドキュメントをベクトルデータベースに取り込む必要があります。サンプルアプリでは、一連の製品ドキュメントを Redis データベースに埋め込んでいます。これらのドキュメントは頻繁に変更されるため、定期的に実行するこのプロセス用のパイプラインを作成すると、常に最新バージョンのドキュメントを入手できます。
LLM カタログを閲覧する
NVIDIA AI Enterprise ではさまざまな LLM のカタログにアクセスできるため、さまざまな選択肢を試して、最良の結果が得られるモデルを選択できます。モデルは NVIDIA API カタログでホストされています。API トークンを設定したら、OpenShift AI から直接 NVIDIA NIM モデル提供プラットフォームを使用してモデルをデプロイできます。
適切なモデルを選択する
さまざまな LLM をテストする際、ユーザーは生成される応答をそれぞれ評価することができます。Grafana モニタリング・ダッシュボードを設定して、各モデルの評価だけでなく、レイテンシーと応答時間も比較できます。そしてそのデータを使用して、プロダクションで使用する最適な LLM を選択できます。
関連資料
動画
Red Hat OpenShift AI のデモ
e ブック
生成 AI の基盤を構築する際の主な検討事項
アナリスト資料
Omdia レポート:AI のための強固な運用基盤を構築
チェックリスト
組織への MLOps の実装を成功させるための 5 つの方法
Red Hat OpenShift AI を試す方法
開発者向けサンドボックス
事前構成済みの柔軟な環境で、AI 対応アプリケーションの構築を試してみたい開発者やデータサイエンティスト向け。
60 日間のトライアル
OpenShift AI のすべての機能を評価する準備が整ったら、60 日間の製品トライアルをお試しください。ご利用にあたっては、あらかじめ Red Hat OpenShift クラスタが必要です。