生成 AI の世界は、目まぐるしく変化しています。エンタープライズの場合、大量に発生する新たな大規模言語モデル (LLM)、ツール (Model Context Protocol (MCP) サーバーなど)、およびフレームワークへの対応に圧倒されることがあります。どうすれば適切なモデルを選択することができるでしょうか。チームが組織内の障壁を作り出さずに、AI の最新イノベーションを実験し、構築できるようにするには、どうしたらよいでしょうか。
Red Hat では、AI の未来は、オープンかつアクセス可能で、大規模な管理が可能なものであると考えています。そのため、Red Hat は、Red Hat OpenShift AI 3.0 の新しい 2 つの統合ダッシュボード・エクスペリエンスについて、つまり AI hub と gen AI studio を発表しました。
これらのエクスペリエンスは、組織内の AI によるイノベーションを巻き起こす中心的な存在である、プラットフォームエンジニアと AI エンジニア向けにカスタマイズされたコンポーネントを提供して、企業の生成 AI のライフサイクル全体を最適化できるように設計されています。
最新情報の詳細
AI hub と gen AI studio は連携して、信頼できる一貫したプラットフォーム上でプロダクション対応の AI ソリューションを構築するための、統合されたエンドツーエンドのワークフローを作成します。
AI hub はプラットフォームエンジニアのコントロールパネル
AI hub は、OpenShift AI 内の生成 AI アセットの管理とガバナンスのための中心となる場所です。これを使用するプラットフォームエンジニアは、チームが必要とする基礎的なコンポーネントを発見し、デプロイし、管理することができます。主なコンポーネントは以下のとおりです。
- カタログ:プラットフォームエンジニアがさまざまなモデルを発見し、比較し、評価できる厳選されたライブラリです。これは、あらゆるユースケースに最適なモデルを選択するために必要なデータを提供するため、モデルの選択肢の多さに圧倒されることなく、適切なモデルを選択するのに役立ちます。
- レジストリ:AI モデルをデプロイ用に設定する前に、それらの登録、バージョン管理、ライフサイクル管理を行うための中央リポジトリです。
- デプロイメント:クラスターで実行されているモデルの設定、デプロイ、およびステータスの監視を行うための管理ページです。
gen AI studio: AI エンジニアのイノベーションのためのワークベンチ
AI hub は制御機能を提供しますが、gen AI studio は、AI エンジニアが使用、実験、構築を行うための実践的な環境を提供します。これは、イノベーションが形になる場所と言えます。studio には、以下が含まれます。
- AI アセットのエンドポイント:AI エンジニア向けのシンプルでクリアなビューにより、デプロイ済み、かつプロビジョニング済みのすべてのモデルと、プロジェクトで使用できる MCP サーバー (config map 経由) を確認できます。
- プレイグラウンド:AI エンジニアがデプロイしたアセットを試し、プロンプトをテストし、パラメーターを調整し、チャットや検索拡張生成 (RAG) などのユースケースでのパフォーマンスを評価することができる、インタラクティブでステートレスな環境です。
この統合された実験スペースは、大きな変革です。これは、分散したローカル環境のテストを、標準化された共同プラットフォームに移行し、開発ライフサイクル全体を加速させます。同時に、AI エンジニアはどの承認済み AI アセットにアクセスし、使用できるかをはっきりと把握できるため、企業のポリシーに沿って実験を進めることができます。
企業に対する現実的な価値
OpenShift AI 3.0 は、プラットフォームエンジニアと AI エンジニアの両者に統一されたエクスペリエンスを提供することで、企業の一般的な課題に対応する強力なメリットをもたらします。
- モデル選択の最適化:AI hub のカタログを使用すると、市場のノイズを遮断できるので、プラットフォームエンジニアはビジネスニーズに最適なエンタープライズ対応モデルを厳選できます。
- AI アセットの一元化と管理:このプラットフォームは、すべての生成 AI アセットに関する信頼できる唯一の情報源を作成するため、組織の断片化という問題を解決します。 プラットフォームエンジニアは、管理ならびにバージョン管理、および AI エンジニアへの意図的なアクセスの提供を行うことができるため、完全な AI ガバナンスの基盤を構築できます。
- 開発サイクルの迅速化:gen AI studio のプレイグラウンドは、発見から統合までのギャップを埋めるものです。 AI エンジニアは、モデルを迅速にテストおよび検証し、MCP サーバーを使用して標準化された方法でツールの呼び出しを試すことができます。これにより、デプロイメントの失敗が減少し、AI を活用したアプリケーションの本番環境への移行が迅速化されます。
今すぐ始める
一元化された制御と迅速なイノベーションを AI ワークフローに導入する準備はできていますか?AI hub と gen AI studio は、信頼できるプラットフォームで次世代の AI アプリケーションを構築するのに役立ちます。
Red Hat は、読者の皆様のニーズに応える魅力的な記事の作成をお手伝いします。まずは、当社のテクノロジーを実際に活用するための明確な道筋を提供させていただいております。
次のステップ
これは始まりにすぎません。Red Hat は、生成 AI のあらゆる側面をサポートするために、OpenShift AI をさらに進化させていきます。将来的には、AI アセットによって MCP Server の管理が拡張され、エージェント、RAG の知識ソース、安全柵などの、他の優先度の高いコンポーネントが追加されていくことが予想されます。
また、AI アセットの主権とガバナンスを AI hub と gen AI studio にまで拡張し、AI アセットのクォータ、権限、管理を詳細に制御し、コンプライアンスを確保できるようにする予定です。
エンタープライズ AI の未来はオープンでコラボレーティブであるべきです。OpenShift AI はそれを実現するためのプラットフォームです。
リソース
適応力のある企業:AI への対応力が破壊的革新への対応力となる理由
執筆者紹介
My name is Rob Greenberg, Principal Product Manager for Red Hat AI, and I came over to Red Hat with the Neural Magic acquisition in January 2025. Prior to joining Red Hat, I spent 3 years at Neural Magic building and delivering tools that accelerate AI inference with optimized, open-source models. I've also had stints as a Digital Product Manager at Rocketbook and as a Technology Consultant at Accenture.
類似検索
Smarter troubleshooting with the new MCP server for Red Hat Enterprise Linux (now in developer preview)
Demystifying llm-d and vLLM: The race to production
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
チャンネル別に見る
自動化
テクノロジー、チームおよび環境に関する IT 自動化の最新情報
AI (人工知能)
お客様が AI ワークロードをどこでも自由に実行することを可能にするプラットフォームについてのアップデート
オープン・ハイブリッドクラウド
ハイブリッドクラウドで柔軟に未来を築く方法をご確認ください。
セキュリティ
環境やテクノロジー全体に及ぶリスクを軽減する方法に関する最新情報
エッジコンピューティング
エッジでの運用を単純化するプラットフォームのアップデート
インフラストラクチャ
世界有数のエンタープライズ向け Linux プラットフォームの最新情報
アプリケーション
アプリケーションの最も困難な課題に対する Red Hat ソリューションの詳細
仮想化
オンプレミスまたは複数クラウドでのワークロードに対応するエンタープライズ仮想化の将来についてご覧ください