Red Hat AI
既存のリソース、独自のインサイト、あらゆる選択肢を活用して、AI の価値を実現しましょう。
オープンソース・テクノロジーをベースとする Red Hat® AI は、お客様が自信を持って AI ソリューションを構築し、実行できるよう設計されています。
Red Hat AI 3 を新たにリリース
最新リリースでは、llm-d により、AI 推論の効率と費用対効果が向上しています。また、追加機能により、スケーラブルなエージェント型 AI ワークフローの提供基盤が形成され、それによって、本番環境対応 AI ソリューションの大規模構築に必要なコラボレーションに合うよう、柔軟な統合エクスペリエンスを実現しています。
お客様独自のモデル、データ、選択肢を活用。
AI アプリケーションでパフォーマンスを最大化するには、高速でコスト効率に優れた推論を行える必要があります。これを達成する柔軟な統合プラットフォームを提供するために、Red Hat AI では、大規模な分散推論のためのフレームワーク、llm-d を採用しています。
vLLM の成果を基に構築した llm-d により、実績ある Kubernetes の価値を活用するとともに、一貫性と効率性に優れた処理を行い、予測可能なパフォーマンスを実現します。
エージェント型 AI への移行に必要なのは、効率性だけではありません。ハイブリッドクラウド全体でモデル、データ、AI ワークフローを連携できる相互運用可能なフレームワークも必要となります。
このリリースでは、Llama Stack ベースの統合 API レイヤーを導入することで、幅広い AI 機能へのエントリーポイントを提供します。その 1 つが、Model Context Protocol (MCP) との統合であり、これによって、本番環境でのエージェント型 AI の提供と運用を大規模かつ容易に行えます。
2 時間 | 10 月 14 日 (火曜日) 午前 10 時 (米国東部標準時間時)
Red Hat AI の最新情報と今後の展開
エンタープライズ対応 AI 実現までの道すじ
Red Hat AI のリーダーたちが、進化したばかりの Red Hat AI について解説します。
最新リリースでは、高性能で予測可能な推論と、迅速な AI エージェント開発が重視されています。製品のアップデートは、コスト、複雑さ、制御といった AI の課題を克服するのに有用です。
Red Hat AI のコンポーネント
Red Hat AI Inference Server を導入すると、ハイブリッドクラウド全体でモデルの推論が最適化され、より迅速でコスト効率の高いモデルデプロイメントが実現します。
vLLM を活用するこのサーバーは、Hugging Face 上の最適化された検証済みサードパーティモデルへのアクセスを可能にし、LLM Compressor ツールも備えています。
Red Hat Enterprise Linux® AI プラットフォームにより、大規模言語モデル (LLM) を個々のサーバー環境で一貫して運用できます。
Red Hat AI Inference Server を備えているため、vLLM の活用によってスループットを最大化しレイテンシーを最小化することで、コスト効率に優れた高速なハイブリッドクラウド推論を実現できます。
さらに、イメージモードなどの機能によって、大規模ソリューションを常に実装できます。また、Linux 全体に同じセキュリティ・プロファイルを適用可能になり、ワークフローを 1 つに統一してチームをまとめられます。
Red Hat OpenShift® AI は、Red Hat OpenShift の各種機能を基盤とするプラットフォームであり、これによって、生成型 AI と予測型 AI モデルのライフサイクルを大規模に管理できます。
また、本番環境向け AI を実現して、ソブリン AI やプライベート AI も稼働するハイブリッドクラウド環境全体で、AI モデルと AI エージェントを構築、デプロイ、管理できるようになります。
実世界で発揮できるパフォーマンスを検証済み
Red Hat AI により、プラットフォーム全体の vLLM で効率的に稼働する、すぐに使用可能な検証済みサードパーティ製モデルセットにアクセスできます。
Red Hat のサードパーティ製検証済みモデルを使用すると、モデルのパフォーマンステスト、推論の最適化、複雑さを軽減するガイダンスの入手などを行えるため、AI 導入が加速します。
お客様のニーズに合致し、お客様の条件に従って動作する AI。
生成 AI
テキストやソフトウェアコードなどの新しいコンテンツを作成します。
Red Hat AI を使用することで、少ないリソースと低い推論コストで、任意の生成 AI モデルをより迅速に実行できます。
予測型 AI
パターンを結び付け、将来の結果を予測します。
Red Hat AI を使用することで、ハイブリッドクラウド全体で一貫性を維持しつつ、予測モデルを構築、トレーニング、提供、監視できます。
運用化 AI
AI の大規模な保守とデプロイをサポートするシステムを作成します。
Red Hat AI を使用することで、AI 対応アプリケーションのライフサイクルを管理および監視しながら、リソースを節約し、プライバシー規制へのコンプライアンスを確保できます。
エージェント型 AI
人間が限定的に関与するだけで複雑なタスクを実行するワークフローを構築します。
Red Hat AI は、既存アプリケーション内でのエージェント型 AI ワークフローの構築、管理、デプロイに対応する柔軟なアプローチと安定した基盤を提供します。
多数の AI パートナーとの連携により、導入実現までのさまざまな選択肢を提供。
エキスパートとテクノロジーの集結によって、AI 活用の幅が広がっています。さまざまなテクノロジーパートナーが Red Hat と連携し、Red Hat ソリューションの運用能力に関する認定を受けています。
2025 年の Red Hat Summit および AnsibleFest で紹介されたお客様の AI 導入事例
ターキッシュ エアラインズは、組織全体でのデータアクセスを実現して、デプロイのスピードを倍増させました。
JCCM は、AI を使用して地域の環境影響評価 (EIA) プロセスを改善しました。
DenizBank は、市場投入時間を数日から数分へと短縮しました。
日立は、Red Hat OpenShift AI を使用して事業全体で AI を運用化しました。
ソリューションパターン
Red Hat と NVIDIA AI Enterprise による AI アプリケーション
RAG アプリケーションを作成する
Red Hat OpenShift AI は、データサイエンス・プロジェクトを構築し、AI 対応アプリケーションを提供するためのプラットフォームです。独自の参照ドキュメントから AI の回答を取得する手法の 1 つである 検索拡張生成 (RAG) をサポートするために必要なすべてのツールを統合できます。OpenShift AI を NVIDIA AI Enterprise に接続すると、 大規模言語モデル (LLM) を試して、アプリケーションに最適なモデルを見つけることができます。
ドキュメントのパイプラインを構築する
RAG を利用するには、まずドキュメントをベクトルデータベースに取り込む必要があります。サンプルアプリでは、一連の製品ドキュメントを Redis データベースに埋め込んでいます。これらのドキュメントは頻繁に変更されるため、定期的に実行するこのプロセス用のパイプラインを作成すると、常に最新バージョンのドキュメントを入手できます。
LLM カタログを閲覧する
NVIDIA AI Enterprise ではさまざまな LLM のカタログにアクセスできるため、さまざまな選択肢を試して、最良の結果が得られるモデルを選択できます。モデルは NVIDIA API カタログでホストされています。API トークンを設定したら、OpenShift AI から直接 NVIDIA NIM モデル提供プラットフォームを使用してモデルをデプロイできます。
適切なモデルを選択する
さまざまな LLM をテストする際、ユーザーは生成される応答をそれぞれ評価することができます。Grafana モニタリング・ダッシュボードを設定して、各モデルの評価だけでなく、レイテンシーと応答時間も比較できます。そしてそのデータを使用して、プロダクションで使用する最適な LLM を選択できます。
Red Hat AI のご利用実例
Ortec Finance、成長を加速させ、市場投入時間を短縮
リスクおよびリターン管理のためのテクノロジーとソリューションを世界中で提供する Ortec Finance は、Microsoft Azure Red Hat OpenShift に基づく ML モデルを提供しており、Red Hat AI を導入しています。

DenizBank、データサイエンティストの能力を強化
DenizBank は、顧客向けローンや潜在的な不正行為を特定しやすくする AI モデルを開発しています。Red Hat AI により、同行のデータサイエンティストは、以前よりも自律的にデータを操作できるようになりました。

信頼できる基盤の上で構築する
Red Hat の広範なポートフォリオは、ハイブリッドクラウド・インフラストラクチャ、アプリケーションサービス、クラウドネイティブ・アプリケーション開発、自動化ソリューションからなり、あらゆるインフラストラクチャで IT サービスを迅速かつコスト効率よく提供することができるという点で、世界中の企業に信頼されています。



