[ノースカロライナ州ローリー - 2025年10月14日(現地時間)発表] アメリカ報道発表資料抄訳
オープンソース・ソリューションのプロバイダーとして世界をリードするRed Hat Inc, (以下、Red Hat)は本日、エンタープライズ AI プラットフォームを大幅に進化させた Red Hat AI 3 を発表しました。Red Hat AI Inference Server、Red Hat Enterprise Linux AI(RHEL AI)、Red Hat OpenShift AI の最新イノベーションを統合したこのプラットフォームは、大規模な高性能 AI 推論の複雑さを簡素化し、組織がワークロードを概念実証から本番環境へとより容易に移行できるよう支援し、AI 対応アプリケーションに関するコラボレーションを促進します。
Red Hat AI 3 は、このような課題を最小限にするエンタープライズ・グレードのオープンソース・プラットフォームを提供します。llm-d による分散推論やエージェント型 AI の基盤といった新機能を導入することで、IT チームはあらゆるインフラストラクチャにおいて、それぞれの条件にあわせて次世代 AI を安心して運用できるようになります
企業が AI の実験段階を超えて進むにつれ、データプライバシー、コスト管理、多様なモデルの管理といった重大な課題に直面するようになります。マサチューセッツ工科大学 NANDA プロジェクトによる「GenAI Divide: State of AI in Business(生成 AI の分断:ビジネスにおける AI の現状)」によると、約 400 億ドルもの企業投資に対し、約 95% の企業が成果を出せず、財務的なリターンをほとんど得られていないのが現状です。
Red Hat AI 3 は、PoC 止まりであったAI投資を本番環境へと移行させ、CIO や IT リーダーがビジネス成果 アクセラレーテッド・コンピューティング・テクノロジーへの投資を最大化できるように、より一貫性のある統合エクスペリエンスを提供することで、これらの課題に直接対処します。ハイブリッド環境やマルチベンダー環境で AI ワークロードを迅速に拡張、分散させると同時に、次世代のエージェント型AI ワークロードなどにおけるチーム間のコラボレーションを、同一の共通プラットフォーム上で改善します。オープンスタンダードを基盤とする Red Hat AI 3 は、データセンターからパブリッククラウド、ソブリン AI 環境やエッジ環境に至るまで、あらゆるハードウェア・アクセラレータ上のモデルをサポートし、組織の AI 導入段階に応じて柔軟な対応を実現します。
トレーニングから「実践」へ:エンタープライズ AI 推論への移行
組織が AI イニシアチブを本番環境に移行するにつれ、重点はモデルのトレーニングやチューニングから推論、つまりエンタープライズ AI の「実践」段階へと移行します。Red Hat AI 3 は、大規模言語モデル(LLM)を実稼働レベルで提供するための、大成功を収めた vLLM および llm-d コミュニティプロジェクトと Red Hat のモデル最適化技術を基盤に、スケーラブルでコスト効率の高い推論を実現します。
CIO が高価値なハードウェア・アクセラレーションを最大限に活用できるよう、Red Hat OpenShift AI 3.0 は llm-d の一般提供を開始しました。llm-dは、LLM を Kubernetes 上でネイティブに実行する方法を再構築するものです。llm-d は、Kubernetes オーケストレーションの実績ある価値価値と vLLM のパフォーマンスを、Kubernetes Gateway API Inference Extension やNVIDIA Dynamo (NIXL) KV Transfer Library、そして DeepEP Mixture of Experts (MoE) communication library といった主要なオープンソース・テクノロジーと組み合わせることで、インテリジェントな分散推論を実現します。これにより組織は次のことが可能になります。
- インテリジェントな推論対応モデル・スケジューリングと分散型サービングにより、コスト削減と応答時間短縮を実現
- Kubernetes 上での大規模モデル展開を効率化する規範的な Well-lit Paths にり、運用の簡素化と最高レベルの信頼性を提供
- NVIDIA や AMD など様々なハードウェア・アクセラレータに LLM 推論を展開するクロス・プラットフォーム・サポートにより柔軟性を最大化
LLM をベースとした llm-d は、単一ノードの高性能推論エンジンから、分散型で一貫性と拡張性に優れたサービングシステムへと進化を遂げました。llm-d は、Kubernetes と緊密に統合されており、予測可能なパフォーマンス、測定可能な 投資対効果(ROI)、効果的なインフラ計画を可能にします。これらの機能強化によって、変動の激しい LLM ワークロードの処理や、Mixture-of-Experts(MoE)のような大規模モデルの提供といった課題に直接対処します。
コラボレーティブAIに向けた統合プラットフォーム
Red Hat AI 3 は、本番環境に対応した生成 AI ソリューションを構築におけるコラボレーションのニーズに応える、統合された柔軟なエクスペリエンスを提供します。AI 戦略を実行するために、プラットフォーム・エンジニアと AI エンジニアの双方が単一プラットフォームを通じてチーム間のコラボレーションを促進し、ワークフローを統合することで、具体的な価値を提供するように設計されています。概念実証から本番環境への拡張に必要な生産性と効率性を提供するための新機能は、次のとおりです。
- Model as a Service (MaaS) 機能は分散推論を基盤としており、IT チームが自社の MaaS プロバイダーとして機能することを可能にします。共通モデルを一元的に提供し、AI 開発者と AI アプリケーションの両方にオンデマンドアクセスを実現します。これによりコスト管理が改善され、プライバシーやデータ上の懸念からパブリック AI サービスでは実行できないようなユースケースもサポートします。
- AI ハブによって、プラットフォーム・エンジニアが基盤となる AI 資産を探索、デプロイ、管理できるようになります。また、検証済みかつ最適化された生成 AI モデルなどの精選されたカタログを備えた中央ハブ、モデルのライフサイクルを管理するレジストリ、OpenShift AI 上で実行されるすべての AI 資産を設定・監視するデプロイ環境を提供します。
- Gen AI Studio は、AI エンジニアがモデルを操作し、次世代 AI アプリケーションのプロトタイプを迅速に作成するための実践環境を提供します。AI アセットエンドポイント機能により、エンジニアは利用可能なモデルや MCP サーバーを容易に発見・利用でき、モデルと外部ツールの連携を効率化します。組み込みのプレイグラウンドは、チャットや検索拡張生成(RAG)などのユースケース向けに、モデルの実験、プロンプトのテスト、パラメータの調整を行うためのインタラクティブでステートレスな環境を提供します。
- 開発を簡素化するために Red Hat が検証、最適化したモデルが、新たに追加されました。厳選されたラインナップには、OpenAI の gpt-oss や DeepSeek-R1 といった人気のオープンソースモデルに加えて、音声をテキストに変換する Whisper や音声対応エージェント用の Voxtral Mini といった専用モデルが含まれています。
次世代 AI エージェントの基盤を構築
AI エージェントはアプリケーション構築の方法を変革しようとしていますが、その複雑で自律的なワークフローは 推論機能に多大な負荷をかけることになります。Red Hat OpenShift AI 3.0 リリースは、推論機能だけでなく、エージェント管理に焦点を当てた新機能と拡張により、スケーラブルなエージェント型 AI システムの基盤構築を継続していきます。
エージェントの作成とデプロイを加速するために、Red Hat は Llama Stack を基盤とした統合API レイヤーを導入しました。これにより、OpenAI と互換性のある LLM インターフェースプロトコルなどの業界標準に沿った開発が可能になります。また、よりオープンで相互運用性の高いエコシステムを推進するために、Red HatはModel Context Protocol (MCP) を早期に採用しています。これは AI モデルと外部ツールの連携を効率化する強力な新しい標準であり、現代のAIエージェントにとって不可欠な機能です。
Red Hat AI 3 は、既存の InstructLab 機能を基盤とした、モデルカスタマイズのためのモジュール式で拡張可能な新たなツールキットを導入しています。また、開発者に高度な柔軟性と制御性を提供する専用 Python ライブラリを備えています。このツールキットは、Docling のようなデータ処理用オープンソースプロジェクトを活用して、非構造化ドキュメントを AI が読み取れる形式へと効率的に取り込みます。また、合成データ生成のための柔軟なフレームワークや LLM のファインチューニング用のトレーニングハブも含まれています。IBM東京基礎研究所とのコラボレーションを通じて、これらのツールキットを使い、日本語での合成データ作成、及びLLM微調整が可能となりました。更に、統合された評価ハブによりAI エンジニアは結果を監視、検証できるため、独自のデータを安心して活用し、より正確で関連性の高い AI 成果を得ることが可能となります。
サポートコメント
Red Hat AI 事業部バイスプレジデント兼ゼネラルマネージャー Joe Fernandes(ジョー・フェルナンデス)
「企業が AI を実験段階から実稼働環境へと拡大するにつれ、複雑さ、コスト、制御といった新たな課題に直面するようになります。Red Hat AI 3 は、このような課題を最小限にするエンタープライズ・グレードのオープンソース・プラットフォームを提供します。llm-d による分散推論やエージェント型 AI の基盤といった新機能を導入することで、IT チームはあらゆるインフラストラクチャにおいて、それぞれの条件にあわせて次世代 AI を安心して運用できるようになります」
AMD サーバー&エンタープライズ AI部門 シニアバイスプレジデント兼ゼネラルマネージャー Dan McNamara(ダン・マクナマラ)氏
「Red Hat が分散 AI 推論を本番環境へ導入するにあたり、AMD が基盤となる高性能ソリューションを提供できることを誇りに思っています。AMD EPYC™ プロセッサーの効率性とAMD Instinct™ GPU のスケーラビリティ、そしてAMD ROCm™ ソフトウェアスタックのオープン性を統合することで、企業は実験段階から脱却し、次世代 AI を運用化できるようになります。それによって、オンプレミス、クラウド、エッジ環境全体にわたり、パフォーマンスとスケーラビリティを実際のビジネスインパクトへと変えることができます」
ARSAT 最高経営責任者 Mariano Greco(マリアーノ・グレコ)氏
「アルゼンチンの接続インフラプロバイダーとして、ARSAT は膨大な量の顧客対応と機密データを扱っています。私たちは単純な自動化にとどまらない『拡張知能』を実現しつつ、お客様に絶対的なデータ主権を提供するソリューションを必要としていました。Red Hat OpenShift AI 上にエージェント型 AI プラットフォームを構築したことで、ニーズの特定からわずか 45 日間で実稼働を実現しました。Red Hat OpenShift AI によってサービスを向上させて、エンジニアのサポート対応時間を短縮したことで、エンジニアはイノベーションと新規開発に集中できるようになりました」
IDC ワールドワイドリサーチ グループバイスプレジデント Rick Villars(リック・ビラーズ)氏
「2026年は、AI 戦略の開始段階から、投資に対してより測定可能で再現性のあるビジネス成果を求める段階へと、企業が移行する転換点となるでしょう。初期のプロジェクトはモデルのトレーニングとテストに焦点を当てていましたが、真の価値、そして真の課題は、効率的で安全かつ費用対効果の高い推論を通じて、モデルから導き出された知見を運用化することにあります。このような転換期には、特にエージェント型 AI が推論負荷を急増させる中で、実世界の規模と複雑さに対応し、即戦力となる実稼働レベルの推論機能を備えた、最新のインフラストラクチャやデータ、そしてアプリケーション導入環境が必要です。AI 主導型ビジネスへの転換に成功する企業は、サイロ化された領域だけでなくハイブリッドクラウド環境においても、さらに高度化するワークロードを組織化する統合プラットフォームを確立した企業となるでしょう」
NVIDIA エンジニアリングAIフレームワーク担当バイスプレジデント Ujval Kapasi(ウジュヴァル・カパシ)氏
「スケーラブルで高性能な推論が、次世代の生成 AI とエージェント型 AI において鍵となります。オープンソースの NVIDIA Dynamo および NIXL 技術による高速推論のサポートを組み込んだ Red Hat AI 3 は、実験段階から高度な AI ワークロードやエージェントの大規模運用へと、チームが迅速に移行できるようにする統合プラットフォームを提供します」
その他のリソース
- Red Hat AI 3 についてさらに詳しく
- Red Hat AI 3 に関するブログ記事を読む
- Red Hat AI の新機能と今後の展望に関するWeb セミナーを見る
- Red Hat パートナーが AI イノベーションを推進する方法についてさらに詳しく
Red Hat とつながる
- レッドハット株式会社 について
- Red Hat newsroom について
- Red Hat blog を読む
- Red HatのX をフォローする
- Red HatのFacebook に参加する
- Red HatのYouTube動画 を視聴する
- Red HatのLinkedIn をフォローする
本件に関するお問い合わせ
- レッドハット株式会社 広報担当 pr-jp@redhat.com TEL:03-4590-7472
- Red Hatについて
Red Hat はオープン・ハイブリッドクラウド・テクノロジーのリーダーであり、変革をもたらす IT イノベーションと AI アプリケーションのための信頼できる一貫性のある包括的な基盤を提供しています。クラウド、デベロッパー、AI、Linux、オートメーション、アプリケーション・プラットフォームテクノロジーのポートフォリオにより、データセンターからエッジまで、あらゆるアプリケーションをあらゆる場所で実現できます。Red Hat は、エンタープライズ向けオープンソース・ソフトウェア・ソリューションを提供する世界有数のプロバイダーとして、将来の IT 課題を解決するためにオープンエコシステムとコミュニティに投資しています。Red Hat は、パートナーやお客様と協力しながら、コンサルティングサービスや受賞歴のあるトレーニングや認定資格の提供に支えられて、お客様の IT 環境の構築、接続、自動化、保護、管理を支援しています。
- 将来の見通しに関する声明
ここに記載されている過去の事実に関する情報および討議を除き、本プレスリリースに含まれる表現は、1995年米国民事証券訴訟改革法(Private Securities Litigation Reform Act of 1995)が定める定義の範囲内で「将来の見通しに関する声明」に相当する場合があります。将来の見通しに関する声明は、将来の事業および業績に関する当社の現時点での仮定に基づいています。これらの声明には、様々なリスク、不確実性、その他の要因が含まれており、実際の結果は、そうした将来の見通しに関する声明で示されたものと実質的に異なる場合があります。このプレスリリースに掲載されている将来の見通しに関する声明は、その発行日時点の当社の見解を示したものです。法令により義務付けられる場合を除き、当社は、将来の見通しに関する声明を更新または訂正する義務を一切負いません。
###
Red Hat、Red Hat Enterprise Linux、およびRed Hatロゴは、米国およびその他の国におけるRed Hat, Inc.およびその子会社の商標または登録商標です。Linux® は、Linus Torvaldsの米国およびその他の国における登録商標です。