AI イノベーションのペースは加速しており、Red Hat AI 3 の導入に伴い、このポテンシャルをエンタープライズで実現するには、選択肢とコラボレーションに基づく、堅牢でオープンなエコシステムが必要であることを Red Hat は改めて認識しています。Red Hat は、あらゆるモデル、あらゆるアクセラレーター、ハイブリッドクラウドと連携できる、一貫性のある強力な AI プラットフォームを提供することを常に目標として掲げています。本日 Red Hat は、Red Hat 上でのオープンなハイブリッド AI の未来の構築に向けて協業しているパートナーの力強い取り組みについてご紹介できることを嬉しく思います。
Red Hat のパートナーエコシステムは、お客様が市場に幅広く導入するために必要な生成 AI (gen AI) とエージェント機能を提供するエンジンのような役割を果たしています。最高水準のハードウェア、ソフトウェア、サービスを組み合わせて、単なる部分の総和を超える全体を構築することを目指しています。
高速で、柔軟性のある、効率的な推論を実現
Red Hat AI 3 の導入は、エンタープライズ AI 推論の促進、モデルの選択肢の拡大、コストと柔軟性を最適化するオープンモデルの実現を中心としており、組織がトレーニングから実際の「運用」まで実行できるようになります。この実現において重要な役割を担うのが Red Hat のパートナーです。
vLLM と Kubernetes を使用して AI 推論を大規模に提供するため、llm-d オープンソース・プロジェクトは、主要な生成 AI モデルのプロバイダー、AI アクセラレーター、および優れた AI クラウドプラットフォームの連合によって強化され、Red Hat OpenShift AI 3.0 の一部として一般に提供されています。創立のコントリビューターには CoreWeave、Google Cloud、IBM Research、NVIDIA が含まれており、AMD、Cisco、Hugging Face、Intel、Lambda、Mistral AI などのパートナーが追加でサポートに加わっています。今年初めにプロジェクトが開始されて以来、マイクロソフト、Oracle、WEKA も積極的にコントリビューションを行うメンバーに加わりました。
「llm-d コミュニティの一員として、WEKA の NeuralMesh、NeuralMesh Axon、Augmented Memory Grid は、推論に必要な適応型で高性能なデータ基盤を提供し、GPU メモリーを拡張し、キャッシュ対応ワークロードを大規模に維持します。お客様がトレーニングから推論までよりシームレスに拡張できるようにするために、オープンで効率的な、プロダクション対応の AI 環境を構築するにあたって、Red Hat やテクノロジーリーダーからなる強力なエコシステムと連携できることを誇りに思います。」
大規模言語モデル (LLM) がさまざまな生成 AI アプリケーションの基盤になるにつれて、Red Hat は Partner Model Validation Guide を導入し、パートナーをさらに強化し、お客様により多くの選択肢を提供します。このガイドは、Red Hat パートナーが Red Hat OpenShift AI モデルカタログへの追加を検討する際の、LLM のベンチマークを行うために必要な標準化された手順を記載しています。
モデルを提供するパートナーは、Partner Model Validation Guide を活用することで、規定のオープンソースツールのチェーンを使用して検証に必要なデータを生成できます。これらには、提供用の vLLM、パフォーマンスのベンチマーク用の GuideLLM、および精度の評価用の LM Evaluation Harness などがあります。これらのパートナーモデルは、パフォーマンスと品質の指標を備えており、提出後に当社のチームによって検証されると、Red Hat OpenShift AI のすべてのお客様が使用できるようになります。この取り組みによって Red Hat のモデルカタログは充実し、お客様にはモデルのレベルでより透明性の高い知見とガイダンスを提供できるようになり、AI アプリケーションを構築するための最高レベルのオープンソースモデルがより幅広く提供され、モデルプロバイダーのパートナーは市場で認知度を高めることができます。
エージェント型 AI のデプロイを加速
最終的な目標は、AI アプリケーションを本番環境に導入し、ビジネス価値を提供できるようにすることです。Red Hat AI は、当社のパートナーエコシステムと共に、エージェント型 AI の開発、デプロイ、管理に不可欠な機能を提供します。 ここで重要な役割を担うのが、システムインテグレーターとサービスのパートナーです。Red Hat はアクセンチュア、HCL、Kyndryl、IBM Consulting、Infosys、NTT データなどのグローバルリーダーと連携して、これらのアプリケーションのスケーリングと推論の最適化をサポートし、データセンターからエッジまであらゆる場所で AI を実行できるようにします。
強固な基盤と有効化されたインフラストラクチャを使用できると、インテリジェント・アプリケーションを強化するツールとモデルに焦点を移すことができます。AI 戦略が効果を発揮するかどうかは、データ・プラットフォーム、ベクトルデータベース、セキュリティツール、およびそれをサポートする開発者用ユーティリティのエコシステムに依存します。Red Hat のパートナー企業は豊富で多様であり、先進的な AI ワークフローの構築に不可欠な要素を提供します。
モデルコンテキストプロトコル (MCP)
Red Hat AI 3 のリリースに伴い、Red Hat は MCP サーバーのコレクションを厳選しました。これにより、ISV はツールとサービスを Red Hat AI に直接接続できます。CyberArk、Dynatrace、Elastic、EnterpriseDB、Palo Alto Networks などのパートナーが Red Hat と連携して各社の MCP サーバーを紹介し、お客様が信頼できるツールで高度なエージェントアプリケーションを構築できるよう支援しています。
「エンタープライズ AI エージェントを成功させるには、包括的で構成可能なツールを備えたオープン AI エコシステムを活用して、エンタープライズデータから最も関連性の高いコンテキストを大規模に取得することが必要です。Red Hat OpenShift AI 上で MCP サーバーを使用することで、お客様が Elasticsearch コンテキスト・エンジニアリング・プラットフォームとベクトルデータベースを AI ワークフローにシームレスに統合できるようにすることを目指しています。」
「Red Hat OpenShift AI は、当社の MCP を強化し、改善するのに役立ちました。Dynatrace を使用すると、お客様は AI ワークフローにリアルタイムの可観測性をシームレスに導入できます。組織が信頼できる知見を使用してモデル開発を加速し、異常検出を自動化し、AI アプリケーションがハイブリッド環境およびマルチクラウド環境上で信頼性が高く、スケーラブルで、安全に機能するように支援しています」
Llama Stack
Red Hat と Meta のオープンソース Llama Stack の連携は、開発者が Red Hat AI 3 を活用するための基礎となっています。Red Hat とそのパートナーは、このオープンソース・プロジェクトに積極的に貢献することで、生成 AI のアプリケーション・ライフサイクルを変革する、一連の標準化されたツールの強化を支援しています。これにより、開発者は革新的な AI ソリューションの構築とデプロイを加速するための、魅力的で堅牢、かつ適応性の高い環境を利用できるようになり、当社のパートナーやお客様はプロダクションまでの明確な道筋を得ることができます。Llama Stack はさまざまな AI サービスとツールの統合に関する複雑さを軽減し、開発者がインフラストラクチャの課題ではなく、イノベーションに集中できるようにします。
ハイブリッドクラウドで AI を拡張する
AI アクセラレーター
幅広い機能に対応するには、さまざまなオプションから選択できることが重要です。そのため Red Hat では、AMD、Google Cloud、Intel などのアクセラレーターのパートナーとのコラボレーションを深めてきました。
Red Hat は NVIDIA と連携して、NVIDIA のパフォーマンスが最適化された AI コンピューティング、ネットワーキング、ソフトウェアを Red Hat AI と統合し、お客様が AI を大規模に構築し、デプロイし、管理し、さまざまなワークロードでインフラストラクチャを最適化できるように支援します。Red Hat と NVIDIA は、NVIDIA GB200 NVL72 インフラストラクチャをサポートすることで、AI インフラストラクチャの拡張を引き続き推進し、ハイエンドの AI トレーニングと大規模な推論を目標にしています。さらに、NVIDIA RTX PRO(R) 6000 Blackwell Server Edition GPU は Red Hat AI、Red Hat OpenShift、Red Hat OpenShift Virtualization をサポートし、エンタープライズ AI や VDI グラフィックスなどのさまざまなエンタープライズ・ワークロードを、空冷式 GPU とサーバーを組み合わせて加速します。
AMD とのコラボレーションにより、AMD の x86 ベース プロセッサーと GPU のポートフォリオを Red Hat AI 上で利用できるようにすることで、より効率的な生成 AI を実現しています。これは、vLLM や llm-d などのアップストリーム・コミュニティにおけるパフォーマンスと GPU サポートを強化するための Red Hat の活動によってさらに推進されます。
また、Red Hat はインテルとの長年にわたるコラボレーションを基に、インテル® Gaudi® AI アクセラレーターを含む、拡大し続けるハードウェア・プラットフォームとアクセラレーター・ポートフォリオ全体で Red Hat AI をサポートしていきます。
選択肢を確保するための取り組みは、ハイブリッドクラウド全体に及んでいます。この分野では、Red Hat は、Red Hat AI での TPU サポートを強化するために、Google Cloud と積極的に連携しています。これにより、llm-d や vLLM などのプロジェクトを通じて、コミュニティ主導のイノベーションに対する共有ビジョンを拡大しています。
インフラストラクチャ・ソリューション
アクセラレーターはパズルの一部にすぎません。お客様は、検証済みの統合ソリューションを必要としています。そこで OEM サーバーのパートナーが登場します。これは、AI の理論上の可能性を具体的なエンタープライズの現実に変化させます。AI の基盤としては、下部にあるアクセラレーターと上部にある言語モデルがありますが、AI を大規模にデプロイし、実際に管理するには、堅牢な統合ソリューションが必要です。
Red Hat は、ハイブリッドクラウド環境での AI のデプロイと管理を単純化するために、シスコ、Dell Technologies、HPE、Lenovo などの業界リーダーと積極的に協業しています。Dell との取り組みでは、同社の強力なサーバーおよびストレージ・ソリューションが Red Hat AI 向けに最適化され、AI ワークロードのための信頼性が高く、スケーラブルなインフラストラクチャをお客様に提供できるよう支援しています。これには、Dell AI Factory with NVIDIA 向けの Red Hat OpenShift および Red Hat OpenShift AI を有効にするための共同の取り組みが含まれます。これにより、最適化されたハードウェアとソフトウェアの機能が統合され、最も要求の厳しい計算タスクにも対応できるよりシームレスな AI のデプロイの実現が推進されます。
同様に、シスコとのコラボレーションでは、シスコのネットワーキング、セキュリティ、コンピューティング、可観測性における強みを、Cisco Secure AI Factory with NVIDIA のコア AI インフラストラクチャのビルディング・ブロックである Cisco AI PODs 内のコンテナ化された AI ワークロード向けのアプリケーションプラットフォームとしての Red Hat OpenShift と組み合わせます。Red Hat AI はこの基盤の上に構築されており、AI モデルの開発、トレーニング、推論のための一貫性のある自動化された環境を提供します。その結果として利用できるのが、スケーラブルで、高性能、かつ安全なフルスタックの AI プラットフォームです。
Red Hat では、AI インフラストラクチャのリファレンス設計とサービスを、インフラストラクチャ・エコシステム全体に拡張しています。このようなコラボレーションは、AI の運用化に必要な包括的なソリューションをお客様に提供するために不可欠であり、必要なハードウェア、ソフトウェア、サービスの統合によって AI の導入とイノベーションを加速させるのに役立ちます。
グローバルなディストリビューターと付加価値再販業者 (VAR) からなる当社の巨大なエコシステムは、企業向けの大規模で反復可能なソリューションを構築するのに役立ちます。Ahead、Arrow、TD Synnex、WWT などの多くのパートナーが、それぞれのソリューション・ポートフォリオで Red Hat AI と連携しています。
「World Wide Technology は、AI の実験の場で Red Hat AI ポートフォリオを活用して、予測型と生成型の両方の AI モデルの構築とデプロイのプロセスを効率化しています」
有数の AI エコシステムを提供する
Red Hat は、ハードウェア、ソフトウェア、サービスの分野におけるパートナーとの戦略的なコラボレーションを通じて、ハイブリッドクラウド全体において選択肢と柔軟性を提供する、AI 向けの一貫した強力なプラットフォームを提供します。llm-d による分散推論の最適化から、Partner Model Validation Guide に基づく言語モデルの検証、エージェント型 AI デプロイの加速に至るまで、このコラボレーティブなアプローチにより、お客様は AI を大規模に運用し、そのビジネス価値を最大限に引き出すことができます。
執筆者紹介
Ryan King is Vice President of AI and Infrastructure for the Partner Ecosystem Success organization at Red Hat. In this role, King leads a team in shaping Red Hat's AI strategy with key infrastructure and hardware providers to drive go-to-market engagements and customer success with AI.
チャンネル別に見る
自動化
テクノロジー、チームおよび環境に関する IT 自動化の最新情報
AI (人工知能)
お客様が AI ワークロードをどこでも自由に実行することを可能にするプラットフォームについてのアップデート
オープン・ハイブリッドクラウド
ハイブリッドクラウドで柔軟に未来を築く方法をご確認ください。
セキュリティ
環境やテクノロジー全体に及ぶリスクを軽減する方法に関する最新情報
エッジコンピューティング
エッジでの運用を単純化するプラットフォームのアップデート
インフラストラクチャ
世界有数のエンタープライズ向け Linux プラットフォームの最新情報
アプリケーション
アプリケーションの最も困難な課題に対する Red Hat ソリューションの詳細
仮想化
オンプレミスまたは複数クラウドでのワークロードに対応するエンタープライズ仮想化の将来についてご覧ください