Red Hat AI Inference Server
Red Hat® AI Inference Server は、ハイブリッドクラウド全体で推論を最適化し、高いコスト効率でより迅速にモデルをデプロイできます。
推論サーバーとは
推論サーバーは、人工知能 (AI) アプリケーションが大規模言語モデル (LLM) と通信し、データに基づいて応答を生成できるようにするソフトウェアです。このプロセスは推論と呼ばれます。このプロセスによってビジネス価値が生まれ、最終結果がもたらされます。
このプロセスを効果的に機能させるには、大規模な推論を実行するための広範なストレージ、メモリー、インフラストラクチャが LLM に必要ですが、これが予算の大部分を占めることになります。
Red Hat AI プラットフォームの一部である Red Hat AI Inference Server は、推論機能を最適化して、従来の高額なコストと大規模なインフラストラクチャの削減に貢献します。
Red Hat AI Inference Server の概要
Red Hat AI Inference Server の仕組み
Red Hat AI Inference Server は、大規模な推論を高速かつ高いコスト効率で実行します。オープンソースの性質により、あらゆるクラウド環境において、あらゆる AI アクセラレーターであらゆる生成 AI モデルをサポートできます。
vLLM を搭載したこの推論サーバーは、GPU の使用率を最大化し、応答時間を短縮します。LLM Compressor 機能と組み合わせることで、パフォーマンスを犠牲にすることなく推論効率を向上させることができます。クロスプラットフォームの適応性とコントリビューター・コミュニティの拡大により、vLLM は生成 AI 推論の Linux® として注目されています。
50% LLM Compressor を使用することで、パフォーマンスを犠牲にすることなく 50% のコスト削減を実現しているお客様もいます。*
*Saša Zelenović、「LLM の潜在能力を最大限に引き出す:vLLM でパフォーマンスを最適化」、 Red Hat ブログ、2025 年 2 月 27 日。
モデルを自由に選べる
Red Hat AI Inference Server は、すべての主要なオープンソースモデルをサポートし、GPU の柔軟な可搬性を維持します。あらゆる生成 AI モデルを柔軟に使用でき、オープンソースの検証済みサードパーティモデルの最適化されたコレクションから選択できます。
Red Hat AI Inference Server は Red Hat AI の一部として、すべての Red Hat 製品での使用が認定されています。また、Red Hat のサードパーティ・サポート・ポリシーに従って、他の Linux および Kubernetes プラットフォームにもデプロイできます。
Red Hat AI のサポート
vLLM への最大の企業コントリビューターの 1 社として、当社はこのテクノロジーを深く理解しています。vLLM の専門知識を備えた当社の AI コンサルタントが、貴社のエンタープライズ AI 目標の達成をお手伝いします。
購入方法
Red Hat AI Inference Server は、スタンドアロンの製品として、または Red Hat AI の一部として利用できます。Red Hat Enterprise Linux® AI と Red Hat OpenShift® AI の両方に含まれています。
パートナーとデプロイする
エキスパートとテクノロジーの融合によって、AI の活用の幅が広がっています。Red Hat と連携して Red Hat ソリューションの運用能力に関する認定を受けているすべてのテクノロジーパートナーをご覧ください。
2025 年の Red Hat Summit および AnsibleFest で紹介されたお客様の AI 導入事例
ターキッシュ エアラインズは、組織全体でのデータアクセスを実現して、デプロイのスピードを倍増させました。
JCCM は、AI を使用して地域の環境影響評価 (EIA) プロセスを改善しました。
DenizBank は、市場投入時間を数日から数分へと短縮しました。
日立は、Red Hat OpenShift AI を使用して事業全体で AI を運用化しました。
よくある質問 (FAQ)
Red Hat AI Inference Server を使用するには、Red Hat Enterprise Linux AI または Red Hat OpenShift AI を購入する必要がありますか?
いいえ。Red Hat AI Inference Server はスタンドアロンの Red Hat 製品として購入できます。
Red Hat Enterprise Linux AI を使用するには、Red Hat AI Inference Server を購入する必要がありますか?
いいえ。Red Hat Enterprise Linux AI または Red Hat OpenShift AI を購入すると、Red Hat AI Inference Server が付属します。
Red Hat AI Inference Server は、Red Hat Enterprise Linux または Red Hat OpenShift で実行できますか?
はい、できます。また、サードパーティ契約に基づいてサードパーティの Linux 環境でも実行できます。
Red Hat AI Inference Server の価格を教えてください。
価格はアクセラレーターごとに設定されます。
お客様のニーズに合致し、お客様の条件に従って動作する AI。
生成 AI
テキストやソフトウェアコードなどの新しいコンテンツを作成します。
Red Hat AI を使用することで、少ないリソースと低い推論コストで、任意の生成 AI モデルをより迅速に実行できます。
予測型 AI
パターンを結び付け、将来の結果を予測します。
Red Hat AI を使用することで、ハイブリッドクラウド全体で一貫性を維持しつつ、予測モデルを構築、トレーニング、提供、監視できます。
運用化 AI
AI の大規模な保守とデプロイをサポートするシステムを作成します。
Red Hat AI を使用することで、AI 対応アプリケーションのライフサイクルを管理および監視しながら、リソースを節約し、プライバシー規制へのコンプライアンスを確保できます。
エージェント型 AI
人間が限定的に関与するだけで複雑なタスクを実行するワークフローを構築します。
Red Hat AI は、既存アプリケーション内でのエージェント型 AI ワークフローの構築、管理、デプロイに対応する柔軟なアプローチと安定した基盤を提供します。