Red Hat Enterprise Linux AI
Red Hat® Enterprise Linux® AI プラットフォームは、個々のサーバー環境で大規模言語モデル (LLM) を実行するためのプラットフォームです。このソリューションには Red Hat AI Inference Server が含まれます。スループットを最大化し、レイテンシーを最小限に抑えることで、ハイブリッドクラウド全体で高速かつコスト効率の高い推論を実現します。
Red Hat Enterprise Linux AI とは
Red Hat Enterprise Linux AI には次が含まれます。
- Red Hat AI Inference Server。幅広いハードウェアサポートを備え、ハイブリッドクラウド全体にわたって高速かつ一貫性のあるモデルデプロイメントを実現します。
- PyTorch などの一般的な AI ライブラリや NVIDIA、Intel、AMD 向けに最適化されたハードウェア推論を含む、Red Hat Enterprise Linux のブート可能なイメージ。
- エンタープライズグレードのテクニカルサポートと、オープンソース保証による法的保護。
高速で柔軟な推論
生成 AI を実装する場合、2 つの選択肢があります。事前に構築された製品に合わせて戦略を調整するか、ビジネス目標に直接一致するカスタム・ソリューションを設計するかです。
オープンソースに根差している Red Hat Enterprise Linux AI は、ハイブリッドクラウド全体で、あらゆるハードウェア上で、あらゆるアクセラレーターを使用してあらゆるモデルを実行するための、安全で信頼性の高いインフラストラクチャを提供します。このソリューションには、推論専用の不変のアプライアンスを提供する Red Hat AI Inference Server が含まれています。オペレーティングシステムと AI 推論サーバーがパッケージ化されているため、すぐにモデルの提供を開始できます。統合された vLLM ランタイムと LLM Compressor を使用することで、スループットを最大化し、レイテンシーを最小限に抑えて、モデルを高速かつ高いコスト効率でデプロイできます。
特長とメリット
クラウドネイティブ・スケーラビリティ
Red Hat Enterprise Linux のイメージモードでは、AI プラットフォームをコンテナイメージとして管理し、スケーリングへのアプローチを最適化できます。
お客様のニーズに合致し、お客様の条件に従って動作する AI。
生成 AI
テキストやソフトウェアコードなどの新しいコンテンツを作成します。
Red Hat AI を使用することで、少ないリソースと低い推論コストで、任意の生成 AI モデルをより迅速に実行できます。
予測型 AI
パターンを結び付け、将来の結果を予測します。
Red Hat AI を使用することで、ハイブリッドクラウド全体で一貫性を維持しつつ、予測モデルを構築、トレーニング、提供、監視できます。
運用化 AI
AI の大規模な保守とデプロイをサポートするシステムを作成します。
Red Hat AI を使用することで、AI 対応アプリケーションのライフサイクルを管理および監視しながら、リソースを節約し、プライバシー規制へのコンプライアンスを確保できます。
エージェント型 AI
人間が限定的に関与するだけで複雑なタスクを実行するワークフローを構築します。
Red Hat AI は、既存アプリケーション内でのエージェント型 AI ワークフローの構築、管理、デプロイに対応する柔軟なアプローチと安定した基盤を提供します。
パートナーとデプロイする
人工知能 (AI) モデルのトレーニングには、最適化されたハードウェアと強力なコンピューティング機能が必要です。Red Hat Enterprise Linux AI を他の統合サービスや製品で拡張することで、AI をさらに活用できます。
2025 年の Red Hat Summit および AnsibleFest で紹介されたお客様の AI 導入事例
ターキッシュ エアラインズは、組織全体でのデータアクセスを実現して、デプロイのスピードを倍増させました。
JCCM は、AI を使用して地域の環境影響評価 (EIA) プロセスを改善しました。
DenizBank は、市場投入時間を数日から数分へと短縮しました。
日立は、Red Hat OpenShift AI を使用して事業全体で AI を運用化しました。
よくある質問 (FAQ)
Red Hat Enterprise Linux AI と Red Hat Enterprise Linux の違いは何ですか。
Red Hat Enterprise Linux AI は、個々のサーバー環境で LLM を実行するための基盤モデル・プラットフォームです。このソリューションには Red Hat AI Inference Server が含まれます。スループットを最大化し、レイテンシーを最小限に抑えることで、ハイブリッドクラウドでの高速かつコスト効率の高い推論を実現します。
Red Hat Enterprise Linux は、Red Hat が商業市場向けに開発した商用オープンソースの Linux ディストリビューションで、ハイブリッドクラウドのイノベーションをサポートする柔軟で安定した基盤を提供します。
Red Hat Enterprise Linux AI は、AI ライブラリと Granite モデルを含む Red Hat Enterprise Linux ブート可能イメージとして提供されます。
Red Hat Enterprise Linux AI を使用するには、Red Hat Enterprise Linux を購入する必要がありますか。
いいえ、Red Hat Enterprise Linux AI のライセンスで十分です。これに必要なコンポーネントがすべて含まれています。
Red Hat Enterprise Linux AI には何が含まれますか。
Red Hat Enterprise Linux AI には、以下が付属する Red Hat Enterprise Linux コンテナイメージのブート可能イメージが含まれています。
- Red Hat AI Inference Server
- オープンソースライセンスの Granite モデル
- PyTorch ライブラリとランタイムライブラリ
- アクセラレーター用ドライバー (NVIDIA、Intel、AMD)
Red Hat Enterprise Linux AI と Red Hat OpenShift AI の違いは何ですか。
Red Hat Enterprise Linux AI は、単一のサーバーですぐに使用できる大規模な言語モデルを提供します。このソリューションには、推論専用の不変のアプライアンスを提供する Red Hat AI Inference Server が含まれています。Red Hat Enterprise Linux AI は、オペレーティングシステム (OS) とアプリケーションをパッケージ化することで、レイテンシーを最小限に抑え、コンピューティングコストを削減し、ハイブリッドクラウド全体で AI 推論の Day 1 運用を容易にします。
Red Hat OpenShift® AI は、AI 対応アプリケーションを大規模に構築するために必要なツールをすべて備えています。Red Hat OpenShift AI は、モデルのライフサイクル管理を支援する包括的で統合された MLOps プラットフォームを提供し、分散コンピューティング、コラボレーション・ワークフロー、監視、およびハイブリッドクラウド・アプリケーションのサポートを保証します。
Red Hat OpenShift AI には、Red Hat Enterprise Linux AI へのアクセスが含まれているため、OpenShift AI アーキテクチャで同じモデルやアラインメントツールを使用できるほか、追加のエンタープライズ MLOps 機能も利用できます。
Red Hat Enterprise Linux AI の価格はどのように設定されていますか。
Red Hat Enterprise Linux AI ライセンスの価格はアクセラレーターごとに設定されます。
その他の AI 関連資料
適切な AI モデルを選択するための 4 つの考慮事項
オープンソースモデルで AI イノベーションを最大化
オープンソースの小規模言語モデルを使用する 4 つの理由
Red Hat AI で生成 AI のイノベーションを実現
セールスチームに問い合わせる
お問い合わせ
Red Hat Enterprise Linux AI の価格情報については、以下のフォームより、当社セールスチームまでお問い合わせください。
パートナーシップの詳細は、カタログページでご覧いただけます。