Red Hat から、お客様のデプロイメントを支援する、最新の検証済みモデルをご紹介させていただきます。Red Hat では、組織がサードパーティの生成 AI モデルを Red Hat AI プラットフォームにデプロイするために必要な信頼性、予測可能性、柔軟性を提供することを目標としています。本リリースでは、パフォーマンスのベンチマークが行われ、正確性を評価して最適化されたモデルのコレクションを拡張しています。これにより、価値実現までの時間を短縮し、組織のユースケースに最適なモデルが選択できるようなります。
Red Hat AI の検証済みモデルは、単なるリストではなく、効率的な、エンタープライズ対応の AI を提供します。Red Hat では、厳格なパフォーマンスのベンチマークと精度テストを、セキュリティと単純化を考慮してデプロイできるように設計された、包括的なパッケージプロセスに組み合わせています。各モデルについて、その脆弱性がスキャンされ、管理されたソフトウェアのライフサイクルに統合されるため、セキュリティを重視し、管理が容易で、長期的な更新に対応できる、高性能でリソースが最適化されたアセットにアクセスできます。
検証済みモデルとは
大規模言語モデル (LLM) の世界は急速に拡大しており、企業が適切なモデルを選択するのは困難になっています。多くの場合、組織は AI リソースのキャパシティ・プランニングとモデルのパフォーマンスを確実に再現できるようにするという、簡単ではない課題に取り組んでいます。
このような状況で、Red Hat の検証済みモデルをご利用いただけます。Red Hat は、Red Hat プラットフォーム内の vLLM で効率的に実行できる、すぐに使用可能な一連のサードパーティ・モデルへのアクセスを提供します。徹底的なテストの実施により、選定プロセスが単純化されています。Red Hat のモデル検証プロセスには、以下が含まれます。
- パフォーマンス・ベンチマーク:GuideLLM を使用して、さまざまなハードウェア構成におけるリソース要件とコストの評価を行います。
- 精度評価:Language Model Evaluation Harness (LM Eval Harness) を使用して、新しいタスクに対するモデルの応答性を測定します。
- 再現可能なデプロイメント:vLLM (高スループット推論エンジン) で、同じ結果を達成できるようにします。
- セキュリティに重点を置いた、エンタープライズ対応のパッケージング:プロダクション用レジストリで標準化されたコンテナ・フォーマットを使用して、脆弱性のスキャンが行われる、バージョン管理対象のアセットを作成できます。これにより、デプロイとライフサイクル管理を単純化できます。
このプロセスにより、明確なキャパシティ・プランニングのガイダンスが提供されるので、デプロイの適切なサイズを設定し、最適なハードウェアを選択して、プロダクションへの迅速な移行を確実に実行できます。
Red Hat のモデル最適化機能
強力な LLM のデプロイは、高 VRAM GPU などの特殊なハードウェアの高コストと希少性によって制限されることがよくあります。アクセスを民主化し、企業がこれらのモデルをより手頃な価格で実行できるようにするために (小規模の GPU や数の少ない GPU の場合であっても)、Red Hat は高度なモデル圧縮技術を使用します。
LLM Compressor などのテクノロジーが推進するこの重要な最適化プロセスには、量子化 (例: モデルを INT4、INT8、または FP8 Dynamic 形式に変換すること) などの技法が含まれており、LLM のメモリー・フットプリントや計算要件を大幅に削減し、同時に出力の品質と精度を慎重に維持します。
Red Hat のコレクションでご覧いただける検証済みモデル (その多くは事前圧縮されており、すぐにデプロイが可能です) は、この最適化が実際に活用されていることを示す例となっています。これらのアセットを活用することで、Red Hat は次のことを実現するお手伝いをいたします。
- VRAM の使用量を削減し、安価な、またはより少ない GPU リソースで大規模なモデルを提供する。
- ハードウェアの使用率を最大化して運用コストを削減する。
- 重要な推論フェーズでスループットの向上とレイテンシーの削減を達成する。
このような最適化された検証済みアセットは、Red Hat AI Hugging Face 公開リポジトリおよび registry.redhat.io の Red Hat コンテナレジストリ内ですぐに利用できます。これらは、高性能で費用対効果の高い AI をデプロイするための信頼できるソースとなります。
最新の検証済みモデルのご紹介
最新の検証済みモデルには、強力で多様なモデルのラインアップが用意されており、それぞれが最適化されており、エンタープライズのワークロードに対応します。
- DeepSeek-R1 INT4: 複数のプログラミング言語で複雑なコードを生成し、補完し、デバッグするのに理想的な精鋭コーディングモデルです。
- Qwen 3 8B FP8 Dynamic: グローバルなチャットボット・アプリケーションおよびコンテンツ作成向けに設計された、Alibaba の多目的の、強力な多言語モデルです。
- Kimi K2 Quantized INT4: このモデルは、非常に大きなコンテキストウィンドウで知られており、検索拡張生成 (RAG) や、法法的な契約書や調査報告書などの長文の文書の分析に非常に優れたモデルです。
- Gemma-3n 4B FP8 Dynamic:Google の最新の効率的なモデルは、要約タスクとオンデバイス・アプリケーションに適したパフォーマンスとサイズのバランスを取るのに役立ちます。
- openai/gpt-oss-120b & openai/gpt-oss-20b: 大規模 (および小規模バリアント) で、複雑な推論やニュアンスを反映したコンテンツの生成、および高度な問題解決が可能な汎用の基盤モデルです。
- Qwen3 Coder 480B-A35B-Instruct-FP8: 要求の厳しいソフトウェア開発および自動化パイプライン向けに設計されたエンタープライズグレードの大規模なコーディングアシスタントです。
- Voxtral-Mini-3B-2507 FP8 Dynamic:リアルタイムの音声認識アプリケーションとインタラクティブなエージェントの構築に優れた、音声と話し言葉に特化した敏捷で応答性の高いモデルです。
- whisper-large v3 INT4: OpenAI の最先端の音声認識モデルで、高精度の音声文字変換、議事録作成、および音声コマンドを有効にするために設計されています。
- NVIDIA-Nemotron-Nano-9B-v2: NVIDIA の新しい汎用推論およびチャットモデルです。AI エージェントシステム、チャットボット、RAG 向けにハイブリッド・アーキテクチャを使用しており、商用利用が可能です。
今すぐ始める
これらの強力なデプロイ対応の AI モデルには、次の 2 つの方法で今すぐアクセスできます。
- Hugging Face:検証済みのモデルとその詳細について、Red Hat AI リポジトリでご覧ください。
- Red Hat Container Registry:コンテナーイメージをプルして、RHOAI 2.25 または RHAIIS 3.2.2 にすぐにデプロイできます。 このドキュメントを参照してください。
注:すべてのモデルは、vLLM (バージョン 0.10.1.1 以降) でのデプロイ用に最適化されています。
近日公開の予定
より緊密な統合に向けて、これらのモデルは Red Hat OpenShift AI カタログの 3.0 リリースから掲載され、一般提供 (GA) は 11 月に予定されています。
すべてのパフォーマンスデータと評価データをご覧になりたい方は、 セールス担当者までお問い合わせください。
リソース
適応力のある企業:AI への対応力が破壊的革新への対応力となる理由
執筆者紹介
My name is Rob Greenberg, Principal Product Manager for Red Hat AI, and I came over to Red Hat with the Neural Magic acquisition in January 2025. Prior to joining Red Hat, I spent 3 years at Neural Magic building and delivering tools that accelerate AI inference with optimized, open-source models. I've also had stints as a Digital Product Manager at Rocketbook and as a Technology Consultant at Accenture.
チャンネル別に見る
自動化
テクノロジー、チームおよび環境に関する IT 自動化の最新情報
AI (人工知能)
お客様が AI ワークロードをどこでも自由に実行することを可能にするプラットフォームについてのアップデート
オープン・ハイブリッドクラウド
ハイブリッドクラウドで柔軟に未来を築く方法をご確認ください。
セキュリティ
環境やテクノロジー全体に及ぶリスクを軽減する方法に関する最新情報
エッジコンピューティング
エッジでの運用を単純化するプラットフォームのアップデート
インフラストラクチャ
世界有数のエンタープライズ向け Linux プラットフォームの最新情報
アプリケーション
アプリケーションの最も困難な課題に対する Red Hat ソリューションの詳細
仮想化
オンプレミスまたは複数クラウドでのワークロードに対応するエンタープライズ仮想化の将来についてご覧ください