あらゆる企業で AI ソリューションの活用が加速していますが、企業データがサードパーティに公開されるリスクを生じさせる可能性のあるパブリックモデルの使用コストは増加しています。Models-as-a-Service (MaaS) アプローチを採用すれば、企業はオープンソースモデル (および必要な AI テクノロジースタック) を提供し、企業全体で共有リソースとして使用できます。
また、企業における AI の導入が加速するにつれて、幅広いユースケース (チャットボット、コードアシスタント、テキスト/画像生成など) に対応する独自のカスタム AI ソリューションを各事業部が構築しようとし、企業全体としての一貫性が欠如することも少なくありません。
AI 導入のトレンドに関する IDC の知見では、企業が日和見的なソリューションから組織全体の変革を実現するマネージド・ソリューションへと移行する方法を説明しています。
特定のユースケースに対処するために必要な AI モデルの種類が事業部ごとに異なることはよくあります。モデルにはたとえば次のようなものがあります。
- 生成 AI モデル:テキストや画像などの新しいコンテンツの作成に使用されます
- 予測型 AI モデル:データのパターンの分類や予測に使用されます
- ファインチューニングされた AI モデル:企業またはドメイン固有のデータでカスタマイズされたモデルです
- 検索拡張生成 (RAG):一般的なモデル情報を企業またはドメイン固有のデータを使用して強化します
OpenAI、Claude、Gemini などの、サードパーティのホスト型サービスを通じてアクセスできる生成 AI モデルは、使い始めるのは簡単ですが、大規模に使用するとコストが非常に大きくなります。また、企業データがこれらのサービス提供者に公開される可能性があるため、データプライバシーとセキュリティの問題もあります。生成 AI などのモデルは企業によるセルフホストのオプションも可能ですが、これによりさまざまな事業部間で作業が重複し、コストが増えたり市場投入時間が長くなったりする可能性があります。
新しい生成 AI モデルが隔週でリリースされ、AI の進歩のスピードが加速している中で、企業がそれについていくのはほぼ不可能になりつつあります。モデルを選ぶ際には、非常に大規模なサイズ (4,500 億パラメーター) からそれらの小規模バージョン (量子化またはパラメーター数が少ない)、エキスパートモデルの組み合わせまで、多数の選択肢があります。多くの開発者は、適切なモデルを選択したり、高価なリソース (GPU など) を最適に使用したりするために必要な専門知識を持っていません。
事業部ごとに独自の AI ソリューションが構築されている場合、企業は次のような課題に直面します。
- 高コスト:AI モデルのデプロイと維持には、高価な GPU クラスタ、機械学習 (ML) の専門知識、継続的なファインチューニングが必要です。モデルのトレーニングとファインチューニングを社内で行うには、コンピューティング、ストレージ、人材の面で多大なコストがかかります。さらに、一元的なガバナンスがなければ、モデルのコストを予測することができなくなる可能性があります。
- 重複:希少な AI リソースが重複したり、十分に活用されなかったりすると、予算の無駄につながる可能性があります。
- 複雑さ:開発者が求めるのはモデルへのアクセスであり、インフラストラクチャの複雑さや絶えず進化する AI スタックへの対処は望んでいません。
- スキル不足:企業には、カスタムモデルの構築に必要な ML エンジニア、データサイエンティスト、AI 研究者が不足しています。
- 運用制御:複数のグループがそれぞれ独立した AI の取り組みを行っていると、企業はスケーリング、バージョン管理、モデルドリフトに苦慮することになります。
企業が財源を払底させることなく AI の勢いを活用するには、より優れたアプローチが必要です。
MaaS で解決
MaaS を使用すると、企業はオープンソースモデル (および必要な AI スタック) を提供し、それらを共有リソースとして使用できます。それにより、IT 部門は社内全体に対して AI サービスを提供するサービスプロバイダーとなります。
ユーザーは、最先端のフロンティアモデルから、はるかにサイズが小さく、非常に少ないコストで同様のパフォーマンスを実現する量子化モデルまたは小規模言語モデル (SLM) まで、多様なモデルから選択できます。これらのモデルは、企業のプライベートデータを使用してチューニングおよびカスタマイズでき、それほど強力ではないハードウェアでも実行できるため、エネルギー消費量を減らすことができます。モデルのインスタンスを複数作成して、さまざまなユースケースやデプロイ環境に対応することも可能です。これらのモデルはすべて効率的に提供され、利用可能なハードウェアリソースを最大限に活用できます。
開発者はこれらのモデルに簡単にアクセスして、AI アプリケーションの構築に集中することができ、基盤となるインフラストラクチャにまつわる複雑な事項 (GPU など) を気にする必要はありません。
企業の IT 部門は、各事業部によるモデルの使用状況を監視し、AI サービスの使用量に応じてチャージバックできます。また、AI 管理のベストプラクティスを適用して、モデルのデプロイとメンテナンス (バージョン管理、回帰テストなど) を効率化することもできます。
IT 部門が社内のプライベート AI プロバイダーになるメリットの例を以下に示します。
- 複雑さの軽減:一元化された MaaS により、AI インフラストラクチャにまつわる複雑な事項にユーザーが対応する必要がなくなる
- コストの削減:モデル推論サービスを一元的に提供することで、コストの削減に貢献できる
- セキュリティの強化:サードパーティがホストするモデルを使用しないので、既存のセキュリティ、データ、プライバシーポリシーに準拠できる
- イノベーションの迅速化:モデルのデプロイとイノベーションを迅速化して、AI アプリケーションの市場投入時間を短縮できる
- 重複の排除:希少な AI リソースが複数グループに重複して配置されるのを回避できる。データサイエンティストは、一般的な企業タスクに必要な最適化されたモデルを提供できる
- 選択の自由:AI ワークロードの可搬性を維持しながら、ベンダーロックインを排除できる
MaaS の構成要素
以下の MaaS ソリューションスタックは、Red Hat OpenShift AI、API ゲートウェイ (Red Hat 3scale API Management の一部)、Red Hat シングルサインオン (SSO) で構成されています。エンドツーエンドの AI ガバナンス、ゼロトラストアクセス (Keycloak の Red Hat ビルド)、AI 推論サーバー (vLLM)、ハイブリッドクラウドの柔軟性 (OpenShift AI) を単一のプラットフォームで提供します。また、一貫したツールにより、Red Hat OpenShift を使用してソリューションをオンプレミスでデプロイしたり、クラウドにデプロイしたりすることができます。
各コンポーネントについて、さらに詳しく見ていきましょう。
API ゲートウェイ
API ゲートウェイは、エンタープライズグレードのモデル API 制御を提供します。このソリューションスタックは 3scale API Gateway をベースとしていますが、どのエンタープライズグレードの API ゲートウェイでも使用できます。この API ゲートウェイのメリットは以下のとおりです。
- セキュリティとコンプライアンス
- LLM アクセスに JWT/OAuth2 を介した API 認証を実施する
- LLM サービスとの間で送受信されるすべての API トラフィックを暗号化する
- コンプライアンスのための監査ログ (GDPR、HIPAA、SOC2)
- 使用の最適化
- レート制限とクォータを設定してコストの超過を防ぐ
- チーム/プロジェクトごとの LLM API 使用量を監視する
- 使用されていない、または過剰に使用されているエンドポイントを特定する
- ハイブリッドデプロイのサポート
- クラウド/オンプレミス全体で一貫して API を管理する (OpenShift 統合により)
- プライベート LLM インスタンス専用の API ゲートウェイをデプロイする
- 開発者イネーブルメント
- LLM API 発見のためのセルフサービス開発者ポータル
- API ドキュメントとテストを自動化する
- OpenShift AI との統合
- OpenShift AI にデプロイされたモデルにガバナンスを適用する
- 従来のサービスと並行して AI/ML API の使用状況を追跡する
認証
認証コンポーネントは、LLM サービスの統一された ID 管理を提供します。このソリューションスタックは Red Hat SSO をベースとしていますが、他のエンタープライズグレードの認証ソリューションを使用することもできます。認証のメリットをいくつか紹介します。
- ゼロトラストセキュリティ
- すべての LLM ツールに対する一元化された認証 (OIDC/SAML)
- きめ細かな権限を実現するロールベースのアクセス制御 (RBAC)
- 機密性の高い AI ワークロードに対する多要素認証 (MFA) のサポート
- エンタープライズ ID 統合
- Active Directory、LDAP、またはその他の ID プロバイダーへの接続
- ユーザーのプロビジョニング/デプロビジョニングの自動化
- スケーラブルなアクセス管理
- すべての社内 AI ポータルへのシングルサインオン
- コンプライアンスのためのセッション管理
- ハイブリッドクラウド対応
- 任意の場所で実行されている LLM へのセキュアなアクセス (パブリッククラウド/オンプレミス)
- 複数環境間での一貫したポリシー
OpenShift AI との統合
- OpenShift AI ダッシュボードとモデルエンドポイントの SSO
- プラットフォームユーザーと API 利用者の両方向けの統一された ID
推論サーバー
このソリューションスタックでは、推論サーバーとして vLLM を使用します。vLLM フレームワークは、マルチモーダルモデル、組み込み、報酬モデリングをサポートしており、人間のフィードバックによる強化学習 (RLHF) ワークフローでの使用例が増えています。vLLM は、高度なスケジューリング、チャンクのプリフィル、Multi-LoRA バッチ処理、構造化された出力などの機能により、推論の高速化とエンタープライズ規模のデプロイメントの両方に最適化されています。
vLLM は LLM 圧縮ツールも提供するため、独自のチューニング済みモデルを最適化できます。
AI プラットフォーム
このソリューションスタックは OpenShift AI を使用してモデルを提供し、革新的なアプリケーションを実現します。OpenShift AI は、データの取得と準備、モデルのトレーニングとファインチューニング、モデルの提供とモデルのモニタリング、ハードウェアのアクセラレーションなど、AI のあらゆる側面で企業を支援します。
OpenShift AI の最新リリースでは、より小規模な事前に最適化済みモデルを利用できるため、さらなる効率アップを図ることができます。さらに、vLLM フレームワークを通じた分散型サービスにより、推論コストが管理しやすくなります。
OpenShift AI は、セルフマネージドのソフトウェアとして、または OpenShift 上のフルマネージド型クラウドサービスとして提供され、安全で柔軟なプラットフォームを提供します。オンプレミス、パブリッククラウド、エッジなど、モデルを開発してデプロイする場所を選択できます。
結論
企業がさまざまな AI ソリューションを構築および拡張するにあたり、サードパーティがホストするモデルの使用は非常に大きなコストがかかるようになっています。また、企業のデータがサードパーティに公開されるため、多くの場合、許容できないデータプライバシーリスクの可能性が生じます。セルフホスト型の AI モデルは、データプライバシーへの対処に役立ちますが、さまざまな事業部間で作業の重複が発生し、コストや市場投入時間の増加を招く可能性もあります。
Models-as-a-Service (MaaS) は、組織全体で共有リソースとして使用できるオープンソースモデルを提供する新しいアプローチです。開発者はこれらのモデルにアクセスしやすくなり、基盤となるインフラストラクチャを気にすることなく AI アプリケーションの構築に集中できます。企業の IT 部門は、さまざまな事業部によるモデルの使用状況を監視し、AI サービスの使用量に応じて各チームやプロジェクトに請求できます。
この MaaS アプローチにより、企業は日和見的に AI を利用することから脱却して、組織全体で AI 機能を変革することができます。
詳細はこちら
- 詳細については、MaaS ソリューション・アーキテクチャをご覧ください。または、視覚的に確認できるチュートリアルをご覧いただくこともできます。
- Model as a Service リポジトリにアクセスして、独自の MaaS ソリューションをセットアップできます。
- その他のサービスについては、Red Hat コンサルティングにお問い合わせください。
- 量子化のメリットについてご覧ください。
- InstructLab の実際の事例をご覧ください。
1 IDC Directions、『Completing the Agentic Journey』、2025 年 4 月
製品トライアル
Red Hat Enterprise Linux AI | 製品トライアル
執筆者紹介
Ishu Verma is Technical Evangelist at Red Hat focused on emerging technologies like edge computing, IoT and AI/ML. He and fellow open source hackers work on building solutions with next-gen open source technologies. Before joining Red Hat in 2015, Verma worked at Intel on IoT Gateways and building end-to-end IoT solutions with partners. He has been a speaker and panelist at IoT World Congress, DevConf, Embedded Linux Forum, Red Hat Summit and other on-site and virtual forums. He lives in the valley of sun, Arizona.
Ritesh Shah is a Principal Architect with the Red Hat Portfolio Technology Platform team and focuses on creating and using next-generation platforms, including artificial intelligence/machine learning (AI/ML) workloads, application modernization and deployment, Disaster Recovery and Business Continuity as well as software-defined data storage.
Ritesh is an advocate for open source technologies and products, focusing on modern platform architecture and design for critical business needs. He is passionate about next-generation platforms and how application teams, including data scientists, can use open source technologies to their advantage. Ritesh has vast experience working with and helping enterprises succeed with open source technologies.
Juliano Mohr is a Principal Architect at Red Hat, where he builds demos, labs, and workshops for the Red Hat demo platform. He was previously a Consulting Architect at Red Hat, applying his expertise in application development to support digital transformation. During his global career, he has deepened his knowledge in agile, DevOps, and modern software practices.
類似検索
Implementing best practices: Controlled network environment for Ray clusters in Red Hat OpenShift AI 3.0
Solving the scaling challenge: 3 proven strategies for your AI infrastructure
Technically Speaking | Platform engineering for AI agents
Technically Speaking | Driving healthcare discoveries with AI
チャンネル別に見る
自動化
テクノロジー、チームおよび環境に関する IT 自動化の最新情報
AI (人工知能)
お客様が AI ワークロードをどこでも自由に実行することを可能にするプラットフォームについてのアップデート
オープン・ハイブリッドクラウド
ハイブリッドクラウドで柔軟に未来を築く方法をご確認ください。
セキュリティ
環境やテクノロジー全体に及ぶリスクを軽減する方法に関する最新情報
エッジコンピューティング
エッジでの運用を単純化するプラットフォームのアップデート
インフラストラクチャ
世界有数のエンタープライズ向け Linux プラットフォームの最新情報
アプリケーション
アプリケーションの最も困難な課題に対する Red Hat ソリューションの詳細
仮想化
オンプレミスまたは複数クラウドでのワークロードに対応するエンタープライズ仮想化の将来についてご覧ください