Models-as-a-Service とは

URL をコピー

Models-as-a-Service (MaaS) は、AI モデルを共有リソースとして提供し、組織内のユーザーがオンデマンドでアクセスできるようにするアプローチです。MaaS は、アプリケーション・プログラミング・インタフェース (API) エンドポイントの形ですぐに使える AI 基盤を提供し、プライベートかつ高速な AI を大規模に活用できるよう支援します。 

Red Hat による MaaS の Web セミナーを見る

多くの組織が AI を活用したいと考えていますが、エンタープライズ向けのプライベートモデルを利用する段階で、ほとんどの組織が行き詰まってしまいます。Hugging Face のようなパブリックソースから入手できる事前トレーニング済みの AI モデルは、より利用しやすくなってきています。また、大規模 GPU (グラフィックス・プロセッシング・ユニット) などの適切なハードウェアがあれば、モデルの稼働は実現可能な目標だと思えるでしょう。しかし、ここで問題があります。モデルが稼働したら、誰がそれを利用できるのでしょうか。さらには、誰がそれを拡張できるのでしょうか。 

プライベート AI モデルを拡張するには、単一のモデルインスタンスを複数のユーザーと複数のアプリケーションが同時に利用できるようにする必要があります。そうでなければ、モデルを利用できるのはそれを作成したユーザーのみとなり、非常に非効率的です。そこで役立つのが MaaS です。 

Models-as-a-Service は、データに対するコントロールを損なうことなく、1 つの組織内のチームやアプリケーションの間でプライベートに共有されるモデルへのアクセスを可能にします。 

組織が AI を導入し始める際、使いやすいツールやインタフェースから始めるのが一般的です。しかし利用が拡大するにつれて、「いくつかのモデルを試す」ことから「AI を大規模に運用する」ことに重点が置かれるようになっていきます。実稼働を開始したときのモデルは少数でも、時間の経過とともに、言語モデル、画像モデル、音声モデルなど、さまざまな種類のモデルを運用するようになります。さらに、複数のバージョンやユースケースを扱うことも珍しくありません。

つまり、「職人」的なアプローチ (すべてを手動で行う) から「工場」的なアプローチ (モデルを効率的かつ一貫して管理する) への移行が必要になります。

このすべてを信頼性が高くスケーラブルな方法で管理することが、Models-as-a-Service の核心です。

検索拡張生成 (RAG)エージェント型 AI、コーディングアシスタントなどの AI パターンを検証するのにパブリック AI プロバイダーは必要ありません。プライベート AI モデルは、エンドユーザーの利便性に影響を与えることなく、これらのツールを駆動できます。

Models-as-a-Service は、Mistral、Llama、DeepSeek など、公開されている大規模言語モデル (LLM) の利用を支援することを目的としています。また、事前トレーニング済みの基盤モデルに限定されるものではありません。MaaS は、ファインチューニング済みのモデルだけでなくゼロから構築された予測型 AI モデルまでも、すべてを同一の完全にサポートされたプラットフォーム上で提供できます。 

典型的な MaaS 実装では、IT チームや AI プラットフォーム・エンジニアリング・チームが、開発者やビジネスユーザーなどの内部顧客向けに API エンドポイントを通じて AI モデルを提供します。一般に、MaaS 環境はチーム間や運用間の統合を単純化するために、API ゲートウェイを備えたハイブリッドクラウド AI プラットフォーム上に構築されます。MaaS の主要コンポーネントには、モデル、スケーラブルな AI プラットフォーム、AI オーケストレーション・システム、API 管理などがあります。これらすべての要素により、Models-as-a-Service はスケーラブルな AI 戦略をサポートできるようになります。 

MaaS のデモを見る 

AI テクノロジーの導入に関する 4 つのキーポイント

包括的な MaaS ソリューションは、AI の統合を容易にします。時間と費用を節約し、AI 戦略のコントロールを維持できるようにします。MaaS は、以下の特性によって定義されます。 

アクセス性と拡張性:多くの場合、組織は AI 戦略のコントロールを維持するためにプライベート AI を構築します。しかし、使いにくければ誰も導入しません。プライベート AI を成功させるには、公開されている AI サービス (OpenAI、OpenRouter、Gemini など) と同様に使いやすいものであることが必要です。MaaS は AI の専門家でない人でもアクセスできるようにするべきです。そうすることで、適切な拡張が可能になります。また、日常業務に統合できるだけでなく、組織全体の運用に拡張できるようにするべきです。

追跡可能かつ調整可能:Models-as-a-Service の利用者、利用量、利用目的を把握することは重要です。これにより、利用状況を報告 (ショーバック) するか、それに課金 (チャージバック) するかを選択できます。利用状況を追跡できない場合、各チーム間でのコスト、容量、公平性の管理が困難になります。 

透明性とセキュリティ:プライベート AI モデルを最大限に活用するには、独自のエンタープライズデータが不可欠です。また、データの送信先を規定する厳格なルールの遵守も不可欠です。MaaS を利用することで、このモデルを組織独自のものとし、データに対する完全なコントロールを維持できます。透明性を提供しない「ブラックボックス」モデルには注意が必要です。説明可能性と追跡可能性は、AI モデルを理解し、効率を向上させ、倫理的な AI ベストプラクティスを維持するのに役立ちます。

エンタープライズ AI とは

Large Language Models-as-a-Service (LLMaaS) は、複雑な言語処理などの LLM 機能に特化した MaaS の一種です。  

LLM は、さまざまな言語を理解しコミュニケーションするために大量のデータを処理できるディープラーニングモデルです。LLM は生成 AI に使用され、チャットボットの作成に広く活用されています。また、今日の先進的な AI ユースケースの多く、たとえば RAGエージェント型 AI、コーディングアシスタントなどの中核にもなっています。 

LLMaaS と比べて、MaaS はテクノロジーに依存しない特性を持っています。新たなモデルが次々と登場する中、MaaS は適応することができます。この柔軟性により、モデルの変更や入れ替わりが発生しても、モデル提供やアクセス機能の安定性を維持できます。 

生成 AI のその他のユースケースを見る 

MaaS を導入するメリットは、リソースを自らコントロールできる点にあります。予算や AI スキルが不足しているチームでも、独自の条件で独自のモデルを構築し、トレーニングし、提供することができます。

インフラストラクチャと GPU の管理にはコストがかかります。プライベート AI プロバイダーになることで、AI サービスの断片化がもたらす複雑性を回避し、インフラストラクチャのコストを抑えることができます。

MaaS の具体的なメリットは以下のとおりです。

  • 価値実現までの時間の短縮:MaaS により、基盤となるインフラストラクチャの管理ではなく、アプリケーションの構築やビジネス上の課題の解決に集中できるため、デプロイメントとイノベーションの迅速化につながります。
  • 効率化とコスト削減: AI インフラストラクチャが一元化されているため、複数の AI サービスではなく、単一のソースから作業できます。これにより、作業の重複、過剰な支出、リソースの無秩序な分散を回避できます。
  • 時間管理の向上:GPU の管理には、熟練した専門家と予算が必要です。MaaS を活用すれば、AI チームは時間のかかる反復作業ではなく、モデルの管理や提供といった職務に専念できます。
  • プライバシーとセキュリティ:プライベート AI プロバイダーとして AI モデルを自らホストすることで、一般公開されているインフラストラクチャの利用を回避できます。データが第三者に公開されないため、既存のセキュリティポリシーに基づいたデータ保護とガバナンスの維持が容易になります。 

プロバイダーが提供する既成の MaaS ソリューションを利用できますが、独自に構築することもできます。社内のチームが社内用の MaaS ソリューションを開発し、配布・運用化することも可能です。 

自社のニーズに合ったモデルサービスを作成することは重要ですが、それは自社で開発する際の多くの考慮事項のうちの、最初のステップに過ぎません。開発を始める前に検討すべき要素としては、他に以下のようなものがあります。 

  • データ収集プロセス:トレーニングデータの品質をどのように確保するか。個人データをどのように保護するか。
  • リソース管理:MaaS と GPU の作成、構築、管理は誰が担当するか。
  • 信頼性の高いインフラストラクチャ:自社のインフラストラクチャは、新しい AI モデルに対応できるだけの十分な信頼性があるか。モデルの作成後、そのメリットを享受できるリソースはあるか。 

開発を始める前にこれらの質問に答えておくことが、成功するための基盤を築くのに役立つでしょう。 

MaaS をビジネスに導入すべきタイミングとは

Red Hat® AI は、Red Hat のお客様の信頼を得ているソリューションに基づいて構築された AI 製品のプラットフォームです。Red Hat AI は、組織に次のようなメリットをもたらします。

  • AI を迅速に導入してイノベーションを実現する
  • AI ソリューションの提供における複雑さを解消できる
  • ハイブリッドクラウド全体にデプロイできる

Red Hat AI の詳細 

 

Red Hat OpenShift® AI は Red Hat AI に含まれています。クラウド、エッジ、オンプレミスで MaaS をサポートする、柔軟でコスト効率の高い AI プラットフォームを提供します。 

Red Hat OpenShift AI は、組織に次のようなメリットをもたらします。

  • データ取り込み、モデルトレーニング、モデル提供、および可観測性のワークフローを効率化し、チーム間のコラボレーションを強化する
  • 組み込みの認証とロールベースのアクセス制御により、セキュリティを強化する
  • モデルがエアギャップ環境や切断された環境にある場合でも、プライベートデータを保護できる
  • 柔軟な API ゲートウェイにより、クラウドでもオンプレミスでもビジネスのあらゆる領域にアクセスできる
  • 包括的なモデルガバナンスと AI ガードレールにより、モデルのバイアスやドリフトを回避できる

Red Hat OpenShift AI の詳細 

リソース

エンタープライズ AI を始める:初心者向けガイド

この初心者向けガイドでは、Red Hat OpenShift AI と Red Hat Enterprise Linux AI によって AI 導入をどのように加速できるのかについて説明します。

Red Hat で AI をナビゲート:AI 導入に役立つ専門知識、トレーニング、サポート

Red Hat の独自の AI ポートフォリオをご覧ください。Red Hat AI は、人工知能 (AI) を活用してお客様のビジネスおよび IT の目標を達成するお手伝いをします。

関連情報

RAG とファインチューニングの違いとは?をわかりやすく解説

どちらも LLM の改良を目的としていますが、RAG はモデルを変更せずに外部情報を統合するのに対し、ファインチューニングはモデルの内部パラメーターを調整する手法です。

小規模言語モデル (SLM) と大規模言語モデル (LLM) の違いとは?

小規模言語モデル(SLM)は、大規模言語モデル(LLM)よりもパラメーター数が少なく、軽量で効率的に動作するモデルで、専門的な知識を備え、より迅速にカスタマイズできます。

Granite モデルとは?をわかりやすく解説

Graniteモデルとは、IBMがビジネス用途向けに開発した、大規模言語モデル(LLM)のシリーズ。Apache 2.0ライセンスの下で提供されており、無料で使用、修正、配布できます。

AI/MLリソース

関連記事