Model-as-a-Service とは

URL をコピー

Model-as-a-Service (MaaS) は、AI モデルを共有リソースとして提供し、組織内のユーザーがオンデマンドでアクセスできるようにするアプローチです。MaaS は、アプリケーション・プログラミング・インタフェース (API) エンドポイントの形ですぐに使える AI 基盤を提供し、プライベートかつ高速な AI を大規模に活用できるよう支援します。 

MaaS のガイドを見る

多くの組織が AI を活用したいと考えていますが、エンタープライズ向けのプライベートモデルを利用する段階で、ほとんどの組織が行き詰まってしまいます。 

Hugging Face のようなパブリックソースから入手できる事前トレーニング済みの AI モデルは、より利用しやすくなってきています。また、大規模 GPU (グラフィックス・プロセッシング・ユニット) などの適切なハードウェアがあれば、モデルの稼働は実現可能な目標だと思えるでしょう。しかし、問題があります。モデルが稼働したら、誰がそれを使用できるのでしょうか?そして、誰がそれを拡張できるのでしょうか? 

プライベート AI モデルを拡張するには、単一のモデルインスタンスを複数のユーザーと複数のアプリケーションが同時に利用できるようにする必要があります。そうでなければ、モデルを利用できるのはそれを作成したユーザーのみとなり、非常に非効率的です。 

そこで役立つのが MaaS です。 

Model-as-a-Service では、データに対するコントロールを損なうことなく、1 つの組織内の複数のチームやアプリケーション全体で、プライベートに共有されるモデルにアクセスできます。 

AI をエンタープライズで活用する方法 

組織が AI を導入し始める際、使いやすいツールやインタフェースから始めるのが一般的です。しかし利用が拡大するにつれて、「いくつかのモデルを試す」ことから「AI を大規模に運用する」ことに重点が置かれるようになっていきます。実稼働を開始したときのモデルは少数でも、時間の経過とともに、言語モデル、画像モデル、音声モデルなど、さまざまな種類のモデルを運用するようになります。さらに、複数のバージョンやユースケースを扱うことも珍しくありません。

つまり、「職人」的なアプローチ (すべてを手動で行う) から「工場」的なアプローチ (モデルを効率的かつ一貫して管理する) への移行が必要になります。

このすべてを信頼性が高くスケーラブルな方法で管理することが、Model-as-a-Service の核心です。

検索拡張生成 (RAG)エージェント型 AI、コーディングアシスタントなどの AI パターンを検証するのにパブリック AI プロバイダーは必要ありません。プライベート AI モデルは、エンドユーザーの利便性に影響を与えることなく、これらのツールを駆動できます。

Model-as-a-Service は、Mistral、Llama、DeepSeek など、公開されている大規模言語モデル (LLM) の利用を支援することを目的としています。また、事前トレーニング済みの基盤モデルに限定されるものではありません。MaaS は、ファインチューニング済みのモデルだけでなくゼロから構築された予測型 AI モデルまでも、すべてを同一の完全にサポートされたプラットフォーム上で提供できます。 

典型的な MaaS 実装では、IT チームや AI プラットフォーム・エンジニアリング・チームが、開発者やビジネスユーザーなどの内部顧客向けに API エンドポイントを通じて AI モデルを提供します。一般に、MaaS 環境はチーム間や運用間の統合を単純化するために、API ゲートウェイを備えたハイブリッドクラウド AI プラットフォーム上に構築されます。MaaS の主要コンポーネントには、モデル、スケーラブルな AI プラットフォーム、AI オーケストレーション・システム、API 管理などがあります。これらすべての要素により、Model-as-a-Service はスケーラブルな AI 戦略をサポートできるようになります。 

MaaS のデモを見る 

AI テクノロジーの導入に関する 4 つのキーポイント

包括的な MaaS ソリューションは、AI の統合を容易にします。時間と費用を節約し、AI 戦略のコントロールを維持できるようにします。MaaS は、以下の特性によって定義されます。 

アクセス性と拡張性:多くの場合、組織は AI 戦略のコントロールを維持するためにプライベート AI を構築します。しかし、使いにくければ誰も導入しません。プライベート AI を成功させるには、公開されている AI サービス (OpenAI、OpenRouter、Gemini など) と同様に使いやすいものであることが必要です。MaaS は AI の専門家でない人でもアクセスできるようにするべきです。そうすることで、適切な拡張が可能になります。また、日常業務に統合できるだけでなく、組織全体の運用に拡張できるようにするべきです。

追跡可能かつ調整可能:Model-as-a-Service の利用者、利用量、利用目的を把握することは重要です。これにより、利用状況を報告 (ショーバック) するか、それに課金 (チャージバック) するかを選択できます。利用状況を追跡できない場合、各チーム間でのコスト、容量、公平性の管理が困難になります。 

透明性とセキュリティ:プライベート AI モデルを最大限に活用するには、独自のエンタープライズデータが不可欠です。また、データの送信先を規定する厳格なルールの遵守も不可欠です。MaaS を利用することで、このモデルを組織独自のものとし、データに対する完全なコントロールを維持できます。透明性を提供しない「ブラックボックス」モデルには注意が必要です。説明可能性と追跡可能性は、AI モデルを理解し、効率を向上させ、倫理的な AI ベストプラクティスを維持するのに役立ちます。

MaaS で AI の価値を加速させる方法

Large Language Model-as-a-Service (LLMaaS) は、複雑な言語処理などの LLM 機能に特化した MaaS の一種です。  

LLMディープラーニング・モデルであり、さまざまな言語を理解してコミュニケーションできるように大量のデータを処理するよう構築されています。LLM は生成 AI に使用され、チャットボットの作成に広く活用されています。また、今日の先進的な AI ユースケースの多く、たとえば RAGエージェント型 AI、コーディングアシスタントなどの中核にもなっています。 

LLMaaS と比べて、MaaS はテクノロジーに依存しない特性を持っています。新たなモデルが次々と登場する中、MaaS は適応することができます。この柔軟性により、モデルの変更や入れ替わりが発生しても、モデル提供やアクセス機能の安定性を維持できます。 

生成 AI のその他のユースケースを見る 

MaaS を導入するメリットは、リソースを自らコントロールできる点にあります。予算や AI スキルが不足しているチームでも、独自の条件で独自のモデルを構築し、トレーニングし、提供することができます。

インフラストラクチャと GPU の管理にはコストがかかります。プライベート AI プロバイダーになることで、AI サービスの断片化がもたらす複雑性を回避し、インフラストラクチャのコストを抑えることができます。

MaaS の具体的なメリットは以下のとおりです。

  • 価値実現までの時間の短縮:MaaS により、基盤となるインフラストラクチャの管理ではなく、アプリケーションの構築やビジネス上の課題の解決に集中できるため、デプロイメントとイノベーションの迅速化につながります。
  • 効率化とコスト削減: AI インフラストラクチャが一元化されているため、複数の AI サービスではなく、単一のソースから作業できます。これにより、作業の重複、過剰な支出、リソースの無秩序な分散を回避できます。
  • 時間管理の向上:GPU の管理には、熟練した専門家と予算が必要です。MaaS を活用すれば、AI チームは時間のかかる反復作業ではなく、モデルの管理や提供といった職務に専念できます。
  • プライバシーとセキュリティ:プライベート AI プロバイダーとして AI モデルを自らホストすることで、一般公開されているインフラストラクチャの利用を回避できます。データが第三者に公開されないため、既存のセキュリティポリシーに基づいたデータ保護とガバナンスの維持が容易になります。 

エンタープライズ向け AI セキュリティの詳細 

プロバイダーが提供する既成の MaaS ソリューションを利用できますが、独自に構築することもできます。社内のチームが社内用の MaaS ソリューションを開発し、配布・運用化することも可能です。 

自社のニーズに合ったモデルサービスを作成することは重要ですが、それは自社で開発する際の多くの考慮事項のうちの、最初のステップに過ぎません。開発を始める前に検討すべき要素としては、他に以下のようなものがあります。 

  • データ収集プロセス:トレーニングデータが高品質であることをどのように保証するのか、個人データをどのように保護するか。
  • リソース管理:MaaS と GPU の作成、構築、管理は誰が担当するのか。
  • 信頼できるインフラストラクチャ: お使いのインフラストラクチャは、新しい AI モデルをサポートできるほど信頼性の高いものか。モデルの作成後、そのメリットを享受できるリソースはあるか。 

開発を始める前にこれらの質問に答えておくことが、成功するための基盤を築くのに役立つでしょう。 

MaaS をビジネスに導入すべきタイミングとは

MaaS は、モデルへのアクセスを容易にするために極めて役立つツールです。しかし、推論がうまく機能していないなら、MaaS を使用しても、求める動作をしないモデルにアクセスしているだけです。

推論は生成 AI の中核です。しかし、モデルが必要とするデータとメモリーが増えてくると、ハードウェアとアクセラレーターはそれに対応しきれなくなります。そして、エンタープライズレベルの戦略を実行するために巨大なモデルが必要になると、状況が複雑になる可能性があります。つまり AI 戦略の成否は、推論機能をサポートするハードウェアとソフトウェアによって決まることになります。

推論機能に信頼性があれば、MaaS のような有用なツールやシステムに投資して、推論能力をさらに強化することができます。 


AI 推論を重視すべき理由

Red Hat® AI は、Red Hat のお客様の信頼を得ているソリューションに基づいて構築された AI 製品のプラットフォームです。Red Hat AI は、組織に次のようなメリットをもたらします。

  • AI を迅速に導入してイノベーションを実現する
  • AI ソリューションの提供における複雑さを解消できる
  • ハイブリッドクラウド全体にデプロイできる

Red Hat AI の詳細 

Red Hat OpenShift® AI は Red Hat AI に含まれています。クラウド、エッジ、オンプレミスで MaaS をサポートする、柔軟でコスト効率の高い AI プラットフォームを提供します。 

Red Hat OpenShift AI は、組織に次のようなメリットをもたらします。

  • データ取り込み、モデルトレーニング、モデル提供、および可観測性のワークフローを効率化し、チーム間のコラボレーションを強化する
  • 組み込みの認証とロールベースのアクセス制御により、セキュリティを強化する
  • モデルがエアギャップ環境や切断された環境にある場合でも、プライベートデータを保護できる
  • 柔軟な API ゲートウェイにより、クラウドでもオンプレミスでもビジネスのあらゆる領域にアクセスできる
  • 包括的なモデルガバナンスと AI ガードレールにより、モデルのバイアスやドリフトを回避できる

Red Hat OpenShift AI の詳細 

ブログ

Artificial Intelligence (AI)

See how our platforms free customers to run AI workloads and models anywhere

Red Hat で AI をナビゲート:AI 導入に役立つ専門知識、トレーニング、サポート

Red Hat の独自の AI ポートフォリオをご覧ください。Red Hat AI は、人工知能 (AI) を活用してお客様のビジネスおよび IT の目標を達成するお手伝いをします。

関連情報

予測分析とは?をわかりやすく解説

現在と過去のデータを分析し、将来のイベントを予測する手法。機械学習、統計モデリング、データマイニング等による傾向、行動、成果、ビジネス機会の特定を支援します。

"ディープラーニングとは?をわかりやすく解説 "

ディープラーニング (深層学習) とは、人間の知識の獲得方法を模して開発されたアルゴリズムを使い、データから特徴を抽出するようコンピュータに学習させる AI 技法です。

インテリジェント・アプリケーションとは?をわかりやすく解説

人工知能(AI)を組み込んで人間のワークフローを補強するソフトウェア・アプリケーション。特定のビジネス課題に AI を適用し、データを利用して効率的に問題を解決します。

AI/MLリソース

関連記事