モデル・コンテキスト・プロトコル (MCP) とは

URL をコピー

モデル・コンテキスト・プロトコル (MCP) は、AI アプリケーションと外部サービス間の双方向接続と標準化された通信を可能にするオープンソース・プロトコルです。オープンソース・プロトコルは、一連の指示であり、自由に使用したり貢献したりできるコードのレシピのようなものです。

MCP は、AI システムがさまざまなデータソースやツールに仮想的に「プラグイン」するためのシンプルで信頼性の高い方法を提供します。MCP は、デバイスをアクセサリーに接続してデータを転送できる USB-C ケーブルのようなものです。 

Red Hat AI の詳細

MCP が登場する以前、開発者は特定のユースケースのためにカスタムのアプリケーション・プログラミング・インタフェース (API) 統合を作成する必要がありました。つまり、同じ統合をわずかに異なる方法で何度も書き換えていたわけです。AI アプリケーションと外部サービス間の接続はそれぞれ個別に構築されていたため、非常に時間がかかっていました。

MCP により、開発者は標準化された単一のプロトコルを使用して AI アプリケーションを外部サービスに接続できます。MCP は API を置き換えるものではなく、API 上で通信を標準化するものです。これにより、大規模言語モデル (LLM) を使用して複雑な AI ワークフローを構築し、これらのモデルを実世界のデータと接続することが容易になります。

MCP は検索拡張生成 (RAG) などの従来の手法を補完し、組織が既存のシステムやワークフロー内にエージェント型 AI をデプロイするために必要なセキュリティ制御とインタフェースを提供します。 

AI テクノロジーの導入に関する 4 つのキーポイント

MCP は、クライアントホストサーバー・モデル (クライアントサーバー・モデルとも呼ばれる) に基づいており、このモデルには以下が含まれます。

  • MCP クライアント:外部データやリソースへのアクセスを要求する AI アプリケーションまたはシステム
  • MCP ホスト:クライアントとサーバー間の通信を管理するインフラストラクチャ (仮想マシン、コンテナ、またはサーバーレス機能)
  • MCP サーバー:特定のツール、リソース、機能をクライアントに提供するコンポーネント

MCP はハンドシェイクプロトコルで始まります。この最初の「挨拶」は機能検出とも呼ばれ、MCP クライアントと MCP サーバーが相互に通信できることを確認します。 

ハンドシェイクプロトコル中に MCP クライアントと MCP サーバーは重要な情報を交換して、互換性を確認します。クライアントは、利用可能な機能と理解できる MCP のバージョンを共有します。これに対してサーバーは、サポートする機能、およびクライアントに提供できるツールやリソースを共有します。

この最初の挨拶が完了すると、作業関係を始められるようになります。 

コンテキストについて

MCP の「M」は言語モデルを指し、「P」は標準化された通信プロトコルを指します。では次に、「C」が表すコンテキストについて見ていきましょう。

MCP の領域においてコンテキストは、モデルがアクセスできる、関連するタスク固有の情報を指します。コンテキストウィンドウとは、モデルが応答を生成する際にアクセスできる情報の量を指します。 

MCP が登場する前、AI アプリケーションはコンテキストウィンドウに多くの情報を保持する必要がありました。中には無関係な情報もあり、コンテキストウィンドウのスペースが無駄に埋め尽くされ、ハルシネーションが生じました。MCP を使用すると、アプリケーションはより効率的にツールやサービスと通信できるようになり、関連性のない情報を保持するのではなく、必要な情報を正確に要求できるようになります。 

関連性のある適切なコンテキストがあれば、モデルは会話の以前の部分の記憶から、より正確な結果を返し、複数の情報間の関連付けをより適切に行うことができます。MCP により、クライアントは関連データをメモリーに保存でき、リクエストの完了に役立てることができます。このプロセスは動的検出と呼ばれます。 

動的検出は機能検出ステージの後に行われ、クライアントとサーバーが連携してユーザーの問題を解決できるようにします。このような関連データの共有と分析により、モデルにコンテキストがもたらされ、AI アプリケーションが柔軟かつ独立して動作できるようになります。

MCP サーバーは、MCP クライアントにコンテキストを提供する上で重要な役割を果たします。MCP サーバーのさまざまな種類を理解することで、どのような統合が可能か、また、AI ワークフローをどのように構成すべきかを理解できます。

ローカルデータソース:これらのサーバーは、ファイル、ローカルデータベース、アプリケーションなど、コンピュータに保存されている情報に接続します。 

リモートサービス:これらのサーバーは、インターネットを介して、クラウドデータベースや Web ベースのツールなどの外部サービスに接続します。 

公式統合:これらのサーバーは、保証された品質とサポートを備えたよく使用されるサービスへの接続を提供するために事前構築されています。 

コミュニティサーバー:開発者はこれらのサーバーを構築し、開発者コミュニティ内でオープンに共有します。 

リファレンスサーバー:これらのサーバーは、ベストプラクティスを示すことでテンプレートや学習ツールとして機能します。

MCP と AI 推論には直接的な関連性はありませんが、使用する AI ツールの複雑さに応じて、相互に依存するプロセスになります。

これまで説明したように、MCP は、AI をツール、データ、外部リソースと接続し、その目的を果たせるようにするものです。一方、推論は、望ましい出力を提供するためにプロンプトを処理し、トークンを生成するモデルです。MCP は、推論中に使用してモデルに情報を提供できますが、推論の効率を向上させたり、モデルのアーキテクチャに影響を与えたりすることはありません。

だからこそ、推論を忘れないことが重要です。簡単に言うと、推論を使わない AI は存在しないからです。また、エンタープライズレベルの戦略の実行に大きなモデルが必要になった場合、状況が複雑になる可能性があります。つまり AI 戦略の成否は、推論機能をサポートするハードウェアとソフトウェアによって決まることになります。

AI 推論を重視すべき理由

MCP サーバーにより、データや情報の活用がかつてないほど便利になります。しかし、どのようにして MCP サーバー上のデータを保護できるのか、という疑問も生じます。

権限とセキュリティポリシーは、MCP サーバーがアクセスできる対象と実行が許可される操作を規制します。MCP は OAuth (ユーザーアクセスを認証する) などの組み込みセキュリティ機能に加え、クライアントとサーバー間の暗号化された接続を提供します。

ただし、開発者は独自のセキュリティ対策も実装する必要があります。ベストプラクティスには以下のようなものがあります。

  • 機能するために必要な最小限のアクセスのみを MCP サーバーに提供します。これは最小権限の原則 (PoLP) とも呼ばれています。このサイバーセキュリティの概念は、不正なユーザー、エラー、または攻撃による潜在的な損害を軽減することを目的としています。
  • 各サーバーがアクセスできる対象を定期的に見直し、どのサーバーにも不要な権限や過剰な権限がないことを確認します。
  • MCP 接続を許可するときに、何にアクセス権を付与するのかを (ユーザーとして) 把握します。
  • 信頼できる MCP サーバーのみを使用します。

MCP のセキュリティリスクと管理についての詳細を読む

エージェント型 AI は、人間の介入を最小限に抑えながらデータやツールと対話するソフトウェアシステムです。エージェント型 AI では目標指向の動作に重点が置かれており、手順のリストを作成してそれを自律的に実行することでタスクを達成します。

MCP とエージェント型 AI は相互に補完し合い、インテリジェントな AI システムの構築を可能にします。MCP により、AI システムはより広範なデジタルエコシステムと連携して、ユーザーのタスクを実行することができます。MCP がなくてもエージェント型 AI は思考して計画を立てることはできますが (生成 AI の特性として)、外部システムと対話することはできません。 

エージェント型 AI についてさらに詳しく

Red Hat は、Red Hat® OpenShift® AI と統合できる MCP サーバーを厳選してコレクションにまとめました。これは製品の AI スイートに含まれています。 

Red Hat OpenShift AI を使用する AI エンジニアは、これらの MCP サーバーを利用して、エンタープライズツールおよびリソースを AI アプリケーションやエージェント型ワークフローに統合できます。

MCP サーバーコレクションの詳細を見る →

Red Hat AI により、AI エンジニアやデータサイエンティストはモデルの応答の精度、速度、関連性を向上させることができます。Red Hat AI は、モデルをデータに接続して効率的なモデルのカスタマイズを行うことで、組織が AI アプリケーションを大規模に開発およびデプロイできるように支援します。 

Red Hat AI のコア・プラットフォーム・サービスにより、組織は一貫性のある反復可能なプロセスを構築し、AI エージェントのプロダクション環境へのデプロイを単純化できます。

Red Hat AI の詳細

ブログ

Artificial Intelligence (AI)

See how our platforms free customers to run AI workloads and models anywhere

Red Hat で AI をナビゲート:AI 導入に役立つ専門知識、トレーニング、サポート

Red Hat の独自の AI ポートフォリオをご覧ください。Red Hat AI は、人工知能 (AI) を活用してお客様のビジネスおよび IT の目標を達成するお手伝いをします。

関連情報

AI インフラストラクチャとは?をわかりやすく解説

AI インフラストラクチャは、人工知能と機械学習(AI/ML)テクノロジーを組み合わせ、信頼性と拡張性のあるデータ・ソリューションを開発し、デプロイするための構造です。

予測 AI と生成 AI とは?をわかりやすく解説

生成AI(データを使用して新しいものを作成)と予測型AI(起こり得ることを高い確率で予測/推測)は、共に人間の知能を拡張して問題解決をサポートする機械学習システムです。

LoRA とQLoRA とは?をわかりやすく解説

LoRA(低ランク適応)とQLoRA(量子化低ランク適応)は共にリソース効率の高いAI モデルのトレーニング技法で、高パラメーター効率ファインチューニング(PEFT)の一形態です。

AI/MLリソース

注目の製品

  • Red Hat AI

    ハイブリッドクラウド環境全体で AI ソリューションの開発とデプロイメントを加速させる柔軟なソリューション。

関連記事