Le protocole MCP (Model Context Protocol), qu'est-ce que c'est ?

Copier l'URL

Le protocole MCP (Model Context Protocol) est un protocole Open Source qui permet une connexion bidirectionnelle et une communication standardisée entre des applications d'IA et des services externes. Un protocole, ou ensemble d'instructions Open Source, s'apparente à une recette de code libre d'utilisation, à laquelle chacun peut contribuer.

Le protocole MCP permet aux systèmes d'IA de se connecter virtuellement à différents outils et sources de données, de manière simple et fiable. Il fonctionne comme un câble USB-C qui relie des appareils à différents accessoires et qui permet la transmission de données. 

Découvrir Red Hat AI

Avant l'invention du protocole MCP, les équipes de développement devaient créer des intégrations d'API personnalisées pour chaque cas d'utilisation spécifique. Autrement dit, elles réécrivaient les mêmes intégrations plusieurs fois de manière légèrement différente. Chaque connexion entre une application d'IA et un service externe était faite sur mesure, ce qui prenait beaucoup de temps.

Le protocole MCP permet aux équipes de développement d'utiliser un protocole unique et standardisé pour connecter une application d'IA à un service externe. Il ne remplace pas les API, mais ajoute une couche de standardisation de la communication par-dessus celles-ci. Ce protocole facilite ainsi la création des workflows d'IA complexes avec de grands modèles de langage (LLM) et leur connexion à des données réelles.

Le protocole MCP complète les méthodes traditionnelles, telles que la génération augmentée de récupération, et fournit des contrôles et des interfaces de sécurité nécessaires aux entreprises pour déployer l'IA agentique au sein de leurs systèmes et workflows existants. 

4 principes clés à prendre en compte pour mettre en œuvre des technologies d'IA

Le protocole MCP se base sur le modèle client-hôte-serveur, ou modèle client-serveur, qui comprend les éléments suivants :

  • Client MCP : application ou système d'IA qui demande l'accès à des données ou ressources externes.
  • Hôte MCP : infrastructure (machine virtuelle, conteneur ou fonction serverless) qui gère la communication entre le client et le serveur.
  • Serveur MCP : composant qui fournit des outils, ressources et fonctionnalités spécifiques au client.

Le processus de communication commence par un protocole d'établissement de liaison. Ce premier contact (ou découverte des fonctionnalités) sert à confirmer que le client MCP et le serveur MCP peuvent communiquer entre eux. 

Au cours de cette étape initiale, le client et le serveur échangent des informations essentielles pour garantir leur compatibilité. Le client partage les fonctionnalités dont il dispose et la version du protocole MCP qu'il comprend. En retour, le serveur indique les fonctionnalités qu'il prend en charge ainsi que les outils et ressources qu'il peut fournir au client.

Une fois la liaison établie, le travail peut commencer. 

Importance du contexte

Dans le sigle MCP, la lettre M fait clairement référence aux modèles de langage et la lettre P, à un protocole de communication standardisé. Pour la lettre C, qui correspond au contexte, une explication s'impose.

Le contexte fait ici référence aux informations pertinentes propres à une tâche auxquelles un modèle a accès. La fenêtre de contexte correspond à la quantité d'informations auxquelles un modèle a accès lorsqu'il génère une réponse. 

Avant la mise en place du protocole MCP, les applications d'IA devaient retenir de nombreuses informations. Certaines d'entre elles n'étaient pas pertinentes et encombraient la fenêtre de contexte, provoquant des hallucinations. Grâce au protocole MCP, l'application peut communiquer plus efficacement avec les outils et services. Elle demande exactement ce dont elle a besoin au lieu de conserver des informations non pertinentes. 

Avec un contexte pertinent et adéquat, les modèles sont capables de mémoriser un historique de la conversation, de fournir des résultats plus précis et d'établir de meilleurs liens entre certaines informations. Le protocole MCP permet au client de stocker les données pertinentes dans sa mémoire pour traiter les demandes. C'est le processus de découverte dynamique. 

La découverte dynamique intervient après la découverte des fonctionnalités et permet au client et au serveur de résoudre de manière collaborative les problèmes posés par l'utilisateur. C'est cette capacité de partage et d'analyse des données pertinentes qui fournit du contexte au modèle. Les applications d'IA peuvent ainsi agir de manière flexible et indépendante.

Les serveurs MCP jouent un rôle essentiel en fournissant du contexte au client MCP. La maîtrise des différents types de serveurs MCP permet de mieux comprendre les possibilités d'intégration et la façon de structurer un workflow d'IA.

Sources de données locales : ces serveurs se connectent aux informations stockées sur l'ordinateur, y compris les fichiers, les bases de données locales et les applications. 

Services distants : ces serveurs se connectent à des services externes par Internet, y compris les bases de données dans le cloud et les outils basés sur le Web. 

Intégrations officielles : les entreprises préconfigurent ces serveurs pour proposer des connexions à des services fréquemment utilisés, dont la qualité et l'assistance sont garanties. 

Serveurs communautaires : les développeurs créent ces serveurs et les partagent ouvertement au sein de leur communauté. 

Serveurs de référence : ces serveurs font office de modèles et d'outils d'apprentissage en présentant les meilleures pratiques.

Avec les serveurs MCP, l'exploitation des données et des informations est plus pratique que jamais. Il ne faut pas pour autant oublier de protéger les données stockées sur ces serveurs.

Les autorisations et les politiques de sécurité régissent les accès des serveurs MCP ainsi que les actions qu'ils sont autorisés à effectuer. Le protocole MCP intègre des fonctions de sécurité telles qu'OAuth (pour authentifier l'accès des utilisateurs), ainsi que des connexions chiffrées entre le client et le serveur.

Les équipes de développement doivent toutefois également mettre en œuvre leurs propres mesures de sécurité. Voici quelques meilleures pratiques :

  • Fournir aux serveurs MCP l'accès minimal requis pour assurer leur fonctionnement, autrement dit, appliquer le principe de moindre privilège (ce concept de cybersécurité vise à réduire les dommages potentiels causés par des utilisateurs non autorisés, des erreurs ou des attaques)
  • Examiner régulièrement les éléments auxquels chaque serveur a accès et vérifier qu'aucun des serveurs ne dispose d'autorisations inutiles ou excessives
  • Comprendre les accès accordés lors de l'autorisation d'une connexion MCP
  • Utiliser uniquement des serveurs MCP de confiance

En savoir plus sur les risques et contrôles relatifs à la sécurité du protocole MCP

L'IA agentique est un système logiciel qui interagit avec les données et les outils sans intervention humaine, ou presque. Elle privilégie un comportement axé sur les objectifs et accomplit des tâches en établissant une liste d'étapes nécessaires et en les suivant de façon autonome.

Ensemble, le protocole MCP et l'IA agentique peuvent créer des systèmes d'IA intelligents. Grâce au protocole MCP, les systèmes d'IA peuvent interagir avec l'ensemble de l'écosystème numérique pour effectuer les tâches demandées par les utilisateurs. Sans lui, l'IA agentique est capable de réfléchir et d'élaborer des plans (caractéristiques typiques de l'IA générative), mais pas d'interagir avec des systèmes extérieurs. 

En savoir plus sur l'IA agentique 

Chez Red Hat®, nous avons identifié une sélection de serveurs MCP qui s'intègrent à Red Hat OpenShift® AI, produit de la gamme Red Hat AI. 

Les équipes d'ingénierie de l'IA qui utilisent Red Hat OpenShift AI peuvent tirer parti de ces serveurs MCP pour intégrer des outils et ressources d'entreprise à leurs applications d'IA et workflows agentiques.

Parcourir la sélection de serveurs MCP → 

L'offre Red Hat AI permet aux équipes d'ingénierie de l'IA et de science des données d'améliorer la précision, la rapidité et la pertinence des réponses fournies par les modèles. En reliant les modèles aux données pour améliorer la personnalisation, cette gamme de produits aide les entreprises à développer et déployer des applications d'IA à grande échelle. 

Les services de plateforme de base de Red Hat AI permettent aux entreprises de créer des processus cohérents et reproductibles, simplifiant ainsi le déploiement d'agents IA dans les environnements de production.

Découvrir Red Hat AI

Ressource

Se lancer avec l'IA en entreprise : guide pour les débutants

Consultez ce guide pour les débutants afin de savoir comment les solutions Red Hat OpenShift AI et Red Hat Enterprise Linux AI peuvent accélérer votre parcours d'adoption de l'IA.

Déployez l'IA avec Red Hat : bénéficiez de notre expertise, de nos formations et de notre assistance

Découvrez notre gamme unique de solutions d'IA. Red Hat AI peut vous aider à atteindre vos objectifs métier et informatiques grâce à l'intelligence artificielle.

En savoir plus

Les petits modèles de langage, qu'est-ce que c'est ?

Version réduite d'un grand modèle de langage (LLM), le petit modèle de langage (SLM) repose sur des connaissances plus spécialisées et offre aux équipes une personnalisation plus rapide ainsi qu'une efficacité d'exécution accrue.

Les modèles Granite, qu'est-ce que c'est ?

Les modèles Granite d'IBM correspondent à de grands modèles de langage créés pour les applications d'entreprise. Ils peuvent prendre en charge les cas d'utilisation de l'intelligence artificielle générative qui reposent sur un langage spécifique et du code.

L'inférence distribuée, qu'est-ce que c'est ?

L'inférence distribuée est une approche qui permet aux modèles d'IA de traiter les charges de travail plus efficacement en répartissant les tâches liées à l'inférence entre plusieurs équipements interconnectés.

IA/ML : ressources recommandées

Produit recommandé

  • Red Hat AI

    Des solutions flexibles qui accélèrent le développement et le déploiement de solutions d'IA dans les environnements de cloud hybride.

Articles associés