Cos'è il Model Context Protocol (MCP)?

Copia URL

Il Model Context Protocol (MCP) è un protocollo open source che consente la connessione bidirezionale e la comunicazione standardizzata tra le applicazioni di IA e i servizi esterni. Un protocollo open source, o un insieme di istruzioni, è come una ricetta per il codice ed è liberamente accessibile, utilizzabile e chiunque può apportare il proprio contributo.

MCP offre un modo semplice e affidabile per "collegare" i sistemi di IA virtualmente a diverse sorgenti di dati e strumenti. Immagina l'MCP come un cavo USB-C che collega i dispositivi agli accessori e consente la trasmissione dei dati. 

Scopri Red Hat AI

Prima dell'MCP, gli sviluppatori dovevano creare integrazioni dell'interfaccia di programmazione delle applicazioni (API) personalizzate per scenari di utilizzo specifici. Ciò significava riscrivere le stesse integrazioni molte volte in modi leggermente diversi. Ogni connessione tra un'applicazione di IA e un servizio esterno era realizzata su misura, il che era dispendioso.

Con l’MCP, gli sviluppatori possono utilizzare un unico protocollo standardizzato per connettere un'applicazione di IA a un servizio esterno. L’MCP non sostituisce le API, ma standardizza la comunicazione in base alle API. Ciò semplifica la creazione di flussi di lavoro di IA complessi con modelli linguistici di grandi dimensioni (LLM) e la connessione di tali modelli ai dati del mondo reale.

L’MCP integra i metodi tradizionali come la retrieval augmented generation (RAG) e fornisce i controlli di sicurezza e le interfacce necessarie alle organizzazioni per adottare l’Agentic AI nei sistemi e nei flussi di lavoro esistenti. 

4 elementi chiave da considerare per l'implementazione dell'IA

L’MCP si basa sul modello client-host-server, noto anche come modello client-server, che include:

  • Client MCP: l'applicazione o il sistema di IA che richiede l'accesso a dati o risorse esterni.
  • Host MCP: l'infrastruttura (macchina virtuale, container o funzione serverless) che gestisce la comunicazione tra il client e il server.
  • Server MCP: il componente che fornisce strumenti, risorse e funzionalità specifiche al client.

L’MCP inizia con un protocollo di handshake. Questa prima interazione, nota anche come rilevamento delle capacità, conferma che il client MCP e il server MCP possono comunicare tra loro. 

Durante il protocollo di handshake, il client MCP e il server MCP si scambiano le informazioni necessarie a verificare la loro compatibilità. Il client condivide le funzionalità di cui dispone e la versione di MCP che è in grado di comprendere. A sua volta, il server condivide le funzionalità supportate e gli strumenti e le risorse che può fornire al client.

Una volta completato questo primo approccio, possono prendere l’avvio le interazioni successive. 

Cos’è il contesto

"M" si riferisce ai modellilinguistici e "P" a un protocollodi comunicazione standardizzato. Nel caso dell’MCP, la "C" indica il contesto.

Nell'ambito dell'MCP, il contesto si riferisce alle informazioni pertinenti e specifiche dell'attività a cui un modello ha accesso. Una finestra di contesto si riferisce alla quantità di informazioni a cui un modello può accedere mentre genera una risposta. 

Prima dell'MCP, le applicazioni di IA dovevano memorizzare molte informazioni nella loro finestra di contesto. Alcune di queste informazioni erano irrilevanti e occupavano inutilmente lo spazio nella finestra di contesto, causando allucinazioni. Con l’MCP, l'applicazione può comunicare con strumenti e servizi in modo più efficace, chiedendo esattamente ciò di cui ha bisogno invece di conservare informazioni irrilevanti. 

Con un contesto adeguato e pertinente, i modelli possono memorizzare le parti precedenti della conversazione, fornire risultati più precisi e stabilire connessioni migliori tra le informazioni. L’MCP consente al client di archiviare in memoria i dati pertinenti a completare la richiesta. Questo processo prende il nome di rilevamento dinamico. 

Il rilevamento dinamico, che segue la fase di rilevamento delle capacità, consente a client e server di risolvere i problemi dell'utente in modo collaborativo. La capacità di condividere e analizzare i dati pertinenti fornisce un contesto al modello, consentendo alle applicazioni di IA di agire in modo flessibile e indipendente.

I server MCP svolgono un ruolo fondamentale nel fornire il contesto al client MCP. Comprendere i diversi tipi di server MCP aiuta a capire quali integrazioni sono possibili e come strutturare il flusso di lavoro dell'IA.

Sorgenti di dati locali. Questi server si connettono alle informazioni archiviate nel computer dell'utente, inclusi file, database locali o applicazioni. 

Servizi remoti. Questi server si connettono a servizi esterni tramite Internet, inclusi database cloud e strumenti basati sul web. 

Integrazioni ufficiali. Le organizzazioni preconfigurano questi server per offrire connessioni ai servizi più diffusi con qualità e supporto garantiti. 

Server della community. Gli sviluppatori creano questi server e li condividono con approccio open source all'interno della community di sviluppatori. 

Server di riferimento. Questi server fungono da modelli e strumenti di apprendimento mostrando le best practice.

MCP e inferenza IA non sono direttamente correlate, ma sono processi che possono dipendere l'uno dall'altro, a seconda della complessità dello strumento di IA in uso.

Come abbiamo letto finora, l'MCP si basa sulla connessione dell'IA con strumenti, dati e risorse esterne per svolgere il proprio lavoro. L'inferenza è invece il modello che elabora i prompt e genera i token per fornire l'output desiderato. L'MCP può essere utilizzato durante l'inferenza per informare il modello, ma non rende l'inferenza più efficiente né influisce sull'architettura del modello.

Ecco perché è importante non dimenticare l'inferenza. Perché, in poche parole, non esiste IA senza inferenza. E quando sono necessari modelli di grandi dimensioni per l'esecuzione di strategie di livello enterprise, le cose possono complicarsi. Ecco perché l'hardware e il software che supportano le capacità di inferenza possono determinare il successo o il fallimento della strategia di IA.

I vantaggi dell'inferenza IA

I server MCP rendono l'acquisizione di dati e informazioni più semplice che mai. Ma questo solleva la domanda: come possiamo proteggere i dati sui nostri server MCP?

Le autorizzazioni e i criteri di sicurezza regolano gli accessi e le attività consentite ai server MCP. L’MCP offre funzionalità di sicurezza integrate come OAuth (per autenticare l'accesso degli utenti) e connessioni crittografate tra client e server.

Tuttavia, è consigliabile che gli sviluppatori implementino misure di sicurezza aggiuntive. Tra le best practice troviamo:

  • Fornire ai server MCP solo l'accesso minimo necessario per funzionare, noto anche come principio del privilegio minimo (PoLP). Questo concetto di sicurezza informatica mira a ridurre i potenziali danni causati da utenti non autorizzati, errori o attacchi.
  • Rivedere periodicamente a cosa può accedere ciascun server e assicurarsi che nessuno dei server disponga di autorizzazioni non necessarie o eccessive.
  • Comprendere (come utente) a cosa si concede l'accesso quando si autorizza una connessione MCP.
  • Utilizzare solo server MCP affidabili.

Scopri di più sui controlli e sui rischi per la sicurezza dell'MCP 

L’Agentic AI è un software che interagisce con dati e strumenti in modo tale da richiedere il minimo intervento da parte dell'utente. Pensato per realizzare obiettivi specifici, Agentic AI è in grado di svolgere attività autonomamente, scomponendole in passaggi più semplici ed eseguendole senza bisogno di input da parte dell'utente.

MCP e Agentic AI interagiscono tra loro per creare sistemi di IA intelligenti. Con L’MCP, i sistemi di IA possono interagire con l'ecosistema digitale più ampio per svolgere le attività per conto degli utenti. Senza l’MCP, l’Agentic AI può ragionare e pianificare (tutte caratteristiche dell'IA generativa), ma non può interagire con nessun sistema esterno. 

Scopri di più sull’Agentic AI 

Red Hat ha identificato una raccolta di server MCP che si integrano con Red Hat® OpenShift® AI, inclusa nella nostra suite di prodotti per l'IA

Gli ingegneri dell'IA che utilizzano Red Hat OpenShift AI possono sfruttare questi server MCP per integrare strumenti e risorse aziendali nelle applicazioni di IA e nei flussi di lavoro Agentic.

Esplora la raccolta di server MCP → 

Red Hat AI consente a data scientist e ingegneri dell'IA di migliorare l'accuratezza, la velocità e la pertinenza delle risposte dei modelli. Connettendo i modelli ai dati per una personalizzazione efficiente dei modelli, Red Hat AI aiuta le organizzazioni a sviluppare e adottare applicazioni di IA in modo scalabile. 

I servizi della piattaforma principale di Red Hat AI consentono alle organizzazioni di creare processi coerenti e ripetibili, semplificando l'adozione degli agenti IA negli ambienti di produzione.

Scopri Red Hat AI

Blog

Artificial Intelligence (AI)

See how our platforms free customers to run AI workloads and models anywhere

Adotta l'IA con Red Hat: Consulenza, formazione e supporto per ogni fase del percorso

Scopri l'offerta unica di soluzioni di IA di Red Hat La gamma completa di soluzioni di IA proposta da Red Hat aiuta le aziende a distribuire l'IA in maniera efficace per raggiungere gli obiettivi aziendali e IT prefissati.

Continua a leggere

Cos'è llm-d?

llm-d è un framework open source nativo di Kubernetes che accelera l'inferenza LLM distribuita in modo scalabile.

SLM e LLM a confronto: cosa sono i modelli linguistici di piccole dimensioni?

Un modello linguistico di piccole dimensioni (SLM) è una versione ridotta di un modello linguistico di grandi dimensioni (LLM) che dispone di conoscenze più specializzate, è più veloce da personalizzare e più efficiente da eseguire.

Cos'è l'agentic AI?

L'Agentic AI è un software progettato per interagire con dati e strumenti in modo tale da richiedere il minimo intervento da parte dell'utente.

AI/ML: risorse consigliate

Prodotto in evidenza

  • Red Hat AI

    Soluzioni flessibili che accelerano lo sviluppo e il deployment delle soluzioni di IA negli ambienti hybrid cloud.

Articoli correlati