O que é Model Context Protocol (MCP)?

Copiar URL

O Model Context Protocol (MCP) é um protocolo open source que viabiliza a conexão bidirecional e a comunicação padronizada entre aplicações de IA e serviços externos. Um protocolo open source é um conjunto de instruções padronizadas, disponível publicamente para uso, modificação e contribuição por qualquer pessoa.

O MCP oferece uma forma simplificada e confiável para que sistemas de IA se “conectem” virtualmente a diferentes fontes de dados e ferramentas. Pense no MCP como um cabo USB-C que conecta dispositivos a acessórios e permite a transmissão de dados. 

Conheça o Red Hat AI

Antes do MCP, os desenvolvedores precisavam criar integrações de interfaces de programação de aplicações (API) personalizadas para casos de uso específicos. Isso fazia com que as mesmas integrações precisassem ser reescritas diversas vezes, com variações mínimas. Cada conexão entre uma aplicação de IA e um serviço externo era feita sob medida, o que demandava muito tempo.

Com o MCP, os desenvolvedores podem usar um único protocolo padronizado para conectar aplicações de IA a serviços externos. O MCP não substitui as APIs. Ele padroniza a comunicação utilizando as APIs como base. Isso facilita a criação de fluxos de trabalho de IA complexos com Large Language Models (LLMs) e a conexão desses modelos com dados reais.

O MCP complementa os métodos tradicionais, como a Geração Aumentada de Recuperação (RAG). Além disso, também oferece às organizações os controles de segurança e as interfaces necessárias à implantação da Agentic AI em seus sistemas e fluxos de trabalho. 

Quatro considerações importantes sobre a implementação da tecnologia de IA

O MCP é baseado no modelo cliente-host-servidor, também conhecido como modelo cliente-servidor, que inclui:

  • Cliente MCP: aplicação ou sistema de IA que solicita o acesso a dados ou recursos externos.
  • Host MCP: infraestrutura (máquina virtual, container ou função serverless) que gerencia a comunicação entre o cliente e o servidor.
  • Servidor MCP: componente que fornece ferramentas, recursos e funcionalidades específicos para o cliente.

O MCP começa com um protocolo de handshake. Essa saudação inicial, também chamada de descoberta de recursos, confirma que o cliente e o servidor MCP conseguem se comunicar. 

Durante o protocolo de handshake, o cliente e o servidor MCP trocam informações essenciais para garantir que sejam compatíveis. O cliente compartilha os recursos que possui e qual versão do MCP ele entende. Em troca, o servidor compartilha para quais recursos ele oferece suporte e quais ferramentas e recursos ele pode fornecer ao cliente.

Após essa troca inicial, a interação entre cliente e servidor pode começar de fato. 

Vamos falar sobre contexto

Se o “M” se refere a modelos de linguagem e o “P” a um protocolo de comunicação padronizado, é hora de falar sobre o “C” no MCP: o contexto.

No âmbito do MCP, contexto se refere às informações específicas e relevantes sobre tarefa às quais um modelo tem acesso. Uma janela de contexto define quanta informação o modelo consegue acessar enquanto gera uma resposta. 

Antes do MCP, as aplicações de IA precisavam manter muitas informações na janela de contexto. Parte dessas informações era irrelevante e ocupava espaço na janela de contexto, o que levava a alucinações. Com o MCP, a aplicação pode se comunicar com ferramentas e serviços de forma mais eficaz, solicitando exatamente o que precisa, em vez de reter informações irrelevantes. 

Com um contexto relevante e adequado, os modelos podem lembrar partes anteriores da conversa, fornecer resultados mais precisos e criar conexões melhores entre as informações. O MCP permite que o cliente armazene dados relevantes em sua memória para ajudar a concluir a solicitação. Esse processo é chamado de descoberta dinâmica. 

A descoberta dinâmica, que ocorre após a etapa de descoberta de recursos, permite que o cliente e o servidor resolvam problemas para o usuário de maneira colaborativa. Essa capacidade de compartilhar e analisar dados relevantes contextualiza o modelo, permitindo que as aplicações de IA atuem com flexibilidade e independência.

Os servidores MCP desempenham uma função fundamental ao fornecer contexto para o cliente MCP. Compreender os diferentes tipos de servidores MCP ajuda a identificar quais integrações são possíveis e como estruturar o fluxo de trabalho da sua IA.

Fontes de dados locais. Esses servidores se conectam às informações armazenadas no seu computador, incluindo arquivos, bancos de dados locais ou aplicativos. 

Serviços remotos. Esses servidores se conectam a serviços externos pela internet, incluindo bancos de dados na nuvem e ferramentas web. 

Integrações oficiais. As organizações configuram previamente esses servidores para oferecer conexões com serviços populares, com garantia de qualidade e suporte. 

Servidores da comunidade. Esses servidores são criados e compartilhados abertamente dentro da comunidade de desenvolvedores. 

Servidores de referência. Esses servidores funcionam como referência e ferramentas de aprendizado, pois mostram as práticas recomendadas.

Servidores MCP tornam o acesso a dados e informações mais prático do que nunca. Mas isso levanta uma questão: como manter os dados protegidos nos servidores MCP?

Permissões e políticas de segurança regulam o que os servidores MCP podem acessar e quais ações estão autorizados a executar. O MCP oferece funcionalidades de segurança integradas, como o OAuth (para autenticar o acesso do usuário), além de conexões criptografadas entre o cliente e o servidor.

No entanto, os desenvolvedores também devem implementar suas próprias medidas de segurança. As práticas recomendadas incluem:

  • Fornecer aos servidores MCP apenas o acesso mínimo necessário para funcionar, também conhecido como o princípio do privilégio mínimo (PoLP). Esse conceito de cibersegurança tem como objetivo reduzir possíveis danos causados por usuários não autorizados, erros ou ataques.
  • Revisar periodicamente o que cada servidor pode acessar e garantir que nenhum deles tenha permissões desnecessárias ou excessivas.
  • Entender, como usuário, o que está sendo autorizado no momento em que você permite uma conexão MCP.
  • Usar apenas servidores MCP confiáveis.

Leia mais sobre os riscos e controles de segurança do MCP

A Agentic AI é um sistema de software que interage com dados e ferramentas, exigindo o mínimo de intervenção humana. Com foco no comportamento orientado a objetivos, a Agentic AI realiza tarefas criando uma lista de etapas e as executando com autonomia.

O MCP e a Agentic AI funcionam juntos para criar sistemas de IA inteligentes. Com o MCP, sistemas de IA podem interagir com todo o ecossistema digital ao seu redor para executar tarefas em nome dos usuários. Sem o MCP, a Agentic AI pensa e planeja (características da IA generativa), mas não consegue interagir com sistemas externos. 

Mais informações sobre Agentic AI

A Red Hat® identificou uma coleção selecionada de servidores MCP que se integram ao Red Hat OpenShift® AI, incluído no nosso conjunto de soluções de IA. 

Engenheiros de IA que usam o Red Hat OpenShift AI podem utilizar esses servidores MCP para integrar ferramentas e recursos empresariais às suas aplicações de IA e fluxos de trabalho agentic.

Conheça a coleção de servidores MCP → 

O Red Hat AI permite que engenheiros de IA e cientistas de dados melhorem a precisão, velocidade e relevância das respostas dos modelos. O Red Hat AI conecta modelos aos dados de forma eficiente, facilitando sua personalização e ajudando as organizações a desenvolver e implantar aplicações de IA em escala. 

Os serviços da plataforma principal do Red Hat AI permitem que as organizações criem processos consistentes e reproduzíveis, simplificando a implantação de agentes de IA em ambientes de produção.

Conheça o Red Hat AI

Recurso

Introdução à IA empresarial: um guia para iniciantes

Leia este guia para iniciantes e descubra como o Red Hat OpenShift AI e o Red Hat Enterprise Linux AI podem ajudar a acelerar sua jornada de adoção da inteligência artificial.

Aproveite a IA com a Red Hat: expertise, treinamento e suporte em todos os estágios da jornada de IA

Conheça o portfólio exclusivo de IA da Red Hat. O Red Hat AI ajuda você a atingir seus objetivos empresariais e de TI com a inteligência artificial (IA).

Leia mais

O que é inferência distribuída?

A inferência distribuída permite que modelos de IA processem cargas de trabalho de forma mais eficiente, dividindo a execução da inferência entre um conjunto de dispositivos interconectados.

Tudo sobre a AIOps

AIOps, sigla em inglês que significa IA para operações de TI, é uma abordagem que usa machine learning e outras técnicas avançadas de IA para automatizar operações de TI.

O que é segurança de IA?

A segurança de IA protege aplicações de inteligência artificial contra ataques maliciosos que visam enfraquecer cargas de trabalho, manipular dados ou roubar informações confidenciais.

Inteligência artificial: conteúdo adicional

Produto em destaque

  • Red Hat AI

    Soluções flexíveis que aceleram o desenvolvimento e a implantação de aplicações de IA em ambientes de nuvem híbrida.