Was ist MCP (Model Context Protocol)?

URL kopieren

MCP (Model Context Protocol) ist ein Open Source-Protokoll, das eine 2-Wege-Verbindung und die standardisierte Kommunikation zwischen KI-Anwendungen und externen Services ermöglicht. Bei einem Open Source-Protokoll handelt es sich um Anweisungen, die sich mit einem Rezept für Code vergleichen lassen, der kostenlos zur Verfügung steht und verwendet werden kann.

MCP bietet eine vereinfachte und zuverlässige Möglichkeit für KI-Systeme, sich virtuell mit verschiedenen Datenquellen und Tools zu verbinden. Sie können sich MCP wie ein USB-C-Kabel vorstellen, das Geräte mit Zubehör verbindet und die Datenübertragung ermöglicht. 

Mehr über Red Hat AI erfahren

Bevor es MCP gab, mussten Entwicklungsteams für konkrete Use Cases benutzerdefinierte API-Integrationen (Application Programming Interface) erstellen. Das bedeutete, dass sie dieselben Integrationen viele Male auf unterschiedliche Weise neu schreiben mussten. Die einzelnen Verbindungen zwischen KI-Anwendungen und externen Services wurde auf Bestellung hergestellt, was äußerst zeitaufwendig war.

Mit MCP können Entwicklungsteams ein einzelnes, standardisiertes Protokoll verwenden, um eine KI-Anwendung mit einem externen Service zu verbinden. MCP ersetzt keine APIs, sondern standardisiert die Kommunikation auf den APIs. Dies erleichtert das Entwickeln komplexer KI-Workflows mit Large Language Models (LLMs) und das Verknüpfen dieser Modelle mit realen Daten.

MCP ergänzt traditionelle Methoden wie Retrieval-Augmented Generation (RAG). Außerdem bietet es Sicherheitskontrollen und Schnittstellen, die Unternehmen für das Deployment agentischer KI in ihren bestehenden Systemen und Workflows benötigen. 

4 wichtige Überlegungen zur Implementierung von KI-Technologie

MCP basiert auf dem Client Host Server-Modell, auch als Client Server-Modell bekannt, das Folgendes umfasst:

  • MCP-Client: die KI-Anwendung oder das KI-System, die den Zugriff auf externe Daten oder Ressourcen anfordern
  • MCP-Host: die Infrastruktur (virtuelle Maschine, Container oder Serverless-Funktion), von der die Kommunikation zwischen Client und Server gemanagt wird
  • MCP-Server: die Komponente, die dem Client bestimmte Tools, Ressourcen und Funktionen bereitstellt

MCP beginnt mit einem Handshake-Protokoll. Durch diese erste Begrüßung – auch als Capability Discovery bezeichnet – wird bestätigt, dass der MCP-Client und der MCP-Server miteinander kommunizieren können. 

Während des Handshake-Protokolls tauschen der MCP-Client und der MCP-Server wichtige Informationen aus, um ihre Kompatibilität sicherzustellen. Der Client teilt mit, über welche Funktionen er verfügt und welche Version von MCP er versteht. Der Server wiederum teilt mit, welche Funktionen er unterstützt und welche Tools sowie Ressourcen er dem Client zur Verfügung stellen kann.

Nach diesem ersten „Treffen“ kann die Arbeitsbeziehung beginnen. 

MCP und Kontext

Das „M“ von MCP steht für (Sprach-)Modelle, das „P“ für ein standardisiertes (Kommunikations-)Protokoll und das „C“ für Kontext (Englisch: „context“).

Im Hinblick auf MCP verweist Kontext auf die relevanten, aufgabenspezifischen Informationen, auf die ein Modell Zugriff hat. Ein Kontextfenster ist die Datenmenge, auf die ein Modell beim Generieren einer Antwort zugreifen kann. 

Vor MCP mussten KI-Anwendungen sehr viele Informationen in ihrem Kontextfenster speichern. Einige dieser Informationen waren irrelevant und belegten unnötig Platz im Kontextfenster, was zu Halluzinationen führte. Mit MCP können Anwendungen effektiver mit Tools und Services kommunizieren. Sie fragen nur die benötigten Informationen an, statt irrelevante Informationen zu speichern. 

Mithilfe von relevantem und angemessenem Kontext können sich Modelle an vorherige Teile der Unterhaltung erinnern, genauere Ergebnisse liefern und bessere Verbindungen zwischen Informationen herstellen. Dank MCP können relevante Daten im Arbeitsspeicher des Clients gespeichert werden, um so die Anfrage abzuschließen. Dieser Prozess wird auch als Dynamic Discovery oder dynamisches Erkennen bezeichnet. 

Dynamic Discovery findet nach der Funktionserkennung statt. Dank Dynamic Discovery arbeiten Client und Server zusammen daran, Probleme für Nutzende zu lösen. Diese Fähigkeit, relevante Daten zu teilen und zu analysieren, sorgt dafür, dass das Modell den notwendigen Kontext erhält, wodurch KI-Anwendungen flexibel und unabhängig agieren können.

MCP-Server spielen eine wichtige Rolle beim Bereitstellen von Kontext für den MCP-Client. Wenn Sie die verschiedenen Arten von MCP-Servern kennen, entwickeln Sie ein Verständnis dafür, welche Integrationen möglich sind und wie Sie Ihren KI-Workflow strukturieren können.

Lokale Datenquellen: Diese Server greifen auf Informationen zu, die auf Ihrem Computer gespeichert sind, darunter Dateien, lokale Datenbanken oder Anwendungen. 

Remote-Services: Diese Server stellen über das Internet eine Verbindung zu externen Services wie Cloud-Datenbanken und webbasierten Tools her. 

Offizielle Integrationen: Unternehmen erstellen diese Server vorab, um Verbindungen zu gängigen Services mit garantierter Qualität und Support anzubieten. 

Community-Server: Diese Server werden von Entwicklungsteams erstellt und offen in der Entwickler-Community geteilt. 

Referenz-Server: Diese Server zeigen Best Practices und dienen so als Vorlagen und Lerntools.

MCP und KI-Inferenz hängen nicht direkt zusammen, sind aber Prozesse, die je nach Komplexität des verwendeten KI-Tools aufeinander aufbauen können.

Wie Sie bereits erfahren haben, geht es bei MCP darum, KI mit Tools, Daten und externen Ressourcen zu verbinden, damit sie ihre Aufgabe erfüllen kann. Inferenz hingegen bedeutet, dass das Modell Prompts verarbeitet und Token generiert, um die gewünschte Ausgabe zu erzeugen. MCP kann während der Inferenz genutzt werden, um das Modell zu informieren. Dies macht die Inferenz jedoch nicht effizienter und beeinflusst nicht die Architektur des Modells.

Deshalb ist es wichtig, Inferenz nicht außer Acht zu lassen. Denn, einfach ausgedrückt: Ohne Inferenz gibt es keine KI. Und wenn für die Umsetzung von Unternehmensstrategien große Modelle erforderlich sind, kann es kompliziert werden. Deshalb kann die Hardware und Software, die Ihre Inferenzfunktionen unterstützen, über Erfolg oder Misserfolg Ihrer KI-Strategie entscheiden.

Warum Sie sich mit KI-Inferenz befassen sollten

Mit MCP-Servern können Sie Daten und Informationen so bequem wie nie zuvor nutzen. Dies wirft jedoch die Frage auf, wie wir die Daten auf unseren MCP-Servern schützen können.

Berechtigungen und Sicherheitsrichtlinien regeln, auf welche Bereiche MCP-Server zugreifen können und welche Aktionen sie ausführen dürfen. MCP bietet integrierte Sicherheitsfunktionen wie OAuth (zum Authentifizieren des Nutzerzugriffs) sowie verschlüsselte Verbindungen zwischen Client und Server.

Entwicklungsteams sollten jedoch auch eigene Sicherheitsmaßnahmen implementieren. Dabei gehören zu den Best Practices:

  • Das Gewähren des für die Funktion minimal erforderlichen Zugriffs für MCP-Server, auch bekannt als Principle of Least Privilege (PoLP). Dieser Cybersicherheitsansatz zielt darauf ab, potenziellen Schaden durch nicht autorisierte Nutzende, Fehler oder Angriffe zu reduzieren.
  • Das regelmäßige Überprüfen der Zugriffsberechtigungen der einzelnen Server, um sicherzustellen, dass kein Server über unnötige oder übermäßige Berechtigungen verfügt.
  • Achten Sie (auf Nutzerebene) bewusst darauf, worauf Sie Zugriff gewähren, wenn Sie eine MCP-Verbindung autorisieren.
  • Verwenden Sie nur vertrauenswürdige MCP-Server.

Mehr über Sicherheitsrisiken und -kontrollen von MCP erfahren

Agentische KI (Agentic AI) ist ein Softwaresystem, das für die Interaktion mit Daten und Tools ausgelegt ist und nur minimales menschliches Eingreifen erfordert. Mit dem Schwerpunkt auf zielorientiertem Verhalten kann agentische KI Aufgaben bewältigen, indem sie eine Liste von Schritten erstellt und diese dann eigenständig ausführt.

MCP und agentische KI befähigen sich gegenseitig dazu, intelligente KI-Systeme zu erstellen. Mithilfe von MCP können KI-Systeme mit dem breiteren digitalen IT-Ökosystem interagieren, um Aufgaben für Nutzende zu erledigen. Ohne MCP kann agentische KI zwar funktionieren und planen (sämtliche Merkmale der generativen KI), aber nicht mit externen Systemen interagieren. 

Mehr über agentische KI erfahren 

Red Hat stellt eine kuratierte Collection von MCP-Servern bereit, die sich in Red Hat OpenShift® AI integrieren lassen – enthalten in unserem Portfolio von KI-Produkten

Fachkräfte aus dem Bereich AI Engineering, die Red Hat OpenShift AI verwenden, können diese MCP-Server nutzen, um Unternehmenstools und -ressourcen in ihre KI-Anwendungen und agentischen Workflows zu integrieren.

Collection von MCP-Servern anzeigen → 

Mit Red Hat AI können KI-Engineers und Data Scientists die Genauigkeit, Geschwindigkeit und Relevanz von Modellantworten verbessern. Red Hat AI verknüpft Modelle mit Daten, um eine effiziente Modellanpassung zu erzielen, die Unternehmen beim Entwickeln und Bereitstellen von KI-Anwendungen in großem Umfang unterstützt. 

Darüber hinaus können Unternehmen mit den zentralen Plattformservices von Red Hat AI konsistente und wiederholbare Prozesse entwickeln und das Deployment von KI-Agenten in Produktivumgebungen vereinfachen.

Mehr über Red Hat AI erfahren

Blog

Artificial Intelligence (AI)

See how our platforms free customers to run AI workloads and models anywhere

Erfolgreiche KI-Einführung mit Red Hat: Fachwissen, Training und Support für den KI-Prozess

Lernen Sie das KI-Portfolio von Red Hat kennen. Red Hat AI kann Sie beim Erreichen Ihrer Geschäfts- und IT-Ziele mit KI (Künstlicher Intelligenz) unterstützen.

Weiterlesen

Was ist MLOps? Machine Learning Operations einfach erklärt

MLOps optimiert den Lifecycle von ML-Modellen (Machine Learning). Erfahren Sie alles über Workflow-Praktiken, Automatisierung und den Unterschied zu DevOps.

Was ist KI-Inferenz? Grundlagen und Bedeutung erklärt

KI-Inferenz ist der Moment, in dem ein Modell Vorhersagen aus Daten trifft. Erfahren Sie alles über den Unterschied zum Training, Use Cases und Inferenzserver.

Was ist Unternehmens-KI? KI im Unternehmen einsetzen

Unternehmens-KI integriert KI-Tools und Machine Learning in groß angelegte Prozesse. Lernen Sie mehr über Inferenz und die Einführung von KI im Unternehmen.

Ressourcen zu KI/ML

Ausgewähltes Produkt

  • Red Hat AI

    Flexible Lösungen, die die Entwicklung und Bereitstellung von KI-Lösungen in Hybrid Cloud-Umgebungen beschleunigen.

Verwandte Artikel