Was ist agentische KI?

URL kopieren

Red Hat Ressourcen

Agentische KI ist besonders nützlich für Aufgaben, die eine kontinuierliche Überwachung oder schnelle Entscheidungen erfordern. Zu den Vorteilen agentischer KI gehören:

Höhere Produktivität: Die Übertragung von Aufgaben an KI-Agenten ermöglicht einen stärkeren Fokus auf Initiativen, die einen Mehrwert für das Unternehmen darstellen. Sie können sich einen KI-Agenten wie einen Praktikanten vorstellen, der rund um die Uhr arbeitet.

Geringere Kosten: Agentische KI reduziert menschliche Fehler und damit die Kosten, die mit Ineffizienz, Versäumnissen und Fehlern verbunden sind.

Fundierte Entscheidungsfindung: Agentische KI nutzt maschinelles Lernen, um riesige Datenmengen in Echtzeit zu filtern und zu verarbeiten – mehr als ein Mensch je könnte. Die Gewinnung von Insights aus einem größeren Pool hochwertiger Daten führt zu besseren Prognosen und Strategien.

Verbessertes Benutzererlebnis: Das Erstellen eines automatisierten Workflows erfordert in der Regel Fachwissen in den Bereichen Technik und Programmierung. Mit agentischer KI können Nutzende in normaler Sprache interagieren, ähnlich wie wir mit Plattformen wie ChatGPT interagieren.

Diese besonderen Funktionen machen agentische KI vielseitig einsetzbar. Im Folgenden werden die Einsatzmöglichkeiten agentischer KI in verschiedenen Branchen erläutert:

  • Unternehmen könnten KI-Agenten einsetzen, um Lieferketten zu verwalten, Lagerbestände zu optimieren, Bedarf vorherzusagen und Logistik zu planen.
  • Im Gesundheitswesen könnten KI-Agenten mit Kunden in Kontakt treten, Bedürfnisse überwachen, Behandlungspläne ausführen und individuelle Unterstützung leisten.
  • Die Softwareentwicklung könnte durch den Einsatz von KI zur automatischen Generierung von Debugging-Code, zur Verwaltung des Entwicklungs-Lifecycles und zum Entwurf der Systemarchitektur effizienter werden.
  • Im Softwarebetrieb könnte agentische KI für den autonomen Betrieb von Netzwerken und anderen IT-Infrastrukturen oder -Services eingesetzt werden.
  • Im Hinblick auf die Cybersicherheit könnte ein KI-Agent Unternehmen dabei unterstützen, den Netzwerkverkehr zu überwachen, Probleme zu erkennen und in Echtzeit auf Bedrohungen zu reagieren.
  • Forschende könnten mittels agentischer KI Experimente entwerfen und durchführen, Daten analysieren, neue Hypothesen formulieren und das Innovationstempo insgesamt beschleunigen, indem sie schneller arbeiten, als es ein einzelner Mensch (oder eine Gruppe von Forschenden) könnte.
  • Finanzwesen und Handel könnten von der Fähigkeit agentischer KI profitieren, ständig Markttrends zu analysieren, Handelsentscheidungen zu treffen und die Strategie auf der Grundlage von Echtzeitdatenströmen, auf die sie Zugriff hat, anzupassen.

Use Cases für generative KI ansehen
Use Cases für prädiktive KI ansehen

Agentische KI bringt uns der Entwicklung intelligenter, unabhängig arbeitender Systeme näher, die effektiv zusammenarbeiten und aus ihren Interaktionen mit Daten lernen können. Agentische KI basiert auf einem Prozess, der als „agentischer Workflow“ bezeichnet wird.

Ein agentischer Workflow ist eine strukturierte Reihe von Aktionen, die von KI-Agenten verwaltet und durchgeführt werden. Bekommt ein KI-Agent eine Zielvorgabe, beginnt er den Workflow, indem er eine Aufgabe in kleinere Einzelschritte zerlegt und diese dann ausführt.

Zur Durchführung dieser Reihe von Schritten erzeugt der KI-Agent weitere Versionen von sich selbst, wodurch ein MAS (Multi-Agent System) entsteht. In diesem Workflow delegiert der Hauptagent (auch bekannt als Metaagent, Orchestrator oder Supervisor) Aufgaben an andere Agenten, weist ihnen Werte zu und interagiert in einer Feedback-Schleife mit dem Speicher. Gemeinsam arbeiten die Agenten dann parallel, bis die Zielvorgabe erfüllt ist.

Innerhalb dieses MAS bestehen die einzelnen Agenten aus einer internen Struktur, die sie sowohl unabhängig als auch kooperativ in ihrem System arbeiten lässt. Diese Zusammenarbeit hängt von gemeinsam genutzten Speicherplätzen ab, die Kontext zu individuellem Wissen, Erfahrungen und Haltungen liefern.

Während sich generative KI auf das Erstellen konzentriert, liegt der Schwerpunkt bei der agentischen KI auf dem Ausführen. Generative KI erstellt neue Inhalte mithilfe prädiktiver Modellierung und linearer Regression. Agentische KI nutzt mathematische Systeme für Entscheidungen auf der Grundlage prädiktiver Modelle, geht aber noch einen Schritt weiter, indem sie eine Aktion – oder mehrere Aktionen – im Namen der Nutzenden ausführt.

Generative KI erzeugt Ausgaben auf der Grundlage der von uns getroffenen Eingaben. Agentische KI unterscheidet sich von herkömmlicher KI durch die Fähigkeit, Aktionen zu initiieren. So kann ein KI-Agent beispielsweise auf der Grundlage der ihm zugänglichen Informationen eigene zusätzliche Prompts und Ausgaben erstellen.

Agentische KI im Vergleich zu generativer KI

Mit Retrieval-Augmented Generation (RAG) können Sie bessere Antworten von einer gen KI-Anwendung erhalten, indem Sie ein Large Language Model (LLM) mit einem alternativen Instructed Prompt oder einer externen Ressource verbinden. Agentische RAG geht einen Schritt weiter als die traditionelle RAG, indem sie es dem LLM ermöglicht, Daten aktiv zu untersuchen und nicht nur abzurufen.

RAG kann zwar Antworten abrufen und einen gewissen Kontext aus der Dokumentation und den Datensätzen, auf die Zugriff besteht, bereitstellen, ist aber auf manuelles Prompt Engineering angewiesen. Herkömmliche RAG verfügt nur über ein begrenztes Kontextwissen und stützt sich ausschließlich auf die ursprüngliche Anfrage, um relevante Informationen zu finden.

Agentische RAG ist vergleichsweise ausgereifter und dynamischer. Sie kann selbst Fragen stellen, aus gespeicherten Daten Kontext erstellen und zusätzliche Aufgaben ausführen, ohne ausdrücklich dazu aufgefordert zu werden. Dieser Schritt über herkömmliche RAG hinaus verleiht agentischer RAG die Fähigkeit, in Ihrem Namen unabhängig von Ihrem manuellen Eingreifen fundiertere Entscheidungen zu treffen.

Mit herkömmlicher RAG können Sie zum Beispiel bei einem Chatbot die Rückgaberichtlinien eines Unternehmens abfragen. Mit agentischer RAG könnte Ihre Abfrage Ihnen die Rückgabebedingungen anzeigen und Ihnen dann die Option anbieten, eine Rückgabe einzuleiten. Daraufhin könnten die KI-Agenten das Rücksendeformular mit Ihrer Bestellnummer ausfüllen, Ihre Kreditkartendaten für die Rückerstattung überprüfen und die Transaktion in Ihrem Namen abschließen.

Wenn agentische KI-Systeme Verbindungen mit externen Ressourcen aufbauen müssen, kann das mittels MCP (Model Context Protocol) erfolgen. MCP ist ein Open Source-Protokoll,das eine 2-Wege-Verbindung und die standardisierte Kommunikation zwischen KI-Anwendungen und externen Services ermöglicht. 

MCP bietet eine vereinfachte und zuverlässige Möglichkeit für KI-Systeme, sich virtuell mit verschiedenen Datenquellen und Tools zu verbinden. Sie können es sich wie ein USB-C-Kabel vorstellen, das Geräte mit Zubehör verbindet und die Datenübertragung ermöglicht. 

MCP und agentische KI befähigen sich gegenseitig dazu, intelligente KI-Systeme zu erstellen. Mithilfe von MCP können KI-Systeme mit dem breiteren digitalen IT-Ökosystem interagieren, um Aufgaben für Nutzende zu erledigen. Ohne MCP kann agentische KI zwar funktionieren und planen (sämtliche Merkmale der generativen KI), aber nicht mit externen Systemen interagieren. 

Collection von MCP Servern von Red Hat anzeigen

Agentische KI verspricht Innovation und Geschwindigkeit für viele unserer Systeme. Es gibt jedoch ethische und technische Fragen, die noch zu klären sind. Wie können wir beispielsweise sicherstellen, dass agentische Systeme mit unseren Werten in Einklang stehen? Wer ist verantwortlich, wenn agentische KI einen Fehler macht? In einigen Fällen gibt es Probleme mit der Transparenz, da wir nicht mit Sicherheit wissen, wie der Agent zu dem Ergebnis gekommen ist, das er als Ausgabe anbietet (auch bekannt als „Blackbox“-Problem).

Unter den Gesichtspunkten des Datenschutzes und der Sicherheit ist es wichtig, die KI-Modelle, die wir entwickeln oder verwenden, mit Sorgfalt und Bedacht zu behandeln. Das heißt, es muss sichergestellt werden, dass die Architektur über Sicherheitsparameter zum Schutz des Datenflusses verfügt.

Zu beachten ist auch, dass agentische KI beträchtliche Ressourcen benötigt, darunter viel Rechenleistung und Speicherplatz. Zur Bewältigung dieser hohen Arbeitslasten können Entwicklungsteams Inferenz-Libraries wie vLLM nutzen. vLLM kann mehrere agentische Anfragen gleichzeitig verarbeiten und ermöglicht so eine schnellere Ausgabe. Darüber hinaus kann es Techniken wie verteilte Inferenz nutzen, um Workloads auf mehrere GPUs zu skalieren und so die Hardwarekosten pro Agent zu senken.

Und wie bei jeder neuen Technologie gibt es auch hier eine Lernkurve, der man sich bewusst sein muss. Die Implementierung und Verwaltung von agentischen LLM-Workflows erfordert besonders auf Unternehmensebene spezielle Kompetenzen.

Use Cases für KI/ML ansehen

Für Unternehmen, die die Vorteile der generativen KI noch erkunden, könnten KI-Agenten der Schlüssel zur Entdeckung eines konkreten Geschäftswerts sein. Red Hat® AI und unser KI-Partnernetzwerk unterstützen Sie bei der Entwicklung von Frameworks für den Aufbau agentischer Workflows und die Skalierung von KI-Agenten.

Red Hat OpenShift® AI bietet eine einheitliche Plattform zur Erstellung von Systemen mit mehreren Agenten. Außerdem kann adaptives Lernen und Schlussfolgern durch KI-Agenten über die MLOps-Funktionen von OpenShift gesteuert werden.

Red Hat OpenShift AI erkunden

Ressource

Erste Schritte mit KI für Unternehmen: Ein Guide für den Einsatz

In diesem Guide für den Einstieg erfahren Sie, wie Red Hat OpenShift AI und Red Hat Enterprise Linux AI die KI-Einführung beschleunigen können.

Red Hat Testversionen

Unsere kostenlosen Testversionen unterstützen Sie dabei, praktische Erfahrungen zu sammeln, sich auf eine Zertifizierung vorzubereiten oder zu bewerten, ob ein Produkt die richtige Wahl für Ihr Unternehmen ist.

Weiterlesen

Was ist erklärbare KI?

Die Methoden der erklärbaren KI (Explainable AI, XAI) werden während des ML-Lifecycles (Machine Learning) angewendet, um KI-Ausgaben für Menschen verständlicher und transparenter zu machen.

vLLM beschleunigt KI-Inferenz – 3 Use Cases in Unternehmen

Dieser Artikel enthält 3 Beispiele aus der Praxis, wie bekannte Unternehmen vLLM erfolgreich einsetzen.

Was sind Granite-Modelle? Large Language Models für KI

Granite sind LLMs von IBM für Unternehmensanwendungen. Granite-Modelle unterstützen Use Cases für gen KI, die Sprache und Code enthalten. Einsatz und Vorteile

Ressourcen zu KI/ML

Verwandte Artikel