-
Produkte und Dokumentation Red Hat AI
Eine Plattform mit Produkten und Services für die Entwicklung und Bereitstellung von KI in der Hybrid Cloud.
Red Hat AI Inference Server
Optimieren Sie die Modell-Performance mit vLLM für schnelle und kosteneffiziente Inferenz in großem Umfang.
Red Hat Enterprise Linux AI
Entwickeln, testen und nutzen Sie generative KI-Modelle zur Unterstützung von Unternehmensanwendungen.
Red Hat OpenShift AI
Entwickeln und implementieren Sie KI-gestützte Anwendungen und Modelle in großem Umfang in Hybrid-Umgebungen.
Cloud Services
Red Hat AI InstructLab on IBM Cloud
Eine skalierbare, kosteneffiziente Lösung zum Anpassen von KI-Modellen in der Cloud.
-
Lernen Grundlagen
-
KI-Partner
Agentische KI mit Red Hat AI
Agentische KI bezeichnet Softwaresysteme, die darauf ausgelegt sind, Probleme zu lösen und komplexe Aufgaben mit begrenzter Kontrolle auszuführen.
Agentische KI nutzt Large Language Models (LLMs) und basiert auf der Leistungsfähigkeit von generativer KI (gen KI). Agentische KI stellt eine Verbindung mit externen Tools her und kommuniziert mit diesen. So kann die Technologie eine automatisierte Aufgabe wahrnehmen, Entscheidungen treffen und die Aufgabe orchestrieren, um ein definiertes Ziel zu erreichen.
In Unternehmen kann agentische KI komplexe und mühsame Workflows in einem Bruchteil der Zeit erledigen und so die Produktivität steigern und die Effizienz verbessern. Vereinfachen und beschleunigen Sie die erfolgreiche Einführung agentischer KI mit Unterstützung von Red Hat® AI.
Wie kann agentische KI Ihr Unternehmen unterstützen?
Agentische KI fungiert als intelligenter Orchestrator der Tools, die Sie bereits nutzen, und kann so traditionelle Workflows optimieren. Die Lösung lässt sich mit Ihrer aktuellen digitalen Infrastruktur ausführen.
Durch die Möglichkeit, mit internen und externen Datenquellen zu kommunizieren und zusammenzuarbeiten, lassen sich die Wahrnehmung und der Kontext verbessern. So kann sie proaktiv Anforderungen vorhersehen, sich an Veränderungen anpassen und sogar über die eigene Arbeit reflektieren.
MCP (Model Context Protocol) ist ein Open Source-Protokoll, das eine 2-Wege-Verbindung und die standardisierte Kommunikation zwischen KI-Anwendungen und externen Services ermöglicht. MCP-Server können unternehmensgerechte Tools und Ressourcen in Ihre KI-Anwendungen und agentischen Workflows integrieren.
Transformieren von Kundendaten mit einem KI-Agenten
Warum Red Hat AI?
Red Hat AI bietet einen flexiblen Ansatz und eine stabile Basis für die Entwicklung, Verwaltung und Bereitstellung agentischer KI-Workflows in vorhandenen Anwendungen.
Vereinfachtes Entwickeln von Agent-Workflows
Red Hat AI verfügt über Funktionen, die das Entwickeln neuer und das Modernisieren vorhandener Agenten erleichtern. Dazu gehört auch der Zugriff auf Llama Stack mit einem sofort einsatzbereiten Agenten-Framework und einer einheitlichen API-Schicht für Sicherheits-, Evaluierungs-, Post-Trainings- und andere Funktionen. Damit wird die Integration von LLMs, KI-Agenten und RAG-Komponenten (Retrieval-Augmented Generation) optimiert, was das Erstellen agentischer Workflows vereinfacht.
Anpassbare und kontrollierte Agent-Bereitstellung
Nutzen Sie die Vorteile einer gesicherten und dennoch adaptiven Plattform, die unterschiedliche Agent-Frameworks und sowohl Konnektoren für die Verbindung zwischen Agenten als auch zwischen Agent und Tool unterstützt. Verwenden Sie das Model Context Protocol (MCP) zum Herstellen einer Verbindung zu Tools oder als Abstraktionsschicht, um Agenten über Llama Stack zu verbinden. Mit den integrierten Monitoring- und Governance-Funktionen, die auf jahrzehntelanger Erfahrung im Bereich Container-Sicherheit basieren, erhalten Sie einen Überblick über die Systemaktivitäten und das Verhalten der Agenten.
Skalierbare und kostenoptimierte Agent-Infrastruktur
Außerdem können Sie agentische KI-Anwendungen konsistent in Hybrid Cloud-Umgebungen bereitstellen und verwalten – mit flexiblen Optionen für Hardwarebeschleuniger und intelligentem Ressourcenmanagement. Red Hat OpenShift® AI, das Red Hat AI Inference Server umfasst, optimiert die Leistung von KI-Agenten in einer Produktivumgebung. Dadurch können Unternehmen effizienter skalieren und die traditionell hohen Kosten senken.
Flexibilität
Red Hat AI bietet Nutzenden die Möglichkeit, flexibel zu entscheiden, in welcher Umgebung sie ihre Modelle und KI-Anwendungen trainieren, anpassen, bereitstellen und ausführen wollen – ob On-Premise, in der Public Cloud, am Edge oder sogar in einer nicht verbundenen Umgebung. Wenn Sie Ihre KI-Modelle in Ihrer bevorzugten Umgebung verwalten, können Sie den Zugriff steuern, das Monitoring der Compliance automatisieren und die Datensicherheit verbessern.
Red Hat AI
Mit Red Hat AI können Sie kleine Modelle im Fine Tuning mit unternehmensrelevanten Daten optimieren sowie KI-Lösungen in Hybrid Cloud-Umgebungen entwickeln und implementieren.
Ihre Anbieter wählen Sie selbst
Wir arbeiten mit Software- und Hardwareanbietern sowie mit Open Source Communities zusammen, um eine ganzheitliche KI-Lösung anzubieten.
Dadurch haben Sie Zugriff auf unterstützte Partnerprodukte und -services, die für die Nutzung mit unseren Technologien getestet und zertifiziert sind.