-
Produkte und Dokumentation Red Hat AI
Eine Plattform mit Produkten und Services für die Entwicklung und Bereitstellung von KI in der Hybrid Cloud.
Red Hat AI Inference Server
Optimieren Sie die Modell-Performance mit vLLM für schnelle und kosteneffiziente Inferenz in großem Umfang.
Red Hat Enterprise Linux AI
Entwickeln, testen und nutzen Sie generative KI-Modelle zur Unterstützung von Unternehmensanwendungen.
Red Hat OpenShift AI
Entwickeln und implementieren Sie KI-gestützte Anwendungen und Modelle in großem Umfang in Hybrid-Umgebungen.
Cloud Services
Red Hat AI InstructLab on IBM Cloud
Eine skalierbare, kosteneffiziente Lösung zum Anpassen von KI-Modellen in der Cloud.
-
Lernen Grundlagen
-
KI-Partner
Red Hat OpenShift AI
Red Hat® OpenShift® AI ist eine Plattform, mit der Sie den Lifecycle prädiktiver und generativer KI-Modelle (gen KI) in großem Umfang in Hybrid Cloud-Umgebungen verwalten können.
Was ist Red Hat OpenShift AI?
OpenShift AI basiert auf Open Source-Technologien und bietet zuverlässige, operativ konsistente Funktionen, mit denen Teams experimentieren, Modelle bereitstellen und innovative Anwendungen bereitstellen können.
Mit OpenShift AI können Sie Daten erfassen und vorbereiten, Modelltraining und Fine Tuning durchführen, Modelle bereitstellen und überwachen sowie auf Hardwarebeschleuniger zugreifen. Durch das offene Partnernetzwerk für Hardware und Software verfügt OpenShift AI über die Flexibilität, die Sie für Ihre speziellen Use Cases benötigen.
KI-gestützte Anwendungen schneller in die Produktion bringen
Kombinieren Sie die bewährten Funktionen von Red Hat OpenShift AI und Red Hat OpenShift in einer einzigen unternehmensgerechten KI-Anwendungsplattform, die Teams zusammenbringt. So können Data Scientists, Engineers und Anwendungsentwicklungsteams an einem einzigen Ort zusammenarbeiten, der Konsistenz, Sicherheit und Skalierbarkeit fördert.
Das neuste Release von OpenShift AI umfasst eine kuratierte Sammlung von optimierten, produktionsbereiten Drittanbietermodellen, die für Red Hat OpenShift AI validiert wurden. Dieser Katalog mit Drittanbietermodellen bietet Ihrem Team mehr Kontrolle über die Zugänglichkeit und Transparenz von Modellen, was die Einhaltung von Richtlinien und Sicherheitsanforderungen vereinfacht.
Darüber hinaus unterstützt OpenShift AI Sie mithilfe eines optimierten vLLM-Frameworks dabei, die Kosten von Inferenzen mit verteilter Bereitstellung besser zu managen. Um die operative Komplexität noch weiter zu reduzieren, bietet die Lösung fortschrittliche Tools zum Automatisieren von Deployments und zum Self Service-Zugriff auf Modelle, Tools und Ressourcen.
Features und Vorteile
Weniger Zeitaufwand für das KI-Infrastrukturmanagement
Erhalten Sie On-Demand-Zugriff auf leistungsstarke Modelle, die Self Service, Skalierung und Deployments erleichtern. Entwicklungsteams können die Komplexität umgehen und Kosten optimieren, ohne Abstriche bei der Kontrolle machen zu müssen.
Features wie Models as a Service (MaaS) sind derzeit als Entwicklungsvorschau verfügbar. Der Ansatz mit Fokus auf KI-Zugriff in Form von API-Endpunkten ermöglicht eine private und schnellere KI in großem Umfang.
Getestete und unterstützte KI/ML-Tools
Red Hat testet, integriert und unterstützt KI/ML-Tools und -Modellbereitstellungen, damit Sie sich um Wichtigeres kümmern können. OpenShift AI profitiert von mehreren Jahren Erfahrung mit dem Community-Projekt „Open Data Hub“ und mit Open Source-Projekten wie Kubeflow.
Dank unserer Erfahrung und Open Source-Expertise können wir eine gen KI-bereite Basis bereitstellen, die unseren Kunden mehr Auswahl und Zuversicht bei ihren gen KI-Strategien gibt.
Flexibilität in der gesamten Hybrid Cloud
Red Hat OpenShift AI ist wahlweise als selbst gemanagte Software oder als vollständig gemanagter Cloud Service zusätzlich zu OpenShift verfügbar. Bei dieser sicheren und flexiblen Plattform können Sie selbst entscheiden, wo Sie Ihre Modelle entwickeln und bereitstellen möchten: On-Premise, in der Public Cloud oder sogar am Edge.
Einsatz von Best Practices
Red Hat Services bietet Fachwissen, Training und Support, damit Sie die Herausforderungen von KI meistern können – unabhängig davon, an welchem Punkt der KI-Einführung Ihr Unternehmen sich befindet.
Sie möchten Prototypen für Ihre KI-Lösungen erstellen, das Deployment Ihrer KI-Plattform optimieren oder Ihre MLOps-Strategien voranbringen? Red Hat Consulting bietet Ihnen Support und Mentoring.
Ein klar definierter Weg für Entwicklungsteams mit llm-d
Red Hat OpenShift AI umfasst llm-d, ein Open Source Framework, mit dem Sie die Herausforderungen verteilter KI-Inferenz in großem Umfang lösen können.
Das Skalieren von Modellen für eine verteilte Flotte von GPUs bietet ein neues Maß an Kontrolle und Beobachtbarkeit. Dabei können Unternehmen komplexe LLMs in großem Umfang optimieren, indem sie die Inferenz-Pipeline in modulare, intelligente Services aufteilen.
MCP-Server für Red Hat OpenShift AI
In unserer kuratierten Sammlung finden Sie verschiedene MCP-Server unserer Technologiepartner, die sich mit Red Hat OpenShift AI integrieren lassen.
MCP (Model Context Protocol) ist ein Open Source-Protokoll, das eine 2-Wege-Verbindung und standardisierte Kommunikation zwischen KI-Anwendungen und externen Services ermöglicht.
Jetzt können Sie diese MCP-Server nutzen, um Unternehmenstools und -ressourcen in Ihre KI-Anwendungen und agentischen Workflows zu integrieren.
Optimierung mit vLLM für schnelle und kosteneffiziente Inferenz
Red Hat AI Inference Server ist Teil der Red Hat AI Plattform. Die Lösung ist in Red Hat Enterprise Linux® AI und in Red Hat OpenShift® AI enthalten, kann aber auch als Standalone-Produkt gekauft werden.
Individuelle KI-Lösungen für Ihre Anforderungen
Generative KI
Neue Inhalte wie Text und Softwarecode produzieren
Mit Red Hat AI können Sie die generativen KI-Modelle Ihrer Wahl schneller, mit weniger Ressourcen und geringeren Inferenzkosten ausführen.
Prädiktive KI
Muster erkennen und zukünftige Ergebnisse prognostizieren
Mit Red Hat AI können Unternehmen prädiktive Modelle entwickeln, trainieren, bereitstellen und überwachen und dabei die Konsistenz in der Hybrid Cloud wahren.
Operationalisierte KI
Systeme entwickeln, die die Wartung und Bereitstellung von KI in großem Umfang unterstützen
Mit Red Hat AI können Sie den Lifecycle von KI-fähigen Anwendungen managen und überwachen, gleichzeitig Ressourcen einsparen und die Compliance mit Datenschutzbestimmungen sicherstellen.
Agentische KI
Entwickeln Sie Workflows, die komplexe Aufgaben unter eingeschränkter Überwachung ausführen.
Red Hat AI bietet einen flexiblen Ansatz und eine stabile Basis für die Entwicklung, Verwaltung und Bereitstellung agentischer KI-Workflows in vorhandenen Anwendungen.
Partnerschaften
Holen Sie mehr aus der Red Hat OpenShift AI Plattform heraus, indem Sie sie um zusätzliche integrierte Services und Produkte erweitern.
NVIDIA und Red Hat bieten Kunden eine skalierbare Plattform, die eine Vielzahl von Use Cases für KI mit unvergleichlicher Flexibilität beschleunigt.
Intel® und Red Hat unterstützen Organisationen dabei, die Einführung von KI zu beschleunigen und ihre KI/ML-Modelle schnell zu operationalisieren.
IBM und Red Hat bieten Open Source-Innovationen zur Beschleunigung der KI-Entwicklung, unter anderem durch IBM watsonx.aiTM, einem unternehmensgerechten KI-Studio für KI-Entwicklungsteams.
Starburst Enterprise und Red Hat unterstützen verbesserte und zeitgerechtere Erkenntnisse durch schnelle Datenanalysen auf mehreren unterschiedlichen und verteilten Datenplattformen.
Skalierbare Kubernetes-Infrastruktur für KI-Plattformen
Erfahren Sie, wie Sie die Prinzipien und Praktiken von MLOPs (Machine Learning Operations) beim Entwickeln von KI-gestützten Anwendungen nutzen können.
Zusammenarbeit über Modell-Workbenches
Mit AI Hub und Gen AI Studio können Platform Engineers und AI Engineers gen KI-Modelle gemeinsam schneller in die Produktion bringen.
AI Hub ermöglicht Platform Engineers das Management von LLMs mit zentralen KI-Workloads und Insights zur Performance durch die Validierung von Drittanbietermodellen. Gen AI Studio bietet AI Engineers eine praktische Umgebung, in der sie mit Modellen interagieren und schnell Prototypen von gen KI-Anwendungen erstellen können. Durch den Zugang zu einer Sandbox können die Teams die Eignung von Modellen vor der Lifecycle-Integration prüfen und mit Chat- und RAG-Workflows (Retrieval-Augmented Generation) experimentieren.
Außerdem haben Data Scientists Zugriff auf vorab erstellte oder benutzerdefinierte Cluster Images und können so mit den Modellen arbeiten, die ihre bevorzugten IDEs und Frameworks nutzen. Red Hat OpenShift AI verfolgt Änderungen an Jupyter, PyTorch, Kubeflow und anderen Open Source-basierten KI-Technologien.
Bereitstellung und Sicherheit von Modellen mit Red Hat OpenShift AI skalieren
Sie können Modelle mit einer optimierten Version von vLLM (oder anderen Modellservern Ihrer Wahl) bereitstellen, um sie so in KI-fähige Anwendungen zu integrieren – On-Premise, in der Public Cloud oder am Edge. Diese Modelle lassen sich basierend auf Änderungen am Quell-Notebook neu erstellen, bereitstellen und überwachen.
Halluzinationen und Verzerrungen können die Integrität Ihrer Modelle beeinträchtigen und das Skalieren erschweren. OpenShift AI ermöglicht Datenteams das Monitoring von Modellausgaben und Trainingsdaten auf Übereinstimmung, um für Fairness, Sicherheit und Skalierbarkeit zu sorgen.
Livedaten, die für Modellinferenz verwendet werden, werden mit speziellen Tools überwacht, um Abweichungen von den ursprünglichen Trainingsdaten zu erkennen. Die enthaltenen KI-Richtlinien tragen zum Schutz Ihrer Modellein- und -ausgaben vor schädlichen Daten wie beleidigenden und anstößigen Äußerungen, personenbezogenen Daten oder anderen domainspezifischen Einschränkungen bei.
Lösungs-Pattern
KI-Anwendungen mit Red Hat und NVIDIA AI Enterprise
Entwickeln einer RAG-Anwendung
Red Hat OpenShift AI ist eine Plattform für das Entwickeln von Data Science-Projekten und Bereitstellen von KI-gestützten Anwendungen. Sie können sämtliche für die Unterstützung von Retrieval-Augmented Generation (RAG), einer Methode zum Abrufen von KI-Antworten aus Ihren eigenen Referenzdokumenten, erforderlichen Tools integrieren. Wenn Sie OpenShift AI mit NVIDIA AI Enterprise kombinieren, können Sie mit Large Language Models (LLMs) experimentieren und so das optimale Modell für Ihre Anwendung finden.
Erstellen einer Pipeline für Dokumente
Damit Sie RAG nutzen können, müssen Sie Ihre Dokumente zunächst in eine Vektordatenbank aufnehmen. In unserer Beispielanwendung integrieren wir eine Anzahl von Produktdokumenten in eine Redis-Datenbank. Da sich diese Dokumente häufig ändern, können wir für diesen Prozess eine Pipeline erstellen, die wir regelmäßig ausführen, damit wir immer die aktuellsten Versionen der Dokumente zur Verfügung haben
Durchsuchen des LLM-Katalogs
Mit NVIDIA AI Enterprise können Sie auf einen Katalog verschiedener LLMs zugreifen. So können Sie verschiedene Möglichkeiten ausprobieren und das Modell auswählen, das die optimalen Ergebnisse erzielt. Die Modelle werden im NVIDIA API-Katalog gehostet. Sobald Sie ein API-Token eingerichtet haben, können Sie ein Modell mit der NVIDIA NIM Model Serving-Plattform direkt über OpenShift AI bereitstellen.
Auswählen des richtigen Modells
Beim Testen verschiedener LLMs können Ihre Nutzerinnen und Nutzer die einzelnen generierten Antworten bewerten. Sie können ein Grafana Monitoring Dashboard einrichten, um die Bewertungen sowie die Latenz- und Antwortzeiten der einzelnen Modelle zu vergleichen. Anhand dieser Daten können Sie dann das optimale LLM für den Produktionseinsatz auswählen.
Weitere KI Success Stories vom Red Hat Summit und AnsibleFest 2025
Turkish Airlines verdoppelte die Geschwindigkeit der Bereitstellung durch unternehmensweiten Zugang zu Daten.
JCCM konnte die Prozesse zur Umweltverträglichkeitsprüfung (UVP) in der Region mithilfe von KI verbessern.
Die Denizbank verkürzte die Markteinführungszeiten von Tagen auf wenige Minuten.
Hitachi hat KI in seinem gesamten Unternehmen mit Red Hat OpenShift AI operationalisiert.
Möglichkeiten zum Testen von Red Hat OpenShift AI
Developer Sandbox
Für Entwicklungsteams und Data Scientists, die KI-fähige Anwendungen in einer vorkonfigurierten und flexiblen Umgebung entwickeln und damit experimentieren möchten.
60-tägige Testversion
Ihr Unternehmen möchte die Möglichkeiten von OpenShift AI umfassend testen? Nutzen Sie unsere 60-tägige Testversion. Sie benötigen dazu einen Red Hat OpenShift Cluster.