Red Hat AI

Nutzen Sie Ihre eigenen Ressourcen und Insights, um Mehrwert durch KI zu schaffen – mit der Freiheit, die Ihr Unternehmen braucht. 

Red Hat® AI basiert auf Open Source-Technologie und unterstützt Sie beim Entwickeln und Ausführen zuverlässiger KI-Lösungen. 

Red Hat AI Produktgrafik
Red Hat AI 3
Neu

Red Hat AI 3 ist jetzt verfügbar

Unser aktuelles Release steigert die Effizienz und Kosteneffektivität von KI-Inferenz mit llm-d. Zusätzliche Funktionen ermöglichen die Bereitstellung skalierbarer Workflows für agentische KI (Agentic AI) durch ein einheitliches und flexibles Erlebnis, das für die auf Zusammenarbeit ausgelegten Bedürfnisse beim Entwickeln produktionsbereiter KI-Lösungen in großem Umfang konzipiert ist.

3 Dinge, die Sie über Red Hat AI 3 wissen sollten. Dauer des Videos: 3:18

Ihre Modelle. Ihre Daten. Ihre Entscheidung.

Die Voraussetzung dafür, dass KI-Anwendungen optimal arbeiten können, ist schnelle, kostengünstige Inferenz. Red Hat AI bietet dafür mit llm-d – einem Framework für verteilte Inferenz in großem Umfang – eine einheitliche und flexible Plattform. 

Llm-d baut auf dem Erfolg von vLLM auf und profitiert von den bewährten Kubernetes-Vorteilen. So erfolgt eine konsistente und effiziente Verarbeitung mit planbarer Performance.

Wenn Unternehmen agentische KI (Agentic AI) nutzen, benötigen sie mehr als Effizienz. Sie benötigen ein auf Zusammenarbeit ausgerichtetes Framework, um Modelle, Daten und KI-Workflows in der Hybrid Cloud zu verbinden.

Die Einführung einer einheitlichen, auf Llama Stack basierenden API-Ebene eröffnet Möglichkeiten für eine Vielzahl von KI-Funktionen. Dazu zählt die Integration mit MCP (Model Context Protocol), die das Bereitstellen und Ausführen von agentischer KI (Agentic AI) in großem Umfang in Produktivumgebungen vereinfacht.

2 Stunden | Dienstag, 14. Oktober um 10 Uhr EST

Webinar

Was ist neu und wie geht es weiter mit Red Hat AI?

Your path to enterprise-ready AI

Lassen Sie sich von Führungskräften von Red Hat AI über die aktuellen Fortschritte bei Red Hat AI berichten.

Bei dem aktuellen Release stehen hohe Performance, planbare Inferenz und die beschleunigte Entwicklung von KI-Agenten im Vordergrund. Mit Produktupdates unterstützen wir Sie dabei, die mit KI verbundenen Herausforderungen wie Kosten, Komplexität und Kontrolle in den Griff zu bekommen.

Red Hat AI umfasst:

Red Hat AI Inference Server Logo

Red Hat AI Inference Server optimiert die Modellinferenz in der Hybrid Cloud für schnellere, kostengünstigere Modellbereitstellungen. 

Auf der Basis von vLLM bietet die Software Zugang zu validierten und optimierten Modellen von Drittanbietern auf Hugging Face. Außerdem sind LLM Compressor-Tools enthalten. 

Red Hat Enterprise Linux AI Logo

Red Hat Enterprise Linux® AI ist eine Plattform, mit der Sie LLMs (Large Language Models) konsistent in einzelnen Serverumgebungen ausführen können. 

Durch den enthaltenen Red Hat AI Inference Server verfügen Sie über schnelle, kostengünstige Hybrid Cloud-Inferenz unter Verwendung von vLLM für maximierten Durchsatz und minimale Latenz.

Außerdem können Sie mit Funktionen wie dem Image-Modus Lösungen konsistent in großem Umfang anwenden. Sie können darüber hinaus in der gesamten Linux-Umgebung dieselben Sicherheitsprofile anwenden und so Ihr Team in einem einzigen Workflow zusammenführen.

Enthält Red Hat AI Inference Server

Red Hat OpenShift AI Logo

Red Hat OpenShift® AI basiert auf den Funktionen von Red Hat OpenShift und bietet eine Plattform für das Lifecycle-Management generativer und prädiktiver KI-Modelle in großem Umfang. 

Es bietet Produktiv-KI (einschließlich souveräner und privater KI), sodass Unternehmen KI-Modelle und -Agenten in verschiedenen Hybrid Cloud-Umgebungen entwickeln, bereitstellen und verwalten können.

Enthält Red Hat AI Inference Server

Enthält Red Hat Enterprise Linux AI

Validierte Performance für reale Ergebnisse

Red Hat AI bietet Zugang zu einer Reihe betriebsbereiter, validierter Modelle von Drittanbietern, die effizient mit vLLM auf unserer Plattform ausgeführt werden.

Nutzen Sie validierte Drittanbietermodelle von Red Hat, um die Modell-Performance zu testen und die Inferenz zu optimieren. Außerdem erhalten Sie Anleitungen, um die Komplexität zu reduzieren und die Einführung von KI zu beschleunigen.

 

Individuelle KI-Lösungen für Ihre Anforderungen

Generative KI

Generative KI

Neue Inhalte wie Text und Softwarecode produzieren 

Mit Red Hat AI können Sie die generativen KI-Modelle Ihrer Wahl schneller, mit weniger Ressourcen und geringeren Inferenzkosten ausführen. 

Prädiktive KI

Prädiktive KI

Muster erkennen und zukünftige Ergebnisse prognostizieren 

Mit Red Hat AI können Unternehmen prädiktive Modelle entwickeln, trainieren, bereitstellen und überwachen und dabei die Konsistenz in der Hybrid Cloud wahren.

Operationalisierte KI

Operationalisierte KI

Systeme entwickeln, die die Wartung und Bereitstellung von KI in großem Umfang unterstützen 

Mit Red Hat AI können Sie den Lifecycle von KI-fähigen Anwendungen managen und überwachen, gleichzeitig Ressourcen einsparen und die Compliance mit Datenschutzbestimmungen sicherstellen. 

Agentische KI

Agentische KI

Entwickeln Sie Workflows, die komplexe Aufgaben unter eingeschränkter Überwachung ausführen. 

Red Hat AI bietet einen flexiblen Ansatz und eine stabile Basis für die Entwicklung, Verwaltung und Bereitstellung agentischer KI-Workflows in vorhandenen Anwendungen.

Mehr KI-Partner. Mehr Möglichkeiten für Fortschritt.

Fachleute und Technologien werden zusammengeführt, damit unsere Kunden mit KI mehr erreichen können. Viele verschiedene Technologiepartner arbeiten mit Red Hat zusammen, um ihre Kompatibilität mit unseren Lösungen zu zertifizieren. 

Dell Technologies
Lenovo
Intel
NVIDIA
AMD

Weitere KI Success Stories vom Red Hat Summit und AnsibleFest 2025

Turkish Airlines

Turkish Airlines verdoppelte die Geschwindigkeit der Bereitstellung durch unternehmensweiten Zugang zu Daten.

JCCM-Logo

JCCM konnte die Prozesse zur Umweltverträglichkeitsprüfung (UVP) in der Region mithilfe von KI verbessern.

DenizBank

Die Denizbank verkürzte die Markteinführungszeiten von Tagen auf wenige Minuten.

Hitachi-Logo

Hitachi hat KI in seinem gesamten Unternehmen mit Red Hat OpenShift AI operationalisiert.

Lösungs-Pattern

KI-Anwendungen mit Red Hat und NVIDIA AI Enterprise

Entwickeln einer RAG-Anwendung

Red Hat OpenShift AI ist eine Plattform für das Entwickeln von Data Science-Projekten und Bereitstellen von KI-gestützten Anwendungen. Sie können sämtliche für die Unterstützung von Retrieval-Augmented Generation (RAG), einer Methode zum Abrufen von KI-Antworten aus Ihren eigenen Referenzdokumenten, erforderlichen Tools integrieren. Wenn Sie OpenShift AI mit NVIDIA AI Enterprise kombinieren, können Sie mit Large Language Models (LLMs) experimentieren und so das optimale Modell für Ihre Anwendung finden.

Erstellen einer Pipeline für Dokumente

Damit Sie RAG nutzen können, müssen Sie Ihre Dokumente zunächst in eine Vektordatenbank aufnehmen. In unserer Beispielanwendung integrieren wir eine Anzahl von Produktdokumenten in eine Redis-Datenbank. Da sich diese Dokumente häufig ändern, können wir für diesen Prozess eine Pipeline erstellen, die wir regelmäßig ausführen, damit wir immer die aktuellsten Versionen der Dokumente zur Verfügung haben

Durchsuchen des LLM-Katalogs

Mit NVIDIA AI Enterprise können Sie auf einen Katalog verschiedener LLMs zugreifen. So können Sie verschiedene Möglichkeiten ausprobieren und das Modell auswählen, das die optimalen Ergebnisse erzielt. Die Modelle werden im NVIDIA API-Katalog gehostet. Sobald Sie ein API-Token eingerichtet haben, können Sie ein Modell mit der NVIDIA NIM Model Serving-Plattform direkt über OpenShift AI bereitstellen.

Auswählen des richtigen Modells

Beim Testen verschiedener LLMs können Ihre Nutzerinnen und Nutzer die einzelnen generierten Antworten bewerten. Sie können ein Grafana Monitoring Dashboard einrichten, um die Bewertungen sowie die Latenz- und Antwortzeiten der einzelnen Modelle zu vergleichen. Anhand dieser Daten können Sie dann das optimale LLM für den Produktionseinsatz auswählen.

Symbol PDF herunterladen

Ein Architekturdiagramm zeigt eine Anwendung, die mit Red Hat OpenShift AI und NVIDIA AI Enterprise entwickelt wurde. Zu den Komponenten gehören OpenShift GitOps für die Verbindung zu GitHub und die Handhabung von DevOps-Interaktionen, Grafana für das Monitoring, OpenShift AI für Data Science, Redis als Vektordatenbank und Quay als Image Registry. Diese Komponenten bilden die Basis für das Frontend und Backend der Anwendung. Sie basieren auf Red Hat OpenShift AI, mit einer Integration mit ai.nvidia.com.

Red Hat AI in der Praxis

Foto von Händen mit einem Taschenrechner

Ortec Finance Logo

Ortec Finance beschleunigt Wachstum und verkürzt Markteinführungszeiten 

Ortec Finance, ein globaler Anbieter von Technologien und Lösungen für das Risiko- und Renditemanagement, stellt ML-Modelle auf Microsoft Azure Red Hat OpenShift bereit und führt Red Hat AI ein.

Abbildung einer Person, die auf ein Gerät schaut
Phoenix logo

Phoenix Systems bietet Cloud Computing der nächsten Generation

Erfahren Sie, wie Phoenix Systems mit Red Hat zusammenarbeitet, um Kunden mehr Auswahl, Transparenz und KI-Innovationen zu bieten.​

Allgemeines Grafikdiagramm

DenizBank Logo

DenizBank unterstützt Data Scientists

DenizBank entwickelt KI-Modelle, um Kredite für Kunden und gleichzeitig möglichen Betrug zu identifizieren. Mit Red Hat AI erreichten die Data Scientists der Bank eine neue Stufe der Autonomie in Bezug auf die unternehmenseigenen Daten.

Violette Kreise

Symbol für gestapelte Server

RHEL-Symbol

Symbol eines rosa Würfels neben einer Wolke

OpenShift-Symbol

Symbol eines Browsers mit Sternen, das KI darstellt

OpenShift-Symbol

Symbol eines Zahnrads

OpenShift-Symbol

Entwicklung auf einer zuverlässigen Basis

Weltweit vertrauen Unternehmen auf unser umfassendes Portfolio an Lösungen für die Hybrid Cloud-Infrastruktur, Anwendungsservices, cloudnative Anwendungsentwicklung und Automatisierung für die schnelle und kosteneffiziente Bereitstellung von IT-Services auf verschiedenen Infrastrukturen.

Red Hat Enterprise Linux

Support für Anwendungsbereitstellungen – ob On-Premise, in der Cloud oder am Edge – in einer flexiblen Betriebsumgebung

Mehr erfahren 

Red Hat OpenShift

Schnelle Entwicklung und Bereitstellung von Anwendungen in großem Umfang und Modernisierung bereits vorhandener Anwendungen

Mehr erfahren 

Red Hat Ansible
Automation Platform

Entwicklung, Verwaltung und dynamische Skalierung von Automatisierung in Ihrem gesamten Unternehmen

Mehr erfahren 

Red Hat AI
 

Tuning kleiner Modelle mit unternehmensrelevanten Daten sowie Entwicklung und Bereitstellung von KI-Lösungen in Hybrid Cloud-Umgebungen

Mehr erfahren 

Weitere KI-Ressourcen erkunden

Erste Schritte mit KI für Unternehmen

Red Hat Consulting für KI

Maximieren von KI-Innovationen mit Open Source-Modellen

Red Hat Consulting: AI Platform Foundation

Sprechen Sie mit Red Hat über Red Hat AI