Red Hat AI

Red Hat® AI beschleunigt die Einführung von KI in Unternehmen durch kleine, speziell entwickelte Modelle, effiziente Anpassungstechniken und die Flexibilität für ortsunabhängige Entwicklung und Bereitstellung.

Red Hat AI unterstützt Sie bei der Einführung von KI oder bei der Vorbereitung auf die Skalierung.

Ein im Raum schwebender Browser mit zwei Quadraten mit abgerundeten Ecken. Ein Red Hat Enterprise Linux Produktsymbol auf der einen und ein OpenShift AI Symbol auf der anderen Seite.

Angebote zu Red Hat AI

Red Hat Enterprise Linux® AI

Red Hat Enterprise Linux AI kann Kunden unterstützen, die KI gerade erst eingeführt und noch keine Use Cases für ihr Unternehmen definiert haben. Mit der KI-Plattform können Sie generative KI-Basismodelle (gen KI) entwickeln, testen und ausführen.

Features und Vorteile

  •  Enthält LLMs der Granite-Produktfamilie von IBM

  • Lokales Fine Tuning für Modelle mit InstructLab

  • Kosteneffizienz für Kunden mit eingeschränktem Zugang zu GPUs

Red Hat OpenShift® AI

Red Hat OpenShift AI ist für Kunden konzipiert, die bereit sind, ihre KI-Anwendungen zu skalieren. Diese KI-Plattform bietet Unterstützung bei der Verwaltung des Lifecycles sowohl von prädiktiven als auch von gen KI-Modellen in Hybrid Cloud-Umgebungen.

Features und Vorteile

  • MLOps-Funktionen für Unternehmen

  • Enthält IBM Granite-LLMs und InstructLab-Tools

  • Entwicklung und Bereitstellung von KI in großem Umfang mit Hardwarebeschleunigern und Hybrid Cloud-Unterstützung

Was ist InstructLab?

Red Hat InstructLab ist ein communitybasiertes Projekt, das Entwicklungsteams das Experimentieren mit den Granite-Modellen von IBM erleichtert, selbst wenn sie nur über wenig Erfahrung mit maschinellem Lernen verfügen.

Es ist ein idealer Ausgangspunkt, wenn Sie mit dem KI-Modell Ihrer Wahl experimentieren oder ein Fine Tuning der Basismodelle auf Ihrer lokalen Hardware vornehmen möchten.

So werden die Kosten- und Ressourcenbarrieren für das Experimentieren mit KI-Modellen beseitigt, bevor Sie für den Einsatz von KI in Ihrem Unternehmen bereit sind.

KI-Partner von Red Hat

Mehr KI-Partner bedeuten mehr Wege zum Erfolg, sodass Sie sich Ihre Optionen offen halten können.

Fachleute und Technologien werden zusammengeführt, damit unsere Kunden mit KI mehr erreichen können. Viele verschiedene Technologiepartner arbeiten mit Red Hat zusammen, um ihre Kompatibilität mit unseren Lösungen zu zertifizieren. Und unser Partnernetzwerk wächst weiter.

Partner Logos: Lenovo, intel, NVIDIA, Dell

Lösungs-Pattern

KI-Anwendungen mit Red Hat und NVIDIA AI Enterprise

Entwickeln einer RAG-Anwendung

Red Hat OpenShift AI ist eine Plattform für das Entwickeln von Data Science-Projekten und Bereitstellen von KI-gestützten Anwendungen. Sie können sämtliche für die Unterstützung   von Retrieval-Augmented Generation (RAG), einer Methode zum Abrufen von KI-Antworten aus Ihren eigenen Referenzdokumenten, erforderlichen Tools integrieren. Wenn Sie OpenShift AI mit NVIDIA AI Enterprise kombinieren, können Sie mit   Large Language Models (LLMs) experimentieren und so das optimale Modell für Ihre Anwendung finden.

Erstellen einer Pipeline für Dokumente

Damit Sie RAG nutzen können, müssen Sie Ihre Dokumente zunächst in eine Vektordatenbank aufnehmen. In unserer Beispielanwendung integrieren wir eine Anzahl von Produktdokumenten in eine Redis-Datenbank. Da sich diese Dokumente häufig ändern, können wir für diesen Prozess eine Pipeline erstellen, die wir regelmäßig ausführen, damit wir immer die aktuellsten Versionen der Dokumente zur Verfügung haben

Durchsuchen des LLM-Katalogs

Mit NVIDIA AI Enterprise können Sie auf einen Katalog verschiedener LLMs zugreifen. So können Sie verschiedene Möglichkeiten ausprobieren und das Modell auswählen, das die optimalen Ergebnisse erzielt. Die Modelle werden im NVIDIA API-Katalog gehostet. Sobald Sie ein API-Token eingerichtet haben, können Sie ein Modell mit der NVIDIA NIM Model Serving-Plattform direkt über OpenShift AI bereitstellen.

Auswählen des richtigen Modells

Beim Testen verschiedener LLMs können Ihre Nutzerinnen und Nutzer die einzelnen generierten Antworten bewerten. Sie können ein Grafana Monitoring Dashboard einrichten, um die Bewertungen sowie die Latenz- und Antwortzeiten der einzelnen Modelle zu vergleichen. Anhand dieser Daten können Sie dann das optimale LLM für den Produktionseinsatz auswählen.

Symbol PDF herunterladen

Ein Architekturdiagramm zeigt eine Anwendung, die mit Red Hat OpenShift AI und NVIDIA AI Enterprise entwickelt wurde. Zu den Komponenten gehören OpenShift GitOps für die Verbindung zu GitHub und die Handhabung von DevOps-Interaktionen, Grafana für das Monitoring, OpenShift AI für Data Science, Redis als Vektordatenbank und Quay als Image Registry. Diese Komponenten bilden die Basis für das Frontend und Backend der Anwendung. Sie basieren auf Red Hat OpenShift AI, mit einer Integration mit ai.nvidia.com.

Red Hat AI Success Stories

Foto von Händen mit einem Taschenrechner

Ortec Finance Logo

Ortec Finance beschleunigt Wachstum und Markteinführungszeiten 

Ortec Finance, ein globaler Anbieter von Technologien und Lösungen für das Risiko- und Renditemanagement, stellt ML-Modelle auf Microsoft Azure Red Hat OpenShift bereit und führt Red Hat AI ein.

Abbildung einer Person, die auf ein Gerät schaut
Phoenix logo

Phoenix Systems bietet Cloud Computing der nächsten Generation

Erfahren Sie, wie Phoenix Systems mit Red Hat zusammenarbeitet, um Kunden mehr Auswahl, Transparenz und KI-Innovationen zu bieten.​

Studierende an Computern

Boston University entwickelt eine Bildungsplattform

Die Boston University konnte eine Lernumgebung skalieren, die Hunderte von Nutzenden aus den Bereichen Informatik und Computertechnik aufnehmen kann.  

Zugehörige Ressourcen erkunden

Erste Schritte mit KI für Unternehmen

Red Hat Consulting: Red Hat OpenShift AI Pilot

Red Hat Consulting: MLOps Foundation

Sprechen Sie mit Red Hat über Red Hat AI