Red Hat Enterprise Linux AI

Red Hat® Enterprise Linux® AI ist eine Plattform, mit der Sie LLMs (Large Language Models) in einzelnen Serverumgebungen ausführen können. Die Lösung umfasst Red Hat AI Inference Server, durch den sich schnelle und kostengünstige Inferenzen in der gesamten Hybrid Cloud erzielen lassen, und zwar durch Maximieren des Durchsatzes und Minimieren der Latenz.

Darstellung der Benutzeroberfläche von RHELAI

Was ist Red Hat Enterprise Linux AI?

In Red Hat Enterprise Linux AI sind folgende Komponenten vereint:

  • Red Hat AI Inference Server für ein schnelles und konsistentes Modell-Deployment in der gesamten Hybrid Cloud mit umfassender Hardwareunterstützung
  • Ein startfähiges Image von Red Hat Enterprise Linux, einschließlich gängiger KI-Libraries wie PyTorch und hardwareoptimierter Inferenz für NVIDIA, Intel und AMD
  • Unternehmensgerechter technischer Support und rechtlicher Schutz mit Open Source Assurance 

Schnelle, flexible Inferenz

Wenn es um die Implementierung generativer KI geht, haben Sie 2 Möglichkeiten: Sie können Ihre Strategie an ein vorgefertigtes Produkt anpassen oder eine benutzerdefinierte Lösung entwickeln, die direkt auf Ihre Geschäftsziele abgestimmt ist. 

Red Hat Enterprise Linux AI basiert auf Open Source und stellt Ihnen eine geschützte und zuverlässige Infrastruktur bereit, in der Sie beliebige Modelle auf beliebiger Hardware mit beliebigen Accelerators ausführen können – in der gesamten Hybrid Cloud. Die Lösung umfasst Red Hat AI Inference Server und bietet so eine unveränderliche, speziell entwickelte Basis für Inferenzen. Das Paket aus Betriebssystem und AI Inference Server ermöglicht Ihnen, direkt mit der Bereitstellung von Modellen zu beginnen. Da auch vLLM Runtime und LLM Compressor integriert sind, können Sie den Durchsatz maximieren und die Latenz minimieren, um Ihre Modelle schnell und kostengünstig bereitzustellen. 

Features und Vorteile

Symbolische Darstellung von Open Source-Blasen

LLMs für Unternehmen

Mithilfe von Methoden wie Retrieval-Augmented Generation (RAG) können Sie kleinere, speziell entwickelte Modelle mit Ihren eigenen Daten anpassen.

Gesteigerte Effizienz

Red Hat AI Inference Server basiert auf dem Framework vLLM und erhöht die Effizienz, ohne Abstriche bei der Performance zu machen. 

Symbolische Darstellung einer Abbildung der Vereinfachung

Cloudnative Skalierbarkeit

Mit dem Red Hat Enterprise Linux Image-Modus können Sie Ihre KI-Plattform als Container Image verwalten und so Ihren Skalierungsansatz optimieren.

Individuelle KI-Lösungen für Ihre Anforderungen

Generative KI

Generative KI

Neue Inhalte wie Text und Softwarecode produzieren 

Mit Red Hat AI können Sie die generativen KI-Modelle Ihrer Wahl schneller, mit weniger Ressourcen und geringeren Inferenzkosten ausführen. 

Prädiktive KI

Prädiktive KI

Muster erkennen und zukünftige Ergebnisse prognostizieren 

Mit Red Hat AI können Unternehmen prädiktive Modelle entwickeln, trainieren, bereitstellen und überwachen und dabei die Konsistenz in der Hybrid Cloud wahren.

Operationalisierte KI

Operationalisierte KI

Systeme entwickeln, die die Wartung und Bereitstellung von KI in großem Umfang unterstützen 

Mit Red Hat AI können Sie den Lifecycle von KI-fähigen Anwendungen managen und überwachen, gleichzeitig Ressourcen einsparen und die Compliance mit Datenschutzbestimmungen sicherstellen. 

Agentische KI

Agentische KI

Entwickeln Sie Workflows, die komplexe Aufgaben unter eingeschränkter Überwachung ausführen. 

Red Hat AI bietet einen flexiblen Ansatz und eine stabile Basis für die Entwicklung, Verwaltung und Bereitstellung agentischer KI-Workflows in vorhandenen Anwendungen.

Deployment mit Partnern

Für das Trainieren von KI-Modellen (Künstliche Intelligenz) brauchen Sie optimierte Hardware und leistungsstarke Rechenkapazitäten. Holen Sie mehr aus Red Hat Enterprise Linux AI heraus, indem Sie es um weitere integrierte Services und Produkte erweitern. 

Dell Technologies Logo
Lenovo Logo
Intel Logo
Nvidia Logo
AMD Logo

Weitere KI Success Stories vom Red Hat Summit und AnsibleFest 2025

Turkish Airlines

Turkish Airlines verdoppelte die Geschwindigkeit der Bereitstellung durch unternehmensweiten Zugang zu Daten.

JCCM-Logo

JCCM konnte die Prozesse zur Umweltverträglichkeitsprüfung (UVP) in der Region mithilfe von KI verbessern.

DenizBank

Die Denizbank verkürzte die Markteinführungszeiten von Tagen auf wenige Minuten.

Hitachi-Logo

Hitachi hat KI in seinem gesamten Unternehmen mit Red Hat OpenShift AI operationalisiert.

Häufig gestellte Fragen

Was ist der Unterschied zwischen Red Hat Enterprise Linux AI und Red Hat Enterprise Linux?

Red Hat Enterprise Linux AI ist eine Basismodellplattform für das Ausführen von LLMs in individuellen Serverumgebungen. Die Lösung umfasst Red Hat AI Inference Server und bietet schnelle und kostengünstige Hybrid Cloud-Inferenzen dank maximiertem Durchsatz, minimierter Latenz und reduzierter Rechenkosten.

Red Hat Enterprise Linux ist eine kommerzielle Open Source Linux-Distribution, die von Red Hat für den kommerziellen Markt entwickelt wurde und eine flexible und stabile Basis zur Unterstützung von Hybrid Cloud-Innovationen bereitstellt.

Red Hat Enterprise Linux AI wird als startfähiges Image von Red Hat Enterprise Linux angeboten, das KI-Libraries und Granite-Modelle umfasst.

Muss ich Red Hat Enterprise Linux erwerben, um Red Hat Enterprise Linux AI verwenden zu können?

Nein, eine Lizenz für Red Hat Enterprise Linux AI ist ausreichend und enthält sämtliche erforderlichen Komponenten.

Was beinhaltet Red Hat Enterprise Linux AI?

Red Hat Enterprise Linux AI enthält ein startfähiges Image eines Container-Images von Red Hat Enterprise Linux, das Folgendes enthält:

Was ist der Unterschied zwischen Red Hat Enterprise Linux AI und Red Hat OpenShift AI?

Mit Red Hat Enterprise Linux AI profitieren Sie von sofort einsatzbereiten LLMs auf einem einzigen Server. Die Lösung umfasst Red Hat AI Inference Server und bietet so eine unveränderliche, speziell entwickelte Basis für Inferenzen. Red Hat Enterprise Linux AI paketiert Betriebssystem und Anwendung zusammen. Dies erleichtert die Day 1-Operationen für KI-Inferenzen in der gesamten Hybrid Cloud, da die Latenz maximiert und die Rechenkosten reduziert werden.

Red Hat OpenShift® AI bietet sämtliche erforderlichen Tools, damit Kunden KI-fähige Anwendungen in großem Umfang erstellen können. Red Hat OpenShift AI bietet eine umfassende, integrierte MLOps-Plattform, um den Lifecycle von Modellen zu verwalten und die Unterstützung von verteiltem Computing, Workflows für die Zusammenarbeit, Monitoring und Hybrid Cloud-Anwendungen sicherzustellen.

Red Hat OpenShift AI bietet Zugriff auf Red Hat Enterprise Linux AI, sodass Teams dieselben Modelle und Anpassungstools in ihrer OpenShift KI-Architektur verwenden und von zusätzlichen MLOps-Funktionen für Unternehmen profitieren können.

Wie sieht die Preisgestaltung von Red Hat Enterprise Linux AI aus?

Die Lizenz für Red Hat Enterprise Linux AI wird pro Accelerator berechnet.

Weitere KI-Ressourcen ansehen

4 Überlegungen für die Wahl des richtigen KI-Modells

Maximieren von KI-Innovationen mit Open Source-Modellen

4 Vorteile von Open Source-basierten Small Language Models

Unlock generative AI innovation with Red Hat AI

Vertrieb kontaktieren

Sprechen Sie mit Red Hat

Wenden Sie sich an unser Vertriebsteam, um Preisinformationen zu Red Hat Enterprise Linux AI zu erhalten. 
Informationen zu unseren Partnerschaften finden Sie auf unserer Katalogseite.