-
Produkte und Dokumentation Red Hat AI
Eine Plattform mit Produkten und Services für die Entwicklung und Bereitstellung von KI in der Hybrid Cloud.
Red Hat AI Inference Server
Optimieren Sie die Modell-Performance mit vLLM für schnelle und kosteneffiziente Inferenz in großem Umfang.
Red Hat Enterprise Linux AI
Entwickeln, testen und nutzen Sie generative KI-Modelle zur Unterstützung von Unternehmensanwendungen.
Red Hat OpenShift AI
Entwickeln und implementieren Sie KI-gestützte Anwendungen und Modelle in großem Umfang in Hybrid-Umgebungen.
Cloud Services
Red Hat AI InstructLab on IBM Cloud
Eine skalierbare, kosteneffiziente Lösung zum Anpassen von KI-Modellen in der Cloud.
-
Lernen Grundlagen
-
KI-Partner
Red Hat Enterprise Linux AI
Red Hat® Enterprise Linux® AI ist eine Plattform, mit der Sie LLMs (Large Language Models) in einzelnen Serverumgebungen ausführen können. Die Lösung umfasst Red Hat AI Inference Server, durch den sich schnelle und kostengünstige Inferenzen in der gesamten Hybrid Cloud erzielen lassen, und zwar durch Maximieren des Durchsatzes und Minimieren der Latenz.
Was ist Red Hat Enterprise Linux AI?
In Red Hat Enterprise Linux AI sind folgende Komponenten vereint:
- Red Hat AI Inference Server für ein schnelles und konsistentes Modell-Deployment in der gesamten Hybrid Cloud mit umfassender Hardwareunterstützung
- Ein startfähiges Image von Red Hat Enterprise Linux, einschließlich gängiger KI-Libraries wie PyTorch und hardwareoptimierter Inferenz für NVIDIA, Intel und AMD
- Unternehmensgerechter technischer Support und rechtlicher Schutz mit Open Source Assurance
Schnelle, flexible Inferenz
Wenn es um die Implementierung generativer KI geht, haben Sie 2 Möglichkeiten: Sie können Ihre Strategie an ein vorgefertigtes Produkt anpassen oder eine benutzerdefinierte Lösung entwickeln, die direkt auf Ihre Geschäftsziele abgestimmt ist.
Red Hat Enterprise Linux AI basiert auf Open Source und stellt Ihnen eine geschützte und zuverlässige Infrastruktur bereit, in der Sie beliebige Modelle auf beliebiger Hardware mit beliebigen Accelerators ausführen können – in der gesamten Hybrid Cloud. Die Lösung umfasst Red Hat AI Inference Server und bietet so eine unveränderliche, speziell entwickelte Basis für Inferenzen. Das Paket aus Betriebssystem und AI Inference Server ermöglicht Ihnen, direkt mit der Bereitstellung von Modellen zu beginnen. Da auch vLLM Runtime und LLM Compressor integriert sind, können Sie den Durchsatz maximieren und die Latenz minimieren, um Ihre Modelle schnell und kostengünstig bereitzustellen.
Features und Vorteile
LLMs für Unternehmen
Mithilfe von Methoden wie Retrieval-Augmented Generation (RAG) können Sie kleinere, speziell entwickelte Modelle mit Ihren eigenen Daten anpassen.
Gesteigerte Effizienz
Red Hat AI Inference Server basiert auf dem Framework vLLM und erhöht die Effizienz, ohne Abstriche bei der Performance zu machen.
Cloudnative Skalierbarkeit
Mit dem Red Hat Enterprise Linux Image-Modus können Sie Ihre KI-Plattform als Container Image verwalten und so Ihren Skalierungsansatz optimieren.
Individuelle KI-Lösungen für Ihre Anforderungen
Generative KI
Neue Inhalte wie Text und Softwarecode produzieren
Mit Red Hat AI können Sie die generativen KI-Modelle Ihrer Wahl schneller, mit weniger Ressourcen und geringeren Inferenzkosten ausführen.
Prädiktive KI
Muster erkennen und zukünftige Ergebnisse prognostizieren
Mit Red Hat AI können Unternehmen prädiktive Modelle entwickeln, trainieren, bereitstellen und überwachen und dabei die Konsistenz in der Hybrid Cloud wahren.
Operationalisierte KI
Systeme entwickeln, die die Wartung und Bereitstellung von KI in großem Umfang unterstützen
Mit Red Hat AI können Sie den Lifecycle von KI-fähigen Anwendungen managen und überwachen, gleichzeitig Ressourcen einsparen und die Compliance mit Datenschutzbestimmungen sicherstellen.
Agentische KI
Entwickeln Sie Workflows, die komplexe Aufgaben unter eingeschränkter Überwachung ausführen.
Red Hat AI bietet einen flexiblen Ansatz und eine stabile Basis für die Entwicklung, Verwaltung und Bereitstellung agentischer KI-Workflows in vorhandenen Anwendungen.
Deployment mit Partnern
Für das Trainieren von KI-Modellen (Künstliche Intelligenz) brauchen Sie optimierte Hardware und leistungsstarke Rechenkapazitäten. Holen Sie mehr aus Red Hat Enterprise Linux AI heraus, indem Sie es um weitere integrierte Services und Produkte erweitern.
Weitere KI Success Stories vom Red Hat Summit und AnsibleFest 2025
Turkish Airlines verdoppelte die Geschwindigkeit der Bereitstellung durch unternehmensweiten Zugang zu Daten.
JCCM konnte die Prozesse zur Umweltverträglichkeitsprüfung (UVP) in der Region mithilfe von KI verbessern.
Die Denizbank verkürzte die Markteinführungszeiten von Tagen auf wenige Minuten.
Hitachi hat KI in seinem gesamten Unternehmen mit Red Hat OpenShift AI operationalisiert.
Häufig gestellte Fragen
Was ist der Unterschied zwischen Red Hat Enterprise Linux AI und Red Hat Enterprise Linux?
Red Hat Enterprise Linux AI ist eine Basismodellplattform für das Ausführen von LLMs in individuellen Serverumgebungen. Die Lösung umfasst Red Hat AI Inference Server und bietet schnelle und kostengünstige Hybrid Cloud-Inferenzen dank maximiertem Durchsatz, minimierter Latenz und reduzierter Rechenkosten.
Red Hat Enterprise Linux ist eine kommerzielle Open Source Linux-Distribution, die von Red Hat für den kommerziellen Markt entwickelt wurde und eine flexible und stabile Basis zur Unterstützung von Hybrid Cloud-Innovationen bereitstellt.
Red Hat Enterprise Linux AI wird als startfähiges Image von Red Hat Enterprise Linux angeboten, das KI-Libraries und Granite-Modelle umfasst.
Muss ich Red Hat Enterprise Linux erwerben, um Red Hat Enterprise Linux AI verwenden zu können?
Nein, eine Lizenz für Red Hat Enterprise Linux AI ist ausreichend und enthält sämtliche erforderlichen Komponenten.
Was beinhaltet Red Hat Enterprise Linux AI?
Red Hat Enterprise Linux AI enthält ein startfähiges Image eines Container-Images von Red Hat Enterprise Linux, das Folgendes enthält:
- Red Hat AI Inference Server
- Open Source-lizenzierte Granite-Modelle
- Pytorch und Runtime Libraries
- Treiber für Accelerators (NVIDIA, Intel, AMD)
Was ist der Unterschied zwischen Red Hat Enterprise Linux AI und Red Hat OpenShift AI?
Mit Red Hat Enterprise Linux AI profitieren Sie von sofort einsatzbereiten LLMs auf einem einzigen Server. Die Lösung umfasst Red Hat AI Inference Server und bietet so eine unveränderliche, speziell entwickelte Basis für Inferenzen. Red Hat Enterprise Linux AI paketiert Betriebssystem und Anwendung zusammen. Dies erleichtert die Day 1-Operationen für KI-Inferenzen in der gesamten Hybrid Cloud, da die Latenz maximiert und die Rechenkosten reduziert werden.
Red Hat OpenShift® AI bietet sämtliche erforderlichen Tools, damit Kunden KI-fähige Anwendungen in großem Umfang erstellen können. Red Hat OpenShift AI bietet eine umfassende, integrierte MLOps-Plattform, um den Lifecycle von Modellen zu verwalten und die Unterstützung von verteiltem Computing, Workflows für die Zusammenarbeit, Monitoring und Hybrid Cloud-Anwendungen sicherzustellen.
Red Hat OpenShift AI bietet Zugriff auf Red Hat Enterprise Linux AI, sodass Teams dieselben Modelle und Anpassungstools in ihrer OpenShift KI-Architektur verwenden und von zusätzlichen MLOps-Funktionen für Unternehmen profitieren können.
Wie sieht die Preisgestaltung von Red Hat Enterprise Linux AI aus?
Die Lizenz für Red Hat Enterprise Linux AI wird pro Accelerator berechnet.
Weitere KI-Ressourcen ansehen
4 Überlegungen für die Wahl des richtigen KI-Modells
Maximieren von KI-Innovationen mit Open Source-Modellen
4 Vorteile von Open Source-basierten Small Language Models
Unlock generative AI innovation with Red Hat AI
Vertrieb kontaktieren
Sprechen Sie mit Red Hat
Wenden Sie sich an unser Vertriebsteam, um Preisinformationen zu Red Hat Enterprise Linux AI zu erhalten.
Informationen zu unseren Partnerschaften finden Sie auf unserer Katalogseite.