Red Hat Enterprise Linux AI

Red Hat® Enterprise Linux® AI ist eine Plattform für Basismodelle für Entwicklung, Test und Einsatz von Large Language Models (LLM) mit optimierten Inferenzfunktionen. 

Red Hat Enterprise Linux AI

Was ist Red Hat Enterprise Linux AI?

In Red Hat Enterprise Linux AI sind folgende Komponenten vereint:

  • Red Hat AI Inference Server für eine konsistente, schnelle und kosteneffiziente Modellbereitstellung in der Hybrid Cloud mit breitem Hardwaresupport
  • InstructLab-Tools für die Modellanpassung, die zahlreichen Nutzenden Zugriff auf von der Community entwickelte LLMs gewähren
  • Ein startfähiges Image von Red Hat Enterprise Linux, einschließlich gängiger KI-Libraries wie PyTorch und hardwareoptimierter Inferenz für NVIDIA, Intel und AMD
  • Unternehmensgerechter technischer Support und rechtlicher Schutz mit Open Source Assurance 

Überblick über Red Hat Enterprise Linux AI Dauer des Videos: 1:42

Was ist Red Hat Enterprise Linux AI? Dauer des Videos: 4:10

Kontrolle über LLMs mit Open Source

Generative KI (gen AI) ist ein Katalysator für bahnbrechende Veränderungen, die von der Entwicklung von Software bis hin zur Kommunikation vieles verändern werden. Häufig sind die für generative KI verwendeten LLMs jedoch streng kontrolliert und können nicht ohne spezielle Kompetenzen und hohe Kosten bewertet oder verbessert werden.

Die Zukunft sollte nicht in den Händen einiger weniger Personen liegen. Mit Red Hat Enterprise Linux AI und seinem Open Source-Ansatz können Sie Innovationen mit generativer KI mit Vertrauen und Transparenz fördern, während Sie gleichzeitig die Kosten senken und Einstiegshürden beseitigen.

Mit InstructLab, einer communitybasierten Lösung zur Verbesserung der LLM-Funktionen, können Sie sogar direkt zur KI-Modellentwicklung beitragen.

Symbolische Darstellung von Open Source-Blasen

LLMs für Unternehmen

Mithilfe von Methoden wie RAG (Retrieval-Augmented Generation) können Sie kleinere, speziell entwickelte Modelle durch Fine Tuning mit Ihren eigenen Daten anpassen.

Gesteigerte Effizienz

Auf der Basis von vLLM steigert Red Hat AI Inference Server die Effizienz, ohne dabei an Performance zu verlieren. 

Symbolische Darstellung einer Abbildung der Vereinfachung

Cloudnative Skalierbarkeit

Mit dem Image-Modus von Red Hat Enterprise Linux können Sie Ihre KI-Plattform als Container Image verwalten und so Ihren Skalierungsansatz optimieren.

Symbolische Darstellung der Community

Community-Zusammenarbeit

InstructLab ermöglicht ein vereinfachtes Experimentieren mit generativen KI-Modellen sowie eine optimierte Modellanpassung.

Deployment mit Partnern

Für das Trainieren von KI-Modellen benötigen Sie optimierte Hardware und leistungsstarke Rechenkapazitäten. Nutzen Sie sämtliche Vorteile von Red Hat Enterprise Linux AI, indem Sie es um weitere integrierte Services und Produkte erweitern. 

Dell Technologies-Logo
Lenovo-Logo
Intel-Logo
Nvidia-Logo
AMD-Logo

Häufig gestellte Fragen

Was ist der Unterschied zwischen Red Hat Enterprise Linux AI und Red Hat Enterprise Linux?

Red Hat® Enterprise Linux® AI ist eine Plattform für Basismodelle, mit der Sie Large Language Models (LLMs) für Unternehmensanwendungen entwickeln, testen und bereitstellen können.

Red Hat Enterprise Linux ist eine kommerzielle Open Source Linux-Distribution, die von Red Hat für den kommerziellen Markt entwickelt wurde und eine flexible und stabile Basis zur Unterstützung von Hybrid Cloud-Innovationen bietet.

Red Hat Enterprise Linux AI wird als startfähiges Image von Red Hat Enterprise Linux angeboten, das über KI-Libraries, Granite 3.0-Modelle und InstructLab-Tools verfügt.

Muss ich Red Hat Enterprise Linux erwerben, um Red Hat Enterprise Linux AI verwenden zu können?

Nein, eine Lizenz für Red Hat Enterprise Linux AI ist ausreichend und enthält sämtliche erforderlichen Komponenten.

Was beinhaltet Red Hat Enterprise Linux AI?

Red Hat Enterprise Linux AI enthält ein startfähiges Image eines Container Images von Red Hat Enterprise Linux, das Folgendes enthält:

Was ist der Unterschied zwischen Red Hat Enterprise Linux AI und Red Hat OpenShift AI?

Red Hat Enterprise Linux AI bietet sofort einsatzbereite Large Language Models und Code Language Models auf einem einzelnen Server für Entwicklung und Inferenz zusammen mit den Tools, die für die Anpassung an Kundendaten erforderlich sind. Dieser vereinfachte Ansatz für generative KI, der vollständig durch das Open Source Assurance-Framework abgedeckt ist, wurde mit dem Ziel entwickelt, Risiken zu verringern und zudem die Zugänglichkeit für Entwicklungsteams und Domain-Fachkräfte zu verbessern, die möglicherweise nicht über das nötige Fachwissen im Bereich Data Science verfügen, um Modelle zu optimieren.

Red Hat OpenShift® AI bietet sämtliche erforderlichen Tools, damit Kunden KI-fähige Anwendungen in großem Umfang erstellen können. Red Hat OpenShift AI bietet eine umfassende, integrierte MLOps-Plattform, um den Lifecycle von Modellen zu verwalten und Support für verteiltes Computing, Workflows zur Zusammenarbeit, Monitoring und Hybrid Cloud-Anwendungen sicherzustellen.

Red Hat OpenShift AI beinhaltet Zugriff auf Red Hat Enterprise Linux AI, sodass Teams dieselben Modelle und Anpassungstools in ihrer OpenShift KI-Architektur verwenden und von zusätzlichen MLOps-Funktionen für Unternehmen profitieren können.

Wie sieht die Preisgestaltung von Red Hat Enterprise Linux AI aus?

Die Lizenz für Red Hat Enterprise Linux AI wird pro Accelerator berechnet.

Weitere KI-Ressourcen erkunden

4 Überlegungen für die Wahl des richtigen KI-Modells

Maximerung von KI-Innovationen mit Open Source-Modellen

4 Vorteile von Open Source-basierten SLMs (Small Language Models)

gen KI-Innovationen mit Red Hat AI realisieren

Vertrieb kontaktieren

Sprechen Sie mit Red Hat

Wenden Sie sich an unser Vertriebsteam, um Preisinformationen zu Red Hat Enterprise Linux AI zu erhalten. 
Informationen zu unseren Partnerschaften finden Sie auf unserer Katalogseite Zu unserer Katalogseite.