Red Hat Enterprise Linux AI
Red Hat Enterprise Linux AI ist eine Plattform für Basismodelle, mit der Sie Unternehmensanwendungen mithilfe von großen Sprachmodellen (LLM) der Granite-Familie nahtlos entwickeln, testen und bereitstellen können.
Deployment von Red Hat Enterprise Linux AI auf DellPowerEdge Servern
Für das Trainieren von KI-Modellen brauchen Sie optimierte Hardware und leistungsstarke Rechenkapazitäten. Daher arbeiten Red Hat und Dell zusammen und unterstützen Kunden so beim nahtlosen Entwickeln, Testen und Ausführen von LLMs auf Dell PowerEdge mit NVIDIA GPU-fähigen Servern.
Funktionsweise von Red Hat Enterprise Linux AI
In Red Hat Enterprise Linux AI sind folgende Komponenten vereint:
- Lizenzierte Open Source-LLMs der Granite-Familie, vertrieben unter der Apache 2.0-Lizenz mit vollständiger Transparenz bezüglich Trainingsdatensätzen
- InstructLab-Tools für die Modellanpassung, mit denen von der Community entwickelte LLMs einer großen Anzahl von Nutzenden zur Verfügung stehen
- Ein startfähiges Image von Red Hat Enterprise Linux, einschließlich gängiger KI-Libraries wie PyTorch und hardwareoptimierter Inferenz für NVIDIA, Intel und AMDUnternehmensgerechter technischer Support und rechtlicher Schutz mit
- Open Source Assurance Red Hat Enterprise Linux AI ermöglicht die Portierbarkeit in verschiedenen Hybrid Cloud-Umgebungen. Anschließend können Sie Ihre KI-Workflows mit
Red Hat OpenShift® AI skalieren und um IBM watsonx.ai mit zusätzlichen Funktionen für unternehmensgerechte KI-Entwicklung, Datenverwaltung und Modell-Governance erweitern.
Kontrolle über LLMs mit Open Source
Generative KI ist ein Katalysator für bahnbrechende Veränderungen, die von der Entwicklung von Software bis hin zur Kommunikation vieles verändern werden. Häufig sind die für generative KI verwendeten LLMs jedoch streng kontrolliert und können nicht ohne spezielle Kompetenzen und hohe Kosten bewertet oder verbessert werden.
Die Zukunft sollte nicht in den Händen einiger weniger Personen liegen. Mit Red Hat Enterprise Linux AI und seinem Open Source-Ansatz können Sie Innovationen mit generativer KI mit Vertrauen und Transparenz fördern, während Sie gleichzeitig die Kosten senken und Einstiegshürden beseitigen.
Mit InstructLab, einer communitybasierten Lösung zur Verbesserung der LLM-Funktionen, können Sie sogar direkt zur KI-Modellentwicklung beitragen.
Features und Vorteile
LLMs für Unternehmen
IBM Granite-LLMs mit Open Source-Lizenz sind in der Apache-2.0-Lizenz enthalten und werden von Red Hat vollständig unterstützt und schadlos gehalten.
Community-Zusammenarbeit
InstructLab ermöglicht ein vereinfachtes Experimentieren mit generativen KI-Modellen sowie optimierte Modellanpassung.
Beschleunigung und KI-Tools
Open Source-Hardwarebeschleuniger und die optimierten Deep Learning- Features von PyTorch sorgen für schnellere Ergebnisse.
Zugehörige Ressourcen
Artikel
RAG vs. Fine-Tuning
Artikel
Was ist InstructLab?
Produkt
Red Hat OpenShift AI
Überblick
Red Hat Consulting: MLOps Foundation
Vertrieb kontaktieren
Sprechen Sie mit Red Hat
Wenden Sie sich an unser Vertriebsteam, um Preisinformationen zu Red Hat Enterprise Linux AI zu erhalten.
Informationen zu unserer Hardware-Partnerschaft mit Dell finden Sieauf unserer Katalogseite.