Red Hat Enterprise Linux AI
Red Hat Enterprise Linux® AI ist eine Plattform für Basismodelle, mit der Sie Unternehmensanwendungen mithilfe von LLMs (Large Language Models) der Granite-Familie nahtlos entwickeln, testen und ausführen können.
Deployment mit Partnern
Für das Trainieren von KI-Modellen (Künstliche Intelligenz) brauchen Sie optimierte Hardware und leistungsstarke Rechenkapazitäten. Holen Sie mehr aus Red Hat Enterprise Linux AI heraus, indem Sie es um weitere integrierte Services und Produkte erweitern.
Dell und Red Hat bieten ein konsistentes KI-Erlebnis durch eine optimierte und kosteneffiziente Umgebung auf einem einzigen Server.
Lenovo und Red Hat liefern optimierte Performance und helfen Kunden, KI-Initiativen schnell in die Produktion zu bringen.
NVIDIA und Red Hat bieten Kunden eine skalierbare Plattform, die eine Vielzahl von KI-Use Cases mit unvergleichlicher Flexibilität beschleunigt.
Funktionsweise von Red Hat Enterprise Linux AI
In Red Hat Enterprise Linux AI sind folgende Komponenten vereint:
- Die Granite-Familie lizenzierter Open Source-LLMs, vertrieben unter der Apache 2.0-Lizenz mit vollständiger Transparenz bezüglich Trainingsdatensätzen
- InstructLab-Tools für die Modellanpassung, mit denen von der Community entwickelte LLMs einer großen Anzahl von Nutzenden zur Verfügung stehen
- Ein startfähiges Image von Red Hat Enterprise Linux, einschließlich gängiger KI-Libraries wie PyTorch und hardwareoptimierter Inferenz für NVIDIA, Intel und AMD
- Unternehmensgerechter technischer Support und rechtlicher Schutz mit Open Source Assurance
Red Hat Enterprise Linux AI ermöglicht die Portierbarkeit in verschiedenen Hybrid Cloud-Umgebungen. Anschließend können Sie Ihre KI-Workflows mit Red Hat OpenShift® AI skalieren und um IBM watsonx.ai mit zusätzlichen Funktionen für unternehmensgerechte KI-Entwicklung, Datenverwaltung und Modell-Governance erweitern.
Kontrolle über LLMs mit Open Source
Generative KI ist ein Katalysator für bahnbrechende Veränderungen, die von der Entwicklung von Software bis hin zur Kommunikation vieles verändern werden. Häufig sind die für generative KI verwendeten LLMs jedoch streng kontrolliert und können nicht ohne spezielle Kompetenzen und hohe Kosten bewertet oder verbessert werden.
Die Zukunft sollte nicht in den Händen einiger weniger Personen liegen. Mit Red Hat Enterprise Linux AI und seinem Open Source-Ansatz können Sie Innovationen mit generativer KI mit Vertrauen und Transparenz fördern, während Sie gleichzeitig die Kosten senken und Einstiegshürden beseitigen.
Mit InstructLab, einer communitybasierten Lösung zur Verbesserung der LLM-Funktionen, können Sie sogar direkt zur KI-Modellentwicklung beitragen.
Features und Vorteile
LLMs für Unternehmen
Open Source-Lizenz sind in der Apache 2.0-Lizenz enthalten und werden von Red Hat vollständig unterstützt und schadlos gehalten.
Community-Zusammenarbeit
InstructLab ermöglicht ein vereinfachtes Experimentieren mit generativen KI-Modellen sowie optimierte Modellanpassung.
Cloudnative Skalierbarkeit
Red Hat Enterprise Linux Image-Modus können Sie Ihre KI-Plattform als Container Image verwalten und so Ihren Skalierungsansatz optimieren.
Beschleunigung und KI-Tools
Open Source-Hardwarebeschleuniger und die optimierten Deep Learning-Features von PyTorch sorgen für schnellere Ergebnisse.
Zugehörige Ressourcen erkunden
Artikel
RAG im Vergleich zu Fine Tuning
Artikel
Was ist InstructLab?
Produkt
Red Hat OpenShift AI
Überblick
Red Hat Consulting: MLOps Foundation
Vertrieb kontaktieren
Sprechen Sie mit Red Hat
Wenden Sie sich an unser Vertriebsteam, um Preisinformationen zu Red Hat Enterprise Linux AI zu erhalten.
Informationen zu unseren Partnerschaften finden Sie auf unserer Katalogseite.