Das Tempo der KI-Innovation beschleunigt sich. Die Einführung von Red Hat AI 3 erinnert uns daran, dass die Umsetzung dieses Potenzials in die Unternehmensrealität ein robustes, offenes Ökosystem erfordert, das auf Auswahl und Zusammenarbeit basiert. Unser Ziel war immer, eine konsistente, leistungsstarke Plattform für KI bereitzustellen, die mit beliebigen Modellen und beliebigen Beschleunigern und in der Hybrid Cloud funktioniert. Heute freuen wir uns, die Leistung unserer Partner hervorheben zu können, die mit uns gemeinsam an der Zukunft der offenen, hybriden KI mit Red Hat arbeiten.

Das Partnernetzwerk von Red Hat fungiert als Motor für die Bereitstellung der generativen KI (gen KI) und agentenbasierten Funktionen, die Kunden für eine breite Marktakzeptanz benötigen. Es geht darum, das Beste an Hardware, Software und Services zu einem Ganzen zusammenzubringen, das mehr ist als die Summe seiner Teile.

Schnelle, flexible und effiziente Inferenz 

Die Einführung von Red Hat AI 3 konzentriert sich darauf, die KI-Inferenz für Unternehmen zu fördern, eine größere Modellauswahl zu ermöglichen und offene Modelle für optimierte Kosten und Flexibilität bereitzustellen. So können Unternehmen vom Training zum „Doing“ übergehen. Und die Partner von Red Hat spielen dabei eine entscheidende Rolle. 

Für die Bereitstellung von KI-Inferenz in großem Umfang unter Verwendung von vLLM und Kubernetes ist das llm-d Open Source-Projekt jetzt als Teil von Red Hat OpenShift AI 3.0 allgemein verfügbar, unterstützt von einer Koalition führender Anbieter von generativen KI-Modellen, KI-Beschleunigern und erstklassigen KI-Cloud-Plattformen. Zu den Gründungsmitgliedern zählen CoreWeave, Google Cloud, IBM Research und NVIDIA, mit zusätzlicher Unterstützung von Partnern wie AMD, Cisco, Hugging Face, Intel, Lambda und Mistral AI. Seit der Einführung des Projekts Anfang dieses Jahres sind Microsoft, Oracle und WEKA ebenfalls aktiv mitwirkende Mitglieder. 

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB „Als Teil der llm-d Community bieten WEKA’s NeuralMesh, NeuralMesh Axon und Augmented Memory Grid die adaptive, hochleistungsfähige Datenbasis, die für die Inferenz erforderlich ist, die den GPU-Speicher erweitert und Cache-fähige Workloads in großem Umfang unterstützt. Wir sind stolz darauf, mit Red Hat und diesem leistungsstarken Netzwerk von Technologieführern zusammenzuarbeiten und offene, effiziente und produktionsbereite KI-Umgebungen zu entwickeln, damit Kunden nahtlos skalieren können – vom Training bis hin zur Inferenz.”

Nilesh Patel

Chief Strategy Officer, WEKA

Da Large Language Models (LLMs) zur Basis für zahlreiche gen KI-Anwendungen werden, führt Red Hat den Partner Model Validation Guide ein, um unsere Partner zu unterstützen und Kunden eine größere Auswahl zu bieten. In diesem Guide wird ein standardisierter, schrittweiser Prozess für Partner von Red Hat beschrieben, mit dem sie ihre LLMs für die Aufnahme in den Modellkatalog von Red Hat OpenShift AI bewerten können.

Mithilfe des Partner Model Validation Guide können Modellanbieter die für die Validierung erforderlichen Daten mit einer vorgeschriebenen Open Source Toolchain generieren, darunter vLLM für die Bereitstellung, GuideLLM für Performance Benchmarking und LM Evaluation Harness für Genauigkeitsbewertungen. Sobald die Partnermodelle von unserem Team eingereicht und validiert wurden, sind sie zusammen mit ihren Performance- und Qualitätsmetriken für alle Kunden von Red Hat OpenShift AI sichtbar und verfügbar. Diese Initiative erweitert unseren Modellkatalog und bietet Kunden transparentere Einblicke und Anleitungen auf Modellebene, eine größere Auswahl an erstklassigen Open Source-Modellen für die Entwicklung ihrer KI-Anwendungen und mehr Markttransparenz für unsere Modellanbieter-Partner.

Beschleunigte Agenten-KI-Deployments

Letztendlich geht es darum, KI-Anwendungen in die Produktion zu bringen, wo sie einen geschäftlichen Mehrwert schaffen können. Red Hat AI bietet in Kombination mit unserem Partnernetzwerk wesentliche Funktionen für die Entwicklung, Bereitstellung und Verwaltung von agentischer KI. Hier spielen unsere Systemintegratoren und Servicepartner eine entscheidende Rolle. Red Hat arbeitet mit weltweit führenden Unternehmen wie Accenture, HCL, Kyndryl, IBM Consulting, Infosys und NTT DATA zusammen, um Kunden beim Skalieren dieser Anwendungen und beim Optimieren der Inferenz zu unterstützen, damit KI standortunabhängig ausgeführt werden kann – vom Rechenzentrum bis zum Edge. 

Mit einer soliden Basis und einer geeigneten Infrastruktur verlagert sich der Fokus auf die Tools und Modelle für intelligente Anwendungen. Eine KI-Strategie ist nur so gut wie das Ökosystem aus Datenplattformen, Vektordatenbanken, Sicherheitstools und Entwicklungsdiensten, das sie unterstützt. Die Partnerlandschaft von Red Hat ist umfangreich und vielfältig und bietet die wesentlichen Komponenten für die Entwicklung moderner KI-Workflows.

Model Context Protocol (MCP)

Mit dem Start von Red Hat AI 3 haben wir eine Sammlung von MCP-Servern zusammengestellt. So können ISVs ihre Tools und Services direkt mit Red Hat AI verbinden. Partner wie CyberArk, Dynatrace, Elastic, EnterpriseDB, Palo Alto Networks und andere arbeiten mit Red Hat zusammen, um ihre MCP-Server zu demonstrieren und Kunden bei der Entwicklung anspruchsvoller agentischer Anwendungen mit bewährten Tools zu unterstützen. 

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB „Erfolgreiche KI-Agenten in Unternehmen sind darauf angewiesen, aus Unternehmensdaten in großem Umfang den relevantesten Kontext zu bekommen,unterstützt durch ein offenes KI-Ökosystem mit umfassenden, kombinierbaren Tools. Mit unserem MCP-Server auf Red Hat OpenShift AI möchten wir unseren Kunden ermöglichen, die Elasticsearch Context Engineering Plattform und die Vektordatenbank nahtlos in ihre KI-Workflows zu integrieren.“

Steve Kearns

General Manager, Search Solutions, Elastic

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB „Red Hat OpenShift AI hat uns geholfen, unsere MCP zu härten und zu verbessern. Mit Dynatrace können Kunden Echtzeit-Observability nahtlos in ihre KI-Workflows integrieren. Gemeinsam unterstützen wir Unternehmen dabei, die Modellentwicklung mit vertrauenswürdigen Insights zu beschleunigen, die Anomalieerkennung zu automatisieren und dafür zu sorgen, dass KI-Anwendungen in Hybrid- und Multi Cloud-Umgebungen zuverlässig, skalierbar und sicher sind.“

Wolfgang Heider

Product Lead Software Delivery, Dynatrace

Llama Stack

Die Arbeit von Red Hat mit dem Open Source Llama Stack von Meta ist die Basis, um Entwicklungsteams mit Red Hat AI 3 zu unterstützen. Durch aktive Beiträge zu diesem Open Source-Projekt tragen Red Hat und seine Partner zur Verbesserung eines kompletten Satzes an standardisierten Tools bei, die den Lifecycle von generativen KI-Anwendungen revolutionieren. Dadurch können wir sicherstellen, dass Entwicklungsteams eine überzeugende, robuste und anpassungsfähige Umgebung zur Verfügung haben, um die Entwicklung und das Deployment innovativer KI-Lösungen zu beschleunigen, und unseren Partnern und Kunden somit einen klaren Weg zur Produktion ermöglichen. Durch die reduzierte Komplexität der Integration verschiedener KI-Services und -Tools ermöglicht Llama Stack den Entwicklungsteams, sich auf Innovationen zu konzentrieren, statt sich mit den Herausforderungen der Infrastruktur zu beschäftigen.

KI in der Hybrid Cloud skalieren

KI-Beschleuniger  

Optionen sind wichtig, um eine breite Palette an Funktionen abzudecken. Aus diesem Grund haben wir unsere Zusammenarbeit mit Accelerator-Partnern wie AMD, Google Cloud und Intel vertieft. 

Wir arbeiten mit NVIDIA zusammen, um das leistungsoptimierte KI-Computing, Networking und die Software von NVIDIA mit Red Hat AI zu integrieren. So können wir Kunden dabei unterstützen, KI in großem Umfang zu entwickeln, bereitzustellen und zu verwalten sowie die Infrastruktur für verschiedene Workloads zu optimieren. Red Hat und NVIDIA treiben den Ausbau der KI-Infrastruktur weiter voran und unterstützen dabei die Infrastruktur NVIDIA GB200 NVL72 mit Fokus auf High-End-KI-Training und Inferenz in großem Umfang. Darüber hinaus unterstützen die NVIDIA RTX PRO(R) 6000 Blackwell Server Edition GPUs Red Hat AI, Red Hat OpenShift und Red Hat OpenShift Virtualization und beschleunigen so eine Reihe von Unternehmens-Workloads, darunter unternehmensfähige KI und VDI-Grafiken, mit luftgekühlten GPUs und Servern. 

Unsere Zusammenarbeit mit AMD ermöglicht eine effizientere generative KI, indem das AMD-Portfolio an x86-basierten Prozessoren und GPUs auf Red Hat AI bereitgestellt wird. Unterstützt wird dies durch unsere Aktivierungen in Upstream Communities wie vLLM und llm-d, die für eine verbesserte Performance und GPU-Unterstützung sorgen. 

Darüber hinaus baut Red Hat weiterhin auf seine langjährige Zusammenarbeit mit Intel auf, um Red Hat AI auf seinem wachsenden Portfolio an Hardwareplattformen und Beschleunigern zu unterstützen, einschließlich Intel® Gaudi® AI Accelerators. 

Dieses Engagement zur Auswahl erstreckt sich auf die gesamte Hybrid Cloud. In diesem Bereich arbeiten wir aktiv mit Google Cloud zusammen, um den TPU-Support für Red Hat AI zu stärken. Dabei setzen wir auf Projekte wie llm-d und vLLM, um unsere gemeinsame Vision von community-basierter Innovation zu fördern.

Infrastrukturlösungen 

Doch Beschleuniger sind nur ein Teil des Puzzles. Kunden brauchen validierte, integrierte Lösungen. Hier kommen unsere OEM-Serverpartner ins Spiel, die das theoretische Potenzial von KI in greifbare Unternehmensrealität verwandeln. Während die Basis der KI aus Beschleunigern unten und Sprachmodellen oben besteht, sind für die praktische Bereitstellung und Verwaltung von KI in großem Umfang robuste, integrierte Lösungen erforderlich. 

Red Hat arbeitet aktiv mit Branchenführern wie Cisco, Dell Technologies, HPE und Lenovo zusammen, um das Deployment und Management von KI in Hybrid Cloud-Umgebungen zu vereinfachen. Zusammen mit Dell arbeiten wir daran, dass ihre leistungsstarken Server- und Storage-Lösungen für Red Hat AI optimiert sind und Kunden eine zuverlässige und skalierbare Infrastruktur für ihre KI-Workloads erhalten. Dazu gehören gemeinsame Anstrengungen zur Aktivierung von Red Hat OpenShift und Red Hat OpenShift AI für die Dell AI Factory with NVIDIA, die optimierte Hardware- und Softwarefunktionen vereint, um nahtlosere KI-Implementierungen zu ermöglichen, die auch anspruchsvollste Rechenaufgaben bewältigen können.

Ebenso kombiniert unsere Zusammenarbeit mit Cisco die Stärken des Unternehmens in den Bereichen Networking, Sicherheit, Computing und Observability mit Red Hat OpenShift als Anwendungsplattform für containerisierte KI-Workloads innerhalb der Cisco AI PODs, dem zentralen Baustein für KI-Infrastruktur von Cisco Secure AI Factory with NVIDIA. Red Hat AI baut auf dieser Basis auf, um eine konsistente, automatisierte Umgebung für die Entwicklung, das Training und die Inferenz von KI-Modellen bereitzustellen. Das Ergebnis ist eine Full-Stack-KI-Plattform, die skalierbar, leistungsstark und sicher ist.

Wir weiten unsere Referenzdesigns und Angebote für KI-Infrastruktur auf unser gesamtes Infrastruktur-Ökosystem aus. Diese Kooperationen sind entscheidend, wenn es darum geht, Kunden umfassende Lösungen bereitzustellen, die für die Operationalisierung von KI erforderlich sind. Dies stellt außerdem sicher, dass die erforderliche Hardware, Software und Services integriert werden können, um die Einführung und Innovation von KI zu beschleunigen.

Unser umfassendes Partnernetzwerk aus globalen Vertriebspartnern und VARs (Value Added Resellers) spielt bei der Entwicklung wiederholbarer Lösungen in großem Umfang für Unternehmen eine wichtige Rolle. Partner wie Ahead, Arrow, TD Synnex, WWT und viele andere setzen in ihrem Lösungsportfolio auf Red Hat AI.

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB „World Wide Technology nutzt das KI-Portfolio von Red Hat in seinem AI Proving Ground, um den Entwicklungs- und Bereitstellungsprozess von prädiktiven und generativen KI-Modellen zu optimieren.“

Neil Anderson

Neil Anderson, Vice President and Chief Technology Officer, Cloud, World Wide Technology

Bereitstellung eines führenden KI-Ökosystems

Durch strategische Zusammenarbeit mit Partnern in den Bereichen Hardware, Software und Services bietet Red Hat eine konsistente, leistungsstarke KI-Plattform, die Auswahl und Flexibilität in der gesamten Hybrid Cloud bietet. Dieser kollaborative Ansatz, der von der Optimierung der verteilten Inferenz mit llm-d über die Validierung von Sprachmodellen mit dem Partner Model Validation Guide bis zur Beschleunigung der Bereitstellung von agentenbasierter KI geht, trägt dazu bei, dass Kunden KI in großem Umfang operationalisieren und ihren geschäftlichen Mehrwert voll ausschöpfen können.


Über den Autor

Ryan King is Vice President of AI and Infrastructure for the Partner Ecosystem Success organization at Red Hat. In this role, King leads a team in shaping Red Hat's AI strategy with key infrastructure and hardware providers to drive go-to-market engagements and customer success with AI. 

UI_Icon-Red_Hat-Close-A-Black-RGB

Nach Thema durchsuchen

automation icon

Automatisierung

Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen

AI icon

Künstliche Intelligenz

Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen

open hybrid cloud icon

Open Hybrid Cloud

Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.

security icon

Sicherheit

Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren

edge icon

Edge Computing

Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen

Infrastructure icon

Infrastruktur

Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen

application development icon

Anwendungen

Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen

Virtualization icon

Virtualisierung

Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen