Partner: Red Hat und Nvidia

Beschleunigung von KI und einer Zukunftsvision

Red Hat und NVIDIA arbeiten zusammen, um moderne Innovationen zu entwickeln und teilen eine KI-Vision, die auf Open Source- und cloudnativen Technologien basiert.

Zu Abschnitt

Wie wir zusammenarbeiten

Red Hat und NVIDIA setzen auf eine Open Source-Zusammenarbeit, um die Bereitstellung von Anwendungen mit künstlicher Intelligenz (KI) zu beschleunigen. Wir arbeiten zusammen, damit Sie Ihr Unternehmen mit einer vertrauten Infrastruktur in vielen Bereichen führen können: vor Ort, in virtualisierten und Private Cloud-Implementierungen, in Public Clouds und bis zum Netzwerkrand.

Lösungen

Fortschrittliche Hybrid Cloud KI

Die Red Hat und NVIDIA AI-Ready Enterprise Plattform umfasst NVIDIA AI Enterprise Software und Support Services, die für die Ausführung mit Red Hat® OpenShift® auf NVIDIA-zertifizierten Systemen zertifiziert sind. Diese Plattform befasst sich mit drei zentralen Herausforderungen:

  • Komplexität bei Deployment und Skalierung

  • Fehlender Self-Service-Zugang zu KI-Tools und -Infrastruktur 

  • Isolierte Betriebsumgebungen

Weitere Informationen

Erste Schritte zur KI: Praktische Labs mit NVIDIA LaunchPad

Das NVIDIA LaunchPad Programm bietet sofortigen, kurzzeitigen Zugriff auf die NVIDIA AI Enterprise Software Suite, die auf Red Hat OpenShift ausgeführt wird.

Verbesserte KI-Automatisierung und -Orchestrierung

Red Hat® OpenShift® ist eine Kubernetes-Containerplattform und wurde für eine Open-Hybrid-Cloud-Strategie entwickelt. Die NVIDIA BlueField Data Processing Unit (DPU) entlastet und beschleunigt Infrastrukturaufgaben von der Server Central Processing Unit (CPU) für effizientere und sicherheitsorientierte Server und Netzwerke. Gemeinsam bieten Red Hat OpenShift, Red Hat Enterprise Linux® und NVIDIA BlueField DPUs eine konsistente, cloudnative Anwendungsplattform für die Verwaltung von Hybrid Cloud-, Multi-Cloud- und Edge-Implementierungen mit verbesserter Orchestrierung, Automatisierung und einem Schwerpunkt auf Sicherheit.

Weitere Informationen

Vereinfachtes Deployment von KI-Workloads

NVIDIA GPU Operator für Red Hat OpenShift vereinfacht und beschleunigt rechenintensive Maschinenlern- und Deep-Learning (ML/DL)-Modellierungsaufgaben sowie das Deployment von Inferenzaufgaben in Rechenzentren, Edge-Computing-Deployments und Public Clouds. Das Feature Discovery Plugin im GPU Operator ermöglicht es OpenShift, dynamisch die richtige GPU für die optimale Workload zuzuweisen. Die gemeinsame Lösung ist mit NVIDIA-zertifizierten Systemen und Red Hat Enterprise Linux zertifizierten Servern kompatibel.

Verstärkung der KI am Netzwerkrand

Führende Unternehmens-, Industrie- und Telekommunikationsunternehmen verlagern Workloads von traditionellen Rechenzentren an die Ränder öffentlicher und privater Netzwerke. Sie konzentrieren sich darauf, Rechenleistung und Storage näher an Endbenutzende oder die Datenquellen zu bringen, und sehen sich oft mit spezifischen Anforderungen konfrontiert, um Produktivität, Sicherheit und Compliance zu gewährleisten. Diese Anforderungen sind unabdingbar für die Bereitstellung hochwertiger Services, intelligenter Edge-Anwendungen gemäß Branchenstandard und die Skalierung in geografisch verteilte Standorte. Technische Innovation bei Edge-Deployments ist eine entscheidende Komponente der gemeinsamen Strategie von Red Hat und NVIDIA.

Weitere Informationen

Beschleunigte Entwicklung und Bereitstellung von cloudnativen KI-Anwendungen

KI verändert die Geschäftsabläufe in modernen Unternehmen und zwingt Organisationen dazu, KI-Funktionen zunehmend in cloudnative Anwendungen zu integrieren, um mehr Einblicke und Mehrwert zu schaffen. KI-Workloads haben andere Anforderungen als herkömmliches IT Computing, aber Red Hat und NVIDIA bieten Lösungen für den Betrieb von maschinellem Lernen (MLOps), mit denen Sie diese Anwendungen und Frameworks zuverlässig einsetzen können. Die Entwicklung und der Einsatz von KI-basierten cloudnativen Anwendungen auf NVIDIA-zertifizierten Systemen mit Red Hat OpenShiftund NVIDIA-GPUs und DPUs beschleunigen Projekte. Denn sie steigern die Effizienz und Produktivität von Softwareentwicklungsteams, IT-Operatoren und Data Scientists.

Beschleunigte KI für moderne Rechenzentren

Red Hat und NVIDIA bieten eine beschleunigte KI-Infrastruktur für Bare Metal- und virtualisierte Implementierungen vor Ort und in der Public Cloud. Sie können NVIDIAs NGC Software-Hub verwenden, um auf GPU-optimierte DL- und ML-Anwendungen und vorkonfigurierte KI-Modelle auf Red Hat OpenShift zuzugreifen und die massiven Funktionen dieser Lösung für die Parallelverarbeitung zu nutzen.

Red Hat Enterprise Linux ist das Basisbetriebssystem, das für NVIDIAs DGX AI/ML-Systeme, ConnectX-Adapter und BlueField DPUs zertifiziert ist. Es dient als Bindeglied zwischen moderner IT und einem konsistenten, zuverlässigen und flexiblen Betriebssystem, das sämtliche Technologien innerhalb Ihres IT-Stacks miteinander verknüpft. Darüber hinaus bieten vorkompilierte Treiberpakete für Red Hat Enterprise Linux eine berechenbare Basis für die NVIDIA GPU-Beschleunigung in Hybrid Cloud-Umgebungen.

IT-Management mit DGX, speziell entwickelt für KI-Funktionen vor Ort

Nutzen Sie die Vorteile von Red Hat Enterprise Linux und Red Hat OpenShift für NVIDIA DGX Systems, einer Plattform, die speziell für die besonderen Anforderungen von KI entwickelt wurde. Sie können diese universellen Systeme für beliebige KI-Workloads mit den vertrauten Management-Tools von Red Hat Enterprise Linux bereitstellen und dabei IT-entwickelte Methoden und optimierte KI-Software von NVIDIA einsetzen. Red Hat OpenShift ist auch für die Verwendung mit DGX als Teil des NVIDIA DGX-Ready Software Programmszertifiziert.

Weitere Informationen

Ausführung fortschrittlicher Finanz- und Marktrisikoanwendungen mit rekordverdächtiger Performance

Die Securities Technology Analysis Center (STAC)-A2 Benchmark Suite ist der Industriestandard für das Testen von Technologie-Stacks, die für rechenintensive analytische Workloads verwendet werden. Red Hat und NVIDIA arbeiteten zusammen, um die ersten öffentlichen STAC-A2 Ergebnisse mit Red Hat OpenShift zu erstellen. Im Vergleich zu anderen öffentlich gemeldeten Ergebnissen stellte diese auf Red Hat OpenShift und NVIDIA DGX A100 basierende Lösung gleich mehrere neue Rekorde für Performancemetriken und Energieeffizienz auf. Die Ergebnisse bestätigen die Leistungsfähigkeit von Red Hat OpenShift bei der Ausführung rechenintensiver, hochleistungsfähiger Workloads.

Weitere Informationen

Videos

Spotlight Videos

Build the future you want: Red Hat Summit 2022 Keynote mit Red Hat und NVIDIA

Unternehmen stehen an einem Wendepunkt: Der Ansatz, den sie bei der Auswahl von Technologien und Partnern verfolgen, war noch nie so wichtig wie heute. Chris Wright, CTO von Red Hat, fordert das Publikum auf, sich auszumalen, was sie für möglich halten, damit sie eine Zukunft aufbauen können, die sie sich wünschen.

theCUBE: Größere Dimensionen der KI

Continuous Improvement von KI-Modellen in der Produktion ist entscheidend. Justin Boitano, VP of Enterprise and Edge Computing bei NVIDIA, und Tushar Katarki, Director of Product Management bei Red Hat, diskutieren darüber, wie Sie KI in größeren Dimensionen nutzen können.

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB Die Kunden wissen, dass sie KI einsetzen müssen, um ihr Unternehmen zu transformieren... Deshalb haben wir das LaunchPad-Programm entwickelt, um ihnen sofortigen Zugang zu KI-Servern mit Red Hat OpenShift und den MLOps-Tools zu geben. Sie können praktische Übungen durchführen und einen Blueprint für die Entwicklung ihrer Anwendung mit der Software und den Containern übernehmen, die in der Produktion unterstützt werden und mit OpenShift in großem Umfang betrieben werden.

Justin Boitano

Vice President of Enterprise and Edge Computing, NVIDIA

Weitere Informationen

Erfahren Sie mehr über die Beschleunigung von KI in Hybrid Cloud- und modernen Rechenzentrumsumgebungen mit Red Hat und NVIDIA.