High-Performance Computing mit Red Hat

Unternehmen setzen zunehmend auf High-Performance Computing (HPC), um ihre drängendsten Probleme durch datengestützte Entscheidungen zu lösen. Der Wunsch, künstliche Intelligenz (KI) in großem Umfang einzusetzen, stellt dabei neue Anforderungen an bestehende HPC-Architekturen. Aufgrund dieser neuen Workloads müssen die Funktionen von HPC ausgeweitet und von Bare Metal-Deployments auf containerbasierte, mit Kubernetes orchestrierte Hybrid Cloud-Plattformen verlagert werden.

Daher können diese HPC-Lösungen jetzt lokal, am Edge und sogar in der Cloud bereitgestellt werden.

illustration of multiple platforms
Jump to section

Was ist High-Performance Computing?

High-Performance Computing (HPC) bezieht sich auf die Verarbeitung von Daten mit komplexen Berechnungen mit einer hohen Geschwindigkeit auf mehreren Servern gleichzeitig. Diese Servergruppen werden auch als Cluster bezeichnet und bestehen aus Hunderten oder sogar Tausenden von Computing-Servern, die über ein Netzwerk verbunden sind.

High-Performance Computing mit Red Hat

High-Performance Computing – Use Cases

Die Use Cases für High-Performance Computing haben sich in allen Branchen ausgeweitet und umfassen jetzt zudem den Bereich KI/ML. Und dennoch hat sich an der HPC-Architektur bis vor Kurzem nur wenig geändert. Durch die Orchestrierung von Containern mit Kubernetes-Plattformen lassen sich diese erweiterten Use Cases jetzt mithilfe von neuen Architekturen angehen. Der Ansatz von Red Hat zu High-Performance Computing konzentriert sich auf drei Kategorien: 

Laut der TOP500-Liste der leistungsfähigsten Computersysteme weltweit ist Linux® das vorherrschende Betriebssystem für High-Performance Computing. Auf allen diesen TOP500-Supercomputern läuft Linux – und von den Supercomputern an der Spitze der Liste führen viele zudem Red Hat® Enterprise Linux aus.

Red Hat Enterprise Linux ist ein beliebtes Betriebssystem für alle HPC-Standorte, auch bei einigen der besten Supercomputer der Welt.

Dr. Earl Joseph
Chief Executive Officer, Hyperion

Forscher in den verschiedensten Bereichen, darunter Grundlagenforschung, Wetter- und Klimaforschung sowie wehrtechnische Forschung, verwenden High-Performance Computing, um große Mengen an Daten auszuwerten und daraus Rückschlüsse zu ziehen. HPC-Cluster helfen bei der Modellierung und Simulation ebenso wie bei erweiterten Analysen.


Bisher war High-Performance Computing vor allem in staatlichen und akademischen Forschungseinrichtungen zu finden, weitet sich aber derzeit immer weiter aus und verlagert sich dabei weg von herkömmlichen Architekturen mit rein lokalen Rechenzentren hin zu Hybrid Cloud-Architekturen.

High-Performance Computing bietet Vorteile für Nutzerinnen und Nutzer im industriellen und gewerblichen Bereich, und zwar in vielen Branchen, darunter:

Unternehmen unterstützen mit HPC-Clustern den technischen Rechenaufwand beim Design und der prädiktiven Modellierung in der Wissenschaft und im Finanzwesen. 



Das Portfolio von Red Hat für High-Performance Computing

Mit dem Portfolio von Red Hat für High-Performance Computing erhalten Sie die Vertrautheit und Leistungsfähigkeit unserer Open Source-Plattformen für Unternehmen für Ihre High-Performance-Computing-Workloads.

Ein Betriebssystem, das eine konsistente, flexible Basis bietet, auf der leistungsintensive Workloads ausgeführt werden können. Red Hat Enterprise Linux läuft auf den drei besten Supercomputern der Welt.

Eine Container-Orchestrierungsplattform für Unternehmen, die Kubernetes-Funktionen ausweitet und konsistente Operationen und Application Lifecycle Management in großem Umfang bietet. Dabei werden flexible Topologieoptionen verwendet, um Workloads mit niedriger Latenz in vielen verschiedenen Umgebungen zu unterstützen.

Eine Lösung für das Infrastrukturmanagement zur effizienten Ausführung von Red Hat Enterprise Linux.

Eine offene, stark skalierbare, vereinfachte Storage-Lösung für moderne Daten-Pipelines.

Einstieg

Entdecken Sie die Möglichkeiten von HPC und Red Hat