High-Performance Computing mit Red Hat
Unternehmen setzen zunehmend auf High-Performance Computing (HPC), um ihre drängendsten Probleme durch datengestützte Entscheidungen zu lösen. Der Wunsch, künstliche Intelligenz (KI) in großem Umfang einzusetzen, stellt dabei neue Anforderungen an bestehende HPC-Architekturen. Aufgrund dieser neuen Workloads müssen die Funktionen von HPC ausgeweitet und von Bare Metal-Deployments auf containerbasierte, mit Kubernetes orchestrierte Hybrid Cloud-Plattformen verlagert werden.
Daher können diese HPC-Lösungen jetzt lokal, am Edge und sogar in der Cloud bereitgestellt werden.
Was ist High-Performance Computing?
High-Performance Computing (HPC) bezieht sich auf die Verarbeitung von Daten mit komplexen Berechnungen mit einer hohen Geschwindigkeit auf mehreren Servern gleichzeitig. Diese Servergruppen werden auch als Cluster bezeichnet und bestehen aus Hunderten oder sogar Tausenden von Computing-Servern, die über ein Netzwerk verbunden sind.
High-Performance Computing – Use Cases
Die Use Cases für High-Performance Computing haben sich in allen Branchen ausgeweitet und umfassen jetzt zudem den Bereich KI/ML. Und dennoch hat sich an der HPC-Architektur bis vor Kurzem nur wenig geändert. Durch die Orchestrierung von Containern mit Kubernetes-Plattformen lassen sich diese erweiterten Use Cases jetzt mithilfe von neuen Architekturen angehen. Der Ansatz von Red Hat zu High-Performance Computing konzentriert sich auf drei Kategorien:
Supercomputing
Laut der TOP500-Liste der leistungsfähigsten Computersysteme weltweit ist Linux® das vorherrschende Betriebssystem für High-Performance Computing. Auf allen diesen TOP500-Supercomputern läuft Linux – und von den Supercomputern an der Spitze der Liste führen viele zudem Red Hat® Enterprise Linux aus.
Red Hat Enterprise Linux ist ein beliebtes Betriebssystem für alle HPC-Standorte, auch bei einigen der besten Supercomputer der Welt.
Staatliche und akademische Forschung
Forscher in den verschiedensten Bereichen, darunter Grundlagenforschung, Wetter- und Klimaforschung sowie wehrtechnische Forschung, verwenden High-Performance Computing, um große Mengen an Daten auszuwerten und daraus Rückschlüsse zu ziehen. HPC-Cluster helfen bei der Modellierung und Simulation ebenso wie bei erweiterten Analysen.
Bisher war High-Performance Computing vor allem in staatlichen und akademischen Forschungseinrichtungen zu finden, weitet sich aber derzeit immer weiter aus und verlagert sich dabei weg von herkömmlichen Architekturen mit rein lokalen Rechenzentren hin zu Hybrid Cloud-Architekturen.
Industrie und Gewerbe
High-Performance Computing bietet Vorteile für Nutzerinnen und Nutzer im industriellen und gewerblichen Bereich, und zwar in vielen Branchen, darunter:
- Biowissenschaften
- Energie
- Finanzwesen
- Fertigung
- Medien und Unterhaltung
Unternehmen unterstützen mit HPC-Clustern den technischen Rechenaufwand beim Design und der prädiktiven Modellierung in der Wissenschaft und im Finanzwesen.
Das Portfolio von Red Hat für High-Performance Computing
Mit dem Portfolio von Red Hat für High-Performance Computing erhalten Sie die Vertrautheit und Leistungsfähigkeit unserer Open Source-Plattformen für Unternehmen für Ihre High-Performance-Computing-Workloads.
Ein Betriebssystem, das eine konsistente, flexible Basis bietet, auf der leistungsintensive Workloads ausgeführt werden können. Red Hat Enterprise Linux läuft auf den drei besten Supercomputern der Welt.
Eine Container-Orchestrierungsplattform für Unternehmen, die Kubernetes-Funktionen ausweitet und konsistente Operationen und Application Lifecycle Management in großem Umfang bietet. Dabei werden flexible Topologieoptionen verwendet, um Workloads mit niedriger Latenz in vielen verschiedenen Umgebungen zu unterstützen.
Eine Lösung für das Infrastrukturmanagement zur effizienten Ausführung von Red Hat Enterprise Linux.
Eine offene, stark skalierbare, vereinfachte Storage-Lösung für moderne Daten-Pipelines.
High-Performance Computing – News
- Red Hat Joins Forces with U.S. Department of Energy Laboratories to Bridge the Gap Between High Performance Computing and Cloud Environments
- Red Hat OpenShift extends High Performance Computing (HPC) infrastructure from edge to exascale
- Red Hat Powers the Future of Supercomputing with Red Hat Enterprise Linux
Weitere Informationen
- Entwicklung einer zuverlässigen Basis für HPC
- Expanding Podman capabilities to deploy SIF-formatted containers
- Podman paves the road to running containerized HPC applications on exascale supercomputers
- Demonstrating Performance Capabilities of Red Hat OpenShift for Running Scientific HPC Workloads
- A Complete Guide for Running Specfem Scientific HPC Workload on Red Hat OpenShift
Einstieg
Entdecken Sie die Möglichkeiten von HPC und Red Hat