Zu Abschnitt

Was ist High-Performance Computing (HPC)?

URL kopieren

High-Performance Computing (HPC) bezieht sich im Allgemeinen auf die Verarbeitung von Daten mit komplexen Berechnungen mit einer hohen Geschwindigkeit auf mehreren Servern gleichzeitig. Diese Servergruppen werden auch als Cluster bezeichnet und bestehen aus Hunderten oder sogar Tausenden von Computing-Servern, die über ein Netzwerk verbunden sind. In einem HPC-Cluster werden diese einzelnen Computer oder Cluster-Komponenten oft auch als Knoten bezeichnet.

HPC-Cluster führen Batch-Berechnungen aus. Der Kern eines HPC-Clusters ist der Scheduler, der genutzt wird, um den Überblick über alle verfügbaren Ressourcen zu behalten. So können Jobanfragen effizient über ein schnelles Netzwerk verschiedenen Computing-Ressourcen (CPUs und GPUs) zugewiesen werden.

Eine typische HPC-Lösung besteht aus drei Hauptkomponenten:

  • Computing
  • Netzwerk
  • Storage

HPC-Lösungen können On-Premise, am Edge und sogar in der Cloud bereitgestellt werden.

Wie Sie Ihr Unternehmen mit High-Performance Computing transformieren

Ein Supercomputer besteht aus Tausenden von Rechenknoten, die zusammen an Aufgaben arbeiten. 

In der Vergangenheit waren diese „Supercomputer“ einzelne superschnelle Maschinen. Heutzutage werden solche Hochleistungsrechner mithilfe von enorm großen Server-Clustern mit einer oder mehreren CPUs (Central Processing Units) entwickelt.

Die Supercomputer von heute aggregieren Rechenleistung und können so eine wesentlich höhere Performance liefern als einzelne Desktops oder Server. Daher werden sie zur Lösung komplexer Probleme in Technik, Wissenschaft oder Wirtschaft eingesetzt.

Durch die zusätzliche Rechenleistung von HPC können datenintensive Probleme mit großen Datensätzen ausgeführt werden – und zwar in der gleichen Zeit. Dadurch lassen sich Probleme detaillierter, in größerem Umfang oder mit mehr Elementen beschreiben und untersuchen.

Zur Ausführung von HPC-Lösungen ist ein Betriebssystem erforderlich. Laut der TOP500-Liste der leistungsfähigsten Computersysteme weltweit ist Linux®das vorherrschende Betriebssystem für High-Performance Computing. Auf allen diesen TOP500-Supercomputern läuft Linux – und von den Supercomputern an der Spitze der Liste führen viele zudem Red Hat® Enterprise Linux aus.

Durch den zunehmende Einsatz von Technologien wie dem Internet of Things (IoT), künstlicher Intelligenz (KI) und maschinellem Lernen (ML) erzeugen Organisationen riesige Mengen an Daten. Gleichzeitig müssen sie in der Lage sein, diese Daten schneller und in Echtzeit zu verarbeiten und zu nutzen.  

Aufgrund der Fähigkeit, umfangreiche Rechenprobleme innerhalb eines angemessenen Zeit- und Kostenrahmens zu lösen, lässt sich HPC jetzt in vielen verschiedenen Umgebungen ausführen, von der Cloud bis zum Edge, und auf zahlreiche Probleme in einer Vielzahl von Branchen wie Wissenschaft, Gesundheitswesen und Technik anwenden. 

Zur Unterstützung zunehmend ausgefeilter Algorithmen hat sich der neue Bereich der hochleistungsfähigen Datenanalysen (High-Performance Data Analysis, HPDA) herausgebildet, der die Ressourcen von HPC auf Big Data anwendet. Supercomputing fördert außerdem Deep Learning und neuronale Netzwerke und damit die Weiterentwicklung der künstlichen Intelligenz (KI). 

HPC lässt sich auch in anderen Branchen und für viele Use Cases anwenden, etwa in den Bereichen staatliche und akademische Forschung, leistungsstarke Grafiken, Biowissenschaften, Genomik, Fertigung, Finanzdienstleistungen und Bankenwesen, Geowissenschaft und Medien.

Die zur Analyse von Big Data und zur Lösung komplexer Probleme erforderlichen Computing-Ressourcen wachsen über die On-Premise-Computing-Cluster im Rechenzentrum hinaus, die normalerweise mit HPC in Verbindung gebracht werden, und weiten sich auf die in Public Cloud-Services verfügbaren Ressourcen aus. 

Die Cloud-Einführung von HPC ist von zentraler Bedeutung für den Übergang bei Workloads von einem reinen On-Premise-Ansatz zu einem Infrastruktur- oder ortsunabhängigen Ansatz. 

Cloud Computing ermöglicht eine On-Demand-Verfügbarkeit von Ressourcen, was zu mehr Kosteneffizienz führen und die nötige Flexibilität zur Ausführung von HPC-Workloads bieten kann. 

Die Einführung von Container-Technologien hat auch in HPC Dynamik entwickelt. Container sollen schlank sein und Flexibilität bei geringem Aufwand ermöglichen – zur Verbesserung der Performance und zur Kostensenkung. Der Einsatz von Containern unterstützt Unternehmen außerdem dabei, die Anforderungen vieler HPC-Anwendungen zu erfüllen, darunter Skalierbarkeit, Zuverlässigkeit, Automatisierung und Sicherheit.

Container können Anwendungscode, dessen Abhängigkeiten und sogar Nutzerdaten paketieren und Anwendungen zu Public oder Hybrid Clouds migrieren. Durch diese Möglichkeiten und das gleichzeitige Erfordernis, das Teilen von wissenschaftlichen Forschungsarbeiten und -ergebnissen zu erleichtern, sind Container für HPC-Umgebungen von großer Bedeutung.

Wenn Sie Container zur Bereitstellung von HPC-Anwendungen und -Workloads in der Cloud nutzen, sind Sie außerdem nicht an bestimmte HPC-Systeme oder Cloud-Anbieter gebunden. 

Mit Red Hat Enterprise Linux erhalten Sie eine Plattform, die Zuverlässigkeit und Effizienz für HPC-Workloads in großem Umfang bietet – für On-Premise-, Cloud- oder hybride HPC-Umgebungen. Red Hat Enterprise Linux bietet eine Reihe von Container-Tools, die eine verbesserte Portierbarkeit und Reproduzierbarkeit für HPC-Workloads bereitstellen.

Red Hat OpenShift ist eine Container-Orchestrierungsplattform für Unternehmen, die Kubernetes-Funktionen ausweitet und konsistente Operationen und Application Lifecycle Management in großem Umfang bietet. Dabei werden flexible Topologieoptionen verwendet, um Workloads mit niedriger Latenz in vielen verschiedenen Umgebungen zu unterstützen.

Weiterlesen

Artikel

Was ist Linux?

Linux ist ein Open Source-Betriebssystem, das aus einer Grundkomponente, dem Kernel, und aus mehreren Tools, Apps und Services besteht.

Artikel

Was ist SELinux?

Security-Enhanced Linux (SELinux) ist eine Sicherheitsarchitektur für Linux®-Systeme, die Administratoren noch mehr Kontrolle darüber bietet, wer auf das System zugreifen darf.

Artikel

Was ist der Linux-Kernel?

Der Linux-Kernel ist die Hauptkomponente eines Linux-Betriebssystems und die zentrale Schnittstelle zwischen der Hardware eines Computers und seinen Prozessen.