Selbst gemanagtes OpenShift (Red Hat OpenShift Platform Plus, Red Hat OpenShift Container Platform, Red Hat OpenShift Kubernetes Engine und Red Hat OpenShift Virtualization Engine) kann in sämtlichen Umgebungen genutzt werden, in denen 64-Bit Red Hat Enterprise Linux zertifiziert ist und unterstützt wird. In der Dokumentation erhalten Sie weitere Informationen zu den Deployment-Methoden von OpenShift und den unterstützten Infrastrukturtypen.
Softwareeditionen für selbst gemanagtes OpenShift:
- Red Hat OpenShift Kubernetes Engine: Eine unternehmensgerechte Kubernetes Runtime Engine für Hybrid Clouds, die zentrale OpenShift-Funktionen für die Bereitstellung und Ausführung von Anwendungen bietet. Sie kann sowohl in Rechenzentren als auch in Public Cloud- oder Edge-Umgebungen installiert und gemanagt werden.
- Red Hat OpenShift Container Platform: Eine vollumfängliche unternehmensgerechte Kubernetes-Anwendungsplattform für Hybrid Clouds, mit der Sie Anwendungen entwickeln, bereitstellen und ausführen können. Sie kann sowohl in Rechenzentren als auch in Public Cloud- oder Edge-Umgebungen installiert und gemanagt werden.
- Red Hat OpenShift Platform Plus: Eine Hybrid Cloud-Plattform, mit der Unternehmen intelligente Anwendungen in großem Umfang in verschiedenen Clustern und Cloud-Umgebungen entwickeln, bereitstellen, ausführen und verwalten können. Mehrere Sicherheits-, Verwaltungs- und Automatisierungsschichten sorgen für Konsistenz in der gesamten Softwarelieferkette. Die Subskriptionen für OpenShift Platform Plus sind nur für x86-basierte Cluster verfügbar.
- Red Hat OpenShift Virtualization Engine: Ein reines Bare Metal-Virtualisierungsinfrastrukturangebot auf der Basis von Red Hat OpenShift und dem quelloffenen KVM-Hypervisor (Kernel-based Virtual Machine), das Unternehmen eine zuverlässige, unternehmensgerechte Lösung für die Bereitstellung, Verwaltung und Skalierung von VMs bietet. Diese Edition von OpenShift ist ein Subset der OpenShift-Funktionalität und richtet sich ausschließlich an VM-Workloads, wobei nur Infrastrukturservices in Containern unterstützt werden (also keine Unterstützung für Endbenutzeranwendungs-Container).
Subskriptionstypen
Es gibt 2 Subskriptionstypen (Kernpaar und Bare Metal Socket-Paar) für selbst gemanagtes OpenShift, wobei für die beiden Subskriptionstypen jeweils 2 Supportstufen verfügbar sind.
Für die Rechenknoten in Ihrer Umgebung sind Rechenknoten-Subskriptionen erforderlich. Diese können durch Kernpaare oder durch Bare Metal Socket-Paare berechtigt sein:
- Kernpaar (2 Kerne oder 4 vCPUs)
- Diese Subskriptionsoption ist für OpenShift Kubernetes Engine, OpenShift Container Platform und OpenShift Platform Plus verfügbar. Kernpaar-Subskriptionen sind nicht auf OpenShift Virtualization Engine anwendbar.
- Beim Erteilen von Berechtigungen für CPU-Kerne zählen Sie die Gesamtzahl der physischen Kerne oder vCPUs auf sämtlichen OpenShift-Rechenknoten, die auf den verschiedenen OpenShift Clustern ausgeführt werden, die Sie mit Kernpaar-Subskriptionen berechtigen möchten.
- Dabei ist ein SLA mit Standard-Support (werktags von 8:00 bis 17:00 Uhr) oder Premium-Support (rund um die Uhr) verfügbar.
- Bare Metal Socket-Paar (1–2 Sockets mit bis zu 128 Kernen)
- Diese Subskriptionsoption ist für sämtliche selbst gemanagten OpenShift-Editionen verfügbar und ist die einzige Option für OpenShift Virtualization Engine.
- Diese Subskription ist nur für physische x86- und ARM Bare Metal-Knoten verfügbar, bei denen OpenShift direkt auf der Hardware installiert ist. Ein Hypervisor eines Drittanbieters ist nicht zulässig.
- Es handelt sich ausdrücklich nicht um eine Subskription für ein „virtuelles Rechenzentrum“ (wie Red Hat Enterprise Linux for Virtual Datacenters, bei dem Sie mit einer einzigen Subskription eine unbegrenzte Anzahl von VM-Guest-Betriebssystemen auf einem beliebigen Hypervisor-Host installieren können).
- Dabei ist ein SLA mit Standard-Support (werktags von 8:00 bis 17:00 Uhr) oder Premium-Support (rund um die Uhr) verfügbar.
- Kann als Stack für Bare Metal-Server mit mehr als 2 Sockets oder mit mehr als 128 Kernen verwendet werden, aber eine einzelne Subskription darf nicht mehrere Bare Metal-Server umfassen.
Zusätzlich benötigen Sie Red Hat AI Accelerator-Subskriptionen für die Accelerators in Ihrer Umgebung:
- AI Accelerator (1 Accelerator)
- Diese Subskription ist erforderlich für Accelerator-Karten (GPU, TPU, NPU, FPGA, DPU usw.), die die Rechenleistung für KI-Workloads beschleunigen. Dabei handelt es sich um separate Add-ons, die nicht Teil des CPU-Pakets sind.
- Dieselbe Subskription wird für die einzelnen physischen AI Accelerators verwendet, unabhängig von der Red Hat OpenShift Edition.
- Eine einzelne AI Accelerator-Subskription ist ausreichend für Red Hat OpenShift und OpenShift AI, wenn beide auf dem Cluster installiert sind.
- Diese Subskription ist nicht erforderlich, solange die Funktion des Accelerators nicht für die Rechenbeschleunigung verwendet wird (beispielsweise DPUs, die als SmartNICs nur für die Netzwerkbeschleunigung verwendet werden, auch wenn sie über adressierbare ARM-Kerne verfügen, die nicht verwendet werden, oder GPUs, die für das Rendern von Grafiken und nicht für die KI-Beschleunigung verwendet werden).
- Dabei ist ein SLA mit Standard-Support (werktags von 8:00 bis 17:00 Uhr) oder Premium-Support (rund um die Uhr) verfügbar. Das SLA muss mit dem SLA der unterstützenden Subskription für das Kernpaar oder Bare Metal Socket-Paar übereinstimmen.
Wann empfiehlt sich eine Kernpaar-Subskription?
Die Wahl einer Kernpaar-Subskription erfolgt in den meisten Fällen, wenn Sie OpenShift in selbst gemanagten Public Cloud-Hyperscalern, in einer IaaS Private Cloud (Infrastructure as a Service) oder auf einem Hypervisor wie VMware vSphere, Red Hat OpenStack® Platform oder Nutanix bereitstellen möchten.
Mit Kernpaar-Subskriptionen erübrigt sich das Anhängen von Subskriptionen an physische Server. Die Pods können bei Bedarf standortunabhängig in Ihrer Hybrid Cloud bereitgestellt werden.
Sie können Kernpaar-Subskriptionen auch auf Bare Metal-Servern oder -Geräten (also ohne Hypervisor) verwenden. Beachten Sie, dass es in der Regel eine Dichte für Rechen-Pods gibt, bei der Bare Metal Socket-Paar-Subskriptionen kosteneffektiver sein können.
Wenn Sie OpenShift Virtualization Engine als dedizierte Virtualisierungsplattform verwenden, können Sie OpenShift Container auf VMs mit Kernpaar-Subskriptionen zusätzlich zu den Bare Metal Socket-Paar-Subskriptionen für den Hypervisor berechtigen. Dazu erwerben Sie separat Kernpaar-Subskriptionen für selbst gemanagtes OpenShift und weisen diese den VMs in dieser Umgebung zu, genau wie bei anderen Anwendungen, die Sie erwerben und als VM ausführen können. In diesem Fall gibt es eine Kerndichte, bei der ein Wechsel zum Bare Metal Socket-Paar-Modell für selbst gemanagtes OpenShift, mit unbegrenzten OpenShift-Containern auf dem Bare Metal-Server und Unterstützung für das Ausführen dieser Container in OpenShift-VMs, kostengünstiger sein kann.
Kernpaar-Subskriptionen können so verteilt werden, dass sie die gesamten OpenShift Rechenknoten in den OpenShift Clustern abdecken. Beispiel: 100 Kernpaar-Subskriptionen für Red Hat OpenShift Platform Plus bieten 200 Kerne (400 vCPUs), die für eine beliebige Anzahl von Rechenknoten in den ausgeführten OpenShift Clustern in ihren verschiedenen Hybrid Cloud-Umgebungen genutzt werden können.
Wann empfiehlt sich eine Bare Metal Socket-Paar-Subskription?
Bare Metal Socket-Paar-Subskriptionen sind nur eine Option für Rechenknoten von OpenShift, die auf dedizierten physischen Servern bereitgestellt werden, entweder in Ihrem Rechenzentrum, in einer gehosteten Private Cloud für ein unterstütztes Bare Metal-Angebot oder mit einem Hyperscaler für ein unterstütztes Bare Metal-Angebot. Bare Metal Socket-Paar-Subskriptionen sind die einzige Option für OpenShift Virtualization Engine und werden für die Unterstützung der OpenShift Virtualization-Funktion in den anderen selbst gemanagten OpenShift-Editionen benötigt.
Eine einzige Bare Metal Socket-Paar-Subskription berechtigt bis zu 128 physische Kerne für das Socket-Paar. Bare Metal-Subskriptionen sind stapelbar, um sowohl Socket-Paare mit insgesamt mehr als 128 Kernen als auch physische Server mit mehr als einem Socket-Paar abzudecken.
Wenn Sie einen physischen Server verwenden möchten, kombinieren Sie eine oder mehrere Subskriptionen, um entweder die Gesamtzahl der Sockets oder der physischen Kerne abzudecken (je nachdem, welche Anzahl größer ist). Als Beispiel: Ein Server verfügt über 2 Sockets mit 48 Kernen pro CPU, insgesamt also 96 Kerne. Hierfür ist 1 Subskription erforderlich, weil der Server über 1–2 Sockets und weniger als 128 Kerne verfügt. Für einen zweiten Server mit 2 Sockets und insgesamt 192 Kernen werden 2 Subskriptionen benötigt. 2 Subskriptionen sind erforderlich, um 192 Kerne abzudecken, weil eine einzige Subskription maximal 128 Kerne abdeckt. Eine einzelne Bare Metal Socket-Paar-Subskription kann nicht auf mehrere physische Hosts aufgeteilt werden (um 2 Server mit je einem Socket abzudecken oder um Kerne auf separaten Servern abzudecken).
Ein physischer Bare Metal-Server, der socketbasierte Berechtigungen verwendet, kann aufgrund der inhärenten Architektur von Kubernetes nur als ein einzelner OpenShift-Knoten genutzt werden. Da die einzelnen Knoten in Kubernetes nur zu einem einzigen Cluster gehören können, bedeutet dies, dass sich sämtliche Container auf einem Bare Metal-Server im selben Cluster befinden. Dies eignet sich für ressourcenintensive Workloads wie OpenShift Virtualization (wobei pro Workload eine vollständige VM ausgeführt wird), ist aber für andere möglicherweise nicht geeignet. Obwohl OpenShift bis zu 2500 Container auf einem einzelnen Knoten unterstützt, gibt es Situationen, in denen Sie aus Performance- oder Architekturgründen Container möglicherweise auf verschiedene Knoten oder Cluster aufteilen möchten. Dies ist ohne Virtualisierung zum Erstellen separater Rechenknoten auf dem Bare Metal-Server jedoch nicht möglich.
Ein häufiges Deployment-Modell für Container besteht in der Architektur einer großen Anzahl von Clustern mit jeweils einer kleineren Anzahl von Containern. Dieses Modell ist in Hyperscaler-Umgebungen üblich und kann im Rechenzentrum durch Verwenden eines Hypervisors zum Erstellen von VMs erreicht werden, die dann als Rechenknoten dienen, auf denen Container bereitgestellt werden. Bei Hypervisoren wie VMware vSphere, Red Hat OpenStack Platform und Nutanix müssen Sie Kernpaar-Subskriptionen für OpenShift verwenden, die in VMs bereitgestellt werden.
OpenShift Kubernetes Engine-, OpenShift Container Platform- und OpenShift Platform Plus-Cluster, die auf Bare Metal- und berechtigten Socket-Paar-Subskriptionen bereitgestellt werden, umfassen OpenShift Virtualization und Subskriptionen für sämtliche virtuellen OpenShift Cluster desselben Produkttyps, die auf ihnen bereitgestellt werden. Das bedeutet, dass virtuelle OpenShift Cluster, die beispielsweise auf einem Bare Metal OpenShift Container Platform-Cluster bereitgestellt werden, die Subskriptionen für OpenShift Container Platform vom Bare Metal-Hosting-Cluster übernehmen.
Ein wichtiger Hinweis ist, dass die Subskription für OpenShift Virtualization Engine keine Unterstützung für containerisierte Anwendungsinstanzen beinhaltet, mit Ausnahme von Infrastruktur-Workloads, wie im Abschnitt über die OpenShift Virtualization Engine weiter unten definiert. Wenn Sie Ihre eigenen containerisierten Anwendungs-Workloads mit OpenShift Virtualization Engine ausführen möchten, müssen Sie die VMs mit Kernpaar-Subskriptionen für selbst gemanagtes OpenShift berechtigen. Bei höheren Dichten können Sie stattdessen auch eine Bare Metal Socket-Paar-Subskription für selbst gemanagte OpenShift Kubernetes Engine, OpenShift Container Platform oder OpenShift Platform Plus erwerben. Dann können Sie containerbasierte Anwendungen nativ auf dem Bare Metal-Cluster ausführen, oder virtuelle Cluster übernehmen Subskriptionen wie im vorherigen Absatz beschrieben.
Sie können die OpenShift-Produkttypen innerhalb desselben Clusters nicht mischen. Sämtliche Knoten müssen eine Subskription desselben OpenShift Virtualization Engine-, OpenShift Kubernetes Engine-, OpenShift Container Platform- oder OpenShift Platform Plus-Produkttyps haben, jedoch können Kernpaar- und Socket-Paar-Subskriptionen innerhalb eines Clusters verwendet werden. Sie können beispielsweise keinen einzelnen Bare Metal-Cluster mit einer bestimmten Anzahl von OpenShift Virtualization Engine-Knoten zum Hosten von VMs und anderen Knoten haben, die über eine Subskription für OpenShift Platform Plus zum Hosten containerisierter Anwendungen und virtueller OpenShift-Instanzen verfügen.
Wie Sie AI Accelerator-Subskriptionen zählen
In den letzten Jahren sind neue Hardware-Technologien auf den Markt gekommen, mit denen bestimmte Workloads schneller ausgeführt werden können. Diese Hardware-Geräte werden in einigen Materialien von Red Hat als Accelerators oder AI Accelerators bezeichnet. Für moderne Server stehen verschiedene Arten von Hardware-Geräten zur Verfügung, die als „Accelerators“ (Beschleuniger) bezeichnet werden können, wie beispielsweise GPUs, TPUs, ASICs, NPUs und FPGAs.
Bei diesen Accelerators handelt es sich in der Regel um eine Karte, ein Board oder ein anderes physisches Gerät, das einen PCI-Steckplatz (Peripheral Component Interconnect) in einem Server belegt. Dabei handelt es sich fast immer um die Stückzahl, die Sie beim Anbieter des Accelerators gekauft haben. Bei einem Server, der laut Anbieter über 8 GPUs verfügt, sind damit fast immer 8 physische Accelerator-Einheiten gemeint.
Eine einzelne AI Accelerator-Subskription deckt 1 physisches Accelerator-Gerät ab. Beispiel: Der Fokus liegt nur auf den AI Accelerator-Subskriptionen:
- Ein physischer Rechenknoten mit 4 physischen GPU-Geräten erfordert 4 AI Accelerator-Subskriptionen zusätzlich zu den CPU-Kernpaar- oder -Socket-Paar-Subskriptionen, die den Rechenknoten abdecken.
- Ein einzelner virtueller Rechenknoten mit 1 physischen GPU-Gerät, das den VMs als mehrere vGPUs präsentiert wird, erfordert 1 AI Accelerator-Subskription, da die Zählung auf physischen Accelerators und nicht auf virtuellen beruht.
Accelerators werden nur gezählt, wenn sie zur Ausführung einer Computing Workload verwendet werden. Eine Workload gilt als Computing Workload, wenn der Hauptzweck der Workload nicht darin besteht, aktiv und nahezu in Echtzeit Pixel auf den Bildschirm der einzelnen Nutzenden zu übertragen oder Daten innerhalb eines Netzwerks zu verschieben.
Diese Unterscheidung ist wichtig, weil VFX- und Streaming-Anwendungen zwar GPUs und andere Beschleunigungshardware verwenden können, der Hauptzweck in diesen Fällen aber das Zeichnen von Pixeln auf einem Bildschirm ist. In einigen Fällen besteht die Hauptfunktion im Verschieben von Daten innerhalb eines Netzwerks (beispielsweise bei Datenverarbeitungseinheiten für Netzfunktionen), was ebenfalls nicht als Rechenleistung gilt.
Beispiele für Computing Workloads sind unter anderem:
- Traditionelle Softwareanwendungen wie Java, Python und Perl
- LLMs oder andere rechenintensive Software
- Data Science-Modelltraining und -abstimmung
- Wissenschaftliches Modellieren und physikalische Simulationen wie Proteinfaltung und Fluiddynamik