Jump to section

Was ist Red Hat OpenShift Serverless?

URL kopieren

Mit Red Hat OpenShift Serverless kommt die Kubernetes-Erweiterung von Knative zu Red Hat® OpenShift®. Damit können Sie serverlose, event-gesteuerte Anwendungen auf Red Hat OpenShift entwickeln und bereitstellen.

Serverless ist ein Deployment-Modell, mit dem Sie Anwendungen entwickeln und ausführen können, ohne detaillierte Informationen über die zugrunde liegende Infrastruktur zu haben. Dahinter steckt die Idee einer allgegenwärtigen Plattform, die einfach funktioniert. Entwicklerinnen und Entwickler müssen sich so nicht mehr um die Infrastruktur kümmern, sondern können sich darauf konzentrieren, Code zu schreiben und festzulegen, wo dieser ausgeführt werden soll.

Bei event-gesteuerten Serverless-Deployments wird nur dann Code ausgeführt und Infrastruktur provisioniert, wenn dies erforderlich ist. Dadurch kann die Anwendung ruhen, wenn sie nicht benötigt wird. Basierend auf Event-Triggern skaliert eine Serverless-Anwendung automatisch, um auf die eingehende Nachfrage zu reagieren, und kann dann nach der Verwendung wieder auf Null skalieren.

Mit dem Serverless-Modell lässt sich die Innovationskraft von Red Hat OpenShift noch besser nutzen. Unternehmen können damit schneller Innovationen schaffen, da die Anwendung von der zugrunde liegenden Infrastruktur abstrahiert wird. Die Anwendungen werden als OCI-konforme Container paketiert, die sich überall ausführen lassen – unabhängig davon, wie sie geschrieben wurden.

Dass beliebige Container serverlos ausgeführt werden können, ist durch die Verwendung von Upstream-Knative möglich. Knative (Aussprache: Kei-neitiv) erweitert Kubernetes um eine Reihe von Komponenten, mit denen sich moderne Anwendungen mithilfe der Serverless-Methode bereitstellen, ausführen und verwalten lassen. Wenn Sie Knative verwenden, können Ihre Serverless-Anwendungen auf jeder beliebigen Kubernetes-Plattform bereitgestellt und ausgeführt werden, wodurch Sie mögliche Vendor Lock-ins weitestgehend vermeiden.

Im Vergleich zu Functions kann ein Serverless-Container auf jeder beliebigen Runtime aufsetzen. Ihr Code kann dabei zusammen mit den jeweiligen Runtimes in einem Container paketiert werden. Die Serverless-Funktion startet die Anwendungs-Container dann, wenn sie von einem Event aufgerufen werden. Die Container können also auch auf Null skalieren und verwenden dementsprechend keine Ressourcen, wenn sie nicht verwendet werden. Anwendungen können von ganz unterschiedlichen Quellen ausgelöst werden, wie etwa von Events Ihrer eigenen Anwendungen, Cloud-Services verschiedener Anbieter, SaaS-Systemen (Software-as-a-Service) oder anderen Services.

Sie können einen beliebigen dieser Event-Trigger verwenden, um eine On-Demand-Ausführung der Anwendung auszulösen. Dank dieser Struktur können Sie eine monolithische Anwendung in individuelle Container zerlegen und die Anwendungslogik kann jeden einzelnen Container auslösen. Dabei wird anhand von eingehenden Events entschieden, wann Ihre Anwendung gestartet werden soll.
 

Entwicklerinnen und Entwickler können Red Hat OpenShift Serverless zum Entwickeln, Bereitstellen und Ausführen von event-gesteuerten Anwendungen verwenden, deren Start von einem Event-Trigger ausgelöst wird. Außerdem lassen sich damit Ressourcen dem Bedarf entsprechend skalieren – anschließend auch wieder auf Null. Dank der Möglichkeiten von Knative lassen sich Anwendungen von Re Hat OpenShift Serverless überall dort ausführen, wo Red Hat OpenShift installiert ist – lokal, in mehreren Public Cloud-Umgebungen oder am Edge – und zwar mit derselben Oberfläche.

Sämtliche Aspekte des Serverless-Deployments beliebiger Container lassen sich direkt über die Oberfläche von OpenShift verwalten. Entwicklerinnen und Entwickler können visuell ermitteln, welche Events den Start ihrer containerisierten Anwendungen auslösen. Dabei haben sie mehrere Möglichkeiten, diese Event-Parameter zu ändern.

Durch die zahlreichen unterstützten Event-Quellen können Sie aus verschiedenen Triggern wählen und festlegen, durch welche dieser Trigger Ihre Container ausgelöst und skaliert werden und dann bei Nichtverwendung wieder auf Null heruntergefahren werden.

Serverless-Funktionen sind vollständig in die Red Hat OpenShift Plattform integriert. Dies erleichtert Operations-Teams die Implementierung dieser Funktionen und macht es gleichzeitig für Entwicklungs-Teams einfacher, event-gesteuerte Deployments zu verwalten. Die Ausrichtung der Ressourcenzuweisung an der Anwendungsnutzung ist für Operations-Teams von Vorteil, da sie so die Verfügbarkeit in unterschiedlichen Computing-Zielen optimieren können. Entwickler können die Trigger ihres Codes schnell identifizieren, indem sie eingehende Event-Quellen markieren, mit denen einzelne Services gestartet werden.

Dadurch entsteht ein Framework für die Nutzung operativer Funktionen beim Deployment von Anwendungen mit Red Hat OpenShift.

Mehr erfahren

Blog

Wann Sie Red Hat OpenShift Serverless einsetzen sollten

Was ist OpenShift Serverless und warum sollten Sie es als Plattform für Ihre Serverless-Workloads nutzen?

E-Book

O’Reilly: Knative Cookbook

Mit mehr als 60 praktischen Rezepten helfen Ihnen diese „Rezepte" dabei, Probleme mit Knative zu lösen – der ersten Serverless-Plattform, die nativ für Kubernetes entworfen wurde.

Bericht

Red Hat OpenShift Serverless for hybrid, legacy, and greenfield

451 Research untersucht in diesem Bericht, wie Red Hat OpenShift Serverless die Einführung und Bereitstellung von Kubernetes vereinfacht.

Die Kubernetes-Basis für Serverless Computing

Red Hat OpenShift

Red Hat OpenShift

Eine Container-Plattform für eine schnellere Entwicklung cloudnativer Anwendungen.

Red Hat OpenShift

Red Hat OpenShift Streams für Apache Kafka

Ein gemanagter Cloud-Service zum Entwickeln, Bereitstellen und Skalieren von Apps.

Red Hat Runtimes

Red Hat Runtimes

Eine Auswahl an Anwendungs-Runtimes und -Frameworks für die Entwicklung cloudnativer Anwendungen.

Illustration - mail

Möchten Sie mehr zu diesen Themen erfahren?

Abonnieren Sie unseren kostenlosen Newsletter, Red Hat Shares.