Jump to section

Tout savoir sur Red Hat OpenShift Serverless

Copier l'URL

Red Hat OpenShift Serverless intègre l'extension Knative de Kubernetes à Red Hat® OpenShift®, ce qui permet de créer et déployer des applications serverless orientées événements sur Red Hat OpenShift.

Le modèle de déploiement serverless, ou informatique sans serveur, permet de créer et d'exécuter des applications sans avoir besoin de maîtriser l'infrastructure sous-jacente. L'idée est que la plateforme est omniprésente et fonctionne, tout simplement.Les développeurs peuvent concentrer leurs efforts sur l'écriture du code et sur le choix de l'environnement d'exécution adéquat, sans se soucier de l'infrastructure.

Le modèle de déploiement serverless orienté événements permet d'exécuter le code et de provisionner l'infrastructure uniquement lorsque ces opérations sont nécessaires. Le reste du temps, l'application demeure inactive. Une application serverless est capable d'augmenter automatiquement ses ressources en fonction de déclencheurs d'événements en réponse à une demande entrante, puis d'effectuer une mise à l'échelle à zéro après utilisation.

Le modèle serverless décuple le potentiel d'innovation qu'offre Red Hat OpenShift. Il permet aux entreprises d'innover plus rapidement, car l'application est dissociée de l'infrastructure sous-jacente. Les applications sont mises en paquets dans des conteneurs conformes à la norme OCI qui peuvent s'exécuter dans tout environnement, indépendamment de leur langage.

L'utilisation du projet Knative en amont permet d'exécuter tout type de conteneur selon le modèle serverless. Knative est une extension de Kubernetes qui fournit un ensemble de composants pour le déploiement, l'exécution et la gestion d'applications modernes selon le modèle serverless. Knative permet de déployer et d'exécuter des applications serverless sur toute plateforme Kubernetes, ce qui évite une potentielle dépendance vis-à-vis d'un fournisseur.

Un conteneur créé avec Red Hat OpenShift Serverless peut reposer sur tout type d'environnement d'exécution, contrairement à ceux créés avec OpenShift Cloud Functions. Le code peut être mis en paquet dans un conteneur avec les environnements d'exécution appropriés, et la fonctionnalité serverless démarrera les conteneurs d'application lorsqu'ils seront appelés par un événement. Les conteneurs sont aussi capables d'effectuer une mise à l'échelle à zéro afin de ne plus consommer de ressources lorsqu'ils ne sont pas utilisés. Les applications peuvent être déclenchées par différentes sources telles que des événements issus de vos propres applications, de services cloud de nombreux fournisseurs, de systèmes SaaS et d'autres services.

Vous pouvez utiliser n'importe lequel de ces déclencheurs d'événements pour exécuter l'application à la demande. Cette structure permet de décomposer votre application monolithique en conteneurs individuels, et de laisser la logique de l'application déclencher chaque conteneur au bon moment en fonction des événements entrants.
 

Les développeurs peuvent utiliser le service Red Hat OpenShift Serverless pour créer, déployer et exécuter des applications orientées événements capables de démarrer suite à un événement déclencheur, d'augmenter leurs ressources selon les besoins, puis d'effectuer une mise à l'échelle à zéro après utilisation. Grâce à la puissance de Knative, les applications développées avec Red Hat OpenShift Serverless peuvent s'exécuter partout où Red Hat OpenShift est installé (dans un environnement sur site, multicloud, de cloud public ou d'edge computing), depuis une interface unique.

L'interface OpenShift intègre directement la gestion de tous les aspects du déploiement d'un conteneur selon le modèle serverless. Les développeurs identifient visuellement les événements qui déclenchent le lancement des applications conteneurisées et peuvent en modifier les paramètres de différentes manières.

Après avoir choisi parmi un large éventail de sources d'événements les déclencheurs qui démarreront et mettront à l'échelle les conteneurs, vous pourrez les contrôler et ramener les ressources à zéro une fois les conteneurs utilisés.

Les capacités serverless sont entièrement intégrées à la plateforme Red Hat OpenShift, ce qui facilite leur mise en œuvre pour les équipes d'exploitation, tout en simplifiant les déploiements orientés événements pour les développeurs. Comme l'allocation des ressources est alignée sur l'utilisation des applications, les équipes d'exploitation peuvent optimiser la disponibilité pour un ensemble hybride de cibles de calcul. De leur côté, les développeurs identifient rapidement comment leur code est déclenché d'après la liste des sources définies en tant qu'événements déclencheurs pour chaque service.

La structure qui en résulte permet d'associer des capacités d'exploitation au déploiement d'applications avec Red Hat OpenShift.

Pour aller plus loin

Article de blog

Pourquoi et quand choisir le service Red Hat OpenShift Serverless ?

Apprenez-en davantage sur OpenShift Serverless et découvrez ses avantages pour les charges de travail serverless.

Livre numérique

« Knative Cookbook » par O'Reilly

Contenant plus de 60 solutions pratiques, ce guide vous aide à résoudre de nombreux problèmes avec Knative, la première plateforme serverless native pour Kubernetes.

Rapport

Red Hat's OpenShift Serverless for hybrid, legacy and greenfield

451 Research explore comment Red Hat OpenShift Serverless simplifie l'adoption et le déploiement de Kubernetes.

Les solutions Kubernetes de base pour le serverless

Red Hat OpenShift

Red Hat OpenShift

Plateforme de conteneurs qui permet d'accélérer le déploiement d'applications cloud-native.

Red Hat OpenShift

Red Hat OpenShift Streams for Apache Kafka

Service cloud géré pour la création, le déploiement et la mise à l'échelle des applications.

Red Hat Runtimes

Red Hat Runtimes

Sélection d'environnements d'exécution et de frameworks pour le développement d'applications cloud-native.

Illustration - mail

Ce type de contenu vous intéresse ?

Inscrivez-vous à notre newsletter Red Hat Shares.