Avec notre solution OpenShift Virtualization, les entreprises qui axent leurs déploiements de datacenters sur la virtualisation peuvent se moderniser avec une architecture d'applications conteneurisée.
Si certaines applications restent impossibles à conteneuriser, ce n'est pas un problème. OpenShift Virtualization propose un modèle plus moderne qui assure une gestion cohérente des conteneurs et des machines virtuelles nécessaires sur une plateforme unifiée.
Chez Red Hat, nous devons à la fois garantir la parité des fonctions et faciliter l'adoption de cette nouvelle solution en offrant une expérience client comparables à celle des produits et configurations existants.
Lorsqu'un écosystème informatique nous est familier, il est courant d'essayer d'adapter des principes que l'on connaît à de nouveaux systèmes. Les administrateurs système ont souvent recours à la solution VMware vSphere pour la virtualisation des datacenters. Les utilisateurs ont introduit de nombreuses solutions de conception qui ont été adoptées comme meilleures pratiques pour le déploiement et la configuration de machines virtuelles ou de datacenters virtuels. Devenues standard, ces solutions sont susceptibles d'être reprises lors du développement d'autres environnements.
Cette série d'articles de blog compare les actions et configurations que les administrateurs de virtualisation peuvent effectuer dans leurs anciens environnements d'hyperviseurs et dans OpenShift Virtualization.

Intéressons-nous d'abord à la multiplicité des réseaux, une conception courante avec d'autres solutions de virtualisation telles que VMware vSphere. Le principe est de prendre en charge différents réseaux avec des hôtes ESXi, chaque réseau virtuel remplissant un objectif précis au sein du datacenter virtuel. Il existe différentes techniques pour obtenir cette ségrégation du réseau, par exemple la connexion de cartes réseau physiques des hôtes à différents commutateurs ou réseaux en amont, ou la connexion de VLAN supplémentaires via une liaison montante, en vérifiant le balisage sur le vSwitch ou le vSwitch distribué dans l'hyperviseur lui-même pour que l'objectif soit correctement indiqué. Généralement, la subdivision réalisée au cours de la mise en réseau permet de créer au moins les réseaux suivants :
- Un réseau de gestion pour les hôtes ESXi et la machine virtuelle vCenter ainsi que d'autres hôtes de gestion tiers qui peuvent être déployés
- Un réseau de migration d'hôte pour prendre en charge la migration à chaud des invités (vMotion) entre les hôtes ESXi afin d'assurer une haute disponibilité
- Un réseau de stockage hôte permettant aux hôtes ESXi d'accéder aux ressources qui fournissent un stockage de sauvegarde ou un stockage mappé invité pour les machines virtuelles
- Un réseau de machines virtuelles qui fournit la connectivité réseau aux invités virtuels
En plus de ces réseaux, les configurations et les objectifs de mise en réseau varient souvent en fonction des cas d'utilisation de chaque environnement. La commutation virtuelle permet de mettre facilement en œuvre un grand nombre de configurations différentes. Comme on pourrait s'y attendre, le passage à une solution telle qu'OpenShift Virtualization, qui fonctionne différemment, déstabilise les personnes habituées aux méthodes établies pour définir leurs réseaux.
Les sections suivantes examinent chacun des principaux cas d'utilisation évoqués et montrent comment OpenShift Virtualization répond à ces besoins.
Par défaut, la solution est installée avec un seul réseau de pod interne. Comme toute application déployée dans un environnement Kubernetes, ce réseau interne sert à communiquer avec le pod tout au long de son cycle de vie. En utilisant la console OpenShift, l'utilitaire CLI virtctl ou la commande oc, vous pouvez exécuter toutes les fonctionnalités de gestion essentielles pour les invités virtuels sur le réseau de l'API interne. Dans OpenShift Virtualization, ce réseau effectue les mêmes actions que le réseau de gestion interne dans VMware vSphere.

À l'instar de ces fonctionnalités de gestion, il est possible de gérer toutes les fonctionnalités de mise en réseau d'un environnement OpenShift sur le réseau de pods par défaut. Cependant, cette pratique est rarement recommandée. Pour certaines tâches, telles que la migration des invités virtuels et l'accès au stockage, un accès direct sur des réseaux dédiés s'avère plus efficace. Les politiques de migration permettent d'ajuster les performances de certaines actions afin de limiter la quantité de bande passante utilisée. Cependant, la plupart des utilisateurs professionnels préfèrent disposer de réseaux dédiés pour d'autres fonctionnalités, comme la migration des invités, le stockage et l'accès des invités virtuels, notamment s'ils ont déjà travaillé de cette façon dans un environnement VMware vSphere.
À cette fin, OpenShift utilise le plug-in Multus CNI, qui permet de configurer des interfaces réseau supplémentaires, des périphériques SR-IOV et des ponts Linux disponibles pour les nœuds de calcul afin de les attacher à des pods individuels, selon les besoins.
Avant d'installer Multus, il faut configurer le réseau sous-jacent. Dans le cas des ponts Linux, on utilisera l'opérateur nmstate. Pour les périphériques SR-IOV, vous aurez besoin de l'opérateur SR-IOV. Une fois l'environnement réseau configuré, l'administrateur peut commencer à configurer une définition d'association réseau qui indique à OpenShift comment utiliser des interfaces physiques, des périphériques SR-IOV ou des ponts Linux supplémentaires.

Examinons plus en détail la configuration des migrations dynamiques. Dans de nombreux déploiements de VMware vSphere, un réseau est réservé à la prise en charge de vMotion pour gérer la grande quantité de bande passante que nécessite la migration dynamique. L'absence de réseau dédié peut avoir de lourdes conséquences sur les ressources réseau partagées, telles que les invités virtuels. La gestion de l'environnement peut également se dégrader si un nœud n'est plus disponible et que plusieurs invités sont obligés de migrer simultanément. OpenShift Virtualization offre plusieurs options pour empêcher les événements de migration dynamique d'affecter la mise en réseau principale ou les performances du cluster.
La première méthode consiste à définir une politique de migration dont certaines règles limitent la quantité de bande passante disponible pour les migrations. Il est également possible de définir un réseau réservé aux migrations dynamiques en modifiant les paramètres du cluster dans les paramètres d'aperçu d'OpenShift Virtualization. Dans ce menu, vous pouvez limiter le nombre de migrations dynamiques pouvant avoir lieu à un moment donné, afin de préserver la bande passante. Vous pouvez également modifier le réseau utilisé pour ces migrations dynamiques.
Pour ce faire, créez une définition d'association réseau pour une interface réseau dédiée sur vos nœuds de calcul, puis définissez un réseau privé qui autorise uniquement la connexion entre les nœuds de calcul configurés pour prendre en charge la virtualisation. Sélectionnez ensuite ce réseau. De cette façon, lors de la migration d'un invité ou de la maintenance d'un hôte qui évacue tous les invités, c'est le réseau réservé aux migrations dynamiques qui est utilisé, et non l'infrastructure réseau OpenShift principale.
La mise en réseau des ressources de stockage dépend du fournisseur de stockage utilisé pour le cluster OpenShift. De nombreux fournisseurs disposent de pilotes natifs compatibles avec CSI qui appliquent automatiquement leurs meilleures pratiques en matière de connectivité de stockage.
Il existe des meilleures pratiques pour la configuration des classes de stockage dans OpenShift Virtualization, afin de prendre en charge les invités virtuels. Par exemple, les volumes persistants provisionnés pour les machines virtuelles doivent être en mode RWX afin que des nœuds supplémentaires puissent y accéder au cas où l'invité virtuel devrait être migré vers un autre nœud. Comme pour la migration, il est possible de configurer les nœuds de calcul pour accéder au stockage via le réseau de gestion par défaut ou de les associer à un réseau distinct qui fournit la connectivité pour les volumes persistants NFS ou iSCSI. Dans OpenShift, le réseau de gestion ou de pods par défaut lance généralement les appels d'API vers le système de stockage indiqué. Le pilote CSI vérifie que le volume provisionné est correctement mappé sur le réseau de stockage disponible.
L'accès public aux applications s'exécutant sur la machine virtuelle ou à la machine virtuelle directement présente également des avantages. S'ils ne sont pas encore prêts pour la conteneurisation, les utilisateurs peuvent traiter les applications en cours d'exécution sur les machines virtuelles comme celles qui s'exécutent en parallèle dans les conteneurs. Il leur suffit d'appliquer une balise à une machine virtuelle qui identifie l'application à laquelle ils souhaitent fournir l'accès. À partir de cette balise, ils doivent créer un service Kubernetes pour les ports dont l'application sur la machine virtuelle peut avoir besoin. Ce service peut ensuite être exposé en créant une route OpenShift et en autorisant l'accès non pas à l'invité virtuel, mais à l'application directement via le réseau de pods OpenShift par défaut, exactement comme avec une application conteneurisée.
Cette méthode d'accès à un invité virtuel constitue une étape de transition entre la virtualisation et la conteneurisation des applications. Pour adopter une approche plus traditionnelle avec un accès direct au système d'exploitation invité d'une machine virtuelle, créez une définition d'association réseau et connectez-vous à un pont Linux ou à un périphérique SR-IOV disponible sur chaque nœud de calcul pouvant héberger des invités virtuels. L'invité virtuel se voit ainsi attribuer une adresse IP externe et les utilisateurs peuvent se connecter directement à l'invité par SSH ou à l'aide du protocole d'accès à distance de leur choix.
Mais attention : lors de l'association de réseaux supplémentaires à des invités virtuels, le pont Linux, les interfaces physiques disponibles et les balises VLAN doivent être définis de la même manière et être disponibles sur chaque nœud de calcul du cluster pour prendre en charge la haute disponibilité des machines virtuelles invitées, afin que la migration vers un autre nœud du cluster soit possible.
Pour offrir une bonne expérience d'utilisation, il convient d'identifier les manières dont la configuration de l'architecture réseau d'OpenShift Virtualization permet de fournir des performances et un comportement similaires à d'autres environnements d'hyperviseurs courants tels que VMware vSphere. Chez Red Hat, nous pensons que les expériences positives améliorent la satisfaction client et l'adoption des produits, ce qui facilite la modernisation des applications.
Pour en savoir plus sur la modernisation des applications et les avantages d'OpenShift Virtualization, vous pouvez assister à l'un de nos prochains événements en direct, tels que Red Hat Summit: Connect ou le OpenShift Virtualization Road Show. Nous présenterons OpenShift Virtualization et proposerons des travaux pratiques.
À propos de l'auteur
Contenu similaire
Parcourir par canal
Automatisation
Les dernières nouveautés en matière d'automatisation informatique pour les technologies, les équipes et les environnements
Intelligence artificielle
Actualité sur les plateformes qui permettent aux clients d'exécuter des charges de travail d'IA sur tout type d'environnement
Cloud hybride ouvert
Découvrez comment créer un avenir flexible grâce au cloud hybride
Sécurité
Les dernières actualités sur la façon dont nous réduisons les risques dans tous les environnements et technologies
Edge computing
Actualité sur les plateformes qui simplifient les opérations en périphérie
Infrastructure
Les dernières nouveautés sur la plateforme Linux d'entreprise leader au monde
Applications
À l’intérieur de nos solutions aux défis d’application les plus difficiles
Programmes originaux
Histoires passionnantes de créateurs et de leaders de technologies d'entreprise
Produits
- Red Hat Enterprise Linux
- Red Hat OpenShift
- Red Hat Ansible Automation Platform
- Services cloud
- Voir tous les produits
Outils
- Formation et certification
- Mon compte
- Assistance client
- Ressources développeurs
- Rechercher un partenaire
- Red Hat Ecosystem Catalog
- Calculateur de valeur Red Hat
- Documentation
Essayer, acheter et vendre
Communication
- Contacter le service commercial
- Contactez notre service clientèle
- Contacter le service de formation
- Réseaux sociaux
À propos de Red Hat
Premier éditeur mondial de solutions Open Source pour les entreprises, nous fournissons des technologies Linux, cloud, de conteneurs et Kubernetes. Nous proposons des solutions stables qui aident les entreprises à jongler avec les divers environnements et plateformes, du cœur du datacenter à la périphérie du réseau.
Sélectionner une langue
Red Hat legal and privacy links
- À propos de Red Hat
- Carrières
- Événements
- Bureaux
- Contacter Red Hat
- Lire le blog Red Hat
- Diversité, équité et inclusion
- Cool Stuff Store
- Red Hat Summit