Red Hat OpenShift 4.21, basé sur Kubernetes 1.34 et CRI-O 1.34, est désormais disponible. Associée à Red Hat OpenShift Platform Plus, cette version témoigne de notre engagement continu à fournir la plateforme d'applications fiable, complète et cohérente sur laquelle les entreprises s'appuient pour effectuer leurs charges de travail de production dans le cloud hybride, sans compromettre la sécurité.

Cette version met l'accent sur l'exécution des tâches d'entraînement de l'IA, des microservices conteneurisés et des applications virtualisées sur la même infrastructure avec le même modèle d'exploitation. Avec OpenShift 4.21, vous pouvez à la fois moderniser votre infrastructure informatique existante et accélérer l'innovation en matière d'IA sur une seule et même plateforme économique, qui évolue automatiquement en fonction de la demande métier en temps réel.

Red Hat OpenShift 4.21 highlights include AI, Core, and Virtualization

Prenons l'exemple d'une grande institution financière qui doit assurer la maintenance de ses anciennes machines virtuelles pour les activités bancaires de base tout en entraînant de nouveaux modèles d'IA pour détecter les fraudes. Auparavant, ces deux éléments résidaient dans des systèmes différents, ce qui entraînait des silos et des coûts gaspillés.

Cependant, avec OpenShift 4.21, cette entreprise peut exécuter les deux sur la même infrastructure. Avec le nouvel opérateur DRA (Dynamic Resource Allocation), ils peuvent même accorder la priorité aux GPU haut de gamme pour l'entraînement de l'IA dans la journée, mais programmer automatiquement un transfert de ces ressources ou leur mise à l'échelle la nuit afin de réaliser des économies. En outre, elles peuvent déplacer des machines virtuelles actives entre des centres de données sans temps d'arrêt, ce qui garantit la continuité des services bancaires en cas de maintenance du matériel.

Que vous déployiez OpenShift en tant que plateforme autogérée ou que vous l'utilisiez en tant que service cloud entièrement géré, vous bénéficiez d'un ensemble complet d'outils et de services intégrés pour les charges de travail cloud-native, virtuelles, traditionnelles et d'IA. Cet article de blog présente les principales innovations d'OpenShift 4.21 en matière d'IA, de capacités de base de la plateforme et de virtualisation. Pour en savoir plus, consultez les notes de version d'OpenShift 4.21.

IA

L'intelligence artificielle est devenue la pierre angulaire de l'industrie moderne, permettant des avancées majeures dans de nombreux domaines, des soins personnalisés aux systèmes autonomes. Cependant, à mesure que les modèles d'IA se complexifient, l'infrastructure sous-jacente doit évoluer pour gérer efficacement des demandes de calcul considérables. Dans cette version d'OpenShift, nous continuons à ajouter des fonctions d'IA à la plateforme afin de prendre en charge les charges de travail d'IA de production à grande échelle.

Rationalisation des charges de travail d'IA avec la version Red Hat de Kueue v1.2

Dans OpenShift 4.21, la version Red Hat de Kueue v1.2 offre deux fonctionnalités majeures pour les équipes d'IA à grande échelle :

  • Prise en charge de KubeFlow Trainer v2 dans Red Hat OpenShift AI 3.2 : Au lieu de gérer des ressources distinctes pour chaque framework d'apprentissage automatique (AA), les data scientists travaillent désormais avec une seule API TrainJob. Ils se concentrent sur le code des modèles pendant que les équipes de plateforme définissent l'infrastructure en exploitant les environnements d'exécution.
  • API Visibility pour les charges de travail en attente : Auparavant, les tâches par lot se mettaient dans des files d'attente sans connaître la position ni le temps d'attente. Les utilisateurs ne pouvaient pas savoir s'ils étaient en premier ou en centième ligne. Les administrateurs n'avaient aucun moyen de détecter les goulets d'étranglement au niveau des ressources. Dorénavant, les deux côtés voient ce qui se passe. Les utilisateurs obtiennent une estimation des heures de début. Les administrateurs peuvent identifier les ressources spécifiques, telles que les types de GPU, qui sont surchargées. La file d'attente n'est plus opaque.

Gestion des charges de travail distribuées avec JobSet

L'opérateur JobSet Operator atteint la disponibilité générale dans cette version. Les équipes peuvent orchestrer des charges de travail distribuées à l'aide de leurs workflows GitOps existants, de leurs politiques de contrôle d'accès basé sur les rôles et de leurs outils de surveillance. JobSet offre une planification flexible et une tolérance aux pannes pour les tâches complexes et interdépendantes, ce qui permet aux entreprises d'exécuter des charges de travail de calcul distribuées et d'apprentissage automatique exigeantes à grande échelle en garantissant la cohérence opérationnelle.

Mise en correspondance des charges de travail avec le matériel GPU avec précision et flexibilité

À mesure que les charges de travail d'IA s'étendent au sein de l'entreprise, l'approche traditionnelle d'allocation des GPU qui consiste à compter les appareils et à attendre qu'ils correspondent à vos besoins cesse de fonctionner. OpenShift 4.21 introduit trois fonctionnalités dans DRA qui changent fondamentalement la façon dont les entreprises demandent et utilisent les ressources GPU.

Intelligent GPU Allocation with Dynamic Resource Allocation

Allocation de GPU basée sur des attributs avec pilote DRA

Au lieu de demander un GPU, vous indiquez maintenant ce dont vous avez réellement besoin (par exemple, « un GPU avec au moins 40 Go de VRAM »). Le planificateur interroge les attributs matériels directement à l'aide d'un langage d'expression commun (CEL), éliminant ainsi l'étiquetage manuel des nœuds. Les étiquettes gpu-type=h100 ne sont plus gérées dans le cluster. Le système lit les capacités matérielles et les associe automatiquement aux exigences de la charge de travail. Pour utiliser cette fonctionnalité, vous devez utiliser l'opérateur ou le pilote fourni par le fournisseur pour lequel la fonctionnalité DRA est activée.

Accès administrateur contrôlé par l'espace de noms dans DRA

La fonctionnalité DRA standard verrouille un GPU sur les pods qui lui sont affectés, de sorte que même les outils de surveillance et les débogueurs ne puissent pas les atteindre. L'accès administrateur crée des exceptions privilégiées pour les charges de travail d'infrastructure sans perturber l'allocation des utilisateurs. Cela s'avère particulièrement utile pour la surveillance à l'échelle du cluster et le débogage en direct.

Alternatives priorisées dans les demandes de périphériques

Définissez des stratégies de basculement directement dans vos demandes de ressources. Au lieu de « H100 ou échec », vous spécifiez une liste ordonnée : D'abord, H100, puis A100 et enfin V100. Le planificateur essaie chaque option dans l'ordre jusqu'à ce qu'il trouve la capacité disponible.

Cœur

L'infrastructure de base d'OpenShift reste la norme dans le secteur pour assurer la résilience du cloud hybride, car elle évolue en permanence pour répondre aux exigences modernes en matière de performances et de coûts. Dans cette dernière version, nous avons optimisé l'efficacité des ressources grâce à des innovations telles que la mise à l'échelle automatique des plans de contrôle hébergés afin d'ajuster dynamiquement la mémoire, ou la mise à l'échelle à zéro pour éliminer les coûts d'infrastructure inactifs.

En outre, OpenShift continue d'étendre son écosystème avec des intégrations validées avec des plateformes telles que VMware Cloud Foundation 9 et Oracle Database Appliance, afin de garantir que les clients peuvent déployer OpenShift dans le cloud hybride.

Dimensionnement correct dans les plans de contrôle hébergés

Dans OpenShift 4.21, les plans de contrôle hébergés pour Red Hat OpenShift incluent désormais l'intégration de VerticalPodAutoscaler (VPA) en natif. La mise à l'échelle des composants de plan de contrôle s'effectue automatiquement en fonction de la consommation de mémoire en temps réel, et non d'estimations statiques ou de nombres de nœuds. Le système surveille l'utilisation réelle et ajuste les ressources de manière dynamique, sans intervention manuelle. Ainsi, il passe de la planification de la capacité à la réponse à la demande. Au lieu de prévoir les ressources dont vous aurez besoin dans les six mois à venir, la plateforme observe ce qui se passe maintenant et réagit à votre situation. Vos plans de contrôle restent dimensionnés précisément pour la charge de travail actuelle. Ainsi, il n'y a aucune dégradation des performances due au sous-provisionnement, ni de gaspillage dû au surprovisionnement.

Mise à l'échelle automatique de/à zéro sur les plans de contrôle hébergés

Les plans de contrôle hébergés sont désormais réduits à zéro en cas d'inactivité. Les plans de contrôle restent en hibernation, tout en préservant la configuration et l'état, puis redémarrent automatiquement en cas de besoin, éliminant ainsi les coûts liés à une infrastructure inactive. Les pools de nœuds suivent le même modèle et sont réduits à zéro nœud dans les environnements de développement, de test et éphémères. Cela fait des plans de contrôle hébergés un moyen très rentable d'exécuter OpenShift. Cette fonction permet de s'assurer que le plan de contrôle hébergé reste opérationnel en mode veille, c'est-à-dire un équilibre optimal entre une disponibilité rapide et une optimisation intensive des coûts.

Exécution d'OpenShift sur VMware Cloud Foundation 9

OpenShift ajoute la prise en charge de VMware vSphere Foundation 9 (VVF9) et VMware Cloud Foundation 9 (VCF9) à partir d'OpenShift 4.18. Cette fonctionnalité est compatible avec VMware NSX pour la mise en réseau de l'infrastructure et avec OVN-Kubernetes pour le réseau superposé. Red Hat Advanced Cluster Management for Kubernetes 2.15.1+ étend les capacités de gestion de flotte sur ces plateformes, tandis que Red Hat OpenShift Data Foundation 4.19.7 et 4.20 sont disponibles en version préliminaire avec une disponibilité générale prévue pour le début de l'année 2026. Les instructions de migration depuis vSphere 8 et VCF 5 vers VCF 9 suivront en 2026, afin de permettre aux clients de moderniser leur infrastructure VMware en profitant d'une prise en charge complète d'OpenShift.

En savoir plus sur la prise en charge en disponibilité générale de Red Hat OpenShift sur VMware vSphere Foundation 9 et VMware Cloud Foundation 9

Transfert d'OpenShift vers une instance d'Oracle Database Appliance

Oracle Database Appliance est une offre groupée préconfigurée et intégrée de matériel, de ressources de stockage, de mise en réseau et de logiciels spécialement conçue pour l'exécution de bases de données Oracle. Cette plateforme est souvent décrite comme une « base de données prête à l'emploi », car elle élimine la complexité liée à la construction d'une pile de serveurs personnalisée à partir de zéro. Vous pouvez désormais déployer OpenShift sur Oracle Database Appliance et bénéficier de la simplicité d'exploitation, de la sécurité et de la conformité.

Déploiement de charges de travail Zero Trust dans Microsoft Azure et Microsoft Azure Red Hat OpenShift avec des conteneurs confidentiels

Avec OpenShift 4.21, nous ajoutons la prise en charge des Confidential Containers sur des clusters gérés par le client dans Microsoft Azure, ou en tant que service géré avec Microsoft Azure Red Hat OpenShift. Les conteneurs confidentiels fournissent une couche de sécurité matérielle qui protège les données pendant leur traitement en mémoire. Cela permet de s'assurer que le code et les données sont isolés du fournisseur de cloud, du système d'exploitation hôte et même des hyperviseurs, ce qui en fait un choix essentiel dans les secteurs très réglementés comme les services financiers et les soins de santé.

Avec les conteneurs confidentiels dans Microsoft Azure, vous supprimez efficacement l'opérateur cloud de votre base de calcul de confiance (TCB). Même si la personne malintentionnée obtient un accès root à l'hôte physique ou au plan de contrôle de Microsoft Azure, elle ne pourra pas lire les données en texte clair qui se trouvent dans la mémoire du conteneur.

Virtualisation

Red Hat OpenShift Virtualization exécute les machines virtuelles et les conteneurs sur la même plateforme, ce qui permet à une équipe de travailler avec un ensemble d'outils sur une seule infrastructure. C'est important car la plupart des entreprises utilisent encore des machines virtuelles pour les charges de travail essentielles, et migrer tout vers des conteneurs du jour au lendemain n'est pas réaliste ni nécessaire. OpenShift Virtualization vous permet de moderniser votre environnement à votre rythme en utilisant OpenShift pour gérer des charges de travail conteneurisées et virtualisées via les mêmes couches de mise en réseau, de stockage et de sécurité.

Migration de machines virtuelles entre clusters sans temps d'arrêt

Avec la migration dynamique entre clusters avec OpenShift Virtualization, les administrateurs peuvent déplacer des machines virtuelles en cours d'exécution entre différents clusters OpenShift sans aucun temps d'arrêt. Les administrateurs peuvent désormais assurer la maintenance des clusters, rééquilibrer les ressources entre les régions ou migrer des charges de travail vers du matériel plus récent sans interruption de service, tout en gérant des environnements à plusieurs clusters dans le cadre de contrats de niveau de service stricts.

Prise en charge du plan de contrôle et du réseau secondaire uniquement pour IPv6

La prise en charge du plan de contrôle et du réseau secondaire uniquement pour IPv6 est désormais disponible. Il s'agit d'une étape majeure pour les entreprises qui n'ont plus d'adresses IPv4. Elle permet de déployer des clusters OpenShift et des charges de travail virtualisées dans des environnements modernes natives pour IPv6, et ainsi de simplifier les architectures réseau en supprimant les solutions de contournement complexes de traduction d'adresses réseau (NAT).

En prenant en charge le protocole IPv6 à la fois dans la couche de gestion principale du cluster et dans les interfaces secondaires, OpenShift Virtualization garantit que les déploiements à haute densité peuvent évoluer indéfiniment tout en respectant les exigences strictes de conformité gouvernementales et de télécommunications. Non seulement cette transition rationalise le routage réseau et améliore la sécurité de bout en bout, mais elle permet aussi de pérenniser l'infrastructure pour la prochaine génération de services connectés à l'échelle mondiale.

OpenShift Virtualization sur Google Cloud

OpenShift Virtualization sur Google Cloud sur matériel nu permet aux entreprises d'exécuter des machines virtuelles directement sur du matériel dédié, sans passer par la virtualisation imbriquée traditionnelle. Ce modèle de déploiement est essentiel pour les charges de travail sensibles aux performances qui nécessitent un accès direct à des fonctions de processeur physiques et une accélération du matériel, telles que les bases de données à faible latence ou les applications de télécommunications spécialisées. En exécutant sur du matériel nu, vous bénéficiez de la flexibilité du cloud, tout en conservant les performances brutes et la latence prévisible d'un serveur sur site. Cette intégration rationalise la migration des applications basées sur des machines virtuelles vers Google Cloud, ce qui permet de centraliser la gestion pour les conteneurs et les machines virtuelles dans un seul plan de contrôle OpenShift.

Pour en savoir plus, rendez-vous sur Bringing Red Hat OpenShift Virtualization to Google Cloud.

Configuration des réseaux virtuels avec l'interface utilisateur de virtualisation améliorée

L'interface utilisateur améliorée d'OpenShift Virtualization guide les administrateurs vers les configurations réseau appropriées tout en préservant un contrôle avancé. Les administrateurs peuvent désormais créer des réseaux ClusterUserDefinedNetworks secondaires à l'aide de la topologie localnet avec des mesures de sécurité intégrées qui empêchent la suppression accidentelle de ressources NetworkAttachmentDefinitions dérivées d'UDN. Le flux réseau hôte amélioré met d’abord en avant les chemins de configuration courants, ce qui accélère la configuration initiale et fonctionnelle. L'abstraction physique du réseau organise NodeNetworkConfigurationPolicies en unités logiques, ce qui permet aux équipes de gérer la connectivité des hôtes de manière cohérente tout en conservant une personnalisation approfondie, si nécessaire.

Configure Virtual Machine Network

Résolution des problèmes liés aux machines virtuelles avec Red Hat OpenShift Lightspeed

Nous avons intégré l'assistant d'IA virtuel Red Hat OpenShift Lightspeed à l'interface utilisateur d'OpenShift Virtualization. Les administrateurs de virtualisation n'ont plus besoin de changer d'interface ni de télécharger manuellement des fichiers. À la place, les administrateurs de virtualisation peuvent désormais obtenir des informations contextuelles provenant de l'IA pour effectuer des tâches telles que la résolution d'erreurs de machines virtuelles.

AI-powered VM insights and troubleshooting

Essayez Red Hat OpenShift 4.21 dès aujourd'hui

Lancez-vous dès aujourd'hui avec Red Hat Hybrid Cloud Console et profitez des dernières fonctions et améliorations d'OpenShift. Pour en savoir plus, consultez les ressources suivantes :

La liste complète des mises à jour de Red Hat OpenShift 4.21 se trouve dans les notes de version d'OpenShift 4.21. Envoyez-nous vos commentaires à l'aide de vos contacts Red Hat ou créez un problème sur GitHub.

Essai de produit

Red Hat OpenShift Container Platform | Essai de produit

Plateforme de base cohérente pour le cloud hybride, qui facilite l'assemblage et la mise à l'échelle d'applications conteneurisées.

À propos des auteurs

Ju Lim works on the core Red Hat OpenShift Container Platform for hybrid and multi-cloud environments to enable customers to run Red Hat OpenShift anywhere. Ju leads the product management teams responsible for installation, updates, provider integration, and cloud infrastructure.

UI_Icon-Red_Hat-Close-A-Black-RGB

Parcourir par canal

automation icon

Automatisation

Les dernières nouveautés en matière d'automatisation informatique pour les technologies, les équipes et les environnements

AI icon

Intelligence artificielle

Actualité sur les plateformes qui permettent aux clients d'exécuter des charges de travail d'IA sur tout type d'environnement

open hybrid cloud icon

Cloud hybride ouvert

Découvrez comment créer un avenir flexible grâce au cloud hybride

security icon

Sécurité

Les dernières actualités sur la façon dont nous réduisons les risques dans tous les environnements et technologies

edge icon

Edge computing

Actualité sur les plateformes qui simplifient les opérations en périphérie

Infrastructure icon

Infrastructure

Les dernières nouveautés sur la plateforme Linux d'entreprise leader au monde

application development icon

Applications

À l’intérieur de nos solutions aux défis d’application les plus difficiles

Virtualization icon

Virtualisation

L'avenir de la virtualisation d'entreprise pour vos charges de travail sur site ou sur le cloud