Account Connexion
Jump to section

Fonctions VNF et CNF : quelle est la différence ?

Copier l'URL

Les fonctions réseau virtualisées (VNF) sont des applications logicielles qui permettent de fournir divers services réseau (services d'annuaire, routeurs, pare-feu, modules d'équilibrage de charge, etc.).Pour les opérateurs de télécommunications, l'adoption de fonctions VNF déployées sous forme de machines virtuelles constitue souvent la première étape de la transformation numérique, en remplacement des fonctions réseau physiques (PNF) des appliances réseau mises en œuvre sur du matériel propriétaire. 

Composants essentiels de l'architecture de virtualisation des fonctions réseau (NFV), les VNF reposent sur une infrastructure NFV (NFVI), qui comprend notamment un gestionnaire d'infrastructure virtuelle comme Red Hat® OpenStack®. Ce gestionnaire assure l'allocation efficace des ressources de calcul, de stockage et de réseau entre les fonctions réseau virtualisées. Les composants de gestion, d'automatisation et d'orchestration réseau (MANO) définis par l'architecture NFV fournissent la structure qui permet de gérer l'infrastructure NFVI et l'approvisionnement de nouvelles fonctions réseau virtualisées. 

Une architecture réseau standard intègre des fonctions réseau virtualisées. Ces fonctions trouvent cependant leurs limites, car les fournisseurs de services numériques cherchent à proposer des services de plus en plus agiles. Pour passer de composants physiques aux VNF, les fournisseurs créent généralement une machine virtuelle volumineuse à partir des systèmes logiciels intégrés aux appliances. Cependant, s'ils n'essaient pas d'optimiser ces machines, ils doivent alors gérer et entretenir des équipements virtuels dédiés et inefficaces, une tâche qui reste difficile. 

Les fonctions réseau virtualisées d'ancienne génération limitent également l'évolutivité des environnements cloud. Si certains fournisseurs de services ont entrepris d'améliorer leurs déploiements des VNF, beaucoup se contentent encore d'une plateforme NFVI horizontale standard pour exécuter plus facilement un grand nombre de fonctions réseau virtualisées. Ces ajustements permettent en effet de poser de bonnes bases pour les réseaux 5G ou l'edge computing. Malheureusement, le « poids » des machines virtuelles entrave encore l'efficacité des VNF pour les grands projets de 5G et d'edge computing qui exigent un haut niveau d'agilité et d'évolutivité ainsi que des coûts d'exploitation réduits. 

L'adoption d'une approche cloud-native, avec une architecture d'applications à la fois centralisée

et distribuée, apporte aux fournisseurs de services numériques davantage de flexibilité, d'évolutivité, de fiabilité et de portabilité. En passant d'une architecture virtualisée à une configuration entièrement cloud-native, il est possible d'atteindre le niveau d'efficacité et d'agilité nécessaire pour déployer rapidement les solutions novatrices et uniques qui répondent aux demandes des clients et des marchés.

L'utilisation de conteneurs à la place de machines virtuelles est une caractéristique majeure de l'approche cloud-native. Les conteneurs permettent de mettre en paquet des logiciels (par exemple des applications, fonctions ou microservices) avec tous les fichiers nécessaires à leur exécution, en partageant l'accès au système d'exploitation et aux autres ressources de serveurs. Ces composants conteneurisés sont plus faciles à déplacer d'un environnement (de développement, test, production, etc.) à un autre et même d'un cloud à un autre, avec l'intégralité de leurs fonctions.

Les fonctions réseau cloud-native (CNF), une évolution des VNF, sont conçues et mises en œuvre en vue de leur exécution dans des conteneurs. La conteneurisation des composants de l'architecture réseau permet d'exécuter divers services dans un même cluster et d'intégrer plus facilement des applications déjà décomposées, avec une redirection dynamique du trafic réseau vers les pods appropriés.

 

Ce schéma montre l'évolution des fonctions réseau, depuis l'approche verticale intégrée classique, aux VNF gérées par une plateforme d'orchestration des machines virtuelles, jusqu'aux CNF gérées par une plateforme d'orchestration des conteneurs.

L'adoption des CNF peut résoudre en partie les principaux problèmes liés aux VNF grâce à la migration de nombreuses fonctions réseau virtualisées vers des conteneurs. Avec la conteneurisation des composants du réseau, il est en effet possible de gérer où et comment les fonctions s'exécutent dans les clusters de l'environnement. 

Les fonctions réseau cloud-native désignent plus qu'une simple approche de conteneurisation. Pour profiter pleinement des avantages de l'approche cloud-native, au-delà de la mise en paquet dans des conteneurs, il faut modifier complètement l'architecture des logiciels basés sur des fonctions réseau, par exemple en les décomposant en microservices, en autorisant plusieurs versions lors des mises à jour et en utilisant les services disponibles sur les plateformes (comme les modules d'équilibrage de charge et les magasins de données génériques). 

L'adoption des environnements cloud-native ne cesse de croître. Pendant la phase de transition, les nouvelles CNF et les VNF déjà déployées doivent coexister. Les fournisseurs de services numériques doivent donc automatiser l'ensemble du développement, du déploiement, de la maintenance et de l'exploitation du réseau afin de satisfaire les attentes croissantes, d'accélérer les déploiements et de réduire la complexité. Aujourd'hui, il est plus que jamais vital pour eux de rationaliser la configuration et le déploiement, d'utiliser des outils matures issus des communautés Open Source et de suivre des procédures rigoureuses de test et de certification.

Avec une base cohérente et ouverte, les opérateurs de télécommunications ont l'assurance que leurs services s'exécuteront de manière fiable, peu importe l'empreinte ou l'emplacement de l'infrastructure. Le choix de la NFV (et des fonctions VNF), en particulier des architectures cloud-native (et des fonctions CNF), promet un plus haut niveau de flexibilité et d'agilité. L'automatisation joue un rôle crucial, car elle garantit l'efficacité opérationnelle de l'écosystème, à grande échelle. Elle permet également aux fournisseurs de services numériques d'ajouter et de modifier des services et fonctions avec encore plus de réactivité, pour mieux répondre aux attentes et besoins des clients.

Pour aller plus loin

ARTICLE

Stateful et stateless : quelle est la différence ?

Les qualificatifs « stateful » ou « stateless » dépendent de la durée pendant laquelle l'état de l'interaction avec un élément est enregistré ainsi que de la manière dont cette information doit être stockée.

ARTICLE

Quarkus, qu'est-ce que c'est ?

Quarkus est une pile Java native pour Kubernetes conçue pour les machines virtuelles Java (JVM) et la compilation native, qui permet d'optimiser Java spécifiquement pour les conteneurs.

ARTICLE

Le serverless ou informatique sans serveur, qu'est-ce que c'est ?

Le serverless est un modèle de développement cloud-native qui permet aux développeurs de créer et d'exécuter des applications sans avoir à gérer des serveurs.

En savoir plus sur les applications cloud-native

Produits

Red Hat OpenShift

Plateforme de conteneurs Kubernetes pour les entreprises qui automatise l'exploitation de toute la pile pour la gestion des déploiements multicloud, de clouds hybrides et d'edge computing.

Ressources

Résumé

Stimuler l'innovation dans le secteur des services financiers avec les applications cloud-native

Livre numérique

La voie vers les applications natives pour le cloud

Formations

Formation gratuite

Développement d'applications cloud-native avec des architectures de microservices

Illustration - mail

Ce type de contenu vous intéresse ?

Inscrivez-vous à notre newsletter Red Hat Shares.