Jump to section

La virtualisation, qu'est-ce que c'est ?

Copier l'URL

La virtualisation est une technologie qui vous permet de créer des services informatiques utiles à l'aide de ressources qui sont généralement liées au matériel. Elle vous permet d'exploiter toute la capacité d'une machine physique en la répartissant entre de nombreux utilisateurs ou environnements différents.

Concrètement, imaginez que vous ayez trois serveurs physiques qui répondent chacun à des objectifs précis : l'un d'eux est un serveur de messagerie, l'autre un serveur web et le dernier exécute les applications internes existantes. Seulement 30 % de leur capacité est utilisée, ce qui n'est qu'une fraction de leur potentiel. Cependant, comme les applications existantes sont essentielles à vos opérations internes, vous pensez sans doute que vous devez les conserver, ainsi que le troisième serveur qui les héberge.

Utilisation serveur

C'était le cas auparavant. Il était souvent plus simple et plus fiable d'exécuter des tâches individuelles sur des serveurs spécifiques : un serveur avec un système d'exploitation pour une tâche. Il n'était pas facile de faire autrement. Désormais, avec la virtualisation, vous pouvez fractionner le serveur de messagerie en deux serveurs uniques capables de gérer des tâches distinctes, ce qui permet ainsi la migration des applications existantes. Vous utilisez le même matériel, mais vous exploitez davantage son potentiel.

Server usage: virtualization

Tout en préservant la sécurité, vous avez la possibilité de fractionner le serveur une nouvelle fois afin de lui allouer une autre tâche. Alors que vous ne l'utilisiez initialement qu'à 30 %, puis à 60 %, vous l'utilisez à présent à 90 %. Vous pouvez ensuite réutiliser les serveurs vides pour exécuter d'autres tâches ou les mettre hors service afin de réduire les coûts de maintenance et de refroidissement.

Bien que le concept de virtualisation soit apparu dans les années 1960, ce n'est que dans les années 2000 que son utilisation s'est généralisée. Les technologies qui sont à la base de la virtualisation, telles que les hyperviseurs, ont été développées il y a plusieurs dizaines d'années afin de permettre à divers utilisateurs d'accéder simultanément aux ordinateurs qui effectuaient des traitements par lots. Le traitement par lots, qui permettait d'exécuter très rapidement des tâches répétitives des milliers de fois (telles que la paie), était une technique très répandue dans le monde de l'entreprise.

Toutefois, au fil des décennies, d'autres solutions qui permettaient l'utilisation simultanée d'une seule et même machine par de nombreux utilisateurs ont gagné en popularité, tandis que la virtualisation restait en marge. L'une de ces solutions était la technique du temps partagé, qui isolait les utilisateurs au sein des systèmes d'exploitation. Elle a notamment conduit à la création d'autres systèmes d'exploitation comme UNIX, puis Linux®. Pendant ce temps, la virtualisation restait une technologie de niche très peu utilisée.

Faisons un saut dans le temps jusqu'aux années 1990. La plupart des entreprises disposaient de serveurs physiques et de piles informatiques propriétaires. Autrement dit, les applications existantes ne pouvaient pas être exécutées sur le matériel d'un autre fournisseur. Lorsque les entreprises actualisaient leur environnement informatique avec des serveurs, des systèmes d'exploitation et des applications standard plus économiques, elles n'avaient d'autre choix que de sous-utiliser leur infrastructure physique, sachant que chaque serveur ne pouvait exécuter qu'une tâche spécifique au fournisseur.

C'est là que la virtualisation a pris son envol. Elle constituait la solution naturelle à deux problèmes en permettant aux entreprises de partitionner leurs serveurs et d'exécuter les applications existantes sur plusieurs types et versions de systèmes d'exploitation. Les serveurs ont ainsi commencé à être utilisés plus efficacement (lorsqu'ils n'étaient pas simplement abandonnés), ce qui a entraîné la réduction des coûts liés à l'achat, à la configuration, au refroidissement et à la maintenance.

La flexibilité de la virtualisation a permis de limiter la dépendance vis-à-vis d'un fournisseur et a jeté les bases du cloud computing. Aujourd'hui, elle est si répandue dans les entreprises qu'un logiciel de gestion de la virtualisation est souvent nécessaire pour en assurer le suivi.

Des logiciels, appelés hyperviseurs, isolent les ressources physiques des environnements virtuels, qui nécessitent ces ressources. Ces hyperviseurs peuvent reposer sur un système d'exploitation (ordinateur portable, par exemple) ou être directement installés sur un système physique (tel qu'un serveur), ce qui est l'option la plus souvent choisie par les entreprises qui ont recours à la virtualisation. Les hyperviseurs répartissent vos ressources physiques pour permettre aux environnements virtuels de les utiliser.

How virtualization works

Ces ressources sont partitionnées à partir de l'environnement physique et distribuées aux différents environnements virtuels. Les utilisateurs interagissent avec ces environnements (également appelés machines virtuelles ou hôtes) et y exécutent des calculs. La machine virtuelle opère comme un fichier de données unique. Comme n'importe quel fichier numérique, vous pouvez la transférer d'un ordinateur à un autre, l'ouvrir sur l'un ou l'autre et l'utiliser de la même manière.

Lorsque l'environnement virtuel est exécuté et qu'un utilisateur ou un programme émet une instruction nécessitant des ressources supplémentaires à partir de l'environnement physique, l'hyperviseur transmet cette requête au système physique et met en cache les modifications. Le processus est presque aussi rapide que sur un système natif, notamment si la requête est envoyée via un hyperviseur Open Source basé sur KVM (Kernel-based Virtual Machine).

Virtualisation des données

data virtualization

Les données éparpillées dans un environnement peuvent être regroupées sous la forme d'une source unique. La virtualisation des données permet aux entreprises d'utiliser les données comme une source dynamique. Ainsi, elles profitent de fonctionnalités de traitement capables de rassembler les données issues de plusieurs sources, d'héberger facilement de nouvelles sources de données et de transformer les données pour répondre aux besoins des utilisateurs. Les outils de virtualisation des données couvrent plusieurs sources de données qui peuvent alors être traitées comme une seule et même source. Ils mettent ainsi à disposition les données nécessaires, sous la forme requise, au moment opportun, pour toute application ou tout utilisateur.

Virtualisation des postes de travail

desktop virtualization

Souvent confondue avec la virtualisation des systèmes d'exploitation, qui vous permet de déployer plusieurs systèmes d'exploitation sur une seule machine, la virtualisation des postes de travail permet à un administrateur central (ou à un outil d'administration automatisé) de déployer des environnements de postes de travail simulés sur des centaines de machines physiques en même temps. Contrairement aux environnements de postes de travail classiques que vous devez installer, configurer et mettre à jour physiquement sur chaque machine, les postes de travail virtualisés peuvent être configurés, mis à jour et vérifiés simultanément par un administrateur.

Virtualisation de serveurs

Server virtualization

Les serveurs sont des ordinateurs conçus pour traiter un volume élevé de tâches spécifiques afin de permettre aux autres ordinateurs (ordinateurs portables et ordinateurs de bureau, par exemple) d'effectuer diverses autres tâches. La virtualisation d'un serveur permet d'optimiser l'exécution de ces fonctions spécifiques et implique son partitionnement, de sorte que les composants puissent être utilisés pour exécuter différentes fonctions.

Virtualisation des systèmes d'exploitation

Operating system virtualization

La virtualisation des systèmes d'exploitation intervient au niveau du noyau, qui correspond au gestionnaire de tâches central de ces derniers. Cette approche permet notamment d'exécuter des environnements Linux et Windows côte à côte. Les entreprises peuvent également transférer les systèmes d'exploitation virtuels vers des ordinateurs, ce qui présente les avantages suivants :

  • Réduction des coûts de matériel, étant donné que les ordinateurs ne nécessitent pas un nombre élevé de fonctionnalités prêtes à l'emploi
  • Renforcement de la sécurité grâce à la possibilité de surveiller et d'isoler les instances virtuelles
  • Réduction du temps consacré aux services informatiques, tels que les mises à jour de logiciel

Virtualisation des fonctions réseau

Network function virtualization

La virtualisation des fonctions réseau (NFV) sépare les fonctions clés d'un réseau (telles que les services d'annuaire, le partage de fichiers et la configuration des adresses IP) afin de les répartir entre les différents environnements. Lorsque les fonctions logicielles sont indépendantes des machines physiques sur lesquelles elles étaient hébergées, il est possible de regrouper des fonctions spécifiques dans un nouveau réseau et de les assigner à un environnement. La virtualisation des réseaux réduit le nombre de composants physiques nécessaires à la création de plusieurs réseaux indépendants, tels que les commutateurs, les routeurs, les serveurs, les câbles et les hubs. Elle est particulièrement répandue dans le secteur des télécommunications.

 

 

Parce que l'infrastructure n'est pas le seul élément à entrer en ligne de compte. Vous devez aussi réfléchir à ce qu'elle peut (ou ne peut pas) faire pour prendre en charge les technologies qui dépendent d'elle. Être lié par contrat à un fournisseur qui pratique des tarifs toujours plus élevés limite votre capacité à investir dans des technologies modernes, comme les clouds, les conteneurs et les systèmes d'automatisation.

Nos technologies de virtualisation Open Source ne sont pas soumises à des contrats de licence d'entreprise dont les coûts ne cessent d'augmenter. Nous offrons à tous un accès complet au même code source reconnu par plus de 90 % des entreprises du classement Fortune 500*. Plus rien ne vous empêche d'appliquer des méthodes agiles, de déployer un cloud hybride, ni d'essayer des technologies d'automatisation.

*Données client Red Hat et liste du classement Fortune 500, juin 2018

Pour aller plus loin

ARTICLE

Conteneurs et machines virtuelles

Les conteneurs Linux et les machines virtuelles sont des environnements informatiques en paquets qui associent divers composants et les isolent du reste du système.

ARTICLE

Une machine virtuelle, qu'est-ce que c'est ?

Une machine virtuelle est un environnement informatique isolé créé par l'abstraction des ressources d'une machine physique.

ARTICLE

KVM, qu'est-ce que c'est ?

KVM (Kernel-based Virtual Machine) est une technologie de virtualisation Open Source qui transforme Linux en hyperviseur.

En savoir plus sur la virtualisation

Produits

Base de cloud hybride cohérente pour la création et la mise à l'échelle d'applications conteneurisées.

Plateforme de virtualisation du matériel et d'organisation des ressources dans le cloud.

Ressources

Formations

Cours gratuit

Présentation technique de la virtualisation et de la migration d'infrastructure