Jump to section

L'edge computing, qu'est-ce que c'est ?

Copier l'URL

L'edge computing désigne le traitement informatique qui s'effectue à l'emplacement physique de l'utilisateur ou de la source des données, ou à proximité. En rapprochant les services de calcul de ces emplacements, l'edge computing permet aux utilisateurs de profiter de services plus rapides et fiables et offre aux entreprises la flexibilité d'un cloud hybride. Avec l'edge computing, les entreprises peuvent également utiliser et distribuer un ensemble de ressources communes sur plusieurs sites.

L'edge computing permet d'étendre un environnement uniforme, depuis le datacenter central jusqu'aux emplacements physiques proches des utilisateurs et des données, situés en périphérie du réseau. Tout comme une stratégie de cloud hybride permet aux entreprises d'exécuter les mêmes charges de travail à la fois dans leurs propres datacenters et sur une infrastructure de cloud public (telle que Amazon Web Services, Microsoft Azure ou Google Cloud), une stratégie d'edge computing étend un environnement cloud à de nombreux autres emplacements.

L'edge computing est désormais utilisé dans de nombreux secteurs d'activité, notamment les télécommunications, la fabrication, les transports et les services publics. Les raisons qui incitent les entreprises à mettre en œuvre l'edge computing sont aussi variées que les cas d'utilisation.

Exemples de cas d'utilisation de l'edge computing

De nombreux cas d'utilisation de l'edge computing sont liés à la nécessité de traiter les données localement en temps réel, lorsque la transmission des données vers un datacenter en vue de leur traitement génère des niveaux de latence inacceptables.

Prenons l'exemple d'une usine de fabrication moderne. Les capteurs de l'Internet des objets (IoT) génèrent un flux continu de données qui peuvent être utilisées pour éviter des interruptions et améliorer l'exploitation. D'après les estimations, une usine moderne qui compte 2 000 équipements peut générer 2 200 téraoctets de données par mois. Le traitement de cette mine de données près de l'équipement est plus rapide et moins onéreux que lorsqu'il faut d'abord les transmettre à un datacenter distant. Toutefois, il reste préférable d'utiliser une plateforme de données centralisée pour faire le lien avec l'équipement. De cette façon, l'équipement peut, par exemple, recevoir des mises à jour logicielles standardisées et partager des données filtrées qui permettront d'améliorer l'exploitation dans d'autres sites de l'usine.

Autre exemple courant d'utilisation de l'edge computing : les véhicules connectés. Les bus et les trains sont équipés d'ordinateurs qui permettent de suivre le flux de passagers et la prestation de services. Les livreurs peuvent trouver les trajets les plus rapides grâce à la technologie embarquée dans leur véhicule. Lorsqu'une stratégie d'edge computing est mise en œuvre, chaque véhicule exécute la même plateforme standardisée que le reste de la flotte, ce qui rend les services plus fiables et permet de protéger les données de manière uniforme.

Viennent ensuite les véhicules autonomes, un autre exemple d'edge computing qui implique le traitement d'un gros volume de données en temps réel dans une situation où la connexion au réseau peut être instable. En raison de ce volume, les véhicules autonomes, tels que les voitures sans conducteur, traitent les données des capteurs à bord du véhicule afin de réduire la latence. Ils peuvent cependant toujours se connecter à distance à un point central pour recevoir des mises à jour logicielles.

L'edge computing permet aussi de maintenir la rapidité d'exécution des services internet les plus utilisés. Les réseaux de distribution de contenu déploient des serveurs de données géographiquement proches des utilisateurs, ce qui permet un chargement rapide des sites web très sollicités et la prise en charge de services de diffusion vidéo rapides.

Dernier exemple d'edge computing : les antennes 5G à proximité. Les opérateurs de télécommunications exécutent de plus en plus leurs réseaux en recourant à la virtualisation des fonctions réseau, à l'aide de machines virtuelles qui fonctionnent sur du matériel standard à la périphérie du réseau. Ces machines virtuelles peuvent remplacer des équipements propriétaires coûteux. Avec une stratégie d'edge computing, les opérateurs peuvent continuer d'exécuter de manière cohérente les logiciels sur des dizaines de milliers de sites distants, conformément à des normes de sécurité uniformes. En exécutant les applications au plus près de l'utilisateur final dans un réseau mobile, les opérateurs peuvent aussi réduire la latence et offrir de nouveaux services.

L'edge computing peut accélérer les services et les rendre plus stables, à moindre coût. Pour les utilisateurs, l'edge computing se traduit par une expérience plus rapide et plus cohérente. De leur côté, les entreprises et les fournisseurs de services profitent d'applications hautement disponibles et à faible latence avec une surveillance en temps réel.

L'edge computing permet de réduire les coûts de réseau, de lever les contraintes liées à la bande passante, d'écourter les délais de transmission, de limiter les pannes de service et de mieux contrôler la circulation des données sensibles. Les temps de chargement sont réduits et les services en ligne déployés au plus près des utilisateurs offrent des capacités de mise en cache à la fois dynamiques et statiques.

Les applications qui nécessitent un temps de réponse plus court, comme pour la réalité augmentée et la réalité virtuelle, bénéficient également du traitement des données à la périphérie du réseau.

L'edge computing permet aussi d'effectuer localement des analyses et de la compilation du Big Data, ce qui est indispensable pour les prises de décision en quasi temps réel. De plus, l'edge computing réduit le risque d'exposition des données sensibles, car les opérations de traitement sont effectuées localement. Les entreprises peuvent ainsi mieux appliquer les mesures de sécurité et se conformer plus facilement aux réglementations en vigueur.

Les entreprises clientes bénéficient de la résilience et des réductions de coûts associés à l'edge computing. Les sites régionaux qui disposent d'une capacité de calcul locale peuvent continuer à fonctionner indépendamment d'un site principal, même en cas de panne sur ce dernier. Le coût de la bande passante nécessaire à la transmission des données entre le site principal et les sites régionaux est également considérablement réduit lorsque le traitement s'effectue à proximité de la source des données en question.

Avec une plateforme d'edge computing, les processus d'exploitation et de développement d'applications deviennent plus cohérents. Ce type de plateforme doit favoriser l'interopérabilité afin de tenir compte de davantage d'environnements matériels et logiciels, plutôt qu'un unique datacenter. Une stratégie d'edge computing efficace permet d'utiliser conjointement des produits de différents fournisseurs dans un écosystème ouvert.

Ce qu'il faut savoir sur la création d'une infrastructure d'edge computing moderne

L'edge computing peut être représenté comme une série de cercles dont le centre est le datacenter principal. Chaque cercle correspond à un niveau différent qui se rapproche de la périphérie la plus éloignée.

  • Cœur de l'entreprise : il s'agit de niveaux classiques « hors périphérie », détenus et exploités par des fournisseurs de cloud public, des opérateurs de télécommunications ou de grandes entreprises.
  • Périphérie des fournisseurs : il s'agit de niveaux situés entre les datacenters centraux ou régionaux et l'infrastructure du dernier kilomètre, généralement détenus et exploités par un opérateur de télécommunications ou un fournisseur d'accès à Internet et à partir desquels ce fournisseur dessert plusieurs clients.
  • Périphérie des utilisateurs : ces niveaux côté utilisateurs finaux de l'infrastructure du dernier kilomètre peuvent inclure la périphérie de l'entreprise (par exemple, un magasin, une usine, un train) ou la périphérie des consommateurs (par exemple, une résidence privée, une voiture).
  • Périphérie des appareils : il s'agit des systèmes autonomes (et hors cluster) qui connectent directement les capteurs/actionneurs par le biais de protocoles autres qu'internet. C'est la périphérie la plus éloignée du réseau.

L'edge computing, qui met l'accent sur le recueil des données et leur traitement en temps réel, peut contribuer à la réussite des applications intelligentes à gros volumes de données. Par exemple, les tâches d'intelligence artificielle et d'apprentissage automatique (IA/AA), telles que les algorithmes de reconnaissance d'image, peuvent être exécutées plus efficacement près de la source des données, lorsqu'il n'est alors plus nécessaire de transférer de gros volumes de données vers un datacenter centralisé.

Ces applications combinent de nombreux points de données et les utilisent pour déduire des informations de plus grande valeur qui peuvent aider les entreprises à prendre de meilleures décisions. Cette fonctionnalité peut améliorer un large éventail d'interactions professionnelles telles que l'expérience client, la maintenance préventive, la prévention des fraudes, la prise de décisions médicales, etc.

En traitant chaque point de donnée entrant comme un événement, les entreprises peuvent appliquer des techniques de gestion des décisions et d'inférence de l'IA/AA pour filtrer, traiter, qualifier et combiner des événements en vue de déduire des informations plus importantes.

Les applications à gros volumes de données peuvent être subdivisées en une série d'étapes, chacune réalisée au niveau de différentes parties du paysage informatique. L'edge computing entre en jeu au niveau de l'ingestion des données, lorsque les données sont regroupées, prétraitées et transportées. Les données passent ensuite par les étapes d'ingénierie et d'analyse, généralement dans un environnement de cloud privé ou public, afin d'être stockées et transformées, puis utilisées pour l'entraînement des modèles d'apprentissage automatique. Pour finir, elles reviennent à la périphérie pour l'étape d'exécution de l'inférence, lorsque ces modèles d'apprentissage automatique sont utilisés et surveillés.

Pour répondre aux différents besoins et faire le lien entre les différentes étapes, il est nécessaire de mettre en place une plateforme d'infrastructure et de développement d'applications à la fois flexible, évolutive et élastique.

Une approche basée sur un cloud hybride, qui offre une expérience cohérente dans les clouds publics et privés, donne accès à la flexibilité nécessaire pour approvisionner de façon optimale les charges de travail de capture des données et d'inférence intelligente à la périphérie d'un environnement, les charges de travail d'entraînement et de traitement des données gourmandes en ressources dans des environnements cloud, ainsi que les systèmes de gestion des événements métier et des données proches des utilisateurs métier.

L'edge computing est un élément important de la stratégie de cloud hybride qui permet d'obtenir des performances stables au niveau des applications et de l'exploitation.

L'adoption de l'edge computing est une priorité majeure pour de nombreux opérateurs de télécommunications qui cherchent à déplacer les charges de travail et les services vers la périphérie du réseau.

Chaque milliseconde compte lorsqu'il faut répondre aux besoins des applications réseau à forte demande, telles que des appels vocaux et vidéo. Parce que l'edge computing peut considérablement réduire les effets de la latence sur les applications, les opérateurs peuvent proposer de nouveaux services et applications pour améliorer l'expérience liée aux applications existantes, en particulier suite aux évolutions de la 5G.

Il ne s'agit cependant pas seulement de fournir de nouveaux services. Les opérateurs se tournent vers des stratégies d'edge computing pour simplifier l'exploitation des réseaux et améliorer la flexibilité, la disponibilité, l'efficacité, la fiabilité et l'évolutivité.

La NFV, qu'est-ce que c'est ?

La virtualisation des fonctions réseau (NFV) correspond à l'application de la virtualisation informatique aux cas d'utilisation des fonctions réseau. La virtualisation des fonctions réseau permet d'utiliser des serveurs standards pour des fonctions qui auparavant nécessitaient du matériel propriétaire onéreux. 

Un réseau vRAN, qu'est-ce que c'est ?

Les réseaux RAN sont des points de connexion entre les appareils des utilisateurs finaux et le reste du réseau d'un opérateur. À l'instar des fonctions réseau, les réseaux RAN peuvent être virtualisés, créant ainsi le réseau d'accès radio virtuel, ou vRAN.

Le déploiement continu des réseaux 5G repose souvent sur les réseaux vRAN pour simplifier l'exploitation, desservir davantage d'appareils et répondre aux besoins d'applications plus exigeantes.

Blog : Accelerate your 5G strategy with vRAN

Le MEC, qu'est-ce que c'est ?

Le MEC (multi-access edge computing) est un type d'architecture réseau qui permet aux fournisseurs de services d'offrir à leurs clients un environnement de services d'applications à la périphérie du réseau mobile, à proximité des appareils mobiles des utilisateurs.

Le MEC est particulièrement efficace pour augmenter le débit et diminuer la latence. Il permet aux développeurs d'applications et aux fournisseurs de contenu d'accéder aux points de connexion, via un niveau inférieur de fonctions réseau et de traitement des données.

Le cloud computing consiste à exécuter des charges de travail dans des clouds, des environnements qui dissocient, regroupent et partagent des ressources évolutives sur un réseau. 

Le cloud computing s'est longtemps axé sur la centralisation des services cloud dans une poignée de grands datacenters. Cette centralisation permettait de bénéficier de ressources hautement évolutives et plus faciles à partager, sans perte de contrôle sur la sécurité de l'entreprise.

L'edge computing couvre les cas où la centralisation ne peut être mise en œuvre en raison de contraintes de réseau ou d'autres limites.

En outre, une stratégie de cloud computing qui vise à exécuter les logiciels dans des conteneurs vient compléter le modèle d'edge computing. Grâce aux conteneurs, les applications deviennent portables, ce qui permet aux entreprises de les exécuter là où elles sont le plus utiles. Avec une stratégie de conteneurisation, les entreprises ont la possibilité de déplacer les applications du datacenter vers la périphérie, ou inversement, avec de faibles conséquences sur l'exploitation.

L'IoT, ou Internet des objets, désigne le processus de connexion d'objets physiques à Internet, des objets du quotidien tels que les ampoules, aux dispositifs médicaux, appareils portables, appareils intelligents ou encore feux de circulation routière dans les villes intelligentes.

Les appareils d'IoT ne sont pas nécessairement des appareils d'edge computing. Ces appareils connectés font cependant partie des stratégies d'edge computing de nombreuses entreprises. L'edge computing permet de renforcer la puissance de calcul en périphérie d'un réseau IoT, afin de réduire la latence des communications entre les appareils d'IoT et les réseaux informatiques centraux auxquels ceux-ci sont connectés.

Si le simple fait de pouvoir envoyer ou recevoir des données a marqué l'avènement de l'IoT, la possibilité d'envoyer, de recevoir et d'analyser des données à l'aide d'applications IoT est une approche plus moderne que l'edge computing a rendue possible.

L'IIoT, qu'est-ce que c'est ?

L'Internet des objets industriel (IIoT) désigne les équipements industriels connectés à Internet, par exemple une machine faisant partie d'une usine de fabrication, d'une installation agricole ou d'une chaîne d'approvisionnement.

Le fog computing désigne les opérations informatiques réalisées dans des emplacements physiques distribués, plus proches des utilisateurs et des sources de données. 

C'est un synonyme d'edge computing. La différence entre ces deux expressions est uniquement terminologique.

L'edge computing peut simplifier un environnement informatique distribué. L'infrastructure sous-jacente n'est cependant pas toujours facile à mettre en œuvre et à gérer.

  • Il peut être plus difficile de distribuer la capacité de serveurs en périphérie vers plusieurs petits sites que d'ajouter cette même capacité à un unique datacenter centralisé. Les petites entreprises peuvent avoir plus de mal à gérer l'augmentation des frais associés aux emplacements physiques.
  • Les sites réservés à l'edge computing sont souvent distants, avec une expertise technique locale limitée, voire inexistante. En cas de panne sur le site, l'infrastructure en place doit être facilement réparable par une main-d'œuvre locale sans expertise technique sous la direction d'un petit nombre d'experts regroupés sur un autre site.
  • Les opérations de gestion des sites doivent être facilement reproductibles sur tous les sites réservés à l'edge computing afin de simplifier la gestion et le dépannage. Les difficultés surviennent lorsque la mise en œuvre des logiciels est réalisée de façon légèrement différente d'un site à l'autre.
  • Le niveau de sécurité physique des sites réservés à l'edge computing est souvent très inférieur à celui des sites principaux. Toute stratégie d'edge computing doit prendre en compte un risque accru d'actes malveillants ou d'accidents.

À l'heure où les sources de données et les systèmes de stockage des données sont distribués sur de nombreux emplacements, les entreprises ont besoin d'une infrastructure horizontale commune qui englobe l'ensemble de leur environnement informatique, notamment les sites réservés à l'edge computing. Même pour les entreprises qui ont l'habitude d'exploiter plusieurs emplacements géographiques, l'edge computing présente des difficultés uniques en matière d'infrastructure. Les entreprises ont besoin de solutions d'edge computing qui :

  • peuvent être gérées avec les mêmes outils et processus que ceux utilisés pour l'infrastructure centralisée (provisionnement, gestion et orchestration automatisés de centaines, voire de dizaines de milliers de sites avec peu ou pas de personnel informatique) ; 
  • répondent aux besoins des différents niveaux de périphérie ayant des exigences différentes, notamment en ce qui concerne l'encombrement des équipements, les environnements physiques difficiles et le coût ;
  • offrent la flexibilité nécessaire pour utiliser les charges de travail hybrides constituées de machines virtuelles, de conteneurs et de nœuds bare metal qui exécutent des fonctions de réseau, de la diffusion vidéo, des jeux, des fonctions d'intelligence artificielle et d'apprentissage automatique ainsi que des applications essentielles à l'activité ;
  • assurent la continuité de l'exploitation des sites réservés à l'edge computing en cas de problème sur le réseau ; 
  • sont compatibles avec les composants de divers fournisseurs, aucun fournisseur ne pouvant proposer seul une solution complète.

Nous disposons d'une vaste gamme de produits qui fournissent la connectivité, l'intégration et l'infrastructure de base pour les services liés à la plateforme, aux applications et au développement. Ces éléments de base puissants permettent aux clients de mettre en œuvre les cas d'utilisation les plus complexes.

Une base solide et efficace

Tout commence avec Red Hat Enterprise Linux®, la base sur laquelle reposent nos autres solutions. Red Hat Enterprise Linux fournit un large écosystème d'outils, d'applications, de frameworks et de bibliothèques qui permettent de construire et d'exécuter des applications et des conteneurs.

Charges de travail conteneurisées

Pour créer, déployer et gérer des applications conteneurisées dans toute infrastructure ou tout cloud (y compris des datacenters publics et privés ou des sites réservés à l'edge computing), optez pour Red Hat® OpenShift®. Cette solution offre un environnement Kubernetes conçu spécialement pour les conteneurs, performant et adapté aux entreprises.

Charges de travail de machines virtuelles et de calcul hautes performances

Red Hat OpenStack® Platform peut exécuter les charges de travail de machines virtuelles les plus complexes (par exemple, la virtualisation des fonctions réseau) ainsi que les charges de travail de calcul hautes performances grâce à ses nœuds de calcul distribués. Fiable et évolutive, cette solution de type IaaS (Infrastructure-as-a-Service) inclut les API standard du secteur ainsi qu'une architecture multi-client. C'est une solution centralisée et cohérente pour la gestion des principaux datacenters et des sites réservés à l'edge computing, qui permet de rapprocher facilement les ressources de calcul de la source de données.

Automatisation en périphérie du réseau

L'automatisation des charges de travail exécutées en périphérie permet de simplifier les tâches informatiques, de réduire les dépenses d'exploitation et d'offrir des expériences client plus fluides dans les architectures d'edge computing hautement distribuées. Red Hat® Ansible® Automation Platform offre la flexibilité nécessaire pour composer avec les exigences souvent élevées des déploiements d'edge computing en matière d'encombrement et de puissance. Cette solution donne une vue globale unique et cohérente, des emplacements en périphérie aux datacenters centraux, en passant par les environnements cloud. Les équipes d'exploitation peuvent ainsi gérer de manière fiable des centaines, voire des milliers de sites, de périphériques réseau et de clusters.

Messagerie et communication

La gamme de produits Red Hat Application Services et les outils de développement offrent des capacités cloud-native pour développer des applications d'edge computing rapides, légères et évolutives, notamment l'agrégation des données, la transformation et la connectivité adaptées aux architectures d'edge computing. Dans les environnements hautement distribués, il est nécessaire de porter une attention particulière à la communication entre les services exécutés sur les sites réservés à l'edge computing et dans le cloud. Les fonctions de messagerie et de diffusion de données de la solution Red Hat AMQ prennent en charge différents modèles de communication nécessaires aux cas d'utilisation de l'edge computing. Les fonctions de messagerie, associées à divers environnements d'exécution d'applications cloud-native (Red Hat Runtimes) et à la connectivité des applications (Red Hat Integration), constituent une base solide pour développer des services de transport de données natif pour l'edge computing, d'agrégation de données et d'applications d'edge computing intégrées.

Gestion

Nous proposons une large gamme de solutions technologiques qui complètent nos plateformes de cloud hybride ouvert pour gérer et faire évoluer les environnements de cloud hybride.

Keep reading

Article

IoT et edge computing

L'IoT nécessite une puissance de calcul au plus près des appareils physiques et sources de données. L'edge computing fournit justement une source locale de capacités de traitement et de stockage.

Article

L'edge computing, qu'est-ce que c'est ?

L'edge computing ou « informatique en périphérie de réseau » désigne le traitement informatique qui s'effectue à l'emplacement physique de l'utilisateur ou de la source des données, ou à proximité.

Article

L'edge computing pour les télécommunications

L'adoption de l'edge computing est une priorité pour de nombreux opérateurs de télécommunications qui modernisent leurs réseaux et cherchent de nouvelles sources de revenus.

En savoir plus sur l'edge computing

Produits

Base stable, éprouvée et suffisamment polyvalente pour prendre en charge le déploiement de nouvelles applications, la virtualisation des environnements et la création d'un cloud hybride plus sécurisé.

Une plateforme d'applications d'entreprise comprenant un ensemble unifié de services testés conçus pour distribuer des applications sur votre choix d'infrastructure.

Gamme de logiciels d'entreprise optimisés pour les déploiements légers en périphérie du réseau.

Ressources

Résumé

L'edge computing dans l'espace : cas d'utilisation

Livre numérique

Ce qu'il faut savoir sur la création d'une infrastructure d'edge computing moderne