L'apprentissage automatique à la périphérie, qu'est-ce que c'est ?

Copier l'URL

L'apprentissage automatique à la périphérie fait référence au processus d'exécution de modèles d'apprentissage automatique sur un appareil en périphérie pour collecter, traiter et reconnaître des modèles au sein d'ensembles de données brutes.

L'apprentissage automatique en périphérie, qu'est-ce que c'est ?

Pour mieux expliquer ce qu'est l'apprentissage automatique à la périphérie, commençons par distinguer ses deux composants : l'apprentissage automatique et l'edge computing.

  • L'apprentissage automatique est un sous-ensemble de l'intelligence artificielle (IA) dans lequel l'IA est capable d'effectuer des tâches de perception bien plus rapidement qu'un humain. 
  • L'edge computing désigne le fait de rapprocher physiquement les services informatiques de l'utilisateur ou de la source des données. Ces services informatiques existent sur ce que nous appelons les périphériques, c'est-à-dire un ordinateur qui permet de collecter et traiter des données brutes en temps réel, ce qui permet une analyse plus rapide et plus fiable. 

L'apprentissage automatique à la périphérie permet d'exécuter des modèles d'apprentissage automatique localement sur des périphériques, tels que l'Internet des objets (IoT).

Alors que les attentes des clients augmentent, la demande de puissance de traitement rapide et sécurisée est également de plus en plus forte. 

Chaque interaction entre l'entreprise et le client associent désormais technologies et points de contact hybrides qui nécessitent un accès facile aux appareils, aux données et aux applications qui permettent de nouvelles expériences et créent une expérience utilisateur positive de bout en bout.

Traditionnellement, ce traitement s'effectue en transportant des ensembles de données vers des clouds distants via des réseaux qui ont parfois des difficultés à fonctionner à pleine capacité en raison du long trajet des données entre les destinations. Cela peut potentiellement entraîner des problèmes allant de la latence aux failles de sécurité.

Avec l'edge computing, il est possible de rapprocher physiquement les applications basées sur l'intelligence artificielle/l'apprentissage automatique (IA/AA) des sources de données telles que les capteurs, les caméras et les appareils mobiles afin de recueillir des informations plus rapidement, d'identifier des modèles, puis de lancer des actions sans avoir recours aux réseaux cloud traditionnels.

Découvrir comment différents secteurs tirent parti de l'edge computing

Ressources Red Hat

L'edge computing est un élément important de toute stratégie de cloud hybride ouvert, car cette technologie permet d'obtenir des performances stables au niveau des applications et de l'exploitation, dans l'ensemble de l'architecture et par le biais d'une plateforme horizontale commune. 

Tout comme une stratégie de cloud hybride permet aux entreprises d'exécuter les mêmes charges de travail dans leurs propres datacenters et sur une infrastructure de cloud public (comme Amazon Web Services, Microsoft Azure ou Google Cloud), une stratégie d'edge computing va encore plus loin, permettant aux environnements cloud d'atteindre des emplacements trop éloignés pour maintenir une connectivité continue avec le datacenter.

Et parce que la plupart des sites réservés à l'edge computing ne disposent pas d'équipes informatiques spécialisées, une solution d'edge computing fiable doit être gérée avec les mêmes outils et processus que l'infrastructure centralisée, tout en pouvant fonctionner indépendamment en mode déconnecté.

Pour être complète, une solution d'edge computing doit généralement offrir les fonctionnalités suivantes :

  • Exécution d'un modèle de déploiement cohérent du cœur vers la périphérie
  • Options d'architecture flexibles pour mieux répondre aux besoins en matière de connectivité et de gestion des données
  • Automatisation et gestion des déploiements et des mises à jour de l'infrastructure depuis le datacenter principal jusqu'aux sites distants réservés à l'edge computing
  • Provisionnement, mise à jour et maintenance des applications logicielles de toute l'infrastructure à grande échelle
  • Continuité de l'exploitation sur les sites distants réservés à l'edge computing, même lorsque la connexion à Internet n'est pas fiable
  • Mise à disposition d'une plateforme logicielle performante capable d'évoluer selon les besoins
  • Sécurisation des données et des infrastructures dans des environnements distants où la sécurité est menacée
Découvrir les avantages de l'edge computing avec le cloud hybride

Il n'existe pas de méthode unique pour créer et mettre en œuvre des modèles d'apprentissage automatique, mais il existe un besoin constant de rassembler et préparer des ensembles de données, de transformer des modèles en applications intelligentes et d'en dégager du chiffre d'affaires. Pour rendre ces applications opérationnelles avec des capacités d'apprentissage automatique intégrées (appelées MLOps) et les maintenir à jour, il faut une collaboration entre les data scientists, les développeurs, les ingénieurs AA, les équipes d'exploitation informatique et les diverses technologies DevOps

En appliquant les principes DevOps et GitOps, les entreprises automatisent et simplifient le processus itératif d'intégration des modèles d'apprentissage automatique dans les processus de développement logiciel, de déploiement en production, de surveillance, de réentraînement et de redéploiement pour assurer la précision des prévisions. 

Avec Red Hat® OpenShift®, ce processus peut être divisé en quatre étapes :

  1. Entraînement : les modèles d'apprentissage automatique sont testés sur des notebooks Jupyter sur Red Hat OpenShift.
  2. Automatisation : Red Hat OpenShift Pipelines est une fonctionnalité d'intégration continue basée sur les événements qui permet de mettre en paquet des modèles d'AA sous forme d'images de conteneur en

    enregistrant les modèles prêts à être déployés dans un magasin de modèles ;
    convertissant les modèles enregistrés en images de conteneur avec Red Hat OpenShift ;
    testant les images de modèles en conteneur pour s'assurer qu'elles restent fonctionnelles ;
    stockant les images de modèles en conteneur dans un registre d'images de conteneur global et privé tel que Red Hat Quay, où les images sont analysées pour identifier les problèmes potentiels, en atténuant les risques de sécurité et la réplication géographique.
     
  3. Déploiement : la configuration déclarative gérée par Red Hat OpenShift GitOps automatise le déploiement de modèles d'apprentissage automatique à grande échelle, et ce, de n'importe où.
  4. Surveillance : la fiabilité, la vitesse et l'évolution des modèles sont surveillées à l'aide des outils de l'un des partenaires de notre écosystème, et mises à jour en procédant à un nouvel entraînement et à un nouveau déploiement, si nécessaire.

L'intelligence artificielle et l'apprentissage automatique sont rapidement devenus essentiels pour les entreprises qui cherchent à convertir leurs données en valeur métier. Les solutions d'edge computing Open Source de Red Hat visent à accélérer ces initiatives en fournissant des services qui automatisent et simplifient le processus de développement d'applications intelligentes dans le cloud hybride. 

Chez Red Hat, nous savons que lorsque les data scientists cherchent à développer leurs modèles d'IA/AA, ils sont souvent confrontés à un manque d'harmonisation entre des outils en constante évolution. Cela peut ensuite affecter la productivité et la collaboration entre leurs équipes, les développeurs de logiciels et l'équipe d'exploitation informatique. 

Pour éviter ces obstacles potentiels, les services Red Hat OpenShift sont conçus pour aider les utilisateurs à concevoir, déployer et gérer leurs applications intelligentes de manière cohérente dans les environnements cloud et les datacenters.

La plupart des entreprises pourraient mieux utiliser leurs données, mais elles sont limitées par leurs outils et workflows. Red Hat® OpenShift® Data Science fournit un environnement pris en charge en libre-service qui permet aux data scientists d'affiner les algorithmes et d'expérimenter le développement, la formation et le test de modèles d'apprentissage automatique.

Hub

Le blog officiel de Red Hat

Découvrez les dernières informations concernant notre écosystème de clients, partenaires et communautés.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits Red Hat pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

L'edge computing pour une prise de décision en temps réel

Découvrez nos solutions pour exploiter l'analyse de données en temps réel et l'intelligence artificielle (IA) afin d'accélérer la prise de décision intelligente en périphérie du réseau.

Gérer et automatiser les applications en périphérie du réseau

Utilisé efficacement, l'edge computing peut réduire les problèmes de connectivité, optimiser la bande passante et raccourcir les délais de réponse. Découvrez les solutions de Red Hat pour la périphérie du réseau.

L'orchestration des technologies d'exploitation dans le secteur de la fabrication

L'orchestration des technologies d'exploitation (OT) permet de mettre en œuvre les principales innovations et les meilleures pratiques liées aux technologies de l'information (IT) pour l'entreprise dans l'univers de l'OT.

Edge computing : ressources recommandées