L'Edge AI, qu'est-ce que c'est ?

Copier l'URL

L'Edge AI, ou intelligence artificielle (IA) en périphérie du réseau, fait référence à l'association de l'IA et de l'edge computing pour recueillir les données sur un site physique ou à proximité. Par exemple, une tâche d'algorithme de reconnaissance d'image sera plus efficace si elle est exécutée près de la source des données.

L'Edge AI permet donc de fournir des réponses presque instantanément. Puisque les algorithmes d'IA peuvent traiter les données au plus près des appareils, il suffit de quelques millisecondes pour obtenir un retour d'informations en temps réel, avec ou sans connexion Internet. Ce processus s'avère particulièrement sûr, car les données sensibles ne quittent jamais la périphérie du réseau.

En savoir plus sur les solutions Red Hat pour l'edge computing

Contrairement à l'IA traditionnelle, l'Edge AI n'exécute pas des modèles au niveau du back-end d'un système cloud, mais sur des appareils connectés qui s'exécutent en périphérie du réseau.  Cette approche ajoute une couche d'intelligence en périphérie. En plus de collecter des indicateurs de mesure et des résultats d'analyse, les appareils les exploitent pour agir grâce à un modèle d'apprentissage automatique (AA) intégré.

L'intelligence artificielle poursuit le même objectif : confier la collecte des données, leur traitement et la génération de résultats aux ordinateurs, en copiant l'intelligence humaine. Toutefois, l'Edge AI exécute les tâches et prend des décisions localement, à l'intérieur ou à proximité de l'appareil utilisé. 

En savoir plus sur la solution d'IA de Red Hat

Ressources Red Hat

La combinaison de l'edge computing et de l'intelligence artificielle offre de grands avantages. Avec l'Edge AI, les capacités de calcul haute performance sont étendues aux sites d'edge computing, là où se trouvent les capteurs et les objets connectés. Les utilisateurs peuvent traiter des données en temps réel sur leurs appareils, car aucune connectivité ni intégration entre les systèmes n'est nécessaire. Ils peuvent également gagner du temps en recueillant les données, sans communiquer avec d'autres emplacements physiques.

Retrouvez ci-dessous les principaux avantages de l'Edge AI.

  • Réduction de la consommation d'énergie : diminution des coûts énergétiques grâce à la conservation des processus de données en local, et besoins plus faibles en énergie pour l'exécution de l'Edge AI par rapport aux datacenters cloud.
  • Réduction de la bande passante : diminution de la quantité de données à envoyer et réduction des coûts grâce au traitement, à l'analyse et au stockage des données localement au lieu de les envoyer dans le cloud.
  • Confidentialité : diminution du risque de fuite de données en traitant celles-ci sur des appareils d'edge computing.
  • Sécurité : priorité accordée au transfert de données importantes grâce au traitement et au stockage en périphérie du réseau, ou à un filtre de données redondantes et inutiles.
  • Évolutivité : mise à l'échelle facilitée des systèmes grâce à des plateformes basées dans le cloud et à des capacités d'edge computing natives sur les équipements embarqués.
  • Réduction de la latence : accélération du traitement des données sur une plateforme cloud et de leur analyse en local, afin de lancer d'autres tâches.

En savoir plus sur les étapes de l'IA en périphérie du réseau

Chez Red Hat, nous collaborons étroitement avec la vaste communauté Open Source sur les technologies de conteneurs et Kubernetes. La solution Red Hat® OpenShift® rassemble des services fiables et testés pour faciliter le développement, la modernisation, le déploiement, l'exécution et la gestion des applications. 

Red Hat OpenShift inclut des capacités clés qui permettent d'appliquer les pratiques MLOps de manière cohérente dans les datacenters, dans le cloud hybride et en périphérie du réseau. Avec l'IA/AA sur Red Hat OpenShift, vous pouvez accélérer les workflows d'IA/AA et la distribution des applications intelligentes basées sur l'IA.

Gamme de produits pour l'IA, Red Hat OpenShift AI fournit des outils pour le cycle de vie complet des expériences et modèles d'IA/AA. Il s'agit d'une base cohérente et évolutive qui repose sur des technologies Open Source pour les responsables de l'exploitation. Elle donne aux data scientists et équipes de développement un accès à un écosystème de partenaires spécialisés pour stimuler l'innovation dans le domaine de l'IA.

En savoir plus sur Red Hat OpenShift AI

Hub

Le blog officiel de Red Hat

Découvrez les dernières informations concernant notre écosystème de clients, partenaires et communautés.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits Red Hat pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

La famille de modèles Granite, qu'est-ce que c'est ?

La famille Granite regroupe des grands modèles de langage qui ont été créés par IBM pour les applications d'entreprise. Les modèles de fondation Granite peuvent prendre en charge les cas d'utilisation de l'intelligence artificielle générative qui reposent sur un langage spécifique et du code.

Génération augmentée de récupération et réglage fin

La génération augmentée de récupération (RAG) et le réglage fin sont deux méthodes différentes qui permettent d'améliorer les grands modèles de langage (LLM). Avec la RAG, le modèle n'est pas altéré, tandis que le réglage fin nécessite d'en ajuster les paramètres.

Kubernetes au service de l'IA/AA

Kubernetes peut assurer la portabilité, l'évolutivité et la reproductibilité cohérente du code dans divers environnements, un avantage clé pour les charges de travail d'IA/AA.

IA/ML : ressources recommandées

Articles associés