Kubernetes au service de l'IA/ML

Copier l'URL

Kubernetes peut assurer la portabilité, l'évolutivité et la reproductibilité cohérente du code dans divers environnements, un avantage clé pour les charges de travail d'intelligence artificielle et de machine learning (IA/ML).

Le workflow de création d'applications axées sur le machine learning n'est pas linéaire, et les étapes de recherche, de développement et de production évoluent constamment dans le cadre de l'approche d'intégration et de distribution continues (CI/CD). La création, les tests, la fusion et le déploiement de nouvelles données, de nouveaux algorithmes et de nouvelles versions d'une application font entrer de nombreuses variables en jeu, ce qui complique la gestion. Sauf si on utilise des conteneurs.

Les conteneurs sont une technologie Linux qui permet de mettre en paquet et d'isoler des applications ainsi que toutes les bibliothèques et dépendances nécessaires à leur exécution. Les conteneurs ont uniquement besoin de composants spécifiques pour fonctionner, ce qui les rend légers et portables. Les équipes d'exploitation peuvent ainsi déployer des applications plus facilement, tandis que les équipes de développement sont sûres que leurs applications s'exécuteront de manière identique sur d'autres plateformes ou systèmes d'exploitation.

En outre, les conteneurs aident à limiter les conflits entre les équipes en séparant les responsabilités de chacune : lorsque les équipes de développement peuvent se concentrer sur les applications et les équipes d'exploitation sur l'infrastructure, du nouveau code peut être intégré plus facilement et efficacement à une application au fil de son développement et de son évolution tout au long du cycle de vie.

Ressources Red Hat

Kubernetes est une plateforme Open Source qui automatise l'exploitation des conteneurs Linux en éliminant de nombreux processus manuels associés au déploiement et à la mise à l'échelle des applications conteneurisées. La technologie Kubernetes est essentielle pour rationaliser le cycle de vie du machine learning, car elle offre aux data scientists l'agilité, la flexibilité, la portabilité et l'évolutivité dont ils ont besoin pour entraîner, tester et déployer des modèles de ML.

Évolutivité : avec Kubernetes, il est possible de mettre à l'échelle les charges de travail de ML en fonction de la demande. Les pipelines de machine learning prendront en charge le traitement et l'entraînement à grande échelle, sans interférer avec les autres éléments du projet. 

Efficacité : Kubernetes optimise l'allocation des ressources en planifiant les charges de travail sur les nœuds en fonction de leur disponibilité et de leur capacité. L'utilisation optimale des ressources de calcul entraîne une réduction des coûts et une amélioration des performances.

Portabilité : Kubernetes fournit un environnement standardisé et indépendant de toute plateforme qui permet aux data scientists de développer un seul et unique modèle de ML, déployable dans plusieurs environnements et sur plusieurs plateformes cloud. Cette approche leur évite tout problème de compatibilité et toute dépendance vis-à-vis d'un fournisseur.

Tolérance aux pannes : grâce à la tolérance aux pannes et aux capacités d'autoréparation intégrées à Kubernetes, les pipelines de ML continuent de s'exécuter en cas de défaillance matérielle ou logicielle.

 

 

Le cycle de vie du machine learning se compose d'éléments variés dont l'exploitation et la maintenance demanderaient beaucoup de temps et de ressources s'ils étaient gérés séparément. Avec une architecture Kubernetes, les entreprises peuvent automatiser des parties du cycle de vie de lu ML et éviter ainsi toute intervention manuelle pour gagner en efficacité. 

Les équipes de développement peuvent s'appuyer sur des outils tels que Kubeflow pour rationaliser et exécuter les charges de travail de ML entraînées sur Kubernetes. Kubeflow permet de surmonter de nombreuses difficultés liées à l'orchestration des pipelines de machine learning grâce à un ensemble d'outils et d'API qui simplifient le processus d'entraînement des modèles de ML ainsi que leur déploiement à grande échelle. De plus, Kubeflow aide à standardiser et organiser les étapes du MLOps.

 

Première plateforme d'applications de cloud hybride du secteur basée sur Kubernetes, Red Hat® OpenShift® rassemble des services testés et fiables tout en offrant une expérience cohérente dans les clouds publics, les clouds hybrides sur site et les architectures d'edge computing.

Produit de la gamme OpenShift AI, Red Hat OpenShift Data Science est un service de Red Hat OpenShift qui fournit une plateforme d'IA/ML cohérente et puissante aux data scientists et aux développeurs pour leur permettre de concevoir des applications intelligentes. Outre la création de modèles et l'expérimentation, OpenShift Data Science offre des capacités MLOps, parmi lesquelles la mise à disposition et la surveillance de modèles permettant à ces derniers d'entrer plus vite en production.

 

Hub

Le blog officiel de Red Hat

Découvrez les dernières informations concernant notre écosystème de clients, partenaires et communautés.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits Red Hat pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

IA prédictive et IA générative

L'IA générative et l'IA prédictive ont différentes caractéristiques et utilisations. Dans un contexte d'évolution continue, il est important de savoir distinguer ces deux types d'IA pour mieux comprendre leurs capacités spécifiques.

L'IA agentique, qu'est-ce que c'est ?

L'IA agentique est un système logiciel conçu pour interagir avec les données et les outils d'une manière qui nécessite une intervention humaine minimale.

La famille de modèles Granite, qu'est-ce que c'est ?

La famille Granite regroupe des grands modèles de langage qui ont été créés par IBM pour les applications d'entreprise. Les modèles de fondation Granite peuvent prendre en charge les cas d'utilisation de l'intelligence artificielle générative qui reposent sur un langage spécifique et du code.

IA/ML : ressources recommandées

Produit recommandé

  • Red Hat OpenShift AI

    Plateforme d'intelligence artificielle (IA) dont les outils permettent de développer, d'entraîner, de distribuer et de surveiller rapidement les modèles et les applications basées sur l'IA.

Articles associés