Kubernetes au service de l'IA/ML

Copier l'URL

Kubernetes peut assurer la portabilité, l'évolutivité et la reproductibilité cohérente du code dans divers environnements, un avantage clé pour les charges de travail d'intelligence artificielle et de machine learning (IA/ML).

Découvrir les solutions Red Hat pour l'IA

Le workflow de création d'applications axées sur le machine learning n'est pas linéaire, et les étapes de recherche, de développement et de production évoluent constamment dans le cadre de l'approche d'intégration et de distribution continues (CI/CD). La création, les tests, la fusion et le déploiement de nouvelles données, de nouveaux algorithmes et de nouvelles versions d'une application font entrer de nombreuses variables en jeu, ce qui complique la gestion. Sauf si on utilise des conteneurs.

Les conteneurs sont une technologie Linux qui permet de mettre en paquet et d'isoler des applications ainsi que toutes les bibliothèques et dépendances nécessaires à leur exécution. Les conteneurs ont uniquement besoin de composants spécifiques pour fonctionner, ce qui les rend légers et portables. Les équipes d'exploitation peuvent ainsi déployer des applications plus facilement, tandis que les équipes de développement sont sûres que leurs applications s'exécuteront de manière identique sur d'autres plateformes ou systèmes d'exploitation.

En outre, les conteneurs aident à limiter les conflits entre les équipes en séparant les responsabilités de chacune : lorsque les équipes de développement peuvent se concentrer sur les applications et les équipes d'exploitation sur l'infrastructure, du nouveau code peut être intégré plus facilement et efficacement à une application au fil de son développement et de son évolution tout au long du cycle de vie.

Commencer à créer un environnement d'IA/ML

Ressources Red Hat

Kubernetes est une plateforme Open Source qui automatise l'exploitation des conteneurs Linux en éliminant de nombreux processus manuels associés au déploiement et à la mise à l'échelle des applications conteneurisées. La technologie Kubernetes est essentielle pour rationaliser le cycle de vie du machine learning, car elle offre aux data scientists l'agilité, la flexibilité, la portabilité et l'évolutivité dont ils ont besoin pour entraîner, tester et déployer des modèles de ML.

Évolutivité : avec Kubernetes, il est possible de mettre à l'échelle les charges de travail de ML en fonction de la demande. Les pipelines de machine learning prendront en charge le traitement et l'entraînement à grande échelle, sans interférer avec les autres éléments du projet. 

Efficacité : Kubernetes optimise l'allocation des ressources en planifiant les charges de travail sur les nœuds en fonction de leur disponibilité et de leur capacité. L'utilisation optimale des ressources de calcul entraîne une réduction des coûts et une amélioration des performances.

Portabilité : Kubernetes fournit un environnement standardisé et indépendant de toute plateforme qui permet aux data scientists de développer un seul et unique modèle de ML, déployable dans plusieurs environnements et sur plusieurs plateformes cloud. Cette approche leur évite tout problème de compatibilité et toute dépendance vis-à-vis d'un fournisseur.

Tolérance aux pannes : grâce à la tolérance aux pannes et aux capacités d'autoréparation intégrées à Kubernetes, les pipelines de ML continuent de s'exécuter en cas de défaillance matérielle ou logicielle.

 

Choisir une plateforme Kubernetes 

 

Le cycle de vie du machine learning se compose d'éléments variés dont l'exploitation et la maintenance demanderaient beaucoup de temps et de ressources s'ils étaient gérés séparément. Avec une architecture Kubernetes, les entreprises peuvent automatiser des parties du cycle de vie de lu ML et éviter ainsi toute intervention manuelle pour gagner en efficacité. 

Les équipes de développement peuvent s'appuyer sur des outils tels que Kubeflow pour rationaliser et exécuter les charges de travail de ML entraînées sur Kubernetes. Kubeflow permet de surmonter de nombreuses difficultés liées à l'orchestration des pipelines de machine learning grâce à un ensemble d'outils et d'API qui simplifient le processus d'entraînement des modèles de ML ainsi que leur déploiement à grande échelle. De plus, Kubeflow aide à standardiser et organiser les étapes du MLOps.

Apprendre à exploiter Kubeflow sur OpenShift 

 

Première plateforme d'applications de cloud hybride du secteur basée sur Kubernetes, Red Hat® OpenShift® rassemble des services testés et fiables tout en offrant une expérience cohérente dans les clouds publics, les clouds hybrides sur site et les architectures d'edge computing.

Produit de la gamme OpenShift AI, Red Hat OpenShift Data Science est un service de Red Hat OpenShift qui fournit une plateforme d'IA/ML cohérente et puissante aux data scientists et aux développeurs pour leur permettre de concevoir des applications intelligentes. Outre la création de modèles et l'expérimentation, OpenShift Data Science offre des capacités MLOps, parmi lesquelles la mise à disposition et la surveillance de modèles permettant à ces derniers d'entrer plus vite en production.

En savoir plus sur l'IA/ML sur OpenShift 

 

Ressource

15 bonnes raisons d'adopter Red Hat OpenShift Virtualization

Découvrez comment Red Hat OpenShift Virtualization peut unifier et simplifier votre exploitation informatique avec une plateforme unique pour les machines virtuelles et les conteneurs.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

RAG et réglage fin

La génération augmentée de récupération (RAG) et le réglage fin permettent d'améliorer les grands modèles de langage (LLM). Avec la RAG, le modèle n'est pas altéré, tandis que le réglage fin nécessite d'en ajuster les paramètres.

Les petits modèles de langage, qu'est-ce que c'est ?

Version réduite d'un grand modèle de langage (LLM), le petit modèle de langage (SLM) repose sur des connaissances plus spécialisées et offre aux équipes une personnalisation plus rapide ainsi qu'une efficacité d'exécution accrue.

Les modèles Granite, qu'est-ce que c'est ?

Les modèles Granite d'IBM correspondent à de grands modèles de langage créés pour les applications d'entreprise. Ils peuvent prendre en charge les cas d'utilisation de l'intelligence artificielle générative qui reposent sur un langage spécifique et du code.

IA/ML : ressources recommandées

Produit recommandé

  • Red Hat OpenShift AI

    Plateforme d'intelligence artificielle (IA) dont les outils permettent de développer, d'entraîner, de distribuer et de surveiller rapidement les modèles et les applications basées sur l'IA.

Articles associés