AI267

Développement et déploiement d'applications d'IA/AA sur Red Hat OpenShift AI

Présentation

Description du cours 

Apprenez à gérer l'ensemble du cycle de vie des applications d'IA modernes à grande échelle avec Red Hat OpenShift AI

Ce cours permet aux participants d'acquérir les connaissances fondamentales pour gérer l'ensemble du cycle de vie des applications d'IA modernes. Il couvre notamment les compétences de base requises pour entraîner, tester, déployer et surveiller efficacement des modèles d'IA prédictive et générative à grande échelle avec Red Hat OpenShift AI. 

Ce cours repose sur la version 4.18 de Red Hat OpenShift® et sur la version 2.25 de Red Hat OpenShift AI.

Contenu du cours

  • Présentation de Red Hat OpenShift AI
  • Utilisation des workbenches pour le développement de l'IA/AA
  • Principes de base de la mise à disposition des modèles
  • Mise à disposition de modèles d'IA générative et prédictive
  • Surveillance des modèles d'IA
  • Présentation des pipelines de science des données
  • Développement et expérimentations de niveau avancé avec Kubeflow Pipelines
  • Sélection, optimisation et évaluation de modèles d'IA générative
  • Assemblage d'applications d'IA générative

Public cible

  • Ingénieurs AA chargés de la gestion des tâches d'exploitation du cycle de vie MLOps/LLMOps, comme le déploiement, l'automatisation et la surveillance
  • Data scientists qui entraînent, déploient et suivent leurs propres modèles 

Prérequis

Programme

Programme du cours 

Présentation de Red Hat OpenShift AI
Découvrir les avantages de Red Hat OpenShift AI comme plateforme MLOps et GenAIOps complète, et comment l'utiliser pour configurer des projets de science des données afin de favoriser la collaboration entre les équipes

Utilisation des workbenches pour le développement de l'IA/AA
Utiliser des environnements de workbench pour le développement de l'IA/AA et les connecter à des sources et magasins de données

Principes de base de la mise à disposition des modèles
Préparer, déployer et mettre à disposition des modèles à l'aide des fonctionnalités d'OpenShift AI

Mise à disposition de modèles d'IA générative et prédictive
Déployer et mettre à disposition des modèles d'IA dans des environnements d'exécution spécifiques, notamment OpenVINO pour les modèles prédictifs et vLLM pour les grands modèles de langage

Surveillance des modèles d'IA
Surveiller les modèles déployés pour détecter les biais ou les dérives de données et suivre les performances à l'aide de TrustyAI et d'outils d'observabilité afin de garantir des performances d'IA fiables et éthiques en production 

Présentation des pipelines de science des données
Créer et gérer des pipelines de science des données de base en utilisant Elyra et le SDK Kubeflow pour automatiser les workflows d'IA/AA fondamentaux

Développement et expérimentations de niveau avancé avec Kubeflow Pipelines
Mettre en œuvre des fonctions avancées de pipelines, notamment les composants de conteneurs, la gestion des artéfacts, la configuration de Kubernetes et l'expérimentation systématique des workflows MLOps en production

Sélection, optimisation et évaluation de modèles d'IA générative
Sélectionner, optimiser et évaluer systématiquement les grands modèles de langage à l'aide du catalogue de modèles, des techniques de compression et des frameworks d'évaluation de RHOAI

Assemblage d'applications d'IA générative
Créer des applications d'IA générative prêtes pour la production en utilisant les schémas du secteur, notamment la RAG, les workflows agentiques et des pratiques d'IA fiables, et passer de la mise à disposition des modèles de base à des solutions intelligentes complètes

Résultats

Bénéfices pour l'entreprise

  • Souvent, les efforts des entreprises en matière de science des données sont ralentis par les tâches manuelles et la complexité croissante de l'intégration des outils d'IA, notamment l'IA générative. Avec Red Hat OpenShift AI, elles bénéficient d'une plateforme unifiée pour gérer l'ensemble du cycle de vie des applications d'IA modernes. Cette capacité leur permet d'entraîner, de tester, de déployer et de surveiller efficacement les modèles d'IA prédictive et générative à grande échelle, transformant ainsi les initiatives expérimentales en résultats métier fiables.

Bénéfices pour le participant

  • Après avoir suivi ce cours, vous serez capable de gérer l'ensemble du cycle de vie des applications d'IA modernes en entraînant, en testant, en déployant et en surveillant efficacement des modèles d'IA prédictive et générative à grande échelle. Vous saurez configurer des projets collaboratifs de science des données, utiliser efficacement des environnements de workbench et attribuer des ressources spécialisées. Vous pourrez préparer, déployer et mettre à disposition des modèles à l'aide d'environnements d'exécution spécialisés. Vous serez aussi en mesure d'automatiser des workflows MLOps en créant des pipelines avancés de science des données, ainsi que d'assembler des solutions d'IA générative prêtes pour la production. Enfin, vous pourrez garantir des performances d'IA fiables et éthiques en surveillant les modèles déployés pour détecter les biais et les dérives de données, et en mettant en œuvre des mesures de sécurité pour les applications génératives.

Examens ou cours recommandés pour la suite

Choisir un pays ou région

Découvrez de multiples façons de développer vos compétences

Suivez des cours dans le cadre de formations virtuelles dispensées par des instructeurs et en autonomie. Bénéficiez aussi de l'aide de nos spécialistes et passez les examens de certification. Tout est inclus dans la souscription Red Hat Learning.

Formations sur site disponibles

Si vous souhaitez former toute votre équipe, nous proposons des formations sur site, en présentiel ou à distance.

Souscription Red Hat Learning

Bénéficiez de parcours de formation complets sur les produits Red Hat, de certifications reconnues par le secteur et d'une expérience d'apprentissage informatique flexible et dynamique.