AI501
Mise en œuvre du modèle GenAIOps avec Red Hat AI Enterprise
Description du cours
Découvrez les pratiques, la culture et les outils qui permettent aux équipes de créer des applications d'IA générative, de les déployer et d'en assurer la maintenance en production de manière fiable et efficace.
Mise en œuvre du modèle GenAIOps avec Red Hat AI Enterprise (AI501) est une formation immersive de cinq jours qui suit la méthode Red Hat. Elle permet aux équipes d'acquérir les compétences nécessaires pour présenter et mettre en œuvre leur vision de l'IA. Contrairement aux nombreuses formations autour de l'IA qui ciblent un framework ou une technologie spécifique, ce cours explique comment les outils s'intègrent dans un workflow GenAIOps complet, en traitant non pas le modèle, mais l'application basée sur l'IA comme l'unité de distribution.
Pour atteindre les objectifs d'apprentissage, chaque groupe de participants doit rassembler des membres ayant des rôles différents dans l'entreprise. Les équipes d'ingénierie de l'IA, de développement d'applications et d'ingénierie de plateforme ainsi que les architectes et les responsables informatiques gagneront de l'expérience en travaillant au-delà de leurs silos traditionnels. La formation simule le quotidien d'une équipe de distribution réelle et pluridisciplinaire dont la mission consiste à collaborer sur le développement d'une application basée sur l'IA. Grâce au partage d'expérience et aux meilleures pratiques enseignées, le groupe pourra appliquer ce qu'il a appris pour contribuer efficacement à la culture et à la mission de l'entreprise dans le cadre de projets d'IA générative.
Ce cours repose sur les produits Red Hat AI Enterprise, notamment Red Hat OpenShift AI, ainsi que sur Red Hat OpenShift GitOps, Red Hat OpenShift Pipelines, des modèles d'IA générative et des bibliothèques Open Source.
Contenu du cours
Ce cours suit l'évolution d'une application basée sur l'IA, des tests d'instruction générative au déploiement en production, en amenant différents profils à collaborer sur une même plateforme.
- Définition des principes de base de l'IA générative, notamment les jetons textuels, les fenêtres de contexte et le comportement des modèles
- Test des instructions génératives et évaluation d'une première application basée sur l'IA
- Introduction d'une couche d'orchestration pour le développement standardisé de l'IA générative
- Mise en œuvre de la génération augmentée de récupération (RAG) pour les applications axées sur l'amélioration des connaissances
- Création d'agents IA autonomes à l'aide de fonctionnalités d'appel d'outils
- Déploiement de mesures de sécurité relatives à l'IA et mise en œuvre de pratiques de sécurité pour l'IA générative
- Mise en place de fonctionnalités d'observabilité (indicateurs de mesure, journalisation et traçage distribué pour les systèmes d'IA générative)
- Manipulation de petits modèles de langage et de fonctionnalités multimodales
- Optimisation de modèles à l'aide de techniques de quantification et de compression
- Mise en œuvre des pratiques MaaS (Models-as-a-Service) pour une infrastructure d'IA évolutive
Public ciblé
Ce cours montre comment des individus occupant différents rôles doivent apprendre à partager, à collaborer et à travailler vers un objectif commun pour en tirer des bénéfices et stimuler l'innovation dans le domaine de l'IA générative.
Il s'avère particulièrement utile pour les profils suivants :
- Utilisateurs de plateformes d'IA : ingénieurs de l'IA, développeurs d'applications, data scientists et ingénieurs des données qui créent des applications d'IA générative
- Fournisseurs de plateformes d'IA : ingénieurs GenAIOps/de l'AA et ingénieurs de plateforme qui déploient et gèrent une infrastructure d'IA
- Parties prenantes des plateformes d'IA : architectes et responsables informatiques qui évaluent et supervisent les stratégies d'adoption de l'IA générative
Ce scénario englobe des aspects techniques de l'utilisation des grands modèles de langage et des systèmes d'IA générative, et apporte des informations pratiques sur la manière dont les différents rôles peuvent harmoniser leurs efforts.
Prérequis
- Passer l'évaluation gratuite pour s'assurer que l'offre est adaptée aux compétences
- Avoir accès à un navigateur basé sur Chromium
- Avoir passé en revue la Présentation technique des conteneurs, de Kubernetes et de Red Hat OpenShift (DO080) ou avoir une compréhension de base d'OpenShift, de Kubernetes et des conteneurs (conseillé)
- Avoir une compréhension de base de l'IA ou de la façon dont l'entreprise peut en tirer de la valeur (conseillé)
Programme du cours
Maîtrise des bases
Bases de l'IA générative
Découvrir le GenAIOps et le fonctionnement des grands modèles de langage, notamment la conversion en jetons textuels, les fenêtres de contexte ainsi que les facteurs qui affectent le comportement et les performances des modèles
Tests d'instructions génératives
Apprendre à rédiger des instructions génératives efficaces en utilisant des instructions génératives système et utilisateur, à configurer les paramètres de température et de résultat, et à optimiser les instructions génératives pour des cas d'utilisation spécifiques
Évaluation d'une première application basée sur l'IA
Mettre en œuvre le contrôle des versions pour les instructions génératives, créer des pipelines d'évaluation, automatiser les tests et mesurer la qualité des applications de façon systématique
Ajout d'une couche d'orchestration
Ajouter une couche d'orchestration afin de développer des applications d'IA générative, de déployer des services back-end et de mettre en œuvre des pratiques GitOps pour un déploiement continu
Thèmes avancés
Intégration et orchestration
Déployer des bases de données vectorielles, créer des pipelines de RAG pour les applications axées sur l'amélioration des connaissances, mettre en œuvre l'appel d'outils et créer des agents IA autonomes
Sécurité et observabilité
Déployer des mesures de sécurité pour l'IA, mettre en œuvre des pratiques de sécurité pour l'IA générative et tirer parti des trois piliers de l'observabilité (indicateurs de mesure, journaux et traces)
Techniques de modélisation
Apprendre à manipuler les petits modèles de langage pour un déploiement efficace et les fonctionnalités des modèles multimodaux pour la gestion de divers types de données d'entrée
Optimisation et déploiement
Appliquer des techniques de quantification et de compression pour améliorer les performances, explorer les approches de réglage fin, mettre en œuvre des pratiques MaaS et rassembler le tout dans un déploiement en production
Bénéfices pour l'entreprise
- Les entreprises sont confrontées à de nombreux problèmes : complexité de l'exploitation et prolifération des outils entre les équipes ; écarts au niveau des instructions génératives et des configurations qui entraînent des incohérences dans les résultats ; régression de qualité provoquée par certaines modifications ; mauvaise gestion de l'alimentation qui cause des hallucinations, risques pour la sécurité liés à l'infiltration de requête et à des contenus dangereux ; ou encore, latence et coûts imprévisibles qui bloquent la mise à l'échelle. Le GenAIOps relève ces défis en traitant les instructions génératives et les configurations comme du code, mais aussi par la standardisation, des évaluations automatisées continues, la gouvernance de la RAG, des mesures de sécurité appliquées à la plateforme et l'observabilité de bout en bout.
- Ce cours présente les principes concrets de la culture GenAIOps, ainsi que les pratiques modernes. Les participants découvriront le cycle de vie complet d'une application basée sur l'IA, des instructions génératives au déploiement en passant par le contrôle des versions de configuration, l'évaluation continue et les opérations de maintenance. À l'issue de ce cours, ils seront en mesure d'appliquer les principes GenAIOps et de tirer parti de l'offre Red Hat AI Enterprise afin de lancer et mener des projets de transformation par l'IA générative au sein de leur entreprise.
Bénéfices pour le participant
- Après avoir suivi ce cours, vous maîtriserez la plateforme d'IA générative, vous comprendrez le rôle de Red Hat AI Enterprise dans l'écosystème GenAIOps et vous en saurez plus sur le cycle de vie des applications basées sur l'IA de bout en bout. Vous obtiendrez des modèles pratiques pour créer, distribuer et exécuter à grande échelle des applications basées sur l'IA, et apprendrez à les déployer de la phase de prototype à la phase de production, puis à en assurer la fiabilité.
Examens ou cours recommandés pour la suite
- Pratiques MLOps avec Red Hat OpenShift AI (AI500) pour les équipes qui utilisent également l'IA prédictive et des modèles d'apprentissage automatique
- Administration de Red Hat OpenShift II : configuration d'un cluster de production (DO280) pour les équipes d'ingénierie de plateforme qui souhaitent approfondir leurs connaissances sur OpenShift
Découvrez de multiples façons de développer vos compétences
Suivez des cours dans le cadre de formations virtuelles dispensées par des instructeurs et en autonomie. Bénéficiez aussi de l'aide de nos spécialistes et passez les examens de certification. Tout est inclus dans la souscription Red Hat Learning.
Formations sur site disponibles
Si vous souhaitez former toute votre équipe, nous proposons des formations sur site, en présentiel ou à distance.
Souscription Red Hat Learning
Bénéficiez de parcours de formation complets sur les produits Red Hat, de certifications reconnues par le secteur et d'une expérience d'apprentissage informatique flexible et dynamique.