L'IA générative, qu'est-ce que c'est ?

Copier l'URL

L'IA générative est une technologie d'intelligence artificielle capable de créer des contenus à partir de modèles d'apprentissage profond entraînés avec de grands ensembles de données. Les modèles d'IA générative, qui sont utilisés pour générer de nouvelles données, sont le pendant des modèles d'IA discriminative, qui servent à trier les données en fonction de différences. Aujourd'hui, les applications d'IA générative sont utilisées pour produire des textes, des images, du code, etc. Ces productions sont obtenues lors de l'inférence d'IA, la phase d'exploitation durant laquelle le modèle est capable d'appliquer ce qu'il a appris au cours de son entraînement à des situations réelles. Les dialogueurs (ou chatbots), la création et la retouche d'images, l'assistance au développement des logiciels et la recherche scientifique comptent parmi les cas d'utilisation les plus courants de cette technologie.

Dans un cadre professionnel, l'IA générative permet de visualiser rapidement des idées créatives et de gérer efficacement des tâches ennuyeuses et chronophages. Dans plusieurs domaines émergents, tels que la recherche médicale et la conception de produits, l'IA générative promet d'aider les équipes à relancer leur productivité et d'améliorer nettement la vie de tout un chacun. Néanmoins, l'IA présente de nouveaux risques qu'il est important de comprendre et de réduire autant que possible.

De nombreuses applications d'IA générative ont vu le jour ces dernières années, notamment ChatGPT et DALL-E d'OpenAI, GitHub CoPilot, Bing Chat de Microsoft, Gemini de Google, Midjourney, Stable Diffusion et Adobe Firefly. Red Hat® Ansible® Lightspeed with IBM watsonx Code Assistant et Red Hat OpenShift® Lightspeed sont des exemples de services Red Hat d'IA générative qui aident les professionnels de l'informatique à travailler plus efficacement. De nombreuses autres entreprises développent actuellement leur propre système d'IA générative afin d'automatiser les tâches courantes et de gagner en efficacité.

Découvrir Red Hat AI

Les utilisateurs qui ont eu une conversation étonnamment cohérente avec ChatGPT ou vu Midjourney créer une image réaliste à partir d'un texte descriptif inventé savent à quel point l'IA générative peut sembler magique. Sur quoi se fondent ces exploits ?

Les applications d'IA fréquemment utilisées reposent sur des modèles d'apprentissage profond qui récréent des schémas issus d'une multitude de données d'entraînement. Dans un cadre défini par l'homme, ces modèles adaptent ensuite ce qu'ils ont appris pour créer des contenus.

Regarder la vidéo Technically Speaking: Lightspeed Automation with Generative AI

Les modèles d'apprentissage profond stockent leurs données d'entraînement sous une forme encodée, en rapprochant les points de données semblables les uns des autres. Cette représentation est ensuite décodée pour produire de nouvelles données originales aux caractéristiques similaires.

Pour créer une application d'IA générative personnalisée, il faut un modèle auquel doivent être apportés des ajustements (par exemple, une personnalisation spécifique supervisée par l'homme ou l'ajout d'une couche de données propre au cas d'utilisation visé).

Aujourd'hui, la plupart des applications d'IA générative fréquemment utilisées répondent à des instructions génératives de l'utilisateur. Lors d'une description du résultat voulu dans un langage naturel, l'application le génère, comme par magie.

Découvrir comment l'IA peut aider les entreprises

Ressources Red Hat

Les avancées de l'IA générative dans les domaines de la rédaction et de la génération d'images ont fasciné la presse et l'imagination de chacun. Voici quelques cas d'utilisation déjà connus pour cette technologie aux progrès phénoménaux.

Rédaction : avant même que des articles mentionnent ChatGPT (et que l'application commence à les rédiger elle-même), les systèmes d'IA générative fournissaient déjà des textes de qualité satisfaisante. Ces modèles ont d'abord été utilisés dans les outils de traduction. Aujourd'hui, les outils d'IA générative parviennent à créer des contenus de haute qualité en répondant à des instructions sur presque n'importe quel sujet. Et ils savent s'adapter à différentes longueurs de texte et différents styles d'écriture.

Génération d'images : les outils d'édition d'images basés sur l'IA générative produisent des images de haute qualité à partir d'instructions en lien avec de nombreux sujets et aux styles variés. Certains peuvent même ajouter des éléments à des œuvres existantes, comme Generative Fill dans Adobe Photoshop.

Génération audio (discours et musique) : à partir d'un texte écrit et de l'enregistrement audio de la voix d'une personne, les outils vocaux basés sur l'IA sont capables de créer un discours ou un chant reproduisant les sons émis par l'homme. D'autres outils peuvent créer de la musique à partir d'instructions génératives ou d'extraits.

Génération vidéo : de nouveaux services testent diverses techniques d'IA générative pour créer des images animées, par exemple en associant un enregistrement audio à une image fixe pour reproduire les mouvements de la bouche et l'expression faciale du sujet comme s'il était en train de parler.

Génération et achèvement de code : à partir d'une instruction écrite, certains outils d'IA générative peuvent produire du code informatique à la demande pour aider les équipes de développement de logiciels.

Enrichissement des données : l'IA générative permet de créer une grande quantité de données synthétiques lorsqu'il est impossible ou déconseillé d'utiliser les données réelles. Par exemple, des données synthétiques peuvent être nécessaires pour entraîner un modèle à comprendre des données médicales, sans inclure de données à caractère personnel. De plus, ces outils peuvent étendre ou compléter un ensemble de données afin d'obtenir un plus grand ensemble de données synthétiques à des fins d'entraînement ou de test.

Découvrir des cas d'utilisation de l'IA générative

L'apprentissage profond, à la base de l'IA générative, est une technique d'apprentissage automatique (AA) utilisée pour l'analyse et l'interprétation de grandes quantités de données. Également connu sous le nom d'apprentissage neuronal profond ou de réseau neuronal profond, ce processus permet aux ordinateurs d'apprendre par l'observation, en imitant la manière dont les humains acquièrent des connaissances. L'apprentissage profond représente un concept essentiel dans la compréhension du langage humain par l'ordinateur, ce que l'on appelle le traitement du langage naturel (NLP).

Pour mieux comprendre, on pourrait comparer l'apprentissage profond à une sorte d'organigramme qui commence par une couche d'entrée et se termine par une couche de sortie. Entre ces deux couches se trouvent les « couches cachées » qui traitent les informations à différents niveaux. Elles ajustent et adaptent leur comportement à mesure qu'elles reçoivent de nouvelles données. Les modèles d'apprentissage profond peuvent comporter des centaines de couches cachées. Chacune d'entre elles joue un rôle dans la découverte de relations et de schémas au sein de l'ensemble de données.

Les données sont introduites dans le modèle à partir de la couche d'entrée, composée de plusieurs nœuds, puis classées en conséquence avant de passer à la couche suivante. Le chemin que les données empruntent à travers chaque couche est basé sur les calculs mis en place pour chaque nœud. Les données se déplacent à travers chaque couche, recueillent des observations en cours de route qui façonneront le résultat, ou l'analyse finale, des données.

Une technologie a accéléré les progrès de l'apprentissage profond : le GPU, ou processeur graphique. À l'origine, les GPU ont été conçus pour accélérer le rendu des images de jeux vidéo. Leurs excellentes capacités de calcul en parallèle en ont fait un outil parfaitement adapté aux charges de travail d'apprentissage profond.

Les applications d'IA générative révolutionnaires que nous connaissons aujourd'hui sont directement issues des avancées liées à la taille et à la rapidité des modèles d'apprentissage profond.

Le réseau neuronal désigne une méthode de traitement des informations calquée sur des systèmes neuronaux biologiques, à l'image des connexions du cerveau humain. L'IA s'appuie sur cette méthode pour connecter des informations apparemment sans aucun rapport. Le concept de réseau neuronal est étroitement lié à la technique d'apprentissage profond.

Pour comprendre le rôle du réseau neuronal dans la connexion des points de données d'un modèle d'apprentissage profond, il faut d'abord étudier le fonctionnement du cerveau humain. Notre cerveau comporte de nombreux neurones interconnectés qui agissent comme des messagers lorsqu'il traite des données entrantes. Ces neurones utilisent des impulsions électriques et des signaux chimiques pour communiquer entre eux et transmettre les informations entre les différentes zones du cerveau.

Un réseau de neurones artificiels repose sur ce phénomène biologique. Cependant, comme son nom l'indique, ses neurones sont artificiels et constitués de modules logiciels que l'on appelle des nœuds. Ces nœuds utilisent des calculs mathématiques (plutôt que des signaux chimiques) pour communiquer et transmettre des informations. Ce réseau neuronal simulé traite les données par groupe de points de données et à l'aide de prédictions.

Chaque type de données a une technique de réseau neuronal qui lui convient. Le modèle du réseau neuronal récurrent utilise des données séquentielles (il apprend par exemple des mots dans l'ordre afin de traiter une langue).

Il existe une architecture spécifique de réseau neuronal, capable de traiter les langues plus rapidement. Il s'agit des transformateurs. Par rapport aux réseaux neuronaux récurrents qui ingèrent un mot après l'autre, les transformateurs apprennent la relation des mots dans une phrase, ce qui produit de meilleurs résultats.

Un grand modèle de langage (LLM) est un modèle d'apprentissage profond qui a été entraîné en appliquant des transformateurs à un énorme ensemble de données généralisées. La plupart des principaux dialogueurs et outils de texte reposent sur un grand modèle de langage.

Le modèle de diffusion est une autre technique d'apprentissage profond qui est efficace dans le domaine de la génération d'images. Ce type de modèle apprend à transformer une image naturelle en bruit visuel avec flou. Les outils d'édition d'images génératifs se chargent ensuite d'inverser le processus en ajustant un modèle de bruit aléatoire jusqu'à obtenir une image réaliste.

Il est possible de décrire les modèles d'apprentissage profond avec des paramètres. Un modèle prédictif simple entraîné avec 10 entrées issues d'un formulaire de demande de crédit comptera 10 paramètres, alors qu'un grand modèle de langage peut en inclure plusieurs milliards. GPT-4 (Generative Pre-trained Transformer 4) d'OpenAI, l'un des modèles de base de ChatGPT, compterait 1 000 milliards de paramètres.

Un modèle de fondation est un modèle d'apprentissage profond entraîné avec un gros volume de données génériques. Le modèle ainsi entraîné peut ensuite être adapté pour des cas d'utilisation spécifiques. Comme son nom l'indique, il peut constituer la base de plusieurs applications différentes.

Aujourd'hui, la création d'un modèle de fondation représente un projet d'envergure qui nécessite d'énormes quantités de données d'entraînement, généralement extraites via la méthode du « scraping » sur Internet, dans les bibliothèques de livres numériques, les bases de données d'articles de recherche, les collections d'images libres de droits, ou d'autres grands ensembles de données. Seule une vaste infrastructure, couplée à un cloud de GPU propriétaire ou en location, peut prendre en charge l'entraînement d'un modèle avec autant de données. Les modèles de base les plus volumineux ont coûté plusieurs centaines de millions de dollars.

Puisque l'entraînement de bout en bout d'un modèle de fondation demande beaucoup d'efforts, le plus souvent, les entreprises personnalisent des modèles déjà entraînés par des tiers. Pour cela, elles ont le choix entre plusieurs techniques de personnalisation, comme le réglage fin, le réglage d'instructions génératives, ou encore l'ajout de données spécifiques du client ou du domaine. Par exemple, les modèles de fondation de la famille Granite d'IBM sont entraînés sur des données sélectionnées et utilisées de manière transparente.

Ce processus consiste à entraîner davantage un modèle préentraîné à l'aide d'un ensemble de données plus personnalisé, afin qu'il réalise efficacement des tâches spécifiques. Ces données d'entraînement complémentaires modifient les paramètres du modèle et en génèrent une nouvelle version qui remplace le modèle d'origine.

En général, le réglage fin nécessite beaucoup moins de données que l'entraînement initial et prend aussi moins de temps. Toutefois, le processus de réglage fin traditionnel reste intensif en calcul.

Le PEFT, ou réglage fin efficace des paramètres, est un ensemble de techniques qui ajuste seulement une partie des paramètres d'un LLM afin d'économiser des ressources. Il s'agit d'une évolution du réglage fin traditionnel.

L'adaptation par modèle auxiliaire (Low-Rank Adaptation, LoRA) et l'adaptation par modèle auxiliaire quantifiée (Quantized Low-Rank Adaptation, QLoRA) sont toutes deux des techniques PEFT d'entraînement de modèles d'IA. Si les deux techniques aident au réglage fin efficace des LLM, elles présentent des différences en matière de manipulation du modèle et d'utilisation du stockage pour atteindre les résultats escomptés.

En savoir plus sur LoRA et QLoRA 

 

La génération augmentée de récupération ou RAG (Retrieval-Augmented Generation) est une méthode qui permet d'obtenir de meilleures réponses de la part d'une application d'IA générative grâce à l'association de ressources externes à un LLM.

La mise en œuvre d'une architecture RAG dans un système de questions-réponses (comme un dialogueur) reposant sur un LLM permet d'établir un moyen de communication entre un LLM et la sélection de sources de connaissances supplémentaires. Ainsi, le LLM peut croiser les références et compléter ses connaissances internes de manière à générer une sortie plus fiable et précise pour l'utilisateur à l'origine de la requête.

En savoir plus sur la RAG

Avec tant de progrès réalisés en si peu de temps, l'IA générative a suscité beaucoup d'intérêt, pour le meilleur comme pour le pire. Nous découvrons à peine les avantages et inconvénients de cette technologie. Voici quelques-unes des préoccupations majeures en matière d'IA générative.

Préjudices envers autrui : des acteurs malveillants peuvent utiliser l'IA générative pour accomplir leurs mauvais desseins, par exemple pour diffuser à grande échelle des campagnes de désinformation sur les réseaux sociaux ou des images truquées qui visent de vraies personnes sans leur consentement. C'est là le risque le plus évident et immédiat.

Renforcement de biais sociétaux dangereux : on sait déjà que les outils d'IA générative propagent les biais humains qui se trouvent dans leurs données d'entraînement, notamment des stéréotypes dangereux et des discours haineux.

Diffusion d'informations erronées : les outils d'IA générative peuvent produire des informations et scènes inventées et totalement fausses, que l'on appelle parfois des « hallucinations ». Si certaines erreurs de l'IA sont sans conséquence, comme une réponse incohérente à une question ou quelques doigts en trop sur une image, d'autres résultats ont déjà posé de graves problèmes. C'est le cas d'un dialogueur qui a donné des conseils dangereux à des personnes s'interrogeant sur les troubles alimentaires.

Risques juridiques et pour la sécurité : les systèmes d'IA générative peuvent menacer la sécurité, notamment lorsque des utilisateurs saisissent des informations sensibles dans des applications n'intégrant aucun mécanisme de protection. Les réponses générées peuvent introduire des risques de nature juridique en reproduisant du contenu protégé par des droits d'auteur ou en s'appropriant la voix ou l'identité d'une personne réelle sans son consentement. De plus, certains outils imposent parfois des restrictions d'utilisation.

Notre gamme de produits Red Hat® AI repose sur des solutions que nos clients utilisent déjà en toute confiance. C'est ce qui permet à nos produits de rester fiables, flexibles et évolutifs.

Red Hat AI offre les avantages suivants :

  • Rapidité d'adoption de l'IA et d'innovation
  • Simplification de la distribution de solutions d'IA
  • Possibilité de déploiement dans tous les environnements

Découvrir la gamme de produits Red Hat AI

Un allié pour relever tous les défis

Les solutions Red Hat AI prennent en charge les fonctionnalités d'IA prédictive et générative. Elles permettent aux entreprises d'utiliser leurs propres modèles et de les aider dans l'entraînement et le réglage fin en fonction de leurs besoins spécifiques.

La plateforme de modèles de fondation Red Hat® Enterprise Linux® AI est un bon point de départ pour les entreprises qui souhaitent développer, tester et exécuter des LLM de la famille Granite pour leurs applications. Cette plateforme d'IA offre aux équipes de développement un accès rapide à un environnement de serveur qui réunit à lui seul de grands modèles de langage et des outils d'IA. Elle fournit tout le nécessaire pour régler les modèles et créer des applications d'IA générative.

En savoir plus sur Red Hat Enterprise Linux AI 

Notre écosystème de partenaires pour l'IA ne cesse de croître. Divers partenaires technologiques s'efforcent d'obtenir une certification de compatibilité avec les solutions Red Hat AI, ce qui offre une grande liberté de choix aux entreprises.

En savoir plus sur nos partenaires

Se lancer avec l'IA en entreprise : guide pour les débutants

Consultez ce guide pour les débutants afin de savoir comment les solutions Red Hat OpenShift AI et Red Hat Enterprise Linux AI peuvent accélérer votre parcours d'adoption de l'IA.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits Red Hat pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

L'apprentissage automatique, ou machine learning, qu'est-ce que c'est ?

Le machine learning est une technique qui consiste à entraîner un ordinateur à identifier des schémas, à établir des prédictions et à apprendre à partir d'expériences passées sans programmation explicite.

Le deep learning, qu'est-ce que c'est ?

Le deep learning est une technique d'intelligence artificielle (IA) qui apprend aux ordinateurs à traiter des données en utilisant un algorithme qui s'inspire du cerveau humain.

Un grand modèle de langage, qu'est-ce que c'est ?

Un grand modèle de langage (LLM) est un type de modèle d'intelligence artificielle (IA) qui utilise des techniques d'apprentissage automatique (AA) pour comprendre et générer du langage humain.

IA/ML : ressources recommandées

Articles associés