L'apprentissage automatique, qu'est-ce que c'est ?

Copier l'URL

L'apprentissage automatique (AA) est une sous-catégorie de l'intelligence artificielle (IA) qui utilise des algorithmes pour identifier des schémas et établir des prédictions dans un ensemble de données. Il peut s'agir de nombres, de texte et même d'images. 

Dans des conditions idéales, l'apprentissage automatique permet aux êtres humains d'interpréter des données plus rapidement et plus précisément qu'ils ne seraient capables de le faire eux-mêmes. L'apprentissage automatique est fondé sur des modèles mathématiques qui permettent aux algorithmes d'apprendre à partir de données, de faire des prédictions et d'optimiser des modèles.

Découvrir Red Hat AI

L'IA est une forme d'intelligence virtuelle qui ressemble à celle d'un être humain, créée par l'homme dans une machine. Pour l'apprentissage automatique, les machines sont programmées afin de reproduire des fonctions cognitives précises qui sont naturelles chez l'homme, telles que la perception, l'apprentissage et la résolution des problèmes. 

Pour qu'une machine pense comme un humain, il faut l'entraîner à créer son propre modèle prédictif. Ce modèle permet à la machine d'analyser des données afin de devenir une machine « capable d'apprendre ». Pour lancer ce processus, il faut fournir des données à l'ordinateur et choisir un modèle d'apprentissage afin d'indiquer à la machine comment traiter les données. 

Découvrir comment l'IA peut aider les entreprises
Un modèle d'apprentissage automatique peut utiliser des données pour réaliser trois actions :

  • décrire un événement ;
  • prédire un événement ;
  • formuler des suggestions concernant une action future à entreprendre.

Le modèle d'apprentissage choisi pour entraîner la machine dépend de la complexité de la tâche et du résultat souhaité. Il existe trois méthodes d'apprentissage automatique : l'apprentissage supervisé, l'apprentissage non supervisé et l'apprentissage par renforcement.

Les algorithmes d'apprentissage supervisé sont entraînés à l'aide d'ensembles de données étiquetées. Ils sont utilisés pour des tâches telles que la reconnaissance d'images.

Les modèles d'apprentissage non supervisé analysent des données non étiquetées pour identifier des similitudes, des schémas et des tendances. Ils sont utilisés pour des tâches telles que la segmentation de clients, les systèmes de recommandation et l'exploration générale des données.

Les modèles d'apprentissage par renforcement sont entraînés à l'aide d'un processus d'essais et d'erreurs dans le cadre d'un système de récompense établi. Ils sont par exemple utilisés pour entraîner un ordinateur à jouer à un jeu dans lequel les actions mènent à une victoire ou à une défaite. 

Une fois que l'ordinateur a saisi la manière dont il doit interpréter les données (grâce au modèle d'apprentissage et aux données d'entraînement), il est en mesure d'établir des prédictions et de réaliser des tâches lorsque de nouvelles données lui sont présentées. Ses prédictions deviennent plus précises au fil de son apprentissage à partir de flux de données continus, et il devient capable de réaliser des tâches plus rapidement et précisément qu'un humain ne pourrait le faire.

Créer une plateforme de cloud hybride pour les charges de travail d'IA/AA

Ressources Red Hat

Durant la phase d'entraînement de l'apprentissage automatique, le modèle apprend à partir d'un ensemble de données, et les équipes de développement ajustent ses paramètres pour que les résultats contiennent moins d'erreurs. 

Pour ce faire, les équipes mettent en place un pipeline pour transmettre les données à travers le modèle et évaluer ses prédictions, qui seront ensuite utilisées afin d'améliorer le modèle. Généralement, le pipeline comprend les étapes suivantes :

  1. Collecte et préparation des données : les équipes collectent puis préparent les données en séparant les données d'entraînement des données de test, en supprimant les données indésirables et en les randomisant pour qu'elles soient distribuées de façon uniforme. Le processus qui consiste à réduire le nombre de variables d'entrée ou de fonctions dans un ensemble de données et à conserver uniquement les informations utiles est appelé « réduction de dimensionnalité ».
  2. Sélection d'un modèle : les data scientists et les ingénieurs ont créé des algorithmes d'apprentissage automatique pour différentes tâches, dont la reconnaissance vocale et d'images, ainsi que les prédictions.
  3. Entraînement : une fois préparées, les données d'entrée sont envoyées à travers le modèle afin d'identifier des schémas et de faire des prédictions.
  4. Évaluation : suite à l'entraînement, les résultats du modèle sont évalués à l'aide d'un ensemble de données n'ayant jamais servi.

Ajustement : les équipes de développement procèdent ensuite au réglage des paramètres pour améliorer le modèle en fonction des résultats de l'étape d'évaluation précédente.

Difficultés fréquentes liées à l'entraînement et à l'évaluation

Lorsque le modèle offre de bons résultats avec les données d'entraînement, mais qu'il est moins performant avec les données de test, on parle de surentraînement : le modèle apprend trop du bruit des données d'entraînement. Lorsque le modèle est peu performant sur les deux ensembles de données, on parle plutôt desous-entraînement, un phénomène qui se produit lorsque le modèle ne parvient pas à apprendre les schémas sous-jacents.

Les techniques de réglage fin LoRA et QLoRA aident à optimiser l'utilisation des ressources tout en évitant le surentraînement. 

L'utilisation d'un ensemble distinct de données de validation permet d'éviter le surentraînement. Après chaque itération, les résultats du modèle sont évalués par rapport aux données de validation. 

Les équipes procèdent ensuite à l'ajustement de manière à éviter le sous-entraînement. Elles utilisent pour cela la réduction de dimensionnalité, en éliminant les données superflues de manière prudente pour éviter tout sous-entraînement.

Lorsque le modèle est sous-entraîné, les équipes de développement ajoutent des éléments d'information pour renforcer sa capacité à saisir les relations complexes dans les données.

Une fuite de données survient lorsque les informations de l'ensemble du test sont accidentellement introduites dans l'ensemble d'entraînement, ce qui génère un avantage inéquitable et conduit à une surestimation des performances du modèle.

L'ajustement ainsi que l'ajout de fonctions et de données plus pertinentes peuvent réduire les erreurs lors des itérations suivantes. 

Lorsque les modèles d'AA sont prêts pour le déploiement, ils exécutent un processus appelé inférence. L'inférence est la « phase d'action » au cours de laquelle un modèle d'IA applique ce qu'il a appris au cours de l'entraînement pour fournir des résultats dans un environnement de production. 

La technologie vLLM est un moteur et un serveur d'inférence qui renforce l'efficacité du processus d'inférence. Elle utilise des techniques de gestion de la mémoire pour optimiser la vitesse de traitement (débit) et ainsi permettre aux utilisateurs d'obtenir rapidement des résultats fiables à partir de leurs modèles d'AA. 

Découvrir Red Hat AI Inference Server

Les réseaux neuronaux sont un type d'algorithme utilisé pour l'apprentissage automatique. Ils conviennent particulièrement aux tâches impliquant des relations complexes et non linéaires dans les données. Sous-ensemble de l'apprentissage automatique, l'apprentissage profond utilise des réseaux neuronaux à plusieurs couches. Ces réseaux neuronaux profonds sont structurés de manière à apprendre les schémas hiérarchiques des données. L'apprentissage profond se révèle donc très efficace pour des tâches telles que la reconnaissance d'images et vocale, ainsi que le traitement du langage naturel.

Les technologies d'AA et d'IA peuvent être utilisées pour améliorer l'expérience utilisateur, anticiper le comportement des clients et surveiller des systèmes pour détecter la fraude. Elles peuvent également aider les prestataires de soins de santé à détecter des maladies potentiellement mortelles. Dans notre quotidien, l'apprentissage automatique est très présent, notamment dans :

  • les algorithmes de recommandation qu'utilisent les services de streaming ;
  • les standards téléphoniques automatiques et les chatbots ;
  • les publicités ciblées ;
  • les devis automatisés qu'émettent les établissements financiers.

En savoir plus sur l'IA prédictive et l'IA générative

L'IA générative, sur laquelle reposent aujourd'hui de nombreux outils d'IA, existe grâce à l'apprentissage profond, une technique d'apprentissage automatique utilisée pour l'analyse et l'interprétation de grandes quantités de données. Les grands modèles de langage (LLM) sont un sous-ensemble de l'IA générative. Ils constituent une application essentielle de l'apprentissage automatique qui démontre la capacité à comprendre et à générer du langage humain à une échelle inédite. 

L'apprentissage automatique devient une fonctionnalité incontournable pour de nombreuses entreprises, et les cas d'utilisation de l'IA/AA transforment actuellement divers secteurs, notamment la santé, les services financiers, les télécommunications et les services publics.

Découvrir des cas d'utilisation de l'IA générative
Découvrir des cas d'utilisation de l'IA prédictive

Les modèles d'AA peuvent être biaisés : ils sont entraînés à partir de schémas présents dans les données historiques, ce qui signifie qu'ils peuvent intégrer des biais et des éléments discriminatoires. Les données peuvent par exemple refléter des préjugés liés à la race, au genre ou au statut socioéconomique. Lorsque ces préjugés ne sont pas éliminés des données d'entraînement, le modèle peut les entretenir, voire les amplifier.

De la même manière, les décisions prises par des modèles d'AA concernant une approbation de prêt, un recrutement ou une condamnation pénale peuvent avoir des conséquences disproportionnées sur les groupes marginalisés. Des cadres ont donc été mis en place pour assurer l'équité des résultats pour les différents groupes.

Les modèles d'AA peuvent ne pas montrer leur travail : certains d'entre eux sont des « boîtes noires », c'est-à-dire que l'on ne connaît pas leurs processus internes. Cette opacité rend le processus de décision du modèle difficile à comprendre et entraîne la perte de confiance des utilisateurs.

Pour remédier à ce problème, des techniques d'IA explicable peuvent être appliquées afin de rendre les résultats de l'IA plus compréhensibles par l'utilisateur. La mise en œuvre de l'IA explicable implique plus de transparence tout au long du cycle de vie de l'apprentissage automatique, de la conception initiale à la surveillance. 

En savoir plus sur l'IA explicable

Chez Red Hat, nous proposons aux entreprises une base commune pour créer et déployer des applications d'IA et des modèles d'AA, de manière transparente et contrôlée. 

La solution Red Hat® OpenShift® AI est une plateforme conçue pour l'entraînement, le réglage d'instructions génératives, le réglage fin et la distribution de modèles d'IA qui reposent sur les données de l'entreprise et sont adaptés à son cas d'utilisation.

Pour les déploiements à grande échelle, la solution Red Hat OpenShift offre une plateforme d'applications évolutive qui convient aux charges de travail d'IA, avec un accès aux principaux accélérateurs matériels.

De nouveaux services Red Hat s'appuient également sur l'AA, notamment Red Hat® Ansible® Lightspeed with IBM watsonx Code Assistant et Red Hat OpenShift Lightspeed, qui aident les professionnels de l'informatique à travailler plus efficacement.

Enfin, les intégrations des partenaires Red Hat ouvrent la voie à un écosystème d'outils d'IA fiables et compatibles avec les plateformes Open Source.

Ressource

Se lancer avec l'IA en entreprise : guide pour les débutants

Consultez ce guide pour les débutants afin de savoir comment les solutions Red Hat OpenShift AI et Red Hat Enterprise Linux AI peuvent accélérer votre parcours d'adoption de l'IA.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

L'IA explicable, qu'est-ce que c'est ?

Appliquées au cours du cycle de vie de l'apprentissage automatique, les techniques d'IA explicable améliorent la clarté et la transparence des résultats que fournit l'IA.

Les petits modèles de langage, qu'est-ce que c'est ?

Version réduite d'un grand modèle de langage (LLM), le petit modèle de langage (SLM) repose sur des connaissances plus spécialisées et offre aux équipes une personnalisation plus rapide ainsi qu'une efficacité d'exécution accrue.

Les modèles Granite, qu'est-ce que c'est ?

Les modèles Granite d'IBM correspondent à de grands modèles de langage créés pour les applications d'entreprise. Ils peuvent prendre en charge les cas d'utilisation de l'intelligence artificielle générative qui reposent sur un langage spécifique et du code.

IA/ML : ressources recommandées

Articles associés