Présentation
Une plateforme d'intelligence artificielle (IA) est un ensemble intégré de technologies qui permettent de développer, d'entraîner et d'exécuter des modèles d'apprentissage automatique (AA). Ce type de plateforme inclut généralement des fonctionnalités MLOps (Machine Learning Operations), d'automatisation et d'analyse prédictive des données, ainsi que d'autres fonctions. On pourrait la comparer à un établi qui donne accès à tous les outils nécessaires et qui offre une base stable pour créer et perfectionner des modèles.
Il existe de plus en plus de plateformes d'IA disponibles sur le marché. Voici les éléments à prendre en compte pour choisir la solution adaptée.
Types de plateformes d'IA
Pour toutes les entreprises, le choix de la première plateforme d'IA implique de déterminer si celle-ci doit être préconfigurée ou s'il est plus judicieux de concevoir une plateforme personnalisée en interne.
Acheter une plateforme d'IA
Pour déployer rapidement des applications, modèles et algorithmes d'IA, la meilleure option consiste à acheter une plateforme d'IA complète et préconfigurée. Ces plateformes incluent des outils, des référentiels linguistiques et des API testées en amont à des fins de sécurité et de performances. Certains fournisseurs proposent des modèles de fondation et d'IA générative préentraînés, qui s'intègrent facilement aux environnements et workflows existants grâce à des ressources spécifiques.
Les principaux fournisseurs de cloud proposent aussi désormais des plateformes d'IA, notamment Amazon Web Services (AWS) Sagemaker, Google Cloud AI Platform, Microsoft Azure AI Platform et IBM watsonx.ai™ AI studio. Souvent, les fournisseurs de plateformes d'IA proposent également des outils d'IA autonomes qui peuvent s'utiliser en association avec d'autres solutions d'IA.
Concevoir une plateforme d'IA
Pour s'adapter à des cas d'utilisation spécifiques ou répondre à des besoins avancés en matière de confidentialité, certaines entreprises doivent personnaliser et gérer intégralement leur propre plateforme d'IA. Par exemple, Uber a développé sa plateforme d'IA qui utilise des technologies telles que le traitement du langage naturel (TLN) et la vision par ordinateur pour améliorer ses fonctionnalités GPS et de détection des accidents. Syapse, une entreprise du secteur de la santé axée sur les données, a créé Syapse Raydar®, une plateforme de données basée sur l'IA qui convertit les données d'oncologie en informations exploitables.
La conception d'une plateforme d'IA en interne permet de bien contrôler tout l'environnement et de répondre aux besoins spécifiques de l'entreprise. Cette approche nécessite toutefois davantage de préparation en amont pour obtenir une plateforme opérationnelle. En outre, la maintenance, l'assistance et la gestion ne peuvent pas être externalisées.
Faire le choix de l'Open Source
Les communautés Open Source sont au cœur des avancées en matière d'intelligence artificielle et d'apprentissage automatique. Lorsqu'elles choisissent une solution logicielle Open Source comme base pour leurs projets d'IA, les entreprises peuvent s'appuyer sur une communauté de pairs et de professionnels qui améliorent en permanence les frameworks et outils les plus utilisés. Bon nombre d'entre elles commencent par adopter des outils Open Source, puis s'en servent comme base pour développer des projets. Tensorflow et PyTorch sont des plateformes Open Source qui fournissent des bibliothèques et des frameworks pour développer des applications d'IA.
Ressources Red Hat
Fonctionnalités indispensables des plateformes d'IA
MLOps
Le MLOps désigne un ensemble de pratiques de gestion des workflows qui vise à rationaliser le déploiement et la maintenance des modèles d'AA. Toute plateforme d'IA devrait faciliter l'exécution des étapes du MLOps, telles que l'entraînement, la distribution et la surveillance des modèles.
Le LLMOps (Large Language Model Operations) est un sous-ensemble du MLOps qui regroupe les pratiques, techniques et outils utilisés pour gérer l'exploitation de grands modèles de langage dans les environnements de production. Ces modèles peuvent réaliser des tâches telles que la génération de texte, le résumé de contenus et la catégorisation d'informations. Ils exploitent une grande quantité de ressources de calcul des processeurs graphiques (GPU), ce qui implique que la plateforme d'IA doit être suffisamment puissante pour s'adapter aux entrées et sorties des modèles.
IA générative
L'IA générative s'appuie sur des réseaux neuronaux et des modèles d'apprentissage profond entraînés avec de grands ensembles de données pour créer des contenus. S'il est suffisamment entraîné, le modèle est capable d'appliquer l'apprentissage tiré de l'entraînement à des situations réelles. Ce processus s'appelle l'inférence d'IA.
Cette technologie englobe de nombreuses fonctionnalités que les utilisateurs finaux associent à l'intelligence artificielle, notamment la génération de texte et d'images, l'augmentation de données ainsi que les systèmes d'IA conversationnelle, tels que les dialogueurs (ou chatbots). Il est important que la plateforme d'IA offre des fonctionnalités d'IA générative avec un bon niveau de performances et de précision.
Évolutivité
Les performances des modèles dépendent uniquement de leur capacité d'évolutivité. Les équipes de science des données ont besoin d'une solution centralisée à partir de laquelle elles peuvent concevoir et déployer des modèles d'IA, réaliser des essais et des réglages et collaborer avec d'autres équipes. Ces opérations impliquent d'exploiter de grandes quantités de données ainsi qu'une puissance de calcul élevée, et surtout de disposer d'une plateforme capable de tout gérer.
Une fois que les modèles sont performants, il faut pouvoir les utiliser dans différents environnements : sur site, sur des plateformes de cloud public ou en périphérie du réseau. Avec une solution évolutive, ces modèles pourront facilement être déployés dans tous les environnements.
Automatisation
L'automatisation devient essentielle lorsque l'entreprise passe de quelques modèles à déployer en production à une dizaine ou plus. L'automatisation des pipelines de science des données transforme les processus les plus efficaces en tâches reproductibles. Cette approche permet non seulement d'accélérer les workflows, mais aussi de rendre l'expérience des utilisateurs plus agréable et prévisible ainsi que d'améliorer l'évolutivité. L'automatisation élimine également les tâches répétitives et permet aux équipes de science des données et d'ingénierie de consacrer davantage de temps au développement, à l'itération et au perfectionnement des modèles.
Outils et intégrations
Les équipes de développement et de science des données s'appuient sur des outils et des intégrations pour créer et déployer efficacement des applications et des modèles. Les entreprises doivent choisir une plateforme d'IA qui prend en charge les outils, langages et référentiels déjà utilisés par leurs équipes, et compatible avec l'ensemble de leur pile technologique et de leurs solutions partenaires.
Sécurité et contrôle
Des pratiques de sécurité renforcées doivent être mises en œuvre pour limiter les risques et protéger les données avec une plateforme d'IA. Dans le cadre des opérations quotidiennes d'entraînement et de développement, il est essentiel de rechercher des CVE (Common Vulnerabilities and Exposures) et de protéger les applications et les données au moyen de la gestion des accès, de la segmentation réseau et du chiffrement.
Responsabilité et gouvernance
Les plateformes d'IA doivent également permettre d'utiliser et de surveiller les données de manière à respecter les normes éthiques et à garantir la conformité. Pour protéger à la fois les données de l'entreprise et celles des utilisateurs, il est important de choisir une plateforme qui soutient les stratégies de visibilité, de suivi et de gestion des risques tout au long du cycle de vie de l'AA. Cette plateforme doit également respecter les normes actuelles de l'entreprise en matière de conformité et de sécurité des données.
Assistance
Avec une plateforme d'IA préconfigurée et complète, les entreprises peuvent profiter d'une assistance. Les performances des modèles seront renforcées grâce à un processus continu de suivi et de correction des erreurs qui peut être adapté à chaque déploiement. Certains fournisseurs de plateformes d'IA proposent des ressources d'intégration et de formation pour permettre aux équipes de se lancer rapidement. Les entreprises qui souhaitent concevoir leur propre plateforme avec des outils Open Source peuvent s'adresser à des fournisseurs qui proposent une assistance pour les fonctions d'apprentissage automatique et l'infrastructure.
Mise à l'échelle sur une plateforme d'IA
De nombreux facteurs influent sur l'efficacité de l'IA à grande échelle. Toutes les variables doivent notamment être coordonnées de manière efficace pour réussir l'exécution des opérations d'inférence. Plus précisément, pour mettre à l'échelle des charges de travail, les entreprises ont besoin de serveurs d'inférence capables de prendre en charge des modèles d'IA plus grands (tels que des LLM) et des fonctionnalités d'inférence plus complexes.
Il existe différents outils d'IA qui aident les équipes d'ingénierie à optimiser l'utilisation des ressources pour exécuter l'inférence à grande échelle :
- llm-d : les instructions génératives des grands modèles de langage (LLM) peuvent s'avérer complexes et hétérogènes. En général, elles nécessitent des ressources de calcul et de stockage considérables pour traiter de gros volumes de données. Un framework d'IA Open Source comme llm-d permet aux équipes de développement d'utiliser des techniques telles que l'inférence distribuée pour répondre aux exigences croissantes des modèles à raisonnement plus grands et sophistiqués (comme les LLM).
- Inférence distribuée : cette approche permet aux modèles d'IA de traiter les charges de travail plus efficacement en répartissant les tâches liées à l'inférence entre plusieurs équipements interconnectés. Les tâches d'inférence sont ainsi allégées.
- vLLM : sigle anglais de virtual Large Language Model, ou grand modèle de langage virtuel, vLLM est une bibliothèque de code Open Source gérée par la communauté vLLM. Ce framework améliore l'efficacité des calculs des grands modèles de langage (LLM) à grande échelle.
Des entreprises telles que LinkedIn, Roblox et Amazon ont utilisé vLLM pour leur mise à l'échelle.
Cas d'utilisation des plateformes d'IA
Télécommunications
Avec des services d'IA complets, il est possible de rationaliser le secteur des télécommunications, par exemple pour optimiser les performances du réseau et améliorer la qualité des produits et services. Il en résulte une meilleure qualité de service, des améliorations audio et visuelles, ainsi qu'une moindre perte de clientèle.
Santé
Une plateforme d'IA robuste peut apporter des avantages déterminants dans les environnements de santé, parmi lesquels des diagnostics plus rapides, des avancées dans la recherche clinique et un accès étendu aux services pour les patients. Tous ces avantages peuvent améliorer l'état des patients en permettant aux médecins et aux autres professionnels de santé de réaliser des diagnostics et des plans de traitement plus précis.
Fabrication
L'automatisation intelligente basée sur l'apprentissage automatique transforme la fabrication tout au long de la chaîne d'approvisionnement. La robotisation industrielle et l'analyse prédictive réduisent les tâches répétitives et permettent de mettre en œuvre des workflows plus efficaces en temps réel.
Nos solutions
Red Hat AI est une plateforme de produits et de services qui permettent aux entreprises d'avancer dans le déploiement de l'IA, qu'elles soient au tout début du processus ou déjà prêtes à évoluer. Cette offre répond aux besoins en matière d'IA prédictive et générative et convient aux cas d'utilisation propres à chaque entreprise.
Red Hat AI donne accès à la solution Red Hat® AI Inference Server pour optimiser l'inférence des modèles dans le cloud hybride et effectuer des déploiements plus rapides et plus rentables. Basé sur vLLM, ce serveur d'inférence optimise l'utilisation des GPU et diminue les délais de réponse.
Red Hat AI Inference Server comprend le référentiel Red Hat AI, une collection de modèles tiers validés et optimisés, qui favorise la flexibilité des modèles et la cohérence entre les équipes. Grâce à ce référentiel de modèles tiers, les entreprises peuvent réduire le délai de mise sur le marché et éliminer les obstacles financiers qui freinent l'adoption de l'IA.
Le blog officiel de Red Hat
Découvrez les dernières informations concernant notre écosystème de clients, partenaires et communautés.