Le Models-as-a-Service, qu'est-ce que c'est ?

Copier l'URL

Le Models-as-a-Service (MaaS) est une approche qui consiste à fournir les modèles d'IA sous la forme de ressources mutualisées. Elle permet aux utilisateurs d'une même entreprise d'y accéder à la demande. Elle fournit une base d'IA prête à l'emploi, sous la forme de points de terminaison d'interface d'API, qui encourage l'utilisation de solutions d'IA privées et plus rapides à grande échelle. 

Regarder notre webinar sur le MaaS

Beaucoup d'entreprises souhaitent tirer parti de l'IA, mais l'exploitation de modèles privés représente un obstacle pour nombre d'entre elles. Les systèmes préentraînés, disponibles sur des plateformes publiques comme Hugging Face, sont de plus en plus accessibles. De plus, avec l'équipement adapté, notamment des processeurs graphiques (GPU), la création de modèles personnalisés semble parfaitement possible. Malgré tout, un problème subsiste : une fois le modèle prêt, qui va pouvoir l'utiliser ? Et surtout, qui pourra le mettre à l'échelle ? 

Pour faire évoluer un modèle d'IA privé, il faut que plusieurs utilisateurs et applications puissent y accéder en simultané. Sinon, il ne sera exploitable que par son créateur, ce qui n'est pas efficace. C'est là que l'approche MaaS intervient. 

Le Models-as-a-Service permet à l'ensemble des équipes et des applications d'une entreprise d'accéder à un modèle partagé en privé, sans sacrifier le contrôle sur les données. 

Les entreprises qui adoptent l'IA démarrent souvent avec des outils et interfaces simples à utiliser. Toutefois, lorsque le nombre d'utilisateurs augmente, le nombre de modèles aussi, et les priorités changent. Des modèles de différents types viennent s'ajouter aux premiers, notamment pour le langage, la vision et l'audio, et la plupart existent en plusieurs versions, pour divers cas d'utilisation.

De ce fait, l'approche « artisanale » (100 % manuelle) de départ se mue en déploiement « industriel » qui donne la priorité à l'efficacité et à la cohérence.

Le but de l'approche Models-as-a-Service est de permettre une gestion fiable et évolutive de ses modèles.

Il n'est pas nécessaire de faire appel à un fournisseur d'IA public pour explorer les concepts d'IA comme la génération augmentée de récupération (RAG), l'IA agentique et les assistants de codage. Les modèles privés donnent accès aux mêmes outils, sans être forcément plus difficiles à utiliser.

Le MaaS vise à favoriser l'utilisation des grands modèles de langage (LLM) disponibles au grand public, comme Mistral, Llama, DeepSeek, etc. De plus, il ne se limite pas aux modèles de fondation préentraînés. Le MaaS s'applique également aux modèles ajustés pour les cas d'usage spécifiques, à ceux qui ont été créés à partir de zéro, ainsi qu'aux modèles d'IA prédictive, le tout sur une même plateforme entièrement prise en charge. 

Dans une mise en œuvre classique du MaaS, une équipe d'ingénierie rend des modèles disponibles aux clients internes (comme les équipes de développement et les utilisateurs métier) via des points de terminaison d'API. En règle générale, les environnements MaaS reposent sur des plateformes d'IA basées dans le cloud hybride, avec des passerelles d'API pour simplifier l'intégration auprès des équipes et dans l'environnement d'exploitation. Parmi les composants clés du MaaS, figurent les modèles, une plateforme d'IA évolutive, un système d'orchestration de l'IA et un outil de gestion des API. Grâce à ces éléments mobiles, l'approche Models-as-a-Service contribue à l'évolutivité des stratégies d'IA. 

Regarder une démonstration de l'approche MaaS 

4 principes clés à prendre en compte pour mettre en œuvre des technologies d'IA

Une solution MaaS bien pensée simplifie l'intégration de l'IA. Elle permet de gagner du temps et d'économiser de l'argent, mais aussi de garder le contrôle sur la stratégie d'IA. Une bonne approche MaaS se définit par les qualités suivantes : 

Accessible et évolutive. Souvent, les entreprises créent des IA privées pour garder le contrôle de leur stratégie. Cependant, si la solution est difficile à utiliser, le taux d'adoption restera faible, voire nul. Pour qu'une IA privée fonctionne, elle doit être aussi facile à utiliser que les services grand public (OpenAI, OpenRouter, Gemini, etc.). Pour assurer son déploiement à l'échelle de l'entreprise, la stratégie MaaS doit rester accessible aux personnes qui ne sont pas expertes en IA. Elle doit également s'intégrer aux tâches quotidiennes et s'étendre à l'ensemble des processus d'exploitation.

Traçable et ajustable. Il est essentiel de savoir qui utilise les modèles proposés selon l'approche Models-as-a-Service, à quelle fréquence et pourquoi. Ce suivi rend possible la création de rapports sur l'utilisation ainsi que la facturation basée sur l'utilisation réelle. Sans suivi de l'utilisation, difficile de gérer les coûts, la capacité et l'équité entre les équipes. 

Transparente et sécurisée. Afin de tirer pleinement parti d'un modèle d'IA privé, il faut des données propres à l'entreprise, mais aussi des règles strictes concernant leurs déplacements et destinations. L'approche MaaS permet de s'approprier un modèle et de garder un contrôle total sur les données. Il vaut mieux éviter les modèles de type « boîte noire », qui ne sont pas transparents. Un modèle d'IA explicable et traçable est plus facile à comprendre et optimiser et permet d'assurer le respect des meilleures pratiques en matière d'éthique.

En savoir plus sur l'IA pour les entreprises

Le Large Language Models-as-a-Service (LLMaaS) est un type de MaaS axé sur les possibilités offertes par les LLM, comme le traitement du langage complexe.  

Les LLM sont des modèles d'apprentissage profond capables de traiter de grands volumes de données pour comprendre plusieurs langues et communiquer. Ils sont utilisés dans le cadre de l'IA générative et servent souvent de base pour créer des dialogueurs (ou « chatbots »). Ils interviennent également dans la plupart des cas d'utilisation de l'IA aujourd'hui, comme la RAG, l'IA agentique et les assistants de codage. 

Contrairement à l'approche LLMaaS, le MaaS n'est pas lié à une technologie particulière. Il est capable de s'adapter aux modèles émergents Cette flexibilité assure la stabilité de la mise à disposition des modèles et des fonctions d'accès, même lorsqu'ils évoluent. 

Découvrir d'autres cas d'utilisation de l'IA générative 

Avec le MaaS, les entreprises gardent le contrôle de leurs ressources. Cette approche aide les équipes qui ne possèdent pas le budget ou les compétences nécessaires pour créer, entraîner et distribuer leurs propres modèles d'IA comme elles le souhaiteraient.

La gestion des infrastructures et des GPU peut s'avérer coûteuse. Il est toutefois possible d'éviter la complexité des services d'IA fragmentés et de maintenir les coûts d'infrastructure sous un certain seuil en devenant le fournisseur de sa propre IA privée.

Voici quelques-uns des avantages du MaaS :

  • Réduction du délai de rentabilisation. Le Maas libère les équipes des tâches de gestion de l'infrastructure. Elles peuvent alors se consacrer à la création des applications et à la résolution des problèmes métier, ce qui accélère les processus de déploiement et stimule l'innovation.
  • Gains d'efficacité et réduction des coûts. Avec une infrastructure d'IA centralisée, l'entreprise peut travailler à partir d'une source unique au lieu de faire appel à plusieurs services d'IA différents. Cette approche évite les efforts redondants, les dépenses inutiles et la désorganisation des ressources.
  • Amélioration de la gestion du temps. La gestion des GPU implique l'intervention de professionnels formés et compétents, mais aussi d'y consacrer un budget. Avec le MaaS, l'équipe chargée de l'IA peut se concentrer sur la gestion et la distribution des modèles, plutôt que sur des tâches chronophages et répétitives.
  • Confidentialité et sécurité. Les entreprises qui deviennent leur propre fournisseur d'IA privée peuvent héberger leurs propres modèles pour éviter d'avoir recours à une infrastructure disponible publiquement. Si les données ne sont pas exposées à des tiers, il est plus simple de les protéger et de respecter les politiques de sécurité existantes en matière de gouvernance. 

Vous avez le choix entre utiliser la solution MaaS prête à l'emploi d'un fournisseur et créer la vôtre. En effet, vous pouvez former une équipe pour développer une solution d'IA interne à l'usage de votre entreprise. 

Aussi importante soit-elle, la personnalisation du modèle n'est que la première étape du processus. Voici d'autres éléments à considérer avant de se lancer : 

  • Processus de collecte de données : comment s'assurer que les données utilisées pour l'entraînement sont de bonne qualité ? Comment protéger les données privées ?
  • Gestion des ressources : qui sera responsable de la création et de la gestion de la solution MaaS, ainsi que des GPU ?
  • Fiabilité de l'infrastructure : l'infrastructure existante est-elle suffisamment fiable pour accueillir un nouveau modèle d'IA ? L'entreprise dispose-t-elle des ressources nécessaires à l'exploitation du modèle une fois qu'il sera créé ? 

En répondant à ces questions en amont, les entreprises peuvent établir une base solide plus favorable à la réussite de leur projet. 

Accélérer la génération de valeur de l'IA avec l'approche MaaS

Notre plateforme de produits d'IA Red Hat® AI repose sur des solutions que nos clients utilisent déjà en toute confiance. Elle fournit les avantages suivant :

  • Accélération de l'adoption de l'IA et de l'innovation
  • Simplification de la distribution des solutions d'IA
  • Déploiement dans le cloud hybride

En savoir plus sur Red Hat AI 

 

La solution Red Hat OpenShift® AI est incluse dans Red Hat AI. Elle fournit une plateforme d'IA flexible et rentable qui prend en charge l'approche MaaS dans le cloud, à la périphérie du réseau ou sur site. 

Voici les avantages de Red Hat OpenShift AI :

  • Optimisation de la collaboration entre les équipes avec des workflows rationalisés pour l'ingestion des données, l'observabilité, ainsi que l'entraînement et la mise à disposition des modèles
  • Renforcement de la sécurité avec une authentification intégrée et un contrôle d'accès basé sur les rôles
  • Protection des données privées lorsque les modèles se trouvent dans des environnements air gap et déconnectés
  • Couverture de l'ensemble de l'entreprise, dans le cloud ou sur site, avec des passerelles d'API flexibles
  • Réduction des biais et des dérives des modèles avec une gouvernance complète et des mécanismes de contrôle de l'IA.

Découvrir Red Hat OpenShift AI 

Ressource

Se lancer avec l'IA en entreprise : guide pour les débutants

Consultez ce guide pour les débutants afin de savoir comment les solutions Red Hat OpenShift AI et Red Hat Enterprise Linux AI peuvent accélérer votre parcours d'adoption de l'IA.

Déployez l'IA avec Red Hat : bénéficiez de notre expertise, de nos formations et de notre assistance

Découvrez notre gamme unique de solutions d'IA. Red Hat AI peut vous aider à atteindre vos objectifs métier et informatiques grâce à l'intelligence artificielle.

En savoir plus

RAG et réglage fin

La génération augmentée de récupération (RAG) et le réglage fin permettent d'améliorer les grands modèles de langage (LLM). Avec la RAG, le modèle n'est pas altéré, tandis que le réglage fin nécessite d'en ajuster les paramètres.

Les petits modèles de langage, qu'est-ce que c'est ?

Version réduite d'un grand modèle de langage (LLM), le petit modèle de langage (SLM) repose sur des connaissances plus spécialisées et offre aux équipes une personnalisation plus rapide ainsi qu'une efficacité d'exécution accrue.

Les modèles Granite, qu'est-ce que c'est ?

Les modèles Granite d'IBM correspondent à de grands modèles de langage créés pour les applications d'entreprise. Ils peuvent prendre en charge les cas d'utilisation de l'intelligence artificielle générative qui reposent sur un langage spécifique et du code.

IA/ML : ressources recommandées

Articles associés