Red Hat OpenShift AI

Red Hat® OpenShift® AI est une plateforme d'IA qui permet de gérer le cycle de vie des modèles prédictifs et génératifs à grande échelle dans les environnements de cloud hybride. 

Image de l'interface RHOSAI

Présentation de Red Hat OpenShift AI

Conçue autour de technologies Open Source, la plateforme OpenShift AI offre aux équipes des fonctionnalités fiables et cohérentes pour faire des expériences, déployer des modèles et distribuer des applications innovantes.

En plus de l'accélération du matériel, cette plateforme permet l'acquisition et la préparation des données ainsi que l'entraînement, la surveillance, le réglage fin et la mise à disposition des modèles. En association avec les solutions de l'écosystème Open Source de partenaires fournisseurs de matériel et de logiciels, OpenShift AI offre la flexibilité nécessaire pour traiter les cas d'utilisation spécifiques.

Démo de Red Hat OpenShift AI et d'une sélection de ses dernières fonctionnalités (durée de la vidéo : 5 min 59 s)

Illustration de Red Hat AI

Accélérez la mise en production de vos applications basées sur l'IA

Réunissez vos équipes autour d'une seule et même plateforme d'applications d'IA pour les entreprises qui associe les capacités éprouvées de Red Hat OpenShift AI et de Red Hat OpenShift. Les équipes de science des données, d'ingénierie et de développement d'applications peuvent collaborer au sein d'un espace unique qui favorise la cohérence, la sécurité et l'évolutivité.

La dernière version d'OpenShift AI comprend une sélection de modèles tiers optimisés et prêts pour la mise en production, validée pour Red Hat OpenShift AI. Grâce à ce catalogue, les équipes bénéficient d'un meilleur contrôle sur l'accessibilité et la visibilité des modèles, ce qui les aide à répondre aux exigences de sécurité et à celles fixées par les politiques. 

De plus, avec son framework optimisé et basé sur vLLM, OpenShift AI permet de réduire les coûts liés à l'inférence par le biais de la mise à disposition distribuée. Pour simplifier l'exploitation, cette solution inclut des outils avancés d'automatisation des déploiements, ainsi qu'un accès en libre-service à des modèles, outils et ressources.

Réduction du temps consacré à la gestion de l'infrastructure d'IA

Les clients bénéficient d'un accès sur demande à des modèles hautes performances pour simplifier le libre-service, la mise à l'échelle et la distribution. Cette solution optimise les coûts et réduit la complexité pour les équipes de développement qui gardent le contrôle sur l'infrastructure.

Certaines approches sont encore en version préliminaire pour les développeurs, comme le MaaS (Models-as-a-Service), qui fournit les modèles d'IA par le biais de points de terminaison d'API, favorisant ainsi la confidentialité et accélérant la distribution à grande échelle. 

Outils d'IA/AA testés et pris en charge

Chez Red Hat, nous testons, intégrons et prenons en charge les outils d'IA/AA ainsi que la mise à disposition des modèles pour nos clients. La solution OpenShift AI s'appuie sur notre projet communautaire Open Data Hub, ainsi que sur d'autres projets Open Source, notamment Kubeflow

Notre expérience et notre expertise en matière d'Open Source nous permet de fournir une base adaptée à l'IA générative, afin d'offrir davantage de choix à nos clients ainsi qu'une plateforme fiable pour leurs stratégies. 

Flexibilité dans le cloud hybride

Disponible sous forme de logiciel autogéré ou de service cloud entièrement géré et exécuté sur OpenShift, Red Hat OpenShift AI offre une plateforme sûre et flexible qui permet de développer et déployer des modèles dans tout type d'environnement : sur site, dans le cloud public ou à la périphérie du réseau.

Mise en œuvre de nos meilleures pratiques

Les Services Red Hat partagent leur expertise et proposent des formations ainsi qu'une assistance pour surmonter les défis de l'IA à tout moment dans le parcours d'adoption. 

Que ce soit pour créer un prototype de solution d'IA, rationaliser le déploiement d'une plateforme d'IA ou faire progresser des stratégies MLOps, les clients peuvent compter sur l'assistance de l'équipe de consulting Red Hat.

Le framework llm-d guide les équipes de développement

L'offre Red Hat OpenShift AI comprend llm-d, un framework Open Source qui relève les défis de l'inférence d'IA distribuée à grande échelle.

La mise à l'échelle des modèles sur un ensemble de GPU non centralisé renforce le contrôle et l'observabilité. En séparant le pipeline d'inférence en différents services intelligents et modulaires, les entreprises peuvent optimiser les LLM complexes à grande échelle. 

Serveurs MCP pour Red Hat OpenShift AI

Découvrez notre sélection de serveurs MCP compatibles avec Red Hat OpenShift AI mis à disposition par des partenaires technologiques. 

MCP (Model Context Protocol) est un protocole Open Source qui permet une connexion bidirectionnelle et une communication standardisée entre des applications d'IA et des services externes.

Il est désormais possible de tirer parti des serveurs MCP pour intégrer des outils et ressources d'entreprise aux applications d'IA et aux workflows agentiques. 

Optimisez avec vLLM pour des opérations d'inférence rapides et rentables à grande échelle.

Red Hat AI Inference Server fait partie de la plateforme Red Hat AI. Il est disponible à la fois en tant que produit autonome et en tant que composant des solutions Red Hat Enterprise Linux® AI et Red Hat OpenShift® AI.

L'IA à votre service, selon vos conditions

IA générative

IA générative

Produisez des contenus, comme du texte et du code logiciel. 

La gamme Red Hat AI vous permet d'exécuter plus rapidement les modèles d'IA générative de votre choix, en utilisant moins de ressources et en réduisant les coûts d'inférence. 

IA prédictive

IA prédictive

Mettez en relation des schémas et prévoyez des résultats futurs. 

Grâce à la gamme Red Hat AI, les entreprises peuvent développer, entraîner, surveiller et mettre à disposition des modèles prédictifs, tout en assurant la cohérence dans le cloud hybride.

Mise en œuvre de l'IA

Mise en œuvre de l'IA

Créez des systèmes qui prennent en charge la maintenance et le déploiement de l'IA à grande échelle. 

Grâce à la gamme Red Hat AI, gérez et surveillez le cycle de vie des applications basées sur l'IA, tout en économisant des ressources et en garantissant la conformité avec les réglementations en matière de confidentialité. 

IA agentique

IA agentique

Créez des workflows capables de réaliser des tâches complexes avec une supervision limitée. 

La gamme Red Hat AI propose une approche flexible et une base solide pour concevoir, gérer et déployer des workflows d'IA agentique dans vos applications existantes.

Partenariats

Tirez le meilleur parti de la plateforme Red Hat OpenShift AI en l'associant à d'autres produits et services.

Logo NVIDIA

NVIDIA et Red Hat offrent aux clients une plateforme évolutive qui accélère divers cas d'utilisation de l'IA avec une flexibilité inégalée.

Logo Intel

Intel® et Red Hat aident les entreprises à accélérer l'adoption de l'IA et l'exploitation des modèles d'IA/AA.

Logo IBM

IBM et Red Hat proposent des innovations Open Source pour accélérer le développement de l'IA, notamment grâce à IBM watsonx.aiTM, un studio d'IA prêt à l'emploi pour les créateurs de modèles. 

Logo Starburst

Starburst Enterprise et Red Hat contribuent à améliorer la précision et la pertinence des informations grâce à une analyse rapide des données sur plusieurs plateformes de données disparates et distribuées.

Infrastructure Kubernetes évolutive pour les plateformes d'IA

Découvrez comment exploiter les principes et les pratiques MLOps pour créer des applications optimisées par l'IA. 

Collaboration sur des workbenches de modèles

AI Hub et gen AI Studio donnent aux équipes d'ingénierie de plateforme et d'IA la possibilité de collaborer afin d'accélérer la mise en production des modèles. 

AI Hub permet de gérer les LLM en centralisant les charges de travail tout en affichant des informations relatives aux performances issues d'outils tiers de validation des modèles. Gen AI Studio fournit un environnement pratique où les utilisateurs peuvent interagir avec les modèles et créer rapidement des applications d'IA générative dans l'interface de test. Il est possible de vérifier l'adéquation du modèle avant son intégration au cycle de vie grâce au sandbox, qui permet de tester les flux de discussion et de génération augmentée de récupération (RAG).

De plus, les data scientists peuvent accéder à des images de cluster préconçues ou personnalisées pour travailler sur des modèles avec leurs frameworks et environnements de développement intégrés favoris. La solution Red Hat OpenShift AI suit les changements apportés à de nombreuses technologies Open Source d'IA, notamment Jupyter, PyTorch et Kubeflow.

Capture d'écran de l'onglet des applications activées dans la console OpenShift AI

Mécanismes de contrôle de l'IA pour protéger les modèles génératifs (durée de la vidéo : 10 min 02 s)

Red Hat OpenShift AI pour le déploiement de modèles sûrs à grande échelle

Les modèles peuvent être distribués à l'aide d'une version optimisée de vLLM (ou d'autres serveurs de modèles) en vue d'une intégration à des applications basées sur l'IA sur site, dans le cloud public ou à la périphérie du réseau. Il est possible de les récréer, de les redéployer et de les surveiller en fonction des modifications apportées au notebook source.

Les hallucinations et les biais compromettent l'intégrité des modèles et compliquent la mise à l'échelle. Pour assurer l'équité, la sécurité et l'évolutivité, OpenShift AI donne aux spécialistes des données des outils pour vérifier l'alignement entre les résultats des modèles et leurs données d'entraînement. 

Les systèmes de détection des dérives identifient les occurrences où les données utilisées pour les opérations d'inférence varient par rapport aux données d'entraînement d'origine. Les mécanismes de contrôle de l'IA intégrés protègent les entrées et sorties des modèles contre les informations nuisibles, comme les propos abusifs et grossiers, les données à caractère personnel ou d'autres informations sensibles propres à un domaine. 

Modèle de solution

Applications d'IA avec Red Hat et NVIDIA AI Enterprise

Créer une application RAG

Red Hat OpenShift AI est une plateforme qui sert à réaliser des projets de science des données et à servir des applications basées sur l'IA. Vous pouvez intégrer tous les outils dont vous avez besoin pour prendre en charge la génération augmentée de récupération (RAG), un moyen d'obtenir des réponses d'une IA basées sur vos propres documents de référence. L'association d'OpenShift AI à NVIDIA AI Enterprise vous permet d'utiliser des grands modèles de langage (LLM) afin de trouver le modèle optimal pour votre application.

Concevoir un pipeline pour les documents

Pour tirer parti de la RAG, vous devez, dans un premier temps, ajouter vos documents dans une base de données vectorielle. Dans notre exemple d'application, nous intégrons un ensemble de documents relatifs à des produits dans une base de données Redis. Puisque ces documents changent fréquemment, nous avons créé un pipeline pour ce processus que nous exécuterons régulièrement afin de nous assurer que l'IA dispose toujours des dernières versions des documents.

Parcourir le catalogue de LLM

NVIDIA AI Enterprise vous donne accès à un catalogue varié de LLM. Vous pouvez ainsi tester plusieurs modèles et sélectionner celui qui vous offre les meilleurs résultats. Les modèles sont hébergés dans le catalogue d'API de NVIDIA. Une fois que vous avez configuré un token API, vous pouvez déployer un modèle directement à partir d'OpenShift AI, en utilisant la plateforme de service de modèles NVIDIA NIM.

Choisir le modèle le plus adapté

Lorsque vous testez différents LLM, vos utilisateurs peuvent noter chaque réponse générée. Vous avez la possibilité de configurer un tableau de bord de surveillance Grafana pour comparer les notes ainsi que la latence et le temps de réponse pour chaque modèle. Ensuite, vous pouvez utiliser ces données pour choisir le meilleur LLM à utiliser en production.

Icône de téléchargement de fichier PDF

Un diagramme d'architecture montre une application conçue à l'aide de Red Hat OpenShift AI et de NVIDIA AI Enterprise. Parmi les composants figurent OpenShift GitOps pour la connexion à GitHub et la gestion des interactions DevOps, Grafana pour la surveillance, OpenShift AI pour la science des données, Redis comme base de données vectorielle et Quay comme registre d'images. Ceux-ci sont tous reliés aux côtés front-end et back-end de l'application. Ils sont créés sur Red Hat OpenShift AI, avec une intégration à ai.nvidia.com.

Témoignages client du Red Hat Summit et d'AnsibleFest 2025 en lien avec l'IA

Turkish Airlines

Avec un accès aux données à l'échelle de l'entreprise, Turkish Airlines a pu déployer des systèmes deux fois plus vite.

Logo JCCM

La JCCM a amélioré les processus d'évaluation environnementale de la région grâce à l'IA.

DenizBank

DenizBank a fait passer le délai de mise sur le marché de plusieurs jours à quelques minutes seulement.

Logo Hitachi

Hitachi a mis en œuvre l'IA dans toutes ses activités avec Red Hat OpenShift AI.

Essayez Red Hat OpenShift AI

Sandbox de développement

Pour les équipes de développement et de science des données qui souhaitent expérimenter la création d'applications basées sur l'IA dans un environnement préconfiguré et flexible

Essai de 60 jours

Période d'essai gratuite de 60 jours pour les équipes prêtes à évaluer toutes les capacités d'OpenShift AI Un cluster Red Hat OpenShift existant est nécessaire.

Autres ressources sur l'IA

DenizBank donne plus d'autonomie à ses data scientists avec Red Hat OpenShift AI

Open Source : la solution pour une stratégie d'IA efficace

Les équipes de développement de Turkish Airlines utilisent OpenShift AI pour encourager l'expérimentation

5 principales façons d'adopter des pratiques MLOps dans votre entreprise

Contactez notre équipe commerciale

Parlez de Red Hat AI avec un représentant Red Hat