Red Hat OpenShift AI
Présentation de Red Hat OpenShift AI
Red Hat® OpenShift® AI est une plateforme flexible et évolutive d'intelligence artificielle (IA) et d'apprentissage automatique (AA) qui permet aux entreprises de créer et distribuer des applications basées sur l'IA à grande échelle dans des environnements de cloud hybride.
Conçue autour de technologies Open Source, cette solution offre aux équipes des fonctionnalités fiables et cohérentes pour faire des expériences, déployer des modèles et distribuer des applications innovantes.
Accélérez la mise en production de vos applications basées sur l'IA
Réunissez vos équipes autour d'une seule et même plateforme d'applications d'IA pour les entreprises qui associe les capacités éprouvées de Red Hat OpenShift AI et de Red Hat OpenShift. Les équipes de science des données, d'ingénierie et de développement d'applications peuvent collaborer au sein d'un espace unique qui favorise la cohérence, la sécurité et l'évolutivité.
En plus de l'accélération du matériel, la solution OpenShift AI permet l'acquisition et la préparation des données ainsi que l'entraînement, la surveillance, l'ajustement et le déploiement des modèles. En association avec les solutions de l'écosystème Open Source de partenaires fournisseurs de matériel et de logiciels, OpenShift AI offre la flexibilité nécessaire pour traiter les cas d'utilisation spécifiques.
La dernière version de Red Hat OpenShift AI offre davantage d'évolutivité, une détection des biais et des dérives, un meilleur accès aux accélérateurs ainsi qu'un registre centralisé pour partager, déployer et suivre des modèles. De cette façon, les entreprises pourront accélérer leur innovation IA/AA et leur cohérence opérationnelle à grande échelle dans les environnements de clouds publics, de datacenters et d'edge computing.
Fonctions et avantages
Réduction du temps consacré à la gestion de l'infrastructure d'IA
Offrez à vos équipes un accès à la demande aux ressources. Elles pourront ainsi se concentrer sur l'exploration des données et la création d'applications qui apportent une réelle valeur ajoutée à votre entreprise. En outre, l'intégration de la sécurité et des cycles de vie des opérateurs leur permet de gagner du temps.
Outils d'IA/AA testés et pris en charge
Nos équipes s'occupent du suivi, de l'intégration, des tests et de la prise en charge des outils courants et du déploiement de modèles d'IA/AA sur notre plateforme d'applications Red Hat OpenShift. La solution OpenShift AI s'appuie sur le projet communautaire Open Data Hub, ainsi que sur d'autres projets Open Source de Red Hat, notamment Kubeflow.
Flexibilité dans le cloud hybride
Disponible sous forme de logiciel autogéré ou de service cloud entièrement géré et exécuté sur OpenShift, Red Hat OpenShift AI offre une plateforme sûre et flexible qui vous permet de développer et déployer vos modèles dans l'environnement de votre choix : sur site, dans le cloud public ou en périphérie du réseau.
Mise en œuvre de nos meilleures pratiques
Grâce à nos services de consulting, vous pouvez installer, configurer et utiliser la solution Red Hat OpenShift AI pour exploiter tout son potentiel.
Que vous souhaitiez réaliser une première expérience avec OpenShift AI ou que vous cherchiez des conseils pour construire votre base MLOps, l'équipe de consulting Red Hat vous apportera son soutien et vous accompagnera tout au long de votre projet.
Red Hat Enterprise Linux AI
Red Hat® Enterprise Linux® AI est une plateforme de modèle de fondation conçue pour développer, tester et exécuter facilement des grands modèles de langage (LLM) de la famille Granite pour les applications d'entreprise.
Partenariats
Tirez le meilleur parti de la plateforme Red Hat OpenShift AI en l'associant à d'autres produits et services.
NVIDIA et Red Hat offrent aux clients une plateforme évolutive qui accélère divers cas d'utilisation de l'IA avec une flexibilité inégalée.
Intel® et Red Hat aident les entreprises à accélérer l'adoption de l'IA et l'exploitation des modèles d'IA/AA.
IBM et Red Hat proposent des innovations Open Source pour accélérer le développement de l'IA, notamment grâce à IBM watsonx.aiTM, un studio d'IA prêt à l'emploi pour les créateurs d'IA.
Starburst Enterprise et Red Hat contribuent à améliorer la précision et la pertinence des informations grâce à une analyse rapide des données sur plusieurs plateformes de données disparates et distribuées.
Exploitez tout le potentiel de l'IA avec IBM watsonx.ai
La plateforme Red Hat OpenShift AI constitue la base Open Source du studio de développement IBM watson.ai, qui offre des capacités d'IA générative supplémentaires.
Les notebooks Jupyter en tant que service comme moyen de collaboration
Fournissez à vos équipes de science des données des images de cluster précréées ou personnalisées issues de notebooks Jupyter pour créer des modèles. La solution Red Hat OpenShift AI suit les changements apportés à de nombreuses technologies Open Source d'IA, notamment Jupyter, TensorFlow et PyTorch.
Red Hat OpenShift AI pour un déploiement évolutif des modèles
Les modèles peuvent être déployés pour être intégrés aux applications intelligentes sur site, dans le cloud public ou en périphérie du réseau. Il est possible de les récréer, de les redéployer et de les surveiller en fonction des modifications apportées au notebook source.
Modèle de solution
Applications d'IA avec Red Hat et NVIDIA AI Enterprise
Créer une application RAG
Red Hat OpenShift AI est une plateforme qui sert à réaliser des projets de science des données et à servir des applications basées sur l'IA. Vous pouvez intégrer tous les outils dont vous avez besoin pour prendre en charge la génération augmentée de récupération (RAG), un moyen d'obtenir des réponses d'une IA basées sur vos propres documents de référence. L'association d'OpenShift AI à NVIDIA AI Enterprise vous permet d'utiliser des grands modèles de langage (LLM) afin de trouver le modèle optimal pour votre application.
Concevoir un pipeline pour les documents
Pour tirer parti de la RAG, vous devez, dans un premier temps, ajouter vos documents dans une base de données vectorielle. Dans notre exemple d'application, nous intégrons un ensemble de documents relatifs à des produits dans une base de données Redis. Puisque ces documents changent fréquemment, nous avons créé un pipeline pour ce processus que nous exécuterons régulièrement afin de nous assurer que l'IA dispose toujours des dernières versions des documents.
Parcourir le catalogue de LLM
NVIDIA AI Enterprise vous donne accès à un catalogue varié de LLM. Vous pouvez ainsi tester plusieurs modèles et sélectionner celui qui vous offre les meilleurs résultats. Les modèles sont hébergés dans le catalogue d'API de NVIDIA. Une fois que vous avez configuré un token API, vous pouvez déployer un modèle directement à partir d'OpenShift AI, en utilisant la plateforme de service de modèles NVIDIA NIM.
Choisir le modèle le plus adapté
Lorsque vous testez différents LLM, vos utilisateurs peuvent noter chaque réponse générée. Vous avez la possibilité de configurer un tableau de bord de surveillance Grafana pour comparer les notes ainsi que la latence et le temps de réponse pour chaque modèle. Ensuite, vous pouvez utiliser ces données pour choisir le meilleur LLM à utiliser en production.
Ressources associées
Vidéo
Démonstration de Red Hat OpenShift AI
Livre numérique
Principaux éléments à prendre en compte pour poser les bases de l'IA générative
Rapport d'analyste
Rapport Omdia : construire une base opérationnelle solide pour l'IA
Liste de contrôle
5 principales façons d'adopter des pratiques MLOps dans l'entreprise
Essayez Red Hat OpenShift AI
Sandbox de développement
Pour les équipes de développement et de science des données qui souhaitent expérimenter la création d'applications basées sur l'IA dans un environnement préconfiguré et flexible.
Essai de 60 jours
Pour les équipes qui sont prêtes à évaluer toutes les capacités d'OpenShift AI. Un cluster Red Hat OpenShift existant est nécessaire.