IA en production dans les clouds privés et hybrides
Développez, entraînez et déployez des modèles et applications d'IA
Red Hat® OpenShift® AI est une plateforme MLOps grâce à laquelle vous pouvez développer, entraîner et déployer des modèles et applications d'IA à grande échelle dans des environnements de cloud privé et hybride. OpenShift AI permet aux entreprises de déployer efficacement un ensemble intégré d'outils courants tiers et Open Source pour la modélisation d'IA générative, d'IA prédictive et d'apprentissage automatique (AA). Les entreprises qui l'adoptent bénéficient d'outils et d'une plateforme Open Source collaboratifs pour créer des modèles expérimentaux, les rendre compatibles avec les conteneurs et les mettre à disposition de manière cohérente en production, dans le cloud public ou privé, sur site ou à la périphérie du réseau.
Solution clé de Red Hat AI, OpenShift AI fournit aux équipes d'exploitation et d'ingénierie de plateforme un environnement évolutif, sécurisé et simple à gérer. Les équipes de science des données et d'ingénierie de l'IA, quant à elles, ont accès à une plateforme complète et unifiée pour développer et déployer des solutions d'IA à grande échelle.
Puisqu'OpenShift AI prend en charge les modèles de fondation d'IA générative, vous pouvez utiliser vos données privées pour le réglage fin et la mise à disposition. Vous pouvez distribuer les charges de travail sur des clusters Red Hat OpenShift, indépendamment de leur emplacement. Intégrée à la solution, la plateforme vient compléter Red Hat OpenShift. Elle simplifie l'accélération du matériel d'IA et prend en charge l'infrastructure matérielle basée sur les processeurs et les processeurs graphiques (GPU), notamment les GPU NVIDIA ou AMD et les XPU Intel, sur site comme dans le cloud souverain ou public.
Tableau 1 : fonctions et avantages de Red Hat OpenShift AI
Principaux avantages
Simplifiez et augmentez l'adoption de l'IA dans votre entreprise et gagnez en flexibilité dans vos projets d'IA.
Harmonisez votre stratégie d'IA/AA grâce à une expérience utilisateur cohérente qui favorise une collaboration efficace entre vos équipes DevOps, d'ingénierie de l'IA, de science des données et d'ingénierie des données.
Offrez la flexibilité et la cohérence nécessaires pour créer, déployer et gérer des systèmes d'IA à grande échelle, sur tous les équipements et dans tous les environnements de cloud hybride, en gérant les contraintes liées aux données, à la confidentialité, à la sécurité et aux coûts.
Fonctions | Avantages |
Développement et personnalisation de modèles | Une interface JupyterLab interactive qui offre des bibliothèques et des workbenches d'IA/AA. Comprend l'ingestion des données, la génération de données synthétiques, les outils InstructLab et la génération augmentée de récupération (RAG) pour la connexion privée des données. |
Entraînement et essai de modèles | Organise les fichiers et artéfacts de développement. Prend en charge les charges de travail distribuées pour un entraînement et un réglage efficaces. Offre un suivi des essais et une allocation simplifiée du matériel. |
Intelligence du GPU et rapidité du matériel
| Un accès en libre-service au GPU est disponible. Permet d'utiliser intelligemment les GPU pour l'ordonnancement des charges de travail, de gérer les quotas, de définir un accès prioritaire et d'améliorer la visibilité sur l'utilisation grâce à des profils matériels. |
Pipelines d'IA | Peut automatiser la distribution et les tests des modèles. Les pipelines sont versionnés, suivis et gérés afin de réduire les erreurs humaines ainsi que de simplifier les workflows de production et d'expérimentation. |
Mise à disposition des modèles optimisée | Met à disposition des modèles issus de différents fournisseurs et frameworks par l'intermédiaire d'un grand modèle de langage virtuel (vLLM), optimisé pour un débit élevé et une faible latence. Le framework d'inférence distribuée llm-d assure la prévisibilité et l'évolutivité des performances, ainsi que l'efficacité de la gestion des ressources. Inclut LLM Compressor et l'accès à des modèles d'IA générative courants, validés et optimisés. |
Interfaces utilisateur pour l'IA agentique et générative | Accélère les workflows d'IA agentique à l'aide de services de plateforme de base. Une couche d'interface de programmation d'application (API) unifiée (MCP et API Llama Stack) et un tableau de bord dédié (AI Hub et Gen AI Studio). |
Observabilité et gouvernance des modèles | Des outils Open Source courants pour la gestion du cycle de vie, les performances et la gestion globale. Suit les indicateurs de mesure, notamment les performances, détecte la dérive de données et les biais, et assure le contrôle de l'IA ou l'inférence. Évalue les grands modèles de langage (LM Eval) et teste leurs performances (GuideLLM) pour faciliter les déploiements d'inférence en conditions réelles. |
Catalogue et registre | Gestion centralisée des modèles d'IA prédictive et générative, des serveurs MCP, ainsi que de leurs métadonnées et artéfacts. |
Magasin de fonctions | Une interface utilisateur qui permet de clarifier et définir avec précision les fonctions de données pour les modèles d'AA, avec à la clé des performances améliorées et des workflows plus rapides. |
Approche Models-as-a-Service | Permet aux équipes d'ingénierie de l'IA d'utiliser des modèles via une passerelle d'API gérée et intégrée, pour bénéficier d'un accès en libre-service et du suivi de l'utilisation (fonction en version préliminaire pour les développeurs). |
Environnements déconnectés et périphérie | Prend en charge les clusters déconnectés et air gap pour garantir la sécurité et la conformité réglementaire. |
Des produits intégrés de nos partenaires viennent s'ajouter aux fonctionnalités d'OpenShift AI :
- Starburst pour un accès distribué dans divers ensembles de données
- HPE pour la traçabilité des données et la gestion des versions
- NVIDIA pour la gestion des performances des GPU
- AMD pour l'accélération du GPU
- Intel pour des opérations d'inférence hautes performances sur le matériel Intel
- Elastic et EDB pour des bases de données vectorielles avec des applications RAG
Étapes suivantes
Obtenez plus d'informations sur Red Hat OpenShift AI et regardez la vidéo de présentation.