-
Produits et documentation Red Hat AI
Plateforme de produits et de services pour le développement et le déploiement de l'IA dans le cloud hybride.
Red Hat AI Inference Server
Optimisation des performances des modèles avec le vLLM pour des inférences rapides et rentables à grande échelle.
Red Hat Enterprise Linux AI
Développement, test et exécution de modèles d'IA générative pour alimenter les applications d'entreprise.
Red Hat OpenShift AI
Assemblage et déploiement de modèles et d'applications basés sur l'IA à grande échelle dans des environnements hybrides.
Services cloud
Red Hat AI InstructLab on IBM Cloud
Solution évolutive et rentable qui permet de personnaliser des modèles d'IA dans le cloud.
-
Se former Notions de base
Ressources techniques
-
Partenaires pour l'IA
Red Hat Enterprise Linux AI
Red Hat Enterprise Linux® AI est une plateforme conçue pour l'exécution de grands modèles de langage sur des serveurs individuels. Elle inclut Red Hat AI Inference Server, qui optimise le débit et réduit la latence pour assurer des opérations d'inférence rapides et rentables dans le cloud hybride.
Présentation
Red Hat Enterprise Linux AI rassemble :
- Red Hat AI Inference Server, qui assure un déploiement de modèles rapide et cohérent dans divers environnements de cloud hybride grâce à une grande compatibilité matérielle
- Une image de démarrage de Red Hat Enterprise Linux, qui comprend des bibliothèques d'IA fréquemment utilisées, telles que PyTorch, ainsi qu'un modèle d'inférence optimisé pour le matériel NVIDIA, Intel et AMD
- Un service d'assistance technique de niveau professionnel ainsi qu'une protection juridique dans le cadre du programme d'assurance Open Source
Inférence rapide et flexible
Les entreprises qui souhaitent mettre en œuvre des applications d'IA générative disposent de deux options : adapter leur stratégie à un produit préconfiguré ou développer une solution personnalisée alignée sur leurs objectifs métier.
Basée sur des technologies Open Source, la plateforme Red Hat Enterprise Linux AI fournit une infrastructure sécurisée et fiable pour l'exécution de tous les modèles, avec tout type de matériel et d'accélérateur dans des environnements de cloud hybride. Elle inclut Red Hat AI Inference Server, une appliance immuable spécialement conçue pour l'inférence. Cette combinaison de système d'exploitation et de serveur d'inférence d'IA en fait une solution prête à l'emploi pour le déploiement de modèles. L'environnement d'exécution de vLLM et l'outil LLM Compressor intégrés assurent en outre une optimisation du débit et une réduction de la latence, pour un déploiement de modèles rapide et rentable.
Fonctions et avantages
Grands modèles de langage pour les entreprises
Ajustez des modèles plus petits et ciblés avec vos propres données grâce à des méthodes comme la génération augmentée de récupération.
Efficacité améliorée
Optimisé par vLLM, Red Hat AI Inference Server améliore l'efficacité sans nuire aux performances.
Évolutivité cloud-native
Le mode image pour Red Hat Enterprise Linux vous permet de gérer votre plateforme d'IA comme image de conteneur, pour une approche rationalisée de la mise à l'échelle.
L'IA à votre service, selon vos conditions
IA générative
Produisez des contenus, comme du texte et du code logiciel.
La gamme Red Hat AI vous permet d'exécuter plus rapidement les modèles d'IA générative de votre choix, en utilisant moins de ressources et en réduisant les coûts d'inférence.
IA prédictive
Mettez en relation des schémas et prévoyez des résultats futurs.
Grâce à la gamme Red Hat AI, les entreprises peuvent développer, entraîner, surveiller et mettre à disposition des modèles prédictifs, tout en assurant la cohérence dans le cloud hybride.
Mise en œuvre de l'IA
Créez des systèmes qui prennent en charge la maintenance et le déploiement de l'IA à grande échelle.
Grâce à la gamme Red Hat AI, gérez et surveillez le cycle de vie des applications basées sur l'IA, tout en économisant des ressources et en garantissant la conformité avec les réglementations en matière de confidentialité.
IA agentique
Créez des workflows capables de réaliser des tâches complexes avec une supervision limitée.
La gamme Red Hat AI propose une approche flexible et une base solide pour concevoir, gérer et déployer des workflows d'IA agentique dans vos applications existantes.
Déployez votre solution avec l'aide de nos partenaires
L'entraînement des modèles d'IA nécessite du matériel optimisé ainsi que de puissantes capacités de calcul. Tirez le meilleur parti de la plateforme Red Hat Enterprise Linux AI en l'associant à d'autres produits et services.
Témoignages client du Red Hat Summit et d'AnsibleFest 2025 en lien avec l'IA
Avec un accès aux données à l'échelle de l'entreprise, Turkish Airlines a pu déployer des systèmes deux fois plus vite.
La JCCM a amélioré les processus d'évaluation environnementale de la région grâce à l'IA.
DenizBank a fait passer le délai de mise sur le marché de plusieurs jours à quelques minutes seulement.
Hitachi a mis en œuvre l'IA dans toutes ses activités avec Red Hat OpenShift AI.
Foire aux questions
Quelle est la différence entre Red Hat Enterprise Linux AI et Red Hat Enterprise Linux ?
Red Hat Enterprise Linux AI est une plateforme de modèle de fondation conçue pour l'exécution des LLM sur des serveurs individuels. Cette solution inclut Red Hat AI Inference Server, qui optimise le débit et réduit la latence pour assurer des opérations d'inférence rapides et rentables dans le cloud hybride, avec à la clé une diminution des coûts de calcul.
Red Hat Enterprise Linux est une distribution Linux Open Source développée par Red Hat pour le marché commercial. Elle fournit une base stable et flexible pour prendre en charge l'innovation dans le cloud hybride.
La plateforme Red Hat Enterprise Linux AI est fournie en tant qu'image de démarrage de Red Hat Enterprise Linux qui inclut des bibliothèques d'IA et des modèles Granite.
Faut-il acheter Red Hat Enterprise Linux pour utiliser Red Hat Enterprise Linux AI ?
Non, une licence Red Hat Enterprise Linux AI suffit et inclut tous les composants nécessaires.
Que contient la solution Red Hat Enterprise Linux AI ?
Red Hat Enterprise Linux AI inclut une image de démarrage d'une image de conteneur de Red Hat Enterprise Linux qui comprend les composants suivants :
- Red Hat AI Inference Server
- Modèles Granite Open Source
- Bibliothèques PyTorch et d'environnements d'exécution
- Pilotes pour accélérateurs (NVIDIA, Intel, AMD)
Quelle est la différence entre Red Hat Enterprise Linux AI et Red Hat OpenShift AI ?
Red Hat Enterprise Linux AI fournit des grands modèles de langage prêts à l'emploi sur un serveur individuel. Cette solution inclut Red Hat AI Inference Server, une appliance immuable spécialement conçue pour l'inférence. En combinant un système d'exploitation et une application, Red Hat Enterprise Linux AI simplifie les opérations de déploiement pour l'inférence d'IA dans le cloud hybride en optimisant la latence et en réduisant les coûts de calcul.
Red Hat OpenShift® AI fournit tous les outils nécessaires pour aider les clients à créer des applications basées sur l'IA à grande échelle. Red Hat OpenShift AI offre une plateforme MLOps complète et intégrée pour gérer le cycle de vie des modèles et ainsi garantir la prise en charge du calcul distribué, des workflows de collaboration, de la surveillance et des applications de cloud hybride.
Red Hat OpenShift AI inclut l'accès à Red Hat Enterprise Linux AI pour que les équipes puissent utiliser les mêmes modèles et outils d'alignement au sein de leur architecture OpenShift AI, et profiter de fonctionnalités MLOps d'entreprise supplémentaires.
Quel est le prix de la solution Red Hat Enterprise Linux AI ?
Le prix de la licence Red Hat Enterprise Linux AI est fixé en fonction du nombre d'accélérateurs.
Autres ressources sur l'IA
4 critères à prendre en compte pour choisir un modèle d'IA
Des modèles Open Source pour innover efficacement avec l'IA
4 bonnes raisons d'utiliser de petits modèles de langage Open Source
Unlock generative AI innovation with Red Hat AI (webinar)
Contactez notre équipe commerciale
Parlez à un représentant Red Hat
Contactez notre équipe commerciale à l'aide du formulaire ci-dessous pour obtenir des informations sur la tarification de Red Hat Enterprise Linux AI.
Pour en savoir plus sur nos partenariats, consultez la page du catalogue.