-
Produits et documentation Red Hat AI
Plateforme de produits et de services pour le développement et le déploiement de l'IA dans le cloud hybride.
Red Hat AI Inference Server
Optimisez les performances des modèles avec un vLLM pour des inférences rapides et rentables à grande échelle.
Red Hat Enterprise Linux AI
Développez, testez et exécutez des modèles d'IA générative pour alimenter les applications d'entreprise.
Red Hat OpenShift AI
Assemblez et déployez des modèles et applications basés sur l'IA à grande échelle dans des environnements hybrides.
-
Ressources Bases
-
Partenaires pour l'IA

Red Hat AI
Red Hat AI
Créez une IA adaptée à votre entreprise
Exploitez l'IA avec les ressources dont vous disposez, les données qui vous appartiennent et la liberté que vous recherchez.
Les produits de la gamme Red Hat® AI sont conçus pour vous aider à créer et exploiter des solutions d'IA parfaitement adaptées au fonctionnement de votre entreprise, des tout premiers essais à la mise en production.



Profitez d'une IA flexible qui s'adapte aux entreprises
Pour assurer la cohérence dans l'ensemble du cloud hybride, vous avez besoin d'une plateforme qui vous permet de déployer l'IA là où vos données sont stockées.
La gamme Red Hat AI donne aux entreprises le contrôle des capacités d'IA prédictive et générative, que ce soit dans le cloud, sur site ou à la périphérie du réseau.
L'ensemble de solutions Red Hat AI préserve la flexibilité, tout en offrant une inférence rapide et évolutive avec le modèle et l'accélérateur de votre choix.
Produits inclus dans l'offre Red Hat AI :
Red Hat® AI Inference Server optimise l'inférence des modèles dans le cloud hybride pour des déploiements de modèles plus rapides et rentables.
Optimisée par le vLLM, cette solution inclut l'accès à des modèles tiers validés et optimisés sur Hugging Face. Elle comprend également des outils de compression de LLM.
Red Hat Enterprise Linux® AI est une plateforme pour l'entraînement et l'inférence des grands modèles de langage, en vue d'alimenter les applications d'entreprise.
Elle inclut des outils InstructLab de personnalisation des modèles ainsi que des accélérateurs matériels intégrés.
+ Red Hat AI Inference Server
Red Hat OpenShift® AI s'appuie sur les fonctionnalités de Red Hat OpenShift pour fournir une plateforme de gestion du cycle de vie des modèles d'IA prédictive et générative à grande échelle.
Grâce à des fonctionnalités MLOps et LLMOps intégrées, la solution offre une gestion complète du cycle de vie avec la distribution de l'entraînement, du réglage, de l'inférence et de la surveillance des applications d'IA dans des environnements de cloud hybride.
+ Red Hat AI Inference Server
+ Red Hat Enterprise Linux AI



Performances validées pour des avantages concrets
Red Hat AI fournit l'accès à un ensemble de modèles tiers validés et prêts à l'emploi qui s'exécutent en toute efficacité sur le vLLM au sein de notre plateforme.
Utilisez les modèles Red Hat tiers validés pour tester les performances de modèles, optimiser l'inférence et obtenir des conseils afin de réduire la complexité et d'accélérer l'adoption de l'IA.
Personnalisation des LLM en local avec InstructLab
Notre projet communautaire InstructLab permet aux équipes de développement de faire plus facilement des tests avec les modèles Granite d'IBM, quel que soit leur niveau d'expérience en matière d'apprentissage automatique (AA).
Il s'agit d'un excellent point de départ pour réaliser des tests avec un modèle d'IA ou procéder au réglage fin de modèles de base sur du matériel local.
Avec ce projet, vous pouvez essayer des modèles à moindre coût et sans mobiliser trop de ressources avant de déployer l'IA dans votre entreprise.
Multipliez les possibilités avec tous nos partenaires pour l'IA
Pour exploiter tout le potentiel de l'IA, associez nos solutions aux technologies de nos nombreux partenaires qui s'efforcent d'obtenir une certification de compatibilité.
Modèle de solution
Applications d'IA avec Red Hat et NVIDIA AI Enterprise
Créer une application RAG
Red Hat OpenShift AI est une plateforme qui sert à réaliser des projets de science des données et à servir des applications basées sur l'IA. Vous pouvez intégrer tous les outils dont vous avez besoin pour prendre en charge la génération augmentée de récupération (RAG), un moyen d'obtenir des réponses d'une IA basées sur vos propres documents de référence. L'association d'OpenShift AI à NVIDIA AI Enterprise vous permet d'utiliser des grands modèles de langage (LLM) afin de trouver le modèle optimal pour votre application.
Concevoir un pipeline pour les documents
Pour tirer parti de la RAG, vous devez, dans un premier temps, ajouter vos documents dans une base de données vectorielle. Dans notre exemple d'application, nous intégrons un ensemble de documents relatifs à des produits dans une base de données Redis. Puisque ces documents changent fréquemment, nous avons créé un pipeline pour ce processus que nous exécuterons régulièrement afin de nous assurer que l'IA dispose toujours des dernières versions des documents.
Parcourir le catalogue de LLM
NVIDIA AI Enterprise vous donne accès à un catalogue varié de LLM. Vous pouvez ainsi tester plusieurs modèles et sélectionner celui qui vous offre les meilleurs résultats. Les modèles sont hébergés dans le catalogue d'API de NVIDIA. Une fois que vous avez configuré un token API, vous pouvez déployer un modèle directement à partir d'OpenShift AI, en utilisant la plateforme de service de modèles NVIDIA NIM.
Choisir le modèle le plus adapté
Lorsque vous testez différents LLM, vos utilisateurs peuvent noter chaque réponse générée. Vous avez la possibilité de configurer un tableau de bord de surveillance Grafana pour comparer les notes ainsi que la latence et le temps de réponse pour chaque modèle. Ensuite, vous pouvez utiliser ces données pour choisir le meilleur LLM à utiliser en production.
Découvrez comment nos clients utilisent Red Hat AI
Ortec Finance accélère sa croissance et la mise sur le marché
Ortec Finance, fournisseur mondial de technologies et solutions pour la gestion des risques et des rendements, distribue des modèles d'AA sur Microsoft Azure Red Hat OpenShift et adopte les produits de la gamme Red Hat AI.
DenizBank donne plus de moyens à ses data scientists
DenizBank développe des modèles d'IA pour faciliter l'attribution de prêts et la lutte contre la fraude. Avec Red Hat AI, ses data scientists ont gagné en autonomie en matière de gestion des données.
Posez des bases fiables
Dans le monde entier, des entreprises utilisent notre gamme variée de solutions (infrastructures de cloud hybride, services d'applications, développement d'applications cloud-native et automatisation) pour distribuer des services informatiques sur toutes les infrastructures de manière rapide et économique.
Red Hat Enterprise Linux
Pour faciliter les déploiements d'applications sur site, à la périphérie du réseau et jusque dans le cloud, dans un environnement d'exploitation flexible
Red Hat OpenShift
Pour créer et déployer des applications à grande échelle tout en modernisant les anciennes
Red Hat Ansible
Automation Platform
Automation Platform
Pour créer, gérer et faire évoluer de façon dynamique les processus automatisés dans l'ensemble de l'entreprise
Red Hat AI
Pour personnaliser des modèles à taille réduite avec des données pertinentes pour l'entreprise, et pour développer et déployer des solutions d'IA dans des environnements de cloud hybride

