Red Hat AI

Tirez parti de l'IA grâce aux ressources et aux informations dont vous disposez, en bénéficiant de toute la latitude dont vous avez besoin. 

Basée sur des technologies Open Source, l'offre Red Hat® AI est conçue pour vous aider à concevoir et exécuter des solutions d'IA en toute confiance. 

Image de Red Hat AI
Red Hat AI 3
Nouveau

Red Hat AI 3 est disponible

Cette nouvelle version augmente l'efficacité des opérations d'inférence d'IA et réduit les coûts grâce au framework llm-d. Les nouvelles fonctionnalités posent les bases nécessaires au déploiement de workflows d'IA agentique évolutifs grâce à une expérience flexible et unifiée conçue pour répondre aux besoins collaboratifs liés à la création de solutions d’IA prêtes pour la production à grande échelle.

3 informations à connaître sur Red Hat AI 3 (durée de la vidéo : 3 min 18 s)

Vos modèles. Vos données. Vos choix.

Une exploitation optimale des applications d'IA requiert une inférence rapide et rentable. C'est pourquoi la gamme Red Hat AI fournit une plateforme unifiée et flexible, dotée de llm-d, un framework d'inférence distribuée à grande échelle. 

Basé sur le succès de vLLM, llm-d s'appuie sur la valeur éprouvée de Kubernetes et assure un traitement cohérent et efficace, gage de performances prévisibles.

Outre l'efficacité, la transition vers l'IA agentique requiert un framework interopérable pour connecter les modèles, les données et les workflows d'IA dans l'ensemble du cloud hybride.

L'introduction d'une couche d'API unifiée basée sur une pile Llama ouvre la voie au développement d'une gamme étendue de fonctionnalités d'IA. Cette approche implique l'intégration du protocole MCP (Model Context Protocol), qui simplifie le déploiement et l'exploitation de l'IA agentique à grande échelle dans des environnements de production.

2 heures | Mardi 14 octobre à 10h EST

Webinar

What's new and wha's next with Red Hat AI

Your path to enterprise-ready AI

Rejoignez nos experts qui vous présenteront les dernières améliorations apportées à Red Hat AI.

La dernière version de notre offre met l'accent sur les performances, l'inférence prévisible et le développement accéléré d'agents IA. Ces mises à jour vous aideront à relever les défis posés par l'IA, notamment en matière de coûts, de complexité et de contrôle.

Composants de la gamme Red Hat AI :

Logo Red Hat AI Inference Server

Red Hat AI Inference Server optimise l'inférence des modèles dans le cloud hybride pour des déploiements plus rapides et rentables. 

Basé sur vLLM, ce serveur fournit un accès à des modèles tiers optimisés et validés sur Hugging Face. Il inclut en outre des outils de compression de LLM. 

Logo de Red Hat Enterprise Linux AI

Red Hat Enterprise Linux® AI est une plateforme qui assure l'exécution cohérente de grands modèles de langage (LLM) sur des serveurs individuels. 

Elle inclut Red Hat AI Inference Server qui permet une inférence rapide et rentable dans le cloud hybride et tire parti de vLLM pour optimiser le débit et réduire la latence.

Grâce à des fonctions comme le mode image, il est possible de mettre en œuvre des solutions à grande échelle de façon cohérente. Cette plateforme permet également d'appliquer des profils de sécurité identiques à tous les environnements Linux, afin de fédérer vos équipes autour d'un même workflow.

Inclus Red Hat AI Inference Server

Logo de Red Hat OpenShift AI

Basée sur les fonctionnalités de Red Hat OpenShift, la plateforme Red Hat OpenShift® AI permet de gérer le cycle de vie des modèles d'IA prédictive et générative à grande échelle. 

Elle assure la mise en production de projets d'IA et permet aux entreprises de créer, déployer et gérer des modèles et agents d'IA (privée ou souveraine) dans divers environnements de cloud hybride.

Inclus Red Hat AI Inference Server

Inclus Red Hat Enterprise Linux AI

Performances éprouvées pour des résultats concrets

Les solutions Red Hat AI permettent d'accéder à des modèles tiers prêts à l'emploi et validés, capables de s'exécuter efficacement avec vLLM sur notre plateforme.

Utilisez-les pour tester vos performances de modèles, optimiser l'inférence et explorer des pistes de simplification pour accélérer l'adoption de l'IA.

 

L'IA à votre service, selon vos conditions

IA générative

IA générative

Produisez des contenus, comme du texte et du code logiciel. 

La gamme Red Hat AI vous permet d'exécuter plus rapidement les modèles d'IA générative de votre choix, en utilisant moins de ressources et en réduisant les coûts d'inférence. 

IA prédictive

IA prédictive

Mettez en relation des schémas et prévoyez des résultats futurs. 

Grâce à la gamme Red Hat AI, les entreprises peuvent développer, entraîner, surveiller et mettre à disposition des modèles prédictifs, tout en assurant la cohérence dans le cloud hybride.

Mise en œuvre de l'IA

Mise en œuvre de l'IA

Créez des systèmes qui prennent en charge la maintenance et le déploiement de l'IA à grande échelle. 

Grâce à la gamme Red Hat AI, gérez et surveillez le cycle de vie des applications basées sur l'IA, tout en économisant des ressources et en garantissant la conformité avec les réglementations en matière de confidentialité. 

IA agentique

IA agentique

Créez des workflows capables de réaliser des tâches complexes avec une supervision limitée. 

La gamme Red Hat AI propose une approche flexible et une base solide pour concevoir, gérer et déployer des workflows d'IA agentique dans vos applications existantes.

Plus de partenaires pour l'IA. De nouvelles pistes d'innovation.

Nos clients bénéficient à la fois des connaissances de spécialistes et de technologies pour en faire plus avec l'IA. Divers partenaires technologiques s'efforcent d'obtenir une certification de compatibilité avec nos solutions. 

Dell Technologies
Lenovo
Intel
NVIDIA
AMD

Témoignages client du Red Hat Summit et d'AnsibleFest 2025 en lien avec l'IA

Turkish Airlines

Avec un accès aux données à l'échelle de l'entreprise, Turkish Airlines a pu déployer des systèmes deux fois plus vite.

Logo JCCM

La JCCM a amélioré les processus d'évaluation environnementale de la région grâce à l'IA.

DenizBank

DenizBank a fait passer le délai de mise sur le marché de plusieurs jours à quelques minutes seulement.

Logo Hitachi

Hitachi a mis en œuvre l'IA dans toutes ses activités avec Red Hat OpenShift AI.

Modèle de solution

Applications d'IA avec Red Hat et NVIDIA AI Enterprise

Créer une application RAG

Red Hat OpenShift AI est une plateforme qui sert à réaliser des projets de science des données et à servir des applications basées sur l'IA. Vous pouvez intégrer tous les outils dont vous avez besoin pour prendre en charge la génération augmentée de récupération (RAG), un moyen d'obtenir des réponses d'une IA basées sur vos propres documents de référence. L'association d'OpenShift AI à NVIDIA AI Enterprise vous permet d'utiliser des grands modèles de langage (LLM) afin de trouver le modèle optimal pour votre application.

Concevoir un pipeline pour les documents

Pour tirer parti de la RAG, vous devez, dans un premier temps, ajouter vos documents dans une base de données vectorielle. Dans notre exemple d'application, nous intégrons un ensemble de documents relatifs à des produits dans une base de données Redis. Puisque ces documents changent fréquemment, nous avons créé un pipeline pour ce processus que nous exécuterons régulièrement afin de nous assurer que l'IA dispose toujours des dernières versions des documents.

Parcourir le catalogue de LLM

NVIDIA AI Enterprise vous donne accès à un catalogue varié de LLM. Vous pouvez ainsi tester plusieurs modèles et sélectionner celui qui vous offre les meilleurs résultats. Les modèles sont hébergés dans le catalogue d'API de NVIDIA. Une fois que vous avez configuré un token API, vous pouvez déployer un modèle directement à partir d'OpenShift AI, en utilisant la plateforme de service de modèles NVIDIA NIM.

Choisir le modèle le plus adapté

Lorsque vous testez différents LLM, vos utilisateurs peuvent noter chaque réponse générée. Vous avez la possibilité de configurer un tableau de bord de surveillance Grafana pour comparer les notes ainsi que la latence et le temps de réponse pour chaque modèle. Ensuite, vous pouvez utiliser ces données pour choisir le meilleur LLM à utiliser en production.

Icône de téléchargement de fichier PDF

Un diagramme d'architecture montre une application conçue à l'aide de Red Hat OpenShift AI et de NVIDIA AI Enterprise. Parmi les composants figurent OpenShift GitOps pour la connexion à GitHub et la gestion des interactions DevOps, Grafana pour la surveillance, OpenShift AI pour la science des données, Redis comme base de données vectorielle et Quay comme registre d'images. Ceux-ci sont tous reliés aux côtés front-end et back-end de l'application. Ils sont créés sur Red Hat OpenShift AI, avec une intégration à ai.nvidia.com.

Red Hat AI en action

Photo de mains utilisant une calculatrice

Logo Ortec Finance

Ortec Finance accélère sa croissance et réduit le délai de mise sur le marché 

Ortec Finance, fournisseur mondial de technologies et de solutions pour la gestion des risques et des rendements, distribue des modèles d'AA sur Microsoft Azure Red Hat OpenShift et adopte les solutions de la gamme Red Hat AI.

Personne qui regarde un appareil
Phoenix logo

Phoenix Systems améliore son offre de cloud computing

Découvrez comment Phoenix Systems collabore avec Red Hat pour offrir aux clients davantage de choix, de transparence et d'innovation en matière d'IA.

Graphique générique

Logo DenizBank

DenizBank donne plus d'autonomie à ses data scientists

DenizBank développe des modèles d'IA pour la gestion des emprunts de ses clients et la détection des fraudes. Depuis l'adoption de Red Hat AI, ses data scientists ont gagné en autonomie au niveau du contrôle des données.

cercles violets

icône représentant des serveurs empilés

icône RHEL

icône représentant un cube rose près d'un nuage

icône OpenShift

icône représentant un navigateur avec des étincelles symbolisant l'IA

icône OpenShift

icône représentant une roue dentée

icône OpenShift

Posez des bases fiables

Dans le monde entier, des entreprises utilisent notre gamme variée de solutions (infrastructures de cloud hybride, services d'applications, développement d'applications cloud-native et automatisation) pour distribuer des services informatiques sur toutes les infrastructures de manière rapide et économique.

Red Hat Enterprise Linux

Pour faciliter les déploiements d'applications sur site, à la périphérie du réseau et jusque dans le cloud, dans un environnement d'exploitation flexible

En savoir plus

Red Hat OpenShift

Pour créer et déployer des applications à grande échelle tout en modernisant les anciennes

En savoir plus

Red Hat Ansible
Automation Platform

Pour créer, gérer et faire évoluer de façon dynamique les processus automatisés dans l'ensemble de l'entreprise

En savoir plus

Red Hat AI
 

Pour personnaliser des modèles à taille réduite avec des données pertinentes pour l'entreprise, et pour développer et déployer des solutions d'IA dans des environnements de cloud hybride

En savoir plus

Autres ressources sur l'IA

Se lancer avec l'IA en entreprise

Déployer l'IA avec le soutien des services de consulting Red Hat

Des modèles Open Source pour innover efficacement avec l'IA

Red Hat Consulting : AI Platform Foundation

Contactez notre équipe commerciale

Parlez de Red Hat AI avec un représentant Red Hat