Red Hat AI

Créez une IA adaptée à votre entreprise

Exploitez l'IA avec les ressources dont vous disposez, les données qui vous appartiennent et la liberté que vous recherchez.

Les produits de la gamme Red Hat® AI sont conçus pour vous aider à créer et exploiter des solutions d'IA parfaitement adaptées au fonctionnement de votre entreprise, des tout premiers essais à la mise en production.

Red Hat AI

Profitez d'une IA flexible qui s'adapte aux entreprises

Pour assurer la cohérence dans l'ensemble du cloud hybride, vous avez besoin d'une plateforme qui vous permet de déployer l'IA là où vos données sont stockées.

La gamme Red Hat AI vous donne le contrôle des capacités d'IA prédictive et générative, que ce soit dans le cloud, sur site ou en périphérie du réseau.

Avec Red Hat AI, vous pouvez préserver la flexibilité de votre entreprise tout en facilitant son évolution.

Avantages de Red Hat AI :

  • Accès à des modèles de langage et de code Granite protégés par le programme d'assurance Open Source
  • Réglage de modèles spécifiques de plus petite taille sur la base de vos propres données
  • Optimisation des inférences avec le vLLM

Produits inclus dans Red Hat AI :

Red Hat Enterprise Linux AI

La solution Red Hat Enterprise Linux® AI facilite le déploiement de l'IA pour les clients qui n'ont pas encore déterminé leurs cas d'utilisation métier. Cette plateforme d'IA est conçue pour développer, tester et exécuter des modèles de fondation d'IA générative.
 

En savoir plus sur Red Hat Enterprise Linux AI
 

Fonctions et avantages

  • LLM de la famille Granite d'IBM
  • Réglage fin des modèles en local avec InstructLab
  • Solution économique pour les clients qui ont un accès limité à des processeurs graphiques

Red Hat OpenShift AI

La solution Red Hat OpenShift® AI est conçue pour les clients qui souhaitent mettre à l'échelle leurs applications d'IA. Cette plateforme facilite la gestion du cycle de vie des modèles d'IA prédictive et générative dans les environnements de cloud hybride.
 

En savoir plus sur Red Hat OpenShift AI
 

Fonctions et avantages

  • Fonctionnalités MLOps adaptées aux entreprises
  • LLM Granite d'IBM et outils InstructLab
  • Création et distribution de l'IA à grande échelle avec des accélérateurs matériels et la prise en charge du cloud hybride

Personnalisez les LLM en local avec InstructLab

Notre projet communautaire InstructLab permet aux équipes de développement de faire plus facilement des tests avec les modèles Granite d'IBM, quel que soit leur niveau d'expérience en matière d'apprentissage automatique (AA).

Il s'agit d'un excellent point de départ pour réaliser des tests avec un modèle d'IA ou procéder au réglage fin de modèles de fondation sur du matériel local.

Avec ce projet, vous pouvez essayer des modèles à moindre coût et sans mobiliser trop de ressources avant de déployer l'IA dans votre entreprise.

Multipliez les possibilités avec tous nos partenaires pour l'IA

Pour exploiter tout le potentiel de l'IA, associez nos solutions aux technologies de nos nombreux partenaires qui s'efforcent d'obtenir une certification de compatibilité. 

Logos de partenaires : Lenovo, Intel, NVIDIA, Dell

Modèle de solution

Applications d'IA avec Red Hat et NVIDIA AI Enterprise

Créer une application RAG

Red Hat OpenShift AI est une plateforme qui sert à réaliser des projets de science des données et à servir des applications basées sur l'IA. Vous pouvez intégrer tous les outils dont vous avez besoin pour prendre en charge la génération augmentée de récupération (RAG), un moyen d'obtenir des réponses d'une IA basées sur vos propres documents de référence. L'association d'OpenShift AI à NVIDIA AI Enterprise vous permet d'utiliser des grands modèles de langage (LLM) afin de trouver le modèle optimal pour votre application.

Concevoir un pipeline pour les documents

Pour tirer parti de la RAG, vous devez, dans un premier temps, ajouter vos documents dans une base de données vectorielle. Dans notre exemple d'application, nous intégrons un ensemble de documents relatifs à des produits dans une base de données Redis. Puisque ces documents changent fréquemment, nous avons créé un pipeline pour ce processus que nous exécuterons régulièrement afin de nous assurer que l'IA dispose toujours des dernières versions des documents.

Parcourir le catalogue de LLM

NVIDIA AI Enterprise vous donne accès à un catalogue varié de LLM. Vous pouvez ainsi tester plusieurs modèles et sélectionner celui qui vous offre les meilleurs résultats. Les modèles sont hébergés dans le catalogue d'API de NVIDIA. Une fois que vous avez configuré un token API, vous pouvez déployer un modèle directement à partir d'OpenShift AI, en utilisant la plateforme de service de modèles NVIDIA NIM.

Choisir le modèle le plus adapté

Lorsque vous testez différents LLM, vos utilisateurs peuvent noter chaque réponse générée. Vous avez la possibilité de configurer un tableau de bord de surveillance Grafana pour comparer les notes ainsi que la latence et le temps de réponse pour chaque modèle. Ensuite, vous pouvez utiliser ces données pour choisir le meilleur LLM à utiliser en production.

Icône de téléchargement de fichier PDF

Un diagramme d'architecture montre une application conçue à l'aide de Red Hat OpenShift AI et de NVIDIA AI Enterprise. Parmi les composants figurent OpenShift GitOps pour la connexion à GitHub et la gestion des interactions DevOps, Grafana pour la surveillance, OpenShift AI pour la science des données, Redis comme base de données vectorielle et Quay comme registre d'images. Ceux-ci sont tous reliés aux côtés front-end et back-end de l'application. Ils sont créés sur Red Hat OpenShift AI, avec une intégration à ai.nvidia.com.

Découvrez comment nos clients utilisent Red Hat AI

Photo de mains utilisant une calculatrice

Logo Ortec Finance

Ortec Finance accélère sa croissance et la mise sur le marché

Ortec Finance, fournisseur mondial de technologies et de solutions pour la gestion des risques et des rendements, distribue des modèles d'AA sur Microsoft Azure Red Hat OpenShift et adopte les produits de la gamme Red Hat AI.

Une personne qui regarde un appareil
Phoenix logo

Phoenix Systems améliore son offre de cloud computing

Phoenix Systems collabore avec Red Hat pour offrir aux clients davantage de choix, de transparence et d'innovation en matière d'IA.

Illustration générique présentant un graphique

Logo de DenizBank

DenizBank donne plus de moyens à ses data scientists

DenizBank développe des modèles d'IA pour faciliter l'attribution de prêts et la lutte contre la fraude. Avec Red Hat AI, ses data scientists ont gagné en autonomie en matière de gestion des données.

Consultez d'autres ressources sur l'IA

Guide pour commencer à utiliser l'IA dans l'entreprise

Red Hat Consulting : AI Platform Foundation

Des modèles Open Source pour encourager l'innovation

Services de consulting Red Hat pour l'IA

Contactez notre équipe commerciale

Parlez de Red Hat AI avec un représentant Red Hat