Le rythme de l’innovation dans le domaine de l’IA s’accélère. Le lancement de Red Hat AI 3 nous rappelle que la transformation de ce potentiel en réalité pour les entreprises nécessite un écosystème robuste et ouvert, fondé sur le choix et la collaboration. Notre objectif a toujours été de fournir une plateforme cohérente et puissante pour l'IA, qui fonctionne avec tous les modèles, sur tous les accélérateurs et dans le cloud hybride. Aujourd'hui, nous sommes ravis de souligner l'élan de nos partenaires, qui travaillent à nos côtés pour façonner l'avenir de l'IA hybride et ouverte avec les solutions Red Hat.

L'écosystème de partenaires Red Hat constitue le moteur qui fournira les capacités d'IA générative et agentique dont les clients ont besoin pour une adoption étendue sur le marché. Cette approche vise à rassembler l'excellence en matière de matériel, de logiciels et de services afin de créer un ensemble dont la valeur dépasse la somme de ses éléments.

Des inférences rapides, flexibles et efficaces 

Le lancement de Red Hat AI 3 vise à stimuler l'inférence d'IA d'entreprise, à élargir le choix des modèles et à permettre l'utilisation de modèles ouverts pour optimiser les coûts et la flexibilité, afin que les organisations puissent passer de la formation à la pratique. Et les partenaires de Red Hat jouent un rôle crucial dans cette réussite. 

Pour permettre l'inférence d'IA à grande échelle à l'aide de vLLM et de Kubernetes, le projet Open Source llm-d est désormais généralement disponible dans le cadre de Red Hat OpenShift AI 3.0. Il est alimenté par une coalition de fournisseurs de modèles d'IA générative de premier plan, d'accélérateurs d'IA et de plateformes de cloud IA de premier ordre. Ses contributeurs fondateurs incluent CoreWeave, Google Cloud, IBM Research et NVIDIA, avec le soutien supplémentaire de partenaires tels qu'AMD, Cisco, Hugging Face, Intel, Lambda et Mistral AI. Depuis le lancement du projet plus tôt cette année, Microsoft, Oracle et WEKA sont également devenus des membres contributeurs actifs. 

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB « En tant que membre de la communauté llm-d, les solutions NeuralMesh, NeuralMesh Axon et Augmented Memory Grid de WEKA fournissent la base de données adaptative et à hautes performances requise pour l'inférence. Ces solutions permettent d'étendre la mémoire du processeur graphique et de prendre en charge les charges de travail sensibles au cache à grande échelle. Nous sommes fiers de collaborer avec Red Hat et ce puissant écosystème de leaders technologiques pour créer des environnements d'IA ouverts, efficaces et prêts pour la production. Ces environnements aident les clients à faire évoluer leurs activités plus facilement, de la formation à l'inférence. »

Nilesh Patel

Chief Strategy Officer, WEKA

Alors que les grands modèles de langage (LLM) deviennent la base d'un large éventail d'applications d'IA générative, Red Hat lance le Partner Model Validation Guide afin d'autonomiser ses partenaires et d'offrir un plus grand choix aux clients. Ce guide présente un processus standardisé et étape par étape permettant aux partenaires de Red Hat d'évaluer leurs grands modèles de langage en vue de leur inclusion dans le catalogue de modèles d'IA Red Hat OpenShift.

Grâce au Partner Model Validation Guide, les partenaires fournisseurs de modèles peuvent générer les données nécessaires à la validation à l'aide d'une chaîne d'outils Open Source prédéfinie, notamment vLLM pour la mise à disposition, GuideLLM pour l'évaluation des performances et LM Evaluation Harness pour les évaluations de précision. Une fois soumis et validés par notre équipe, ces modèles de partenaires, accompagnés de leurs métriques de performance et de qualité, seront rendus visibles et disponibles pour tous les clients de Red Hat OpenShift AI. Cette initiative enrichit notre catalogue de modèles en offrant aux clients des informations et des conseils plus transparents au niveau des modèles. Elle propose une sélection plus large de modèles Open Source de qualité pour créer leurs applications d'IA, et assure une meilleure visibilité sur le marché à nos partenaires fournisseurs de modèles.

Accélérer les déploiements d'IA agentique

À terme, l'objectif est de lancer les applications d'IA en production là où elles apporteront de la valeur métier. Red Hat AI, en association avec notre écosystème de partenaires, fournit les capacités essentielles pour le développement, le déploiement et la gestion de l'IA agentique. C'est là que nos intégrateurs de systèmes et partenaires de services jouent un rôle crucial. Red Hat collabore avec des leaders internationaux tels qu'Accenture, HCL, Kyndryl, IBM Consulting, Infosys et NTT DATA pour aider ses clients à mettre à l'échelle ces applications et à optimiser l'inférence afin d'exécuter l'IA partout, du centre de données à la périphérie du réseau. 

Avec une base solide et une infrastructure activée, l'attention se porte sur les outils et les modèles qui alimentent les applications intelligentes. Les résultats d'une stratégie d'IA dépendent de l'écosystème de plateformes de données, de bases de données de vecteurs, d'outils de sécurité et d'utilitaires de développement qui la prennent en charge. Le réseau de partenaires de Red Hat est riche et diversifié, fournissant les composants essentiels pour la création de flux de travail d'IA modernes.

Protocole MCP (Model Context Protocol)

Avec le lancement de Red Hat AI 3, nous avons organisé une collection de serveurs MCP. Les ISV peuvent ainsi connecter leurs outils et services directement à Red Hat AI. Des partenaires tels que CyberArk, Dynatrace, Elastic, EnterpriseDB, Palo Alto Networks et d'autres acteurs du secteur collaborent avec Red Hat pour présenter leurs serveurs MCP. Ils aident ainsi leurs clients à créer des applications agentiques élaborées à l'aide d'outils fiables. 

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB « Pour fonctionner, les agents d'IA d'entreprise doivent obtenir le contexte le plus pertinent à partir des données de l'entreprise à grande échelle, en s'appuyant sur un écosystème d'IA ouverte qui offre des outils complets et modulables. Avec notre serveur MCP sur Red Hat OpenShift AI, notre objectif est de permettre aux clients d'intégrer en toute transparence la plateforme d'ingénierie de contexte et la base de données de vecteurs Elasticsearch dans leurs flux de travail d'IA. »

Steve Kearns

General Manager, Search Solutions, Elastic

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB « Red Hat OpenShift AI nous a aidés à renforcer et à améliorer notre MCP. Cette plateforme permet aux clients d'intégrer facilement l'observabilité en temps réel dans leurs flux de travail d'IA. Ensemble, nous aidons les entreprises à accélérer le développement de modèles à l'aide d'informations fiables, à automatiser la détection des anomalies et à garantir la fiabilité, l'évolutivité et la sécurité des applications d'IA dans les environnements hybrides et multicloud. »

Wolfgang Heider

Product Lead Software Delivery, Dynatrace

Llama Stack

La collaboration de Red Hat avec le Llama Stack Open Source de Meta est fondamentale pour l'autonomisation des développeurs avec Red Hat AI 3. En contribuant activement à ce projet open source, Red Hat et ses partenaires aident à améliorer un ensemble complet d'outils standardisés qui révolutionnent le cycle de vie des applications d'IA générative. Les développeurs disposent ainsi d'un environnement attrayant, robuste et adaptable pour accélérer la création et le déploiement de solutions d'IA novatrices, ce qui offre aux partenaires et clients une voie toute tracée vers la production. En simplifiant l'intégration des différents services et outils d'IA, Llama Stack permet aux développeurs de se concentrer sur l'innovation plutôt que sur les problèmes liés à l'infrastructure.

Mettre à l'échelle l'IA dans le cloud hybride

Accélérateurs d'IA  

La variété des options est importante pour couvrir un large éventail de capacités. C'est pourquoi nous avons renforcé notre collaboration avec des partenaires accélérateurs tels qu'AMD, Google Cloud et Intel. 

Nous travaillons avec NVIDIA pour intégrer ses solutions de calcul, de mise en réseau et logicielles d'IA optimisées pour les performances à la solution Red Hat AI, permettant ainsi aux clients de créer, de déployer et de gérer l'IA à grande échelle, et d'optimiser l'infrastructure pour différentes charges de travail. Red Hat et NVIDIA continuent de favoriser l'expansion de l'infrastructure d'IA grâce au soutien de l'infrastructure NVIDIA GB200 NVL72, ciblant l'entraînement d'IA haut de gamme et l'inférence à grande échelle. En outre, les GPU NVIDIA RTX PRO(R) 6000 Blackwell Server Edition prennent en charge Red Hat AI, Red Hat OpenShift et Red Hat OpenShift Virtualization, accélérant ainsi un large éventail de charges de travail d'entreprise, y compris l'IA d'entreprise et les graphiques VDI, avec des GPU et des serveurs refroidis par air. 

Notre collaboration avec AMD alimente une IA générative plus efficace en activant le portefeuille d'AMD de processeurs basés sur x86 et de GPU sur Red Hat AI. Cela est rendu possible par nos activations dans des communautés en amont comme vLLM et llm-d, visant à fournir des performances améliorées et un support GPU. 

En outre, Red Hat continue de s'appuyer sur sa collaboration de longue date avec Intel pour soutenir Red Hat AI sur sa plateforme matérielle et sa gamme d'accélérateurs en pleine croissance, notamment les accélérateurs Intel® Gaudi® AI. 

Cet engagement en faveur du choix s'étend à l'ensemble du cloud hybride. Dans ce domaine, nous travaillons activement avec Google Cloud pour renforcer la prise en charge des TPU sur Red Hat AI, étendant ainsi notre vision commune pour l'innovation communautaire à travers des projets comme llm-d et vLLM.

Solutions d'infrastructure 

Mais les accélérateurs ne sont qu'une partie du puzzle. Les clients recherchent des solutions validées et intégrées. C'est là que nos partenaires OEM peuvent intervenir, en transformant le potentiel théorique de l'IA en réalité concrète de l'entreprise. Si l'IA repose sur les accélérateurs en bas et les modèles de langage en haut, le déploiement et la gestion pratiques de l'IA à grande échelle nécessitent des solutions robustes et intégrées. 

Red Hat collabore activement avec les leaders du secteur, notamment Cisco, Dell Technologies, HPE et Lenovo, pour simplifier le déploiement et la gestion de l'IA dans les environnements de cloud hybride. Avec Dell, nous veillons à ce que leurs puissantes solutions de serveur et de stockage soient optimisées pour Red Hat AI, fournissant ainsi aux clients une infrastructure fiable et évolutive pour leurs charges de travail d'IA. Cela implique des efforts conjoints pour activer Red Hat OpenShift et Red Hat OpenShift AI pour la Dell AI Factory avec NVIDIA, qui réunit des capacités matérielles et logicielles optimisées afin de favoriser des déploiements d'IA plus efficaces et capables de traiter des tâches de calcul très exigeantes.

De même, notre collaboration avec Cisco combine leurs atouts en matière de mise en réseau, de sécurité, de calcul et d'observabilité avec Red Hat OpenShift en tant que plateforme d'applications pour les charges de travail d'IA conteneurisées au sein des Cisco AI PODs, qui sont le bloc de construction essentiel de l'infrastructure d'IA de la Cisco Secure AI Factory avec NVIDIA. La solution Red Hat AI s'appuie sur cette base pour fournir un environnement cohérent et automatisé pour le développement, l'entraînement et l'inférence des modèles d'IA. Il en résulte une plateforme d'IA complète, évolutive, performante et sécurisée.

Nous développons nos conceptions de référence d'infrastructure d'IA et nos offres dans l'ensemble de notre écosystème d'infrastructures. Ces collaborations sont essentielles pour fournir aux clients les solutions complètes requises pour opérationnaliser l'IA. Elles aident à garantir que le matériel, les logiciels et les services nécessaires peuvent être intégrés pour accélérer l'adoption et l'innovation de l'IA.

Notre vaste écosystème de distributeurs mondiaux et de revendeurs à valeur ajoutée (VAR) contribue à la création de solutions reproductibles à grande échelle pour les entreprises. Des partenaires comme Ahead, Arrow, TD Synnex, WWT et bien d'autres s'alignent sur Red Hat AI au sein de leur portefeuille de solutions.

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB « World Wide Technology s’appuie sur la gamme de produits Red Hat AI dans son AI Proving Ground pour rationaliser le processus de création et de déploiement des modèles d’IA, à la fois prédictifs et génératifs. »

Neil Anderson

Neil Anderson, Vice President and Chief Technology Officer, Cloud, World Wide Technology

Mise en place d'un écosystème de pointe dans le domaine de l'IA

Au travers de ses collaborations stratégiques avec ses partenaires dans les domaines du matériel, des logiciels et des services, Red Hat fournit une plateforme d'IA cohérente et puissante qui offre choix et flexibilité dans le cloud hybride. Cette approche collaborative, de l'optimisation de l'inférence distribuée avec llm-d à la validation des modèles de langage avec le Partner Model Validation Guide et à l'accélération des déploiements d'IA agentique, permet aux clients d'opérationnaliser l'IA à grande échelle et d'en libérer toute la valeur métier.


À propos de l'auteur

Ryan King is Vice President of AI and Infrastructure for the Partner Ecosystem Success organization at Red Hat. In this role, King leads a team in shaping Red Hat's AI strategy with key infrastructure and hardware providers to drive go-to-market engagements and customer success with AI. 

UI_Icon-Red_Hat-Close-A-Black-RGB

Parcourir par canal

automation icon

Automatisation

Les dernières nouveautés en matière d'automatisation informatique pour les technologies, les équipes et les environnements

AI icon

Intelligence artificielle

Actualité sur les plateformes qui permettent aux clients d'exécuter des charges de travail d'IA sur tout type d'environnement

open hybrid cloud icon

Cloud hybride ouvert

Découvrez comment créer un avenir flexible grâce au cloud hybride

security icon

Sécurité

Les dernières actualités sur la façon dont nous réduisons les risques dans tous les environnements et technologies

edge icon

Edge computing

Actualité sur les plateformes qui simplifient les opérations en périphérie

Infrastructure icon

Infrastructure

Les dernières nouveautés sur la plateforme Linux d'entreprise leader au monde

application development icon

Applications

À l’intérieur de nos solutions aux défis d’application les plus difficiles

Virtualization icon

Virtualisation

L'avenir de la virtualisation d'entreprise pour vos charges de travail sur site ou sur le cloud