Plus tôt cette année, nous avons lancé le Red Hat AI quickstart catalog, une collection de modèles prêts à l'emploi conçus pour aider les entreprises à passer de la théorie sur l'IA à l'utilisation de grands modèles de langage (LLM) pour résoudre des problèmes concrets. Ce catalogue fournit aux intégrateurs de systèmes et aux architectes des exemples de solutions d'IA que l'ingénierie Red Hat a testés et rationalisés pour faciliter le déploiement.

Une fois qu'une solution interactive est déployée sur Red Hat AI, la question suivante consiste généralement à savoir comment protéger cette solution dans un environnement réel.

Pour répondre à cette problématique, nous avons enrichi le catalogue de démarrages rapides de l'IA avec l'une de nos premières contributions dirigées par un partenaire : Le démarrage rapide de l'IA F5 Distributed Cloud API Security.

Protection de vos points de terminaison d'IA

La plupart des entreprises n'ont aucune difficulté à mettre en place un assistant de messagerie instantanée basique ou une démonstration de génération augmentée de récupération (RAG, retrieval-augmented generation). Les difficultés commencent lorsque les équipes réalisent qu'un point de terminaison d'inférence constitue, par essence, une API. Les API constituent la cible principale des exploits modernes.

Pour les personnes qui aident les clients à concevoir ces systèmes, les préoccupations relatives à la sécurité empêchent souvent les projets pilotes prometteurs d'atteindre la phase de production. Développé en collaboration par F5 et Red Hat, ce nouveau démarrage rapide pour l'IA aide à franchir cet obstacle. Ce projet démontre comment appliquer une protection de classe entreprise avant que les utilisateurs ne commencent à interagir avec les modèles d'IA.

Contenu du démarrage rapide de l'IA F5 Distributed Cloud API Security

Le démarrage rapide de l'IA F5 Distributed Cloud API Security constitue un modèle modulaire qui intègre les services F5 Distributed Cloud (XC) à la plateforme Red Hat AI. Ce modèle permet un déploiement en moins de 90 minutes et offre un environnement sécurisé et entièrement fonctionnel pour démontrer :

  • La validation de schéma : Vos points de terminaison LlamaStack ou vLLM traitent ainsi uniquement les requêtes autorisées et bien formées.
  • Les garde-fous pour les données sensibles : La détection et la suppression automatiques des informations à caractère personnel (PII) ou des données propriétaires avant qu'elles ne quittent l'environnement
  • La protection des ressources : La mise en œuvre de la limitation de débit et de la défense contre les bots permet aux utilisateurs légitimes d'utiliser les cycles GPU au lieu des collecteurs de données malveillants.
  • La flexibilité hybride : L'architecture reste cohérente, que le modèle soit exécuté sur site ou dans un cloud public.

Construire ensemble

En intégrant les décennies d'expertise de F5 en matière de sécurité à un démarrage rapide de l'IA, nous présentons une méthode réutilisable pour résoudre bon nombre de ces problèmes de « Jour 2 ».

L'objectif ne consiste pas seulement à tester le système, mais à fournir un cadre prévisible et réutilisable afin d'apporter une réponse concrète et démontrable lorsqu'un client s'interroge sur la protection de ses données.

Lancez-vous

Vous pouvez cloner le dépôt à partir de GitHub et le tester sur votre cluster dès aujourd'hui : Consultez le guide de démarrage rapide pour la sécurité des API F5.

Ressource

L'entreprise adaptable : quand s'adapter à l'IA signifie s'adapter aux changements

Ce livre numérique de Michael Ferris, directeur de l'exploitation et de la stratégie chez Red Hat, aborde le rythme des changements et des bouleversements technologiques liés à l'IA auxquels sont confrontés les responsables informatiques.

À propos des auteurs

Shane Heroux is a Principal Engineering Partner Manager at Red Hat, working at the intersection of open technology and partner ecosystems. His first Linux install was Slackware in the mid-'90s, where he found something bigger than software: a way of building things together that actually holds up.

Since joining Red Hat in 2018, he's worked across hybrid cloud, AI, and modernization efforts, translating technical complexity into outcomes that make sense for partners and customers. He works across product, engineering, and alliance leadership to align partner capabilities with what customers are actually trying to do, helping organizations build architectures that are open, adaptable, and built to last.

His approach combines technical depth with systems thinking and a humanities instinct. Open collaboration doesn't just scale platforms; it makes the whole ecosystem more useful.

UI_Icon-Red_Hat-Close-A-Black-RGB

Parcourir par canal

automation icon

Automatisation

Les dernières nouveautés en matière d'automatisation informatique pour les technologies, les équipes et les environnements

AI icon

Intelligence artificielle

Actualité sur les plateformes qui permettent aux clients d'exécuter des charges de travail d'IA sur tout type d'environnement

open hybrid cloud icon

Cloud hybride ouvert

Découvrez comment créer un avenir flexible grâce au cloud hybride

security icon

Sécurité

Les dernières actualités sur la façon dont nous réduisons les risques dans tous les environnements et technologies

edge icon

Edge computing

Actualité sur les plateformes qui simplifient les opérations en périphérie

Infrastructure icon

Infrastructure

Les dernières nouveautés sur la plateforme Linux d'entreprise leader au monde

application development icon

Applications

À l’intérieur de nos solutions aux défis d’application les plus difficiles

Virtualization icon

Virtualisation

L'avenir de la virtualisation d'entreprise pour vos charges de travail sur site ou sur le cloud