A principios de este año, lanzamos el catálogo de inicio rápido de Red Hat AI, una colección de planos técnicos listos para su ejecución diseñados para que las empresas pasen de hablar de inteligencia artificial a utilizar modelos de lenguaje de gran tamaño (LLM) para resolver problemas reales. De esta manera, los arquitectos e integradores de sistemas pueden acceder a ejemplos de soluciones de inteligencia artificial que el equipo de ingeniería de Red Hat probó y optimizó para facilitar su implementación.
Sin embargo, una vez que hayas implementado con éxito una solución interactiva en Red Hat AI, la siguiente pregunta suele ser: "¿Cómo puedo proteger esto en el mundo real?"
Para responder a esta pregunta, ampliamos el catálogo de guías de inicio rápido sobre inteligencia artificial con una de nuestras primeras entradas dirigidas por partners: Guía de inicio rápido de F5 Distributed Cloud API Security AI.
Protección de los extremos de inteligencia artificial
La mayoría de las empresas no tienen problemas para poner en marcha un asistente de chat básico o una demostración de generación aumentada por recuperación (RAG). El conflicto comienza cuando se dan cuenta de que un extremo de inferencia es, en esencia, una interfaz de programación de aplicaciones (API). Las API son el objetivo principal de los ataques modernos.
Para quienes ayudamos a los clientes a diseñar estos sistemas, las preocupaciones de seguridad suelen ser lo que impide que los proyectos piloto prometedores lleguen a la producción. Esta nueva guía de inicio rápido sobre inteligencia artificial, desarrollada en conjunto por F5 y Red Hat, te ayuda a superar ese obstáculo. En ella se demuestra cómo aplicar la protección de nivel empresarial antes de que los usuarios comiencen a interactuar con tus modelos de inteligencia artificial.
Dentro de la guía de inicio rápido de F5 Distributed Cloud API Security AI
La guía de inicio rápido de F5 Distributed Cloud API Security AI es un plano técnico modular que integra F5 Distributed Cloud (XC) Services con la plataforma Red Hat AI. Se diseñó para implementarse en menos de 90 minutos, lo cual te brinda un entorno protegido y completamente funcional para demostrar:
- Validación del esquema: Tus extremos de LlamaStack o vLLM solo procesan las solicitudes autorizadas y bien formadas.
- Medidas de protección de datos confidenciales: Detección y eliminación automática de la información de identificación personal (PII) o los datos propietarios antes de que abandonen tu entorno.
- Protección de los recursos: Implementación de límites de frecuencia y protección contra bots para que los usuarios legítimos utilicen tus ciclos de unidad de procesamiento gráfico (GPU), y no los rastreadores maliciosos.
- Flexibilidad híbrida: La arquitectura mantiene la uniformidad, ya sea que tu modelo se ejecute en las instalaciones o en una nube pública.
Construir juntos
Al incorporar las décadas de experiencia en seguridad de F5 a una guía de inicio rápido sobre inteligencia artificial, demostramos un método reutilizable para abordar muchos de estos problemas del "día 2".
El objetivo no es solo probar el sistema, sino también proporcionar un marco predecible y reutilizable para que cuando un cliente te pregunte cómo se protegerán sus datos, tengas una respuesta funcional y demostrable.
Primeros pasos
Puedes clonar el repositorio desde GitHub y probarlo en tu clúster hoy mismo: Explora la guía de inicio rápido de F5 API Security.
Recurso
La empresa adaptable: Motivos por los que la preparación para la inteligencia artificial implica prepararse para los cambios drásticos
Sobre los autores
Shane Heroux is a Principal Engineering Partner Manager at Red Hat, working at the intersection of open technology and partner ecosystems. His first Linux install was Slackware in the mid-'90s, where he found something bigger than software: a way of building things together that actually holds up.
Since joining Red Hat in 2018, he's worked across hybrid cloud, AI, and modernization efforts, translating technical complexity into outcomes that make sense for partners and customers. He works across product, engineering, and alliance leadership to align partner capabilities with what customers are actually trying to do, helping organizations build architectures that are open, adaptable, and built to last.
His approach combines technical depth with systems thinking and a humanities instinct. Open collaboration doesn't just scale platforms; it makes the whole ecosystem more useful.
Más como éste
Stop managing the past and start building IT’s future
The agentic paradox and the case for hybrid AI
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Virtualización
El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube