Las operaciones de red impulsadas por IA son cada vez más esenciales en la forma en que los proveedores de servicios gestionan la complejidad de la red, optimizan el rendimiento y ofrecen servicios de forma más rápida y eficiente. La IA ha dejado de ser una tecnología de capa de aplicación para convertirse en algo fundamental para el funcionamiento de las redes modernas de los proveedores de servicios.
Sin embargo, para aprovechar esta transformación, la infraestructura de los proveedores debe volverse nativa de IA, lo que requiere incorporar la IA directamente en las operaciones de red, las plataformas de servicio y los modelos de seguridad en todo el core, edge y otros puntos de la red. Con esto en mente, Red Hat, NVIDIA y Palo Alto Networks se están uniendo para ofrecer una arquitectura optimizada, diseñada desde cero para la IA, creando dos pilares arquitectónicos a través de las capacidades de seguridad de Palo Alto Networks que se ejecutan sobre Red Hat OpenShift y Red Hat OpenShift AI, potenciadas por la computación acelerada y las soluciones de IA de NVIDIA.
Una base integrada y con seguridad prioritaria para los proveedores de servicios nativos de IA
Los proveedores de servicios nativos de IA exigen una arquitectura diseñada para operacionalizar la IA como parte integral de la propia red, abarcando centros de datos centralizados, entornos de edge y otros lugares de la red.
En el centro de esta arquitectura se encuentran Red Hat OpenShift y Red Hat OpenShift AI, que actúan como la plataforma cloud-native común para las telecomunicaciones nativas de IA. Red Hat OpenShift y OpenShift AI ofrecen una plataforma Kubernetes consistente y de nivel empresarial para implementar, gestionar y gobernar tanto funciones de red como cargas de trabajo de IA en entornos de core, edge y far-edge. Esta consistencia operativa permite a los proveedores introducir capacidades basadas en IA sin fragmentar operaciones ni crear entornos aislados.
Las cargas de trabajo de IA se ejecutan en sistemas de computación acelerada de NVIDIA implementados en toda la red. Los servidores NVIDIA RTX PRO ofrecen aceleración de IA de alto rendimiento y eficiencia energética para cargas de trabajo de IA en centros de datos y en el edge, mientras que la familia NVIDIA Aerial RAN Computer (ARC) de servidores acelerados posibilita la inteligencia de RAN y de edge de red orientada por IA. En conjunto, estas plataformas proporcionan el rendimiento y la eficiencia necesarios para la inferencia en tiempo real, los análisis operativos y los servicios de red nativos de IA.
Al emparejar Prisma AIRS con OpenShift y NVIDIA BlueField-3, permitimos una potente sinergia de aplicación de seguridad centralizada y distribuida —aprovechando la dirección DOCA para la precisión a nivel de hardware— específicamente optimizada para las demandas de las cargas de trabajo de telecomunicaciones orientadas por IA. La combinación es acelerada por NVIDIA ConnectX para ofrecer detección de amenazas y aplicación de políticas en tiempo real. Al operar en la capa de infraestructura, la seguridad se aplica consistentemente en entornos de core, edge y red sin comprometer el rendimiento ni aumentar la latencia.
En lugar de depender de componentes poco integrados, este enfoque reúne la gestión del ciclo de vida de la IA, la infraestructura acelerada y las operaciones con seguridad prioritaria en una única plataforma cohesiva, capaz de operar a escala. Con una arquitectura integrada, los proveedores pueden contar con una base consistente para implementar automatización, análisis y servicios basados en IA donde generen más valor, manteniendo un rendimiento predecible, simplicidad operativa y seguridad incorporada en toda la red distribuida.
Juntas, Red Hat, NVIDIA y Palo Alto Networks buscan ofrecer una stack telco integrada y nativa de IA, en la que el software cloud-native, la computación acelerada y la seguridad zero trust estén diseñados para operar como un único sistema. Esto permite a los proveedores evolucionar más allá de las redes centradas en hardware y construir una base para operaciones escalables orientadas por IA, nuevos servicios y futuras redes de la era 6G.
Avanzando hacia redes telco nativas de IA
Los proveedores de servicios que incorporen IA en las operaciones de red y en las plataformas de servicio desde el principio podrán conquistar ventajas duraderas en eficiencia, agilidad y diferenciación de servicios.
En el MWC, los proveedores de servicios podrán conectarse con Red Hat, NVIDIA y Palo Alto Networks para explorar cómo las arquitecturas nativas de IA pueden acelerar la transformación operativa y la innovación en servicios. Estas conversaciones pueden ayudar a identificar casos de uso de alto impacto, como la optimización de RAN con IA, el mantenimiento predictivo, la eficiencia energética y la aplicación automatizada de seguridad, además de demostrar cómo las plataformas cloud-native, la computación acelerada y la seguridad integrada se combinan para soportar cargas de trabajo distribuidas de IA.
La transición a un proveedor de servicios nativo de IA es una jornada, no un único hito de implementación. Al hacer de la IA una parte central del diseño y la operación de las redes, los proveedores pueden posicionarse como empresas verdaderamente nativas de IA, capaces de ofrecer excelencia operativa, nuevos servicios y crecimiento sostenible en una economía impulsada por IA.
Encuentra a Red Hat en el MWC Barcelona 2026 o visita el Portal de Socios Tecnológicos de Palo Alto Networks para saber más.
Recurso
La empresa adaptable: Motivos por los que la preparación para la inteligencia artificial implica prepararse para los cambios drásticos
Sobre el autor
Experienced Product Manager renowned for driving innovation in network and cloud technologies. Expertise in strategic planning, competitive analysis, and product development. Skilled leader fostering customer success and shaping transformative strategies for progressive organizations committed to excellence
Highly engaged in the pioneering stages of ETSI NFV standards and OPNFV initiatives, specializing in active monitoring and ensuring reliability in virtualized network deployments
Más como éste
Red Hat OpenShift sandboxed containers 1.12 and Red Hat build of Trustee 1.1 bring confidential computing to bare metal and AI workloads
AI for scientific research: Building the research platform that science needs with Red Hat AI
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Virtualización
El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube