El ritmo de la innovación en la inteligencia artificial se acelera, y con el lanzamiento de Red Hat AI 3, recordamos que convertir este potencial en una realidad empresarial necesita un ecosistema robusto y abierto que se basa en la colaboración y en la posibilidad de poder escoger. Nuestro objetivo siempre ha sido ofrecer una plataforma uniforme y potente para la inteligencia artificial que funcione con cualquier modelo, en cualquier acelerador y en toda la nube híbrida. Hoy, nos complace destacar el ímpetu de nuestros partners, quienes trabajan junto a nosotros para construir el futuro de la inteligencia artificial híbrida y abierta en Red Hat.
El ecosistema de partners de Red Hat es el motor que ofrecerá la inteligencia artificial generativa (gen IA) y las capacidades de inteligencia artificial con agentes que los clientes necesitan para lograr una adopción generalizada en el mercado. Se trata de reunir lo mejor en hardware, software y servicios para crear un todo que sea mucho más grande que la suma de sus partes.
Impulso de la inferencia rápida, flexible y eficiente
El lanzamiento de Red Hat AI 3 se centra en impulsar la inferencia de la inteligencia artificial empresarial, ampliar las opciones de modelos y habilitar los modelos abiertos para optimizar los costos y la flexibilidad, de modo que las organizaciones puedan pasar de la capacitación a la práctica. Y los partners de Red Hat desempeñan un papel fundamental para que esto suceda.
Para ofrecer inferencia de inteligencia artificial a escala utilizando vLLM y Kubernetes, el proyecto open source llm-d ya está disponible de forma general como parte de Red Hat OpenShift AI 3.0, impulsado por una coalición de proveedores líderes de modelos de inteligencia artificial generativa, aceleradores de inteligencia artificial y principales plataformas de nube de inteligencia artificial. Los colaboradores fundadores incluyen CoreWeave, Google Cloud, IBM Research y NVIDIA, con el apoyo adicional de partners como AMD, Cisco, Hugging Face, Intel, Lambda y Mistral AI. Desde la presentación del proyecto a principios de este año, Microsoft, Oracle y WEKA también se han convertido en miembros contribuyentes activos.
"Como parte de la comunidad llm-d, NeuralMesh, NeuralMesh Axon y Augmented Memory Grid de WEKA proporcionan la base de datos adaptable y de alto rendimiento que requiere la inferencia, lo que permite ampliar la memoria de la GPU y mantener las cargas de trabajo con memoria caché a escala. Nos enorgullece colaborar con Red Hat y este potente ecosistema de líderes tecnológicos en la creación de entornos de inteligencia artificial abiertos, eficientes y listos para la producción que permitan a los clientes escalar de forma más fluida desde la capacitación hasta la inferencia".
A medida que los modelos de lenguaje de gran tamaño (LLM) se convierten en la base para una amplia gama de aplicaciones de inteligencia artificial generativa (gen AI), Red Hat presenta la Guía de validación de modelos para partners para capacitar a nuestros partners y ofrecer más opciones a los clientes. Esta guía describe un proceso estandarizado y paso a paso para que los partners de Red Hat comparen sus LLM con el fin de incluirlos en el catálogo de modelos de Red Hat OpenShift AI.
Gracias a la Guía de validación de modelos para partners, los partners proveedores de modelos pueden generar los datos necesarios para la validación con una cadena de herramientas de código abierto prescrita, que incluye vLLM para el servicio, GuideLLM para la evaluación comparativa del rendimiento y LM Evaluation Harness para las evaluaciones de precisión. Una vez que nuestro equipo los envíe y valide, estos modelos de partners, junto con sus métricas de rendimiento y calidad, estarán visibles y disponibles para todos los clientes de Red Hat OpenShift AI. Esta iniciativa enriquece nuestro catálogo de modelos, ya que ofrece a los clientes información y orientación más transparentes a nivel de modelo, una selección más amplia de los mejores modelos de open source para construir sus aplicaciones de inteligencia artificial y visibilidad en el mercado para nuestros partners proveedores de modelos.
Agilización de las implementaciones de la inteligencia artificial con agentes (Agentic AI)
En última instancia, el objetivo es lograr que las aplicaciones de inteligencia artificial entren en producción, donde puedan aportar valor empresarial. Red Hat AI, junto con nuestro ecosistema de partners, ofrece las funciones esenciales para desarrollar, implementar y gestionar la inteligencia artificial con agentes (Agentic AI). Aquí es donde nuestros integradores de sistemas y partners de servicios desempeñan un papel fundamental. Red Hat colabora con líderes internacionales como Accenture, HCL, Kyndryl, IBM Consulting, Infosys y NTT DATA para ayudar a los clientes a escalar estas aplicaciones y optimizar la inferencia para ejecutar la inteligencia artificial en todas partes, desde el centro de datos hasta el extremo de la red.
Con una base sólida y una infraestructura habilitada, la atención se centra en las herramientas y los modelos que impulsan las aplicaciones inteligentes. Una estrategia de inteligencia artificial es tan buena como el ecosistema de plataformas de datos, bases de datos vectoriales, herramientas de seguridad y utilidades para desarrolladores que la respaldan. El panorama de partners de Red Hat es amplio y diverso, y proporciona los elementos esenciales para construir flujos de trabajo de inteligencia artificial modernos.
Protocolo de contexto de modelo (MCP)
Con el lanzamiento de Red Hat AI 3, seleccionamos un conjunto de servidores MCP. Esto permite que los ISV conecten sus herramientas y servicios directamente con Red Hat AI. Partners como CyberArk, Dynatrace, Elastic, EnterpriseDB, Palo Alto Networks, entre otros, trabajan con Red Hat para mostrar sus servidores MCP, lo cual ayuda a los clientes a construir aplicaciones sofisticadas de agentes con herramientas confiables.
"Los agentes de inteligencia artificial empresariales exitosos dependen de obtener el contexto más relevante de los datos empresariales a escala, con la tecnología de un ecosistema de inteligencia artificial abierto con herramientas integrales y componibles. Con nuestro servidor MCP en Red Hat OpenShift AI, nuestro objetivo es permitir que los clientes integren sin problemas la plataforma de ingeniería de contexto y la base de datos de vectores de Elasticsearch en sus flujos de trabajo de inteligencia artificial".
"Red Hat OpenShift AI nos ayudó a fortalecer y mejorar nuestra MCP. Dynatrace permite que los clientes incorporen sin problemas la observabilidad en tiempo real a sus flujos de trabajo de inteligencia artificial. Juntos, ayudamos a las empresas a agilizar el desarrollo de modelos con información confiable, automatizar la detección de anomalías y garantizar que las aplicaciones de inteligencia artificial sean confiables, escalables y seguras en los entornos híbridos y multicloud".
Llama Stack
El trabajo de Red Hat con la stack open source Llama Stack de Meta es fundamental para potenciar a los desarrolladores con Red Hat AI 3. Red Hat y sus partners colaboran activamente con este proyecto open source para mejorar un conjunto completo de herramientas estandarizadas que revolucionan el ciclo de vida de las aplicaciones de inteligencia artificial generativa. Esto permite que los desarrolladores cuenten con un entorno atractivo, robusto y adaptable para agilizar la creación y la implementación de soluciones de inteligencia artificial innovadoras, lo que brinda a nuestros partners y clientes un camino claro hacia la producción. Al reducir la complejidad de integrar varios servicios y herramientas de inteligencia artificial, Llama Stack permite que los desarrolladores se centren en la innovación en lugar de los desafíos de infraestructura.
Ajuste de la inteligencia artificial en la nube híbrida
Aceleradores de inteligencia artificial
Las opciones son importantes para abarcar la gama más amplia de capacidades, por lo que hemos profundizado nuestras colaboraciones con los partners aceleradores, como AMD, Google Cloud e Intel.
Trabajamos con NVIDIA para integrar la informática, las redes y el software de inteligencia artificial de rendimiento optimizado de NVIDIA con Red Hat AI, lo cual permite que los clientes construyan, implementen y gestionen la inteligencia artificial a escala y optimicen la infraestructura en diversas cargas de trabajo. Red Hat y NVIDIA continúan impulsando la expansión de la infraestructura de inteligencia artificial con el soporte para la infraestructura NVIDIA GB200 NVL72, que se centra en la capacitación y la inferencia de inteligencia artificial de alto nivel a escala. Además, las GPU NVIDIA RTX PRO(R) 6000 Blackwell Server Edition son compatibles con Red Hat AI, Red Hat OpenShift y Red Hat OpenShift Virtualization, lo cual acelera una serie de cargas de trabajo empresariales, como la inteligencia artificial empresarial y los gráficos de VDI, con GPU y servidores refrigerados por aire.
Nuestra colaboración con AMD está impulsando una inteligencia artificial generativa más eficiente al habilitar la cartera de procesadores y GPU basados en x86 de AMD en Red Hat AI, impulsada por nuestras activaciones en comunidades upstream como vLLM y llm-d para ofrecer un rendimiento mejorado y compatibilidad con GPU.
Además, Red Hat continúa aprovechando su colaboración prolongada con Intel para respaldar Red Hat AI en su cartera de aceleradores y plataformas de hardware en expansión, incluidos los aceleradores de IA Intel® Gaudi®.
Este compromiso para ofrecer opciones se extiende a toda la nube híbrida. En esta área, trabajamos activamente con Google Cloud para reforzar la compatibilidad con TPU en Red Hat AI, y ampliamos nuestra visión compartida de la innovación impulsada por la comunidad a través de proyectos como llm-d y vLLM.
Soluciones de infraestructura
Sin embargo, los aceleradores son solo una pieza del rompecabezas. Los clientes necesitan soluciones validadas e integradas. Aquí es donde intervienen nuestros partners de servidores OEM, que transforman el potencial teórico de la inteligencia artificial en una realidad empresarial tangible. Si bien la base de la inteligencia artificial se encuentra en los aceleradores en la parte inferior y los modelos de lenguaje en la parte superior, la implementación práctica y la gestión de la inteligencia artificial a escala requieren soluciones robustas e integradas.
Red Hat colabora activamente con los líderes del sector, como Cisco, Dell Technologies, HPE y Lenovo, para simplificar la implementación y la gestión de la inteligencia artificial en los entornos de nube híbrida. Trabajamos con Dell para garantizar que sus potentes soluciones de almacenamiento y servidores estén optimizadas para Red Hat AI, lo que les brinda a los clientes una infraestructura confiable y escalable para sus cargas de trabajo de inteligencia artificial. Esto incluye los esfuerzos conjuntos para habilitar Red Hat OpenShift y Red Hat OpenShift AI para la Dell AI Factory con NVIDIA, que combina las capacidades optimizadas de hardware y software para impulsar implementaciones de inteligencia artificial más fluidas que puedan gestionar las tareas informáticas más exigentes.
Del mismo modo, nuestra colaboración con Cisco combina sus puntos fuertes en las redes, la seguridad, la informática y la observabilidad con Red Hat OpenShift como la plataforma de aplicaciones para las cargas de trabajo de inteligencia artificial en contenedores dentro de Cisco AI PODs, el elemento fundamental de la infraestructura de Cisco Secure AI Factory with NVIDIA. Red Hat AI se asienta en esta base para ofrecer un entorno uniforme y automatizado para el desarrollo, la capacitación y la inferencia del modelo de inteligencia artificial. El resultado es una plataforma de inteligencia artificial integral que es escalable, de alto rendimiento y segura.
Estamos ampliando los diseños de referencia y las ofertas de infraestructura de inteligencia artificial en todo nuestro ecosistema de infraestructura. Estas colaboraciones son esenciales para proporcionar a los clientes las soluciones integrales que necesitan para poner en marcha la inteligencia artificial lo que garantiza que el hardware, el software y los servicios necesarios se integren para acelerar la adopción y la innovación de la inteligencia artificial.
Nuestro amplio ecosistema de distribuidores globales y revendedores de valor agregado (VAR) es fundamental para construir soluciones repetibles a escala para la empresa. Partners como Ahead, Arrow, TD Synnex y WWT, entre muchos otros, se están alineando con Red Hat AI dentro de su cartera de soluciones.
"World Wide Technology aprovecha la cartera de Red Hat AI en su AI Proving Ground para optimizar el proceso de construcción e implementación de modelos de inteligencia artificial, tanto predictivos como generativos".
Ofrecer un ecosistema de inteligencia artificial líder
Gracias a las colaboraciones estratégicas con partners de hardware, software y servicios, Red Hat ofrece una plataforma potente y uniforme para la inteligencia artificial que brinda opciones y flexibilidad en toda la nube híbrida. Este enfoque colaborativo, que abarca desde la optimización de la inferencia distribuida con llm-d hasta la validación de los modelos de lenguaje con la Guía de validación de modelos para partners y la aceleración de las implementaciones de inteligencia artificial con agentes (Agentic AI), garantiza que los clientes puedan poner en marcha la inteligencia artificial a escala y aprovechar todo su valor empresarial.
Sobre el autor
Ryan King is Vice President of AI and Infrastructure for the Partner Ecosystem Success organization at Red Hat. In this role, King leads a team in shaping Red Hat's AI strategy with key infrastructure and hardware providers to drive go-to-market engagements and customer success with AI.
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Virtualización
El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube