Inteligencia artificial de producción para las nubes privadas e híbridas

Desarrolla, entrena e implementa modelos y aplicaciones de inteligencia artificial

Red Hat® OpenShift® AI es una plataforma de MLOps que te permite desarrollar, entrenar e implementar modelos y aplicaciones de inteligencia artificial según sea necesario en entornos de nube privada e híbrida. Con OpenShift AI, las empresas pueden implementar de forma eficiente un conjunto integrado de herramientas open source y de terceros comunes para crear modelos de inteligencia artificial generativa y predictiva y machine learning (aprendizaje automático). Las empresas que adoptan esta tecnología obtienen una plataforma y un conjunto colaborativo de herramientas open source para diseñar modelos experimentales y distribuirlos en los entornos de producción en un formato listo para contenedores, de manera uniforme, en entornos locales, del extremo de la red y de nube pública y privada. 

OpenShift AI es un elemento clave de Red Hat AI y ofrece a los ingenieros de plataformas y operaciones de TI un entorno sencillo de gestionar, con capacidad de ajuste y centrado en la seguridad. Para los analistas de datos y los ingenieros de inteligencia artificial, proporciona una plataforma integral y unificada que les permite desarrollar e implementar soluciones según sea necesario.

OpenShift AI es compatible con los modelos base de inteligencia artificial generativa, lo que te permite perfeccionarlos y distribuirlos con tus datos privados. También puedes distribuir las cargas de trabajo en los clústeres de Red Hat OpenShift, independientemente de su ubicación. La plataforma se integra a Red Hat OpenShift y se combina con ella, por lo que simplifica la aceleración del hardware de inteligencia artificial y admite la infraestructura de hardware basada en la unidad de procesamiento central (CPU) y la unidad de procesamiento gráfico (GPU), como las GPU de NVIDIA y AMD y las XPU de Intel, ya sea en las instalaciones o en la nube pública o soberana.

Tabla 1. Características y beneficios de Red Hat OpenShift AI

Aspectos destacados

Simplifica la adopción de la inteligencia artificial en tu empresa, aumenta la implementación y ofrece flexibilidad en tus iniciativas. 

Establece la uniformidad operativa de inteligencia artificial/machine learning en todos los equipos, junto con una experiencia del usuario integral que permita que los ingenieros de inteligencia artificial, los analistas de datos, los ingenieros de datos y los equipos de DevOps colaboren de manera eficaz.

Ofrece flexibilidad y uniformidad para diseñar, implementar y gestionar la inteligencia artificial según sea necesario en cualquier nube híbrida y sistema de hardware, lo cual permite abordar las limitaciones de datos, la privacidad, la seguridad y el control de los costos.

Características

Beneficios

Desarrollo y personalización de modelos

Una interfaz interactiva de JupyterLab con bibliotecas y entornos de trabajo de inteligencia artificial/machine learning. Integra la incorporación de datos, la generación de datos sintéticos, el kit de herramientas de InstructLab y la generación aumentada por recuperación (RAG) para la conexión de datos privados.

Entrenamiento y pruebas de modelos

Organiza los archivos y los artefactos de desarrollo. Admite cargas de trabajo distribuidas para que el entrenamiento y el perfeccionamiento sean eficientes. Incluye un seguimiento de pruebas y una asignación simplificada de hardware.  

Velocidad de hardware y GPU inteligente 

 

El acceso a la GPU de autoservicio está disponible. Ofrece un uso inteligente de la GPU para la programación de las cargas de trabajo, la gestión de las cuotas, el acceso prioritario y la supervisión del uso a través de los perfiles de hardware.

Canales de inteligencia artificial

Puede automatizar la distribución y las pruebas de los modelos. Se crean versiones de los canales, se hace un seguimiento de ellos y se los gestiona para reducir los errores de los usuarios y simplificar los flujos de prueba y producción. 

Distribución de modelos optimizada

Distribuye modelos de varios proveedores y marcos a través de un modelo virtual de lenguaje de gran tamaño (vLLM), el cual está optimizado para ofrecer un alto rendimiento y una baja latencia. El marco de inferencia distribuida llm-d posibilita un rendimiento predecible y adaptable y una gestión eficiente de los recursos. Incluye una herramienta de compresión de LLM y acceso a modelos de inteligencia artificial generativa comunes, optimizados y validados.

Interfaces de usuario de IA generativa y con agentes

Agiliza los flujos de trabajo de inteligencia artificial con agentes (agentic AI) con servicios básicos de la plataforma. Una capa de interfaz de programación de aplicaciones (API) unificada (MCP y Llama Stack API) y una experiencia de panel exclusiva (AI Hub y Gen AI Studio). 

Control y observabilidad de los modelos 

Herramientas open source comunes para la gestión del ciclo de vida, el rendimiento y la gestión. Realiza un seguimiento de los indicadores, como el rendimiento, la detección de sesgos y desajustes en los datos y las inferencias o las medidas de seguridad de la inteligencia artificial. Ofrece una evaluación de LLM (LM Eval) y una evaluación comparativa de LLM (GuideLLM) que resultan de utilidad en la implementación de la inferencia en la práctica. 

Catálogo y registro

Gestión concentrada de los modelos de inteligencia artificial predictiva y generativa y los servidores MCP, así como sus metadatos, y los artefactos. 

Almacén de características 

Una interfaz de usuario para gestionar características claras y bien definidas de datos para los modelos de machine learning, mejorar el rendimiento y acelerar los flujos de trabajo. 

Modelos como servicio

Permite que los ingenieros de inteligencia artificial utilicen los modelos a través de una puerta de enlace de API integrada y gestionada para el acceso de autoservicio y el seguimiento del uso (función de versión de prueba para desarrolladores). 

Entornos desconectados y extremo de la red

Admite clústeres desconectados y aislados para garantizar la seguridad y el cumplimiento normativo. 

Además de las funciones de OpenShift AI, los productos integrados de los partners incluyen:

  • Starburst para el acceso distribuido a los datos en diversos conjuntos de datos;
  • HPE para el linaje de datos y el control de versiones;
  • NVIDIA para la gestión del rendimiento de las GPU;
  • AMD para la aceleración de la GPU;
  • Intel para la inferencia de alto rendimiento en el hardware de Intel;
  • Elastic y EDB para las bases de datos vectoriales con aplicaciones de generación aumentada por recuperación (RAG). 

Siguientes pasos:

Obtén más información sobre Red Hat OpenShift AI y mira el video informativo.