Inteligencia artificial de producción para las nubes privadas e híbridas
Desarrolla, entrena e implementa modelos y aplicaciones de inteligencia artificial
Red Hat® OpenShift® AI es una plataforma de MLOps que te permite desarrollar, entrenar e implementar modelos y aplicaciones de inteligencia artificial según sea necesario en entornos de nube privada e híbrida. Con OpenShift AI, las empresas pueden implementar de forma eficiente un conjunto integrado de herramientas open source y de terceros comunes para crear modelos de inteligencia artificial generativa y predictiva y machine learning (aprendizaje automático). Las empresas que adoptan esta tecnología obtienen una plataforma y un conjunto colaborativo de herramientas open source para diseñar modelos experimentales y distribuirlos en los entornos de producción en un formato listo para contenedores, de manera uniforme, en entornos locales, del extremo de la red y de nube pública y privada.
OpenShift AI es un elemento clave de Red Hat AI y ofrece a los ingenieros de plataformas y operaciones de TI un entorno sencillo de gestionar, con capacidad de ajuste y centrado en la seguridad. Para los analistas de datos y los ingenieros de inteligencia artificial, proporciona una plataforma integral y unificada que les permite desarrollar e implementar soluciones según sea necesario.
OpenShift AI es compatible con los modelos base de inteligencia artificial generativa, lo que te permite perfeccionarlos y distribuirlos con tus datos privados. También puedes distribuir las cargas de trabajo en los clústeres de Red Hat OpenShift, independientemente de su ubicación. La plataforma se integra a Red Hat OpenShift y se combina con ella, por lo que simplifica la aceleración del hardware de inteligencia artificial y admite la infraestructura de hardware basada en la unidad de procesamiento central (CPU) y la unidad de procesamiento gráfico (GPU), como las GPU de NVIDIA y AMD y las XPU de Intel, ya sea en las instalaciones o en la nube pública o soberana.
Tabla 1. Características y beneficios de Red Hat OpenShift AI
Aspectos destacados
Simplifica la adopción de la inteligencia artificial en tu empresa, aumenta la implementación y ofrece flexibilidad en tus iniciativas.
Establece la uniformidad operativa de inteligencia artificial/machine learning en todos los equipos, junto con una experiencia del usuario integral que permita que los ingenieros de inteligencia artificial, los analistas de datos, los ingenieros de datos y los equipos de DevOps colaboren de manera eficaz.
Ofrece flexibilidad y uniformidad para diseñar, implementar y gestionar la inteligencia artificial según sea necesario en cualquier nube híbrida y sistema de hardware, lo cual permite abordar las limitaciones de datos, la privacidad, la seguridad y el control de los costos.
Características | Beneficios |
Desarrollo y personalización de modelos | Una interfaz interactiva de JupyterLab con bibliotecas y entornos de trabajo de inteligencia artificial/machine learning. Integra la incorporación de datos, la generación de datos sintéticos, el kit de herramientas de InstructLab y la generación aumentada por recuperación (RAG) para la conexión de datos privados. |
Entrenamiento y pruebas de modelos | Organiza los archivos y los artefactos de desarrollo. Admite cargas de trabajo distribuidas para que el entrenamiento y el perfeccionamiento sean eficientes. Incluye un seguimiento de pruebas y una asignación simplificada de hardware. |
Velocidad de hardware y GPU inteligente
| El acceso a la GPU de autoservicio está disponible. Ofrece un uso inteligente de la GPU para la programación de las cargas de trabajo, la gestión de las cuotas, el acceso prioritario y la supervisión del uso a través de los perfiles de hardware. |
Canales de inteligencia artificial | Puede automatizar la distribución y las pruebas de los modelos. Se crean versiones de los canales, se hace un seguimiento de ellos y se los gestiona para reducir los errores de los usuarios y simplificar los flujos de prueba y producción. |
Distribución de modelos optimizada | Distribuye modelos de varios proveedores y marcos a través de un modelo virtual de lenguaje de gran tamaño (vLLM), el cual está optimizado para ofrecer un alto rendimiento y una baja latencia. El marco de inferencia distribuida llm-d posibilita un rendimiento predecible y adaptable y una gestión eficiente de los recursos. Incluye una herramienta de compresión de LLM y acceso a modelos de inteligencia artificial generativa comunes, optimizados y validados. |
Interfaces de usuario de IA generativa y con agentes | Agiliza los flujos de trabajo de inteligencia artificial con agentes (agentic AI) con servicios básicos de la plataforma. Una capa de interfaz de programación de aplicaciones (API) unificada (MCP y Llama Stack API) y una experiencia de panel exclusiva (AI Hub y Gen AI Studio). |
Control y observabilidad de los modelos | Herramientas open source comunes para la gestión del ciclo de vida, el rendimiento y la gestión. Realiza un seguimiento de los indicadores, como el rendimiento, la detección de sesgos y desajustes en los datos y las inferencias o las medidas de seguridad de la inteligencia artificial. Ofrece una evaluación de LLM (LM Eval) y una evaluación comparativa de LLM (GuideLLM) que resultan de utilidad en la implementación de la inferencia en la práctica. |
Catálogo y registro | Gestión concentrada de los modelos de inteligencia artificial predictiva y generativa y los servidores MCP, así como sus metadatos, y los artefactos. |
Almacén de características | Una interfaz de usuario para gestionar características claras y bien definidas de datos para los modelos de machine learning, mejorar el rendimiento y acelerar los flujos de trabajo. |
Modelos como servicio | Permite que los ingenieros de inteligencia artificial utilicen los modelos a través de una puerta de enlace de API integrada y gestionada para el acceso de autoservicio y el seguimiento del uso (función de versión de prueba para desarrolladores). |
Entornos desconectados y extremo de la red | Admite clústeres desconectados y aislados para garantizar la seguridad y el cumplimiento normativo. |
Además de las funciones de OpenShift AI, los productos integrados de los partners incluyen:
- Starburst para el acceso distribuido a los datos en diversos conjuntos de datos;
- HPE para el linaje de datos y el control de versiones;
- NVIDIA para la gestión del rendimiento de las GPU;
- AMD para la aceleración de la GPU;
- Intel para la inferencia de alto rendimiento en el hardware de Intel;
- Elastic y EDB para las bases de datos vectoriales con aplicaciones de generación aumentada por recuperación (RAG).
Siguientes pasos:
Obtén más información sobre Red Hat OpenShift AI y mira el video informativo.