Red Hat OpenShift AI

Red Hat® OpenShift® AI es una plataforma que permite administrar el ciclo de vida de los modelos de inteligencia artificial (IA) predictiva y generativa en los distintos entornos de nube híbrida según sea necesario. 

Red Hat OpenShift AI

Red Hat OpenShift AI

Está diseñada con tecnologías de open source y proporciona funciones confiables y uniformes en términos operativos para que los equipos realicen pruebas, pongan los modelos a disposición de los usuarios y distribuyan aplicaciones innovadoras.

OpenShift AI permite la recopilación y preparación de los datos; el entrenamiento, el ajuste, la distribución y la supervisión de los modelos; y la aceleración del hardware. Gracias al ecosistema abierto de partners de hardware y software, la plataforma brinda la flexibilidad necesaria para tu caso práctico específico.

Imagen gráfica de Red Hat AI

Agiliza el traslado de las aplicaciones con IA a la etapa de producción

Combina las funciones probadas de Red Hat OpenShift AI y Red Hat OpenShift en una única plataforma de aplicaciones de inteligencia artificial lista para las empresas que reúne a todos los equipos. De esta forma, los analistas de datos, los ingenieros y los desarrolladores de aplicaciones pueden colaborar en una única ubicación y, así, fomentar la uniformidad, la seguridad y la capacidad de ajuste.

La versión de OpenShift AI más reciente tiene por objeto aumentar la eficiencia mediante el acceso a modelos más pequeños y optimizados previamente. Además, permite gestionar los costos de la inferencia con el servicio distribuido a través de un marco vLLM. Para reducir aún más la complejidad operativa, OpenShift AI ofrece una serie de herramientas avanzadas para automatizar las implementaciones y el acceso de autoservicio a los modelos, las herramientas y los recursos. 

Menos tiempo para la gestión de la infraestructura de la IA

Ofrece a tus equipos acceso según se solicite a los recursos, para que puedan gestionar sus entornos de entrenamiento y distribución de modelos de forma autónoma y adaptarlos a sus necesidades. Además, reduce la complejidad operativa con la gestión de aceleradores de inteligencia artificial (GPU) y recursos de carga de trabajo en un entorno de clúster ajustable.

Herramientas de inteligencia artificial/machine learning probadas y compatibles

Red Hat sigue, integra, prueba y respalda las herramientas de inteligencia artificial/machine learning (aprendizaje automático) comunes y la disposición de modelos en nuestra plataforma de Red Hat OpenShift para que tú no tengas que hacerlo. OpenShift AI se basa en los años de preparación del proyecto comunitario Open Data Hub de Red Hat y de proyectos open source, como Kubeflow.

Flexibilidad en la nube híbrida

Red Hat OpenShift AI está disponible como software autogestionado o como servicio de nube totalmente gestionado en OpenShift, y proporciona una plataforma segura y flexible que te permite elegir el entorno para desarrollar e implementar tus modelos, ya sea en las instalaciones, la nube pública o el extremo de la red.

Utiliza nuestras prácticas recomendadas

Red Hat Consulting ofrece servicios que te permiten instalar, configurar y utilizar Red Hat OpenShift AI de la manera más completa.

Además, te brindará respaldo y asesoramiento, ya sea que busques comenzar a utilizar la inteligencia artificial, mejorar las habilidades de tu equipo de plataforma de machine learning u obtener orientación para desarrollar las bases de MLOps.

Ya está disponible

Red Hat Enterprise Linux AI

Red Hat® Enterprise Linux® AI es una plataforma de modelo base que permite desarrollar, probar y ejecutar sin problemas modelos de lenguaje de gran tamaño (LLM) de Granite para las aplicaciones empresariales.

Partners

Utiliza Red Hat OpenShift AI con otros servicios y productos integrados para obtener un mayor rendimiento de la plataforma.

Logotipo de NVIDIA

NVIDIA y Red Hat brindan a sus clientes una plataforma con capacidad de ajuste que acelera una amplia variedad de casos prácticos de la inteligencia artificial con una flexibilidad incomparable.

Logotipo de Intel

Intel® y Red Hat ayudan a las empresas a agilizar la adopción de la inteligencia artificial y el uso de los modelos de inteligencia artificial/machine learning.

Logotipo de IBM

IBM y Red Hat facilitan innovaciones open source para acelerar el desarrollo de la inteligencia artificial, como IBM watsonx.aiTM, un estudio de inteligencia artificial listo para las empresas y destinado a los desarrolladores de esa tecnología. 

Logotipo de Starburst

Starburst Enterprise y Red Hat permiten obtener información más precisa y actualizada mediante el análisis rápido de los datos en varias plataformas distribuidas y dispares.

Infraestructura Kubernetes con capacidad de ajuste para plataformas de IA

Descubre el modo de aplicar los principios y prácticas de las operaciones de machine learning (MLOPs) para crear aplicaciones basadas en la inteligencia artificial. 

Colaboración mediante entornos de trabajo modelos

Brinda imágenes de clústeres personalizados o desarrollados previamente a tus analistas de datos para que trabajen con modelos que utilicen su IDE preferido, como JupyterLab. Red Hat OpenShift AI realiza un seguimiento de los cambios en Jupyter, TensorFlow, PyTorch y otras tecnologías de open source de inteligencia artificial.

Captura de pantalla de la pestaña de aplicaciones compatibles con la consola de OpenShift AI
Captura de pantalla de la tabla de puesta a disposición de los modelos en la consola de OpenShift AI

Adapta la puesta a disposición de los modelos con Red Hat OpenShift AI

Los modelos pueden utilizarse con una versión optimizada de vLLM (u otros servidores de modelos que elijas) para integrarlos a las aplicaciones con inteligencia artificial en las instalaciones, la nube pública o el extremo de la red. Además, pueden volver a diseñarse e implementarse y se controlan según los cambios en el notebook fuente.

Patrón de la solución

Aplicaciones de inteligencia artificial con NVIDIA AI Enterprise y Red Hat

Cree una aplicación RAG

Red Hat OpenShift AI es una plataforma para diseñar proyectos de análisis de datos y distribuir aplicaciones que utilizan la inteligencia artificial. Con ella puede integrar todas las herramientas que necesita para respaldar la generación aumentada por recuperación (RAG), un método para obtener respuestas de la inteligencia artificial desde sus documentos de referencia. Cuando conecta OpenShift AI con NVIDIA AI Enterprise, puede experimentar con los modelos de lenguaje de gran tamaño (LLM) para encontrar el más adecuado para su aplicación.

Diseñe un canal para los documentos

Para usar la RAG, primero debe incorporar los documentos en una base de datos vectorial. En nuestra aplicación de ejemplo, integramos un conjunto de documentos de productos en una base de datos de Redis. Ya que estos cambian con frecuencia, podemos crear un canal para este proceso que ejecutaremos de forma regular y, de esta forma, siempre tendremos las versiones más recientes de ellos.

Consulte el catálogo de LLM

NVIDIA AI Enterprise brinda acceso a un catálogo de distintos LLM, por lo que puede probar diferentes opciones y elegir el modelo que ofrezca los mejores resultados. Estos modelos se alojan en el catálogo de NVIDIA API. Una vez que haya configurado un token de interfaz de programación de aplicaciones (API), puede implementar un modelo utilizando la plataforma de distribución de NVIDIA NIM directamente desde OpenShift AI.

Seleccione el modelo adecuado

A medida que prueba distintos LLM, los usuarios tienen la posibilidad de calificar cada respuesta que se genera. Puede configurar un panel de control de Grafana para comparar las calificaciones, además de la latencia y los tiempos de respuesta de cada modelo. Luego, puede usar esos datos para elegir el mejor LLM para implementar en la producción.

Ícono de descarga del PDF

El diagrama de la arquitectura muestra el diseño de la aplicación con NVIDIA AI Enterprise y Red Hat OpenShift AI. Los elementos que se incluyen son OpenShift GitOps para conectarse a GitHub y gestionar las interacciones de DevOps, Grafana para el control, OpenShift AI para el análisis de datos, Redis como base de datos vectorial y Quay como un registro de imágenes. Todos ellos se integran en el frontend y el backend de la aplicación. Se basan en Red Hat OpenShift AI y se integran con los servicios de ai.nvidia.com.

Consulta los recursos relacionados

Estudio de caso

DenizBank facilita el trabajo de sus analistas de datos con Red Hat OpenShift AI.

Video

Los sistemas de seguridad de inteligencia artificial para los LLM garantizan la protección de los modelos de inteligencia artificial generativa.

Informe de analistas

Informe de Omdia: Aprende a desarrollar una base operativa sólida para la inteligencia artificial

Lista de verificación

Las cinco formas principales de implementar MLOps en la empresa con éxito

Prueba Red Hat OpenShift AI

Developer Sandbox

Está destinado a desarrolladores y analistas de datos que deseen realizar pruebas del diseño de aplicaciones con inteligencia artificial en un entorno flexible y configurado previamente.

Versión de prueba de 60 días

Cuando tu empresa esté lista para evaluar todas las funciones de OpenShift AI, accede a la versión de prueba del producto de 60 días. Debes poseer un clúster de Red Hat OpenShift para hacerlo.

Comunícate con el Departamento de Ventas

Habla con un representante de Red Hat