


Red Hat AI
Desarrolla la IA para tu mundo
Ofrece los beneficios de la inteligencia artificial (IA) con los recursos que tienes, los conocimientos que posees y la libertad que necesitas.
Red Hat® AI está diseñada para que puedas desarrollar y ejecutar soluciones de inteligencia artificial que funcionen de la misma manera que lo hace tu empresa: desde las primeras pruebas hasta toda la etapa de producción.
IA flexible para la empresa
Para garantizar la uniformidad en la nube híbrida, necesitas una plataforma que te permita implementar recursos donde se encuentren los datos.
Red Hat AI te permite controlar las funciones de la inteligencia artificial generativa y de la predictiva, tanto en la nube como en las instalaciones o el extremo de la red.
Gracias a Red Hat AI, puedes mantener la flexibilidad mientras realizas ajustes.
Con Red Hat AI, puedes:
- acceder a modelos de código y de lenguaje de tecnología open source Granite;
- usar tus propios datos para perfeccionar modelos más pequeños diseñados para propósitos específicos;
- optimizar las inferencias con los modelos de lenguaje de gran tamaño virtuales (vLLM).
Red Hat AI incluye:
Red Hat Enterprise Linux AI
Red Hat Enterprise Linux® AI ayuda a los clientes que aún no han definido sus casos prácticos empresariales en el inicio de su proceso de adopción de la inteligencia artificial. Esta plataforma está diseñada para desarrollar, probar y ejecutar los modelos base de la inteligencia artificial generativa.
Funciones y ventajas
- Incluye los modelos de lenguaje de gran tamaño (LLM) Granite de IBM.
- Los modelos se pueden perfeccionar con InstructLab de manera local.
- Es rentable para los clientes con acceso restringido a la GPU.
Red Hat OpenShift AI
Red Hat OpenShift® AI está destinada a los clientes que ya están en condiciones de ajustar sus aplicaciones de inteligencia artificial. Esta plataforma permite gestionar el ciclo de vida de los modelos de inteligencia artificial predictiva y generativa en todos los entornos de la nube híbrida.
Funciones y ventajas
- Incluye funciones de MLOps para empresas.
- Cuenta con los LLM Granite de IBM y las herramientas de InstructLab.
- La inteligencia artificial se puede diseñar y distribuir según sea necesario con los aceleradores de hardware y la compatibilidad de la nube híbrida.
Personaliza los LLM con InstructLab de manera local
InstructLab de Red Hat es un proyecto de la comunidad que permite que los desarrolladores prueben los modelos Granite de IBM con mayor facilidad, incluso si tienen poca experiencia en machine learning (aprendizaje automático).
Es una buena opción para comenzar si deseas experimentar con el modelo de inteligencia artificial que elijas o perfeccionar los modelos base de tu hardware local.
De esta manera, eliminas los obstáculos relacionados con los costos y los recursos para realizar pruebas con los modelos antes de que estés en condiciones de incorporar la inteligencia artificial en tu empresa.
Más partners de IA y más opciones para el futuro
Los especialistas y las tecnologías se combinan para que nuestros clientes puedan obtener mejores resultados con la inteligencia artificial. Varios partners tecnológicos trabajan con Red Hat para certificar su funcionamiento con nuestras soluciones.
Patrón de la solución
Aplicaciones de inteligencia artificial con NVIDIA AI Enterprise y Red Hat
Cree una aplicación RAG
Red Hat OpenShift AI es una plataforma para diseñar proyectos de análisis de datos y distribuir aplicaciones que utilizan la inteligencia artificial. Con ella puede integrar todas las herramientas que necesita para respaldar la generación aumentada por recuperación (RAG), un método para obtener respuestas de la inteligencia artificial desde sus documentos de referencia. Cuando conecta OpenShift AI con NVIDIA AI Enterprise, puede experimentar con los modelos de lenguaje de gran tamaño (LLM) para encontrar el más adecuado para su aplicación.
Diseñe un canal para los documentos
Para usar la RAG, primero debe incorporar los documentos en una base de datos vectorial. En nuestra aplicación de ejemplo, integramos un conjunto de documentos de productos en una base de datos de Redis. Ya que estos cambian con frecuencia, podemos crear un canal para este proceso que ejecutaremos de forma regular y, de esta forma, siempre tendremos las versiones más recientes de ellos.
Consulte el catálogo de LLM
NVIDIA AI Enterprise brinda acceso a un catálogo de distintos LLM, por lo que puede probar diferentes opciones y elegir el modelo que ofrezca los mejores resultados. Estos modelos se alojan en el catálogo de NVIDIA API. Una vez que haya configurado un token de interfaz de programación de aplicaciones (API), puede implementar un modelo utilizando la plataforma de distribución de NVIDIA NIM directamente desde OpenShift AI.
Seleccione el modelo adecuado
A medida que prueba distintos LLM, los usuarios tienen la posibilidad de calificar cada respuesta que se genera. Puede configurar un panel de control de Grafana para comparar las calificaciones, además de la latencia y los tiempos de respuesta de cada modelo. Luego, puede usar esos datos para elegir el mejor LLM para implementar en la producción.
Red Hat AI en el mundo real
Ortec Finance agiliza el crecimiento y el tiempo de comercialización
Ortec Finance, un proveedor internacional de soluciones y tecnologías para la gestión del riesgo y la rentabilidad, implementa los modelos de machine learning en Microsoft Azure Red Hat OpenShift y adopta Red Hat AI.
DenizBank facilita el trabajo de sus analistas de datos
DenizBank desarrolla modelos de inteligencia artificial que permiten identificar préstamos para los clientes y posibles fraudes. Gracias a Red Hat AI, los analistas de datos lograron mayor autonomía sobre sus datos.


