Red Hat Enterprise Linux AI

La plataforma Red Hat® Enterprise Linux® AI permite ejecutar modelos de lenguaje de gran tamaño (LLM) en entornos de servidor único. La solución incluye Red Hat AI Inference Server, que ofrece inferencias rápidas y rentables en toda la nube híbrida al aumentar al máximo el rendimiento y disminuir la latencia.

Gráfico de la interfaz de RHELAI

¿Qué es Red Hat Enterprise Linux AI?

Red Hat Enterprise Linux AI reúne:

  • Red Hat AI Inference Server, que permite la implementación ágil y uniforme de modelos en la nube híbrida con amplio soporte de hardware;
  • una imagen de arranque de Red Hat Enterprise Linux, que incluye las bibliotecas de inteligencia artificial más conocidas, como PyTorch, e inferencias optimizadas por hardware para NVIDIA, Intel y AMD;
  • soporte técnico para empresas y protección legal con Open Source Assurance

Inferencia ágil y flexible

Cuando se trata de implementar la IA generativa, tienes dos opciones: puedes adaptar la estrategia al producto prediseñado o desarrollar una solución personalizada que coincida con tus objetivos empresariales. 

Red Hat Enterprise Linux AI se basa en el open source y ofrece una infraestructura confiable y segura que permite la ejecución de todo tipo de modelo en cualquier sistema de hardware y acelerador en la nube híbrida. La solución incluye Red Hat AI Inference Server, que proporciona un dispositivo inmutable y diseñado exclusivamente para la inferencia. Dado que el sistema operativo y AI Inference Server están empaquetados, puedes poner los modelos a disposición de forma inmediata. Además, el tiempo de ejecución de los vLLM y el compresor de LLM están integrados, lo que te permite aprovechar el rendimiento al máximo y reducir la latencia para obtener implementaciones del modelo ágiles y rentables. 

Ilustración iconográfica de burbujas open source

LLM para las empresas

Perfecciona con tus propios datos modelos más pequeños y diseñados a medida con métodos como la generación aumentada por recuperación (RAG).

Eficiencia mejorada

Red Hat AI Inference Server utiliza vLLM, por lo cual mejora la eficiencia sin disminuir el rendimiento. 

Ilustración iconográfica de un diagrama que simboliza la simplificación

Capacidad de ajuste en la nube

El modo de imagen de Red Hat Enterprise Linux te permite gestionar tu plataforma de inteligencia artificial como una imagen de contenedor y, así, agilizar la capacidad de ajuste.

La inteligencia artificial que se adapta a tus necesidades y opera según tus condiciones.

Inteligencia artificial generativa

Inteligencia artificial generativa

Produce contenido nuevo, como texto y código de software. 

Red Hat AI te permite ejecutar los modelos de inteligencia artificial generativa que elijas con mayor rapidez, menos recursos y menos costos de inferencia. 

Inteligencia artificial predictiva

Inteligencia artificial predictiva

Conecta patrones y prevé resultados futuros 

Con Red Hat AI, las empresas pueden diseñar, entrenar, poner a disposición y supervisar los modelos predictivos, mientras mantienen la uniformidad en toda la nube híbrida.

El uso de la inteligencia artificial

El uso de la inteligencia artificial

Crea sistemas que respalden el mantenimiento y la implementación de la inteligencia artificial a gran escala. 

Con Red Hat AI, puedes gestionar y supervisar el ciclo de vida de las aplicaciones que utilizan la inteligencia artificial, ahorrar recursos y garantizar el cumplimiento de las normas de privacidad. 

Inteligencia artificial con agentes

Inteligencia artificial con agentes

Diseña flujos de trabajo que lleven a cabo tareas complejas con supervisión limitada. 

Red Hat AI ofrece un enfoque flexible y una base estable para diseñar, gestionar e implementar flujos de trabajo de inteligencia artificial con agentes dentro de las aplicaciones actuales.

Implementación con partners

El entrenamiento de los modelos de inteligencia artificial requiere de sistemas de hardware optimizados y funciones informáticas potentes. Obtén más beneficios de Red Hat Enterprise Linux AI utilizándola con otros servicios y productos integrados. 

Logotipo de Dell Technologies
Logotipo de Lenovo
Logotipo de Intel
Logotipo de NVIDIA
Logotipo de AMD

Historias de clientes sobre inteligencia artificial en Red Hat Summit y AnsibleFest 2025

Turkish Airlines

Turkish Airlines duplicó la velocidad de la implementación al brindar acceso a los datos en toda la empresa.

Logotipo de JCCM

JCCM mejoró los procesos de evaluación del impacto ambiental (EIA) de la región con la inteligencia artificial.

DenizBank

DenizBank agilizó el tiempo de comercialización de días a minutos.

Logotipo de Hitachi

Hitachi implementó la inteligencia artificial en toda su empresa con Red Hat OpenShift AI.

Preguntas frecuentes

¿En qué se diferencian Red Hat Enterprise Linux AI y Red Hat Enterprise Linux?

Red Hat Enterprise Linux AI es una plataforma de modelos base donde se ejecutan modelos de lenguaje de gran tamaño en entornos de servidor único. Con Red Hat AI Inference Server como parte de la solución, se obtienen inferencias ágiles y rentables en la nube híbrida, dado que se optimiza el rendimiento y se reduce la latencia y los costos informáticos.

Red Hat Enterprise Linux es una distribución comercial open source de Linux desarrollada por Red Hat para este mercado, que brinda una base flexible y estable para respaldar la innovación en la nube híbrida.

Red Hat Enterprise Linux AI se ofrece como una imagen de arranque de Red Hat Enterprise Linux que incluye bibliotecas de inteligencia artificial y modelos de Granite.

¿Tengo que adquirir Red Hat Enterprise Linux para utilizar Red Hat Enterprise Linux AI?

No, la licencia de Red Hat Enterprise Linux AI es suficiente e incluye todos los elementos necesarios.

¿Qué incluye Red Hat Enterprise Linux AI?

Red Hat Enterprise Linux AI brinda una imagen de arranque de una imagen de contenedor de Red Hat Enterprise Linux que incluye:

¿En qué se diferencian Red Hat Enterprise Linux AI y Red Hat OpenShift AI?

Red Hat Enterprise Linux AI ofrece modelos de lenguaje de gran tamaño listos para usar en un solo servidor. La solución incluye Red Hat AI Inference Server, que proporciona un dispositivo inmutable y diseñado exclusivamente para la inferencia. Dado que empaqueta el sistema operativo y la aplicación en conjunto, simplifica las operaciones del día uno para la inferencia de inteligencia artificial en la nube híbrida al aprovechar al máximo la latencia y disminuir los costos informáticos.

Red Hat OpenShift® AI proporciona todas las herramientas que se requieren para que los clientes puedan diseñar aplicaciones que utilicen la inteligencia artificial según lo necesiten. Red Hat OpenShift AI ofrece una plataforma de MLOps integrada y completa que sirve para gestionar el ciclo de vida de los modelos y garantiza el soporte para la informática distribuida, los flujos de trabajo de colaboración, la supervisión y las aplicaciones de la nube híbrida.

Red Hat OpenShift AI incluye acceso a Red Hat Enterprise Linux AI, por lo que los equipos pueden utilizar los mismos modelos y herramientas de ajuste en su arquitectura de OpenShift AI, así como beneficiarse de las funciones adicionales de MLOps para empresas.

¿Cómo se determina el precio de Red Hat Enterprise Linux AI?

El precio de la licencia de Red Hat Enterprise Linux AI se determina por cada acelerador.

Recursos adicionales de inteligencia artificial

Cuatro aspectos clave para elegir el modelo de IA adecuado

Impulsa la innovación en la IA con modelos open source

4 reasons to use open source small language models

Unlock Generative AI innovation with Red Hat Enterprise Linux AI

Comunícate con el Departamento de Ventas

Habla con un representante de Red Hat

Comunícate con nuestro equipo de ventas a continuación para obtener información sobre los precios de Red Hat Enterprise Linux AI. 
Para conocer más sobre nuestros partners, visita nuestra página del catálogo.