-
Productos y documentación Red Hat AI
Una plataforma de productos y servicios para el desarrollo y la implementación de la inteligencia artificial en la nube híbrida.
Red Hat AI Inference Server
Optimiza el rendimiento de los modelos con vLLM para realizar inferencias rápidas y rentables según sea necesario.
Red Hat Enterprise Linux AI
Desarrolla, prueba y ejecuta modelos de inteligencia artificial generativa para impulsar las aplicaciones empresariales.
Red Hat OpenShift AI
Diseña e implementa aplicaciones y modelos con inteligencia artificial según sea necesario en entornos híbridos.
Servicios de nube
Red Hat AI InstructLab on IBM Cloud
Una solución rentable y con capacidad de ajuste para personalizar los modelos de inteligencia artificial en la nube.
-
Recursos de aprendizaje Conceptos básicos
Casos prácticos de los productos
-
Partners de IA
Red Hat AI Inference Server
Red Hat® AI Inference Server optimiza la inferencia en la nube híbrida para realizar implementaciones de modelos de manera más rápida y rentable.
¿Qué es un servidor de inferencia?
Un servidor de inferencia es una parte del software que permite que las aplicaciones de inteligencia artificial se comuniquen con los modelos de lenguaje de gran tamaño (LLM) y generen una respuesta basándose en los datos. A este proceso se lo conoce como inferencia, que es donde se genera el valor empresarial y se obtienen los resultados.
Los LLM necesitan una gran capacidad de almacenamiento, memoria e infraestructura para realizar inferencias a gran escala y funcionar de manera eficiente, por lo que pueden suponer un gran porcentaje de tu presupuesto.
Red Hat AI Inference Server forma parte de la plataforma Red Hat AI y optimiza las funciones de inferencia para reducir los costos que suelen ser altos y la infraestructura amplia.
Introduction to Red Hat AI Inference Server
¿Cómo funciona Red Hat AI Inference Server?
Red Hat AI Inference Server proporciona inferencias rápidas y rentables a gran escala. Su naturaleza open source permite que admita cualquier modelo de inteligencia artificial generativa en cualquier acelerador de inteligencia artificial en cualquier entorno de nube.
Al estar impulsado por los modelos de lenguaje de gran tamaño virtuales (vLLM), el servidor de inferencia aprovecha al máximo el uso de la unidad de procesamiento gráfico (GPU) y facilita tiempos de respuesta más rápidos. Cuando se combina con las funciones de LLM Compressor, la eficiencia de la inferencia aumenta sin comprometer el rendimiento. Gracias a su capacidad de adaptación en varias plataformas y la comunidad de colaboradores cada vez más grande, los vLLM se están convirtiendo en el Linux® de la inferencia de inteligencia artificial generativa.
50 % Algunos clientes que utilizaron LLM Compressor lograron un ahorro del 50 % sin comprometer el rendimiento*.
* Zelenović, Saša. "Aprovecha todo el potencial de los LLM: optimiza el rendimiento con los vLLM". Blog de Red Hat, 27 de febrero de 2025.
Tú eliges los modelos
Red Hat AI Inference Server admite todos los principales modelos open source y mantiene la portabilidad flexible de la GPU. Puedes utilizar cualquier modelo de inteligencia artificial generativa y elegir entre nuestro conjunto optimizado de modelos validados, open source o de terceros.
Además, como forma parte de Red Hat AI, Red Hat AI Inference Server está certificada para todos los productos de Red Hat. También se puede implementar en otras plataformas de Linux y Kubernetes con soporte conforme a la política de soporte para terceros de Red Hat.
Funciones y ventajas de Red Hat AI Inference Server
Soporte de Red Hat AI
Somos uno de los mayores colaboradores comerciales de los LLM, por lo que tenemos un amplio conocimiento sobre esta tecnología. Nuestros consultores de inteligencia artificial tienen la experiencia necesaria para ayudarte a cumplir tus objetivos empresariales.
Métodos de compra
Red Hat AI Inference Server está disponible como un producto independiente o como parte de Red Hat AI. Está incluida en Red Hat Enterprise Linux® AI y en Red Hat OpenShift® AI.
Implementación con partners
Los especialistas y las tecnologías se unen para que los clientes puedan obtener mejores resultados con la inteligencia artificial. Descubre todos los partners que trabajan con Red Hat para certificar su funcionamiento con nuestras soluciones.
Historias de clientes sobre inteligencia artificial en Red Hat Summit y AnsibleFest 2025
Turkish Airlines duplicó la velocidad de la implementación al brindar acceso a los datos en toda la empresa.
JCCM mejoró los procesos de evaluación del impacto ambiental (EIA) de la región con la inteligencia artificial.
DenizBank agilizó el tiempo de comercialización de días a minutos.
Hitachi implementó la inteligencia artificial en toda su empresa con Red Hat OpenShift AI.
Preguntas frecuentes sobre Red Hat AI Inference Server
¿Debo adquirir Red Hat Enterprise Linux AI o Red Hat OpenShift AI para utilizar Red Hat AI Inference Server?
No. Puedes adquirir Red Hat AI Inference Server como un producto independiente de Red Hat.
¿Debo adquirir Red Hat AI Inference Server para usar Red Hat Enterprise Linux AI?
No. Red Hat AI Inference Server está incluida en Red Hat Enterprise Linux AI y en Red Hat OpenShift AI.
¿Se puede ejecutar Red Hat AI Inference Server en Red Hat Enterprise Linux o en Red Hat OpenShift?
Sí. También se puede ejecutar en entornos Linux de terceros según nuestro acuerdo.
¿Cómo se establece el precio de Red Hat AI Inference Server?
El precio se establece por acelerador.
La inteligencia artificial que se adapta a tus necesidades y opera según tus condiciones.
Inteligencia artificial generativa
Produce contenido nuevo, como texto y código de software.
Red Hat AI te permite ejecutar los modelos de inteligencia artificial generativa que elijas con mayor rapidez, menos recursos y menos costos de inferencia.
Inteligencia artificial predictiva
Conecta patrones y prevé resultados futuros
Con Red Hat AI, las empresas pueden diseñar, entrenar, poner a disposición y supervisar los modelos predictivos, mientras mantienen la uniformidad en toda la nube híbrida.
El uso de la inteligencia artificial
Crea sistemas que respalden el mantenimiento y la implementación de la inteligencia artificial a gran escala.
Con Red Hat AI, puedes gestionar y supervisar el ciclo de vida de las aplicaciones que utilizan la inteligencia artificial, ahorrar recursos y garantizar el cumplimiento de las normas de privacidad.
Inteligencia artificial con agentes
Diseña flujos de trabajo que lleven a cabo tareas complejas con supervisión limitada.
Red Hat AI ofrece un enfoque flexible y una base estable para diseñar, gestionar e implementar flujos de trabajo de inteligencia artificial con agentes dentro de las aplicaciones actuales.