Nos complace presentar nuestros modelos validados más recientes, diseñados para potenciar tus implementaciones. En Red Hat, nuestro objetivo es brindar la confianza, la previsibilidad y la flexibilidad que las empresas necesitan para implementar modelos de inteligencia artificial generativa de terceros en toda la plataforma de Red Hat AI. Esta versión amplía nuestra colección de modelos optimizados con referencias de rendimiento y evaluación de la precisión, lo que te permite agilizar la obtención de resultados y seleccionar el que mejor se adapte a tu caso práctico empresarial.
Los modelos validados de Red Hat AI no se limitan a una simple lista, sino que ofrecen una inteligencia artificial eficiente y lista para las empresas. Combinamos evaluaciones comparativas rigurosas de rendimiento y pruebas de precisión con un proceso de empaquetado integral diseñado para una implementación segura y sencilla. Cada modelo se analiza en busca de puntos vulnerables y se integra en un ciclo de vida de software gestionado, lo que garantiza que recibas un recurso de alto rendimiento y optimizado en recursos que se centre en la seguridad, sea fácil de gestionar y esté listo para las actualizaciones a largo plazo.
¿Qué son los modelos validados?
El mundo de los modelos de lenguaje de gran tamaño (LLM) se está expandiendo rápidamente, lo que dificulta que las empresas elijan el más adecuado. A menudo, las empresas tienen dificultades para planificar la capacidad de los recursos de inteligencia artificial y garantizar que el rendimiento de un modelo se pueda reproducir de manera confiable.
Aquí es donde entran en juego los modelos validados de Red Hat. Brindamos acceso a un conjunto de modelos de terceros listos para usar que se ejecutan de manera eficiente en vLLM dentro de nuestra plataforma. Simplificamos el proceso de selección realizando pruebas exhaustivas para ti. Nuestro proceso de validación de modelos incluye lo siguiente:
- Evaluación comparativa de rendimiento con GuideLLM para evaluar los requisitos de recursos y los costos en diversas configuraciones de hardware.
- Evaluaciones de precisión con el uso del arnés de evaluación del modelo de lenguaje (LM Eval Harness) para medir la respuesta de los modelos a las tareas nuevas.
- Implementaciones reproducibles en vLLM, el motor de inferencia de alto rendimiento, para garantizar que puedas obtener los mismos resultados.
- Empaquetado empresarial y centrado en la seguridad que utiliza formatos de contenedores estandarizados en nuestro registro de producción para crear un recurso con control de versiones y análisis de vulnerabilidades que simplifica la implementación y la gestión del ciclo de vida.
Este proceso proporciona una guía clara de planificación de la capacidad, lo que te permite dimensionar las implementaciones adecuadas, seleccionar el hardware óptimo y pasar a la producción más rápido y con confianza.
Funciones de optimización de los modelos de Red Hat
El alto costo y la escasez de hardware especializado, como las GPU con alto contenido de VRAM, suelen limitar la implementación de LLM potentes. Para democratizar el acceso y permitir que las empresas ejecuten estos modelos de manera más asequible, incluso en GPU más pequeñas o en menos GPU, Red Hat aplica técnicas avanzadas de compresión de modelos.
Este proceso de optimización fundamental, impulsado por tecnologías como LLM Compressor, implica técnicas como la cuantificación (p. ej., la conversión de modelos a los formatos dinámicos INT4, INT8 o FP8) que reducen en gran medida el espacio de memoria y los requisitos informáticos de los LLM a la vez que preservan cuidadosamente la calidad y la precisión de sus resultados.
Los modelos validados que ves en nuestra colección, muchos de los cuales están precomprimidos y listos para la implementación, son ejemplos de esta optimización en acción. Al aprovechar estos recursos, Red Hat te permite:
- Reducir el uso de VRAM, lo que permite servir modelos más grandes en menos recursos de GPU o en recursos de GPU más económicos.
- Reduce los costos operativos al maximizar la utilización del hardware.
- Logra un mayor rendimiento y una menor latencia durante la fase de inferencia crítica.
Estos recursos optimizados y validados están disponibles en nuestro repositorio público Red Hat AI Hugging Face y en el registro de contenedores de Red Hat en registry.redhat.io, lo que proporciona una fuente confiable para implementar inteligencia artificial rentable y de alto rendimiento.
Conoce los modelos validados más recientes
Los modelos validados más recientes cuentan con una línea de modelos potente y diversa, cada uno optimizado y listo para las cargas de trabajo de tu empresa.
- DeepSeek-R1 INT4: Un modelo de codificación de élite ideal para generar, completar y depurar código complejo en varios lenguajes de programación.
- Qwen 3 8B FP8 Dynamic: Un modelo multilingüe versátil y potente de Alibaba, diseñado para las aplicaciones de chatbot y la creación de contenido de todo el mundo.
- Kimi K2 Quantized INT4: Este modelo es conocido por su ventana de contexto excepcionalmente grande, lo que lo convierte en una herramienta ideal para la generación con recuperación aumentada (RAG) y el análisis de documentos extensos, tales como contratos legales o trabajos de investigación.
- Gemma-3n 4B FP8 Dynamic: Los modelos eficientes más nuevos de Google ofrecen un equilibrio entre el rendimiento y el tamaño para las tareas de resumen y las aplicaciones en el dispositivo.
- openai/gpt-oss-120b & openai/gpt-oss-20b: Grandes (y variante más pequeña), modelos básicos de uso general capaces de razonamiento complejo, generación de contenido matizado y resolución avanzada de problemas.
- Qwen3 Coder 480B-A35B-Instruct-FP8: Un asistente de codificación masivo y de nivel empresarial diseñado para los flujos de trabajo de automatización y desarrollo de software más exigentes.
- Voxtral-Mini-3B-2507 FP8 Dynamic: Un modelo ágil y con capacidad de respuesta centrado en la voz y el habla, excelente para diseñar aplicaciones habilitadas para la voz en tiempo real y agentes interactivos.
- whisper-large v3 INT4: Un modelo innovador de conversión de voz a texto de OpenAI, diseñado para la transcripción de audio de alta precisión, crear actas de reuniones y habilitar los comandos de voz.
- NVIDIA-Nemotron-Nano-9B-v2: Es un nuevo modelo de razonamiento y chat de uso general de NVIDIA que utiliza una arquitectura híbrida para los sistemas de agentes de inteligencia artificial, chatbots y RAG, y se puede utilizar comercialmente.
Comienza hoy mismo
Puedes acceder hoy mismo a estos modelos de inteligencia artificial potentes y listos para la implementación de dos maneras:
- Hugging Face: conoce los modelos validados y sus detalles en el repositorio de Red Hat AI.
- Red Hat Container Registry: extrae las imágenes de contenedores para implementarlas inmediatamente en RHOAI 2.25 o RHAIIS 3.2.2. Consulta los documentos
Nota: Todos los modelos están optimizados para su implementación en vLLM (versión 0.10.1.1 o posterior).
Próximamente
Para una integración aún más estrecha, estos modelos se incluirán en el catálogo de Red Hat OpenShift AI a partir de la versión 3.0, cuya disponibilidad general (GA) está programada para noviembre.
Para ver los datos completos de rendimiento y evaluación, ponte en contacto con tu representante de ventas.
Recurso
La empresa adaptable: Motivos por los que la preparación para la inteligencia artificial implica prepararse para los cambios drásticos
Sobre el autor
My name is Rob Greenberg, Principal Product Manager for Red Hat AI, and I came over to Red Hat with the Neural Magic acquisition in January 2025. Prior to joining Red Hat, I spent 3 years at Neural Magic building and delivering tools that accelerate AI inference with optimized, open-source models. I've also had stints as a Digital Product Manager at Rocketbook and as a Technology Consultant at Accenture.
Más como éste
Why the future of AI depends on a portable, open PyTorch ecosystem
How does real-world AI deliver value? The Ask Red Hat example
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Virtualización
El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube