El mundo de la inteligencia artificial generativa se mueve con gran rapidez. Para las empresas, navegar por la avalancha de nuevos modelos de lenguaje de gran tamaño (LLM), herramientas (como los servidores de Protocolo de Contexto de Modelo (MCP)) y marcos puede resultar abrumador. ¿Cómo eliges el modelo adecuado? ¿Cómo puedes capacitar a tus equipos para que experimenten y construyan con las últimas innovaciones en inteligencia artificial sin crear barreras organizacionales?
En Red Hat, creemos que el futuro de la inteligencia artificial es abierto, accesible y gestionable a escala. Por eso, nos complace anunciar dos nuevas experiencias de paneles consolidados en Red Hat OpenShift AI 3.0: el AI Hub y el Gen AI studio.
Estas experiencias están diseñadas para optimizar todo el ciclo de vida de la inteligencia artificial generativa para las empresas, al proporcionar componentes personalizados para las personas clave que innovan con la inteligencia artificial dentro de las organizaciones: ingenieros de plataforma e ingenieros de inteligencia artificial.
Novedades: un vistazo más de cerca
AI Hub y gen AI studio trabajan juntos para crear un flujo de trabajo integral y coherente que permita construir soluciones de inteligencia artificial listas para la producción en una plataforma confiable y uniforme.
AI hub: el panel de control del ingeniero de plataformas
El AI hub es el punto central para la gestión y la gobernanza de los recursos de inteligencia artificial generativa dentro de OpenShift AI. Permite a los ingenieros de plataformas descubrir, implementar y gestionar los elementos básicos que necesitan sus equipos. Entre los elementos clave se incluyen:
- Catálogo: una biblioteca seleccionada donde los ingenieros de plataformas pueden descubrir, comparar y evaluar una amplia variedad de modelos. Esto ayuda a superar la "parálisis de selección de modelos" al proporcionar los datos necesarios para elegir el modelo óptimo para cualquier caso práctico.
- Registro: un repositorio central para registrar, administrar versiones así como gestionar el ciclo de vida de los modelos de inteligencia artificial antes de configurarlos para su implementación.
- Implementaciones: una página administrativa para configurar, implementar y monitorear el estado de los modelos que se ejecutan en el clúster.
Gen AI studio: el banco de trabajo para la innovación de los ingenieros de inteligencia artificial
Mientras que el AI hub proporciona control, el gen AI studio ofrece un entorno práctico para que los ingenieros de inteligencia artificial consuman, experimenten y construyan. Es donde la innovación toma forma. Gen AI studio incluye:
- AI asset endpoints: Los ingenieros de inteligencia artificial tienen una vista simple y clara para ver todos los modelos implementados y aprovisionados, así como los servidores de MCP (a través del mapa de configuración) disponibles para su uso dentro de sus proyectos.
- Playground: un entorno interactivo y sin estado donde los ingenieros de inteligencia artificial pueden experimentar con los recursos implementados, probar las peticiones, ajustar los parámetros y evaluar el rendimiento para casos prácticos como el chat y la generación aumentada de recuperación (RAG).
Este espacio de experimentación integrado es revolucionario. Traslada las pruebas de entornos locales dispares a una plataforma estandarizada y colaborativa, lo que acelera todo el ciclo de vida del desarrollo. Al mismo tiempo, brinda a los ingenieros de inteligencia artificial una visibilidad clara de los recursos de inteligencia artificial aprobados a los que pueden acceder y utilizar, lo que garantiza que la experimentación se realice de acuerdo con las políticas empresariales.
Valor real para la empresa
Al crear una experiencia unificada para los ingenieros de plataformas y de inteligencia artificial, OpenShift AI 3.0 ofrece importantes beneficios que abordan los desafíos empresariales comunes.
- Selección optimizada de modelos: el catálogo del AI hub simplifica la complejidad del mercado, lo que permite a los ingenieros de plataformas seleccionar un conjunto de modelos listos para la empresa que se adapten mejor a sus necesidades empresariales.
- Recursos de inteligencia artificial centralizados y gobernados: la plataforma resuelve la fragmentación organizacional al crear una única fuente de verdad para todos los recursos de inteligencia artificial generativa. Los ingenieros de plataformas pueden gestionar, versionar y proporcionar acceso intencional a los ingenieros de inteligencia artificial, sentando las bases para una gobernanza completa de la inteligencia artificial.
- Ciclos de desarrollo acelerados: el playground del gen AI studio cierra la brecha entre el descubrimiento y la integración. Los ingenieros de inteligencia artificial pueden probar y validar los modelos rápidamente y, con la aparición de los servidores MCP, experimentar con las llamadas a herramientas de manera estandarizada. Esto reduce los errores de implementación y acelera la puesta en producción de las aplicaciones basadas en la inteligencia artificial.
Cómo comenzar
¿Estás listo para incorporar el control centralizado y la innovación acelerada a tus flujos de trabajo de inteligencia artificial? AI hub y gen AI studio están aquí para ayudarte a construir tu próxima generación de aplicaciones de inteligencia artificial en una plataforma en la que puedes confiar.
Nuestro objetivo es ayudarte a escribir artículos interesantes que satisfagan las necesidades de nuestros lectores. Esto comienza por proporcionar una ruta clara para poner en práctica nuestra tecnología.
¿Qué sigue?
Esto es solo el comienzo. Continuamos dando evolución a OpenShift AI para admitir todo el espectro de la inteligencia artificial generativa. En el futuro, puedes esperar que los recursos de inteligencia artificial amplíen la gestión de los servidores de MCP e incluyan otros componentes de alta prioridad, como agentes, fuentes de conocimiento para RAG y medidas de seguridad.
También planeamos extender la soberanía y la gobernanza de los recursos de inteligencia artificial al AI hub y al gen AI studio para proporcionar a las empresas un control detallado de las cuotas, los permisos y la gestión de los recursos de inteligencia artificial, a fin de garantizar el cumplimiento.
El futuro de la inteligencia artificial empresarial es abierto y colaborativo, y OpenShift AI es la plataforma para lograrlo.
Recurso
La empresa adaptable: Motivos por los que la preparación para la inteligencia artificial implica prepararse para los cambios drásticos
Sobre los autores
My name is Rob Greenberg, Principal Product Manager for Red Hat AI, and I came over to Red Hat with the Neural Magic acquisition in January 2025. Prior to joining Red Hat, I spent 3 years at Neural Magic building and delivering tools that accelerate AI inference with optimized, open-source models. I've also had stints as a Digital Product Manager at Rocketbook and as a Technology Consultant at Accenture.
Más como éste
Smarter troubleshooting with the new MCP server for Red Hat Enterprise Linux (now in developer preview)
Navigating secure AI deployment: Architecture for enhancing AI system security and safety
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Virtualización
El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube