Con el rápido aumento de la adopción de soluciones de inteligencia artificial en las empresas, se vuelve cada vez más costoso utilizar modelos públicos, los cuales conllevan el riesgo adicional de que los datos empresariales estén expuestos a terceros. El enfoque de modelos como servicio (MaaS) permite que las empresas ofrezcan modelos open source (y la stack de tecnología de inteligencia artificial necesaria) que pueden utilizar como un recurso compartido.

Además, al agilizarse la adopción de la inteligencia artificial, suele haber falta de uniformidad, ya que cada departamento se esfuerza por diseñar sus propias soluciones personalizadas para cubrir una amplia variedad de casos prácticos (chatbots, asistente de código, generación de texto e imágenes, etc.). 

Todo sobre los modelos como servicio

En el informe de IDC sobre las tendencias de adopción de la inteligencia artificial, se describe la manera en que las empresas pasan de las soluciones basadas en oportunidades puntuales a las gestionadas, las cuales pueden transformar la empresa por completo.

IDC prediction on AI adoption trends

 

Cada departamento suele necesitar distintos tipos de modelos de inteligencia artificial para abordar sus casos prácticos específicos. Estos son algunos ejemplos:

  • Modelos de inteligencia artificial generativa: se utilizan para crear contenido nuevo, como textos o imágenes.
  • Modelos de inteligencia artificial predictiva: se utilizan para clasificar o predecir patrones en los datos.
  • Modelos de inteligencia artificial perfeccionados: están personalizados con datos específicos de la empresa o del área.
  • Generación aumentada por recuperación (RAG): mejora la información genérica del modelo con datos específicos de la empresa o del área.

Los modelos de inteligencia artificial generativa a los que se puede acceder a través de servicios alojados de terceros, como OpenAI, Claude y Gemini, son fáciles de comenzar a usar, pero se vuelven muy costosos cuando se utilizan a gran escala. Además, la información empresarial puede estar expuesta a estas otras partes, lo que representa problemas de privacidad y de seguridad de los datos. Los modelos de inteligencia artificial generativa, así como otros, también pueden estar autoalojados por la empresa, pero esto puede generar iniciativas duplicadas en varios departamentos, lo que aumenta los costos y el tiempo de comercialización.

Debido al lanzamiento de esos modelos cada dos semanas y a la velocidad de los avances en inteligencia artificial, a las empresas les resulta casi imposible mantenerse al día. Hay varias opciones de modelos, desde aquellos de tamaños muy grandes (con 450 000 millones de parámetros) hasta versiones más pequeñas (cuantizadas o con menos parámetros) o que son una combinación de modelos especializados. Muchos desarrolladores carecen de la experiencia necesaria para elegir el modelo adecuado o para utilizar de manera óptima los recursos costosos, por ejemplo, las unidades de procesamiento gráfico (GPU). 

Dado que cada departamento desarrolla sus propias soluciones de inteligencia artificial, las empresas enfrentan varios desafíos:

  • Costos elevados: la implementación y el mantenimiento de los modelos de inteligencia artificial requieren clústeres de GPU costosos, experiencia en machine learning (aprendizaje automático) y perfeccionamiento continuo. El entrenamiento y el perfeccionamiento de los modelos de forma interna cuestan millones de dólares en recursos informáticos, almacenamiento y personal. Además, sin un control concentrado, los costos pueden volverse impredecibles.
  • Duplicación: la duplicación o el poco uso de los escasos recursos de inteligencia artificial dan lugar a que se malgasten los presupuestos.
  • Complejidad: los desarrolladores solo buscan acceder al modelo y no quieren lidiar con la complejidad de la infraestructura ni con la stack de inteligencia artificial, que evoluciona constantemente.
  • Falta de personal capacitado: las empresas no tienen los ingenieros de machine learning, los analistas de datos ni los investigadores de inteligencia artificial que se necesitan para diseñar modelos personalizados.
  • Control operativo: debido a que varios departamentos trabajan en sus propias iniciativas de inteligencia artificial de forma independiente, las empresas tienen dificultades con la flexibilidad, el control de versiones y los desajustes de los modelos.

Debe haber un mejor enfoque para que las empresas aprovechen el avance de la inteligencia artificial sin gastar demasiado dinero.

Los MaaS al rescate

Los MaaS permiten que las empresas ofrezcan modelos open source (y la stack de inteligencia artificial necesaria) que se pueden utilizar como recursos compartidos. De hecho, los equipos de TI empresarial se convierten en el proveedor de servicios de inteligencia artificial que puede utilizar toda la empresa. 

Los usuarios pueden elegir entre modelos de última generación y modelos cuantizados o de lenguaje pequeños (SLM), cuyo tamaño es mucho menor, pero ofrecen un rendimiento similar por una fracción del costo. Pueden ajustarse y personalizarse con datos privados de la empresa y ejecutarse en sistemas de hardware menos potentes, por lo que consumen menos energía. Es posible que haya varias instancias de los modelos para abordar diferentes casos prácticos y entornos de implementación. Los modelos se ponen a disposición en la etapa de producción de manera eficiente para aprovechar al máximo los recursos de hardware disponibles.

Ahora, los desarrolladores pueden acceder a los modelos de manera sencilla y centrarse en diseñar aplicaciones de inteligencia artificial, en vez de preocuparse por las complejidades de la infraestructura fundamental (por ejemplo, las GPU). 

El equipo de TI empresarial supervisa el uso del modelo por parte de los distintos departamentos y cobra por el consumo de los servicios de inteligencia artificial. También aplica las prácticas recomendadas de gestión de la inteligencia artificial para optimizar la implementación y el mantenimiento de los modelos (por ejemplo, el control de versiones y las pruebas de regresión).

Overview of Model-as-a-Service solution

Estas son algunas de las ventajas de que el equipo de TI se convierta en el proveedor privado de inteligencia artificial de la empresa:

  • Menor complejidad: los MaaS concentrados ayudan a eliminar la complejidad de la infraestructura de inteligencia artificial para los usuarios.
  • Reducción de los costos: se disminuyen los costos al poner a disposición en la etapa de producción los servicios de inferencia de modelos desde un solo lugar.
  • Mayor seguridad: se cumplen con las políticas actuales de seguridad, datos y privacidad al no utilizar modelos alojados de terceros.
  • Innovación más rápida: el aumento en la velocidad de la implementación de modelos y la innovación en torno a ellos agiliza la comercialización de las aplicaciones de inteligencia artificial.
  • Sin duplicaciones: evita la duplicación de los recursos escasos de inteligencia artificial en varios departamentos. Los analistas de datos proporcionan los modelos optimizados que se necesitan para las tareas empresariales comunes.
  • Libertad de elección: elimina la dependencia a un solo proveedor y mantiene la portabilidad de las cargas de trabajo de inteligencia artificial.

Funcionamiento interno de los MaaS

La stack de soluciones de MaaS está compuesta por Red Hat OpenShift AI, la puerta de enlace de API (que forma parte de Red Hat 3scale API Management) y Single Sign-On (SSO) de Red Hat. Ofrece control integral de la inteligencia artificial, acceso de confianza cero (la compilación Keycloak de Red Hat), un servidor de inferencia de inteligencia artificial (vLLM) y flexibilidad de nube híbrida (OpenShift AI) en una sola plataforma. También utiliza herramientas uniformes para implementar la solución en las instalaciones y en la nube con Red Hat OpenShift.

Logical view of Model-as-a-Service solution

 

Veamos cada uno de estos elementos con más detalle.

Puerta de enlace de API

Ofrece control empresarial sobre las API del modelo. Esta stack de soluciones se basa en 3Scale API Gateway, pero se puede usar cualquier puerta de enlace de API empresarial en su lugar. Las siguientes son algunas de las ventajas de la puerta de enlace de API:

  • Seguridad y cumplimiento
    • aplicación de la autenticación de la API a través de JWT/OAuth2 para el acceso a los modelos de lenguaje de gran tamaño (LLM);
    • cifrado de todo el tráfico de la API hacia los servicios del LLM y desde ellos;
    • registros de auditoría para el cumplimiento normativo (GDPR, HIPAA, SOC2).
  • Optimización del uso
    • establecimiento de límites de frecuencia y cuotas para evitar sobrepasar el presupuesto;
    • supervisión del uso de la API de los LLM por equipo o proyecto;
    • identificación de los endpoints que no se utilizan o se usan en exceso.
  • Compatibilidad con la implementación híbrida
    • gestión uniforme de las API en la nube y en las instalaciones (a través de la integración con OpenShift);
    • implementación de puertas de enlace de API exclusivas para las instancias de LLM privadas.
  • Posibilidades para los desarrolladores
    • portal de autoservicio para desarrolladores para la detección de las API de los LLM;
    • documentación y pruebas automatizadas de las API.
  • Integración con OpenShift AI
    • implementación de control para los modelos que se ejecutan en OpenShift AI;
    • seguimiento del uso de las API de inteligencia artificial/machine learning junto con los servicios tradicionales.

Autenticación

El elemento de autenticación ofrece una gestión unificada de las identidades para los servicios de los LLM. Esta stack de soluciones se basa en la tecnología de SSO de Red Hat, pero se puede usar cualquier otra solución de autenticación empresarial en su lugar. Estas son algunas de las ventajas de la autenticación:

  •  Seguridad de confianza cero
    • autenticación concentrada para todas las herramientas de LLM (OIDC/SAML);
    • control de acceso basado en funciones (RBAC) para permisos específicos;
    • compatibilidad con la autenticación de varios factores (MFA) para las cargas de trabajo de inteligencia artificial confidenciales.
  • Integración de la identidad empresarial
    • conexión a Active Directory, el protocolo ligero de acceso a directorios (LDAP) u otros proveedores de identidad;
    • automatización del aprovisionamiento y la eliminación de los usuarios.
  • Gestión de acceso flexible
    • SSO para todos los portales internos de inteligencia artificial;
    • gestión de las sesiones para el cumplimiento normativo.
  • Preparación para la nube híbrida
    • acceso seguro a los LLM, donde sea que se ejecuten (en la nube pública o en las instalaciones);
    • políticas uniformes en todos los entornos.

Integración con OpenShift AI

  • SSO para los paneles y los endpoints de los modelos de OpenShift AI;
  • identidad unificada para los usuarios de la plataforma y los consumidores de la API.

Servidor de inferencia

Esta stack de soluciones utiliza los modelos de lenguaje de gran tamaño virtuales (vLLM) como servidor de inferencia. El marco de vLLM admite modelos multimodales e integraciones y creaciones de modelos de recompensas, que se utilizan cada vez más en los flujos de trabajo de aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF). Gracias a funciones como la programación avanzada, la precarga de fragmentos, el procesamiento por lotes múltiple de la adaptación de bajo rango (LoRA) y los resultados estructurados, los vLLM están optimizados tanto para la aceleración de la inferencia como para la implementación en toda la empresa.

Estos modelos también proporcionan herramientas de compresión de LLM para que los clientes optimicen sus propios modelos perfeccionados.

Plataforma de inteligencia artificial

Esta stack de soluciones utiliza OpenShift AI para poner a disposición los modelos en la etapa de producción y distribuir aplicaciones innovadoras. OpenShift AI ayuda a las empresas con todos los aspectos de la inteligencia artificial, como la adquisición y la preparación de los datos; el entrenamiento y el perfeccionamiento de los modelos; la puesta a disposición en la etapa de producción y la supervisión, además de la aceleración del hardware.

La última versión de OpenShift AI está diseñada para aumentar la eficiencia al brindar acceso a modelos más pequeños y optimizados previamente. También ayuda a gestionar los costos de inferencia con la puesta a disposición de los modelos en la etapa de producción de forma distribuida a través de un marco de vLLM. 

OpenShift AI se ofrece como un software autogestionado o como un servicio de nube totalmente gestionado que se basa en OpenShift. Además, proporciona una plataforma segura y flexible que te permite elegir el lugar donde desarrollar e implementar tus modelos, ya sea en las instalaciones, en la nube pública o incluso en el extremo de la red.

Developer and user workflows for Model-as-a-Service solution

 

Reflexiones finales

A medida que las empresas diseñan y ajustan diversas soluciones de inteligencia artificial, el uso de modelos alojados de terceros se vuelve muy costoso y, con frecuencia, implica riesgos inaceptables para la privacidad de los datos, ya que la información empresarial está expuesta a estas otras partes. Los modelos de inteligencia artificial autoalojados ayudan a abordar el problema de la privacidad de los datos, pero también pueden generar iniciativas duplicadas en varios departamentos, lo que aumenta los costos y ralentiza el tiempo de comercialización.

Los MaaS son un enfoque nuevo que permite que las empresas proporcionen modelos open source que se pueden utilizar como un recurso compartido. Ahora, los desarrolladores pueden acceder a ellos según lo requieran y centrarse en diseñar aplicaciones de inteligencia artificial sin tener que preocuparse por la infraestructura fundamental. El equipo de TI empresarial puede supervisar el uso del modelo por parte de varios departamentos y cobrar a cada equipo o proyecto por el consumo de los servicios de inteligencia artificial.

El enfoque de los MaaS permite que se pase de solo aprovechar las oportunidades puntuales de inteligencia artificial a transformar las funciones de esta tecnología de toda la empresa. 

Más información


1 IDC Directions, Completing the Agentic Journey, abril de 2025.

Prueba del producto

Red Hat Enterprise Linux AI | Versión de prueba del producto

Descarga la versión de prueba gratuita de 60 días de Red Hat Enterprise Linux AI, una plataforma diseñada para la ejecución de LLM con el máximo rendimiento.

Sobre los autores

Ishu Verma is Technical Evangelist at Red Hat focused on emerging technologies like edge computing, IoT and AI/ML. He and fellow open source hackers work on building solutions with next-gen open source technologies. Before joining Red Hat in 2015, Verma worked at Intel on IoT Gateways and building end-to-end IoT solutions with partners. He has been a speaker and panelist at IoT World Congress, DevConf, Embedded Linux Forum, Red Hat Summit and other on-site and virtual forums. He lives in the valley of sun, Arizona.

Ritesh Shah is a Principal Architect with the Red Hat Portfolio Technology Platform team and focuses on creating and using next-generation platforms, including artificial intelligence/machine learning (AI/ML) workloads, application modernization and deployment, Disaster Recovery and Business Continuity as well as software-defined data storage.

Ritesh is an advocate for open source technologies and products, focusing on modern platform architecture and design for critical business needs. He is passionate about next-generation platforms and how application teams, including data scientists, can use open source technologies to their advantage. Ritesh has vast experience working with and helping enterprises succeed with open source technologies.

Juliano Mohr is a Principal Architect at Red Hat, where he builds demos, labs, and workshops for the Red Hat demo platform. He was previously a Consulting Architect at Red Hat, applying his expertise in application development to support digital transformation. During his global career, he has deepened his knowledge in agile, DevOps, and modern software practices.

UI_Icon-Red_Hat-Close-A-Black-RGB

Navegar por canal

automation icon

Automatización

Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos

AI icon

Inteligencia artificial

Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar

open hybrid cloud icon

Nube híbrida abierta

Vea como construimos un futuro flexible con la nube híbrida

security icon

Seguridad

Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías

edge icon

Edge computing

Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge

Infrastructure icon

Infraestructura

Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo

application development icon

Aplicaciones

Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones

Virtualization icon

Virtualización

El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube