En el sector de la inteligencia artificial, hemos estado obsesionados durante los últimos tres años con la escala. Hemos perseguido recuentos de parámetros de billones, con la creencia de que "más grande" era el único camino para ser "más inteligente". Sin embargo, a medida que la situación se estabiliza, surge una nueva realidad para las empresas: el tamaño no es la métrica que importa, sino la obtención de resultados confiables y deterministas.
En Red Hat, siempre hemos creído que las tecnologías más potentes son aquellas que están distribuidas, son open source y resultan adecuadas para su propósito. Los modelos de lenguaje pequeños (SLM) representan exactamente ese cambio. La distinción entre los SLM y los modelos de lenguaje de gran tamaño (LLM) es menos importante que la función arquitectónica que cumple el modelo. Lo que importa es la soberanía funcional que aporta un modelo pequeño.
Nos alejamos de un mundo de inteligencia artificial conversacional —en el que hacemos una pregunta a un modelo gigante de caja negra— para entrar en la era de la inteligencia artificial con agentes, donde una flota de modelos especializados realiza el trabajo real de la empresa.
Todas las empresas ejecutarán agentes de inteligencia artificial
Estamos al borde de un cambio tan fundamental como la transición a la web.
Piensa en la evolución de la identidad empresarial. En 1995, el sector se preguntaba: "¿Por qué necesito una dirección de correo electrónico?". En 2005, era un sitio web. En 2015, la presencia en redes sociales. En 2026, la pregunta será: "¿Cuántos agentes tengo en ejecución?".
Nos dirigimos hacia un mundo en el que habrá más agentes de inteligencia artificial que personas. Cada empresa tendrá un enjambre de ellos:
- Agentes de cara al cliente que no solo responden preguntas, sino que resuelven problemas logísticos complejos.
- Agentes de flujo de trabajo que automatizan el "enlace" invisible entre departamentos.
- Agentes sin interfaz que ejecutan llamadas a la API de forma silenciosa para conciliar el inventario y procesar pagos.
Sin embargo, no puedes crear una flota de inteligencia artificial con agentes sostenible y rentable con los tokens de nube subvencionados de otra persona. Aquí es donde el SLM se convierte en la herramienta obligatoria para habilitar los casos de uso empresariales y la escala.
Por qué los SLM dominan el backend de la inteligencia artificial con agentes
Si bien los LLM de vanguardia son obras maestras de la ingeniería de alto rendimiento, suelen ser demasiado pesados para la función de un empleado digital reflexivo. En un flujo de trabajo de inteligencia artificial con agentes, no solo necesitamos potencia bruta, sino una ejecución de baja latencia. Los SLM nos permiten ofrecer tiempos de respuesta de menos de un segundo y la confiabilidad determinista que exige la automatización de misión crítica.
1. El poder de la especialización (eficiencia > escala)
Si bien pocas organizaciones considerarían ajustar un modelo de 400 000 millones de parámetros, un modelo de 3000 millones o 7000 millones ofrece un punto de entrada fácil de gestionar y muy efectivo. Aquí es donde comienza el control de la arquitectura. Las investigaciones de finales de 2025 demuestran que incluso un modelo de 350 millones de parámetros ajustado con datos sintéticos de alta calidad puede superar a los modelos generalistas de vanguardia en dominios específicos de llamada a herramientas y orquestación de API. Para un backend sólido de inteligencia artificial con agentes, el objetivo no es una capacidad de lenguaje poético y amplio, sino la especialización de alta precisión.
2. El determinismo y las "matemáticas de la confiabilidad"
Uno de los mayores obstáculos para la inteligencia artificial empresarial es la falta de determinismo, es decir, el riesgo de que un agente formatee una respuesta correctamente una vez y falle la siguiente. Si bien ningún modelo de lenguaje de gran tamaño (Large Language Model, LLM) es una función matemática perfectamente determinista, los modelos de lenguaje pequeños (Small Language Models, SLM) nos permiten aplicar un control de la arquitectura que antes era mucho más difícil. Al utilizar técnicas de decodificación restringida, como JSON Schema o las gramáticas libres de contexto (Context-Free Grammars, CFG), podemos reducir el espacio de búsqueda de tokens del modelo, lo que imposibilita físicamente que el modelo elija un siguiente carácter no válido. Esto cambia el enfoque de la magia abierta a la precisión restringida por esquemas. Cuando se combinan con la ejecución local y el ajuste especializado, los SLM pueden lograr más del 98% de validez en tareas estructuradas, lo que ofrece la confiabilidad predecible necesaria para los flujos de trabajo confidenciales de inteligencia artificial con agentes.
3. La soberanía de los datos no es opcional
Tus datos son tu activo más preciado. En un mundo de inteligencia artificial con agentes, estos modelos se encargarán de tu gestión de relaciones con los clientes (Customer Relationship Management, CRM), tu código propietario y tu estrategia interna. Entregar esos datos a un proveedor de nube de terceros a cambio de "inteligencia como servicio" es un error estratégico.
Si ejecutas los SLM en tus instalaciones o en tu propio entorno de nube híbrida, seguirás siendo el propietario de tu propiedad intelectual. Permite una arquitectura de inteligencia artificial de "confianza cero" en la que los datos confidenciales nunca salen de tu perímetro, lo que cumple con los estrictos requisitos normativos comunes en sectores como la salud, las finanzas y el gobierno.
Reflexiones finales
Estamos pasando de un mundo de inteligencia artificial generativa (gen AI) que produce conversaciones y contenido a uno de inteligencia artificial con agentes que actúa en nuestro nombre. En esta nueva era, la pregunta ya no es qué modelo es el más grande, sino qué infraestructura es la más confiable y protegida. Cuando tus operaciones comerciales dependen de una flota de agentes digitales especializados, el modelo de nube de "caja negra" ya no es suficiente. Necesitas soberanía, velocidad y precisión.
En Red Hat, creemos que el camino hacia el futuro de la inteligencia artificial con agentes es open source. Al aprovechar modelos de lenguaje pequeños seleccionados que se pueden ajustar, implementar y orquestar con el portafolio de Red Hat AI, las empresas pueden trasladar la inteligencia artificial del laboratorio al núcleo de su lógica empresarial.
El espacio avanza rápido, pero el objetivo es claro: deja de perseguir a los gigantes y comienza a construir la columna vertebral. El futuro de la inteligencia artificial es pequeño, rápido y se basa en la nube híbrida abierta.
Más información
Producto
Red Hat AI
Sobre los autores
Catherine Weeks is an Engineering Director in Red Hat AI, where she leads the teams building software with the latest generative AI innovations.
With a background in software design, Catherine is a leader who excels at translating complex customer needs into practical engineering solutions. She is known for her ability to work at every level—from high-level strategy down to the hands-on work of getting it done. This approach helps her balance the fast-moving world of AI innovation with the need to build the reliable, high-quality products customers depend on, all while fostering a supportive team culture.
With over 20 years in the software industry, Catherine has a proven record of mentoring strong teams and has always been a champion for the end-user.
Ricardo is a Principal Software Engineer working at the Red Hat's Office of the CTO in the Emerging Technologies organization as Initiative lead. Ricardo is currently focused on the different kinds of architectures in the AI space like SLMs and multimodality. He has been part of the MicroShift and Edge Manager projects since its inception.
He is a former member of the Akraino Technical Steering Committee and Project Technical Lead of the Kubernetes-Native-Infrastructure blueprint family. He's been doing R&D related to OpenStack, as well as, contributing to OpenDaylight project and OPNFV. He is passionate about new technologies and everything related to the Open Source world. Ricardo holds a MSc Degree in Telecommunications from Technical University of Madrid (UPM). He loves music, photography and outdoor sports.
Más como éste
Unlocking sovereign AI and protected collaboration with confidential computing
Building a hardened, image-based foundation for AI agents
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Virtualización
El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube