No setor de IA, passamos os últimos três anos obcecados pela escala. Buscamos contagens de parâmetros na casa dos trilhões, acreditando que "maior" era o único caminho para "mais inteligente". Mas, conforme a poeira baixa, uma nova realidade surge para as empresas: o tamanho não é a métrica que importa, mas sim a entrega de resultados confiáveis e determinísticos.

Na Red Hat, sempre acreditamos que as tecnologias mais potentes são aquelas distribuídas, abertas e adequadas à finalidade. Small Language Models (SLMs) representam exatamente essa mudança. A distinção entre SLMs e Large Language Models (LLMs) é menos importante do que a função arquitetônica do modelo. O que importa é a soberania funcional que um modelo pequeno oferece.

Estamos nos afastando de um mundo de IA conversacional — onde fazemos perguntas a um modelo gigante de caixa-preta — e entrando na era dos Agentes de IA, em que uma frota de modelos especializados realiza o trabalho real da empresa.

Toda empresa executará agentes de IA

Estamos à beira de uma mudança tão fundamental quanto a transição para a web.

Reflita sobre a evolução da identidade empresarial. Em 1995, o setor perguntava: "Por que preciso de um endereço de e-mail?" Em 2005, era um site. Em 2015, a presença nas redes sociais. Em 2026, a pergunta será: "Quantos agentes tenho em execução?"

Caminhamos para um mundo onde haverá mais agentes de IA do que pessoas. Toda empresa terá um enxame deles:

  • Agentes voltados para o cliente que não apenas respondem a perguntas, mas resolvem problemas logísticos complexos.
  • Agentes de fluxo de trabalho que automatizam a "ligação" invisível entre departamentos.
  • Agentes headless que executam chamadas de API silenciosamente para reconciliar inventários e processar pagamentos.

Mas não é possível criar uma frota de agentes sustentável e econômica com base em tokens de nuvem subsidiados de terceiros. É aqui que o SLM se torna a ferramenta obrigatória para viabilizar casos de uso empresariais e escala. 

Por que os SLMs dominam o back-end de agentes

Embora os LLMs de ponta sejam obras-primas da engenharia de alto rendimento, eles costumam ser muito pesados para o papel de um colaborador digital reflexivo. Em um fluxo de trabalho de agentes, não precisamos apenas de potência bruta; precisamos de execução com baixa latência. Os SLMs permitem oferecer tempos de resposta inferiores a um segundo e a confiabilidade determinística que a automação de missão crítica exige.

1. O poder da especialização (eficiência > escala)

Embora poucas organizações considerem fazer o ajuste fino de um modelo de 400 bilhões de parâmetros, os modelos 3B ou 7B oferecem um ponto de entrada gerenciável e altamente eficaz. É aí que começa o controle da arquitetura. Pesquisa do final de 2025 demonstra que mesmo um modelo de 350 milhões de parâmetros ajustado com dados sintéticos de alta qualidade pode superar modelos de fronteira generalistas em domínios específicos de chamada de ferramentas e orquestração de APIs. Para um back-end de IA de agentes robusto, o objetivo não é uma capacidade de linguagem ampla e poética, mas uma especialização de alta precisão.

2. Determinismo e a "matemática da confiabilidade"

Um dos maiores obstáculos para a IA empresarial é o não determinismo, ou seja, o risco de um agente formatar uma resposta corretamente em uma ocasião e falhar na próxima. Embora nenhum LLM seja uma função matemática perfeitamente determinística, os SLMs permitem aplicar um controle de arquitetura que antes era muito mais difícil. Ao utilizar técnicas de decodificação restritas, como JSON Schema ou Context-Free Grammars (CFGs), podemos reduzir o espaço de pesquisa de tokens do modelo, tornando fisicamente impossível para o modelo escolher um caractere inválido. Isso muda o foco de uma mágica imprevisível para a precisão limitada pelo esquema. Combinados à execução local e ao ajuste fino especializado, os SLMs podem alcançar mais de 98% de validade em tarefas estruturadas, oferecendo a confiabilidade previsível necessária para fluxos de trabalho de IA de agentes confidenciais.

3. A soberania dos dados não é opcional

Seus dados são seu bem mais precioso. Em um mundo de agentes de IA, esses modelos cuidarão do gerenciamento de relacionamento com o cliente (CRM), do código proprietário e da estratégia interna. Ceder esses dados a um provedor de nuvem terceirizado em troca de "inteligência como serviço" é um erro estratégico.

Executar SLMs on-premise ou no seu próprio ambiente de nuvem híbrida significa que você continua sendo o proprietário da sua propriedade intelectual. Isso permite uma arquitetura de IA de "zero trust", na qual dados confidenciais nunca saem do seu perímetro, cumprindo os rigorosos requisitos regulatórios comuns em setores como saúde, finanças e governo.

Considerações finais

Estamos fazendo a transição de um cenário onde a IA generativa (gen AI) produz conversas e conteúdo para um mundo em que a IA de agentes atua em nosso nome. Nesta nova era, a questão não é mais qual modelo é o maior, mas qual infraestrutura é a mais confiável e protegida. Quando suas operações de negócios dependem de uma frota de agentes digitais especializados, o modelo de nuvem "caixa preta" não é mais suficiente. Você precisa de soberania, velocidade e precisão.

Na Red Hat, acreditamos que o caminho para o futuro da IA de agentes está aberto. Ao aproveitar pequenos modelos de linguagem selecionados que podem ser ajustados, disponibilizados e orquestrados com o portfólio do Red Hat AI, as empresas podem tirar a IA do laboratório e integrá-la ao núcleo da lógica de negócios.

O espaço está mudando rapidamente, mas o objetivo é claro: pare de correr atrás de gigantes e comece a construir a base. O futuro da IA é pequeno, rápido e baseado na nuvem híbrida aberta. 

Saiba mais

Produto

Red Hat AI

O Red Hat AI oferece opções flexíveis e econômicas que aceleram o desenvolvimento e a implantação de soluções de IA em ambientes de nuvem híbrida.

Sobre os autores

Catherine Weeks is an Engineering Director in Red Hat AI, where she leads the teams building software with the latest generative AI innovations.

With a background in software design, Catherine is a leader who excels at translating complex customer needs into practical engineering solutions. She is known for her ability to work at every level—from high-level strategy down to the hands-on work of getting it done. This approach helps her balance the fast-moving world of AI innovation with the need to build the reliable, high-quality products customers depend on, all while fostering a supportive team culture.

With over 20 years in the software industry, Catherine has a proven record of mentoring strong teams and has always been a champion for the end-user.
 

Ricardo is a Principal Software Engineer working at the Red Hat's Office of the CTO in the Emerging Technologies organization as Initiative lead. Ricardo is currently focused on the different kinds of architectures in the AI space like SLMs and multimodality. He has been part of the MicroShift and Edge Manager projects since its inception.
He is a former member of the Akraino Technical Steering Committee and Project Technical Lead of the Kubernetes-Native-Infrastructure blueprint family. He's been doing R&D related to OpenStack, as well as, contributing to OpenDaylight project and OPNFV. He is passionate about new technologies and everything related to the Open Source world. Ricardo holds a MSc Degree in Telecommunications from Technical University of Madrid (UPM). He loves music, photography and outdoor sports.

UI_Icon-Red_Hat-Close-A-Black-RGB

Navegue por canal

automation icon

Automação

Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes

AI icon

Inteligência artificial

Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente

open hybrid cloud icon

Nuvem híbrida aberta

Veja como construímos um futuro mais flexível com a nuvem híbrida

security icon

Segurança

Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias

edge icon

Edge computing

Saiba quais são as atualizações nas plataformas que simplificam as operações na borda

Infrastructure icon

Infraestrutura

Saiba o que há de mais recente na plataforma Linux empresarial líder mundial

application development icon

Aplicações

Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações

Virtualization icon

Virtualização

O futuro da virtualização empresarial para suas cargas de trabalho on-premise ou na nuvem