Skip to contentRed Hat IA
  • Visão geral

    • Novidades sobre IA
    • Blog técnico
    • Eventos de IA ao vivo
    • Entenda o que é inferência
    • Nossa abordagem para IA
  • Soluções

    • Red Hat AI Enterprise
    • Red Hat AI Inference Server
    • Red Hat Enterprise Linux AI
    • Red Hat OpenShift AI
    • Conheça o Red Hat AI
  • Participe e aprenda

    • Hub de conhecimento em IA
    • Tudo sobre IA
    • Parceiros de IA
    • Serviços para IA
Nuvem híbrida
  • Soluções de plataforma

    • Inteligência artificial

      Desenvolva, implante e monitore modelos e apps de IA.

    • Linux

      Garanta consistência em todos os ambientes.

    • Desenvolvimento de aplicações

      Desenvolva, implante e gerencie apps com mais facilidade.

    • Automação

      Escale a automação e una tecnologia, equipes e ambientes.

  • Casos de uso

    • Virtualização

      Modernize cargas de trabalho virtualizadas e em containers.

    • Soberania digital

      Controle e proteja sua infraestrutura crítica.

    • Segurança

      Desenvolva e monitore software com foco em segurança.

    • Edge computing

      Implante cargas de trabalho mais perto da origem com a edge computing.

  • Veja todas as soluções
  • Soluções por setor

    • Automotivo
    • Serviços financeiros
    • Saúde
    • Industrial
    • Mídia e entretenimento
    • Setor público (global)
    • Setor público (EUA)
    • Telecomunicações

Conheça tecnologias de nuvem

Aprenda a usar nossos produtos e soluções para a nuvem com o Red Hat® Hybrid Cloud Console.

Produtos
  • Plataforma

    • Red Hat AI

      Desenvolva e implante soluções de IA na nuvem híbrida.

    • Red Hat Enterprise Linux

      Inove na nuvem híbrida com um sistema operacional flexível.

    • Red Hat OpenShift

      Desenvolva, modernize e implante aplicações em escala.

    • Red Hat Ansible Automation Platform

      Implemente a automação em toda a empresa.

  • Em destaque

    • Red Hat OpenShift Virtualization Engine
    • Red Hat OpenShift Service on AWS
    • Microsoft Azure Red Hat OpenShift
    • Conheça todas as soluções
  • Teste e compre

    • Central de testes de soluções
    • Compre online
    • Integração com provedores de nuvem
  • Serviços e Suporte

    • Consultoria
    • Suporte
    • Serviços para IA
    • Gestão técnica de contas
    • Veja todos os serviços e suporte
Treinamentos
  • Treinamento e certificação

    • Cursos e exames
    • Certificações
    • Avaliar meu conhecimento
    • Red Hat Academy
    • Learning subscription
    • Mais informações
  • Em destaque

    • Red Hat Certified System Administrator Exam
    • Red Hat System Administration I
    • Red Hat Learning Subscription - Versão de teste (Gratuito)
    • Red Hat Certified Engineer Exam
    • Red Hat Certified OpenShift Administrator Exam
  • Serviços

    • Consultoria
    • Treinamentos para parceiros
    • Suporte
    • Serviços para IA
    • Gestão técnica de contas
Explorar
  • Amplie seus conhecimentos

    • Documentação
    • Laboratórios hands-on
    • Nuvem híbrida - hub de aprendizagem
    • Experiências interativas
    • Treinamento e certificação
  • Aprenda mais

    • Blog
    • Eventos e webinars
    • Podcasts e vídeos
    • Red Hat TV
    • Biblioteca de recursos

Para desenvolvedores

Recursos e ferramentas para criar, entregar e gerenciar apps e serviços nativos em nuvem.

Parceiros
  • Para clientes

    • Nossos parceiros
    • Red Hat Ecosystem Catalog
    • Encontre um parceiro
  • Para parceiros

    • Partner Connect
    • Torne-se um parceiro
    • Treinamento
    • Suporte
    • Accesse o portal de parceiros

Crie soluções com os parceiros de confiança da Red Hat

Soluções de nossa comunidade de especialistas e tecnologias inovadoras no Red Hat® Ecosystem Catalog.

Pesquisar

Gostaria de:

  • Avaliação gratuita
  • Comprar uma Red Hat Learning Subscription
  • Gerenciar minhas subscrições
  • Contate o setor de vendas
  • Fale com o Atendimento ao Cliente
  • Pesquisar vagas na Red Hat

Quero encontrar:

  • Documentação
  • Recursos para desenvolvedores
  • Assuntos de tecnologia
  • Centro de arquitetura
  • Atualizações de segurança
  • Suporte ao cliente

Quero aprender sobre:

  • Inteligência Artificial (IA)
  • Modernização de aplicações
  • Automação
  • Aplicações nativas em nuvem
  • Linux
  • Virtualização
ConsoleDocumentaçãoSuporteNovo Para você

Recomendado

Recomendaremos conteúdos relevantes enquanto você navega. Veja estas sugestões:

  • Central de avaliação de produtos
  • Cursos e exames
  • Veja todas as soluções
  • Assuntos de tecnologia
  • Biblioteca de recursos
Login

Acesse mais recursos com uma conta Red Hat

  • Acesso ao console
  • Eventos
  • Treinamentos e testes
  • Suporte de excelência

Alguns serviços podem exigir uma subscrição válida.

Faça login ou cadastre-se
Contato
  • Home
  • Recursos
  • Um guia para os Modelos como Serviço

Um guia para os Modelos como Serviço

25 de março de 2026•
Tipo de conteúdo: Visão geral

O crescimento da IA e os problemas de acesso e infraestrutura

O interesse pela IA está crescendo rápido com as organizações ansiosas para usar Large Language Models (LLMs), análises preditivas, recursos de visão computacional e outras ferramentas avançadas para agregar valor de negócio. No entanto, migrar a IA da experimentação isolada para a ampla adoção organizacional gera grandes desafios de infraestrutura e operações.

Muitas empresas começam a jornada com a IA por meio de interfaces de programação de aplicações (APIs) de LLM comerciais, como as da OpenAI ou da Anthropic, acreditando ser o caminho mais rápido para inseri-la na produção. Mas conforme esse uso aumenta, os custos também, e as equipes se deparam com limitações em relação à privacidade, observabilidade e personalização dos dados. E, em alguns casos, os provedores comerciais de IA fazem alterações nos modelos sem aviso prévio, afetando os casos de uso das organizações.

Já outras organizações vão para o extremo oposto: desenvolvem sua própria infraestrutura do modelo do zero. Esse caminho muitas vezes leva as equipes a implantarem modelos open source de maneira independente, como o Llama ou o Mistral, com pouca coordenação. O resultado é um cenário fragmentado em que grupos montam seus próprios stacks, resultando em uma infraestrutura redundante, unidades de processamento gráfico (GPUs) ociosas e uma despesa operacional significativa. A segurança e a governança são prejudicadas, e os custos aumentam sem agregar muito valor aos negócios.

Tudo isso foi agravado pelo tamanho cada vez maior dos LLMs recentes, como o Llama, DeepSeek, Mistral ou Qwen. Ao contrário dos modelos de IA de pequena escala de alguns anos atrás, os modelos grandes de hoje exigem terabytes de VRAM. E essas GPUs são caras. O uso ineficiente desses recursos pode aumentar rapidamente os custos. A situação piora quando várias equipes da mesma organização tentam implantar esses modelos independentemente. Essa abordagem fragmentada aumenta a sobrecarga operacional e eleva os custos.

As organizações precisam de uma abordagem interna que simplifique e consolide o uso de modelos, otimize os recursos de hardware e permita o acesso controlado e escalável de diversos usuários internos. Sem essa abordagem, as iniciativas de IA tendem a ter baixa adoção e custos elevados, a infraestrutura fica subutilizada e alcançar resultados concretos (como mais produtividade, menor custo e insights mais rápidos) segue sendo um desafio.

O que são Modelos como Serviço?

 Modelos como Serviço (MaaS) é uma abordagem para fornecer modelos de IA como recursos compartilhados, oferecendo aos usuários da organização acesso on demand. A abordagem MaaS oferece uma base de IA pronta para uso (na forma de endpoints de API), estimulando a utilização de uma IA privada e eficiente, em grande escala.

A resposta da abordagem MaaS a esse desafio

Modelos como Serviço (MaaS) é uma abordagem que ajuda as organizações a implantar modelos de IA uma vez e entregá-los como recursos compartilhados e focados em segurança em toda a empresa. Em vez de gerenciar implantações isoladas para equipes individuais, a abordagem MaaS ajuda as empresas a centralizar a infraestrutura e as operações de IA, simplificando a adoção interna da IA.

O fluxo de trabalho de uma estrutura de Modelos como Serviço.

Figura 1. O fluxo de trabalho de uma estrutura de Modelos como Serviço.

Ofereça acesso compartilhado à IA com operações de modelos centralizadas

  • Para engenheiros de IA, o MaaS oferece acesso mais rápido a modelos de alto desempenho por meio de APIs. Dessa forma, não é necessário fazer o download de modelos, gerenciar dependências ou solicitar alocações de GPU por meio de tickets de TI demorados.

O MaaS funciona definindo uma equipe de operações como a proprietária central dos recursos de IA compartilhados. Os modelos são implantados em uma plataforma escalável (como o Red Hat® OpenShift® AI ou outras plataformas semelhantes) e expostos por meio de um gateway de API. Essa configuração permite que vários usuários, desenvolvedores e unidades de negócios ofereçam acesso simplificado para usuários finais e, ao mesmo tempo, atendam às prioridades de segurança e governança das equipes de TI e finanças. Essa priorização pode incluir recursos de chargeback, permitindo usar modelos sem precisar de acesso direto ao hardware nem necessidade de conhecimento técnico avançado. O objetivo é oferecer acesso intuitivo aos modelos de IA e não aos recursos necessários para executá-los, como GPUs e unidades de processamento de tensor (TPUs). Tudo isso atendendo aos requisitos de conformidade e desempenho empresarial, sem complicar o acesso para os usuários finais.

Na prática, os usuários interagem apenas com as APIs que oferecem respostas geradas por modelos. Assim como os provedores de IA pública simplificam as complexidades de hardware para os usuários finais, as implantações internas de MaaS oferecem o mesmo nível de simplicidade. Os usuários não gerenciam a infraestrutura de hardware ou software, nem precisam esperar por um ticket de TI ou pela configuração de um ambiente. Em vez disso, as equipes de operações de TI e IA gerenciam centralmente o ciclo de vida do modelo, a segurança, as atualizações e a escala da infraestrutura, oferecendo aos usuários acesso simplificado e controlado.

Essa centralização simplifica as operações internas de IA e aprimora o foco e a governança de segurança. O acesso aos modelos de IA é rigorosamente controlado por meio do gerenciamento de credenciais via um gateway de API. As organizações podem rastrear o uso, configurar mecanismos internos de chargeback, garantir que as diretrizes de conformidade de privacidade estejam sendo seguidas e estabelecer limites operacionais claros, o que faz da IA empresarial gerenciável e viável. O rastreamento no nível de tokens (entrada e saída) é mais preciso e granular do que qualquer métrica baseada na GPU.

Controle o uso, limite o acesso e gerencie os custos

  • Os engenheiros de TI e de plataforma se beneficiam da supervisão centralizada. Isso impede implantações de modelos não autorizados, reforça os padrões de segurança e conformidade e simplifica o gerenciamento da infraestrutura e do ciclo de vida.
  • Para as equipes financeiras, o rastreamento de uso centralizado e os mecanismos internos de chargeback reduzem o desperdício e tornam o uso da GPU mais previsível e responsável. Dessa forma, evitam desperdícios com hardware dedicado a equipes e pouco utilizado.

Em um MaaS, o controle vem da integração entre o gateway de API e a infraestrutura de IA, permitindo às equipes gerenciar e monitorar o uso com alta granularidade.

As implantações tradicionais de IA tendem a ter uso ineficiente e sem gerenciamento, pois pessoas ou equipes implantam modelos de forma independente, sem supervisão centralizada. Essa abordagem fragmentada pode gerar ineficiências dispendiosas, com recursos de GPU ociosos ou subutilizados. Com um gateway de API no centro da infraestrutura de IA, é possível criar um ponto de acesso controlado entre usuários e modelos.

Esse arranjo facilita o rastreamento preciso do uso até o nível do token individual. As equipes podem identificar claramente o quanto cada usuário, equipe ou aplicação consome, atribuindo com precisão os custos de GPU e infraestrutura. Por exemplo, as organizações podem determinar se um usuário ou aplicação está usando recursos excessivamente e tomar medidas corretivas, como limitar o uso ou alocar custos por meio de mecanismos internos de chargeback.

Os mecanismos de limitação do gateway de API asseguram um desempenho consistente e evitam o esgotamento de recursos. Com a limitação de uso, as equipes de TI gerenciam a intensidade do acesso, evitando que só um usuário monopolize os recursos da GPU ou prejudique a experiência dos outros.

Além disso, os gateways de API oferecem controle de acesso e gerenciamento de credenciais de alta granularidade. Os usuários internos podem gerar credenciais para acessar modelos de IA de forma independente, aliviando a sobrecarga administrativa. As credenciais também podem ser revogadas ou modificadas em menos tempo para responder às mudanças nos requisitos de segurança ou nos padrões de uso.

Tudo isso significa que o gerenciamento de custos se torna mais transparente e responsável. As equipes de TI podem alocar com precisão os gastos com GPU e infraestrutura entre as equipes ou unidades de negócios que os consomem.

Trabalhe com qualquer modelo, acelerador e nuvem

Um princípio fundamental da abordagem MaaS é o controle. Ele permite que as organizações selecionem e implantem uma ampla variedade de modelos de IA, escolham seus aceleradores de hardware de preferência e operem em seus ambientes existentes de nuvem ou on-premise. Com essa abordagem, as organizações têm a liberdade de implementar a IA conforme suas necessidades técnicas, requisitos de segurança e preferências operacionais.

  • As organizações enfrentam limitações rígidas ao adotar a IA, que costumam ser:
    • Restritas por serviços em nuvem específicos.
    • Dependentes de ecossistemas de modelos proprietários.
    • Limitadas por infraestruturas de hardware fixas.
  • O MaaS resolve essas limitações de várias maneiras, incluindo:
    • Compatibilidade com modelos open source ou proprietários, modelos treinados personalizados e LLMs mais conhecidos, como Llama e Mistral.
    • Extensão além dos modelos baseados em texto para incluir análise preditiva, visão computacional, ferramentas de transcrição de áudio e outros casos de uso de gen AI multimodal, como geração de imagem ou vídeo.
  • O MaaS permanece independente dos aceleradores de hardware. Dessa forma:
    • As organizações podem selecionar GPUs ou outros aceleradores que se alinhem às suas cargas de trabalho, estruturas de custo e necessidades de desempenho.
    • Equipes de IA centralizadas podem tomar decisões críticas de dimensionamento e implantação, melhorando a eficiência e reduzindo os erros de usuários menos técnicos.
  • O gerenciamento centralizado permite:
    • Alocação e uso ideais da infraestrutura.
    • Redução das despesas operacionais e prevenção de erros de configuração de recursos.
  • O MaaS é compatível com implantações em qualquer ambiente, incluindo:
    • Ambientes isolados, on-premise, nuvens híbrida e pública, sendo muito relevantes para setores altamente regulamentados que exigem soberania de dados, conformidade regulatória ou controles de segurança rigorosos.

Como a Red Hat implementa o MaaS

A Red Hat adotou o MaaS internamente centralizando a implantação e o acesso do modelo de IA. Nossa equipe interna de IA gerencia de maneira centralizada os recursos de IA e as operações do modelo, usando o Red Hat OpenShift e o Red Hat OpenShift AI como plataforma subjacente. Essa implantação de modelo centralizado simplifica o consumo de IA para usuários em toda a organização, permitindo que nossas equipes de desenvolvimento e negócios integrem recursos de IA em seus fluxos de trabalho com eficiência, sem precisar de hardware dedicado ou conhecimento técnico profundo.

Nossa implementação conta com uma arquitetura de disponibilização escalável que usa GPUs no OpenShift AI e conecta os usuários por meio de um gateway de API centralizado. Isso oferece acesso controlado, focado em segurança e rastreável aos modelos de IA. O uso é cuidadosamente gerenciado por meio de monitoramento baseado em tokens, facilitando o rastreamento preciso de quem está usando os modelos, com que frequência e em que quantidade. O resultado é um uso otimizado do hardware, reduzindo o consumo desnecessário de recursos de GPU e oferecendo insights detalhados para alocar custos com precisão em diferentes equipes ou projetos internos.

Nossa implementação de MaaS usa fluxos de trabalho GitOps, oferecendo alta disponibilidade e confiabilidade. Essa abordagem operacional reduz a intervenção manual e possíveis erros, estabelecendo um controle claro sobre as implantações de IA.

Um dos principais benefícios da implementação interna do MaaS foi a melhoria significativa na eficiência dos recursos e na experiência do usuário. Em vez de várias equipes provisionando GPUs e implantando modelos de maneira independente, nosso MaaS eliminou esforços duplicados, otimizou as operações internas e diminuiu significativamente o time to value (TTV). Com novos modelos testados e validados, as equipes da Red Hat podem colocá-los em uso imediatamente, sem esperar por alocação de hardware ou provisionamento de tarefas.

Comece a desenvolver sua plataforma de IA interna hoje mesmo

Quer simplificar a entrega da IA e aproveitar seus investimentos em infraestrutura de verdade? Comece conferindo nosso artigo detalhado sobre o MaaS para entender como ele funciona. Em seguida, explore a página da solução OpenShift AI para avaliar os recursos da plataforma e as orientações de uso da GPU.

Para as equipes que desenvolvem um MaaS internamente, a Red Hat Consulting ajuda no design e na operacionalização dos ambientes de model serving conforme as necessidades das empresas. Confira mais informações na página da Red Hat Consulting para IA.

Quer uma visão mais abrangente com exemplos reais? Confira nossa série de webinars on demand, incluindo a sessão dedicada ao MaaS.

Tags:Inteligência artificial

Red Hat logoLinkedInYouTubeFacebookX

Plataformas

  • Red Hat AI
  • Red Hat Enterprise Linux
  • Red Hat OpenShift
  • Red Hat Ansible Automation Platform
  • Veja todos os produtos

Ferramentas

  • Treinamento e certificação
  • Minha conta
  • Suporte ao cliente
  • Recursos para desenvolvedores
  • Encontre um parceiro
  • Red Hat Ecosystem Catalog
  • Documentação

Experimente, compre e venda

  • Central de testes de soluções
  • Red Hat Store
  • Comprar online (Japão)
  • Console

Comunicação

  • Contate o setor de vendas
  • Contate o atendimento ao cliente
  • Contate o setor de treinamento
  • Redes sociais

Sobre a Red Hat

A Red Hat é líder em fornecer tecnologias de nuvem híbrida aberta que compõem uma base consistente para aplicações transformadoras de TI e inteligência artificial (IA). Parceira de confiança das empresas da Fortune 500, a Red Hat oferece tecnologias de nuvem, desenvolvimento, Linux, automação e plataforma de aplicações, além de serviços premiados.

  • Nossa empresa
  • Nosso modelo de trabalho
  • Casos de sucesso de clientes
  • Relações com analistas
  • Notícias
  • Compromisso com o open source
  • Nosso impacto social
  • Vagas disponíveis

Change page language

Red Hat legal and privacy links

  • Sobre a Red Hat
  • Oportunidades de emprego
  • Eventos
  • Escritórios
  • Fale com a Red Hat
  • Blog da Red Hat
  • Inclusão na Red Hat
  • Cool Stuff Store
  • Red Hat Summit
© 2026 Red Hat

Red Hat legal and privacy links

  • Declaração de privacidade
  • Termos de uso
  • Todas as políticas e diretrizes
  • Acessibilidade digital