-
Soluções e documentação Red Hat AI
Uma plataforma de soluções e serviços para desenvolvimento e implantação de IA na nuvem híbrida.
Red Hat AI Inference Server
Otimize o desempenho do modelo com o vLLM e realize inferências de forma mais rápida, econômica e em escala.
Red Hat Enterprise Linux AI
Desenvolva, teste e execute modelos de IA generativa para impulsionar aplicações empresariais.
Red Hat OpenShift AI
Crie e implante modelos e aplicações com IA em escala em ambientes híbridos.
Serviços em nuvem
Red Hat AI InstructLab on IBM Cloud
Uma solução escalável e econômica para personalizar modelos de IA na nuvem.
-
Aprenda Princípios básicos
Especificações técnicas
-
Parceiros de IA
Red Hat OpenShift AI
O Red Hat® OpenShift® AI é uma plataforma para gerenciar o ciclo de vida de modelos de IA preditiva e generativa (gen IA) em grande escala nos ambientes de nuvem híbrida.
O que é o Red Hat OpenShift AI?
Desenvolvido com tecnologias open source, o OpenShift AI oferece recursos confiáveis e operacionalmente consistentes para as equipes experimentarem, disponibilizarem modelos e entregarem aplicações inovadoras.
O OpenShift AI viabiliza a preparação e a aquisição de dados, além de ajuste fino, treinamento de modelo e model serving. Ele também facilita o monitoramento e a aceleração de hardware. Com um ecossistema aberto de parceiros de software e hardware, o OpenShift AI oferece a flexibilidade necessária para atender aos seus casos de uso específicos.
Acelere a disponibilização de aplicações em produção com recursos de IA
Combine os recursos comprovados do Red Hat OpenShift AI e do Red Hat OpenShift em uma única plataforma de aplicações de IA empresarial que une as equipes. Cientistas de dados, engenheiros e desenvolvedores de aplicações podem colaborar no mesmo local com consistência, segurança e escalabilidade.
O lançamento mais recente do OpenShift AI inclui uma coleção selecionada de modelos de terceiros otimizados para produção e validados para o Red Hat OpenShift AI. Com esse catálogo, sua equipe tem mais controle sobre a acessibilidade e visibilidade dos modelos, o que ajuda a atender aos requisitos de segurança e das políticas.
Além disso, o OpenShift AI ajuda a gerenciar os custos da inferência com a disponibilização distribuída usando um framework vLLM otimizado. Para reduzir ainda mais a complexidade operacional, ele oferece ferramentas avançadas que automatizam as implantações e o acesso self-service a modelos, funcionalidades e recursos.
Funcionalidades e benefícios
Economize tempo no gerenciamento da infraestrutura de IA
Obtenha acesso sob demanda a modelos de alto desempenho para facilitar o self-service, a escala e a disponibilização. Os desenvolvedores podem evitar a complexidade, manter o controle e otimizar os custos.
No momento, funcionalidades como Modelos como serviço (MaaS) estão na prévia do desenvolvedor. Ela oferece endpoints de API para acessar a IA com escalabilidade mais rápida e particular.
Ferramentas de inteligência artificial e machine learning (IA/ML) testadas e compatíveis
A Red Hat testa, integra e oferece suporte às ferramentas de inteligência artificial e machine learning e model serving. Assim, você não precisa fazer isso. O OpenShift IA é o resultado de anos de desenvolvimento no projeto da nossa comunidade Open Data Hub e em projetos open source como o Kubeflow.
Com nossa experiência e expertise em open source, oferecemos uma base para a IA generativa. Dessa forma, os clientes têm mais opções e confiança para suas estratégias de gen IA.
Flexibilidade em toda a nuvem híbrida
Disponibilizado no OpenShift como um software autogerenciado ou um serviço em nuvem totalmente gerenciado, o Red Hat OpenShift AI oferece uma plataforma segura e flexível na qual você pode escolher onde desenvolver e implantar seus modelos: on-premise, na nuvem pública ou até mesmo na edge.
Siga nossas práticas recomendadas
O Red Hat Services oferece expertise, treinamento e suporte para você superar seus desafios de IA em qualquer ponto da sua jornada.
A Red Hat Consulting oferece suporte e orientação para você criar o protótipo de uma solução de IA, simplificar a implantação da sua plataforma de IA ou refinar as estratégias de MLOps.
llm-d oferece caminhos claros para desenvolvedores
O Red Hat OpenShift AI inclui o llm-d, um framework open source que resolve os desafios da inferência de IA distribuída em grande escala.
Com a escala de modelos em uma frota distribuída de GPUs, você conta com um novo nível de controle e observabilidade. Ao desagregar o pipeline de inferência em serviços modulares e inteligentes, as empresas podem otimizar LLMs complexos em grande escala.
Servidores MCP para Red Hat OpenShift AI
Explore nossa coleção de servidores MCP de parceiros de tecnologia que oferecem integração ao Red Hat OpenShift AI.
O Model Context Protocol (MCP) é um protocolo open source que permite uma conexão bidirecional e uma comunicação padronizada entre aplicações de IA e serviços externos.
Agora, você pode usar esses servidores MCP para integrar ferramentas e recursos empresariais às suas aplicações de IA e fluxos de trabalho agentic.
Use o vLLM para realizar inferências otimizadas de forma mais rápida, econômica e em grande escala.
O Red Hat AI Inference Server é parte da plataforma Red Hat AI. Ele está incluído no Red Hat Enterprise Linux® AI e no Red Hat OpenShift® AI, além de estar disponível como solução autônoma.
IA que se adequa às suas necessidades e opera do seu jeito.
IA generativa
Produza conteúdos novos, como texto e código de software.
Com o Red Hat AI, execute os modelos de IA generativa que quiser com mais rapidez, menos recursos e custos de inferência reduzidos.
IA preditiva
Conecte padrões e antecipe resultados futuros.
Com o Red Hat AI, as organizações podem criar, treinar, disponibilizar e monitorar modelos preditivos. Tudo isso com a consistência na nuvem híbrida.
IA operacionalizada
Crie sistemas que possibilitem a manutenção e a implantação da IA em grande escala.
Com o Red Hat AI, gerencie e monitore o ciclo de vida de aplicações, economize recursos e esteja em conformidade com as regulamentações de privacidade.
Agentic AI
Crie fluxos de trabalho que executem tarefas complexas com supervisão limitada.
Com o Red Hat AI, você tem uma base estável e flexível para criar, gerenciar e implantar fluxos de trabalho de Agentic AI em aplicações existentes.
Parcerias
Amplie os benefícios da plataforma Red Hat OpenShift AI com outros serviços e soluções integradas.
A NVIDIA e a Red Hat oferecem aos clientes uma plataforma escalável que impulsiona diversos casos de uso de IA com flexibilidade incomparável.
A Intel® e a Red Hat ajudam as organizações a estimular a adoção da IA e a operacionalizar os modelos de inteligência artificial e machine learning.
A IBM e a Red Hat oferecem inovação open source para acelerar o desenvolvimento de IA, inclusive utilizando o IBM watsonx.aiTM, um estúdio de IA empresarial para desenvolvedores.
O Starburst Enterprise e a Red Hat oferecem insights mais precisos e rápidos por meio de uma análise de dados veloz em várias plataformas de dados dispersas e distribuídas.
Infraestrutura Kubernetes escalável para plataformas de IA
Aprenda a aplicar os princípios e práticas para operações de machine learning (MLOps) para criar aplicações com IA.
Colabore usando workbenches de modelos
O hub de IA e o estúdio de gen IA permitem que os engenheiros de plataforma colaborem, acelerando a disponibilização de modelos de gen IA em produção.
No hub de IA, é possível gerenciar os LLMs com cargas de trabalho de IA centralizadas e acessar insights de desempenho da validação de modelos de terceiros. Já o estúdio de gen IA oferece um ambiente hands-on para interagir com os modelos e criar protótipos de aplicações rapidamente. Acesse uma sandbox para testar fluxos de bate-papo e Geração Aumentada de Recuperação (RAG) e verificar a viabilidade dos modelos antes da integração ao ciclo de vida.
Além disso, os cientistas de dados podem acessar imagens de cluster pré-criadas ou personalizadas para usar nos modelos com o IDE ou frameworks de preferência. O Red Hat OpenShift AI monitora as alterações no Jupyter, no PyTorch, no Kubeflow e em outras tecnologias de IA open source.
Escale o model serving e a segurança com o Red Hat OpenShift AI
É possível disponibilizar modelos usando uma versão otimizada do vLLM (ou outros servidores de modelo de sua escolha) para integrar as aplicações com IA on-premise, na nuvem pública ou na edge. Eles podem ser recriados, reimplantados e monitorados com base nas alterações feitas no notebook de origem.
A alucinação e vieses podem comprometer a integridade dos seus modelos e dificultar a escala. Para manter a imparcialidade, a segurança e a escalabilidade, o OpenShift AI permite que os profissionais de dados analisem se as saídas do modelo e os dados de treinamento estão alinhados.
As ferramentas de detecção de desvio monitoram quando os dados ativos usados na inferência do modelo desviam dos dados de treinamento originais. Também foram implementadas proteções de IA para os dados de entrada e os resultados dos modelos, a fim de evitar informações sensíveis ou ofensivas, como discurso de ódio, dados pessoais ou conteúdos restritos ao domínio.
Padrão da solução
Aplicações de IA com a Red Hat e o NVIDIA AI Enterprise
Crie uma aplicação com RAG
O Red Hat OpenShift AI é uma plataforma para criar projetos de ciência de dados e disponibilizar aplicações com IA. Você pode integrar todas as ferramentas para dar suporte à Geração Aumentada de Recuperação (RAG), um método para receber respostas da IA a partir dos seus próprios documentos de referência. Quando você conecta o OpenShift AI ao NVIDIA AI Enterprise, é possível testar large language models (LLMs) para encontrar o melhor modelo para sua aplicação.
Crie um pipeline de documentos
Para usar a RAG, primeiro você precisa ingerir seus documentos em um banco de dados vetorial. Na nossa app de exemplo, inserimos um conjunto de documentos da solução em um banco de dados do Redis. Como esses documentos mudam com frequência, criamos um pipeline para esse processo que executaremos periodicamente. Dessa forma, sempre teremos as versões mais recentes dos documentos.
Confira o catálogo de LLM
O NVIDIA AI Enterprise oferece um acesso a um catálogo de diferentes LLMs para que você tenha opções diversas e selecione o modelo com os melhores resultados. Os modelos são hospedados no catálogo da API da NVIDIA. Após configurar um token de API, é possível implantar modelos usando a plataforma de model serving NVIDIA NIM diretamente a partir do OpenShift AI.
Como escolher o modelo ideal
Conforme você testa LLMs diferentes, seus usuários podem avaliar cada resposta gerada. Você pode configurar um dashboard de monitoramento do Grafana para comparar as avaliações e o tempo de resposta e latência de cada modelo. Depois, use esses dados para escolher o melhor LLM para a produção.
Casos de sucesso com a IA no Red Hat Summit e AnsibleFest 2025
Turkish Airlines dobrou a velocidade de implantação com acesso a dados de toda a empresa.
A JCCM aprimorou os processos de avaliação de impacto ambiental (EIA) da região usando IA.
O Denizbank acelerou o time to market de dias para minutos.
A Hitachi operacionalizou a IA em todos os negócios com o Red Hat OpenShift AI.
Como testar o Red Hat OpenShift AI
Developer Sandbox
Para desenvolvedores e cientistas de dados que querem testar a criação de aplicações com IA em um ambiente flexível e pré-configurado.
Teste de 60 dias
Quando sua organização estiver pronta para avaliar todos os recursos do OpenShift AI, experimente-os com um teste de solução de 60 dias. É necessário ter um cluster do Red Hat OpenShift.