-
Soluções e documentação Red Hat AI
Uma plataforma de soluções e serviços para desenvolvimento e implantação de IA na nuvem híbrida.
Red Hat AI Inference Server
Otimize o desempenho do modelo com o vLLM e realize inferências de forma mais rápida, econômica e em escala.
Red Hat Enterprise Linux AI
Desenvolva, teste e execute modelos de IA generativa para impulsionar aplicações empresariais.
Red Hat OpenShift AI
Crie e implante modelos e aplicações com IA em escala em ambientes híbridos.
Serviços em nuvem
Red Hat AI InstructLab on IBM Cloud
Uma solução escalável e econômica para personalizar modelos de IA na nuvem.
-
Aprenda Princípios básicos
Especificações técnicas
-
Parceiros de IA
Red Hat AI
Agregue valor à IA com os recursos que você tem, os insights que possui e a liberdade que precisa.
Baseado em tecnologia open source, o Red Hat® AI foi projetado para ajudar você a desenvolver e executar soluções de IA com confiança.
O Red Hat AI 3 chegou
Nosso lançamento mais recente torna a inferência de IA mais eficiente e econômica com llm-d. Os recursos adicionais criam uma base para a entrega de fluxos de trabalho escaláveis de Agentic AI, usando uma experiência unificada, flexível e adaptada às demandas colaborativas de criação de soluções de IA prontas para produção em grande escala.
Seus modelos, seus dados, sua escolha.
Para as aplicações de IA operarem da melhor forma, elas precisam de inferência rápida e econômica. Para isso, o Red Hat AI oferece uma plataforma unificada e flexível com o llm-d, um framework para inferência distribuída em grande escala.
Desenvolvido com base no sucesso do vLLM, o llm-d usa o Kubernetes e oferece processamento eficiente e estável, garantindo desempenho consistente.
À medida que as organizações adotam sistemas agentic, surge a necessidade de mais do que eficiência, além de um framework interoperável para conectar modelos, dados e fluxos de trabalho de IA na nuvem híbrida.
A introdução de uma camada de API unificada baseada no Llama Stack oferece um ponto de entrada para uma ampla variedade de recursos de IA. Isso inclui integração com o Model Context Protocol (MCP), facilitando a entrega e execução de Agentic AI em grande escala em ambientes de produção.
2 horas | Terça-feira, 14 de outubro, 10h (EST)
What’s new and what’s next with Red Hat AI
Sua jornada rumo à IA empresarial
Junte-se aos líderes de IA da Red Hat para descobrir os últimos avanços do Red Hat AI.
O lançamento mais recente prioriza inferência previsível e de alto desempenho, além do desenvolvimento acelerado de agentes de IA. As atualizações das soluções ajudam a superar desafios de IA, como custos, complexidades e controle.
O Red Hat AI inclui:
O Red Hat AI Inference Server otimiza a inferência de modelos na nuvem híbrida para gerar implantações mais rápidas e econômicas.
Com tecnologia de vLLM, ele inclui acesso a modelos de terceiros validados e otimizados no Hugging Face. Também conta com ferramentas de LLM Compressor.
O Red Hat Enterprise Linux® AI é uma plataforma onde você pode executar Large Language Models (LLMs) com consistência em ambientes de servidores individuais.
Com a inclusão do Red Hat AI Inference Server, você ganha inferência de nuvem híbrida rápida e econômica, usando vLLM para maximizar a taxa de transferência e minimizar a latência.
Além disso, com funcionalidades como o image mode, você pode implementar soluções consistentemente e em grande escala. Ele também permite que você aplique os mesmos perfis de segurança em todo o Linux, unindo sua equipe em apenas um fluxo de trabalho.
O Red Hat OpenShift® AI se baseia nos recursos do Red Hat OpenShift para oferecer uma plataforma de gerenciamento do ciclo de vida de modelos de IA generativa e preditiva em grande escala.
Ele disponibiliza IA de produção, assim as organizações podem criar, implantar e gerenciar modelos e agentes de IA em ambientes de nuvem híbrida, como IA soberana e privada.
Desempenho validado e com impacto no mundo real
O Red Hat AI oferece acesso a um conjunto de modelos de terceiros validados e prontos para uso para serem executados com eficiência em vLLM na nossa plataforma.
Use modelos de terceiros validados da Red Hat para testar o desempenho do modelo, otimizar a inferência e receber orientação para superar a complexidade e acelerar a adoção da IA.
IA que se adequa às suas necessidades e opera do seu jeito.
IA generativa
Produza conteúdos novos, como texto e código de software.
Com o Red Hat AI, execute os modelos de IA generativa que quiser com mais rapidez, menos recursos e custos de inferência reduzidos.
IA preditiva
Conecte padrões e antecipe resultados futuros.
Com o Red Hat AI, as organizações podem criar, treinar, disponibilizar e monitorar modelos preditivos. Tudo isso com a consistência na nuvem híbrida.
IA operacionalizada
Crie sistemas que possibilitem a manutenção e a implantação da IA em grande escala.
Com o Red Hat AI, gerencie e monitore o ciclo de vida de aplicações, economize recursos e esteja em conformidade com as regulamentações de privacidade.
Agentic AI
Crie fluxos de trabalho que executem tarefas complexas com supervisão limitada.
Com o Red Hat AI, você tem uma base estável e flexível para criar, gerenciar e implantar fluxos de trabalho de Agentic AI em aplicações existentes.
Mais parceiros de IA. Mais caminhos a seguir.
Os experts e as tecnologias se juntam para nossos clientes fazerem mais com a IA. Diversos parceiros de tecnologia estão trabalhando com a Red Hat para obter a certificação de compatibilidade com nossas soluções.
Casos de sucesso com a IA no Red Hat Summit e AnsibleFest 2025
Turkish Airlines dobrou a velocidade de implantação com acesso a dados de toda a empresa.
A JCCM aprimorou os processos de avaliação de impacto ambiental (EIA) da região usando IA.
O Denizbank acelerou o time to market de dias para minutos.
A Hitachi operacionalizou a IA em todos os negócios com o Red Hat OpenShift AI.
Padrão da solução
Aplicações de IA com a Red Hat e o NVIDIA AI Enterprise
Crie uma aplicação com RAG
O Red Hat OpenShift AI é uma plataforma para criar projetos de ciência de dados e disponibilizar aplicações com IA. Você pode integrar todas as ferramentas para dar suporte à Geração Aumentada de Recuperação (RAG), um método para receber respostas da IA a partir dos seus próprios documentos de referência. Quando você conecta o OpenShift AI ao NVIDIA AI Enterprise, é possível testar large language models (LLMs) para encontrar o melhor modelo para sua aplicação.
Crie um pipeline de documentos
Para usar a RAG, primeiro você precisa ingerir seus documentos em um banco de dados vetorial. Na nossa app de exemplo, inserimos um conjunto de documentos da solução em um banco de dados do Redis. Como esses documentos mudam com frequência, criamos um pipeline para esse processo que executaremos periodicamente. Dessa forma, sempre teremos as versões mais recentes dos documentos.
Confira o catálogo de LLM
O NVIDIA AI Enterprise oferece um acesso a um catálogo de diferentes LLMs para que você tenha opções diversas e selecione o modelo com os melhores resultados. Os modelos são hospedados no catálogo da API da NVIDIA. Após configurar um token de API, é possível implantar modelos usando a plataforma de model serving NVIDIA NIM diretamente a partir do OpenShift AI.
Como escolher o modelo ideal
Conforme você testa LLMs diferentes, seus usuários podem avaliar cada resposta gerada. Você pode configurar um dashboard de monitoramento do Grafana para comparar as avaliações e o tempo de resposta e latência de cada modelo. Depois, use esses dados para escolher o melhor LLM para a produção.
Red Hat AI no mundo real
Ortec Finance acelera o crescimento e o time to market
A Ortec Finance, fornecedora global de tecnologia e soluções para gerenciamento de risco e retorno, disponibiliza modelos de ML no Microsoft Azure Red Hat OpenShift e adota o Red Hat AI.

Denizbank capacita seus cientistas de dados
O DenizBank está desenvolvendo modelos de IA para ajudar a identificar empréstimos para clientes e possíveis fraudes. Com o Red Hat AI, os cientistas de dados da organização ganharam um novo nível de autonomia sobre os dados.

Desenvolva seus negócios em uma base confiável
Empresas ao redor do mundo confiam em nosso amplo portfólio de infraestrutura de nuvem híbrida, serviços de aplicação, desenvolvimento de aplicações nativas em nuvem e soluções de automação para oferecer serviços de TI em qualquer infraestrutura, com mais rapidez e menores custos.
Red Hat Enterprise Linux
Ofereça suporte a implantações de aplicações em um ambiente operacional flexível, seja ele on-premise, na nuvem ou na edge.
Red Hat OpenShift
Crie e implante aplicações rapidamente e em escala, modernizando as soluções que você já tem.
Red Hat Ansible
Automation Platform
Automation Platform
Crie, gerencie e escale a automação em toda a empresa, dinamicamente.
Red Hat AI
Ajuste modelos pequenos com dados relevantes. Desenvolva e implante soluções de IA em ambientes de nuvem híbrida.



