Red Hat OpenShift AI

O Red Hat® OpenShift® AI é uma plataforma para gerenciar o ciclo de vida de modelos de IA preditiva e generativa (gen IA) em grande escala nos ambientes de nuvem híbrida. 

Imagem da interface do RHOSAI

O que é o Red Hat OpenShift AI?

Desenvolvido com tecnologias open source, o OpenShift AI oferece recursos confiáveis e operacionalmente consistentes para as equipes experimentarem, disponibilizarem modelos e entregarem aplicações inovadoras.

O OpenShift AI viabiliza a preparação e a aquisição de dados, além de ajuste fino, treinamento de modelo e model serving. Ele também facilita o monitoramento e a aceleração de hardware. Com um ecossistema aberto de parceiros de software e hardware, o OpenShift AI oferece a flexibilidade necessária para atender aos seus casos de uso específicos.

Assista a uma demonstração do Red Hat OpenShift AI e seus recursos mais recentes. Duração do vídeo: 5:59

Imagem do Red Hat AI

Acelere a disponibilização de aplicações em produção com recursos de IA

Combine os recursos comprovados do Red Hat OpenShift AI e do Red Hat OpenShift em uma única plataforma de aplicações de IA empresarial que une as equipes. Cientistas de dados, engenheiros e desenvolvedores de aplicações podem colaborar no mesmo local com consistência, segurança e escalabilidade.

O lançamento mais recente do OpenShift AI inclui uma coleção selecionada de modelos de terceiros otimizados para produção e validados para o Red Hat OpenShift AI. Com esse catálogo, sua equipe tem mais controle sobre a acessibilidade e visibilidade dos modelos, o que ajuda a atender aos requisitos de segurança e das políticas. 

Além disso, o OpenShift AI ajuda a gerenciar os custos da inferência com a disponibilização distribuída usando um framework vLLM otimizado. Para reduzir ainda mais a complexidade operacional, ele oferece ferramentas avançadas que automatizam as implantações e o acesso self-service a modelos, funcionalidades e recursos.

Economize tempo no gerenciamento da infraestrutura de IA

Obtenha acesso sob demanda a modelos de alto desempenho para facilitar o self-service, a escala e a disponibilização. Os desenvolvedores podem evitar a complexidade, manter o controle e otimizar os custos.

No momento, funcionalidades como Modelos como serviço (MaaS) estão na prévia do desenvolvedor. Ela oferece endpoints de API para acessar a IA com escalabilidade mais rápida e particular. 

Ferramentas de inteligência artificial e machine learning (IA/ML) testadas e compatíveis

A Red Hat testa, integra e oferece suporte às ferramentas de inteligência artificial e machine learning e model serving. Assim, você não precisa fazer isso. O OpenShift IA é o resultado de anos de desenvolvimento no projeto da nossa comunidade Open Data Hub e em projetos open source como o Kubeflow

Com nossa experiência e expertise em open source, oferecemos uma base para a IA generativa. Dessa forma, os clientes têm mais opções e confiança para suas estratégias de gen IA. 

Flexibilidade em toda a nuvem híbrida

Disponibilizado no OpenShift como um software autogerenciado ou um serviço em nuvem totalmente gerenciado, o Red Hat OpenShift AI oferece uma plataforma segura e flexível na qual você pode escolher onde desenvolver e implantar seus modelos: on-premise, na nuvem pública ou até mesmo na edge.

Siga nossas práticas recomendadas

O Red Hat Services oferece expertise, treinamento e suporte para você superar seus desafios de IA em qualquer ponto da sua jornada. 

A Red Hat Consulting oferece suporte e orientação para você criar o protótipo de uma solução de IA, simplificar a implantação da sua plataforma de IA ou refinar as estratégias de MLOps.

llm-d oferece caminhos claros para desenvolvedores

O Red Hat OpenShift AI inclui o llm-d, um framework open source que resolve os desafios da inferência de IA distribuída em grande escala.

Com a escala de modelos em uma frota distribuída de GPUs, você conta com um novo nível de controle e observabilidade. Ao desagregar o pipeline de inferência em serviços modulares e inteligentes, as empresas podem otimizar LLMs complexos em grande escala. 

Servidores MCP para Red Hat OpenShift AI

Explore nossa coleção de servidores MCP de parceiros de tecnologia que oferecem integração ao Red Hat OpenShift AI. 

O Model Context Protocol (MCP) é um protocolo open source que permite uma conexão bidirecional e uma comunicação padronizada entre aplicações de IA e serviços externos.

Agora, você pode usar esses servidores MCP para integrar ferramentas e recursos empresariais às suas aplicações de IA e fluxos de trabalho agentic. 

Use o vLLM para realizar inferências otimizadas de forma mais rápida, econômica e em grande escala.

O Red Hat AI Inference Server é parte da plataforma Red Hat AI. Ele está incluído no Red Hat Enterprise Linux® AI e no Red Hat OpenShift® AI, além de estar disponível como solução autônoma.

IA que se adequa às suas necessidades e opera do seu jeito.

IA generativa

IA generativa

Produza conteúdos novos, como texto e código de software. 

Com o Red Hat AI, execute os modelos de IA generativa que quiser com mais rapidez, menos recursos e custos de inferência reduzidos. 

IA preditiva

IA preditiva

Conecte padrões e antecipe resultados futuros. 

Com o Red Hat AI, as organizações podem criar, treinar, disponibilizar e monitorar modelos preditivos. Tudo isso com a consistência na nuvem híbrida.

IA operacionalizada

IA operacionalizada

Crie sistemas que possibilitem a manutenção e a implantação da IA em grande escala. 

Com o Red Hat AI, gerencie e monitore o ciclo de vida de aplicações, economize recursos e esteja em conformidade com as regulamentações de privacidade. 

Agentic AI

Agentic AI

Crie fluxos de trabalho que executem tarefas complexas com supervisão limitada. 

Com o Red Hat AI, você tem uma base estável e flexível para criar, gerenciar e implantar fluxos de trabalho de Agentic AI em aplicações existentes.

Parcerias

Amplie os benefícios da plataforma Red Hat OpenShift AI com outros serviços e soluções integradas.

Logotipo da NVIDIA

A NVIDIA e a Red Hat oferecem aos clientes uma plataforma escalável que impulsiona diversos casos de uso de IA com flexibilidade incomparável.

Logotipo da Intel

A Intel® e a Red Hat ajudam as organizações a estimular a adoção da IA e a operacionalizar os modelos de inteligência artificial e machine learning.

Logotipo da IBM

A IBM e a Red Hat oferecem inovação open source para acelerar o desenvolvimento de IA, inclusive utilizando o IBM watsonx.aiTM, um estúdio de IA empresarial para desenvolvedores. 

Logotipo do Starburst

O Starburst Enterprise e a Red Hat oferecem insights mais precisos e rápidos por meio de uma análise de dados veloz em várias plataformas de dados dispersas e distribuídas.

Infraestrutura Kubernetes escalável para plataformas de IA

Aprenda a aplicar os princípios e práticas para operações de machine learning (MLOps) para criar aplicações com IA. 

Colabore usando workbenches de modelos

O hub de IA e o estúdio de gen IA permitem que os engenheiros de plataforma colaborem, acelerando a disponibilização de modelos de gen IA em produção. 

No hub de IA, é possível gerenciar os LLMs com cargas de trabalho de IA centralizadas e acessar insights de desempenho da validação de modelos de terceiros. Já o estúdio de gen IA oferece um ambiente hands-on para interagir com os modelos e criar protótipos de aplicações rapidamente. Acesse uma sandbox para testar fluxos de bate-papo e Geração Aumentada de Recuperação (RAG) e verificar a viabilidade dos modelos antes da integração ao ciclo de vida.

Além disso, os cientistas de dados podem acessar imagens de cluster pré-criadas ou personalizadas para usar nos modelos com o IDE ou frameworks de preferência. O Red Hat OpenShift AI monitora as alterações no Jupyter, no PyTorch, no Kubeflow e em outras tecnologias de IA open source.

Captura de tela da aba de aplicações ativadas no console do OpenShift AI

O AI Guardrails garante a proteção dos seus modelos de gen IA. Duração do vídeo: 10:02

Escale o model serving e a segurança com o Red Hat OpenShift AI

É possível disponibilizar modelos usando uma versão otimizada do vLLM (ou outros servidores de modelo de sua escolha) para integrar as aplicações com IA on-premise, na nuvem pública ou na edge. Eles podem ser recriados, reimplantados e monitorados com base nas alterações feitas no notebook de origem.

A alucinação e vieses podem comprometer a integridade dos seus modelos e dificultar a escala. Para manter a imparcialidade, a segurança e a escalabilidade, o OpenShift AI permite que os profissionais de dados analisem se as saídas do modelo e os dados de treinamento estão alinhados. 

As ferramentas de detecção de desvio monitoram quando os dados ativos usados na inferência do modelo desviam dos dados de treinamento originais. Também foram implementadas proteções de IA para os dados de entrada e os resultados dos modelos, a fim de evitar informações sensíveis ou ofensivas, como discurso de ódio, dados pessoais ou conteúdos restritos ao domínio. 

Padrão da solução

Aplicações de IA com a Red Hat e o NVIDIA AI Enterprise

Crie uma aplicação com RAG

O Red Hat OpenShift AI é uma plataforma para criar projetos de ciência de dados e disponibilizar aplicações com IA. Você pode integrar todas as ferramentas para dar suporte à Geração Aumentada de Recuperação (RAG), um método para receber respostas da IA a partir dos seus próprios documentos de referência. Quando você conecta o OpenShift AI ao NVIDIA AI Enterprise, é possível testar large language models (LLMs) para encontrar o melhor modelo para sua aplicação.

Crie um pipeline de documentos

Para usar a RAG, primeiro você precisa ingerir seus documentos em um banco de dados vetorial. Na nossa app de exemplo, inserimos um conjunto de documentos da solução em um banco de dados do Redis. Como esses documentos mudam com frequência, criamos um pipeline para esse processo que executaremos periodicamente. Dessa forma, sempre teremos as versões mais recentes dos documentos.

Confira o catálogo de LLM

O NVIDIA AI Enterprise oferece um acesso a um catálogo de diferentes LLMs para que você tenha opções diversas e selecione o modelo com os melhores resultados. Os modelos são hospedados no catálogo da API da NVIDIA. Após configurar um token de API, é possível implantar modelos usando a plataforma de model serving NVIDIA NIM diretamente a partir do OpenShift AI.

Como escolher o modelo ideal

Conforme você testa LLMs diferentes, seus usuários podem avaliar cada resposta gerada. Você pode configurar um dashboard de monitoramento do Grafana para comparar as avaliações e o tempo de resposta e latência de cada modelo. Depois, use esses dados para escolher o melhor LLM para a produção.

Ícone "Faça o download do PDF"

Um diagrama de arquitetura mostra uma aplicação criada com o Red Hat OpenShift AI e o NVIDIA AI Enterprise. Os componentes incluem o OpenShift GitOps para conexão com o GitHub e gerenciamento de interações DevOps, o Grafana para monitoramento, o OpenShift AI para ciência de dados, o Redis como um banco de dados vetorial e o Quay como um registro de imagem. Esses componentes todos são direcionados ao front-end e back-end da app. Eles são baseados no Red Hat OpenShift AI, com uma integração ao ai.nvidia.com.

Casos de sucesso com a IA no Red Hat Summit e AnsibleFest 2025

Turkish Airlines

Turkish Airlines dobrou a velocidade de implantação com acesso a dados de toda a empresa.

Logotipo da JCCM

A JCCM aprimorou os processos de avaliação de impacto ambiental (EIA) da região usando IA.

DenizBank

O Denizbank acelerou o time to market de dias para minutos.

Logotipo da Hitachi

A Hitachi operacionalizou a IA em todos os negócios com o Red Hat OpenShift AI.

Como testar o Red Hat OpenShift AI

Developer Sandbox

Para desenvolvedores e cientistas de dados que querem testar a criação de aplicações com IA em um ambiente flexível e pré-configurado.

Teste de 60 dias

Quando sua organização estiver pronta para avaliar todos os recursos do OpenShift AI, experimente-os com um teste de solução de 60 dias. É necessário ter um cluster do Red Hat OpenShift.

Confira mais recursos de IA

DenizBank capacita os cientistas de dados com o Red Hat OpenShift AI

Open source: o caminho rápido para obter sucesso com a IA

Desenvolvedores da Turkish Airlines usam o OpenShift IA para realizar experimentos com IA

Cinco maneiras de implementar o MLOps com sucesso

Fale com a equipe de vendas

Fale com um especialista da Red Hat sobre o Red Hat AI