Red Hat OpenShift AI

O Red Hat® OpenShift® AI é uma plataforma para gerenciar o ciclo de vida de modelos de IA preditiva e IA generativa (gen IA) em grande escala nos ambientes de nuvem híbrida. 

Imagem da interface do RHOSAI

O que é o Red Hat OpenShift AI?

Desenvolvido com tecnologias open source, o OpenShift AI oferece recursos confiáveis e operacionalmente consistentes para as equipes experimentarem, disponibilizarem modelos e entregarem aplicações inovadoras.

O OpenShift AI viabiliza a preparação e a aquisição de dados, bem como o ajuste fino, treinamento de modelo e model serving. Ele também facilita o monitoramento e a aceleração de hardware. Com um ecossistema aberto de parceiros de software e hardware, o OpenShift AI oferece a flexibilidade necessária para atender aos seus casos de uso específicos.

Assista a uma demonstração do Red Hat OpenShift AI e seus recursos mais recentes. Duração do vídeo: 5:59

Imagem do Red Hat AI

Acelere a entrega de aplicações com IA

Combine os recursos comprovados do Red Hat OpenShift AI e do Red Hat OpenShift em uma única plataforma de aplicações de IA empresarial que une as equipes. Cientistas de dados, engenheiros e desenvolvedores de aplicações podem colaborar no mesmo local com consistência, segurança e escalabilidade.

O lançamento mais recente do OpenShift AI inclui uma coleção selecionada de modelos de terceiros otimizados para produção e validados para o Red Hat OpenShift AI. Com esse catálogo, sua equipe tem mais controle sobre a acessibilidade e visibilidade dos modelos, o que ajuda a atender aos requisitos de segurança e das políticas. 

Além disso, o OpenShift AI ajuda a gerenciar os custos da inferência com a disponibilização distribuída usando um framework vLLM otimizado. Para reduzir ainda mais a complexidade operacional, ele oferece ferramentas avançadas que automatizam as implantações e o acesso self-service a modelos, funcionalidades e recursos.

Economize tempo no gerenciamento da infraestrutura de IA

Obtenha acesso sob demanda a modelos de alto desempenho para facilitar o self-service, a escala e a disponibilização. Os desenvolvedores podem evitar a complexidade, manter o controle e otimizar os custos.

No momento, recursos como modelos como serviço (MaaS) estão na prévia do desenvolvedor. Ele oferece endpoints de API para acessar a IA com escalabilidade mais rápida e particular. 

Ferramentas de inteligência artificial e machine learning (IA/ML) testadas e compatíveis

A Red Hat testa, integra e oferece suporte às ferramentas de inteligência artificial e machine learning e model serving. Assim, você não precisa fazer isso. O OpenShift IA é o resultado de anos de desenvolvimento no projeto da nossa comunidade Open Data Hub e em projetos open source como o Kubeflow

Com nossa experiência e expertise em open source, oferecemos uma base para a IA generativa que proporciona aos clientes mais opções e confiança para suas estratégias de gen IA. 

Flexibilidade em toda a nuvem híbrida

Disponibilizado no OpenShift como um software autogerenciado ou um serviço em nuvem totalmente gerenciado, o Red Hat OpenShift AI oferece uma plataforma segura e flexível na qual você pode escolher onde desenvolver e implantar seus modelos: on-premise, na nuvem pública ou até mesmo na edge.

Siga nossas práticas recomendadas

O Red Hat Services oferece expertise, treinamento e suporte para você superar seus desafios de IA em qualquer ponto da sua jornada. 

A Red Hat Consulting oferece suporte e orientação para você criar o protótipo de uma solução de IA, simplificar a implantação da sua plataforma de IA ou refinar as estratégias de MLOps.

Guias de início rápido com a IA

Explore uma variedade de casos de uso de IA inovadores da nossa comunidade. Esses exemplos simples e específicos foram criados para uma implantação rápida e fácil na plataforma do Red Hat AI.

llm-d oferece fluxos guiados para desenvolvedores

O Red Hat OpenShift AI inclui o llm-d, um framework open source que resolve os desafios da inferência de IA distribuída em grande escala.

Com a escala de modelos em uma frota distribuída de GPUs, você conta com um novo nível de controle e observabilidade. Ao desagregar o pipeline de inferência em serviços modulares e inteligentes, as empresas podem otimizar LLMs complexos em grande escala. 

Servidores MCP para Red Hat OpenShift AI

Explore nossa coleção de servidores MCP de parceiros de tecnologia que oferecem integração ao Red Hat OpenShift AI. 

O Model Context Protocol (MCP) é um protocolo open source que permite uma conexão bidirecional e uma comunicação padronizada entre aplicações de IA e serviços externos.

Agora, você pode usar esses servidores MCP para integrar ferramentas e recursos empresariais às suas aplicações de IA e fluxos de trabalho agentic. 

Use o vLLM para realizar inferências otimizadas de forma mais rápida, econômica e em grande escala.

O Red Hat AI Inference Server é parte da plataforma Red Hat AI. Ele está incluído no Red Hat Enterprise Linux® AI e no Red Hat OpenShift® AI, além de estar disponível como solução autônoma.

IA que se adequa às suas necessidades e opera do seu jeito.

IA generativa

IA generativa

Produza conteúdos novos, como texto e código de software. 

Com o Red Hat AI, execute os modelos de IA generativa que quiser com mais rapidez, menos recursos e custos de inferência reduzidos. 

IA preditiva

IA preditiva

Conecte padrões e antecipe resultados futuros. 

Com o Red Hat AI, as organizações podem criar, treinar, disponibilizar e monitorar modelos preditivos. Tudo isso com a consistência na nuvem híbrida.

IA operacionalizada

IA operacionalizada

Crie sistemas que possibilitem a manutenção e a implantação da IA em grande escala. 

Com o Red Hat AI, gerencie e monitore o ciclo de vida de aplicações, economize recursos e esteja em conformidade com as regulamentações de privacidade. 

Agentic AI

Agentic AI

Crie fluxos de trabalho que executem tarefas complexas com supervisão limitada. 

Com o Red Hat AI, você tem uma base estável e flexível para criar, gerenciar e implantar fluxos de trabalho de Agentic AI em aplicações existentes.

Parcerias

Amplie os benefícios da plataforma Red Hat OpenShift AI com outros serviços e soluções integradas.

Logotipo da NVIDIA

A NVIDIA e a Red Hat oferecem aos clientes uma plataforma escalável que impulsiona diversos casos de uso de IA com flexibilidade incomparável.

Logotipo da Intel

A Intel® e a Red Hat ajudam as organizações a estimular a adoção da IA e a operacionalizar os modelos de inteligência artificial e machine learning.

Logotipo da IBM

A IBM e a Red Hat oferecem inovação open source para acelerar o desenvolvimento de IA, inclusive utilizando o IBM watsonx.aiTM, um estúdio de IA empresarial para desenvolvedores. 

Logotipo do Starburst

O Starburst Enterprise e a Red Hat oferecem insights mais precisos e rápidos por meio de uma análise de dados veloz em várias plataformas de dados dispersas e distribuídas.

Colabore usando workbenches de modelos

O hub de IA e o estúdio de gen IA permitem que os engenheiros de plataforma colaborem, acelerando a disponibilização de modelos de gen IA em produção. 

No hub de IA, é possível gerenciar os LLMs com cargas de trabalho de IA centralizadas e acessar insights de desempenho da validação de modelos de terceiros. Já o estúdio de gen IA oferece um ambiente hands-on para interagir com os modelos e criar protótipos de aplicações rapidamente. Acesse uma sandbox para testar fluxos de bate-papo e Geração Aumentada de Recuperação (RAG) e verificar a viabilidade dos modelos antes da integração ao ciclo de vida.

Além disso, os cientistas de dados podem acessar imagens de cluster pré-criadas ou personalizadas para usar nos modelos com o IDE ou frameworks de preferência. O Red Hat OpenShift AI monitora as alterações no Jupyter, no PyTorch, no Kubeflow e em outras tecnologias de IA open source.

Captura de tela da aba de aplicações ativadas no console do OpenShift AI

O AI Guardrails garante a proteção dos seus modelos de gen IA. Duração do vídeo: 10:02

Escale o model serving e a segurança com o Red Hat OpenShift AI

É possível disponibilizar modelos usando uma versão otimizada do vLLM (ou outros servidores de modelo de sua escolha) para integrar as aplicações com IA on-premise, na nuvem pública ou na edge. Eles podem ser recriados, reimplantados e monitorados com base nas alterações feitas no notebook de origem.

A alucinação e vieses podem comprometer a integridade dos seus modelos e dificultar a escala. Para manter a imparcialidade, a segurança e a escalabilidade, o OpenShift AI permite que os profissionais de dados analisem se as saídas do modelo e os dados de treinamento estão alinhados. 

As ferramentas de detecção de desvio monitoram quando os dados ativos usados na inferência do modelo desviam dos dados de treinamento originais. Há também proteções de IA em vigor para os dados de entrada e os resultados gerados pelos modelos, protegendo contra informações sensíveis ou ofensivas, como discurso abusivo ou de ódio, dados pessoais ou restrições específicas do domínio. 

Casos de sucesso com a IA no Red Hat Summit e AnsibleFest 2025

Turkish Airlines

Turkish Airlines dobrou a velocidade de implantação com acesso a dados de toda a empresa.

Logotipo da JCCM

A JCCM aprimorou os processos de avaliação de impacto ambiental (EIA) da região usando IA.

DenizBank

O Denizbank acelerou o time to market de dias para minutos.

Logotipo da Hitachi

A Hitachi operacionalizou a IA em todos os negócios com o Red Hat OpenShift AI.

Como testar o Red Hat OpenShift AI

Developer Sandbox

Para desenvolvedores e cientistas de dados que querem testar a criação de aplicações com IA em um ambiente flexível e pré-configurado.

Teste de 60 dias

Quando sua organização estiver pronta para avaliar todos os recursos do OpenShift AI, experimente-os com um teste de solução de 60 dias. É necessário ter um cluster do Red Hat OpenShift.

Confira mais recursos de IA

DenizBank capacita os cientista de dados com o Red Hat OpenShift AI

Open source: o caminho rápido para obter sucesso com a IA

Desenvolvedores da Turkish Airlines usam o OpenShift IA para realizar experimentos com IA

Cinco maneiras de implementar o MLOps com sucesso

Fale com a equipe de vendas

Fale com um especialista da Red Hat sobre o Red Hat AI