IA de produção para nuvens privadas e híbridas

Desenvolva, treine e implante modelos e aplicações de IA

O Red Hat® OpenShift® AI é uma plataforma de MLOps que permite desenvolver, treinar e implantar modelos e aplicações de IA em grande escala em ambientes de nuvem híbrida e privada. O OpenShift AI oferece às empresas uma forma eficiente de implantar um conjunto integrado de ferramentas open source e de terceiros comuns para realizar modelagem de IA generativa (gen IA) e IA preditiva e machine learning (IA/ML). Quem adota a solução ganha acesso a uma plataforma e um conjunto de ferramentas open source colaborativo para desenvolver modelos experimentais e disponibilizá-los em ambientes de produção em formato pronto para containers, de maneira consistente, em nuvens públicas e privadas, on-premise e em ambientes de edge. 

Por ser um componente essencial do Red Hat AI, o OpenShift AI oferece aos engenheiros de plataforma e operações de TI um ambiente fácil de gerenciar, escalável e focado na segurança. Para cientistas de dados e engenheiros de IA, ele oferece uma plataforma unificada e abrangente para desenvolvimento e implantação de soluções de IA em grande escala.

O OpenShift AI é compatível com modelos fundamentais de gen IA, permitindo que você ajuste e disponibilize seus dados privados. Cargas de trabalho podem ser distribuídas entre vários clusters do Red Hat OpenShift, independentemente da localização deles. A plataforma é integrada e colocada em camadas no Red Hat OpenShift, simplificando a aceleração de hardware de IA e dando suporte a infraestruturas de hardware baseadas em unidade de processamento central (CPU) e unidade de processamento gráfico (GPU), incluindo GPUs NVIDIA e AMD e XPUs Intel, seja on-premise ou em nuvem própria ou pública.

Tabela 1. Funcionalidades e benefícios do Red Hat OpenShift AI

Destaques

Simplifique a adoção da IA em seus negócios, aumente a adoção da IA e ofereça flexibilidade em iniciativas de IA. 

Estabeleça consistência operacional de inteligência artificial e machine learning entre equipes com uma experiência de usuário consistente que capacite engenheiros e cientistas de dados, engenheiros de IA e equipes de DevOps para colaborarem de forma eficaz.

Ofereça flexibilidade e consistência para desenvolver, implantar e gerenciar a IA em grande escala em qualquer hardware e nuvem híbrida, lidando com restrições de dados, privacidade, segurança e controle de custos.

Funcionalidades

Benefícios

Desenvolvimento e personalização de modelos

Uma interface interativa do JupyterLab com workbenches e bibliotecas de inteligência artificial e machine learning. Integra a ingestão de dados, a geração de dados sintéticos, o kit de ferramentas InstructLab e a Geração Aumentada de Recuperação (RAG) para conexão de dados privada.

Treinamento e experimentação de modelo

Organiza arquivos e artefatos de desenvolvimento. Compatível com cargas de trabalho distribuídas para treinamento e ajuste eficientes. Apresenta rastreamento de experimentos e alocação simplificada de hardware.  

GPU inteligente e velocidade de hardware 

 

O acesso self-service à GPU está disponível. Oferece uso inteligente da GPU para programação de carga de trabalho, gerenciamento de cotas, acesso prioritário e visibilidade de uso por meio de perfis de hardware.

Pipelines de IA

Pode automatizar a entrega e os testes de modelos. Os pipelines são controlados por versão, rastreados e gerenciados para reduzir erros do usuário, além de simplificar os fluxos de trabalho de experimentação e produção. 

Model serving otimizado

Disponibiliza modelos de vários provedores e frameworks por meio de um modelo virtual de linguagem de larga escala (vLLM), otimizado para alta taxa de transferência e baixa latência. O framework de inferência distribuída do llm-d ajuda no desempenho previsível e escalável e no gerenciamento eficiente de recursos. Inclui compressor de LLM e acesso a modelos de gen IA comuns, otimizados e validados.

Interfaces de usuário com gen IA e Agentic AI

Acelera os fluxos de trabalho da Agentic AI com serviços importantes de plataforma. Uma camada de interface de programação de aplicações (API) unificada (MCP e API Llama Stack) e uma experiência de dashboard dedicada (AI hub e gen AI studio). 

Governança e observabilidade de modelos 

Ferramentas open source comuns para gerenciamento do ciclo de vida, desempenho e gerenciamento. Acompanha métricas, como desempenho, desvios de dados, detecção de vieses e proteções ou inferência de IA. Oferece avaliação de LLM (LM Eval) e benchmark de LLM (GuideLLM) para ajudar nas implantações de inferências no mundo real. 

Catálogo e registro

Gerenciamento centralizado de modelos de IA preditiva e gen IA, servidores MCP e seus metadados e artefatos. 

Armazenamento de funcionalidades 

Uma interface para gerenciar funcionalidades de dados limpos e bem definidos para modelos de ML, melhorando o desempenho e acelerando os fluxos de trabalho. 

Modelo como serviço

Permite que engenheiros de IA usem modelos com um gateway de API integrado e gerenciado para acesso self-service e rastreamento de uso (funcionalidade de apresentação prévia para desenvolvedores). 

Ambientes e edge desconectados

Oferece suporte a clusters desconectados e isolados para segurança e conformidade regulatória. 

Além dos recursos do OpenShift AI, as soluções integradas de parceiros incluem:

  • Starburst para acesso aos dados distribuídos em diversos conjuntos de dados.
  • HPE para controle de versão e linhagem de dados.
  • NVIDIA para gerenciamento de desempenho de GPUs.
  • AMD para aceleração de GPUs.
  • Intel para inferência de alto desempenho no hardware Intel.
  • Elastic e EDB para bancos de dados vetoriais com aplicações de Geração Aumentada de Recuperação (RAG). 

Próximas etapas:

Mais informações sobre o Red Hat OpenShift AI e assista ao vídeo informativo.