IA de produção para nuvens privadas e híbridas
Desenvolva, treine e implante modelos e aplicações de IA
O Red Hat® OpenShift® AI é uma plataforma de MLOps que permite desenvolver, treinar e implantar modelos e aplicações de IA em grande escala em ambientes de nuvem híbrida e privada. O OpenShift AI oferece às empresas uma forma eficiente de implantar um conjunto integrado de ferramentas open source e de terceiros comuns para realizar modelagem de IA generativa (gen IA) e IA preditiva e machine learning (IA/ML). Quem adota a solução ganha acesso a uma plataforma e um conjunto de ferramentas open source colaborativo para desenvolver modelos experimentais e disponibilizá-los em ambientes de produção em formato pronto para containers, de maneira consistente, em nuvens públicas e privadas, on-premise e em ambientes de edge.
Por ser um componente essencial do Red Hat AI, o OpenShift AI oferece aos engenheiros de plataforma e operações de TI um ambiente fácil de gerenciar, escalável e focado na segurança. Para cientistas de dados e engenheiros de IA, ele oferece uma plataforma unificada e abrangente para desenvolvimento e implantação de soluções de IA em grande escala.
O OpenShift AI é compatível com modelos fundamentais de gen IA, permitindo que você ajuste e disponibilize seus dados privados. Cargas de trabalho podem ser distribuídas entre vários clusters do Red Hat OpenShift, independentemente da localização deles. A plataforma é integrada e colocada em camadas no Red Hat OpenShift, simplificando a aceleração de hardware de IA e dando suporte a infraestruturas de hardware baseadas em unidade de processamento central (CPU) e unidade de processamento gráfico (GPU), incluindo GPUs NVIDIA e AMD e XPUs Intel, seja on-premise ou em nuvem própria ou pública.
Tabela 1. Funcionalidades e benefícios do Red Hat OpenShift AI
Destaques
Simplifique a adoção da IA em seus negócios, aumente a adoção da IA e ofereça flexibilidade em iniciativas de IA.
Estabeleça consistência operacional de inteligência artificial e machine learning entre equipes com uma experiência de usuário consistente que capacite engenheiros e cientistas de dados, engenheiros de IA e equipes de DevOps para colaborarem de forma eficaz.
Ofereça flexibilidade e consistência para desenvolver, implantar e gerenciar a IA em grande escala em qualquer hardware e nuvem híbrida, lidando com restrições de dados, privacidade, segurança e controle de custos.
Funcionalidades | Benefícios |
Desenvolvimento e personalização de modelos | Uma interface interativa do JupyterLab com workbenches e bibliotecas de inteligência artificial e machine learning. Integra a ingestão de dados, a geração de dados sintéticos, o kit de ferramentas InstructLab e a Geração Aumentada de Recuperação (RAG) para conexão de dados privada. |
Treinamento e experimentação de modelo | Organiza arquivos e artefatos de desenvolvimento. Compatível com cargas de trabalho distribuídas para treinamento e ajuste eficientes. Apresenta rastreamento de experimentos e alocação simplificada de hardware. |
GPU inteligente e velocidade de hardware
| O acesso self-service à GPU está disponível. Oferece uso inteligente da GPU para programação de carga de trabalho, gerenciamento de cotas, acesso prioritário e visibilidade de uso por meio de perfis de hardware. |
Pipelines de IA | Pode automatizar a entrega e os testes de modelos. Os pipelines são controlados por versão, rastreados e gerenciados para reduzir erros do usuário, além de simplificar os fluxos de trabalho de experimentação e produção. |
Model serving otimizado | Disponibiliza modelos de vários provedores e frameworks por meio de um modelo virtual de linguagem de larga escala (vLLM), otimizado para alta taxa de transferência e baixa latência. O framework de inferência distribuída do llm-d ajuda no desempenho previsível e escalável e no gerenciamento eficiente de recursos. Inclui compressor de LLM e acesso a modelos de gen IA comuns, otimizados e validados. |
Interfaces de usuário com gen IA e Agentic AI | Acelera os fluxos de trabalho da Agentic AI com serviços importantes de plataforma. Uma camada de interface de programação de aplicações (API) unificada (MCP e API Llama Stack) e uma experiência de dashboard dedicada (AI hub e gen AI studio). |
Governança e observabilidade de modelos | Ferramentas open source comuns para gerenciamento do ciclo de vida, desempenho e gerenciamento. Acompanha métricas, como desempenho, desvios de dados, detecção de vieses e proteções ou inferência de IA. Oferece avaliação de LLM (LM Eval) e benchmark de LLM (GuideLLM) para ajudar nas implantações de inferências no mundo real. |
Catálogo e registro | Gerenciamento centralizado de modelos de IA preditiva e gen IA, servidores MCP e seus metadados e artefatos. |
Armazenamento de funcionalidades | Uma interface para gerenciar funcionalidades de dados limpos e bem definidos para modelos de ML, melhorando o desempenho e acelerando os fluxos de trabalho. |
Modelo como serviço | Permite que engenheiros de IA usem modelos com um gateway de API integrado e gerenciado para acesso self-service e rastreamento de uso (funcionalidade de apresentação prévia para desenvolvedores). |
Ambientes e edge desconectados | Oferece suporte a clusters desconectados e isolados para segurança e conformidade regulatória. |
Além dos recursos do OpenShift AI, as soluções integradas de parceiros incluem:
- Starburst para acesso aos dados distribuídos em diversos conjuntos de dados.
- HPE para controle de versão e linhagem de dados.
- NVIDIA para gerenciamento de desempenho de GPUs.
- AMD para aceleração de GPUs.
- Intel para inferência de alto desempenho no hardware Intel.
- Elastic e EDB para bancos de dados vetoriais com aplicações de Geração Aumentada de Recuperação (RAG).
Próximas etapas:
Mais informações sobre o Red Hat OpenShift AI e assista ao vídeo informativo.