A Red Hat, líder mundial em soluções open source, anunciou hoje a ampliação de sua colaboração com a Amazon Web Services (AWS) para impulsionar soluções corporativas de IA generativa (gen AI) na AWS por meio do Red Hat AI e dos chips de IA da AWS. Com essa colaboração, a Red Hat busca capacitar os tomadores de decisão de TI com a flexibilidade necessária para executar inferência de IA de alto desempenho e eficiência em escala, independentemente do hardware subjacente.
Nossa colaboração com a Red Hat oferece aos clientes um caminho estruturado para implantar IA generativa em escala, combinando a flexibilidade do código aberto com a infraestrutura da AWS e aceleradores de IA desenvolvidos especificamente para acelerar o retorno sobre o investimento, desde o piloto até a produção.
A ascensão da gen AI e a consequente necessidade de inferência escalável estão levando as organizações a reavaliar sua infraestrutura de TI. Como resultado, a IDC prevê que “até 2027, 40% das organizações usarão silício customizado, incluindo processadores ARM ou chips específicos para AI/ML, para atender às crescentes demandas por otimização de desempenho, eficiência de custos e computação especializada.”¹. Essa tendência reforça a necessidade de soluções otimizadas para melhorar o poder de processamento, minimizar custos e permitir ciclos de inovação mais rápidos para aplicações de IA de alto desempenho.
A colaboração da Red Hat com a AWS capacita organizações com uma estratégia completa de gen AI, ao unir uma vasta biblioteca de recursos de plataforma da Red Hat com a infraestrutura de nuvem e os chipsets de IA da AWS: AWS Inferentia2 e AWS Trainium3. Os principais aspectos dessa nova fase da parceria incluem:
- Red Hat AI Inference Server em chips de IA da AWS: o Red Hat AI Inference Server, baseado e impulsionado pelo vLLM, será habilitado para rodar com os chips de IA da AWS, incluindo AWS Inferentia2 e AWS Trainium3, para entregar uma camada de inferência comum, capaz de suportar qualquer modelo de gen AI, oferecendomais desempenho, menor latência e melhor custo-benefício ao escalar implantações de IA em produção, com uma eficiência até 30-40% superior às instâncias Amazon EC2 baseadas em GPU atualmente comparáveis.
- Habilitando a IA no Red Hat OpenShift: a Red Hat trabalhou com a AWS para desenvolver um operador de AWS Neuron para o Red Hat OpenShift, Red Hat OpenShift AI e Red Hat OpenShift Service on AWS, uma plataforma de aplicações completa e totalmente gerenciada na base da Amazon, fornecendo aos clientes um caminho mais simples, e com suporte, para executar suas cargas de trabalho de IA com aceleradores da AWS.
- Facilidade de acesso e implantação: ao disponibilizar suporte aos chips de IA da AWS, a Red Hat vai proporcionar acesso aprimorado e simplificado a aceleradores de alta demanda e alta capacidade para clientes Red Hat na AWS. Além disso, a Red Hat lançou recentemente o amazon.ai Certified Ansible Collection para o Red Hat Ansible Automation Platform, ambiente no qual é possível orquestrar serviços de IA na AWS.
- Contribuição com a comunidade upstream: a Red Hat e a AWS estão colaborando para otimizar um plugin de chip de IA da AWS a ser disponibilizado upstream no vLLM. Como principal colaboradora comercial do vLLM, a Red Hat está comprometida em habilitar o vLLM na AWS a fim de acelerar os recursos de inferência e treinamento de IA para usuários. O vLLM também tem como arquitetura técnica o llm-d, projeto open source focado em entregar inferência em escala, agora disponível como recurso comercial no Red Hat OpenShift AI 3.
A Red Hat possui um longo histórico de colaboração com a AWS para capacitar clientes desde o datacenter até a edge. Este novo marco visa atender às necessidades em evolução das organizações à medida que integram IA em suas estratégias de nuvem híbrida para alcançar resultados de gen AI otimizados e eficientes.
Disponibilidade
O operador comunitário AWS Neuron já está disponível no OperatorHub do Red Hat OpenShift para clientes que utilizam o Red Hat OpenShift ou o Red Hat OpenShift Service na AWS. O suporte do Red Hat AI Inference Server para chips de IA da AWS está previsto para janeiro de 2026, em versão prévia para desenvolvedores.
Citações de apoio
Joe Fernandes, vice-presidente e general manager, AI Business Unit, Red Hat
“Ao habilitar o Red Hat AI Inference Server para o setor corporativo, desenvolvido sobre o inovador framework vLLM, com chips de IA da AWS, estamos capacitando organizações a implantar e escalar cargas de IA com mais eficiência e flexibilidade. Baseada na herança open source da Red Hat, essa colaboração busca tornar a IA generativa mais acessível e economicamente viável em ambientes de nuvem híbrida.”
Colin Brace, vice-presidente da Annapurna Labs, AWS
“As empresas exigem soluções que ofereçam desempenho excepcional, custo-benefício e opções operacionais para cargas de trabalho de IA de missão crítica. A AWS projetou seus chips Trainium e Inferentia para tornar a inferência e o treinamento de IA de alto desempenho mais acessíveis e econômicos. Nossa colaboração com a Red Hat oferece aos clientes um caminho estruturado para implantar IA generativa em escala, combinando a flexibilidade do código aberto com a infraestrutura da AWS e aceleradores de IA desenvolvidos especificamente para acelerar o retorno sobre o investimento, desde o piloto até a produção.”
Jean-François Gamache, diretor de informações e vice-presidente de Serviços Digitais da CAE
"Modernizar nossos aplicativos críticos com o Red Hat OpenShift Service on AWS representa um marco significativo em nossa transformação digital. Essa plataforma permite que nossos desenvolvedores se concentrem em iniciativas de alto valor, impulsionando a inovação de produtos e acelerando a integração de IA em todas as nossas soluções. O Red Hat OpenShift oferece a flexibilidade e a escalabilidade que nos permitem gerar impacto real, desde insights acionáveis por meio de treinamento virtual ao vivo até a redução significativa do tempo de resposta para problemas relatados pelos usuários."
Anurag Agrawal, fundador e chief global analyst, Techaisle
“À medida que os custos de inferência de IA escalam, as empresas estão priorizando eficiência juntamente com desempenho. Esta colaboração exemplifica a estratégia da Red Hat de ‘qualquer modelo, qualquer hardware’, ao combinar sua plataforma de nuvem híbrida aberta com as vantagens econômicas distintas dos AWS Trainium e Inferentia. A parceria capacita CIOs a operacionalizar IA generativa em escala, migrando da experimentação onerosa para a produção sustentável e governada.”
1IDC FutureScape: Worldwide Cloud 2025 Predictions, October 28, 2024, Doc #US52640724
Recursos adicionais
- Encontre a Red Hat no AWS Marketplace
- Inscreva-se para um teste gratuito de 60 dias do Red Hat AI Inference Server
- Descubra mais sobre o Red Hat AI
- Explore os benefícios da Inferência da IA
Entre em contato com a Red Hat
- Descubra mais sobre a Red Hat
- Receba notícias no Red Hat newsroom
- Leia o Red Hat blog
- Siga a Red Hat no X
- Siga a Red Hat no Instagram
- Siga a Red Hat no LinkedIn
- Veja vídeos da Red Hat no YouTube
Em resumo
Red Hat AI na AWS utiliza os chips Trainium e Inferentia AI para oferecer aos clientes maior variedade, flexibilidade e eficiência para cargas de trabalho de IA em produção.
Mentioned in this article
AWS, Red Hat AI, vLLM, Red Hat OpenShift, Red Hat OpenShift Service on AWS
Para mais informações
- Encontre a Red Hat no AWS Marketplace
- Inscreva-se para um teste gratuito de 60 dias do Red Hat AI Inference Server
- Descubra mais sobre o Red Hat AI
- Explore os benefícios da Inferência da IA
- SOBRE A RED HAT
A Red Hat é líder em tecnologia de nuvem híbrida aberta, e proporciona uma base confiável, consistente e abrangente para uma inovação transformadora em TI e aplicações de inteligência artificial (IA). Seu portfólio de tecnologias de nuvem, desenvolvimento, IA, Linux e automação permite a implementação de qualquer aplicação, em qualquer lugar, desde data centers até a edge. Como líder mundial no fornecimento de soluções de software open source empresarial, a Red Hat investe em ecossistemas e comunidades abertas para resolver os desafios de TI do futuro. Por meio da colaboração, a Red Hat ajuda clientes e parceiros a construir, conectar, automatizar, proteger e gerenciar seus ambientes de TI, com o suporte de serviços de consultoria, treinamento e certificação reconhecidos mundialmente.
- Declarações Prospectivas
Exceto pelas informações e discussões de caráter histórico aqui contidas, as declarações presentes neste comunicado de imprensa podem constituir declarações prospectivas nos termos da Lei de Reforma de Litígios de Valores Mobiliários Privados de 1995. As declarações prospectivas baseiam-se nas suposições atuais da empresa sobre o desempenho futuro de seus negócios e resultados financeiros. Essas declarações envolvem diversos riscos, incertezas e outros fatores que podem fazer com que os resultados reais sejam substancialmente diferentes dos expressos ou implícitos. Qualquer declaração prospectiva contida neste comunicado refere-se apenas à data em que foi feita. Exceto quando exigido por lei, a empresa não assume qualquer obrigação de atualizar ou revisar declarações prospectivas.
###
Red Hat, o logotipo da Red Hat e OpenShift são marcas comerciais ou marcas registradas da Red Hat, Inc. ou de suas subsidiárias nos EUA e em outros países.