O ritmo de inovação da inteligência artificial (IA) está cada vez mais rápido e, com o lançamento do Red Hat AI 3, lembramos que transformar esse potencial em realidade empresarial exige um ecossistema aberto, robusto e baseado em escolha e colaboração. Nosso objetivo sempre foi oferecer uma plataforma consistente e poderosa para IA, que funcione com qualquer modelo, em qualquer acelerador e em toda a nuvem híbrida. Hoje, temos o prazer de destacar o ímpeto dos nossos parceiros, que estão trabalhando ao nosso lado para construir o futuro da IA híbrida e aberta com plataformas Red Hat.

O ecossistema de parceiros da Red Hat é o mecanismo que fornecerá IA Generativa (gen AI) e recursos de Agentic AI para ampla adoção no mercado. Trata-se de reunir o que há de melhor em hardware, software e serviços para criar um todo que seja muito maior do que a soma de suas partes.

Inferência rápida, flexível e eficiente 

O lançamento do Red Hat AI 3 tem como foco impulsionar a inferência de IA empresarial, expandir a escolha de modelos e viabilizar modelos open source com custo otimizado e flexibilidade. Assim, as organizações podem ir do treinamento à prática. Os parceiros da Red Hat desempenham um papel fundamental para que isso aconteça. 

Para oferecer inferência de IA em escala usando vLLM e Kubernetes, o projeto open source llm-d já está disponível como parte do Red Hat OpenShift AI 3.0, impulsionado por uma coalizão de provedores de modelos de IA generativa, aceleradores de IA e as principais plataformas de nuvem de IA. Os colaboradores fundadores incluem CoreWeave, Google Cloud, IBM Research e NVIDIA, com suporte adicional de parceiros como AMD, Cisco, Hugging Face, Intel, Lambda e Mistral AI. Desde a introdução do projeto no início deste ano, as empresas Microsoft, Oracle e WEKA também se tornaram colaboradoras ativos. 

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB "Como parte da comunidade llm-d, o NeuralMesh, o NeuralMesh Axon e o Augmented Memory Grid do WEKA oferecem a base de dados adaptável e de alto desempenho que a inferência exige, estendendo a memória da GPU e sustentando cargas de trabalho com reconhecimento de cache em escala. Temos orgulho de colaborar com a Red Hat e esse poderoso ecossistema de líderes em tecnologia na criação de ambientes de IA abertos, eficientes e prontos para produção. Assim, os clientes podem escalar com mais facilidade, do treinamento à inferência."

Nilesh Patel

Chief Strategy Officer, WEKA

À medida que os Large Language Models (LLMs) se tornam a base para uma grande variedade de aplicações de IA generativa, a Red Hat apresenta o Partner Model Validation Guide para capacitar nossos parceiros e oferecer mais opções aos clientes. Este guia descreve o passo a passo do processo padrão para os parceiros da Red Hat compararem seus LLMs para inclusão no catálogo de modelos de IA do Red Hat OpenShift.

Aproveitando o Partner Model Validation Guide, os parceiros provedores de modelos podem gerar os dados necessários para validação usando uma cadeia de ferramentas open source prescrita, incluindo vLLM para veiculação, GuideLLM para benchmarking de desempenho e LM Evaluation Harness para avaliações de precisão. Após serem enviados e validados pela nossa equipe, esses modelos de parceiros, incluindo as métricas de desempenho e qualidade, ficarão visíveis e disponíveis para todos os clientes do Red Hat OpenShift AI. Essa iniciativa enriquece nosso catálogo de modelos, oferecendo aos clientes insights e orientações mais transparentes no nível do modelo, uma seleção mais ampla dos melhores modelos open source para criar suas aplicações de IA e visibilidade de mercado para nossos parceiros fornecedores de modelos.

Aceleração das implantações de Agentic AI

Em última análise, o objetivo é colocar as aplicações de IA em produção, onde elas possam agregar valor aos negócios. A Red Hat AI, combinada com nosso ecossistema de parceiros, oferece os recursos essenciais para desenvolver, implantar e gerenciar a agentic AI. É aí que nossos integradores de sistemas e parceiros de serviços desempenham um papel crucial. A Red Hat trabalha com líderes globais como Accenture, HCL, Kyndryl, IBM Consulting, Infosys e NTT DATA para auxiliar os clientes a escalar essas aplicações e otimizar a inferência para executar a IA em qualquer ambiente, do datacenter à edge. 

Com uma base sólida e uma infraestrutura habilitada, o foco muda para as ferramentas e os modelos que impulsionam as aplicações inteligentes. Uma estratégia de IA é tão boa quanto o ecossistema de plataformas de dados, bancos de dados vetoriais, ferramentas de segurança e utilitários de desenvolvedor que oferecem suporte a ela. O cenário de parceiras da Red Hat é rico e diversificado e oferece os componentes essenciais para a criação de fluxos de trabalho de IA modernos.

Model Context Protocol (MCP)

Com o lançamento do Red Hat AI 3, organizamos uma coleção de servidores MCP. Isso permite que os ISVs conectem suas ferramentas e serviços diretamente à Red Hat AI. Parceiros como CyberArk, Dynatrace, Elastic, EnterpriseDB, Palo Alto Networks e outros estão trabalhando com a Red Hat para apresentar seus servidores MCP, ajudando os clientes a criar aplicações agênticas sofisticadas com ferramentas confiáveis. 

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB "Os agentes de IA empresarial bem-sucedidos dependem da obtenção do contexto mais relevante dos dados empresariais em escala, impulsionados por um ecossistema de IA open source com ferramentas abrangentes e combináveis. Com nosso servidor MCP no Red Hat OpenShift AI, pretendemos permitir que os clientes integrem perfeitamente a plataforma de engenharia de contexto e o banco de dados de vetores do Elasticsearch em seus fluxos de trabalho de IA."

Steve Kearns

General Manager, Search Solutions, Elastic

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB "O Red Hat OpenShift AI nos ajudou a fortalecer e melhorar nossa MCP. A Dynatrace permite que os clientes tragam observabilidade em tempo real para seus fluxos de trabalho de IA. Juntos, estamos ajudando as organizações a acelerar o desenvolvimento de modelos com insights confiáveis, automatizar a detecção de anomalias e garantir que as aplicações de IA sejam confiáveis, escaláveis e seguras em ambientes híbridos e de multicloud."

Wolfgang Heider

Product Lead Software Delivery, Dynatrace

Llama Stack

O trabalho da Red Hat com o Llama Stack open source da Meta é fundamental para capacitar os desenvolvedores com o Red Hat AI 3. Ao contribuir ativamente com esse projeto open source, a Red Hat e seus parceiros ajudam a aprimorar um conjunto completo de ferramentas padronizadas que revolucionam o ciclo de vida das aplicações de IA generativa. Isso ajuda a garantir que os desenvolvedores tenham um ambiente atraente, robusto e adaptável para acelerar a criação e a implantação de soluções inovadoras de IA, oferecendo aos nossos parceiros e clientes um caminho claro para a produção. Ao reduzir a complexidade da integração de vários serviços e ferramentas de IA, o Llama Stack permite que os desenvolvedores se concentrem na inovação, e não nos desafios de infraestrutura.

IA na nuvem híbrida

Aceleradores de IA  

Ter opções é importante para abranger a maior variedade de recursos, e é por isso que aprofundamos nossas colaborações com parceiros aceleradores, como AMD, Google Cloud e Intel. 

Estamos trabalhando com a NVIDIA para integrar a computação, a rede e o software de IA com desempenho otimizado da NVIDIA à IA da Red Hat. Assim, os clientes podem criar, implantar e gerenciar a IA em escala e otimizar a infraestrutura em diversas cargas de trabalho. A Red Hat e a NVIDIA continuam impulsionando a expansão da infraestrutura de IA com suporte para a infraestrutura de NVIDIA GB200 NVL72, visando treinamento de IA de ponta e inferência em escala. Além disso, as GPUs Server Edition do NVIDIA RTX PRO(R) 6000 Blackwell são compatíveis com as plataformas Red Hat AI, o Red Hat OpenShift e o Red Hat OpenShift Virtualization, acelerando uma variedade de cargas de trabalho empresariais, incluindo IA empresarial e gráficos VDI, com servidores e GPUs refrigerados a ar. 

A colaboração entre a Red Hat e a AMD está impulsionando a IA generativa de geração mais eficiente. Ela bem viabilizando o portfólio da AMD de processadores e GPUs baseados em x86 no Red Hat AI, graças às nossas atividades nas comunidades upstream como vLLM e llm-d, para oferecer desempenho aprimorado e suporte a GPU.

Além disso, a Red Hat continua a desenvolver sua colaboração de longa data com a Intel para dar suporte à IA da Red Hat em todo o portfólio de aceleradores e plataforma de hardware em expansão, incluindo os aceleradores de IA Intel® Gaudi®. 

Esse compromisso com a escolha se estende por toda a nuvem híbrida. Nessa área, estamos trabalhando ativamente com o Google Cloud para reforçar o suporte a TPUs nas plataformas Red Hat AI, ampliando nossa visão de inovação impulsionada pela comunidade por meio de projetos como o llm-d e o vLLM.

Soluções de infraestrutura 

Mas os aceleradores são apenas uma peça do quebra-cabeça. Os clientes precisam de soluções integradas e validadas. É aí que nossos parceiros de servidores OEM entram em cena, transformando o potencial teórico da IA em uma realidade empresarial tangível. Embora a base da IA esteja nos aceleradores na parte inferior e nos modelos de linguagem na parte superior, a implantação e o gerenciamento práticos da IA em escala exigem soluções robustas e integradas. 

A Red Hat colabora ativamente com líderes do setor, incluindo Cisco, Dell Technologies, HPE e Lenovo, para simplificar a implantação e o gerenciamento de IA em ambientes de nuvem híbrida. Com a Dell, estamos trabalhando para garantir que as poderosas soluções de armazenamento e servidor sejam otimizadas para a Red Hat AI, oferecendo aos clientes uma infraestrutura confiável e escalável para suas cargas de trabalho de IA. Isso inclui esforços conjuntos para habilitar o Red Hat OpenShift e o Red Hat OpenShift AI para a Dell AI Factory com NVIDIA, que reúne recursos de hardware e software otimizados para impulsionar implantações de IA mais simplificadas que podem lidar com as tarefas computacionais mais exigentes.

Da mesma forma, nossa colaboração com a Cisco combina seus pontos fortes em rede, segurança, computação e observabilidade com o Red Hat OpenShift como a plataforma de aplicações para cargas de trabalho de IA em containers nos Cisco AI PODs, o principal componente da infraestrutura de IA do Cisco Secure AI Factory com a NVIDIA. A Red Hat AI usa essa base para oferecer um ambiente consistente e automatizado para desenvolvimento, treinamento e inferência de modelos de IA. O resultado é uma plataforma de IA de stack completo, escalável, segura e de alto desempenho.

Estamos expandindo os projetos de referência e as ofertas de infraestrutura de IA em todo o nosso ecossistema de infraestrutura. Essa colaboração é essencial para oferecer aos clientes as soluções abrangentes necessárias para operacionalizar a IA, ajudando a garantir que o hardware, o software e os serviços necessários possam ser integrados para acelerar a adoção e a inovação da IA.

Nosso vasto ecossistema de distribuidores globais e revendedores de valor agregado (VARs) é essencial para criar soluções reproduzíveis em escala para as empresas. Parceiros como Ahead, Arrow, TD Synnex, WWT e muitos outros estão se alinhando à IA da Red Hat em seu portfólio de soluções.

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB "A World Wide Technology está aproveitando o portfólio de IA da Red Hat no campo de testes para otimizar o processo de criação e implantação de modelos de IA, tanto preditivos quanto generativos."

Neil Anderson

Neil Anderson, Vice President and Chief Technology Officer, Cloud, World Wide Technology

Disponibilização de um ecossistema de IA líder de mercado

Por meio de colaborações estratégicas com parceiros de hardware, software e serviços, a Red Hat oferece uma plataforma consistente e poderosa para IA que oferece opções e flexibilidade na nuvem híbrida. Essa abordagem colaborativa, da otimização da inferência distribuída com llm-d, até a validação de modelos de linguagem com o Partner Model Validation Guide, e a aceleração das implantações de Agentic AI, ajuda a garantir que os clientes operacionalizem a IA em escala e desvendar todo o seu valor de negócios.


Sobre o autor

Ryan King is Vice President of AI and Infrastructure for the Partner Ecosystem Success organization at Red Hat. In this role, King leads a team in shaping Red Hat's AI strategy with key infrastructure and hardware providers to drive go-to-market engagements and customer success with AI. 

UI_Icon-Red_Hat-Close-A-Black-RGB

Navegue por canal

automation icon

Automação

Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes

AI icon

Inteligência artificial

Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente

open hybrid cloud icon

Nuvem híbrida aberta

Veja como construímos um futuro mais flexível com a nuvem híbrida

security icon

Segurança

Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias

edge icon

Edge computing

Saiba quais são as atualizações nas plataformas que simplificam as operações na borda

Infrastructure icon

Infraestrutura

Saiba o que há de mais recente na plataforma Linux empresarial líder mundial

application development icon

Aplicações

Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações

Virtualization icon

Virtualização

O futuro da virtualização empresarial para suas cargas de trabalho on-premise ou na nuvem