


Red Hat AI
Desenvolva IA para o seu mundo
Gere valor com a IA usando seus recursos, insights e liberdade para inovar.
O Red Hat® AI foi projetado para ajudar a criar e executar soluções de IA que funcionem exatamente como o seu negócio: dos primeiros experimentos até a produção.
IA flexível para empresas
Para manter a consistência na nuvem híbrida, você precisa de uma plataforma que possibilite a implantação onde seus dados estão armazenados.
Com o Red Hat AI você assume o controle dos recursos da IA Preditiva e Generativa, na nuvem, on-premises ou na edge.
Com o Red Hat AI, você mantém a flexibilidade enquanto escala.
Com o Red Hat AI, você pode
- :Acessar modelos Granite de linguagem e código com a segurança que só oopen source oferece.
- Ajustar modelos menores e específicos para seus casos de uso, com seus dados.
- Otimizar as inferências com o vLLM.
O Red Hat AI inclui:
Red Hat Enterprise Linux AI
O Red Hat Enterprise Linux® AI pode ajudar clientes que estão no começo da jornada de IA e ainda não definiram os casos de uso da empresa. A plataforma de IA é desenvolvida para criar, testar e executar modelos de base de IA Generativa (gen AI).
Funcionalidades e benefícios
- Inclui LLMs da família Granite da IBM
- Realiza ajuste fino dos modelos localmente, com o InstructLab
- É uma opção econômica para clientes com acesso restrito à GPUs
Red Hat OpenShift AI
O Red Hat OpenShift® AI foi criado para os clientes que estão prontos para escalar aplicações de IA. Ele ajuda a gerenciar o ciclo de vida de modelos preditivos e de gen AI em ambientes de nuvem híbrida.
Funcionalidades e benefícios
- Funcionalidades empresariais de MLOps
- Inclui os LLMs do IBM Granite e as ferramentas do InstructLab
- Crie e disponibilize IA em escala com aceleradores de hardware e suporte à nuvem híbrida
Personalize LLMs localmente com o InstructLab
O InstructLab da Red Hat é um projeto guiado pela comunidade que facilita a experimentação com os modelos Granite da IBM, mesmo para desenvolvedores com pouca experiência em machine learning.
Esta é uma ótima opção se você quiser testar modelos de IA ou fazer o ajuste fino de modelos de base no seu hardware local.
Isso elimina barreiras financeiras e operacionais permitindo a experimentação com modelos de IA antes da adoção na sua empresa.
Mais parceiros de IA, mais possibilidades
Especialistas e tecnologias unidos para que nossos clientes possam fazer mais com IA. Uma variedade de parceiros de tecnologia trabalham com a Red Hat para certificar a compatibilidade de suas soluções com as nossas.
Padrão da solução
Aplicações de IA com a Red Hat e o NVIDIA AI Enterprise
Crie uma aplicação com RAG
O Red Hat OpenShift AI é uma plataforma para criar projetos de ciência de dados e disponibilizar aplicações com IA. Você pode integrar todas as ferramentas para dar suporte à Geração Aumentada de Recuperação (RAG), um método para receber respostas da IA a partir dos seus próprios documentos de referência. Quando você conecta o OpenShift AI ao NVIDIA AI Enterprise, é possível testar large language models (LLMs) para encontrar o melhor modelo para sua aplicação.
Crie um pipeline de documentos
Para usar a RAG, primeiro você precisa ingerir seus documentos em um banco de dados vetorial. Na nossa app de exemplo, inserimos um conjunto de documentos da solução em um banco de dados do Redis. Como esses documentos mudam com frequência, criamos um pipeline para esse processo que executaremos periodicamente. Dessa forma, sempre teremos as versões mais recentes dos documentos.
Confira o catálogo de LLM
O NVIDIA AI Enterprise oferece um acesso a um catálogo de diferentes LLMs para que você tenha opções diversas e selecione o modelo com os melhores resultados. Os modelos são hospedados no catálogo da API da NVIDIA. Depois de configurar um token de API, é possível implantar um modelo usando o NVIDIA NIM que disponibiliza a plataforma diretamente a partir do OpenShift AI.
Como escolher o modelo ideal
Conforme você testa LLMs diferentes, seus usuários podem avaliar cada resposta gerada. Você pode configurar um dashboard de monitoramento do Grafana para comparar as avaliações e o tempo de resposta e latência de cada modelo. Depois, use esses dados para escolher o melhor LLM para a produção.
Red Hat AI no mundo real
Ortec Finance acelera o crescimento e o time to market
A Ortec Finance, fornecedora global de tecnologia e soluções para gerenciamento de risco e retorno, disponibiliza modelos de ML no Microsoft Azure Red Hat OpenShift e adota o Red Hat AI.
Denizbank capacita seus cientistas de dados
O DenizBank está desenvolvendo modelos de IA para ajudar na identificação de empréstimos para clientes e na detecção de possíveis fraudes. Com o Red Hat AI, os cientistas de dados conquistaram um novo nível de autonomia sobre seus dados


