-
Soluções e documentação Red Hat AI
Uma plataforma de soluções e serviços para desenvolvimento e implantação de IA na nuvem híbrida.
Red Hat AI Inference Server
Otimize o desempenho do modelo com o vLLM e realize inferências de forma mais rápida, econômica e em escala.
Red Hat Enterprise Linux AI
Desenvolva, teste e execute modelos de IA generativa para impulsionar aplicações empresariais.
Red Hat OpenShift AI
Crie e implante modelos e aplicações com IA em escala em ambientes híbridos.
Serviços em nuvem
Red Hat AI InstructLab on IBM Cloud
Uma solução escalável e econômica para personalizar modelos de IA na nuvem.
-
Aprenda Princípios básicos
Especificações técnicas
-
Parceiros de IA
Red Hat Enterprise Linux AI
O Red Hat® Enterprise Linux® AI é uma plataforma para executar Large Language Models (LLMs) em ambientes de servidores individuais. A solução inclui o Red Hat AI Inference Server, que oferece inferências rápidas e econômicas na nuvem híbrida, maximizando a taxa de transferência e minimizando a latência.
O que é o Red Hat Enterprise Linux AI?
O Red Hat Enterprise Linux AI reúne:
- O Red Hat AI Inference Server, que oferece implantação consistente e rápida de modelos na nuvem híbrida com suporte amplo para hardware.
- Uma imagem inicializável do Red Hat Enterprise Linux, incluindo as bibliotecas de IA mais usadas, como a PyTorch, e inferência otimizada de hardware para NVIDIA, Intel e AMD.
- Suporte técnico de nível empresarial e proteção do Open Source Assurance.
Inferência rápida e flexível
Quando falamos de implementar a IA generativa, você tem duas opções: adaptar sua estratégia a um produto pré-criado ou construir uma solução personalizada e alinhada aos seus objetivos de negócios.
Com base no open source, o Red Hat Enterprise Linux AI oferece uma infraestrutura confiável e protegida para executar qualquer modelo, em qualquer hardware, com qualquer acelerador, na nuvem híbrida. A solução conta com o Red Hat AI Inference Server, que oferece um dispositivo imutável e específico para inferência. Ao empacotar o sistema operacional e o servidor de inferência de IA, você pode já pode disponibilizar modelos. Com um runtime de vLLM e um compressor de LLM, você pode maximizar a taxa de transferência e minimizar a latência para ter implantações de modelos econômicas e rápidas.
Funcionalidades e benefícios
LLMs para empresas
Ajuste modelos específicos e menores com seus dados usando métodos como a Geração Aumentada de Recuperação (RAG).
Eficiência aprimorada
Com a tecnologia do vLLM, o Red Hat AI Inference Server aumenta a eficiência sem sacrificar o desempenho.
Escalabilidade nativa em nuvem
O Red Hat Enterprise Linux image mode permite gerenciar sua plataforma de IA como uma imagem de container, simplificando a forma de escalar.
IA que se adequa às suas necessidades e opera do seu jeito.
IA generativa
Produza conteúdos novos, como texto e código de software.
Com o Red Hat AI, execute os modelos de IA generativa que quiser com mais rapidez, menos recursos e custos de inferência reduzidos.
IA preditiva
Conecte padrões e antecipe resultados futuros.
Com o Red Hat AI, as organizações podem criar, treinar, disponibilizar e monitorar modelos preditivos. Tudo isso com a consistência na nuvem híbrida.
IA operacionalizada
Crie sistemas que possibilitem a manutenção e a implantação da IA em grande escala.
Com o Red Hat AI, gerencie e monitore o ciclo de vida de aplicações, economize recursos e esteja em conformidade com as regulamentações de privacidade.
Agentic AI
Crie fluxos de trabalho que executem tarefas complexas com supervisão limitada.
Com o Red Hat AI, você tem uma base estável e flexível para criar, gerenciar e implantar fluxos de trabalho de Agentic AI em aplicações existentes.
Implantações com parceiros
O treinamento de modelos de inteligência artificial (IA) exige hardware otimizado e recursos avançados de computação. Amplie os benefícios do Red Hat Enterprise Linux AI com outros serviços e soluções integrados.
Casos de sucesso com a IA no Red Hat Summit e AnsibleFest 2025
Turkish Airlines dobrou a velocidade de implantação com acesso a dados de toda a empresa.
A JCCM aprimorou os processos de avaliação de impacto ambiental (EIA) da região usando IA.
O Denizbank acelerou o time to market de dias para minutos.
A Hitachi operacionalizou a IA em todos os negócios com o Red Hat OpenShift AI.
Perguntas frequentes
Qual é a diferença entre o Red Hat Enterprise Linux AI e o Red Hat Enterprise Linux?
O Red Hat Enterprise Linux AI é uma plataforma de modelo fundamental para executar LLMs em ambientes de servidores individuais. A solução inclui o Red Hat AI Inference Server, que disponibiliza inferências rápidas e econômicas na nuvem híbrida, maximizando a taxa de transferência, minimizando a latência e reduzindo custos.
O Red Hat Enterprise Linux é uma distribuição Linux comercial open source desenvolvida pela Red Hat para o mercado. Ele oferece uma base flexível e estável viabilizando a inovação na nuvem híbrida.
O Red Hat Enterprise Linux AI é entregue como uma imagem inicializável do Red Hat Enterprise Linux que inclui bibliotecas de IA e modelos Granite.
Preciso adquirir o Red Hat Enterprise Linux para usar o Red Hat Enterprise Linux AI?
Não, uma licença do Red Hat Enterprise Linux AI é suficiente e inclui todos os componentes necessários.
O que está incluso no Red Hat Enterprise Linux AI?
O Red Hat Enterprise Linux AI conta com uma imagem inicializável de uma imagem de container do Red Hat Enterprise Linux que inclui:
- O Red Hat AI Inference Server.
- Modelos Granite com licença open source.
- Bibliotecas Pytorch e de runtime.
- Drivers para aceleradores (NVIDIA, Intel, AMD).
Qual é a diferença entre o Red Hat Enterprise Linux AI e o Red Hat OpenShift AI?
O Red Hat Enterprise Linux AI oferece Large Language Models prontos em um único servidor. A solução conta com o Red Hat AI Inference Server, que oferece um dispositivo imutável e específico para inferência. Ao empacotar o sistema operacional e a aplicação juntos, o Red Hat Enterprise Linux AI viabiliza operações de Dia 1 para inferência de IA na nuvem híbrida, reduzindo a latência e os custos.
O Red Hat OpenShift® AI oferece todas as ferramentas para os clientes criarem aplicações com IA em grande escala. O Red Hat OpenShift AI oferece uma plataforma de MLOps abrangente e integrada para ajudar a gerenciar o ciclo de vida dos modelos, garantindo suporte a computação distribuída, fluxos de trabalho de colaboração, monitoramento e aplicações de nuvem híbrida.
O Red Hat OpenShift AI inclui acesso ao Red Hat Enterprise Linux AI. Dessa forma, as equipes podem usar os mesmos modelos e ferramentas de alinhamento na arquitetura OpenShift AI, além de se beneficiarem de recursos adicionais de MLOps empresarial.
Como funcionam os preços do Red Hat Enterprise Linux AI?
A licença do Red Hat Enterprise Linux AI é precificada de acordo com o acelerador.
Confira mais recursos de IA
Quatro considerações para escolher o modelo de IA certo
Acelere a inovação em IA com modelos open source
Quatro motivos para usar Small Language Models (SMLs) open source
Impulsione a inovação em IA generativa com o Red Hat AI
Fale com a equipe de vendas
Fale com um especialista da Red Hat
Contate a nossa equipe de vendas pelo formulário a seguir para saber mais sobre os valores do Red Hat Enterprise Linux AI.
Para mais informações sobre nossas parcerias, acesse a página do nosso catálogo.