Inscreva-se no feed

Red Hat Enterprise Linux (RHEL) AI foi apresentado no Red Hat Summit 2024. O RHEL AI é descrito como "uma plataforma de modelo de base que permite aos usuários desenvolver, testar e executar modelos de IA generativa (gen AI) de forma mais integrada", mas essa descrição pode não estar muito clara para todos, especialmente para usuários do RHEL acostumados ao papel da plataforma como um sistema operacional de nuvem híbrida abrangente.

Neste artigo, descrevo as duas ofertas em detalhes, incluindo em que o RHEL e o RHEL AI são diferentes, em quais aspectos são iguais, o que o RHEL AI inclui e como você pode começar a usar o RHEL AI hoje mesmo.

O que é o RHEL?

Red Hat Enterprise Linux é a plataforma líder mundial em Linux empresarial e fornece uma base operacional consistente para a TI moderna e implantações de nuvem híbrida empresarial. O RHEL é mais do que apenas um sistema operacional. Cada subscrição do RHEL inclui:

  • Ferramentas de automação e gerenciamento de nível empresarial, incluindo Red Hat Insights
  • Ferramentas de segurança embutidas como patching de live kernel, perfis de segurança, certificações de padrões de segurança e uma cadeia de fornecimento de software baseada em código confiável
  • Acesso ao amplo ecossistema de parceiros da Red Hat
  • Suporte técnico 24x7
  • Ciclo de vida de produtos de 10 anos
  • Proteções legais fornecidas pelo nosso programa Open Source Assurance
  • … e mais

O que é o RHEL AI?

Em termos mais simples, RHEL AI é RHEL. Mais especificamente, RHEL AI é uma versão otimizada e altamente ajustada do RHEL que fornece uma plataforma de modelo de base para desenvolver, refinar, testar e executar consistentemente grandes modelos de linguagem (LLM) da família Granite para alimentar aplicações de IA empresarial.

O RHEL AI também aproveita o modo de imagem para o Red Hat Enterprise Linux, uma nova abordagem para implantação de sistema operacional que permite aos usuários criar, implantar e gerenciar o RHEL como uma imagem de container inicializável (bootc). Isso significa que o RHEL AI pode ser implantado, gerenciado e dimensionado da mesma forma que você implanta, gerencia e dimensiona qualquer aplicação containerizada.

Em suma, o RHEL AI é uma plataforma de desenvolvimento, ajuste e hospedagem de LLMs totalmente equipada, que pode ser implantada e gerenciada com o Red Hat OpenShift AI em qualquer lugar na nuvem híbrida, desde on-premises até a edge.

O que o RHEL AI inclui?

O RHEL AI combina vários componentes, incluindo:

  • LLMs Granite licenciados de forma open source que são distribuídos sob licença Apache 2.0 com transparência líder no setor no treinamento de datasets e parâmetros de modelos. 
  • Distribuição do InstructLab com suporte e inclusão no ciclo de vida, que fornece uma solução escalável e economicamente eficiente para aprimorar as funcionalidades de LLMs e tornar as contribuições de conhecimento e habilidades muito mais acessíveis às pessoas que não têm conhecimento necessário normalmente para ajustar modelos de IA.
  • Uma imagem bootable do RHEL (possibilitada por mode imagem para o RHEL) que incluir bibliotecas de AI populares tais como PyTorch, e aceleradores otimizados para hardware para NVIDIA, Intel e AMD. 
  • Suporte técnico de nível empresarial fornecido pela Red Hat. 
  • Open Source Assurance proteções jurídicas disponíveis para todos os clientes da Red Hat com subscrições pagas de software da Red Hat ativas. 

O que são os grandes modelos de linguagem Granite?

A família Granite de LLMs de código aberto foi desenvolvida pela IBM e inclui modelos de Código, Séries Temporais, Linguagem e Geoespaciais. Eles foram disponibilizados no Hugging Face sob uma licença Apache 2.0 permissiva que possibilita o uso comercial amplo e desimpedido.

O RHEL AI atualmente inclui os modelos Granite da comunidade InstructLab, desenvolvidos colaborativamente. Na versão inicial do RHEL AI, os usuários têm acesso GA ao modelo granite-7b-starter e ao modelo granite-7b-redhat-lab correspondente, e prévias de tecnologia dos modelos de código  granite-8b-code-basegranite-8b-code-instruct . Você pode obter uma lista atualizada e saber mais sobre os LLMs incluídos no RHEL AI na documentação oficial.

É importante ressaltar que todos os modelos Granite de código aberto são treinados com base em dados cuidadosamente selecionados, com níveis de transparência dos dados e parâmetros usados nos modelos que são referência no setor.

Por que a transparência de dados é importante?

Embora o uso e a popularidade da gen AI tenham aumentado enormemente, muitas empresas hesitam em usar LLMs de terceiros devido a preocupações sobre os resultados que eles produzem e se eles podem ser usados legalmente.

Por exemplo, o jornal The New York Times processou a OpenAI alegando que o chatGPT usou mais de um milhão de artigos do NYTimes protegidos por direitos autorais. Até setembro de 2024, a justiça ainda não havia decidido a respeito, mas se for comprovado, pode significar que qualquer resultado gerado pelo chatGPT seja passível de ser considerado um trabalho derivado, o que significa que o NYTimes deteria os direitos autorais de todo esse trabalho.

Obviamente, situações como esta são uma preocupação clara para qualquer um que use ferramentas de IA generativa. 

Os LLMs open source Granite são diferentes, todavia, já que foram lançados sob a licença Apache 2.0 e incluem transparência significativa dos dados e parâmetros dos modelos. Isto significa que os usuários podem confirmar diretamente quais dados foram usados para treinar os modelos, reduzindo o risco de conflitos jurídicos ou de questões relacionadas no futuro. Além disso, a Red Hat fornece proteções jurídicas aos seus clientes que estão usando o RHEL AI por meio do programa Open Source Assurance.

O que é InstructLab?

Iniciado pela IBM e pela Red Hat, o objetivo do projeto InstructLab é democratizar a gen IA por meio da potência de uma comunidade de código aberto. O InstructLab é focado em construir ferramentas simples e econômicas para ajustar LLMs usados ​​em aplicativos de gen IA.

Essas ferramentas são projetadas para serem mais acessíveis a desenvolvedores e especialistas no assunto que têm expertise vital, mas que podem não ter o conhecimento técnico especializado geralmente necessário para o ajuste de modelos de IA. Isso significa que mais pessoas podem participar desses processos de ajuste, tornando-os mais democráticos, eficientes e eficazes.

O núcleo do projeto InstructLab é LAB: Large-Scale Alignment for ChatBots, descrito em detalhes neste artigo acadêmico de 2024 por membros do MIT-IBM Watson AI Lab e da IBM Research.

Comece a usar o InstructLab para ajuste de modelos de IA generativa.

O que é o programa Open Source Assurance?

Por meio do programa Open Source Assurance, a Red Hat oferece garantias de propriedade intelectual no caso de uma alegação de que um software open source ou um modelo de IA fornecido pela Red Hat viola os direitos de propriedade intelectual de terceiros.

Isso significa que, no caso de um terceiro apresentar uma alegação de violação, a Red Hat defenderá o cliente contra a alegação e pagará o valor de uma sentença ou acordo sujeito às limitações declaradas. A Red Hat também pode substituir ou modificar o software ou modelo de IA em questão, quando possível.

Todos os clientes com subscrições ativas e pagas de software da Red Hat são elegíveis para o programa Open Source Assurance, que é um benefício integral de uma subscrição de produto da Red Hat.

A Red Hat já ofereceu proteções legais antes

programa Open Source Assurance não é novo. Ele foi lançado originalmente em 2004 para acompanhar a promessa de patente da Red Hat e nossa participação como membro fundador da Open Invention Network.

Mais tarde, em 2006, o programa Open Source Assurance foi expandido para incluir essas proteções legais mais abrangentes relacionadas à propriedade intelectual para clientes da Red Hat. Essas proteções foram originalmente oferecidas em relação ao kernel Linux, que era o centro de alguns litígios controversos na época.

O programa tem como objetivo garantir aos clientes que as reivindicações contra produtos Red Hat são um problema para a Red Hat resolver, não para o cliente. Isso significa que os clientes podem usar as soluções Red Hat sem interrupção no caso de uma queixa de violação de propriedade intelectual.

Incluir o RHEL AI e os resultados dos modelos de IA da marca Red Hat no programa Open Source Assurance significa simplesmente ampliar o longo histórico de proteção de clientes da Red Hat que usam nossas soluções open source.

Pronto para começar a usar o RHEL AI?

Desenvolvedores da Red Hat introduziram uma jornada de aprendizagem RHEL AI que ajudará você a explorar essas novas ferramentas e recursos. Este treinamento sem custo apresenta os fundamentos relacionados à coleta de dados, pré-treinamento e ajuste e o orienta durante o processo de aprimoramento de um LLM existente.

Experimente o Red Hat Enterprise Linux AI


Sobre o autor

Deb Richardson joined Red Hat in 2021 and is a Senior Content Strategist, primarily working on the Red Hat Blog.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Navegue por canal

automation icon

Automação

Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes

AI icon

Inteligência artificial

Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente

open hybrid cloud icon

Nuvem híbrida aberta

Veja como construímos um futuro mais flexível com a nuvem híbrida

security icon

Segurança

Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias

edge icon

Edge computing

Saiba quais são as atualizações nas plataformas que simplificam as operações na borda

Infrastructure icon

Infraestrutura

Saiba o que há de mais recente na plataforma Linux empresarial líder mundial

application development icon

Aplicações

Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações

Original series icon

Programas originais

Veja as histórias divertidas de criadores e líderes em tecnologia empresarial