Modelos Granite

Copiar URL

Os modelos Granite são uma família de modelos de linguagem da IBM (Large Language Models - LLMs e Small Language Models - SLMs) projetados especialmente para aplicações empresariais. Os modelos fundamentais Granite oferecem suporte a casos de uso de inteligência artificial generativa (gen IA) que envolvem linguagem e código.

Os modelos da família Granite são open source e certificados sob a licença Apache 2.0. Com isso, os desenvolvedores podem testar, modificar e distribuir esses modelos gratuitamente. Por isso, os modelos Granite são uma boa escolha para organizações que lidam com dados confidenciais e querem executar seu próprio LLM em vez de depender de um serviço externo.

Confira como o Granite funciona com soluções Red Hat

Os modelos fundamentais são treinados para apresentar uma compreensão abrangente dos padrões, estruturas e representações de linguagem. Esse treinamento “básico” ensina ao modelo a se comunicar e identificar esses padrões. Isso é chamado de inferência de IA. A inferência de IA é a fase operacional da IA, na qual o modelo é capaz de aplicar o que aprendeu no treinamento em situações reais.

Os modelos de IA do IBM Granite possuem esse conhecimento básico, que pode passar por um ajuste fino para executar tarefas específicas de praticamente qualquer setor. Os modelos da família Granite são treinados com dados selecionados e oferecem transparência em relação aos dados utilizados no treinamento.

Os LLMs usam a gen IA para produzir novos conteúdos baseados nos prompts fornecidos por um usuário. Atualmente, é comum usar a gen AI para gerar texto, imagens, vídeo e código. As empresas podem usar modelos de base de LLM para automatizar vários aspectos das operações, como atendimento ao cliente por chatbots ou testes de código de software.

Outros modelos fundamentais de LLM que usam gen IA incluem o LLaMa da Meta (que inclui LLaMa 2 e LLaMa 3), o Gemini do Google, o Claude da Anthropic e o GPT da OpenAI (conhecida pelo famoso bot ChatGPT) e o Mistral. O diferencial dos modelos de IA Granite é a transparência em relação aos dados de treinamento, fortalecendo a confiança dos usuários e tornando esses modelos a escolha ideal para ambientes empresariais.

Acesse a biblioteca de conteúdos da Red Hat

Sim, algumas das séries de modelos de IA Granite estão disponíveis sob uma licença open source, permitindo que os desenvolvedores as acessem e aprimorem localmente. Eles podem fazer o ajuste fino do modelo para ele atender objetivos específicos. Os usuários têm acesso à maior parte dos dados utilizados para treinar o modelo (em PDF), o que facilita a compreensão de sua construção e funcionamento.

No caso dos modelos Granite, open source significa um ambiente onde os desenvolvedores podem personalizar o modelo com seus próprios dados para gerar resultados específicos para cada usuário. Isso não quer dizer que os dados privados de todos ficam disponíveis para toda a comunidade open source. Diferente da IA de serviços web públicos, os modelos Granite não são treinados continuamente. Assim, nenhuma das entradas de dados no modelo da família Granite será compartilhada com a Red Hat, a IBM ou outros usuários do Granite.

Empresas de diversos setores, da saúde à construção, podem usar o Granite de diferentes maneiras para automatizar operações em larga escala. Os modelos Granite podem ser treinados em tarefas do setor de negócios, como resumo, resposta a perguntas e classificação. Veja alguns exemplos:

  • Geração de código: os modelos de código Granite podem ajudar a desenvolver ou aprimorar o trabalho dos desenvolvedores, aumentando a eficiência dos processos. Por exemplo, é possível utilizar o modelo de preenchimento automático, semelhante ao dos smartphones, que completa uma linha de código antes do desenvolvedor terminar de digitar.
  • Extração de insights: quando você precisar simplificar, resumir ou explicar grandes conjuntos de dados, o Granite identifica padrões com precisão e gera insights rapidamente. Assim, você não precisa verificar manualmente grandes volumes de dados. 
  • Arquitetura flexível: é possível integrar o Granite a sistemas existentes e implantá-lo on-premise ou na nuvem. Ele conta com interfaces desenvolvidas para simplificar a implantação. A família Granite inclui modelos de diversos tamanhos. Assim, você pode escolher o que melhor atende às suas necessidades, controlando os custos de computação.
  • Soluções personalizadas: o Granite é comercializado como modelo fundamental, mas foi desenvolvido para ser treinado com conhecimentos específicos dos negócios. Os usuários têm flexibilidade para escalar e fazer o ajuste fino no modelo, podendo personalizá-lo conforme as demandas empresariais. Por exemplo, se o foco da sua empresa for dispositivos médicos, você pode ensinar o jargão usado na área da saúde ao modelo.
  • Baixa latência: ao executar um modelo Granite na sua própria infraestrutura, você pode otimizar os tempos de resposta. Como o modelo é capaz de fornecer dados em tempo real, ele é bastante útil para operações essenciais. Ainda usando o exemplo da área da saúde, acessar dados em tempo real é importante para a colaboração remota entre médicos, pacientes e atendimento de urgência. 

    Com a compactação, o modelo Granite entrega alto desempenho consumindo menos recursos.

  • Alta precisão: na série Granite, os desenvolvedores podem ajustar o modelo para tarefas específicas do setor e torná-lo especialista em qualquer assunto. Ele também pode ser treinado em vários idiomas para manter a precisão e a acessibilidade em escala global.
  • Modelos transparentes: uma vez que o Granite está disponível sob uma licença open source, os desenvolvedores conseguem ver como o modelo de IA foi criado e treinado, além de poder colaborar com a comunidade.

A IBM lançou várias séries de modelos Granite para atender às necessidades de aplicações empresariais cada vez mais complexas. Há diferentes convenções de nomenclatura e categorias para as séries de modelos na família Granite.

Cada série atende a um propósito diferente:

  • Granite para Linguagem: esses modelos oferecem Processamento de Linguagem Natural (PLN) com precisão em vários idiomas, mantendo a baixa latência.

    Conheça casos de uso da IA generativa

  • Granite para Código: esses modelos são treinados em mais de 100 linguagens de programação diferentes para oferecer suporte a tarefas de software de nível empresarial.
  • Granite para Séries Temporais: esses modelos são ajustados especificamente para prever séries temporais, utilizando dados históricos para realizar projeções sobre dados futuros.
  • Granite para Geoespacial: A IBM e a NASA desenvolveram este modelo fundamental para observar o planeta Terra, utilizando dados de satélites em larga escala para monitorar e responder a mudanças ambientais.

    Conheça casos de uso de IA preditiva

Em todas essas séries, o Granite oferece modelos com diferentes tamanhos e funcionalidades. Por exemplo, o Granite for Language inclui:

  • Granite-7b-base, um modelo de linguagem de uso geral para fins de conversação.
  • Granite-7b-instruct, especializado em seguir instruções específicas para a execução de tarefas.

Conheça os modelos do Granite no Hugging Face

O Red Hat® AI é nosso portfólio de soluções de IA, desenvolvido com base em soluções em que nossos clientes confiam. Com essa base, nossas soluções permanecem consistentes, flexíveis e escaláveis.

O portfólio Red Hat AI ajuda as organizações a:

  • Adotar a IA e inovar rapidamente.
  • Reduzir as complexidades da entrega de soluções de IA.
  • Implantar em qualquer lugar.

Com o Red Hat AI, você tem acesso aos recursos bring-your-own-model (traga seu próprio modelo) e aos LLMs da família Granite. Além disso, nossos consultores oferecem suporte hands-on para casos de uso específicos da sua empresa ao desenvolver e implantar aplicações de gen IA com cargas de trabalho críticas.

Conheça o Red Hat AI

O Red Hat Enterprise Linux® AI é uma plataforma para executar LLMs em ambientes de servidores individuais. A solução inclui o Red Hat AI Inference Server, que oferece inferência rápida e econômica em toda a nuvem híbrida, maximizando a taxa de transferência e minimizando a latência. Essa plataforma permite fazer experimentos com os seus próprios dados e aprender ao longo do processo. É um bom ponto de partida se você não souber quais são os casos de uso da sua empresa. O Red Hat® Enterprise Linux AI® é uma plataforma de modelo fundamental específica para desenvolver, testar e executar LLMs da família Granite. A abordagem open source mantém os custos baixos e facilita a adoção da tecnologia para uma grande variedade de usuários.

Leia mais sobre o Red Hat Enterprise Linux AI

Recurso

Introdução à IA empresarial: um guia para iniciantes

Leia este guia para iniciantes e descubra como o Red Hat OpenShift AI e o Red Hat Enterprise Linux AI podem ajudar a acelerar sua jornada de adoção da inteligência artificial.

Todos os testes de soluções Red Hat

Com os nossos testes de solução gratuitos, você ganha experiência hands-on, prepara-se para uma certificação ou avalia se uma determinada solução é adequada para sua organização.

Leia mais

O que é vLLM?

O vLLM é uma coleção de códigos open source que ajuda os modelos de linguagem a realizar cálculos com mais eficiência.

O que é a IA explicável (XAI)?

Com as técnicas de IA explicável (XAI), aplicadas durante o ciclo de vida do machine learning (ML), as respostas da IA ficam mais transparentes e fáceis de entender.

Como o vLLM acelera a inferência de IA: três casos de uso empresariais

Este artigo destaca três exemplos reais de como grandes empresas estão utilizando vLLM com sucesso.

Inteligência artificial: conteúdo adicional

Artigos relacionados