Jump to section

IA generativa

Copiar URL

 

Aplicações de IA em qualquer ambiente com o Red Hat OpenShift AI

Assista ao vídeo e descubra como o Red Hat® OpenShift® AI acelera o ciclo de vida de modelos e aplicações de Inteligência Artificial e Machine Learning com o uso de ferramentas integradas, fluxos de trabalho repetíveis, opções de implantação flexíveis e um vasto ecossistema de parceiros de confiança.

A inteligência artificial generativa ou "generative AI", em inglês, é um tipo de tecnologia de inteligência artificial que se baseia em modelos de deep learning treinados por meio de grandes conjuntos de dados para criar e gerar novos conteúdos. Os modelos de IA generativa (usados para gerar novos dados) contrastam com os modelos de IA discriminativos (usados para classificar dados com base nas diferenças). 

As pessoas vêm usando aplicações de inteligência artificial generativa para produzir textos, imagens, código e muito mais. Casos de uso comuns para IA generativa incluem chatbots, criação e edição de imagens, assistência para código de software e pesquisa científica.

A IA generativa também é utilizada em ambientes profissionais para visualizar rapidamente ideias criativas e lidar de maneira eficiente com tarefas tediosas e demoradas. Em áreas emergentes, como pesquisa médica e design de produto, a IA generativa tem o potencial de auxiliar os profissionais a fazer melhor seu trabalho e de melhorar vidas significativamente. No entanto, a IA traz consigo novos riscos, que devem ser compreendidos e minimizados pelos usuários.

Apps de inteligência artificial generativa

Algumas das apps de IA generativa mais conhecidas atualmente são o ChatGPT e DALL-E da OpenAI, GitHub CoPilot, o Bing Chat da Microsoft, o Bard do Google, Midjourney, Stable Diffusion e Adobe Firefly. 

A Red Hat se uniu à IBM parar criar o Red Hat® Ansible® Lightspeed com IBM watsonx Code Assistant: um serviço de IA generativa que ajuda desenvolvedores a criar conteúdos do Ansible com mais eficiência. Diversas empresas vêm fazendo experimentos com seus próprios sistemas de IA generativa para automatizar tarefas diárias e melhorar a eficiência.

Se você já teve uma conversa surpreendentemente coerente com o ChatGPT ou viu o Midjourney renderizar uma imagem realista a partir de uma descrição que você havia acabado de inventar, sabe que a IA generativa parece magia. Mas o que está por trás dessa magia?

Nos bastidores das apps de inteligência artificial que você usa, modelos de deep learning estão recriando padrões aprendidos a partir de uma quantidade enorme de dados de treinamento. Depois disso, elas trabalham em parâmetros construídos por humanos para criar algo novo com base no que aprenderam.

Os modelos de deep learning não armazenam uma cópia exata dos dados de treinamento, mas sim uma versão codificada deles na qual pontos similares são organizados próximos uns dos outros. Essa representação pode ser decodificada para construir dados novos e originais com características semelhantes. 

Criar uma app de inteligência artificial generativa personalizada exige um modelo, além de ajustes finos supervisionados por humanos ou uma camada de dados específica a um caso de uso.

A maioria das apps de IA generativa atuais responde a prompts do usuário. Descreva o que quiser em linguagem natural e a app retornará o que quer que você tenha pedido, parecendo mágica.

A revolução da IA generativa em textos e imagens dominou as manchetes e capturou a imaginação das pessoas. Veja alguns dos primeiros casos de uso dessa tecnologia que avança rapidamente.

Textos: mesmo antes do ChatGPT dominar as manchetes dos jornais (e começar a escrever as suas próprias notícias), sistemas de IA generativa já eram hábeis em imitar a escrita humana. Ferramentas de tradução de idiomas estão entre os primeiros casos de uso de modelos de IA generativa. Atualmente, modelos de IA generativa podem responder a prompts para a criação de conteúdo de alta qualidade sobre praticamente qualquer assunto. Elas também podem adaptar seus textos para diferentes tamanhos e vários estilos de escrita.

Geração de imagens: as ferramentas de imagem de IA generativa sintetizam fotos de alta qualidade em resposta a prompts de vários assuntos e estilos. Algumas ferramentas de IA podem adicionar novos elementos a trabalhos já existentes, como o Generative Fill no Adobe Photoshop.

Geração de discurso e músicas: usando textos escritos e amostras de áudio com a voz de alguém, as ferramentas vocais de IA podem criar uma narração ou uma canção que imita os sons de pessoas reais. Outras ferramentas podem criar músicas artificiais a partir de prompts ou amostras.

Geração de vídeos: novos serviços estão fazendo experimentos com várias técnicas de IA generativa para criar animações. Por exemplo, é possível combinar um áudio com uma imagem estática e movimentar a boca e a expressão facial de alguém de modo que pareça que estão falando.

Geração e conclusão de código: algumas ferramentas de IA generativa podem receber um prompt por escrito e gerar um código por meio de uma solicitação para ajudar desenvolvedores de software.

Data augmentation: a IA generativa pode criar uma quantidade exorbitante de dados sintéticos quando o uso de dados reais não for possível ou a melhor escolha. Por exemplo, dados sintéticos podem ser úteis se você quiser treinar um modelo para que ele entenda dados sobre saúde sem incluir nenhuma informação de identificação pessoal. Ela também pode ser usada para expandir um conjunto de dados pequeno ou incompleto e transformá-lo em um conjunto maior de dados sintéticos para fins de treinamento ou testes.

Deep learning é uma técnica de machine learning utilizada para analisar e interpretar abundantes de dados, tornando a IA generativa possível. Também conhecido como aprendizado neural profundo ou rede neural profunda, esse processo ensina computadores a aprender por meio da observação, imitando a maneira como os humanos adquirem conhecimento. O deep learning é um conceito essencial na aplicação de computadores ao problema de compreensão da linguagem humana, ou processamento de linguagem natural (NLP).

O deep learning é como se fosse um tipo de gráfico de fluxo, começando com uma camada de entrada e terminando com uma camada de saída. Entre essas duas camadas estão as "camadas ocultas", que processam informações em diferentes níveis, ajustando e adaptando seu comportamento à medida que recebem novos dados. Os modelos de deep learning podem ter centenas de camadas ocultas, cada uma delas desempenhando um papel para descobrir relações e padrões em um conjunto de dados. 

Começando pela camada de entrada, composta por vários nós, os dados são adicionados ao modelo e categorizados de acordo com suas características antes de serem movidos para a próxima camada. O caminho que os dados percorrem por meio de cada camada se baseia nos cálculos definidos em cada nó. Em algum momento, os dados atravessam cada uma das camadas, coletando observações pelo caminho até criar a saída, ou análise final, dos dados.

Uma tecnologia que acelerou o avanço de deep learning foi a GPU, ou unidade de processamento de gráfico. As GPUs foram projetadas originalmente para acelerar a renderização de gráficos de videogames. No entanto, elas se provaram adequadas para cargas de trabalho de deep learning, sendo uma maneira eficiente de realizar cálculos em paralelo

Inovações no tamanho e na velocidade dos modelos de deep learning levaram à onda atual de apps de IA generativa revolucionárias.

Uma rede neural é uma maneira de processar informações que imita sistemas neurais biológicos, como as conexões em nosso cérebro. É como a IA pode criar conexões entre conjuntos de informações aparentemente não relacionados. O conceito de uma rede neural está intimamente relacionado ao deep learning.

Como um modelo de deep learning usa o conceito de rede neural para conectar dados? Começaremos entendendo o funcionamento do cérebro humano. Ele contém diversos neurônios interconectados que atuam como mensageiros quando o cérebro processa informações ou dados recebidos. Esses neurônios usam impulsos elétricos e sinais químicos para se comunicarem entre si e transmitir informações em diferentes áreas do cérebro. 

A rede neural artificial (ANN) é baseada nesse fenômeno biológico, mas formada por neurônios artificiais criados a partir de módulos de software chamados de nós. Esses nós usam cálculos matemáticos (em vez de sinais químicos, como no cérebro) para se comunicarem e transmitirem informações. Essa rede neural simulada (SNN) processa a informação ao agrupar os pontos de dados em clusters e ao fazer predições.

Há diferentes técnicas de rede neural adequadas para diferentes tipos de dados. Uma rede neural recorrente (RNN) é um modelo que usa dados sequenciais como uma maneira de processar linguagem, assim como no aprendizado de palavras.

Com base na ideia da RNN, os transformadores são um tipo específico de arquitetura de rede neural capaz de processar linguagem mais rapidamente. Os transformadores aprendem as relações que as palavras têm em uma frase, um processo mais eficiente se comparado com RNNs que processam cada palavra em ordem sequencial.

Large Language Model (LLM) é um modelo de deep learning treinado ao aplicar os transformadores a um conjunto enorme de dados generalizados. LLMs potencializam muitas das ferramentas de texto e chat de IA conhecidas.

O modelo de difusão é outra técnica de deep learning que se mostrou adequada para a geração de imagens. Esses modelos aprendem o processo de transformar uma imagem natural em um ruído visual distorcido. Em seguida, as ferramentas de imagem generativa assumem o processo e o revertem a partir de um padrão de ruídos aleatório. Elas o redefinem até que se pareça com uma foto realista.

Modelos de deep learning podem ser descritos em parâmetros. Um modelo simples de previsão de crédito treinado com 10 entradas de um formulário de aplicação de empréstimo teria 10 parâmetros. Um LLM pode ter bilhões de parâmetros. O Generative Pre-trained Transformer 4 (GPT-4) da OpenAI, o qual é um dos modelos básicos por trás do ChatGPT, é conhecido por ter 1 trilhão de parâmetros.

Um modelo base é um modelo de deep learning treinado a partir de uma enorme quantidade de dados genéricos. Depois de treinados, os modelos base podem ser refinados para casos de uso específicos. Como o nome sugere, esses modelos podem ser a base para muitas aplicações diferentes.

Criar um novo modelo base atualmente é um projeto considerável. O processo requer enormes quantidades de dados de treinamento, tipicamente coletados de fragmentos da internet, bibliotecas digitais, bancos de dados de artigos acadêmicos, bancos de imagem ou outros grandes conjuntos de dados. Treinar um modelo com essa quantidade de dados requer uma infraestrutura imensa, incluindo a criação ou aluguel de uma nuvem de GPUs. Os maiores modelos-base até o momento custaram centenas de milhões de dólares.

Devido ao alto esforço necessário para treinar um modelo base do zero, é comum usar modelos treinados por terceiros e, em seguida, aplicar a personalização. Existem várias técnicas para personalizar um modelo base. Algumas delas são o fine-tuning (ajuste fino), o prompt-tuning e a adição de dados específicos do cliente ou do domínio.

O fine tuning (ajuste fino) é o processo de refinar um modelo base para criar um novo modelo mais adequado a uma tarefa ou domínio específico. Uma empresa pode adicionar dados de treinamento específicos para o caso de uso desejado em vez de se basear em um modelo genérico.

Essa abordagem normalmente exige significativamente menos dados e tempo do que o treinamento inicial. Enquanto o modelo base pode levar semanas ou meses para ser treinado, o processo de fine tuning pode levar algumas horas.

Como o fine tuning ajuda o usuário? Se você estiver usando um modelo genérico, pode ser necessário inserir instruções e exemplos específicos toda vez que acionar a aplicação de IA para obter o que deseja. Com o fine tuning, o trabalho de antecipar o tipo de saída que você deseja já está feito. Seus prompts podem ser mais simples, economizando tempo e reduzindo o uso de recursos.

A geração aumentada de recuperação (RAG) é um método que permite obter melhores respostas de uma aplicação de IA generativa conectando um LLM (modelo de linguagem de larga escala) a um recurso externo.

Ao implementar uma arquitetura RAG em um sistema de perguntas e respostas baseado em LLM (como, por exemplo, um chatbot), você permite a comunicação entre o LLM e as fontes de conhecimento adicionais que você escolher. Isso possibilita ao LLM realizar referências cruzadas e complementar o seu conhecimento interno, proporcionando aos usuários resultados mais confiáveis e precisos para suas consultas.

Com avanço significativo e em pouco tempo, a tecnologia de IA generativa atraiu mais atenção do que o normal, tanto positivamente quanto negativamente. Os benefícios e as desvantagens dessa tecnologia continuam sendo descobertos. Aqui oferecemos uma breve visão de algumas preocupações mais significativas sobre a IA generativa:

Possibilidade de danos: existe o risco óbvio de agentes mal-intencionados usarem ferramentas de IA generativa para objetivos maliciosos, como campanhas de desinformação em larga escala nas redes sociais ou imagens deepfake não consensuais direcionadas a pessoas reais.

Reforço de preconceitos sociais: foi demonstrado que ferramentas de IA generativa repetem preconceitos humanos presentes nos dados de treinamento, como estereótipos e discursos de ódio.

Informações erradas: essas ferramentas podem produzir informações e cenas inventadas ou simplesmente erradas, às vezes chamadas de "alucinações". Alguns erros no conteúdo gerado são inofensivos, como uma resposta sem sentido a uma pergunta no chat, ou uma imagem de uma mão humana com muitos dedos. Mas já houve casos sérios de erros da IA, como um chatbot que deu um conselho perigoso a pessoas que perguntavam sobre distúrbios alimentares.

Riscos legais e de segurança: sistemas de IA generativa podem representar riscos de segurança, como a entrada de informações sensíveis por usuários em aplicativos que não foram projetados para serem seguros. As respostas da IA generativa podem apresentar riscos legais ao reproduzir conteúdo protegido por direitos autorais ou se apropriar da voz ou identidade de uma pessoa real sem consentimento. Além disso, algumas ferramentas de IA generativa podem ter restrições de uso.

A Red Hat oferece os recursos fundamentais para suas equipes criarem e implantarem modelos de machine learning (ML) e aplicações de inteligência artificial com transparência e controle. 

Red Hat® OpenShift® AI é uma plataforma na qual você consegue treinar, realizar engenharia de prompt, fazer ajustes finos e disponibilizar modelos de IA para seus caso de uso e dados específicos.

Para grandes implantações de IA, o Red Hat OpenShift oferece uma plataforma de aplicações escalável e adequada para cargas de trabalho de IA, incluindo acesso a aceleradores de hardware conhecidos.

A Red Hat vêm utilizando as ferramentas do Red  Hat OpenShift AI para aprimorar a eficácia de outros programas open source. O primeiro projeto é a integração do Red Hat Ansible® Lightspeed com o IBM watsonx Code Assistant. Esse serviço ajuda as equipes de automação a aprender, criar e manter os conteúdos do Ansible com mais eficiência. Ele aceita entradas inseridas pelo usuário e interage com modelos de base do IBM watsonx, produzindo recomendações de código usadas para criar playbooks do Ansible

Além disso, as integrações de parceiros da Red Hat oferecem acesso a um ecossistema de ferramentas de IA confiáveis, projetadas para serem compatíveis com plataformas open source.

Leitura recomendada

Artigo

O que é IA generativa?

A inteligência artificial generativa depende de modelos de deep learning treinados em grandes conjuntos de dados para criar novos conteúdos.

Artigo

O que é machine learning?

Machine learning (aprendizado de máquina) é a técnica de treinamento de computadores para encontrar padrões, fazer previsões e aprender com a experiência sem que seja necessário programá-los explicitamente.

Artigo

O que são modelos de base?

Um modelo de base é um tipo de modelo de machine learning (aprendizado de máquina) treinado previamente para realizar diversas tarefas. 

Mais conteúdo sobre Inteligência Artificial e Machine Learning

Soluções

Novo

Uma plataforma de modelo base usada para desenvolver, testar e executar modelos de linguagem de larga escala (LLMs) da família Granite para aplicações empresariais.

Um portfólio com foco em inteligência artificial que oferece ferramentas para você treinar, ajustar, disponibilizar, monitorar e gerenciar experimentos e modelos de inteligência artificial e machine learning no Red Hat OpenShift.

Uma plataforma empresarial de aplicações, com serviços testados para você implantar aplicações na infraestrutura de sua escolha. 

O Red Hat Ansible Lightspeed com watsonx IBM Code Assistant é um serviço de inteligência artificial generativa criado por e para criadores de automação, operadores e desenvolvedores do Ansible. 

Recursos

ebook

O que considerar para criar um ambiente de IA/ML pronto para produção

Conteúdo de analistas

The Total Economic Impact™ of Red Hat Hybrid Cloud Platform for MLOps

Webinar

Como obter o máximo da IA com o open source e o Kubernetes