O que é machine learning?

Copiar URL

Machine learning (ML) é uma subcategoria da inteligência artificial (IA) que usa algoritmos para identificar padrões e fazer previsões dentro de um conjunto de dados. Esses dados podem ser números, textos ou até mesmo imagens. 

Em condições ideais, podemos usar o machine learning para nos ajudar a interpretar dados com mais rapidez e precisão do que conseguiríamos por conta própria. O machine learning é derivado de bases matemáticas que os algoritmos usam para aprender com dados, fazer previsões e otimizar modelos.

Conheça o Red Hat AI

A inteligência artificial se desenvolve quando conseguimos simular sinteticamente a inteligência humana em máquinas. No caso do machine learning, as máquinas são programadas para imitar funções cognitivas inerentes aos seres humanos, como percepção, aprendizado e solução de problemas. 

Como fazer uma máquina pensar como um ser humano? Treinamos a máquina para ela criar o próprio modelo preditivo. Ela usa esse modelo para analisar os dados e, por fim, se tornar uma "máquina que aprende". Para iniciar esse procedimento, é necessário alimentar o computador com dados e escolher um modelo de machine learning para ensinar a máquina como processá-los. 

Descubra como a IA pode levar sua empresa mais longe
O modelo de machine learning usa os dados para cumprir três funções:

  • Descrever o que aconteceu
  • Prever o que acontecerá
  • Sugerir o que fazer na sequência

A escolha do modelo de machine learning para treinar a máquina deve ser feita de acordo com a complexidade da tarefa e dos resultados desejados. Em geral, o machine learning é classificado em três métodos de aprendizagem: supervisionado, não supervisionado e por reforço.

Os algoritmos de aprendizagem não supervisionados são treinados com conjuntos de dados rotulados. Esse modelo é utilizado para tarefas como reconhecimento de imagem.

Os modelos de aprendizagem não supervisionados analisam dados não rotulados em busca de semelhanças, padrões e tendências. Eles são usados em tarefas como segmentação de clientes, sistemas de recomendação e exploração de dados em geral.

Os modelos de aprendizagem por reforço são treinados usando um processo de tentativa e erro dentro de um sistema de recompensas pré-determinado. Esse estilo de aprendizagem é usado em tarefas como treinar um computador para jogar um jogo em que as ações levam à vitória ou à derrota. 

Depois que o computador se familiariza com a maneira como você quer que os dados sejam interpretados (graças ao modelo de machine learning e ao treinamento dos dados), ele pode fazer previsões e executar tarefas usando dados novos. A precisão das previsões aumenta à medida que o computador aprende com fluxos contínuos de dados. Assim, ele pode realizar tarefas mais rápido e com menos erros do que um ser humano.

Desenvolva uma plataforma de nuvem híbrida para cargas de trabalho de inteligência artificial e machine learning

Acesse a biblioteca de conteúdos da Red Hat

A fase de treinamento do machine learning ocorre quando o modelo aprende com um conjunto de dados fornecidos. Nessa fase, o objetivo dos desenvolvedores é ajustar os parâmetros do modelo e minimizar os erros na saída. 

Para fazer isso, define-se um pipeline para passar os dados pelo modelo, avaliar as previsões e usá-las para melhorar o modelo. Muitas vezes, esse pipeline incorpora as seguintes etapas:

  1. Coleta e preparo de dados: para preparar os dados coletados, eles são separados em dados de treinamento e dados de teste, com a exclusão de dados indesejados e a distribuição aleatória para fins de uniformidade. “Redução de dimensionalidade” significa diminuir o número de variáveis ou funcionalidades de entrada em um conjunto de dados enquanto se retém informações essenciais.
  2. Seleção de modelo: cientistas e engenheiros de dados criaram vários algoritmos de machine learning para tarefas diferentes, como reconhecimento de fala, reconhecimento de imagem, previsão e muito mais.
  3. Treinamento: os dados de entrada preparados são enviados pelo modelo para encontrar padrões (reconhecimento de padrões) e fazer previsões.
  4. Avaliação: após o treinamento, a saída do modelo é avaliada com base em um conjunto de dados anterior não utilizado.

Ajuste: desenvolvedores conseguem ajustar os parâmetros para melhorar ainda mais o modelo com base nos resultados da etapa de avaliação anterior.

Desafios comuns durante treinamento e avaliação

Um modelo com desempenho bom nos dados de treinamento, mas fraco nos dados de teste pode estar com sobreajuste, ou seja, aprendendo com ruído demais no treinamento. Se o modelo tiver desempenho ruim nas duas etapas, ele pode estar com subajuste, que ocorre quando ele não consegue aprender com os padrões subjacentes.

LoRA e QLoRA são técnicas de ajuste fino que ajudam os usuários a evitar sobreajuste. 

Para evitar sobreajuste nos dados de treinamento, é possível usar um conjunto de dados de validação separados. Após cada iteração, a saída do modelo é avaliada com base nos dados de validação. 

Então, os ajustes são realizados para evitar o sobreajuste. Essa é a aplicação da redução de dimensionalidade: remover os dados irrelevantes que podem levar ao sobreajuste. Essa redução deve ser feita com cuidado, para não causar subajuste.

Para corrigir o subajuste, os desenvolvedores precisam adicionar mais funcionalidades informativas para melhorar a capacidade do modelo de capturar relacionamentos complexos nos dados.

Vazamento de dados é quando as informações do conjunto de teste vazam acidentalmente no conjunto de treinamento, gerando uma vantagem indevida e um desempenho superestimado.

Ajuste, novas funcionalidades e dados mais relevantes podem minimizar erros em iterações futuras. 

Quando os modelos de ML estão prontos para implantação, eles executam um processo chamado inferência. Inferência é a "fase de ação" em que um modelo de IA aplica o que aprendeu durante o treinamento para fornecer resultados em um ambiente de produção. 

O vLLM é um mecanismo e servidor de inferência que trabalha para tornar o processo de inferência mais eficiente. Ele usa técnicas de gerenciamento de memória para maximizar a velocidade de processamento (taxa de transferência) para os usuários obterem resultados rápidos e confiáveis de seus modelos de ML. 

Red Hat AI Inference Server

Redes neurais são um tipo de algoritmo usado em machine learning. São especialmente adequadas para tarefas que envolvem relacionamentos complexos e não lineares com dados. Deep learning é um subconjunto de machine learning que utiliza redes neurais com muitas camadas de profundidade. Essas redes neurais profundas são bem-estruturadas para aprender representações hierárquicas de dados. Isso torna o deep learning extremamente eficaz para tarefas como reconhecimento de imagem, processamento de linguagem natural e reconhecimento de fala.

Machine learning e inteligência artificial podem ser usados para aprimorar a experiência de usuário, prever o comportamento do consumidor, monitorar sistemas para detectar fraudes e até mesmo ajudar profissionais da saúde a identificar doenças graves. Muitos de nós se beneficiam e interagem com o machine learning todos os dias. Alguns dos usos incluem:

  • Os algoritmos de recomendação no seu serviço de streaming favorito.
  • Os chatbots e os atendimentos ao cliente automatizados.
  • Os anúncios direcionados.
  • Cotações automatizadas de instituições financeiras.

Comparação entre a IA preditiva e a IA generativa

A IA generativa, que capacita diversas ferramentas de IA, é possível graças ao deep learning, uma técnica de machine learning utilizada para analisar e interpretar grandes quantidades de dados. Os Large Language Models (LLMs) são um subconjunto da IA generativa. Eles representam uma aplicação essencial do machine learning (aprendizado de máquina) demonstrando a capacidade de compreender e gerar linguagem humana em uma escala sem precedentes. 

O machine learning vem se tornando obrigatório para muitas empresas e já existem casos de uso transformadores nos setores de saúde, serviços financeiros, telecomunicações, governamental e outros.

Conheça casos de uso da IA generativa
Conheça casos de uso da IA preditiva

Os modelos de machine learning aprendem com dados históricos. Por isso, podem aprender vieses e discriminação implícitos nos dados, que influenciam as tomadas de decisões humanas. Por exemplo, os dados podem reproduzir tendências raciais, socioeconômicas ou de gênero existentes na sociedade. Se esse viés não for excluído dos dados de treinamento, o modelo pode perpetuar e amplificar essas tendências.

Da mesma forma, as decisões tomadas pelos modelos de machine learning, como aprovações de empréstimos, contratações e sentenças criminais, podem afetar grupos marginalizados de maneira desproporcional. Os frameworks de equidade existem para assegurar resultados igualitários para diferentes grupos.

Muitos enxergam os modelos de machine learning como “caixas pretas”, porque não conseguem ver ou compreender os processos internos. Quando a falta de transparência dificulta a compreensão de como um modelo toma uma decisão, isso pode gerar falta de confiança.

Quando um sistema de machine learning toma uma decisão errada, baseada em viés ou discriminação, pode ser difícil determinar a responsabilidade. A decisão de um modelo de machine learning é de responsabilidade do desenvolvedor, da empresa utilizando o sistema ou do próprio sistema?

Como o machine learning precisa de uma ampla variedade de dados para treinar os modelos com eficácia, as empresas são incentivadas a coletar e armazenar grandes volumes de dados pessoais, o que gera preocupações com a privacidade e possíveis usos indevidos.

Além disso, armazenar grandes conjuntos de dados com informações pessoais aumenta o risco de violações de dados, que podem levar a roubo de identidade, fraudes financeiras ou danos à reputação.

A Red Hat oferece bases unificadas para suas equipes desenvolverem e implantarem aplicações de inteligência artificial (IA) e modelos de machine learning (ML) com transparência e controle. 

O Red Hat® OpenShift® AI é uma plataforma que pode treinar, fazer ajuste de prompt e o ajuste fino e oferecer modelos de IA para seu caso de uso exclusivo e utilizando seus próprios dados.

Para grandes implantações de IA, o Red Hat OpenShift oferece uma plataforma de aplicações escalável e adequada para cargas de trabalho de IA, incluindo acesso a aceleradores de hardware mais conhecidos.

A Red Hat também aplicou tecnologia de machine learning para desenvolver novos serviços, como, por exemplo, o Red Hat® Ansible® Lightspeed com IBM watsonx Code Assistant e o Red Hat OpenShift Lightspeed, que oferecem orientações para os profissionais de TI trabalharem com mais eficiência.

Além disso, as integrações de parceiros da Red Hat oferecem acesso a um ecossistema de ferramentas de IA confiáveis, projetadas para serem compatíveis com plataformas open source.

Mais informações sobre o OpenShift AI

Recurso

Introdução à IA empresarial: um guia para iniciantes

Leia este guia para iniciantes e descubra como o Red Hat OpenShift AI e o Red Hat Enterprise Linux AI podem ajudar a acelerar sua jornada de adoção da inteligência artificial.

Todos os testes de soluções Red Hat

Com os nossos testes de solução gratuitos, você ganha experiência hands-on, prepara-se para uma certificação ou avalia se uma determinada solução é adequada para sua organização.

Leia mais

O que é inferência distribuída?

A inferência distribuída permite que modelos de IA processem cargas de trabalho de forma mais eficiente, dividindo a execução da inferência entre um conjunto de dispositivos interconectados.

O que é Model Context Protocol (MCP)?

Descubra como o Model Context Protocol (MCP) conecta aplicações de IA a fontes de dados externas para ajudar a criar fluxos de trabalho mais inteligentes.

Tudo sobre a AIOps

AIOps, sigla em inglês que significa IA para operações de TI, é uma abordagem que usa machine learning e outras técnicas avançadas de IA para automatizar operações de TI.

Inteligência artificial: conteúdo adicional