O que é MLOps?

Copiar URL

As operações de machine learning (MLOps) são um conjunto de práticas de fluxo de trabalho com o objetivo de otimizar o processo de implantação e manutenção dos modelos de machine learning (ML).

Inspirado nos princípios do DevOps e GitOps, o MLOps busca estabelecer uma evolução contínua para integrar modelos de machine learning a processos de desenvolvimento de software. Com a adoção do MLOps, cientistas de dados, engenheiros e equipes de TI asseguram simultaneamente a precisão e a atualização dos modelos de machine learning, simplificando o ciclo iterativo de treinamento. Isso possibilita o monitoramento contínuo, o retreinamento e a implantação dos modelos, permitindo que eles se adaptem às mudanças nos dados e mantenham alto desempenho ao longo do tempo.

Os modelos de machine learning fazem previsões por meio da detecção de padrões nos dados. À medida que o modelo evolui e é exposto a informações com as quais não foi treinado, surge um problema chamado “desvio de dados". O desvio de dados ocorre naturalmente com o tempo conforme as propriedades estatísticas usadas no treinamento do modelo ficam ultrapassadas. Sem análise e correção, isso pode afetar o negócio negativamente.

Veja como a IA funciona em um contexto empresarial 

Para evitar o desvio, é importante que as empresas monitorem seus modelos e mantenham um alto nível de precisão na previsão. As práticas de MLOps podem ajudar as equipes incrementando a qualidade e a precisão de um modelo preditivo, simplificando o processo de gerenciamento, evitando desvio de dados e aumentando a eficiência para os cientistas de dados.

Veja como o MLOps pode beneficiar sua empresa:

Reprodutibilidade: as empresas obtêm a reprodutibilidade dos experimentos de ML porque o framework de MLOps ajuda a rastrear e gerenciar alterações no código, nos dados e nos arquivos de configuração de cada modelo. 

Integração e implantação contínuas (CI/CD): os frameworks de MLOps são integrados aos pipelines de CI/CD, o que viabiliza a automação de testes, validação e implantação. Isso incentiva uma cultura de melhoria contínua e agiliza os ciclos de desenvolvimento e entrega.

Maior colaboração e cronogramas mais rápidos: o MLOps facilita a colaboração entre os membros de uma equipe, eliminando obstáculos e aumentando a produtividade. Além disso, ao automatizar as tarefas manuais, as empresas podem implementar mais modelos com agilidade, oferecendo iterações com mais frequência para aumentar a precisão.

Redução de custos: ajustar e aprimorar modelos de ML continuamente para manter sua precisão é uma tarefa monótona, especialmente se feita de forma manual. Ao automatizar usando o MLOps, as empresas economizam recursos que de outra maneira seriam alocados para financiar trabalhos manuais demorados. Isso também diminui o risco de erros humanos e acelera o time to value (TTV) por meio da otimização do processo de implantação.

O que é Modelos como Serviço?

Governança e conformidade aprimoradas: adotar práticas de MLOps permite que as organizações implementem protocolos de segurança e assegurem a conformidade com as regulamentações de privacidade de dados. Monitorar o desempenho e a precisão permite detectar desvios conforme novos dados são integrados, possibilitando ações proativas para manter a fidelidade do modelo ao longo do tempo.

O que é a segurança da IA?

Acesse a biblioteca de conteúdos da Red Hat

A adoção de práticas de MLOps elimina o trabalho manual relacionado ao monitoramento de modelos de machine learning ao mesmo tempo que assegura confiabilidade e desempenho contínuos. Ao facilitar a colaboração entre diferentes equipes, a prática de MLOps promove o desenvolvimento ágil e as decisões baseadas em dados dentro da empresas. 

O MLOps permite que todos os setores automatizem e simplifiquem o processo de desenvolvimento de machine learning. Os casos de uso de MLOps incluem:

Manutenção preditiva: prever falhas em equipamentos e programar manutenções de maneira proativa.

Detecção de fraudes: desenvolver e implantar modelos que monitorem transações de maneira contínua para encontrar atividades suspeitas.

Processamento de linguagem natural (PLN): assegurar que aplicações como chatbots, tradutores e outros Largue Language Models (LLMs) tenham um desempenho eficaz e confiável.

Visão computacional: viabilizar tarefas como análise de imagens médicas, detecção de objetos e direção autônoma. 

Detecção de anomalias: identificar variações em relação ao padrão em vários contextos, como segurança de redes, processos industriais e dispositivos de IoT.

Saúde: implantar modelos para realizar diagnósticos de doenças, previsões de resultados dos pacientes e análises de imagens médicas. 

Varejo: gerenciar o inventário, prever a demanda, otimizar os preços e aprimorar a experiência de compra dos clientes.

Operacionalização da IA com o Red Hat AI

O MLOps pode ser considerado uma evolução do DevOps. Ele é baseado nos mesmos conceitos básicos de colaboração, automação e melhoria contínua, só que aplicados ao desenvolvimento de modelos de machine learning. Tanto o MLOps quanto o DevOps têm como objetivo aprimorar a colaboração com a equipe de operações de TI, cooperando com ela para gerenciar e manter softwares ou modelos de machine learning durante todo seu ciclo de vida. 

O DevOps se concentra na automação de tarefas operacionais rotineiras e na padronização de ambientes para desenvolvimento e implantação. Já o MLOps é mais experimental por natureza e tem como foco explorar maneiras de gerenciar e manter pipelines de dados. Os dados usados nos modelos de machine learning estão em constante evolução, exigindo que o próprio modelo evolua junto com eles. Isso requer adaptação contínua e ajustes finos. 

Teste, implantação e produção são diferentes no MLOps e no DevOps. Por isso, em projetos de machine learning, as equipes costumam recorrer a cientistas de dados que não são especializados em engenharia de software, mas que se concentram em experimentação, desenvolvimento de modelos e análise exploratória de dados. Algumas tarefas de MLOps que normalmente não são consideradas no DevOps incluem:

  • Testes de validação dados, avaliação de qualidade do modelo treinado e validação do modelo.
  • Criação de um pipeline de várias etapas para retreinar e implantar automaticamente um modelo de machine learning à medida que ele recebe novos dados.
  • Acompanhamento de estatísticas resumidas dos seus dados e monitoramento do desempenho online do modelo para comunicar quando os valores desviam das expectativas.

Por fim, quando se trata da integração e implantação contínuas (CI/CD) no MLOps, a CI não se resume mais a testar e validar códigos e componentes (como acontece no DevOps). Na verdade, ela também significa testar e validar dados, esquemas de dados e modelos. A CD não tem mais a ver com um único pacote de software ou serviços, mas com um sistema (um pipeline de treinamento de machine learning) que implantará automaticamente outro serviço (serviço de modelo preditivo).

Não existe apenas uma maneira de desenvolver e operacionalizar modelos de ML. Porém, ao desenvolver e executar aplicações, é necessário seguir um ciclo de vida com cinco etapas principais. 

O Red Hat® OpenShift® inclui recursos essenciais para viabilizar o MLOps em data centers, na nuvem pública e na edge computing de maneira consistente:

Etapa 1: coleta/preparação de dados
Coleta, limpeza e rotulação dos dados estruturados ou não estruturados em um formato adequado para treinamento e teste de modelos de ML.

Etapa 2: treinamento do modelo

Os modelos de ML são treinados em notebooks Jupyter no Red Hat OpenShift.

Etapa 3: automação

O Red Hat OpenShift Pipelines oferece recursos de integração contínua orientada a eventos que ajuda a empacotar modelos de machine learning como imagens de container.

Etapa 4: implantação

O Red Hat OpenShift GitOps automatiza a implantação de modelos de machine learning em grande escala, em qualquer lugar, seja em uma infraestrutura pública, privada, híbrida ou na edge. É possível usar tecnologias como o vLLM para otimizar o uso da GPU durante ainferência na etapa de implantação.

Etapa 5: monitoramento

Com as ferramentas oferecidas por nossos parceiros de ecossistema, sua equipe pode monitorar os modelos e atualizá-los com retreinamento e reimplantação, conforme necessário. À medida que novos dados são incorporados, o processo retorna à etapa 1, movendo-se continua e automaticamente pelas 5 etapas indefinidamente. 

Mais informações sobre a IA da Red Hat

É muito útil entender como seus fluxos de trabalho e processos se encaixam no escopo geral do MLOps, esteja você em uma fase exploratória da integração do machine learning em sua organização ou trabalhando com pipelines de ML há algum tempo. Normalmente, a maturidade de um processo de machine learning é categorizada em um de três níveis, dependendo do nível de automação presente no fluxo de trabalho. 

MLOps nível 0: tudo é manual

As equipes que estão começando a usar o machine learning costumam trabalhar com um fluxo de trabalho totalmente manual. Nesse estágio, os cientistas de dados que criam o modelo estão desconectados dos engenheiros que o disponibilizam. Além disso, todas as etapas do processo (preparação de dados, treinamento do modelo, automação, implantação e monitoramento) são executadas sem automação. Não há integração contínua (CI) nem implantação contínua (CD). O controle de versões raramente é implantado, e quando há a implantação de um novo modelo, há uma chance maior de que ele não se adapte às mudanças. 

MLOps nível 1: pipeline de ML automatizado

Vale a pena começar a implementar a automação no fluxo de trabalho se o modelo precisar ser ajustado a novos fatores de maneira proativa. Com um pipeline automatizado, novos dados são inseridos para treinamento contínuo (CT). Assim, o modelo pode acessar as informações mais relevantes para os serviços de previsão. 

MLOps nível 2: sistema automatizado de CI/CD

Nessa etapa, as atualizações no modelo de ML são rápidas e confiáveis. O modelo é retreinado com dados novos diariamente (quando não a cada hora), e as atualizações são implantadas em milhares de servidores ao mesmo tempo. Com esse sistema, os cientistas de dados e engenheiros podem trabalhar de maneira otimizada em um ambiente colaborativo. 

Desenvolver ou comprar?

Recursos e cronograma são fatores a serem considerados na hora de escolher se você vai desenvolver ou comprar uma plataforma de MLOps. Criar uma infraestrutura de machine learning funcional pode levar mais de um ano. Além disso, descobrir a maneira certa de criar um pipeline que realmente agregue valor à sua empresa pode demorar ainda mais. Também vale ressaltar que a manutenção de uma infraestrutura requer gerenciamento do ciclo de vida e uma equipe dedicada. Se sua equipe não tem todas as habilidades necessárias ou a capacidade para adquirir essas habilidades, investir em uma plataforma de MLOps completa pode ser a melhor solução. 

Saiba como escolher uma plataforma para IA e MLOps

O Red Hat® AI é nosso portfólio de soluções de IA, desenvolvido a partir de soluções em que nossos clientes confiam. Com essa base, nossas soluções permanecem consistentes, flexíveis e escaláveis.

O Red Hat AI pode ajudar as organizações a:

  • Adotar a IA e inovar rapidamente.
  • Reduzir as complexidades da entrega de soluções de IA.
  • Implantar em qualquer lugar.

Conheça o Red Hat AI 

Uma plataforma única e integrada de MLOps

O Red Hat AI inclui o Red Hat® OpenShift® AI: uma plataforma de IA para gerenciar ciclos de vida de inteligência artificial e machine learning em ambientes de nuvem híbrida e na edge.

Essa plataforma oferece suporte para:

  • Fluxos de trabalho colaborativos
  • Monitoramento
  • Aplicações de nuvem híbrida

Para quem busca operar modelos de IA preditiva e generativa em grande escala, o Red Hat OpenShift AI permite organizar e simplificar cargas de trabalho críticas com facilidade.

Mais informações sobre o Red Hat OpenShift AI 

Flexibilidade nas parcerias 

Nosso ecossistema de parceiros de IA não para de crescer. Diversos parceiros de tecnologia estão trabalhando com a Red Hat para obter a certificação de compatibilidade com o Red Hat AI. Tudo isso, para que você tenha liberdade de escolha.

Conheça nossos parceiros 

Blog post

Sua estratégia digital é soberana? Conheça a ferramenta Red Hat Sovereignty Readiness Assessment

Red Hat Sovereignty Readiness Assessment é uma ferramenta de avaliação self-service e online, que fornece uma base de referência clara e objetiva sobre o controle digital da sua organização em sete domínios críticos.

Teste as soluções Red Hat gratuitamente

Experimente as soluções Red Hat: ganhe experiência prática, prepare-se para exames de certificação e avalie a viabilidade das soluções para sua empresa em um ambiente real e sem gastar nada.

Leia mais

LLMs (Large Language Models): o que são e como funcionam?

LLMs são sistemas de IA treinados com volumes massivos de dados e técnicas de machine learning para compreender, gerar e traduzir textos de forma natural.

O que é inferência de IA?

A inferência de IA é quando um modelo de IA fornece uma resposta baseada em dados. É a etapa final de um processo complexo da tecnologia de machine learning.

O que são modelos fundamentais para IA?

Um modelo fundamental é um tipo de modelo de machine learning (aprendizado de máquina) treinado previamente para realizar diversas tarefas.

Inteligência artificial: conteúdo adicional

Artigos relacionados