Visão geral
Edge machine learning refere-se ao processo de executar modelos de machine learning (ML) em um dispositivo de edge para coletar, processar e reconhecer padrões em coleções de dados brutos.
O que é machine learning na edge?
Para explicar melhor o que é machine learning na edge, vamos começar detalhando os dois componentes que o constituem: machine learning e edge computing.
- Machine learning é um subconjunto da inteligência artificial (IA) em que a IA é capaz de realizar tarefas perceptivas em uma fração do tempo que um ser humano levaria.
- Edge computing refere-se ao ato de aproximar fisicamente os serviços de computação do usuário ou da fonte dos dados. Esses serviços de computação existem no que chamamos de dispositivos de edge, um computador que permite a coleta e o processamento de dados brutos em tempo real, resultando em análises mais rápidas e confiáveis.
O machine learning na edge oferece a capacidade de executar modelos de machine learning localmente em dispositivos de edge, como a Internet das Coisas (IoT).
O que torna a edge melhor?
À medida que as expectativas dos clientes aumentam, a demanda por poder de processamento mais rápido e seguro também aumenta.
Cada interação entre empresa e cliente é agora uma combinação de tecnologias híbridas e pontos de contato que exigem acesso fácil a dispositivos, dados e aplicações, assim possibilitando novas experiências e criando experiências positivas de ponta a ponta ao usuário.
Normalmente, o processamento é realizado por meio de transferência de conjuntos de dados para nuvens distantes via redes que podem ter problemas para operar em capacidade total devido à longa viagem que os dados precisam fazer entre os destinos. Isso pode resultar em problemas que vão de latência a violações de segurança.
Com a edge computing, é possível colocar as aplicações baseadas em inteligência artificial/machine learning (IA/ML) fisicamente mais próximas de fontes de dados (como sensores, câmeras e dispositivos mobile) para coletar insights com mais rapidez, identificar padrões e iniciar ações sem depender das redes de nuvem tradicionais.
Como criar uma estratégia de edge computing
A edge computing é uma parte importante da nuvem híbrida aberta. Ela possibilita uma experiência consistente em aplicações e operações em toda a arquitetura por meio de uma plataforma horizontal comum.
Embora uma estratégia de nuvem híbrida permita que as empresas executem as mesmas cargas de trabalho nos próprios data centers e em uma infraestrutura de nuvem pública (como a Amazon Web Services, o Microsoft Azure ou o Google Cloud), uma estratégia de edge vai além disso, permitindo que os ambientes de nuvem alcancem locais remotos demais para manter conectividade contínua com o data center.
Como os locais de edge computing geralmente têm pouca ou nenhuma equipe de TI, uma solução de edge computing confiável é aquela que pode ser gerenciada usando as mesmas ferramentas e processos da infraestrutura centralizada, mas pode operar de maneira independente e desconectada.
Em geral, soluções de edge computing abrangentes precisam ser capazes de:
- Executar um modelo de implantação consistente do núcleo até a edge.
- Oferecer opções de arquitetura flexíveis para atender melhor às necessidades de conectividade e gerenciamento de dados.
- Automatizar e gerenciar implantações e atualizações de infraestrutura, desde o data center principal até os locais de edge remotos.
- Provisionar, atualizar e realizar a manutenção em escala de aplicações de software em toda a infraestrutura.
- Manter a operação em locais de edge remotos, mesmo quando a conexão com a Internet não for confiável.
- Incluir uma plataforma de software robusta e escalável vertical e horizontalmente.
- Proteger os dados e a infraestrutura em ambientes de edge arriscados.
Como criar uma estratégia de machine learning
Não existe apenas uma maneira de criar e operacionalizar modelos de ML, mas há uma necessidade constante de reunir e preparar conjuntos de dados, desenvolver aplicações inteligentes com base em modelos e gerar receita com essas aplicações. Para operacionalizar essas aplicações com recursos de ML integrados, conhecidos como MLOps, e mantê-las atualizadas, é necessário a colaboração entre cientistas de dados, desenvolvedores, engenheiros de ML e operadores de TI, além de várias tecnologias de DevOps.
Ao aplicar os princípios de DevOps e GitOps, as organizações automatizam e simplificam o processo iterativo de integrar modelos de ML aos processos de desenvolvimento de software, lançamento de produção, monitoramento, retreinamento e reimplantação para obter uma precisão contínua das previsões.
Com o Red Hat® OpenShift®, esse processo pode ser dividido em quatro etapas:
- Treinar: os modelos de ML são treinados em notebooks Jupyter no Red Hat OpenShift.
- Automatizar: o Red Hat OpenShift Pipelines é um recurso de integração contínua orientada a eventos que ajuda a empacotar modelos de ML como imagens de container ao:
Salvar os modelos prontos para implantação em um repositório de modelos.
Converter os modelos salvos em imagens de container com a versão do Red Hat OpenShift.
Testar as imagens do modelo em containers para garantir que elas ainda são funcionais.
Armazenar as imagens do modelo em containers em um registro de imagens de container global privado, como o Red Hat Quay, onde as imagens são analisadas para identificar possíveis problemas, mitigando os riscos à segurança e a replicação geográfica.
- Implantação: a configuração declarativa gerenciada pelo Red Hat OpenShift GitOps automatiza a implantação de modelos de ML em escala e em qualquer ambiente.
- Monitoramento: os modelos são monitorados quanto à confiabilidade, velocidade, escala etc. com as ferramentas de um de nossos parceiros do ecossistema e atualizados com retreinamento e reimplantação, conforme necessário.
Por que escolher a Red Hat para IA/ML na edge?
Inteligência artificial e o machine learning se tornaram rapidamente especialidades críticas para as empresas que buscam converter dados em valor de negócios. As soluções open source de edge computing da Red Hat têm como foco acelerar essas iniciativas de negócios oferecendo serviços que automatizam e simplificam o processo de desenvolvimento de aplicações inteligentes na nuvem híbrida.
A Red Hat reconhece que, conforme os cientistas de dados se esforçam para criar modelos de IA/ML, esses esforços costumam ser dificultados pela falta de alinhamento entre as ferramentas que evoluem rapidamente. Isso, por sua vez, pode afetar a produtividade e a colaboração entre equipes, desenvolvedores de software e operadores de TI.
Para evitar esses possíveis obstáculos, os serviços do Red Hat OpenShift foram criados para oferecer suporte aos usuários na hora de projetar, implantar e gerenciar aplicações inteligentes de maneira consistente em ambientes de nuvem e data centers.
Grande parte das empresas poderia fazer melhor uso dos dados, mas tem limitações por conta de suas ferramentas e fluxos de trabalho. O Red Hat® OpenShift® Data Science oferece um ambiente de autoatendimento com suporte que possibilita aos cientistas de dados refinar algoritmos e fazer experimentos em desenvolvimento, treinamento e teste de modelos de machine learning.
A edge computing no OpenShift é útil em vários setores e pode funcionar como uma ferramenta crítica para uma série de tarefas, como detecção de fraudes, automação de cotações de seguros e exploração de recursos naturais.