Resumen
El machine learning (aprendizaje automático) en el extremo de la red se refiere al proceso de ejecución de modelos de machine learning en un dispositivo del extremo de la red para recopilar, procesar y reconocer patrones dentro de los conjuntos de datos sin procesar.
¿Qué es el machine learning en el extremo de la red?
Para explicar mejor el concepto de machine learning en el extremo de la red, comencemos desglosando los dos elementos que lo conforman: el machine learning y el edge computing.
- El machine learning es un subconjunto de la inteligencia artificial, la cual puede realizar tareas perceptivas en una fracción del tiempo que le tomaría a un ser humano.
- El edge computing consiste en acercar físicamente los servicios informáticos al usuario o a la fuente de los datos. Estos servicios informáticos existen en lo que llamamos dispositivos del extremo de la red, una computadora que permite recopilar y procesar en tiempo real los datos que no se han procesado, lo cual resulta en un análisis más rápido y confiable.
El machine learning en el extremo de la red brinda la capacidad de ejecutar modelos de machine learning a nivel local en los dispositivos de ese entorno, como el Internet de las cosas (IoT).
La ventaja del extremo de la red
A medida que aumentan las expectativas de los clientes, también aumenta la demanda de capacidad de procesamiento rápida y segura.
Cada interacción entre la empresa y el cliente es ahora una combinación de tecnologías híbridas y puntos de contacto que requieren un fácil acceso a los dispositivos, los datos y las aplicaciones que impulsan nuevas experiencias y crean una experiencia de usuario positiva de principio a fin.
Tradicionalmente, este procesamiento se lleva a cabo mediante el transporte de conjuntos de datos a nubes distantes a través de redes, las cuales pueden tener problemas para operar a plena capacidad debido al recorrido extenso que deben realizar los datos entre los destinos. De esta forma, pueden surgir inconvenientes que van desde la latencia hasta los fallos de seguridad.
Con el edge computing, puedes acercar físicamente las aplicaciones impulsadas por la inteligencia artificial/machine learning físicamente a las fuentes de datos, como los sensores, las cámaras y los dispositivos móviles, para recopilar la información más rápido, identificar los patrones y, luego, iniciar las acciones sin depender de las redes tradicionales de la nube.
Recursos de Red Hat
Creación de una estrategia de edge computing
El edge computing es una parte fundamental del concepto de nube híbrida abierta que te permite lograr una experiencia uniforme en torno a las operaciones y las aplicaciones en toda tu arquitectura por medio de una plataforma común y horizontal.
Si bien una estrategia de nube híbrida permite que las empresas ejecuten las mismas cargas de trabajo en sus propios centros de datos y en la infraestructura de nube pública (como Amazon Web Services, Microsoft Azure o Google Cloud), una estrategia de edge computing es mucho más amplia, ya que permite que los entornos de nube lleguen a ubicaciones que se encuentran muy alejadas como para mantener una conectividad permanente con el centro de datos.
Por lo general, los sitios donde se da el edge computing no tienen personal de TI suficiente, o es muy limitado. Una buena solución es aquella que se puede gestionar con los mismos procesos y herramientas que la infraestructura concentrada y que, a la vez, puede funcionar de manera independiente sin estar conectada.
En términos generales, con las soluciones integrales de edge computing debe poder:
- Ejecutar un modelo de implementación uniforme desde la infraestructura principal hasta el extremo de la red
- Ofrecer opciones flexibles en materia de arquitectura para satisfacer las necesidades de gestión de datos y conectividad
- Automatizar y gestionar las implementaciones y las actualizaciones de la infraestructura desde el centro de datos principal hasta los sitios remotos del extremo de la red
- Preparar, actualizar y mantener las aplicaciones de software en toda la infraestructura, según sea necesario
- Continuar las operaciones en los sitios remotos del extremo de la red, incluso cuando la conectividad a Internet no sea confiable
- Incluir una plataforma de software sólida con capacidad de ajuste
- Proteger los datos y la infraestructura en los entornos del extremo de la red que tengan problemas de seguridad
Creación de una estrategia de machine learning
No existe una forma única de diseñar y poner en funcionamiento los modelos de machine learning, pero sí hay una necesidad constante de recopilar y preparar conjuntos de datos, desarrollar modelos en aplicaciones inteligentes y obtener ingresos de esas aplicaciones. La puesta en marcha de estas aplicaciones con funciones de machine learning integradas, conocidas como MLOps, y su actualización requieren de la colaboración entre los analistas de datos, los desarrolladores, los ingenieros de machine learning, los equipos de operaciones de TI y los distintos grupos de tecnologías de DevOps.
Al aplicar los principios de DevOps y GitOps, las empresas automatizan y simplifican el proceso repetitivo de integración de los modelos de machine learning en los procesos de desarrollo de software, la implementación de la producción, la supervisión, el entrenamiento nuevo y la reimplementación para lograr predicciones más precisas de forma permanente.
Con Red Hat® OpenShift®, este proceso se puede dividir básicamente en cuatro pasos:
- Entrenamiento: se entrenan los modelos de machine learning en notebooks de Jupyter en Red Hat OpenShift.
- Automatización: Red Hat OpenShift Pipelines es una función de integración permanente basada en eventos que ayuda a empaquetar los modelos de machine learning como imágenes de contenedores de la siguiente manera:
Guarda los modelos listos para su implementación en un almacén de modelos.
Convierte los modelos guardados en imágenes de contenedores con la compilación de Red Hat OpenShift.
Prueba las imágenes del modelo en contenedores para garantizar que sigan siendo útiles.
Almacena las imágenes del modelo en contenedores en un registro global y privado de imágenes de contenedores como Red Hat Quay, donde las imágenes se analizan para identificar los posibles problemas y, así, reducir los riesgos de seguridad y la georreplicación.
- Implementación: a través de la configuración declarativa gestionada por Red Hat OpenShift GitOps, se automatiza la implementación de los modelos de machine learning según sea necesario y en cualquier lugar.
- Supervisión: se controlan los modelos para verificar su confiabilidad, velocidad, ajuste, etc. con las herramientas de uno de nuestros partners del ecosistema, y se actualizan con reentrenamiento y reimplementación, según sea necesario.
Red Hat es ideal para implementar IA/ML en el extremo de la red
La inteligencia artificial y el machine learning se han convertido rápidamente en elementos esenciales de las empresas que buscan convertir sus datos en valor empresarial. Las soluciones de edge computing open source de Red Hat tienen como objetivo acelerar estas iniciativas empresariales y, para ello, brindan servicios que automatizan y simplifican el proceso de desarrollo de las aplicaciones inteligentes en la nube híbrida.
Red Hat reconoce que cuando los analistas de datos diseñan sus modelos de inteligencia artificial/machine learning, suelen complicarse por la falta de alineación entre las herramientas que evolucionan rápido. A su vez, esto puede afectar la productividad y la colaboración entre sus desarrolladores de software, equipos de operaciones de TI y demás miembros.
Para sortear estos posibles obstáculos, los servicios de Red Hat OpenShift están diseñados para brindar soporte a los usuarios cuando crean, implementan y gestionan sus aplicaciones inteligentes de manera uniforme en los entornos de nube y los centros de datos.
La mayoría de las empresas podrían aprovechar mejor sus datos, pero están limitadas por sus herramientas y flujos de trabajo. Red Hat® OpenShift® Data Science proporciona un entorno de autoservicio compatible que permite que los analistas de datos perfeccionen los algoritmos y experimenten con el desarrollo, el entrenamiento y las pruebas de los modelos de machine learning.
Blogs de Red Hat
Aquí encuentras la información más reciente sobre nuestros clientes, partners y comunidades open source.