Resumen
Con machine learning (aprendizaje automático) en el extremo de la red, nos referimos al proceso de ejecutar modelos de machine learning en un dispositivo del extremo de la red para recopilar, procesar y reconocer patrones dentro de conjuntos de datos sin procesar.
¿Qué es el machine learning en el extremo de la red?
Para explicar mejor el machine learning en el extremo de la red, comencemos desglosando los dos elementos que lo conforman: el machine learning y el edge computing.
- El machine learning es un subconjunto de la inteligencia artificial (IA) que puede realizar tareas perceptivas en una fracción del tiempo que le tomaría a un ser humano.
- El edge computing consiste en acercar físicamente los servicios informáticos al usuario o a la fuente de los datos. Estos servicios informáticos existen en lo que llamamos dispositivos del extremo de la red, computadoras que permiten recopilar y procesar en tiempo real los datos que no se han procesado, lo que da como resultado un análisis más rápido y confiable.
Con el machine learning en el extremo de la red, los modelos de esta tecnología pueden ejecutarse de manera local en los dispositivos del extremo, como sucede con el Internet de las cosas (IoT).
¿Por qué se prefiere el extremo de la red?
A medida que aumentan las expectativas de los clientes, también aumenta la demanda de capacidad de procesamiento rápida y segura.
Cada interacción entre la empresa y el cliente es ahora una combinación de tecnologías híbridas y puntos de contacto que requieren un fácil acceso a los dispositivos, los datos y las aplicaciones que impulsan nuevas experiencias y crean una experiencia de usuario positiva de principio a fin.
Tradicionalmente, este procesamiento se lleva a cabo mediante el transporte de conjuntos de datos a nubes distantes a través de redes que pueden tener problemas para operar a plena capacidad debido al recorrido extenso que deben realizar los datos entre los destinos. De esta forma, pueden surgir inconvenientes que van desde la latencia hasta las fallas de seguridad.
Con el edge computing, puede ubicar las aplicaciones impulsadas por la inteligencia artificial/machine learning físicamente más cerca de las fuentes de datos, como los sensores, las cámaras y los dispositivos móviles, para recopilar la información más rápido, identificar los patrones y, luego, iniciar las acciones sin depender de las redes tradicionales de la nube.
Cómo crear una estrategia para el extremo de la red
El edge computing es una parte fundamental del concepto de nube híbrida abierta que le permite lograr una experiencia uniforme en torno a las operaciones y las aplicaciones en toda su arquitectura por medio de una plataforma común y horizontal.
Si bien una estrategia de nube híbrida permite que las empresas ejecuten las mismas cargas de trabajo en sus propios centros de datos y en la infraestructura de nube pública (como Amazon Web Services, Microsoft Azure o Google Cloud), una estrategia para el extremo de la red es mucho más amplia, ya que permite que los entornos de nube lleguen a lugares que son demasiado remotos como para mantener una conectividad permanente con el centro de datos.
Por lo general, los sitios donde se da el edge computing no tienen personal de TI suficiente, o es muy limitado. Una buena solución es aquella que se puede gestionar con los mismos procesos y herramientas que la infraestructura centralizada y que, a la vez, puede funcionar de manera independiente sin estar conectada.
En términos generales, con las soluciones integrales de edge computing debe poder:
- Ejecutar un modelo de implementación uniforme desde la infraestructura principal hasta el extremo de la red
- Ofrecer opciones flexibles en materia de arquitectura para satisfacer las necesidades de gestión de datos y conectividad.
- Automatizar y gestionar las implementaciones y las actualizaciones de la infraestructura desde el centro de datos principal hasta los sitios de edge computing remotos.
- Preparar, actualizar y mantener las aplicaciones de software en toda la infraestructura, según sea necesario.
- Continuar las operaciones en los sitios remotos en el extremo de la red, incluso cuando la conectividad a Internet no sea confiable
- Incluir una plataforma de software sólida con capacidad de ajuste.
- Proteger los datos y la infraestructura en los entornos del extremo de la red que tengan problemas de seguridad.
Cómo crear una estrategia de aprendizaje automático
No existe una forma única de diseñar y poner en funcionamiento los modelos de machine learning, pero sí hay una necesidad constante de recopilar y preparar conjuntos de datos, desarrollar modelos en aplicaciones inteligentes y obtener ingresos con ellas. La puesta en marcha y la actualización de estas aplicaciones con funciones de machine learning integradas, conocidas como MLOps, requieren de la colaboración entre los analistas de datos, los desarrolladores, los ingenieros de machine learning, los equipos de operaciones de TI y los distintos grupos de tecnologías de DevOps.
Gracias a la aplicación de los principios de DevOps y GitOps, las empresas automatizan y simplifican la tarea repetitiva de integración de los modelos de machine learning en los procesos de desarrollo de software, la implementación en la producción, la supervisión, el reentrenamiento y la reimplementación para lograr predicciones más precisas de forma permanente.
Con Red Hat® OpenShift®, este proceso se puede dividir básicamente en cuatro pasos:
- Entrenamiento: los modelos de machine learning se entrenan en Jupyter Notebooks en Red Hat OpenShift.
- Automatización: Red Hat OpenShift Pipelines es una función de integración continua basada en eventos que permite empaquetar los modelos de machine learning como imágenes de contenedores de la siguiente manera:
Guarda los modelos listos para su implementación en una tienda de modelos.
Convierte los modelos guardados en imágenes de contenedores con la compilación de Red Hat OpenShift.
Prueba las imágenes del modelo organizado en contenedores para garantizar que sigan siendo útiles.
Almacena las imágenes del modelo organizado en contenedores en un registro de imágenes de contenedores internacional y privado, como Red Hat Quay, en el cual las imágenes se analizan para identificar los posibles problemas y así disminuir los riesgos de seguridad y la georreplicación.
- Implementación: la configuración declarativa gestionada por Red Hat OpenShift GitOps automatiza la implementación de los modelos de machine learning según sea necesario y en cualquier lugar.
- Supervisión: los modelos se supervisan para verificar su confiabilidad, velocidad, ajuste y otras características con las herramientas de un partner del ecosistema, y se actualizan con reentrenamiento y reimplementación, según sea necesario.
¿Por qué conviene elegir Red Hat para implementar la inteligencia artificial y el aprendizaje automático en el extremo de la red?
La inteligencia artificial y el aprendizaje automático han pasado a ser esenciales rápidamente para las empresas que buscan convertir sus datos en valor empresarial. Las soluciones de edge computing open source de Red Hat se enfocan en acelerar estas iniciativas empresariales brindando servicios que automatizan y simplifican el proceso de desarrollo de las aplicaciones inteligentes en la nube híbrida.
Red Hat reconoce que los analistas de datos suelen enfrentarse a dificultades en el diseño de los modelos de inteligencia artificial/machine learning por la falta de adecuación entre las herramientas que evolucionan rápidamente. A su vez, esto puede afectar la productividad y la colaboración entre sus desarrolladores de software, equipos de operaciones de TI y demás miembros.
Para sortear estos posibles obstáculos, los servicios de Red Hat OpenShift están diseñados para brindar soporte a los usuarios cuando crean, implementan y gestionan sus aplicaciones inteligentes de manera uniforme en los entornos de nube y los centros de datos.
La mayoría de las empresas podrían aprovechar mejor sus datos, pero están limitadas por sus herramientas y flujos de trabajo. Red Hat® OpenShift® Data Science proporciona un entorno de autoservicio compatible que permite a los analistas de datos perfeccionar los algoritmos y experimentar con el desarrollo, el entrenamiento y las pruebas de los modelos de aprendizaje automático.
El edge computing en OpenShift es útil en muchos sectores y puede ser una herramienta esencial para una variedad de tareas, desde la detección de fraudes, las cotizaciones de seguros automatizadas hasta la exploración de recursos naturales.