¿Qué es el machine learning en el extremo de la red?

Copiar URL

El machine learning (aprendizaje automático) en el extremo de la red se refiere al proceso de ejecución de modelos de machine learning en un dispositivo del extremo de la red para recopilar, procesar y reconocer patrones dentro de los conjuntos de datos sin procesar.

¿Qué es el machine learning en el extremo de la red?

Para explicar mejor el concepto de machine learning en el extremo de la red, comencemos desglosando los dos elementos que lo conforman: el machine learning y el edge computing.

  • El machine learning es un subconjunto de la inteligencia artificial, la cual puede realizar tareas perceptivas en una fracción del tiempo que le tomaría a un ser humano. 
  • El edge computing consiste en acercar físicamente los servicios informáticos al usuario o a la fuente de los datos. Estos servicios informáticos existen en lo que llamamos dispositivos del extremo de la red, una computadora que permite recopilar y procesar en tiempo real los datos que no se han procesado, lo cual resulta en un análisis más rápido y confiable. 

El machine learning en el extremo de la red brinda la capacidad de ejecutar modelos de machine learning a nivel local en los dispositivos de ese entorno, como el Internet de las cosas (IoT).

A medida que aumentan las expectativas de los clientes, también aumenta la demanda de capacidad de procesamiento rápida y segura. 

Cada interacción entre la empresa y el cliente es ahora una combinación de tecnologías híbridas y puntos de contacto que requieren un fácil acceso a los dispositivos, los datos y las aplicaciones que impulsan nuevas experiencias y crean una experiencia de usuario positiva de principio a fin.

Tradicionalmente, este procesamiento se lleva a cabo mediante el transporte de conjuntos de datos a nubes distantes a través de redes, las cuales pueden tener problemas para operar a plena capacidad debido al recorrido extenso que deben realizar los datos entre los destinos. De esta forma, pueden surgir inconvenientes que van desde la latencia hasta los fallos de seguridad.

Con el edge computing, puedes acercar físicamente las aplicaciones impulsadas por la inteligencia artificial/machine learning físicamente a las fuentes de datos, como los sensores, las cámaras y los dispositivos móviles, para recopilar la información más rápido, identificar los patrones y, luego, iniciar las acciones sin depender de las redes tradicionales de la nube.

Descubre la manera en que los distintos sectores se benefician del extremo de la red

Recursos de Red Hat

El edge computing es una parte fundamental del concepto de nube híbrida abierta que te permite lograr una experiencia uniforme en torno a las operaciones y las aplicaciones en toda tu arquitectura por medio de una plataforma común y horizontal. 

Si bien una estrategia de nube híbrida permite que las empresas ejecuten las mismas cargas de trabajo en sus propios centros de datos y en la infraestructura de nube pública (como Amazon Web Services, Microsoft Azure o Google Cloud), una estrategia de edge computing es mucho más amplia, ya que permite que los entornos de nube lleguen a ubicaciones que se encuentran muy alejadas como para mantener una conectividad permanente con el centro de datos.

Por lo general, los sitios donde se da el edge computing no tienen personal de TI suficiente, o es muy limitado. Una buena solución es aquella que se puede gestionar con los mismos procesos y herramientas que la infraestructura concentrada y que, a la vez, puede funcionar de manera independiente sin estar conectada.

En términos generales, con las soluciones integrales de edge computing debe poder:

  • Ejecutar un modelo de implementación uniforme desde la infraestructura principal hasta el extremo de la red
  • Ofrecer opciones flexibles en materia de arquitectura para satisfacer las necesidades de gestión de datos y conectividad
  • Automatizar y gestionar las implementaciones y las actualizaciones de la infraestructura desde el centro de datos principal hasta los sitios remotos del extremo de la red
  • Preparar, actualizar y mantener las aplicaciones de software en toda la infraestructura, según sea necesario
  • Continuar las operaciones en los sitios remotos del extremo de la red, incluso cuando la conectividad a Internet no sea confiable
  • Incluir una plataforma de software sólida con capacidad de ajuste
  • Proteger los datos y la infraestructura en los entornos del extremo de la red que tengan problemas de seguridad
Descubre los beneficios del edge computing con la nube híbrida

No existe una forma única de diseñar y poner en funcionamiento los modelos de machine learning, pero sí hay una necesidad constante de recopilar y preparar conjuntos de datos, desarrollar modelos en aplicaciones inteligentes y obtener ingresos de esas aplicaciones. La puesta en marcha de estas aplicaciones con funciones de machine learning integradas, conocidas como MLOps, y su actualización requieren de la colaboración entre los analistas de datos, los desarrolladores, los ingenieros de machine learning, los equipos de operaciones de TI y los distintos grupos de tecnologías de DevOps

Al aplicar los principios de DevOps y GitOps, las empresas automatizan y simplifican el proceso repetitivo de integración de los modelos de machine learning en los procesos de desarrollo de software, la implementación de la producción, la supervisión, el entrenamiento nuevo y la reimplementación para lograr predicciones más precisas de forma permanente. 

Con Red Hat® OpenShift®, este proceso se puede dividir básicamente en cuatro pasos:

  1. Entrenamiento: se entrenan los modelos de machine learning en notebooks de Jupyter en Red Hat OpenShift.
  2. Automatización: Red Hat OpenShift Pipelines es una función de integración permanente basada en eventos que ayuda a empaquetar los modelos de machine learning como imágenes de contenedores de la siguiente manera:

    Guarda los modelos listos para su implementación en un almacén de modelos.
    Convierte los modelos guardados en imágenes de contenedores con la compilación de Red Hat OpenShift.
    Prueba las imágenes del modelo en contenedores para garantizar que sigan siendo útiles.
    Almacena las imágenes del modelo en contenedores en un registro global y privado de imágenes de contenedores como Red Hat Quay, donde las imágenes se analizan para identificar los posibles problemas y, así, reducir los riesgos de seguridad y la georreplicación.
     
  3. Implementación: a través de la configuración declarativa gestionada por Red Hat OpenShift GitOps, se automatiza la implementación de los modelos de machine learning según sea necesario y en cualquier lugar.
  4. Supervisión: se controlan los modelos para verificar su confiabilidad, velocidad, ajuste, etc. con las herramientas de uno de nuestros partners del ecosistema, y se actualizan con reentrenamiento y reimplementación, según sea necesario.

La inteligencia artificial y el machine learning se han convertido rápidamente en elementos esenciales de las empresas que buscan convertir sus datos en valor empresarial. Las soluciones de edge computing open source de Red Hat tienen como objetivo acelerar estas iniciativas empresariales y, para ello, brindan servicios que automatizan y simplifican el proceso de desarrollo de las aplicaciones inteligentes en la nube híbrida. 

Red Hat reconoce que cuando los analistas de datos diseñan sus modelos de inteligencia artificial/machine learning, suelen complicarse por la falta de alineación entre las herramientas que evolucionan rápido. A su vez, esto puede afectar la productividad y la colaboración entre sus desarrolladores de software, equipos de operaciones de TI y demás miembros. 

Para sortear estos posibles obstáculos, los servicios de Red Hat OpenShift están diseñados para brindar soporte a los usuarios cuando crean, implementan y gestionan sus aplicaciones inteligentes de manera uniforme en los entornos de nube y los centros de datos.

La mayoría de las empresas podrían aprovechar mejor sus datos, pero están limitadas por sus herramientas y flujos de trabajo. Red Hat® OpenShift® Data Science proporciona un entorno de autoservicio compatible que permite que los analistas de datos perfeccionen los algoritmos y experimenten con el desarrollo, el entrenamiento y las pruebas de los modelos de machine learning.

Hub

Blogs de Red Hat

Aquí encuentras la información más reciente sobre nuestros clientes, partners y comunidades open source.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

Soluciones de edge computing para decisiones inmediatas

Conozca las soluciones que permiten utilizar el análisis de datos en tiempo real y la inteligencia artificial para tomar decisiones inteligentes en el extremo de la red con mayor rapidez.

Gestión y automatización de las aplicaciones en el extremo de la red

Cuando el edge computing se utiliza de manera eficaz, permite reducir los problemas de conectividad y el uso del ancho de banda, y mejorar los tiempos de respuesta. Obtenga más información sobre Red Hat en el extremo de la red

Organización de la tecnología operativa en la fabricación

La organización de la tecnología operativa incorpora las prácticas recomendadas y las innovaciones más importantes en materia de tecnología de la información (TI) empresarial.

Edge computing: lecturas recomendadas