¿Qué es la inteligencia artificial y el aprendizaje automático en Red Hat OpenShift?
La inteligencia artificial y el aprendizaje automático en Red Hat® OpenShift® utilizan la versión autogestionada de OpenShift o sus servicios de nube para agilizar los flujos de trabajo de la inteligencia artificial y el aprendizaje automático y la distribución de las aplicaciones que usan la IA.
MLOps con Red Hat OpenShift
Red Hat OpenShift incluye funciones clave para habilitar operaciones de aprendizaje automático (MLOps) de manera uniforme en los centros de datos, el cloud computing público y el edge computing.
Al aplicar los principios de DevOps y GitOps, las organizaciones automatizan y simplifican el proceso repetitivo de integración de modelos de aprendizaje automático en los procesos de desarrollo de software, la implementación de la producción, la supervisión, el reentrenamiento y la reimplementación para lograr una precisión continua de predicciones.
¿Qué es el ciclo de vida del aprendizaje automático?
Se trata de un proceso de varias etapas que permite aprovechar las grandes cantidades de datos de diferentes tipos, las numerosas funciones informáticas y las herramientas open source de aprendizaje automático para diseñar las aplicaciones inteligentes.
En general, hay cuatro pasos en el ciclo de vida:
- La recopilación y la preparación de los datos, para garantizar que no falte ninguno y que todos sean de buena calidad
- El desarrollo de modelos, lo cual implica el entrenamiento, las pruebas y la selección del modelo que realice las predicciones más precisas
- La integración de los modelos al proceso de desarrollo de las aplicaciones, y la realización de inferencias
- La gestión y la supervisión de los modelos, para medir el rendimiento de la empresa y abordar los posibles desajustes de los datos en la producción
Adquisición y preparación de datos
Creación de modelos de aprendizaje automático
Implementación de modelos de aprendizaje automático
Supervisión y gestión de modelos de aprendizaje automático
Principales desafíos para los analistas de datos
Los analistas de datos se encargan principalmente de crear los modelos de aprendizaje automático y de seleccionar el que garantice mayor precisión en las predicciones.
Los desafíos más importantes que enfrentan son:
- La selección y la implementación de las herramientas de aprendizaje automático adecuadas (p. ej. Apache Spark, Jupyter notebook TensorFlow, PyTorch, etc.)
- El tiempo que supone entrenar, probar, seleccionar y volver a entrenar el modelo de ML que ofrece la mayor precisión en sus predicciones, y todas las complejidades asociadas
- La ejecución lenta de los procesos para crear modelos y realizar inferencias debido a la falta de sistemas de hardware ágiles
- La dependencia permanente del equipo de operaciones de TI para implementar y gestionar la infraestructura
- La colaboración con los ingenieros de datos y los desarrolladores de software para garantizar el buen estado de los datos que ingresan al sistema y la correcta implementación del modelo de ML en los procesos de desarrollo de las aplicaciones
Ventajas del uso de los contenedores y Kubernetes en las iniciativas de aprendizaje automático
Tanto los contenedores como Kubernetes son tecnologías fundamentales para acelerar el ciclo de vida del ML, ya que ofrecen a los analistas de datos la agilidad, la flexibilidad, la portabilidad y la capacidad de ajuste que necesitan para entrenar, probar e implementar los modelos de ML.
Red Hat® OpenShift® es la plataforma de nube híbrida de Kubernetes y contenedores líder del sector. Gracias a que incorpora las funciones de DevOps (como OpenShift Pipelines, OpenShift GitOpsy Red Hat Quay) y la integración con las unidades de agilización de las tareas por medio del hardware, los analistas de datos y los desarrolladores de software pueden trabajar mejor en conjunto. Además, acelera la implementación de las aplicaciones inteligentes en la nube híbrida (el centro de datos, el extremo de la red y las nubes públicas).
Red Hat OpenShift Data Science
Red Hat OpenShift Data Science es un servicio de nube gestionado para los analistas de datos y los desarrolladores de aplicaciones inteligentes. Ofrece un entorno de pruebas (sandbox) totalmente compatible que permite desarrollar, entrenar y probar rápidamente modelos de aprendizaje automático (ML) en la nube pública antes de implementarlos en la producción.
Ventajas de Red Hat OpenShift para las iniciativas de aprendizaje automático
Mejora el trabajo de los analistas de datos
- Les ofrece una experiencia uniforme y de autoservicio en toda la nube híbrida.
- Les brinda la flexibilidad y la portabilidad para que elijan las herramientas de ML organizadas en contenedores que desean utilizar, lo cual les permitirá diseñar, ajustar, replicar y compartir los modelos rápidamente.
- Les permite utilizar las herramientas más relevantes de ML mediante los operadores de Kubernetes certificados de Red Hat, tanto para nuestro servicio de nube de IA como para la opción autogestionada.
- Elimina la dependencia del equipo de TI para preparar la infraestructura donde se llevarán a cabo las tareas repetitivas de creación de modelos de ML, las cuales consumen muchos recursos informáticos.
- Evita la dependencia de un solo proveedor de nube y de su cartera de herramientas de ML.
- Se integra directamente con las herramientas de CI/CD para agilizar la implementación constante de los modelos de ML, según sea necesario.
Agiliza las tareas de creación de modelos de ML que consumen muchos recursos informáticos
OpenShift se integra a las unidades conocidas para la agilización de las tareas por medio del hardware, como las unidades de procesamiento gráfico (GPU) de NVIDIA mediante el GPU Operator certificado por Red Hat. Esto le permite cumplir fácilmente con los requisitos de uso intensivo de los recursos informáticos y seleccionar el modelo que ofrezca las predicciones más precisas, así como las mejores inferencias de ML, a medida que recibe datos nuevos en la producción.
Desarrolla aplicaciones inteligentes
Las funciones de DevOps integradas de OpenShift permiten que las MLOps aceleren la distribución de aplicaciones impulsadas por la inteligencia artificial y simplifique el proceso repetitivo de la integración de modelos de aprendizaje automático y la reimplementación continua para lograr precisión en las predicciones.
La implementación de las funciones de automatización de DevOps de OpenShift en el ciclo de vida del aprendizaje automático posibilita la colaboración entre los analistas de datos, los desarrolladores de software y los equipos de operaciones de TI para integrar rápidamente los modelos de ML al desarrollo de las aplicaciones inteligentes. Esto no solo ayuda a aumentar la productividad, sino también a simplificar la gestión del ciclo de vida de estas aplicaciones, las cuales utilizan la tecnología de aprendizaje automático.
- Aproveche el registro de imágenes de contenedores de los modelos con OpenShift Build.
- Desarrolle permanentemente aplicaciones inteligentes impulsadas por los modelos de ML con OpenShift Pipelines.
- Automatice la implementación continua de las aplicaciones inteligentes impulsadas por los modelos de ML con OpenShift GitOps.
- Utilice un repositorio de imágenes para crear versiones de los microservicios y de las imágenes de contenedores de los modelos con Red Hat Quay.
Principales casos prácticos para el aprendizaje automático en Red Hat OpenShift
Las empresas de diversos sectores utilizan OpenShift para desarrollar aplicaciones inteligentes en la nube híbrida, lo cual les permite agilizar las iniciativas empresariales más importantes. Algunos ejemplos de casos prácticos son la detección de fraudes, los diagnósticos de salud basados en los datos, los vehículos conectados, la exploración de hidrocarburos, las cotizaciones de seguros automatizadas y el procesamiento de los reclamos.
Uso de Red Hat Data Services para la gestión de los datos en el ciclo de vida del aprendizaje automático
Red Hat Data Services se diseñó para abordar los requisitos de almacenamiento en petabytes en el ciclo de vida del aprendizaje automático, desde el ingreso y la preparación de los datos, hasta la creación de los modelos de ML y la etapa de inferencias. Su cartera de productos incluye Red Hat Ceph Storage, un sistema open source de almacenamiento definido por el software que ofrece soporte integral para el almacenamiento de archivos, bloques y objetos de S3, y brinda una gran capacidad de ajuste en el hardware básico del sector.
Por ejemplo, puede incorporar el almacenamiento flexible de Ceph a la aplicación en contenedores Jupyter Notebook en OpenShift a través de S3 o de los volúmenes permanentes.
Casos de éxito
Turkcell, el operador de telefonía móvil líder en Turquía, implementó Red Hat OpenShift como la base para sus cargas de trabajo de aplicaciones que utilizan la IA. Gracias a OpenShift, creó una infraestructura receptiva para ofrecer aplicaciones de inteligencia artificial innovadoras más rápido, lo cual redujo los tiempos de aprovisionamiento de meses a segundos. Esto redujo los costos de desarrollo y operaciones de la IA en un 70%.
Royal Bank of Canada y su instituto de investigación de inteligencia artificial Borealis AI se asociaron con NVIDIA y Red Hat para desarrollar una nueva plataforma informática de inteligencia artificial diseñada para transformar la experiencia bancaria del cliente y ayudar a mantenerse al día con los rápidos cambios tecnológicos y las expectativas cambiantes de los clientes.
Uso del proyecto Open Data Hub para diseñar una plataforma integral de aprendizaje automático

El proyecto Open Data Hub es una arquitectura funcional basada en Red Hat OpenShift, Red Hat Ceph Storage, Red Hat AMQ Streams y otros proyectos open source upstream que permite diseñar una plataforma abierta de aprendizaje automático con las herramientas necesarias.
IA preparada para las empresas
El potencial combinado de Red Hat OpenShift y el conjunto de sistemas de software NVIDIA AI Enterprise que se ejecuta en sistemas certificados por NVIDIA ofrece una plataforma con capacidad de ajuste para acelerar una amplia gama de casos de uso de IA. Esta plataforma contiene tecnologías clave de NVIDIA y Red Hat para implementar, gestionar y expandir las cargas de trabajo de IA de forma segura y uniforme en la nube híbrida, en servidores dedicados (bare metal) o entornos virtualizados.
Ecosistema de partners de IA/ML de Red Hat
Algunos casos de uso de IA/ML lograron grandes cambios en la salud, los servicios financieros, las telecomunicaciones, la industria automotriz y otros sectores. Red Hat creó un sólido ecosistema de partners que ofrece soluciones integrales para crear, implementar y gestionar los modelos de aprendizaje profundo y aprendizaje automático para las aplicaciones que trabajan con inteligencia artificial.