Secciones

El aprendizaje profundo

Copiar URL

Se conoce como aprendizaje profundo a aquella técnica de inteligencia artificial que consiste en enseñar a las computadoras a procesar los datos mediante algoritmos inspirados en el cerebro humano. 

En el aprendizaje profundo, se utiliza la inteligencia artificial y el aprendizaje automático (IA/ML) para que los analistas de datos puedan recopilar, analizar e interpretar enormes cantidades de datos. Este proceso, también conocido como aprendizaje neuronal profundo o redes neuronales profundas, consiste en que las computadoras adquieran el aprendizaje a través de la observación, de manera similar a las personas. 

El cerebro humano tiene muchas neuronas interconectadas que actúan como mensajeras cuando se procesa la información (o los datos). Las neuronas utilizan impulsos eléctricos y señales químicas para comunicarse entre sí y transmitir la información entre las distintas áreas del cerebro. 

Las redes neuronales artificiales (ANN) constituyen la arquitectura subyacente del aprendizaje profundo y se basan en este fenómeno biológico, pero se forman con neuronas artificiales que se crean a partir de módulos de software denominados nodos. Los nodos utilizan cálculos matemáticos, a diferencia de las señales químicas que se usan en el cerebro, para comunicar y transmitir la información. Esta red neuronal simulada (SNN) procesa los datos agrupándolos en clústeres y realizando predicciones.

Piense en el aprendizaje profundo como si fuera una especie de diagrama de flujo que comienza con una capa de entrada y termina con una de salida. Entre las dos, se encuentran las "capas ocultas" en las que se procesa la información en distintos niveles, y se ajusta y adapta el comportamiento a medida que se reciben datos nuevos de forma permanente. Los modelos de aprendizaje profundo pueden tener cientos de capas ocultas, y cada una de ellas cumple una función en el descubrimiento de las relaciones y los patrones dentro del conjunto de datos. 

La capa de entrada está compuesta por varios nodos: los datos se incorporan al modelo y se categorizan según corresponda antes de continuar con el proceso. La ruta de los datos a través de las capas se basa en los cálculos de cada nodo. Los datos atraviesan cada una de las capas, y se recopilan conclusiones durante el proceso, las cuales acabarán por convertirse en la capa de salida o el análisis final.

Las aplicaciones que utilizan el aprendizaje profundo ya están integradas en la vida diaria y se utilizan en diferentes sectores. En la actualidad, muchas herramientas de IA se basan en la IA generativa, la cual es posible gracias a esta técnica.

Sus casos prácticos evolucionan constantemente, pero podemos destacar tres de los más conocidos en la actualidad: la visión artificial, el reconocimiento de voz y el procesamiento del lenguaje natural (NLP). 

  • Visión artificial: las computadoras utilizan las técnicas de aprendizaje profundo para comprender las imágenes como lo hacemos nosotros, lo cual incluye la moderación automatizada del contenido, el reconocimiento facial y la clasificación de imágenes. 
  • Reconocimiento de voz: se utilizan los modelos de aprendizaje profundo para analizar el tono, el lenguaje y el acento. No solo es útil para mejorar la experiencia de los clientes, sino también para aumentar la accesibilidad cuando se requiere la transcripción en tiempo real.
  • Procesamiento del lenguaje natural (NLP): las computadoras utilizan los algoritmos del aprendizaje profundo para analizar y recopilar información de los datos y los documentos de texto. Es útil para resumir documentos extensos, ordenar frases clave que expresen opiniones (por ejemplo, comentarios positivos o negativos) y generar información valiosa para los asistentes virtuales automatizados y los chatbots. El NLP es un ámbito más amplio que abarca el desarrollo y la aplicación de modelos de lenguaje de gran tamaño (LLM) para entender y generar lenguaje humano.
     

Estos son algunos ejemplos de los usos de los principios del aprendizaje profundo en los distintos sectores:

  • Servicio al cliente: los chatbots, los asistentes virtuales y los portales de servicio al cliente a través de llamadas telefónicas utilizan herramientas como el reconocimiento de voz. 
  • Servicios financieros: el análisis predictivo es la base de la negociación algorítmica de acciones, permite evaluar los riesgos empresariales para la aprobación de los préstamos, detectar fraudes y gestionar las carteras de crédito e inversiones.
  • Atención médica: gracias a la digitalización de los registros de salud, los especialistas en diagnóstico por imágenes pueden usar las aplicaciones de reconocimiento de imagen que aprenden a detectar automáticamente las señales de alerta que podrían indicar un diagnóstico determinado.Conozca el caso de HCA Healthcare, donde se utiliza el análisis predictivo para establecer un enfoque digital estandarizado para la detección de la septicemia. 
  • Medios de comunicación y entretenimiento: el aprendizaje profundo se utiliza para realizar un seguimiento de la actividad de los usuarios y brindarles recomendaciones personalizadas, desde las compras en línea hasta la transmisión de contenido multimedia.
  • Automatización industrial: en las fábricas y los depósitos, las aplicaciones de aprendizaje profundo pueden detectar automáticamente cuando una persona o un objeto se encuentra demasiado cerca de una máquina, lo cual podría poner en riesgo su seguridad. También son útiles para el control de calidad y el mantenimiento predictivo. 
  • Vehículos autónomos: los investigadores del sector automotriz utilizan el aprendizaje profundo para entrenar a los vehículos en la detección de objetos o personas, como las señales de pare, los semáforos, los pasos peatonales y los peatones.
  • Fuerzas de seguridad: el reconocimiento de voz, la visión artificial y el procesamiento del lenguaje natural (NLP) permiten ahorrar tiempo y recursos en el análisis de grandes cantidades de datos. 
  • Sector aeroespacial y militar: las entidades que controlan grandes áreas geográficas pueden utilizar el aprendizaje profundo para detectar objetos, identificar las áreas de interés a la distancia y verificar las zonas seguras o inseguras para las tropas. 

IBM y Red Hat trabajaron juntos para crear Red Hat® Ansible® Lightspeed with IBM watsonx Code Assistant, un servicio de IA generativa que permite a los desarrolladores generar contenido de Ansible con mayor eficiencia.

El aprendizaje profundo es una clase de aprendizaje automático especializado y se diferencia por el tipo de datos con los que trabaja y los métodos que utiliza.

Los algoritmos clásicos del aprendizaje automático requieren cierto grado de intervención humana para procesar los conjuntos de datos antes de incorporarlos al modelo. Es decir que se definen y etiquetan funciones específicas a partir de los datos de entrada y luego se organizan en tablas antes de incorporarlos al modelo de aprendizaje automático. Por el contrario, los algoritmos de aprendizaje profundo no necesitan ese procesamiento previo y pueden comprender los datos no estructurados, como los documentos de texto, las imágenes de datos de píxel o los archivos de datos de audio. 

Es preferible utilizar el aprendizaje profundo en lugar del automático clásico en los casos en los que haya una enorme cantidad de datos, no se disponga de suficiente conocimiento previo sobre el tema o se trate de una tarea compleja que lleve mucho tiempo.

Sabemos que el aprendizaje profundo utiliza una estructura de nodos que se comunican entre sí mediante una red neuronal artificial. Para crear una ANN, se deben incorporar los cálculos y los parámetros al modelo junto con los datos, y se deben tomar precauciones para garantizar que los cálculos tengan en cuenta el sesgo y las varianzas. 

En el contexto del aprendizaje automático, el sesgo hace referencia a la medida en la que el modelo realiza presunciones o generalizaciones sobre los datos para que la función objetivo sea más fácil de aprender. Si el sesgo es alto, el modelo es demasiado simple y crea atajos al procesar la información. 

La varianza es la medida de la distancia que separa cada dato de la media, o la medida estadística de la dispersión entre las cifras de un conjunto de datos. Contrariamente a lo que sucede con el sesgo, la varianza se refiere a qué tan sensible es un modelo a los datos de entrenamiento. La varianza (o sensibilidad) alta significa que el modelo les presta demasiada atención a los detalles y pasa por alto los patrones subyacentes del conjunto de datos. 

En el aprendizaje supervisado, cuando la varianza es muy alta y el sesgo es muy bajo, se habla de sobreajuste. Cuando el sesgo es alto y la varianza es baja, se le llama subajuste. Puede ser difícil llegar al ajuste perfecto, conocido como el equilibrio entre el sesgo y la varianza. 

Los parámetros definen los límites, los cuales son fundamentales para comprender la enorme cantidad de datos que deben procesar los algoritmos del aprendizaje profundo. Esto significa que, generalmente, se pueden corregir los sobreajustes y subajustes utilizando menos o más parámetros, según corresponda. 

Consideración del sesgo relacionado con las personas

Si un modelo de aprendizaje profundo se entrena con datos sesgados o datos que no brindan una representación precisa de la población, se puede obtener un resultado erróneo. Desafortunadamente, los prejuicios humanos suelen transferirse a la inteligencia artificial, lo cual implica el riesgo de que se creen algoritmos discriminatorios y resultados sesgados. 

A medida que las empresas aprovechan la IA para mejorar la productividad y el rendimiento, es fundamental que se implementen estrategias para minimizar el sesgo. El primer paso es la implementación de procesos inclusivos de diseño y una mayor consciencia de la representación de la diversidad en los datos recopilados. 

La caja negra

El término "caja negra" hace referencia a los programas de IA que ejecutan una tarea dentro de la red neuronal y no muestran su trabajo, lo cual implica que nadie puede explicar con exactitud cómo se generó un resultado en particular, ni siquiera los analistas de datos ni los ingenieros que crearon el algoritmo. La falta de interpretación de los modelos de caja negra puede generar consecuencias dañinas cuando se utilizan para la toma de decisiones que conllevan grandes riesgos, en especial en los sectores de atención de la salud, justicia penal y finanzas. 

Los modelos de aprendizaje profundo pueden llevar a cabo tareas informáticas más complejas sin intervención humana, pero esto implica que necesitan más potencia de procesamiento, una infraestructura adecuada y conjuntos más grandes de datos para el entrenamiento. El cloud computing permite que los equipos accedan simultáneamente a varios procesadores, como los clústeres de unidades gráficas de procesamiento (GPU) y de unidades centrales de procesamiento (CPU), lo cual crea el entorno ideal para que se ejecuten las operaciones matemáticas complejas.

Cuando los equipos de desarrollo diseñan, desarrollan y entrenan los modelos de aprendizaje profundo en la nube, pueden ajustar y distribuir las cargas de trabajo con velocidad y precisión y, al mismo tiempo, reducir los costos operativos. 

 

El aprendizaje profundo y el automático en el extremo de la red

El uso de la nube implica nuevas opciones para implementar el aprendizaje automático en el extremo de la red. Mediante la creación de centros de edge computing conectados a los recursos de la nube pública, se puede obtener y analizar la información de inmediato para intervenir en operaciones que pueden variar desde la actualización del estado de la cadena de suministro hasta la prestación de información sobre los lugares de evacuación en caso de una catástrofe. 

 

Su equipo puede aprovechar la inteligencia artificial de Red Hat® OpenShift®, como OpenShift Data Science, para diseñar e implementar las aplicaciones de IA y los modelos de aprendizaje automático (ML) de forma transparente y regulada. 

Red Hat OpenShift Data Science es una plataforma que puede entrenar los modelos de IA con sus propios datos, distribuirlos y aplicar en ellos las técnicas de ajuste de instrucciones y perfeccionamiento para sus casos prácticos específicos.

Para las implementaciones de IA de gran tamaño, Red Hat OpenShift ofrece una plataforma de aplicaciones adaptable que es adecuada para las cargas de trabajo de IA, con acceso a los aceleradores de hardware conocidos.

Red Hat también utiliza sus propias herramientas de Red Hat OpenShift AI para mejorar la utilidad de otros sistemas de software open source, como Red Hat Ansible Lightspeed with IBM watsonx Code Assistant. Este servicio permite que los equipos de automatización aprendan sobre el contenido de Ansible, lo creen y lo mantengan de manera más eficiente. Acepta instrucciones que escriben los usuarios y, luego, interactúa con los modelos base watsonx de IBM para generar recomendaciones de código, que después se utilizarán para crear playbooks de Ansible.

Además, las integraciones de los partners de Red Hat abren paso a un ecosistema de herramientas confiables de IA diseñadas para funcionar en las plataformas open source.

Artículos recomendados

ARTÍCULO

Sistemas con estado y sin estado

El que un sistema tenga estado depende del tiempo durante el cual se registra interacción con él y de la forma en que se debe almacenar esa información.

ARTÍCULO

¿Qué es Quarkus?

Quarkus es una pila de Java propia de Kubernetes que se creó para las compilaciones originales y las máquinas virtuales Java (JVM), la cual permite optimizar esta plataforma especialmente para los contenedores.

ARTÍCULO

¿Qué es la informática sin servidor?

Se trata de un modelo de desarrollo directamente en la nube que posibilita el diseño y la ejecución de aplicaciones sin que sea necesario gestionar servidores.

Más información sobre las aplicaciones desarrolladas en la nube

Productos

Plataforma de aplicaciones empresariales que ofrece servicios probados para lanzar aplicaciones al mercado en la infraestructura que usted escoja.

Contenido adicional

Capacitación

Capacitación gratuita

Developing Cloud-Native Applications with Microservices Architectures