¿Qué es la inteligencia artificial generativa?

Copiar URL

La inteligencia artificial generativa es un tipo de tecnología que crea contenido nuevo a partir de los modelos de deep learning (aprendizaje profundo) que están entrenados con conjuntos grandes de datos. Los modelos de IA generativa se utilizan para generar datos nuevos, lo cual los diferencia de los modelos de IA discriminativa, que se usan para clasificar datos en función de las diferencias. En la actualidad, las aplicaciones con esta tecnología se utilizan para generar textos, imágenes, código y mucho más. Esto se logra durante la inferencia de la inteligencia artificial, que constituye su fase operativa. En esta etapa, el modelo aplica en situaciones reales el conocimiento obtenido gracias al entrenamiento. Los casos prácticos más comunes son los chatbots, la creación y la edición de imágenes, la asistencia para la creación de código de software y la investigación científica.

La inteligencia artificial generativa también se utiliza en los entornos profesionales para visualizar las ideas creativas con rapidez y ejecutar de forma más eficiente las tareas tediosas y que llevan mucho tiempo. En los sectores donde su aplicación es muy reciente, como la investigación clínica y el diseño de productos, se espera que contribuya al trabajo de los profesionales y suponga una mejora considerable en la vida de las personas. Sin embargo, también conlleva riesgos nuevos que los usuarios deben conocer y evitar.

Algunas de las aplicaciones de inteligencia artificial generativa más conocidas que surgieron en los últimos años son ChatGPT y DALL-E de OpenAI, GitHub CoPilot, Bing Chat de Microsoft, Gemini de Google, Midjourney, Stable Diffusion y Adobe Firefly. Servicios de Red Hat, como Red Hat® Ansible® Lightspeed with IBM watsonx Code Assistant y Red Hat OpenShift® Lightspeed, son algunos ejemplos de servicios de inteligencia artificial generativa que permiten que los especialistas trabajen de manera más eficiente. Muchas otras empresas experimentan con sus propios sistemas de inteligencia artificial generativa para automatizar las tareas rutinarias y mejorar la eficiencia.

Descubre Red Hat AI

Si te asombraste por la coherencia de las conversaciones con ChatGPT o si alguna vez proporcionaste una descripción a Midjourney para que creara una imagen realista, ya sabes que la inteligencia artificial generativa parece magia. Pero ¿cuál es el truco?

Las aplicaciones de inteligencia artificial se basan en modelos de deep learning que recrean los patrones obtenidos de una gran cantidad de datos de entrenamiento. Luego, utilizan los conocimientos adquiridos dentro de los parámetros de su entrenamiento para crear algo nuevo.

Los modelos de deep learning no almacenan una copia de los datos de entrenamiento, sino una versión codificada de ellos, en la que están organizados por cercanía según su similitud. Esta representación puede decodificarse para generar datos nuevos y originales, pero con características similares. 

El diseño de una aplicación de inteligencia artificial generativa personalizada implica el uso de un modelo y de ajustes, como el perfeccionamiento supervisado por personas o una capa de datos específicos para cada caso práctico.

En la actualidad, la mayoría de las aplicaciones conocidas de esta tecnología responden a las instrucciones de los usuarios: solo debes describir lo que deseas en lenguaje natural, y obtendrás lo que solicitaste como por arte de magia.

Mira el video Technically Speaking: Lightspeed Automation with Generative AI

Recursos de Red Hat

Los avances de la inteligencia artificial generativa en la escritura y las imágenes acapararon los titulares de las noticias y la imaginación de la gente. A continuación, presentamos algunos de los primeros casos prácticos de esta tecnología que avanza rápidamente.

Escritura: incluso antes de que ChatGPT apareciera en todos los titulares (y comenzara a escribirlos por su cuenta), la inteligencia artificial generativa imitaba la escritura humana con gran eficacia. Entre los primeros casos prácticos de este modelo se encuentran los programas de traducción de idiomas. Las herramientas de inteligencia artificial actuales pueden responder a instrucciones que requieran la creación de contenido de alta calidad sobre prácticamente cualquier tema, así como adaptarse a los distintos estilos y extensiones de escritura.

Generación de imágenes: las herramientas de imagen que utilizan esta tecnología pueden responder a las instrucciones con imágenes de alta calidad sobre innumerables temas y en diversos estilos. Algunas de ellas, como el relleno generativo de Adobe Photoshop, permiten agregar elementos nuevos a trabajos que ya existen.

Generación de música y voz: las herramientas de voz que utilizan inteligencia artificial pueden crear narraciones o cantos que simulen la voz humana a partir de grabaciones y textos escritos. Algunas también pueden generar música artificial a partir de instrucciones y muestras.

Generación de video: las técnicas de inteligencia artificial generativa se están probando en servicios nuevos para crear animaciones gráficas. Por ejemplo, algunos de ellos pueden hacer coincidir un fragmento de audio con una imagen estática y generar un movimiento de la boca y las expresiones faciales para que parezca que la persona está hablando.

Generación de código: algunas herramientas de inteligencia artificial generativa pueden generar código informático a partir de instrucciones escritas para ayudar a los desarrolladores de software que lo soliciten.

Aumento de datos: la inteligencia artificial generativa puede crear una gran cantidad de datos sintéticos cuando no se pueden utilizar datos reales o se prefiere no hacerlo. Por ejemplo, cuando se busca entrenar un modelo que comprenda los datos de salud sin incluir información personal que pueda usarse para identificar pacientes individuales. También sirven para convertir un grupo pequeño o incompleto de datos en un conjunto más amplio de datos sintéticos con fines de entrenamiento o prueba.

Descubre casos prácticos de la inteligencia artificial generativa

El

deep learning es la técnica de machine learning (aprendizaje automático) que posibilita la inteligencia artificial generativa y se utiliza para analizar e interpretar grandes cantidades de datos. Este proceso, también conocido como aprendizaje neuronal profundo o redes neuronales profundas, consiste en que las computadoras adquieran el aprendizaje a través de la observación, de manera similar a las personas. Es fundamental en el uso de las computadoras para la difícil tarea de comprender el lenguaje humano, conocida como procesamiento de lenguaje natural (NLP).

El deep learning también puede pensarse como si fuera una especie de diagrama de flujo que comienza con una capa de entrada y termina con una de salida. Entre las dos, se encuentran las "capas ocultas" en las que se procesa la información en distintos niveles, y se ajusta y adapta el comportamiento a medida que se reciben datos nuevos de forma permanente. Los modelos de deep learning pueden tener cientos de capas ocultas, y cada una de ellas cumple una función en la detección de las relaciones y los patrones dentro del conjunto de datos. 

La capa de entrada está compuesta por varios nodos y, en ella, los datos se incorporan al modelo y se categorizan según corresponda antes de continuar con el proceso. La ruta de los datos a través de las capas se basa en los cálculos de cada nodo. Los datos atraviesan cada una de las capas, y se recopilan conclusiones durante el proceso, las cuales acabarán por convertirse en la capa de salida o el análisis final.

La unidad de procesamiento de gráficos (GPU) es una de las tecnologías que agilizó el avance del deep learning. Si bien su intención original era acelerar la renderización de los gráficos de los videojuegos, es ideal para las cargas de trabajo de deep learning por su eficiencia a la hora de realizar cálculos en paralelo.

Los avances en el tamaño y la velocidad de los modelos de deep learning desencadenaron la ola actual de innovaciones en las aplicaciones de inteligencia artificial generativa.

La red neuronal es una forma de procesar la información que simula las conexiones neuronales biológicas del cerebro. Esta es la manera en que la inteligencia artificial puede establecer conexiones entre conjuntos de datos que no parecieran estar relacionados, y está estrechamente ligada al deep learning.

Para comprender la forma en que el deep learning aplica el concepto de la red neuronal en la conexión de los datos, tan solo tienes que pensar en el funcionamiento del cerebro humano. Son muchas neuronas interconectadas que actúan como mensajeras cuando se procesan los datos que se reciben. Las neuronas utilizan impulsos eléctricos y señales químicas para comunicarse entre sí y transmitir la información entre las distintas áreas del cerebro. 

Las redes neuronales artificiales (ANN) se basan en este fenómeno biológico, pero se forman con neuronas artificiales que se crean a partir de módulos de software denominados nodos. Los nodos utilizan cálculos matemáticos (a diferencia de las señales químicas del cerebro) para comunicar y transmitir la información. Esta red neuronal simulada (SNN) procesa los datos agrupándolos en clústeres y realizando predicciones.

Hay diferentes técnicas de red neuronal según el tipo de datos. El modelo de red neuronal recurrente (RNN) utiliza datos secuenciales, como el aprendizaje de palabras en orden para procesar el lenguaje.

Los transformadores son un tipo específico de arquitectura de red neuronal que se basa en la RNN y que puede procesar el lenguaje con mayor rapidez. Aprenden las relaciones que guardan las palabras en una oración de forma más eficiente que la RNN, que incorpora cada palabra en orden secuencial.

Dentro del deep learning, también se encuentra el modelo de lenguaje de gran tamaño (LLM), que se entrena utilizando los transformadores en una gran cantidad de datos generalizados. Muchas de las herramientas conocidas de chat y texto de inteligencia artificial se basan en este modelo.

El modelo de difusión es otra técnica útil para la generación de imágenes que aprende a convertir una imagen natural en un elemento visual difuminado con ruido. Luego, las herramientas generativas de imágenes revierten el proceso: toman un patrón con ruido aleatorio y lo perfeccionan hasta que parezca una imagen real.

Podemos utilizar parámetros para describir los modelos de deep learning. Si un modelo sencillo de predicción de crédito se entrena con 10 entradas de un formulario de solicitud de préstamo, el modelo tendrá 10 parámetros. En cambio, un modelo LLM puede tener miles de millones de parámetros, como es el caso del transformador generativo preentrenado 4 (GPT-4) de OpenAI, uno de los modelos base que utiliza ChatGPT, el cual posee un billón de parámetros, según este informe.

Se trata de un modelo de deep learning que se entrena con una enorme cantidad de datos genéricos y, luego, se perfecciona para casos prácticos específicos. Tal como indica su nombre, puede constituir la base de muchas aplicaciones diferentes.

En la actualidad, crear un modelo base nuevo sería un proyecto enorme. Para el proceso, se necesita una gran cantidad de datos de entrenamiento que suelen obtenerse de Internet, las bibliotecas digitales de libros, las bases de datos de artículos académicos, los conjuntos de imágenes genéricas y otros grupos grandes de datos. Para entrenar un modelo con tantos datos, es necesario disponer de una infraestructura inmensa y diseñar o alquilar una nube de GPU. Según los informes, el diseño de los modelos base actuales costó cientos de millones de dólares.

Dado que el entrenamiento de un modelo base desde cero implica un gran esfuerzo, se suele aprovechar algún modelo ya entrenado para luego personalizarlo. Hay muchas técnicas de personalización, como el perfeccionamiento, el ajuste de instrucciones y la incorporación de datos específicos sobre el cliente o el área de especialización. Por ejemplo, los modelos base Granite de IBM se entrenan con datos seleccionados, por lo cual brindan transparencia a los datos que se utilizan para el entrenamiento.

Este proceso se utiliza para entrenar aún más los modelos entrenados previamente con un conjunto de datos más personalizados, de manera que lleven a cabo tareas específicas de forma eficaz. Estos datos adicionales modifican los parámetros del modelo y crean una versión nueva que remplaza al modelo original.

El perfeccionamiento suele ser más rápido y requerir muchísimos menos datos que el entrenamiento inicial. Sin embargo, la versión tradicional de este proceso consume muchos recursos informáticos. 

El perfeccionamiento eficiente de parámetros (PEFT) es un conjunto de técnicas que ajustan solo una parte de los parámetros de un LLM para utilizar menos recursos. Puede considerarse como la evolución del perfeccionamiento tradicional.

La adaptación de bajo rango (LoRA) y la adaptación de bajo rango cuantificada (QLoRA) son técnicas PEFT para entrenar modelos de inteligencia artificial. Ambas permiten perfeccionar los LLM de manera más eficiente, pero difieren en la forma de manipular el modelo y de utilizar el almacenamiento para lograr los resultados deseados.

Explicación sobre LoRA y QLoRA 

 

La generación aumentada por recuperación (RAG) es un método mediante el cual se vincula un LLM a un recurso externo para obtener mejores respuestas de una aplicación de inteligencia artificial generativa.

La implementación de la arquitectura RAG en un sistema de búsqueda de respuestas basado en un LLM (como un chatbot) establece una vía de comunicación entre un LLM y las fuentes de información adicionales que elijas. Esto permite que el LLM pueda realizar referencias cruzadas y complementar su conocimiento interno para que el usuario que formula una consulta obtenga resultados más confiables y precisos.

Obtén más información sobre la RAG

El gran avance que tuvo la tecnología de inteligencia artificial generativa en tan poco tiempo suscitó varias reacciones, tanto positivas como negativas. Aún estamos en el proceso de conocer sus ventajas y desventajas. A continuación, resumimos algunas de las principales inquietudes respecto a la inteligencia artificial generativa.

Puede utilizarse con fines perjudiciales:hay riesgos inmediatos y lógicos asociados al uso de las herramientas de inteligencia artificial generativa con fines maliciosos, como las grandes campañas de desinformación en las redes sociales o las imágenes completamente falsas y generadas sin consentimiento para dañar la imagen de personas reales.

Puede reforzar los prejuicios de la sociedad: las herramientas de inteligencia artificial generativa demostraron que pueden sacar a relucir los prejuicios presentes en los datos de entrenamiento, tales como los estereotipos negativos y los discursos de odio.

Puede generar información incorrecta: las herramientas de inteligencia artificial generativa pueden generar información y panoramas inventados y totalmente erróneos, que suelen denominarse "alucinaciones". A veces, el contenido erróneo es inofensivo, como una respuesta sin sentido en el chat o la imagen de una mano con dedos de más. Pero ha habido casos de mayor gravedad, como cuando un chatbot dio recomendaciones peligrosas a algunas personas que hicieron consultas sobre trastornos alimentarios.

Puede causar riesgos legales y de seguridad: los sistemas de inteligencia artificial generativa pueden traer aparejados riesgos de seguridad, como cuando los usuarios ingresan información confidencial en aplicaciones sin protección. Las respuestas de estas herramientas también pueden causar riesgos legales cuando reproducen contenido protegido por derechos de autor o se apropian de la voz o la identidad de una persona real sin su consentimiento. Además, algunas de ellas tienen restricción de uso.

Red Hat® AI es nuestra cartera de productos de inteligencia artificial basada en soluciones que nuestros clientes ya conocen. Gracias a ellas, nuestros productos siguen siendo confiables, flexibles y adaptables.

Con Red Hat AI, las empresas logran:

  • adoptar la inteligencia artificial y generar innovaciones con ella de manera rápida;
  • simplificar el proceso de distribución de soluciones basadas en inteligencia artificial;
  • implementar recursos en cualquier entorno.

Descubre Red Hat AI 

Una base para explorar diferentes opciones

Las soluciones de Red Hat AI admiten tanto las funciones de la inteligencia artificial predictiva como las de la generativa. Gracias a la flexibilidad del uso de tu propio modelo, obtienes soporte para entrenar y perfeccionar los modelos base destinados al caso práctico de tu empresa.

Un buen punto de partida es Red Hat® Enterprise Linux® AI, una plataforma de modelos base que permite desarrollar, probar y ejecutar LLM Granite para las aplicaciones empresariales. Con ella, los desarrolladores pueden acceder rápidamente a un entorno con un solo servidor, que incluye LLM y herramientas de inteligencia artificial. Además, proporciona todos los recursos necesarios para perfeccionar los modelos y diseñar aplicaciones de inteligencia artificial generativa. 

Descubre Red Hat Enterprise Linux AI 

Nuestro ecosistema de partners de inteligencia artificial es cada vez más amplio. Muchos de ellos trabajan con Red Hat para certificar la compatibilidad de sus soluciones con Red Hat AI. De esta manera, puedes explorar diferentes opciones.

Obtén más información sobre nuestros partners 

Hub

El blog oficial de Red Hat

Obtenga la información más reciente sobre nuestro ecosistema de clientes, socios y comunidades.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

¿Qué es el perfeccionamiento con eficiencia de parámetros?

El perfeccionamiento con eficiencia de parámetros (PEFT) es un conjunto de técnicas que permiten ajustar solo una parte de los parámetros de un LLM para utilizar menos recursos.

Diferencias entre LoRA y QLoRA

La adaptación de bajo rango (LoRA) y la adaptación de bajo rango cuantificada (QLoRA) son técnicas para entrenar modelos de inteligencia artificial.

Los vLLM

Los vLLM son conjuntos de código open source que permiten que los modelos de lenguaje realicen cálculos de manera más eficiente.

IA/ML: lecturas recomendadas

Artículos relacionados