RAG y el fine tuning: definición, diferencias, funcionamiento y casos prácticos

Copiar URL

Tanto la RAG como el fine tuning tienen como objetivo mejorar los modelos de lenguaje de gran tamaño (LLM). La RAG lo hace sin modificar el LLM, mientras que el fine tuning requiere ajustar sus pesos y parámetros. A menudo, puedes personalizar el modelo usando el fine tuning y la arquitectura RAG a la vez.

Descubre Red Hat AI

Un LLM es un tipo de inteligencia artificial que utiliza técnicas de machine learning (aprendizaje automático) para comprender y producir lenguaje humano. Estos modelos de machine learning pueden generar, resumir, traducir, reescribir, clasificar, categorizar y analizar texto, y mucho más. En las empresas, suelen usarse para crear un sistema de preguntas y respuestas, como un chatbot.

Los modelos base de los LLM se entrenan con conocimientos generales para respaldar una amplia gama de casos prácticos. Sin embargo, es probable que no tengan el conocimiento específico de un área que es exclusivo de tu empresa. La RAG y el fine tuning son dos formas de ajustar tu LLM e incorporarle los datos que necesita para producir los resultados que deseas.

Por ejemplo, supongamos que estás desarrollando un chatbot para que interactúe con los clientes. En este escenario, el chatbot representa tu empresa, por lo que querrás que actúe como un empleado de alto rendimiento y que comprenda los matices de tu empresa, como los productos que vendes y las políticas que aplicas. De la misma manera en que capacitarías a un empleado proporcionándole documentos para estudiar y guiones para seguir, debes entrenar a un chatbot mediante el uso de la RAG y el fine tuning para aprovechar la base de conocimientos con la que llega. 

Recursos de Red Hat

La RAG permite complementar los datos que se encuentran en los LLM con información que proviene de fuentes de tu preferencia, ya sean repositorios de datos, conjuntos de textos o documentación. Después de recuperar los datos, las arquitecturas de RAG los procesan en el contexto de un LLM y generan una respuesta basada en las fuentes combinadas.

La RAG es ideal para complementar tu modelo con información que se actualiza de forma periódica. Si creas una vía de comunicación entre el LLM y las fuentes externas elegidas, obtendrás resultados mucho más precisos. Además, como puedes diseñar la RAG para que cite su fuente, resulta sencillo comprender el modo en que se formula un determinado resultado, lo que aporta más transparencia y genera confianza.

Volvamos a nuestro ejemplo: si tuvieras que diseñar un chatbot que responda preguntas como "¿cuál es la política de devoluciones?", podrías usar una arquitectura RAG. Podrías conectar el LLM a un documento que detalle la política de devoluciones de la empresa e indicar al chatbot que extraiga información de allí, e incluso indicarle que cite su fuente y proporcione el enlace para que el usuario lo pueda leer. Asimismo, si el documento sobre la política de devoluciones cambiara, el modelo de RAG extraería la información más reciente y se la comunicaría al usuario.

Obtén más información sobre la RAG

 

Casos prácticos de la RAG

La RAG permite obtener y organizar la información de una manera que simplifique la interacción de las personas con los datos. Con una arquitectura RAG, los modelos pueden buscar información y brindar contexto a partir de fuentes de datos locales y de la nube. Esto significa que se pueden usar datos externos, documentos internos e, incluso, feeds de redes sociales para responder preguntas, proporcionar contexto y aportar información para la toma de decisiones.

Por ejemplo, puedes crear una arquitectura RAG que proporcione respuestas específicas con respecto a las políticas, los procedimientos y la documentación de tu empresa. De esta manera, ahorrarás el tiempo que implicaría buscar un determinado documento e interpretarlo de forma manual.

Descubre el uso de la RAG en la ingeniería de software

Piensa en el fine tuning como una forma de comunicar tu intención al LLM para que adapte su resultado en función de tus objetivos. Es un proceso que implica entrenar más un modelo que ya se entrenó con la ayuda de un conjunto de datos más pequeño y específico, para que pueda realizar tareas de un área determinada de manera más eficaz. Los datos de este entrenamiento adicional se integran a la arquitectura del modelo.

La adaptación de bajo rango (LoRA) y la adaptación de bajo rango cuantificada (QLoRA) son técnicas de fine tuning eficiente de los parámetros (PEFT) que ayudan a los usuarios a optimizar los costos y los recursos informáticos. 

Volvamos a nuestro ejemplo del chatbot. Supongamos que deseas que el chatbot interactúe con pacientes en un contexto médico. Es importante que el modelo comprenda la terminología médica relacionada con tu trabajo. Con las técnicas de fine tuning, puedes asegurarte de que cuando un paciente le pregunte al chatbot sobre los "servicios de fisio", este entenderá que se refiere a "servicios de terapia física" y lo dirigirá a los recursos adecuados.

Casos prácticos del fine tuning

El  fine tuning es ideal para entrenar los modelos a fin de que interpreten la información a la que tienen acceso. Por ejemplo, puedes entrenar un modelo para que comprenda los matices y la terminología de tu sector específico, como las siglas y los valores de la empresa.

Además, el fine tuning es útil para clasificar imágenes. Por ejemplo, si trabajas con imágenes de resonancia magnética (IRM), con el  fine tuning puedes entrenar tu modelo de inteligencia artificial predictiva para que identifique anomalías.

Descubre los casos prácticos de la inteligencia artificial predictiva

El  fine tuning también ayuda a que tu empresa utilice el tono correcto cuando se comunique con otras personas, especialmente en casos de atención al cliente. Te permite entrenar un chatbot para que analice las opiniones o las emociones de las personas con las que interactúa. Además, puedes entrenar el modelo de inteligencia artificial generativa para que responda de una manera que le sea útil al usuario y, a la vez, refleje los valores de la empresa.

Descubre los casos prácticos de la inteligencia artificial generativa

Si comprendes las diferencias entre la RAG y el fine tuning, podrás tomar decisiones estratégicas sobre los recursos de inteligencia artificial que debes implementar para satisfacer tus necesidades. Estas son algunas preguntas básicas que debes tener en cuenta:

¿Cuáles son las habilidades de tu equipo?

La personalización de un modelo con la RAG requiere habilidades de codificación y arquitectura. En comparación con los métodos tradicionales de fine tuning, la RAG proporciona una manera más accesible y sencilla de obtener retroalimentación, solucionar problemas y corregir aplicaciones. Para realizar el  fine tuning de un modelo, se necesita experiencia en el procesamiento del lenguaje natural (NLP), el deep learning (aprendizaje profundo), la configuración de modelos, el reprocesamiento de los datos y la evaluación. Por eso, puede demandar más tiempo y habilidades técnicas.

¿Tus datos son estáticos o dinámicos?

Con el fine tuning, el modelo aprende patrones comunes que no cambian con el tiempo. Debido a que se basa en instantáneas estáticas de los conjuntos de datos de entrenamiento, es posible que la información quede obsoleta y que sea necesario repetir el entrenamiento. Por el contrario, con la RAG se indica al LLM que recupere información específica de las fuentes elegidas de manera inmediata. Esto significa que el modelo extrae los datos más actualizados para informar la aplicación, lo que permite que los resultados sean precisos y relevantes.

¿Cuál es tu presupuesto?

Tradicionalmente, el fine tuning es una técnica de deep learning que requiere una gran cantidad de datos y recursos informáticos. Para alimentar un modelo mediante este proceso, debes etiquetar los datos y llevar a cabo el entrenamiento en sistemas de hardware costosos y de alta gama. Además, el rendimiento del modelo fine tuning depende de la calidad de los datos, y obtener datos de alta calidad puede ser costoso.

En comparación, la RAG suele ser más rentable que el fine tuning. Para aplicarla, debes diseñar sistemas de canales que conecten los datos con el LLM. Esta conexión directa reduce los costos de los recursos porque utiliza los datos ya disponibles para informar al LLM, en lugar de gastar tiempo, energía y recursos en generar datos nuevos. 

Mira el video RAG vs. fine-tuning

Las soluciones open source de Red Hat y el ecosistema de partners de inteligencia artificial pueden ayudarte a implementar la RAG y el fine tuning en el proceso de operaciones de modelos de lenguaje de gran tamaño (LLMOps).

Red Hat® Enterprise Linux® AI proporciona una plataforma para ejecutar LLM en entornos de servidores individuales. La solución incluye Red Hat AI Inference Server, que ofrece una inferencia rápida y rentable en la nube híbrida, maximizando el rendimiento y minimizando la latencia.

Además, Red Hat Enterprise Linux AI cuenta con el respaldo de los beneficios de la suscripción a Red Hat, la cual incluye la distribución de productos empresariales de confianza, soporte permanente para la producción, soporte extendido del ciclo de vida del modelo y protección en el ámbito legal con Open Source Assurance.

Ajusta tus aplicaciones con Red Hat OpenShift AI

Una vez que hayas entrenado tu modelo con Red Hat Enterprise Linux AI, podrás ajustarlo para enviarlo a la etapa de producción con Red Hat OpenShift® AI.

Red Hat OpenShift AI es una plataforma de operaciones de machine learning (MLOps) flexible y con capacidad de ajuste que incluye herramientas para diseñar, implementar y gestionar las aplicaciones que utilizan la inteligencia artificial. Brinda la infraestructura fundamental de las cargas de trabajo (como un LLM para crear integraciones), los mecanismos de recuperación necesarios para generar resultados y el acceso a una base de datos vectorial. 

Recurso

Introducción a la inteligencia artificial para las empresas: Guía para principiantes

Acelera tu proceso de adopción de la inteligencia artificial con Red Hat OpenShift AI y Red Hat Enterprise Linux AI. Obtén más información al respecto en esta guía para principiantes.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

¿Qué es la inferencia distribuida?

La inferencia distribuida permite que los modelos de inteligencia artificial procesen las cargas de trabajo de manera más eficiente al dividir la tarea de inferencia entre un grupo de dispositivos interconectados.

¿Qué es el protocolo de contexto de modelos?

Descubre la manera en que el protocolo de contexto de modelos (MCP) conecta las aplicaciones de inteligencia artificial con las fuentes de datos externas para que puedas diseñar flujos de trabajo más inteligentes.

Todo sobre AIOps

AIOps (inteligencia artificial para las operaciones de TI) es un enfoque para automatizar las operaciones de TI con el machine learning (aprendizaje automático) y otras técnicas avanzadas de inteligencia artificial.

IA/ML: lecturas recomendadas

Artículos relacionados