Diferencias entre la RAG y el perfeccionamiento del modelo

Copiar URL

Tanto la RAG como el perfeccionamiento tienen como objetivo mejorar los modelos de lenguaje de gran tamaño (LLM). La RAG lo hace sin modificar el LLM, mientras que el perfeccionamiento requiere ajustar sus pesos y parámetros. A menudo, puedes personalizar el modelo usando el perfeccionamiento y la arquitectura RAG a la vez.

Descubre Red Hat AI

Un LLM es un tipo de inteligencia artificial que utiliza técnicas de machine learning (aprendizaje automático) para comprender y producir lenguaje humano. Estos modelos de machine learning pueden generar, resumir, traducir, reescribir, clasificar, categorizar y analizar texto, y mucho más. En las empresas, suelen usarse para crear un sistema de preguntas y respuestas, como un chatbot.

Los modelos base de los LLM se entrenan con conocimientos generales para respaldar una amplia gama de casos prácticos. Sin embargo, es probable que no tengan el conocimiento específico de un área que es exclusivo de tu empresa. La RAG y el perfeccionamiento son dos formas de ajustar tu LLM e incorporarle los datos que necesita para producir los resultados que deseas.

Por ejemplo, supongamos que estás desarrollando un chatbot para que interactúe con los clientes. En este escenario, el chatbot representa tu empresa, por lo que querrás que actúe como un empleado de alto rendimiento y que comprenda los matices de tu empresa, como los productos que vendes y las políticas que aplicas. De la misma manera en que capacitarías a un empleado proporcionándole documentos para estudiar y guiones para seguir, debes entrenar a un chatbot mediante el uso de la RAG y el perfeccionamiento para aprovechar la base de conocimientos con la que llega. 

Mira el video RAG vs. fine-tuning

Recursos de Red Hat

La RAG permite complementar los datos que se encuentran en los LLM con información que proviene de fuentes de tu preferencia, ya sean repositorios de datos, conjuntos de textos o documentación. Después de recuperar los datos, las arquitecturas de RAG los procesan en el contexto de un LLM y generan una respuesta basada en las fuentes combinadas.

La RAG es ideal para complementar tu modelo con información que se actualiza de forma periódica. Si creas una vía de comunicación entre el LLM y las fuentes externas elegidas, obtendrás resultados mucho más precisos. Además, como puedes diseñar la RAG para que cite su fuente, resulta sencillo comprender el modo en que se formula un determinado resultado, lo que aporta más transparencia y genera confianza.

Volvamos a nuestro ejemplo: si tuvieras que diseñar un chatbot que responda preguntas como "¿cuál es la política de devoluciones?", podrías usar una arquitectura RAG. Podrías conectar el LLM a un documento que detalle la política de devoluciones de la empresa e indicar al chatbot que extraiga información de allí, e incluso indicarle que cite su fuente y proporcione el enlace para que el usuario lo pueda leer. Asimismo, si el documento sobre la política de devoluciones cambiara, el modelo de RAG extraería la información más reciente y se la comunicaría al usuario.

Obtén más información sobre la RAG

 

Casos prácticos de la RAG

La RAG permite obtener y organizar la información de una manera que simplifique la interacción de las personas con los datos. Con una arquitectura RAG, los modelos pueden buscar información y brindar contexto a partir de fuentes de datos locales y de la nube. Esto significa que se pueden usar datos externos, documentos internos e, incluso, feeds de redes sociales para responder preguntas, proporcionar contexto y aportar información para la toma de decisiones.

Por ejemplo, puedes crear una arquitectura RAG que proporcione respuestas específicas con respecto a las políticas, los procedimientos y la documentación de tu empresa. De esta manera, ahorrarás el tiempo que implicaría buscar un determinado documento e interpretarlo de forma manual.

Descubre el uso de la RAG en la ingeniería de software

Piensa en el perfeccionamiento como una forma de comunicar tu intención al LLM para que adapte su resultado en función de tus objetivos. Es un proceso que implica entrenar más un modelo que ya se entrenó con la ayuda de un conjunto de datos más pequeño y específico, para que pueda realizar tareas de un área determinada de manera más eficaz. Los datos de este entrenamiento adicional se integran a la arquitectura del modelo.

La adaptación de bajo rango (LoRA) y la adaptación de bajo rango cuantificada (QLoRA) son técnicas de perfeccionamiento eficiente de los parámetros (PEFT) que ayudan a los usuarios a optimizar los costos y los recursos informáticos. 

Volvamos a nuestro ejemplo del chatbot. Supongamos que deseas que el chatbot interactúe con pacientes en un contexto médico. Es importante que el modelo comprenda la terminología médica relacionada con tu trabajo. Con las técnicas de perfeccionamiento, puedes asegurarte de que cuando un paciente le pregunte al chatbot sobre los "servicios de fisio", este entenderá que se refiere a "servicios de terapia física" y lo dirigirá a los recursos adecuados.

Casos prácticos del perfeccionamiento

El perfeccionamiento es ideal para entrenar los modelos a fin de que interpreten la información a la que tienen acceso. Por ejemplo, puedes entrenar un modelo para que comprenda los matices y la terminología de tu sector específico, como las siglas y los valores de la empresa.

Además, el perfeccionamiento es útil para clasificar imágenes. Por ejemplo, si trabajas con imágenes de resonancia magnética (IRM), con el perfeccionamiento puedes entrenar tu modelo de inteligencia artificial predictiva para que identifique anomalías.

Descubre los casos prácticos de la inteligencia artificial predictiva

El perfeccionamiento también ayuda a que tu empresa utilice el tono correcto cuando se comunique con otras personas, especialmente en casos de atención al cliente. Te permite entrenar un chatbot para que analice las opiniones o las emociones de las personas con las que interactúa. Además, puedes entrenar el modelo de inteligencia artificial generativa para que responda de una manera que le sea útil al usuario y, a la vez, refleje los valores de la empresa.

Descubre los casos prácticos de la inteligencia artificial generativa

Si comprendes las diferencias entre la RAG y el perfeccionamiento, podrás tomar decisiones estratégicas sobre los recursos de inteligencia artificial que debes implementar para satisfacer tus necesidades. Estas son algunas preguntas básicas que debes tener en cuenta:

¿Cuáles son las habilidades de tu equipo?

La personalización de un modelo con la RAG requiere habilidades de codificación y arquitectura. En comparación con los métodos tradicionales de perfeccionamiento, la RAG proporciona una manera más accesible y sencilla de obtener retroalimentación, solucionar problemas y corregir aplicaciones. Para perfeccionar un modelo, se necesita experiencia en el procesamiento del lenguaje natural (NLP), el deep learning (aprendizaje profundo), la configuración de modelos, el reprocesamiento de los datos y la evaluación. Por eso, puede demandar más tiempo y habilidades técnicas.

¿Tus datos son estáticos o dinámicos?

Con el perfeccionamiento, el modelo aprende patrones comunes que no cambian con el tiempo. Debido a que se basa en instantáneas estáticas de los conjuntos de datos de entrenamiento, es posible que la información quede obsoleta y que sea necesario repetir el entrenamiento. Por el contrario, con la RAG se indica al LLM que recupere información específica de las fuentes elegidas de manera inmediata. Esto significa que el modelo extrae los datos más actualizados para informar la aplicación, lo que permite que los resultados sean precisos y relevantes.

¿Cuál es tu presupuesto?

La RAG suele ser más rentable que el perfeccionamiento. Para implementar una arquitectura RAG, debes diseñar sistemas de canales que conecten los datos con el LLM. Este enfoque ahorra costos porque utiliza los datos que ya posees para brindar información al LLM. Esto contrasta con la gran cantidad de recursos que requiere el perfeccionamiento para realizar el etiquetado de datos especializado y la gran potencia informática que se necesita para el entrenamiento repetido de los modelos.

Si bien el perfeccionamiento siempre se ha considerado la opción más costosa, ciertas tecnologías, como el vLLM, permiten atenuar el problema. El vLLM es un servidor y un motor de inferencia que mejora la rentabilidad de la distribución de los modelos perfeccionados. 

Obtén más información sobre vLLM

Las soluciones open source de Red Hat y el ecosistema de partners de inteligencia artificial pueden ayudarte a implementar la RAG y el perfeccionamiento en el proceso de operaciones de modelos de lenguaje de gran tamaño (LLMOps).

Red Hat® Enterprise Linux® AI ofrece una plataforma para ejecutar LLM en entornos de servidores individuales. La solución incluye Red Hat AI Inference Server, que ofrece inferencias rápidas y rentables en toda la nube híbrida al aumentar al máximo el rendimiento y disminuir la latencia.

Además, Red Hat Enterprise Linux AI cuenta con el respaldo de los beneficios de la suscripción a Red Hat, la cual incluye la distribución de productos empresariales de confianza, soporte permanente para la producción, soporte extendido del ciclo de vida del modelo y protección en el ámbito legal con Open Source Assurance.

Ajusta las aplicaciones con Red Hat OpenShift AI

Una vez que hayas entrenado tu modelo con Red Hat Enterprise Linux AI, podrás ajustarlo para enviarlo a la etapa de producción con Red Hat OpenShift® AI.

Red Hat OpenShift AI es una plataforma de operaciones de machine learning (MLOps) flexible y con capacidad de ajuste que incluye herramientas para diseñar, implementar y gestionar las aplicaciones que utilizan la inteligencia artificial. Brinda la infraestructura fundamental de las cargas de trabajo (como un LLM para crear integraciones), los mecanismos de recuperación necesarios para generar resultados y el acceso a una base de datos vectorial. 

Recurso

Introducción a la inteligencia artificial para las empresas: Guía para principiantes

Acelera tu proceso de adopción de la inteligencia artificial con Red Hat OpenShift AI y Red Hat Enterprise Linux AI. Obtén más información al respecto en esta guía para principiantes.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

¿Qué es la inferencia distribuida?

La inferencia distribuida permite que los modelos de inteligencia artificial procesen las cargas de trabajo de manera más eficiente al dividir la tarea de inferencia entre un grupo de dispositivos interconectados.

¿Qué es el protocolo de contexto de modelos?

Descubre la manera en que el protocolo de contexto de modelos (MCP) conecta las aplicaciones de inteligencia artificial con las fuentes de datos externas para que puedas diseñar flujos de trabajo más inteligentes.

Todo sobre AIOps

AIOps (inteligencia artificial para las operaciones de TI) es un enfoque para automatizar las operaciones de TI con el machine learning (aprendizaje automático) y otras técnicas avanzadas de inteligencia artificial.

IA/ML: lecturas recomendadas

Artículos relacionados