Los SLM y los LLM: ¿qué son los modelos de lenguaje pequeños?

Copiar URL

Un modelo de lenguaje pequeño (SLM) es una versión reducida de un modelo de lenguaje de gran tamaño (LLM) que tiene más conocimientos especializados, se personaliza más rápido y es más eficiente durante su ejecución.

Los SLM se entrenan para especializarse en un área, mientras que los LLM contienen amplios conocimientos generales. Debido a su menor tamaño, los SLM requieren menos recursos informáticos para su entrenamiento e implementación, lo que disminuye los costos de infraestructura y permite perfeccionarlos más rápido. La estructura ligera de los SLM les permite funcionar perfectamente en dispositivos del extremo de la red y en aplicaciones móviles.

Comparación entre los SLM y los LLM

Los SLM y los LLM son dos tipos de sistemas de inteligencia artificial que se entrenan para interpretar el lenguaje humano, incluidos los lenguajes de programación. Las diferencias principales entre ambos radican en el tamaño de los conjuntos de datos que se utilizan para entrenarlos, los procesos empleados para esa tarea y los costos y los beneficios de implementarlos para distintos casos prácticos.

Como sus nombres lo indican, ambos modelos se entrenan con conjuntos de datos basados en el lenguaje, lo cual los distingue de aquellos entrenados con imágenes (como DALL-E) o videos (como Sora). Algunos ejemplos de conjuntos de datos basados en el lenguaje son textos de páginas web, códigos de desarrolladores, correos electrónicos y manuales.

Una de las aplicaciones más populares de los SLM y los LLM es la inteligencia artificial generativa, que puede generar (de ahí su nombre) respuestas de contenido a muchas consultas diferentes e impredecibles sin seguir un guion. En particular, los LLM adquirieron notoriedad entre el público general gracias al modelo base GPT-4 y ChatGPT, un chatbot de conversación entrenado con enormes conjuntos de datos que utiliza billones de parámetros para responder a una gran variedad de consultas de personas. Si bien la inteligencia artificial generativa es más conocida, también hay aplicaciones no generativas de los LLM y los SLM, como la inteligencia artificial predictiva.

Los aspectos principales en el diseño de un entorno de AI/ML listo para la producción

El alcance de GPT-4 y ChatGPT ilustra a la perfección una diferencia común entre los LLM y los SLM: los conjuntos de datos con los que se entrenan.

Por lo general, los LLM están diseñados para imitar la inteligencia humana en un sentido muy amplio, por lo que se entrenan con una amplia variedad de conjuntos de datos de gran tamaño. En el caso de GPT-4 y ChatGPT, esto incluye todo el Internet público hasta una fecha determinada. Así es como ChatGPT adquirió una gran notoriedad por interpretar y responder una gran variedad de consultas de usuarios generales. Sin embargo, también llamó la atención por sus posibles respuestas incorrectas (denominadas "alucinaciones" en el lenguaje coloquial), ya que carece del entrenamiento y el perfeccionamiento adecuados para responder con precisión a cada consulta específica de un sector o ámbito concreto.

Por otro lado, los SLM suelen entrenarse con conjuntos de datos más pequeños adaptados a dominios específicos de un sector (es decir, áreas de especialización). Por ejemplo, un proveedor de servicios de atención médica podría usar un chatbot basado en un SLM que se haya entrenado con conjuntos de datos médicos para incorporar conocimientos específicos del área en la consulta de un usuario no experto sobre su salud, lo cual mejoraría la calidad de la pregunta y la respuesta. En este caso, no es necesario entrenar al chatbot con todo el contenido de Internet (cada publicación de blog, novela de ficción o poema que exista) porque es irrelevante para el caso práctico en cuestión.

En resumen, en comparación con los LLM, los SLM suelen tener buenos resultados en áreas específicas, pero presentan más dificultades en lo que respecta a los conocimientos generales y la comprensión del contexto global.

Explicación sobre LoRA y QLoRA

Recursos de Red Hat

El entrenamiento de un modelo para un caso práctico, ya sea LLM o SLM, es un proceso que utiliza una gran cantidad de recursos, en especial en el caso de los LLM. Para el modelo GPT-4, se ejecutaron un total de 25 000 GPU NVIDIA A100 de manera simultánea y sin interrupciones durante un período de 90 a 100 días. GPT-4 representa el extremo más amplio de los LLM; otros, como Granite, necesitaron menos recursos. Aunque es probable que el entrenamiento de un SLM también consuma muchos recursos informáticos, esta cifra es muy inferior a la de un LLM.

 

Recursos necesarios para el entrenamiento y la inferencia

También es importante tener en cuenta la diferencia entre el entrenamiento y la inferencia de los modelos. Como ya se mencionó, el entrenamiento es el primer paso en el desarrollo de un modelo de inteligencia artificial, mientras que la inferencia es el proceso mediante el cual ese modelo entrenado realiza predicciones a partir de los datos nuevos. Por ejemplo, cuando un usuario formula una pregunta a ChatGPT, se invoca al programa para que le devuelva una predicción. A ese proceso se lo denomina "inferencia".

Algunos LLM entrenados previamente, como los modelos Granite, pueden realizar inferencias con los recursos de una única estación de trabajo de alta potencia (p. ej., los modelos Granite se adaptan a una GPU 2 V100 de 32 GB), aunque muchos requieren varias unidades de procesamiento paralelo para generar datos. Además, cuanto mayor es la cantidad de usuarios que acceden a un LLM simultáneamente, más lentas son las inferencias que este ejecuta. Por otro lado, los SLM suelen diseñarse para que puedan realizar inferencias con los recursos de un smartphone u otro dispositivo móvil.

No existe un modelo que sea mejor que el otro, pero sí uno que se adapta mejor a los planes, los recursos, la experiencia, el tiempo y otros factores específicos de la empresa. Además, es importante decidir si tu caso práctico requiere entrenar un modelo desde cero o perfeccionar uno ya entrenado. Algunos aspectos que se deben tener en cuenta al elegir entre los LLM y los SLM incluyen:

Costo

En general, los recursos que necesitan los LLM para el entrenamiento, el perfeccionamiento y la ejecución de inferencias son muchos más. Sin embargo, es importante destacar también que el entrenamiento no es una inversión tan frecuente, ya que los recursos informáticos solo se utilizan mientras se entrena el modelo, lo cual es una tarea esporádica, nunca permanente. Sin embargo, la ejecución de inferencias genera un costo corriente, cuya demanda puede aumentar a medida que se amplía el uso del modelo a más usuarios. En la mayoría de los casos, esto requiere el empleo de recursos de cloud computing según sea necesario, una inversión significativa en recursos en las instalaciones, o ambas opciones.

Los SLM se evalúan con frecuencia para casos prácticos de baja latencia, como el edge computing. Esto se debe a que suelen ejecutarse con los recursos disponibles en un único dispositivo móvil sin necesidad de disponer de una conexión sólida y estable a recursos más importantes.

Blog de Red Hat: Recomendaciones para reducir el costo de los LLM

Experiencia

Muchos de los principales LLM entrenados previamente (como Granite, Llama y GPT-4) ofrecen una opción más sencilla para dar los primeros pasos con la inteligencia artificial. A menudo, son las alternativas que se recomiendan para aquellas empresas que desean iniciarse en el uso de esta tecnología, ya que no es necesario que los analistas de datos las diseñen y entrenen desde cero. En cambio, los SLM suelen requerir conocimientos especializados en el ámbito del análisis de datos y del sector para realizar ajustes precisos en conjuntos de datos específicos.

Seguridad

Uno de los posibles riesgos de los LLM es la divulgación de información confidencial a través de las interfaces de programación de aplicaciones (API). Por lo tanto, el perfeccionamiento de un LLM respecto de los datos de tu empresa exige el cumplimiento estricto de la normativa y la política empresarial. Por su parte, los SLM pueden presentar un menor riesgo de filtración de datos porque ofrecen un mayor grado de control.

Es fundamental conocer las limitaciones de los SLM a medida que las empresas los integran a sus flujos de trabajo.

Sesgo

Los SLM se entrenan con conjuntos de datos más pequeños, por lo que resulta más sencillo reducir los sesgos que inevitablemente se producirán. No obstante, al igual que sucede con los modelos de lenguaje de cualquier tamaño, es posible que se produzcan sesgos, como la falta de representación o la representación errónea de determinados grupos e ideas, o bien ciertas imprecisiones sobre los hechos. Los modelos de lenguaje también pueden heredar sesgos relacionados con el dialecto, la ubicación geográfica y la gramática.

Los equipos deben prestar especial atención a la calidad de los datos de entrenamiento para evitar los resultados sesgados. 

Alcance limitado de los conocimientos

Los SLM disponen de menos información para generar respuestas, por lo que son un recurso ideal para tareas específicas, pero menos adecuado para tareas que requieren una gran variedad de conocimientos generales. 

Por lo tanto, los equipos pueden crear un conjunto de SLM específicos para utilizarlos junto con uno o varios LLM. En este caso, si pueden combinar los modelos con las aplicaciones que ya poseen y generar un flujo de trabajo interconectado de varios modelos de lenguaje trabajando en conjunto, tendrán una solución muy efectiva.

La capacidad de adaptación de los SLM es una ventaja para distintos casos prácticos. 

Chatbots

Utiliza los SLM para entrenar chatbots en contenido especializado. Por ejemplo, se puede entrenar un chatbot de atención al cliente con conocimientos específicos de una empresa para que responda preguntas y brinde información a los usuarios. 

Inteligencia artificial con agentes

Integra los SLM a un flujo de trabajo de inteligencia artificial con agentes para que completen tareas que le pida un usuario. 

Inteligencia artificial generativa

Los SLM pueden realizar tareas como generar, traducir o resumir texto. 

Descubre los casos prácticos de la inteligencia artificial generativa

Red Hat AI ofrece funciones de inteligencia artificial generativa y predictiva, junto con el soporte de MLOps, para diseñar soluciones flexibles y confiables según sea necesario en los entornos de nube híbrida. Además, agiliza la adopción de la tecnología, reduce las dificultades de la distribución de este tipo de soluciones y aporta flexibilidad para el desarrollo y la implementación dondequiera que se encuentren los datos.

Red Hat AI puede utilizarse en combinación con la infraestructura de nube híbrida abierta de Red Hat. Esto permite que las empresas diseñen soluciones de inteligencia artificial personalizadas; gestionen los ciclos de vida de los modelos y las aplicaciones; se adapten a los requisitos de aceleración del hardware; e implementen, ejecuten y operen las cargas de trabajo fundamentales, todo en una única plataforma.

Descubre la cartera de productos Red Hat

Machine learning e inteligencia artificial para principiantes

Si eres nuevo en el ámbito del análisis de los modelos de machine learning (aprendizaje automático) e inteligencia artificial, puedes probar InstructLab, una solución impulsada por la comunidad para entrenar modelos de lenguaje de gran tamaño. Allí podrás probar modelos y contribuir directamente a su desarrollo sin costo alguno.

Descubre InstructLab

Acceso sencillo a los modelos Granite de IBM

Si deseas avanzar al siguiente nivel, utiliza Red Hat® Enterprise Linux® AI, una plataforma de modelos base que te permite desarrollar, probar y ejecutar LLM Granite para aplicaciones empresariales. Granite es un grupo de modelos de inteligencia artificial con licencia open source que cuenta con soporte completo y la garantía de Red Hat. Su enfoque open source fomenta la innovación en inteligencia artificial generativa y, al mismo tiempo, mantiene la confianza y la seguridad.

Obtén más información sobre Red Hat Enterprise Linux AI

Adaptación a la empresa

Red Hat® OpenShift® AI es una plataforma que puede brindar soporte a los modelos en entornos de nube híbrida según sea necesario. Puedes entrenar los modelos de inteligencia artificial con tus propios datos, distribuirlos y aplicarles las técnicas de ajuste de instrucciones y perfeccionamiento para tus casos prácticos específicos.

Estos productos en conjunto ofrecen una solución unificada que permite que los analistas de datos y los desarrolladores colaboren entre sí para que los modelos puedan pasar de la fase de experimentación a la de producción con mayor rapidez.

Obtén más información sobre Red Hat OpenShift AI

Crecimiento con los partners

Las integraciones de los partners de Red Hat abren paso a un ecosistema cada vez más grande de herramientas confiables de inteligencia artificial que están diseñadas para funcionar en las plataformas open source.

Consulta nuestros partners de inteligencia artificial

Hub

El blog oficial de Red Hat

Obtenga la información más reciente sobre nuestro ecosistema de clientes, socios y comunidades.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

La inteligencia artificial para empresas

La inteligencia artificial para empresas se trata de la integración de herramientas de inteligencia artificial y software de machine learning (aprendizaje automático) en operaciones y procesos de gran alcance. En la actualidad, las empresas pueden resolver los problemas en semanas en lugar de años.

¿Qué es el perfeccionamiento con eficiencia de parámetros?

El perfeccionamiento con eficiencia de parámetros (PEFT) es un conjunto de técnicas que permiten ajustar solo una parte de los parámetros de un LLM para utilizar menos recursos.

Diferencias entre LoRA y QLoRA

La adaptación de bajo rango (LoRA) y la adaptación de bajo rango cuantificada (QLoRA) son técnicas para entrenar modelos de inteligencia artificial.

IA/ML: lecturas recomendadas

Artículos relacionados