¿Qué son los modelos Granite?

Copiar URL

Granite es una serie de modelos de lenguaje de gran tamaño (LLM) creados por IMB para aplicaciones empresariales. Los modelos base de Granite respaldan los casos prácticos de inteligencia artificial generativa relacionados con lenguaje y código.

Los modelos Granite cuentan con la licencia Apache 2.0 de tecnología de open source, por lo cual los desarrolladores pueden probarlos, modificarlos y distribuirlos de manera gratuita. Gracias a ello, estos modelos son ideales para las empresas que trabajan con datos confidenciales y desean ejecutar sus propios LLM en lugar de depender de un servicio externo.

Funcionamiento de Granite con Red Hat

Los modelos base se entrenaron para funcionar con una comprensión contextual general de los patrones, las estructuras y las representaciones del lenguaje. Este entrenamiento "básico" permite que los modelos aprendan a comunicar e identificar dichos patrones.

Los modelos de inteligencia artificial Granite de IBM tienen una base de conocimiento que puede perfeccionarse para llevar a cabo tareas específicas en prácticamente cualquier sector. Se entrenan con datos seleccionados que aportan transparencia al proceso.

Los LLM emplean la inteligencia artificial generativa para crear contenido nuevo a partir de las indicaciones del usuario. Actualmente, esta tecnología suele utilizarse para generar texto, imágenes, videos y código. Las empresas pueden emplear modelos base de LLM para automatizar distintos aspectos de sus operaciones, como los chatbots de servicio de atención al cliente o las pruebas de código de software.

Otros modelos base de LLM que utilizan la inteligencia artificial generativa son LLaMa de Meta (incluidos LLaMa 2 y LLaMa 3), Gemini de Google, Claude de Anthropic, GPT de OpenAI (conocido por su bot ChatGPT) y Mistral. Sin embargo, los modelos Granite se diferencian del resto por la divulgación de sus datos de entrenamiento, lo cual genera confianza en sus usuarios y los hace más adecuados para entornos empresariales.

Recursos de Red Hat

Sí, algunos modelos de inteligencia artificial Granite están disponibles con una licencia open source, por lo cual los desarrolladores pueden acceder a ellos con facilidad y utilizarlos para nuevos diseños de manera local. Por lo tanto, pueden personalizarlos según sus objetivos particulares. Los usuarios incluso tienen acceso a la mayoría de los datos utilizados para entrenar los modelos (PDF) para conocer su proceso de diseño y funcionamiento.

Con respecto a los modelos Granite, la tecnología de open source implica un espacio en el que los desarrolladores pueden personalizar el modelo con sus propios datos para generar resultados específicos de cada usuario. No significa que los datos privados de cada persona estén a disposición de toda la comunidad open source. A diferencia de la inteligencia artificial de servicios web públicos, los modelos Granite no se entrenan de forma permanente. Por tanto, los datos ingresados en los modelos nunca se compartirán con Red Hat, IBM ni cualquier otro usuario de Granite.

Empresas de diversos sectores, como la salud o la construcción, pueden utilizar Granite de muchas maneras para automatizar sus operaciones a gran escala. Los modelos Granite pueden entrenarse en tareas del ámbito empresarial, como la generación de resúmenes, respuestas a preguntas y clasificaciones. Estos son algunos ejemplos:

  • Generación de código. Los modelos de código Granite permiten utilizar el trabajo realizado por los desarrolladores o mejorarlo para que los procesos sean más eficientes. Por ejemplo, los desarrolladores pueden aprovechar la función de autocompletar; es decir, de la misma manera que nuestros teléfonos inteligentes completan oraciones automáticamente, el modelo puede terminar una línea de código antes de que el desarrollador termine de escribirla.
  • Extracción de información. Cuando necesitas simplificar, resumir o explicar grandes conjuntos de datos, Granite identifica rápidamente información y patrones precisos con rapidez para que no pierdas tiempo revisando todos esos datos.

Descubre más casos prácticos de inteligencia artificial

  • Arquitectura flexible. Granite puede integrarse a los sistemas actuales e implementarse en las instalaciones o en la nube. Sus interfaces están diseñadas para simplificar este último proceso. Los modelos Granite están disponibles en varios tamaños, así que puedes elegir el que mejor se adapte a tus necesidades mientras gestionas los costos informáticos.
  • Soluciones personalizadas. Si bien Granite se vende como un modelo base, está diseñado para ser entrenado con conocimientos específicos de cada empresa. Los usuarios tienen la flexibilidad de ajustar y perfeccionar el modelo para adaptarlo a sus necesidades. Por ejemplo, si tu empresa se centra en dispositivos médicos, puedes enseñarle la jerga que se utiliza en el sector de la salud.
  • Baja latencia. Cuando ejecutas un modelo Granite en tu propia infraestructura, puedes optimizar los tiempos de respuesta. El modelo proporciona datos en tiempo real, por lo cual es ideal para las operaciones fundamentales. Continuando con el ejemplo del sector de la salud, la accesibilidad a los datos en tiempo real es importante para la colaboración a distancia entre médicos y pacientes y para la atención en casos urgentes.
  • Precisión alta. Los desarrolladores pueden perfeccionar los modelos Granite para que realicen tareas específicas del sector y se conviertan en especialistas en cualquier materia. También pueden entrenarse en varios idiomas para mantener la precisión y la accesibilidad en todo el mundo.
  • Modelos transparentes. Como Granite está disponible con una licencia open source, los desarrolladores pueden conocer los procesos de diseño y entrenamiento de los modelos de inteligencia artificial, además de colaborar con una comunidad open source.

IBM ha lanzado varias series de modelos Granite para cumplir con las necesidades de aplicaciones empresariales cada vez más complejas. Estas series tienen diferentes categorías y convenciones de denominación.

Cada una presenta una finalidad diferente:

  • Granite para el lenguaje. Estos modelos ofrecen un procesamiento del lenguaje natural (NLP) preciso en varios idiomas con una baja latencia.
  • Granite para el código. Estos modelos están entrenados en más de 100 lenguajes de programación diferentes para admitir tareas de software de nivel empresarial.
  • Granite para series temporales. Estos modelos se perfeccionan para la previsión de series temporales, que es un método de predicción de datos futuros a partir de datos del pasado.
  • Granite para el ámbito geoespacial. IBM y la NASA crearon este modelo base que observa la Tierra con la recopilación de datos satelitales a gran escala para poder hacer un seguimiento de los cambios medioambientales y abordarlos.

En cada una de estas series, Granite ofrece modelos de distintos tamaños y especialidades. Por ejemplo, Granite para el lenguaje incluye:

  • Granite-7b-base, un modelo de lenguaje de uso general que se utiliza en conversaciones y chats.
  • Granite-7b-instruct, que se especializa en el seguimiento de instrucciones de tareas.

Descubre los modelos Granite en Hugging Face

Red Hat® AI es nuestra cartera de productos de inteligencia artificial basada en soluciones que nuestros clientes ya conocen. Gracias a ellas, nuestros productos siguen siendo confiables, flexibles y adaptables.

La cartera de productos de Red Hat AI permite a las empresas:

  • Adoptar la inteligencia artificial y generar innovaciones con ella rápidamente
  • Reducir la complejidad de ofrecer soluciones de inteligencia artificial
  • Realizar implementaciones en cualquier entorno

Con Red Hat AI, podrás acceder a los LLM Granite y a las funciones de uso de tu propio modelo (BYOM). Además, nuestros consultores ofrecen soporte práctico para los casos prácticos exclusivos de tu empresa a la hora de diseñar e implementar aplicaciones de inteligencia artificial generativa junto con cargas de trabajo fundamentales.

Descubre Red Hat AI

 

Acceso sencillo a los LLM de Granite

Red Hat Enterprise Linux® AI es una plataforma de modelos base que se diseñó específicamente para desarrollar, probar y ejecutar los LLM de Granite. Gracias a su enfoque open source, los costos de uso son bajos, por lo que una gran variedad de usuarios puede acceder a ella. Esta plataforma te permite realizar pruebas con tus propios datos y aprender sobre la marcha, por lo que es un buen punto de partida si aún logras identificar los casos prácticos de tu empresa con seguridad. Red Hat Enterprise Linux® AI es una plataforma de modelos base que se diseñó específicamente para desarrollar, probar y ejecutar los LLM de Granite. Gracias a su enfoque open source, los costos de uso son bajos, por lo que una gran variedad de usuarios puede acceder a ella.

Obtén más información sobre Red Hat Enterprise Linux AI

 

Comienza a utilizar InstructLab

Red Hat Enterprise Linux AI incluye InstructLab, un proyecto de la comunidad open source para mejorar los LLM. Las funciones de InstructLab permiten que desarrolladores con distintos niveles de habilidades y recursos colaboren con facilidad, lo que lo convierte en un lugar ideal para comenzar a experimentar con modelos de inteligencia artificial. Por ejemplo, requiere mucha menos información generada por personas y muchos menos recursos informáticos durante el entrenamiento. Además, InstructLab no es específico de un determinado modelo, así que puedes ajustarlo a un LLM de tu elección.

Aprende a entrenar un LLM en InstructLab con este video

Hub

Blogs de Red Hat

Aquí encuentras la información más reciente sobre nuestros clientes, partners y comunidades open source.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

Diferencias entre la RAG y el perfeccionamiento del modelo

Tanto la RAG como el perfeccionamiento cumplen la función de mejorar los modelos de lenguaje de gran tamaño (LLM), pero emplean métodos distintos. Con la RAG no se alteran los modelos, mientras que con el perfeccionamiento se deben ajustar sus parámetros.

Explicación sobre la infraestructura de la inteligencia artificial

La infraestructura de inteligencia artificial (IA) combina esta tecnología con el machine learning (aprendizaje automático) para desarrollar e implementar soluciones de datos confiables y flexibles.

Aplicación de la inteligencia artificial a las telecomunicaciones con Red Hat

Las soluciones adecuadas de TI ayudan a las empresas de telecomunicaciones a utilizar la inteligencia artificial de manera eficaz y rentable para hacer frente a los desafíos más comunes. Obtenga más información al respecto.

IA/ML: lecturas recomendadas

Producto destacado

  • Red Hat Enterprise Linux AI

    Una plataforma de modelo básico que te permite desarrollar, probar y ejecutar sin problemas modelos de lenguajes grandes (LLM) de la familia Granite para aplicaciones empresariales.

Artículos relacionados