¿Qué es la inferencia de la inteligencia artificial?

Copiar URL

La inferencia de la inteligencia artificial ocurre cuando un modelo de inteligencia artificial proporciona una respuesta a partir de datos. En general, lo que algunos denominan "inteligencia artificial" se refiere en realidad al éxito de la inferencia de la inteligencia artificial, es decir, la fase final, o el punto de inflexión, de un proceso largo y complejo de tecnología de machine learning (aprendizaje automático).

El entrenamiento de este tipo de modelos con datos suficientes mejora la precisión y la velocidad de la inferencia.

Descubre Red Hat AI

 

Por ejemplo, si se entrena un modelo de inteligencia artificial con información sobre los animales (desde sus similitudes y diferencias, el estado de salud y el comportamiento típico), es necesario disponer de un gran conjunto de datos para establecer conexiones e identificar patrones.

Una vez que el modelo se entrena con éxito, puede realizar inferencias, como identificar una raza de perro, reconocer el maullido de un gato o incluso advertir si un caballo está asustado. A pesar de que nunca haya observado a estos animales más que en un conjunto de datos abstractos, la gran cantidad de información empleada en el entrenamiento permite al modelo hacer inferencias en un entorno nuevo en tiempo real.

Nuestro propio cerebro también realiza conexiones de este tipo. Podemos leer sobre los diferentes animales en libros, películas y en Internet; podemos mirar fotos, ver videos y escuchar el sonido que emiten. Incluso, cuando vamos al zoológico, podemos hacer una inferencia ("¡Eso es un búfalo!"). Aunque nunca hayamos estado allí antes, somos capaces de identificar al animal a partir de la investigación que llevamos a cabo. Este mismo proceso ocurre con los modelos de inteligencia artificial durante la inferencia.

¿Qué son los modelos base? 

La inferencia de la inteligencia artificial es la fase operativa de esta tecnología, en la que el modelo puede aplicar los conocimientos adquiridos en el entrenamiento a situaciones del mundo real. La posibilidad para identificar patrones y llegar a conclusiones son algunas de las características que la distingue de otras tecnologías. Además, su capacidad de inferencia puede facilitar la realización de tareas prácticas cotidianas o de programación informática de gran complejidad.

Diferencias entre la inteligencia artificial predictiva y la generativa 

Inteligencia artificial de Red Hat

En la actualidad, las empresas usan la inferencia de la inteligencia artificial en diversos casos prácticos cotidianos. Estos son algunos ejemplos:

Sector de la salud. La inferencia de la inteligencia artificial permite que los especialistas del sector de la salud comparen la historia clínica del paciente con los datos actuales y detecten patrones y anomalías más rápido que si lo hiciera una persona. Puede tratarse de un valor atípico en un escáner cerebral o de una irregularidad en los latidos del corazón. De este modo, es posible advertir signos de riesgo para la salud del paciente en una fase más temprana y en mucho menos tiempo. 

Sector financiero. Una vez que la inferencia de la inteligencia artificial se entrena con grandes conjuntos de datos relativos a información bancaria y crediticia, puede identificar errores o anomalías en tiempo real y detectar posibles fraudes de manera rápida y anticipada. Gracias a ello, se optimizan los recursos del servicio de atención al cliente, se protege su privacidad y se mejora la reputación de la marca.

Sector automotor. A medida que la inteligencia artificial irrumpe en la industria automotriz, los vehículos autónomos cambian nuestra forma de conducir. Gracias a su capacidad de inferencia, los vehículos pueden seguir la ruta más eficiente del punto A al punto B o frenar cuando se aproximan a una señal de "pare", con el fin de mejorar la comodidad y la seguridad de sus ocupantes.

Muchos otros sectores también aplican la inferencia de la inteligencia artificial de manera creativa; por ejemplo, puede emplearse en un servicio de comida rápida, en una clínica veterinaria o en la conserjería de un hotel. Las empresas buscan distintas formas de aprovechar esta tecnología para mejorar su precisión, ahorrar tiempo y dinero y mantener su ventaja frente a la competencia.

Más casos prácticos de inteligencia artificial/machine learning 

Se trata del proceso mediante el cual se utiliza una serie de datos para enseñar al modelo a establecer conexiones e identificar patrones. En cambio, la inferencia es el modelo de inteligencia artificial en acción.

La mayor parte del entrenamiento tiene lugar en las fases iniciales del desarrollo del modelo. Después de este proceso, puede establecer conexiones con información que no conocía. Si se entrena un modelo de inteligencia artificial con un conjunto de datos más amplio, puede realizar más conexiones y hacer inferencias más precisas. En caso de que no lo logre tras el entrenamiento, es posible perfeccionarlo con información más detallada y mejorar la precisión.

El entrenamiento y la inferencia de la inteligencia artificial permiten que esta imite ciertas competencias de las personas, como sacar conclusiones basadas en pruebas y hacer el análisis respectivo. 

Los distintos tipos de inferencia de la inteligencia artificial pueden adaptarse a diferentes casos prácticos.

  • Inferencia por lotes. El nombre deriva del modo en que se reciben y procesan los datos, es decir, en grandes grupos. En lugar de realizar la inferencia en tiempo real, este método trata los datos por tandas (en ocasiones, cada hora o, incluso, cada día), en función de su volumen y de la eficacia del modelo de inteligencia artificial. Estas inferencias también se pueden denominar "inferencias sin conexión" o "inferencias estáticas".
  • Inferencia en línea. Este tipo, también conocido como "inferencia dinámica", ofrece una respuesta en tiempo real. Para ello, se necesitan hardware y software que reduzcan los obstáculos relacionados con la latencia y permitan realizar predicciones a alta velocidad. Este tipo de inferencia es de gran utilidad en el extremo de la red, ya que la inteligencia artificial opera en el lugar en el que residen los datos; por ejemplo, en un teléfono, en un automóvil o en una oficina remota con conectividad limitada.

    La herramienta ChatGPT de OpenAI es un buen ejemplo de inferencia en línea, ya que requiere mucho soporte operativo inicial para ofrecer una respuesta rápida y precisa.

  • Inferencia constante. Es un sistema basado en la inteligencia artificial que no se utiliza necesariamente para comunicarse con las personas. En lugar de indicaciones y solicitudes, el modelo recibe un flujo constante de información para hacer predicciones y actualizar su base de datos interna. Este tipo de inferencia puede hacer un seguimiento de los cambios, mantener la regularidad o predecir un problema antes de que surja. 

Se trata de un software que contribuye a que un modelo de inteligencia artificial pase de la fase de entrenamiento a la operativa. Utiliza el machine learning para que el modelo ponga en práctica todo lo que aprendió y genere inferencias.

Para obtener resultados eficaces, es necesario que el servidor y el modelo sean compatibles. A continuación, se presentan algunos ejemplos de los servidores de inferencia y los modelos que mejor se adaptan a ellos:

  • Servidor de inferencia multimodal. Este tipo de servidor es compatible con diversos modelos a la vez. Esto significa que puede recibir datos en forma de código, imágenes o texto y procesar todas estas inferencias diferentes en un mismo servidor. Además, utiliza la memoria de la GPU y la CPU de manera más eficiente para admitir más de un modelo, lo cual permite optimizar el hardware, facilitar su capacidad de ajuste y optimizar los costos.
  • Servidor de inferencia de modelo único. Este tipo de servidor solo admite un modelo, en lugar de varios. El proceso de inferencia de la inteligencia artificial tiene la particularidad de comunicarse con un modelo entrenado para un caso práctico concreto. Es posible que únicamente pueda procesar los datos en forma de texto o de código. Gracias a su carácter más especializado, puede ser muy eficiente, lo cual resulta útil a la hora de tomar decisiones en tiempo real o cuando los recursos son limitados. 

Los principales desafíos a la hora de realizar inferencias de la inteligencia artificial están relacionados con la capacidad de ajuste, los recursos y los costos.

  • Complejidad. Es más fácil enseñar a un modelo a ejecutar tareas sencillas, como generar una imagen o informar a un cliente sobre una política de devoluciones. Sin embargo, a medida que utilizamos modelos para aprender datos más complejos (como detectar fraudes financieros o identificar anomalías médicas), estos requieren una mayor cantidad de información durante el entrenamiento y más recursos para respaldarla. 
     
  • Recursos. Para que los modelos sean más complejos, es necesario disponer de hardware y software especializados que permitan tratar la gran cantidad de datos que se procesan cuando un modelo genera inferencias. Uno de los elementos clave de estos recursos es la memoria de la unidad central de procesamiento (CPU), a la que se suele denominar centro de control de una computadora. Cuando un modelo se dispone a aplicar la información recibida (datos de entrenamiento) para generar una respuesta, debe consultar los datos almacenados en la memoria de la CPU. 
     
  • Costos. El conjunto de todos los elementos que posibilitan la aplicación de la inferencia de la inteligencia artificial es costoso. Independientemente de que tu objetivo sea ajustar la capacidad o cambiar al sistema de hardware más moderno y compatible con esta tecnología, los recursos que necesitas para obtener los resultados deseados pueden ser muy elevados. El aumento de la complejidad de los modelos y el desarrollo permanente del hardware pueden acarrear un fuerte incremento de los costos y provocar que las empresas tengan dificultades para mantenerse a la vanguardia de la innovación en este campo.  

La solución para enfrentar estos desafíos es vLLM, un servidor de inferencia que agiliza los resultados de las aplicaciones de inteligencia artificial generativa.

What is vLLM?

Red Hat AI es una cartera de productos y servicios que ayudan a tu empresa en cualquier etapa del proceso de aplicación de la inteligencia artificial, ya sea que estés en los inicios del proyecto o listo para expandirlo a la nube híbrida. Respalda las iniciativas de inteligencia artificial generativa y predictiva para los casos prácticos exclusivos de tu empresa.

Descubre Red Hat AI

Red Hat AI permite agilizar el tiempo de comercialización y reducir los obstáculos financieros y de recursos para las plataformas de inteligencia artificial. Además, ofrece la posibilidad de perfeccionar modelos pequeños y adaptados a tus necesidades de manera eficiente, con la flexibilidad necesaria para implementarlos dondequiera que residan los datos.

Red Hat AI cuenta con tecnologías open source y un ecosistema de partners que se centra en el rendimiento, la estabilidad y la compatibilidad con las GPU en diversas infraestructuras.

Consulta el comunicado de prensa sobre la adquisición de Neural Magic 

Comunicado de prensa

Red Hat anuncia un acuerdo definitivo para adquirir Neural Magic

Red Hat anunció que ha firmado un acuerdo definitivo para adquirir Neural Magic, una empresa pionera en software y algoritmos que aceleran las cargas de trabajo de inferencia de la IA generativa (gen AI).

Inteligencia artificial de Red Hat

Utilice las plataformas open source de Red Hat para diseñar, implementar y supervisar los modelos y las aplicaciones de inteligencia artificial.

Más información

¿Qué es el ajuste fino eficiente de parámetros (PEFT)?

El PEFT es un conjunto de técnicas que ajustan solo una parte de los parámetros que están dentro de un LLM para utilizar menos recursos.

Diferencias entre LoRA y QLoRA

La adaptación de bajo rango (LoRA) y la adaptación de bajo rango cuantificada (QLoRA) son técnicas para entrenar modelos de inteligencia artificial.

Los vLLM

Los vLLM son conjuntos de código open source que permiten que los modelos de lenguaje realicen cálculos de manera más eficiente.

IA/ML: lecturas recomendadas

Artículos relacionados