¿Qué es la inferencia de la inteligencia artificial?

Copiar URL

La inferencia de la inteligencia artificial ocurre cuando un modelo de inteligencia artificial proporciona una respuesta a partir de datos. En general, lo que algunos denominan "inteligencia artificial" se refiere en realidad al éxito de la inferencia de la inteligencia artificial, es decir, la fase final, o el punto de inflexión, de un proceso largo y complejo de tecnología de machine learning (aprendizaje automático).

El entrenamiento de este tipo de modelos con datos suficientes mejora la precisión y la velocidad de la inferencia.

Más información sobre Red Hat AI

Por ejemplo, si se entrena un modelo de inteligencia artificial con información sobre los animales (sus similitudes y diferencias, el estado de salud y el comportamiento típico), es necesario disponer de un gran conjunto de datos para establecer conexiones e identificar patrones.

Una vez que el modelo se entrena con éxito, puede realizar inferencias, como identificar una raza de perro, reconocer el maullido de un gato o incluso advertir si un caballo está asustado. A pesar de que nunca haya observado a estos animales más que en un conjunto de datos abstractos, la gran cantidad de información empleada en el entrenamiento permite al modelo hacer inferencias en un entorno nuevo en tiempo real.

Nuestro propio cerebro también realiza conexiones de este tipo. Podemos leer sobre los diferentes animales en libros, películas y en Internet; podemos mirar fotos, ver videos y escuchar el sonido que emiten. Incluso, cuando vamos al zoológico, podemos hacer una inferencia ("¡Eso es un búfalo!"). Aunque nunca hayamos estado allí antes, somos capaces de identificar al animal a partir de la investigación que llevamos a cabo. Este mismo proceso ocurre con los modelos de inteligencia artificial durante la inferencia.

Descubre las novedades de Red Hat AI en nuestro próximo evento en vivo. Accede a la sesión en vivo.

La inferencia de la inteligencia artificial es la fase operativa de esta tecnología, en la que el modelo puede aplicar los conocimientos adquiridos en el entrenamiento a situaciones del mundo real. La posibilidad para identificar patrones y llegar a conclusiones son algunas de las características que la distingue de otras tecnologías. Además, su capacidad de inferencia puede facilitar la realización de tareas prácticas cotidianas o de programación informática de gran complejidad.

Diferencias entre la inteligencia artificial predictiva y la generativa

Red Hat AI

En la actualidad, las empresas usan la inferencia de la inteligencia artificial en diversos casos prácticos cotidianos. Estos son algunos ejemplos:

Sector de la salud: la inferencia de la inteligencia artificial permite que los especialistas del sector de la salud comparen la historia clínica del paciente con los datos actuales y detecten patrones y anomalías más rápido que si lo hiciera una persona. Puede tratarse de un valor atípico en un escáner cerebral o de una irregularidad en los latidos del corazón. De este modo, es posible advertir signos de riesgo para la salud del paciente en una fase más temprana y en mucho menos tiempo. 

Sector financiero: una vez que la inferencia de la inteligencia artificial se entrena con grandes conjuntos de datos relativos a información bancaria y crediticia, puede identificar errores o anomalías en tiempo real y detectar posibles fraudes de manera rápida y anticipada. Gracias a ello, se optimizan los recursos del servicio de atención al cliente, se protege su privacidad y se mejora la reputación de la marca.

Sector automotor: a medida que la inteligencia artificial irrumpe en este sector, los vehículos autónomos cambian nuestra forma de conducir. Gracias a su capacidad de inferencia, los vehículos pueden seguir la ruta más eficiente del punto A al punto B o frenar cuando se aproximan a una señal de "pare", con el fin de mejorar la comodidad y la seguridad de sus ocupantes.

Muchos otros sectores también aplican la inferencia de la inteligencia artificial de manera creativa; por ejemplo, puede emplearse en un servicio de comida rápida, en una clínica veterinaria o en la conserjería de un hotel. Las empresas buscan distintas formas de aprovechar esta tecnología para mejorar su precisión, ahorrar tiempo y dinero y mantener su ventaja frente a la competencia.

Más casos prácticos de inteligencia artificial/machine learning

Se trata del proceso mediante el cual se utiliza una serie de datos para enseñar al modelo a establecer conexiones e identificar patrones. En cambio, la inferencia es el modelo de inteligencia artificial en acción.

¿Qué son los modelos base?

La mayor parte del entrenamiento tiene lugar en las fases iniciales del desarrollo del modelo. Después de este proceso, puede establecer conexiones con información que no conocía. Si se entrena un modelo de inteligencia artificial con un conjunto de datos más amplio, puede realizar más conexiones y hacer inferencias más precisas. En caso de que no lo logre tras el entrenamiento, es posible perfeccionarlo con información más detallada y mejorar la precisión.

El entrenamiento y la inferencia de la inteligencia artificial permiten que esta imite ciertas competencias de las personas, como sacar conclusiones basadas en pruebas y hacer el análisis respectivo. 

Ciertos factores, como el tamaño del modelo, pueden cambiar la cantidad de recursos que se necesitan para manipularlo. 

Descubre la forma en que los modelos más pequeños facilitan la inferencia de la GPU.

Los distintos tipos de inferencia de la inteligencia artificial pueden adaptarse a diferentes casos prácticos.

  • Inferencia por lotes: el nombre deriva del modo en que se reciben y procesan los datos, es decir, en grandes grupos. En lugar de realizar la inferencia en tiempo real, este método trata los datos por tandas (en ocasiones, cada hora o, incluso, cada día), en función de su volumen y de la eficacia del modelo de inteligencia artificial. Estas inferencias también se pueden denominar "inferencias sin conexión" o "inferencias estáticas".
  • Inferencia en línea: este tipo, también conocido como inferencia "dinámica", ofrece una respuesta en tiempo real. Para ello, se necesitan hardware y software que reduzcan los obstáculos relacionados con la latencia y permitan realizar predicciones a alta velocidad. Es de gran utilidad en el extremo de la red, ya que la inteligencia artificial opera en el lugar en el que residen los datos; por ejemplo, en un teléfono, en un automóvil o en una oficina remota con conectividad limitada.

    La herramienta ChatGPT de OpenAI es un buen ejemplo de inferencia en línea porque requiere mucho soporte operativo inicial para ofrecer una respuesta rápida y precisa.

  • Inferencia constante: es un sistema basado en la inteligencia artificial que no se utiliza necesariamente para comunicarse con las personas. En lugar de indicaciones y solicitudes, el modelo recibe un flujo constante de información para hacer predicciones y actualizar su base de datos interna. Este tipo de inferencia puede hacer un seguimiento de los cambios, mantener la regularidad o predecir un problema antes de que surja. 

Explora la forma en que la inferencia distribuida con los vLLM disminuye los bloqueos

Se trata de un software que contribuye a que un modelo de inteligencia artificial pase de la fase de entrenamiento a la operativa. Utiliza el machine learning para que el modelo ponga en práctica todo lo que aprendió y genere inferencias.

Para obtener resultados eficaces, es necesario que el servidor y el modelo sean compatibles. A continuación, se presentan algunos ejemplos de los servidores de inferencia y los modelos que mejor se adaptan a ellos:

  • Servidor de inferencia multimodal: este tipo de servidor es compatible con diversos modelos a la vez. Esto significa que puede recibir datos en forma de código, imágenes o texto y procesar todas estas inferencias diferentes en un mismo servidor. Además, utiliza la memoria de la GPU y la CPU de manera más eficiente para admitir más de un modelo, lo cual permite optimizar el hardware, facilitar su capacidad de ajuste y optimizar los costos.
  • Servidor de inferencia de modelo único: este tipo de servidor solo admite un modelo, en lugar de varios. El proceso de inferencia de la inteligencia artificial tiene la particularidad de comunicarse con un modelo entrenado para un caso práctico concreto. Es posible que únicamente pueda procesar los datos en forma de texto o de código. Gracias a su carácter más especializado, puede ser muy eficiente, lo cual resulta útil a la hora de tomar decisiones en tiempo real o cuando los recursos son limitados. 

Los principales desafíos a la hora de realizar inferencias de la inteligencia artificial están relacionados con la capacidad de ajuste, los recursos y los costos.

  • Complejidad: es más fácil enseñar a un modelo a ejecutar tareas sencillas, como generar una imagen o informar a un cliente sobre una política de devoluciones. Sin embargo, a medida que utilizamos modelos para aprender datos más complejos (como detectar fraudes financieros o identificar anomalías médicas), estos requieren una mayor cantidad de información durante el entrenamiento y más recursos para respaldarla. 
     
  • Recursos: para que los modelos sean más complejos, es necesario disponer de sistemas de hardware y software especializados que permitan tratar la gran cantidad de datos que se procesan cuando un modelo genera inferencias. Uno de los elementos clave de estos recursos es la memoria de la unidad central de procesamiento (CPU), a la que se suele denominar centro de control de una computadora. Cuando un modelo se dispone a aplicar la información recibida (datos de entrenamiento) para generar una respuesta, debe consultar los datos almacenados en la memoria de la CPU. 
     
  • Costos: El conjunto de todos los elementos que posibilitan la aplicación de la inferencia de la inteligencia artificial es costoso. Independientemente de que tu objetivo sea ajustar la capacidad o cambiar al sistema de hardware más moderno y compatible con esta tecnología, los recursos que necesitas para obtener los resultados deseados pueden ser muy elevados. El aumento de la complejidad de los modelos y el desarrollo permanente del hardware pueden acarrear un fuerte incremento de los costos y provocar que las empresas tengan dificultades para mantenerse a la vanguardia de la innovación en este campo.  

 

La inferencia de la inteligencia artificial solo se vuelve más complicada cuando la empresa se expande. Además, cuando los usuarios no pueden realizar inferencias a gran escala, aumenta el tiempo de comercialización y los casos prácticos de inteligencia artificial generativa se vuelven más difíciles de aplicar en toda la empresa.

llm-d es un marco open source de inteligencia artificial que agiliza la inferencia distribuida a gran escala. Esto significa que llm-d puede satisfacer las necesidades complejas y dispares de la inferencia de LLM. Al usar herramientas como llm-d o LLM Compressor puedes realizar inferencias más rápido y ahorrarle a tu equipo y tus recursos una gran carga de trabajo.

¿Qué es el vLLM? 

Red Hat AI es una plataforma de productos y servicios que ayudan a tu empresa en cualquier etapa del proceso de adopción de la inteligencia artificial, independientemente de si estás comenzando o ya puedes expandirla. Respalda las iniciativas de inteligencia artificial generativa y predictiva para los casos prácticos exclusivos de tu empresa.

Con esta herramienta, tienes acceso a Red Hat® AI Inference Server para optimizar la inferencia de los modelos en toda la nube híbrida y lograr que las implementaciones sean más rápidas y rentables. El servidor de inferencia está impulsado por los vLLM y aprovecha al máximo la GPU, además de permitir los tiempos de respuesta más rápidos.

Obtén más información sobre Red Hat AI Inference Server

Red Hat AI Inference Server incluye el repositorio de Red Hat AI, un conjunto de modelos optimizados y validados por terceros que fomentan la flexibilidad y la uniformidad entre los equipos. Con el acceso a este repositorio, las empresas pueden agilizar el tiempo de comercialización y reducir los obstáculos financieros para el éxito de la inteligencia artificial.  

Explora el repositorio en Hugging Face

Obtén más información sobre los modelos validados por Red Hat AI

Red Hat AI cuenta con tecnologías open source y un ecosistema de partners que se centra en el rendimiento, la estabilidad y la compatibilidad con las GPU en diversas infraestructuras.

Descubre nuestro ecosistema de partners

Recurso

Introducción a la inteligencia artificial para las empresas: Guía para principiantes

Acelere su proceso de adopción de la inteligencia artificial con Red Hat OpenShift AI y Red Hat Enterprise Linux AI. Obtenga más información al respecto en esta guía para principiantes.

Red Hat AI

Red Hat AI ofrece soluciones flexibles y rentables que agilizan el desarrollo y la implementación de las herramientas de inteligencia artificial en todos los entornos de nube híbrida.

Más información

¿Qué es la inferencia distribuida?

La inferencia distribuida permite que los modelos de inteligencia artificial procesen las cargas de trabajo de manera más eficiente al dividir la tarea de inferencia entre un grupo de dispositivos interconectados.

¿Qué es el protocolo de contexto de modelos?

Descubre la manera en que el protocolo de contexto de modelos (MCP) conecta las aplicaciones de inteligencia artificial con las fuentes de datos externas para que puedas diseñar flujos de trabajo más inteligentes.

La seguridad de la inteligencia artificial

La seguridad de la inteligencia artificial protege las aplicaciones de los ataques maliciosos que tienen como objetivo debilitar las cargas de trabajo de inteligencia artificial, manipular datos o robar información confidencial.

IA/ML: lecturas recomendadas

Artículos relacionados