Durante mucho tiempo, los administradores de sistemas y los desarrolladores de Red Hat Enterprise Linux (RHEL) han confiado en un conjunto específico de herramientas para diagnosticar problemas, junto con años de experiencia e intuición acumuladas. Sin embargo, a medida que los entornos se vuelven más complejos, la carga cognitiva necesaria para descifrar los registros y solucionar los problemas de manera efectiva ha ido aumentando.

Hoy, nos complace anunciar la versión de prueba para desarrolladores de un nuevo servidor de protocolo de contexto de modelo (MCP) para Red Hat Enterprise Linux. Este nuevo servidor MCP está diseñado para cerrar la brecha entre RHEL y los modelos de lenguaje de gran tamaño (LLM), lo que permite una nueva era de resolución de problemas más inteligente.

¿Qué es el servidor MCP para RHEL?

MCP es un estándar abierto que permite que los modelos de inteligencia artificial interactúen con datos y sistemas externos, lanzado originalmente por Anthropic y donado en diciembre de 2025 a Agentic AI Foundation. El nuevo servidor MCP de Red Hat Enterprise Linux está ahora en versión de prueba para desarrolladores y utiliza este protocolo para brindar acceso directo y contextualizado a Red Hat Enterprise Linux desde las aplicaciones de inteligencia artificial que lo admiten, como Claude Desktop o goose.

Anteriormente, lanzamos servidores MCP para Red Hat Lightspeed y Red Hat Satellite, que permiten una serie de casos de uso interesantes. Este nuevo servidor MCP amplía estos casos de uso y está diseñado específicamente para la resolución de problemas en profundidad en los sistemas RHEL.

Habilitación de una resolución de problemas más inteligente

La conexión de tu LLM a RHEL con el nuevo servidor MCP posibilita casos de uso como los siguientes:

  • Análisis de registros inteligente: Examinar los datos de los registros es tedioso. El servidor MCP permite que los LLM ingieran y analicen los registros del sistema RHEL. Esta función permite el análisis de la causa raíz y la detección de anomalías basados en la inteligencia artificial, lo que te permite convertir los datos de registro sin procesar en inteligencia procesable.
  • Análisis del rendimiento: El servidor MCP puede acceder a información sobre la cantidad de CPU, el promedio de carga, información de la memoria y el uso de la CPU y la memoria de los procesos en ejecución. Esto permite que un sistema LLM analice el estado actual del sistema, identifique posibles cuellos de botella en el rendimiento y realice otras recomendaciones relacionadas con el rendimiento.

Para ayudarte a explorar estas nuevas funciones de una manera más segura, esta versión de prueba para desarrolladores se centra en la habilitación de MCP de solo lectura. El servidor MCP permite que un LLM inspeccione y recomiende, y utiliza claves SSH estándar para la autenticación. También se puede configurar con una lista de permitidos para el acceso a los archivos de registro y al nivel de acceso de los registros. El servidor MCP no permite el acceso de shell abierto a tu sistema RHEL, ya que los comandos que ejecuta el servidor MCP se evalúan previamente.

Ejemplos de casos de uso

En estos ejemplos, uso el agente de inteligencia artificial goose junto con el servidor MCP para trabajar con uno de mis sistemas RHEL 10 denominado rhel10.example.com. Goose admite varios proveedores de LLM, incluidos los proveedores alojados en línea y los alojados localmente. Estoy usando un modelo alojado localmente.

He instalado Goose y el servidor MCP en mi estación de trabajo Fedora, con la autenticación de clave SSH configurada con rhel10.example.com.

Comenzaré con una petición al LLM para que me ayude a verificar el estado del sistema rhel10.example.com:

Screenshot showing prompt provided to LLM within goose

El LLM utiliza una serie de herramientas proporcionadas por el servidor MCP para recopilar información del sistema:

Screenshot showing MCP server tool calls made by the LLM to collect system information

Según esto, el LLM proporciona una descripción general del sistema y su estado, incluida esta tabla:

Screenshot showing a table summary of the system health returned by the LLM

Además, proporciona este resumen, señalando los problemas críticos que deben abordarse, como el sistema de archivos raíz casi lleno y un par de servicios que fallan en el sistema.

Screenshot showing a summary of the top issues on the system

Examinemos los problemas identificados. Le pediré al LLM que me ayude a determinar por qué el uso del disco es tan alto:

Screenshot showing prompt provided to LLM within goose

El LLM utiliza herramientas proporcionadas por el servidor MCP para determinar qué está utilizando la mayor parte del espacio en disco:

Screenshot showing MCP server tool calls made by the LLM to collect disk usage information

Según esto, el LLM determina que el directorio /home/brian/virtual-machines tiene un archivo de 25 GB, y que el directorio /home/brian/.local está ocupando 24 GB de espacio:

Screenshot showing the LLM response regarding disk usage

Finalmente, también le pediré al LLM que me ayude con el servicio httpd.service, que se informó anteriormente como fallido.

Screenshot showing prompt provided to LLM within goose

El LLM utiliza la herramienta Read File proporcionada por el servidor MCP:

Screenshot showing MCP server Read File tool call made by the LLM

Según esto, el LLM informa sobre las causas potenciales del fallo de httpd.service:

Screenshot showing the LLM response regarding the http.service failure

Además, también proporciona algunas instrucciones paso a paso para corregir esto:

Screenshot showing the LLM response with step-by-step instructions for correcting the issue

El servidor MCP para RHEL me permitió identificar y solucionar fácilmente los posibles problemas de este sistema relacionados con un sistema de archivos casi lleno y un servicio httpd defectuoso.

¿Qué sigue?

Si bien estamos comenzando con el análisis de solo lectura, nuestra hoja de ruta incluye expandirnos a casos de uso adicionales. Para seguir el proceso de desarrollo, consulta nuestro repositorio de GitHub upstream. ¡Agradecemos las contribuciones upstream! Estamos muy interesados en tus comentarios: solicitudes de mejora, informes de errores, etc. Puedes comunicarte con el equipo en GitHub o a través del grupo de interés especial (SIG) de inteligencia artificial/ML de Fedora.

¿Estás listo para experimentar una resolución de problemas más inteligente?

El servidor MCP para Red Hat Enterprise Linux ya está disponible en la versión de prueba para desarrolladores. Conecta tu aplicación cliente de LLM y observa cómo la inteligencia artificial contextual puede cambiar la forma en que gestionas RHEL. Para comenzar, consulta la documentación de Red Hat y la documentación upstream.

Prueba del producto

Prueba del producto Red Hat Enterprise Linux

Versión de Red Hat Enterprise Linux que organiza los recursos de hardware y se ejecuta en los sistemas físicos, en la nube o como guest de un hipervisor.

Sobre los autores

Brian Smith is a product manager at Red Hat focused on RHEL automation and management.  He has been at Red Hat since 2018, previously working with public sector customers as a technical account manager (TAM).  

Máirín Duffy is a Red Hat Distinguished Engineer and leads the Red Hat Enterprise Linux Lightspeed Incubation team at Red Hat as a passionate advocate for human-centered AI and open source. A recipient of the O’Reilly Open Source Award, Máirín first joined Red Hat as an intern in 2004 and has spent two decades in open source communities focusing on user experience in order to expand the reach of open source. A sought-after speaker and author, Mo holds 19 patents and authored 6 open source coloring books, including The SELinux Coloring Book.

UI_Icon-Red_Hat-Close-A-Black-RGB

Navegar por canal

automation icon

Automatización

Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos

AI icon

Inteligencia artificial

Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar

open hybrid cloud icon

Nube híbrida abierta

Vea como construimos un futuro flexible con la nube híbrida

security icon

Seguridad

Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías

edge icon

Edge computing

Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge

Infrastructure icon

Infraestructura

Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo

application development icon

Aplicaciones

Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones

Virtualization icon

Virtualización

El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube