Contáctenos
Cuenta Inicie sesión
Secciones

El concepto de la informática de alto rendimiento (HPC)

Copiar URL

Por lo general, la informática de alto rendimiento (HPC) se refiere al procesamiento de cálculos complejos a altas velocidades en varios servidores en paralelo. Esos grupos de servidores se conocen como clústeres y están compuestos por cientos o incluso miles de servidores informáticos que se han conectado a través de una red. En un clúster de HPC, cada elemento informático se conoce como nodo.

Estos clústeres ejecutan lotes de cálculos informáticos. Su elemento principal es el programador, que sirve para hacer un seguimiento de los recursos que se encuentran disponibles. Esto permite que las solicitudes de tareas se asignen correctamente a diversos recursos informáticos (como la CPU y la GPU) mediante una red ágil.

Una solución de HPC tradicional incluye tres elementos principales:

  • La informática
  • La red
  • Almacenamiento

Las soluciones de este tipo se pueden implementar de forma local, en el extremo de la red o incluso en la nube.

Transform your business with high performance computing

Son dispositivos compuestos por miles de nodos informáticos que trabajan en conjunto para realizar tareas. 

Si bien antes se trataba de máquinas individuales ultrarrápidas, las computadoras de alto rendimiento actuales poseen una gran cantidad de clústeres de servidores con una o varias unidades centrales de procesamiento (CPU).

Asimismo, las supercomputadoras modernas incorporan potencia informática para ofrecer un rendimiento ampliamente superior al de las computadoras de escritorio o los servidores, y se utilizan para resolver problemas complejos en las áreas relacionadas con la ingeniería, la ciencia y los negocios.

Al incorporar más potencia informática con la HPC, se pueden utilizar conjuntos más grandes de datos para ejecutar los problemas que requieren un uso intensivo de ellos, en la misma cantidad de tiempo. Esto también permite describir y evaluar los problemas con más resolución, a mayor escala o con más elementos.

Las soluciones de HPC requieren un sistema operativo donde puedan ejecutarse. Linux® es el principal sistema operativo para esta tecnología según la lista TOP500, la cual lleva un registro de los sistemas informáticos más importantes del mundo. Todas las supercomputadoras de la lista TOP500 utilizan Linux, y varias de las que se encuentran entre las 10 principales, Red Hat® Enterprise Linux.

Debido al aumento en el uso de tecnologías como el Internet de las cosas (IoT), la inteligencia artificial (IA) y el aprendizaje automático (ML), las empresas generan cantidades enormes de datos, los cuales deben procesarse y utilizarse con más rapidez y en el momento.  

En la actualidad, la HPC se ejecuta en cualquier entorno, desde la nube hasta el extremo de la red, y se puede utilizar para resolver una amplia variedad de problemas en diversos sectores, como las ciencias, la atención de la salud y la ingeniería. Esto se debe a su capacidad para solucionar problemas informáticos de gran envergadura dentro de parámetros de tiempo y costos razonables. 

El análisis de datos de alto rendimiento (HPDA) se presenta como un nuevo segmento que aplica los recursos de la HPC al big data, para impulsar los algoritmos cada vez más sofisticados. Además, la supercomputación permite mejorar la inteligencia artificial mediante el aprendizaje profundo y las redes neuronales. 

Esta informática también se puede usar en otros sectores y casos prácticos, como las investigaciones académicas y gubernamentales, las imágenes de alto rendimiento, las ciencias biológicas, la genómica, la fabricación, los servicios financieros y bancarios, la geociencia y los medios de comunicación.

Los recursos informáticos necesarios para analizar el big data y resolver problemas complejos ya no se limitan a los clústeres informáticos en el centro de datos de las instalaciones, que se suelen asociar con la HPC, sino que comienzan a formar parte de los recursos disponibles en los servicios de nube pública

La adopción de la nube para la HPC es esencial a la hora de dejar atrás el enfoque de ejecución de las cargas de trabajo exclusivamente en las instalaciones para adoptar uno que se encuentra desvinculado de una infraestructura o ubicación en particular. 

El cloud computing permite que los recursos estén disponibles en función de las necesidades, lo cual no solo es más rentable, sino que también ofrece mayor flexibilidad para ejecutar las cargas de trabajo de la HPC. 

El uso de las tecnologías de contenedores también cobró impulso en este tipo de informática. Estos tienen un diseño ligero y pueden ajustar su capacidad con una sobrecarga mínima, lo cual mejora el rendimiento y disminuye los costos. También permiten cumplir con los requisitos de muchas aplicaciones de HPC, como la capacidad de ajuste, la confiabilidad, la automatización y la seguridad.

La posibilidad de empaquetar el código de las aplicaciones, sus dependencias e incluso los datos de los usuarios; combinada con la necesidad de simplificar el intercambio de investigaciones y hallazgos científicos con la comunidad global que se encuentra en diferentes ubicaciones; y la capacidad de migrar dichas aplicaciones a las nubes pública o híbrida hacen que los contenedores sean fundamentales para los entornos de HPC.

Además, si los utiliza para implementar las aplicaciones y las cargas de trabajo de HPC en la nube, no dependerá de un proveedor ni de un sistema de HPC en particular. 

Red Hat Enterprise Linux proporciona una plataforma confiable y efectiva para las cargas de trabajo de esta informática, según sea necesario, en los entornos de HPC locales, en la nube o híbridos. Ofrece diversas herramientas integradas de desarrollo de contenedores, lo cual facilita el traslado y la replicación de las cargas de trabajo de la HPC.

Red Hat OpenShift es una plataforma empresarial de organización de contenedores que amplía las funciones de Kubernetes y proporciona operaciones uniformes y gestión del ciclo de vida de las aplicaciones según sea necesario. Para ello, utiliza topologías flexibles que admiten las cargas de trabajo con baja latencia en cualquier lugar.

Artículos relacionados

Artículo

¿Qué es Linux?

Linux es un sistema operativo open source que se compone del kernel, su elemento fundamental, y las herramientas, las aplicaciones y los servicios que se incluyen con él.

Artículo

¿Qué es SELinux?

Security-Enhanced Linux (SELinux) es una arquitectura de seguridad para los sistemas Linux® que otorga a los administradores mayor control sobre quién puede acceder al sistema.

Artículo

¿Qué es el kernel de Linux?

El kernel de Linux es el elemento principal de los sistemas operativos (SO) Linux y es la interfaz fundamental entre el hardware de una computadora y sus procesos.

Más información sobre Linux

Productos

Base estable y probada con suficiente versatilidad para implementar aplicaciones nuevas, virtualizar los entornos y crear una nube híbrida más segura.

Contenido adicional

Informe de analistas

Para los entornos SAP, la migración significa mucho más que Linux

Informe de analistas

IDC: el impacto económico de Red Hat Enterprise Linux

Illustration - mail

Obtenga más contenido como este

Suscríbase a nuestro boletín informativo: Red Hat Shares.