Recursos de Red Hat
Casos prácticos de la HPC
Debido al aumento en el uso de tecnologías como el Internet de las cosas (IoT), la inteligencia artificial (IA) y el aprendizaje automático (ML), las empresas generan cantidades enormes de datos, los cuales deben procesarse y utilizarse con más rapidez y en el momento.
En la actualidad, la HPC se ejecuta en cualquier entorno, desde la nube hasta el extremo de la red, y se puede utilizar para resolver una amplia variedad de problemas en diversos sectores, como las ciencias, la atención de la salud y la ingeniería. Esto se debe a su capacidad para solucionar problemas informáticos de gran envergadura dentro de parámetros de tiempo y costos razonables.
El análisis de datos de alto rendimiento (HPDA) se presenta como un nuevo segmento que aplica los recursos de la HPC al big data, para impulsar los algoritmos cada vez más sofisticados. Además, la supercomputación permite mejorar la inteligencia artificial mediante el aprendizaje profundo y las redes neuronales.
Esta informática también se puede usar en otros sectores y casos prácticos, como las investigaciones académicas y gubernamentales, las imágenes de alto rendimiento, las ciencias biológicas, la genómica, la fabricación, los servicios financieros y bancarios, la geociencia y los medios de comunicación.
La HPC en la nube
Los recursos informáticos necesarios para analizar el big data y resolver problemas complejos ya no se limitan a los clústeres informáticos en el centro de datos de las instalaciones, que se suelen asociar con la HPC, sino que comienzan a formar parte de los recursos disponibles en los servicios de nube pública.
La adopción de la nube para la HPC es esencial a la hora de dejar atrás el enfoque de ejecución de las cargas de trabajo exclusivamente en las instalaciones para adoptar uno que se encuentra desvinculado de una infraestructura o ubicación en particular.
El cloud computing permite que los recursos estén disponibles en función de las necesidades, lo cual no solo es más rentable, sino que también ofrece mayor flexibilidad para ejecutar las cargas de trabajo de la HPC.
El uso de las tecnologías de contenedores también cobró impulso en este tipo de informática. Estos tienen un diseño ligero y pueden ajustar su capacidad con una sobrecarga mínima, lo cual mejora el rendimiento y disminuye los costos. También permiten cumplir con los requisitos de muchas aplicaciones de HPC, como la capacidad de ajuste, la confiabilidad, la automatización y la seguridad.
La posibilidad de empaquetar el código de las aplicaciones, sus dependencias e incluso los datos de los usuarios; combinada con la necesidad de simplificar el intercambio de investigaciones y hallazgos científicos con la comunidad global que se encuentra en diferentes ubicaciones; y la capacidad de migrar dichas aplicaciones a las nubes pública o híbrida hacen que los contenedores sean fundamentales para los entornos de HPC.
Además, si los utiliza para implementar las aplicaciones y las cargas de trabajo de HPC en la nube, no dependerá de un proveedor ni de un sistema de HPC en particular.
Informática de alto rendimiento con Red Hat
Red Hat Enterprise Linux proporciona una plataforma confiable y efectiva para las cargas de trabajo de esta informática, según sea necesario, en los entornos de HPC locales, en la nube o híbridos. Ofrece diversas herramientas integradas de desarrollo de contenedores, lo cual facilita el traslado y la replicación de las cargas de trabajo de la HPC.
Red Hat OpenShift es una plataforma empresarial de organización de contenedores que amplía las funciones de Kubernetes y proporciona operaciones uniformes y gestión del ciclo de vida de las aplicaciones según sea necesario. Para ello, utiliza topologías flexibles que admiten las cargas de trabajo con baja latencia en cualquier lugar.
El blog oficial de Red Hat
Obtenga la información más reciente sobre nuestro ecosistema de clientes, socios y comunidades.