Kubernetes, los contenedores y los servicios en la nube altamente escalables son los componentes modernos del éxito de un software empresarial. Pero cambiar por Kubernetes requiere de capacitación, entendimiento y mucho trabajo por parte de los desarrolladores, arquitectos y administradores de sistemas por igual.
Para ahorrar tiempo, acelerar los ciclos de desarrollo y evitarle a la empresa una experiencia tortuosa, suele ser más lógico elegir una oferta de Kubernetes gestionado en lugar de intentar ejecutar uno propio. Si está analizando esta posibilidad, le compartimos cinco datos que debería conocer.
1. Es la plataforma de aplicaciones que no precisa gestionar
Kubernetes ya dejó de ser lo más novedoso y popular y, por el contrario, pasó a ser un componente fundamental. Del mismo modo en que Linux se adueñó del mercado de servidores a comienzos de 2000, ya hace tiempo que Kubernetes cobró preponderancia en lo que a infraestructura de nube se refiere. Los contenedores de Linux que operan a escala a la par de los servicios en la nube, el monitoreo y la gestión del ciclo de vida generan un valor demasiado atractivo como para que los desarrolladores y administradores que necesitan la escalabilidad y la fiabilidad lo dejen pasar.
Sin embargo, esa popularidad trae aparejada cierta complejidad. Como Kubernetes ahora puede “hacer cualquier cosa”, no siempre es fácil instalarlo, ejecutarlo y que haga cosas. Existen muchas opciones, configuraciones y hosts, cada cual con su propio conjunto de necesidades y requerimientos, como cualquier otro software.
Aunque las razones por las cuales ejecutar su propio Kubernetes y hasta construir su propia plataforma de aplicaciones abundan, al final del día, todos los componentes que se encuentran en este nivel de la pila no dejan de ser una base. Si bien Kubernetes facilita acelerar la innovación, es un beneficio que aporta la plataforma en su conjunto y que deriva de la operación coordinada y en capas de todos los componentes en sintonía con las necesidades de los usuarios. Estos entornos necesitan estar disponibles con rapidez y con mayores medidas de seguridad.
Cualquiera que haya tenido que configurar y realizar el mantenimiento de entornos de prueba, compilación y producción para enormes cantidades de desarrolladores sabe que no es una tarea fácil. Mantener los sistemas en funcionamiento sincronizados con las necesidades de los desarrolladores, solo a nivel de la aplicación, puede requerir la participación de todo un equipo de personas.
Los departamentos de TI tradicionales a menudo requerían semanas, si no meses, para aprovisionar ese equipamiento. Pero el poder y la velocidad de la nube automatizada son capaces de acortar este proceso a horas e incluso minutos.
Para algunas empresas a las que no les sobran ciclos de TI, Red Hat OpenShift Service on Amazon Web Services (ROSA) proporciona una clase superior de servicio, soporte y hosting junto con funciones de seguridad reforzada. Al contar con ingenieros de confiabilidad del sitio (SRE) expertos de Red Hat que manejan su infraestructura, su equipo puede concentrarse en las aplicaciones en lugar de dedicar tiempo a crear e instalar sistemas para poder comenzar a construir encima de esos clústeres.
2. ROSA proporciona la automatización y la gestión de tareas (a cargo de los SRE de Red Hat) para que usted no tenga que hacerlas
Un buen administrador de sistemas se mide por su carga de trabajo. Si pasa todo el tiempo haciendo muchas tareas manuales, tal vez no tenga el tema bien en claro. En la década del 90, un buen administrador de sistemas también se medía por la fortaleza de sus scripts. Hoy, contamos con una gran cantidad de herramientas para manejar mejor esa automatización en lugar de recurrir a los viejos y eficaces scripts de shell.
Las herramientas como Ansible, Argo CD y Git hacen posible automatizar casi cualquier flujo de trabajo en un proceso que realice la tarea de los desarrolladores sin complicaciones ni la intervención de los administradores. Pero, al igual que cualquier infraestructura, diseñar y personalizar ese nivel de automatización lleva su tiempo.
Para los equipos que aún no se han especializado en la nueva forma de crear software "en la nube" y hasta para aquellos que prefieren pasar sus ciclos lejos de la infraestructura, Red Hat OpenShift Service on AWS cuenta con herramientas y procesos de automatización útiles para ayudar a acelerar el proceso y, básicamente, lograr que la plataforma sea "aburrida".
En lugar de construir sus procesos de desarrollo desde cero, ROSA puede vincular sus actuales sistemas y herramientas, como GitHub y Ansible. Lo que es mejor aún, nuestros SRE han construido patrones para que sus desarrolladores usen con versiones preconfiguradas de infraestructuras esenciales listas para usar en un santiamén.
Esto va más allá de Red Hat OpenShift on AWS porque el modelo de nube híbrida abierta que ofrece Red Hat OpenShift le brinda la flexibilidad de construir en otros proveedores de nube, además de en modo local. Por ejemplo, puede realizar copias de seguridad de forma automática en múltiples ubicaciones y proveedores de nube de todo el mundo mediante los mismos servicios y sistemas que ya utiliza a una escala superior.
Si le suma la tecnología serverless, Quarkus for Java y Kubernetes Operators, tendrá un entorno totalmente automatizado y de alcance mundial que abarca diversas nubes para que sus desarrolladores accedan y utilicen, que además incluye resguardos y el aprovisionamiento de seguridad reforzada.
Y, al tener menos trabajo manual, los administradores pueden concentrarse en el trabajo innovador que aspiran a hacer de cara al futuro en lugar de ocuparse, probablemente a desgano, de resolver los conflictos que les genera la deuda técnica y priorizar los recursos heredados.
3. Soporte integrado de Red Hat y AWS con acceso a los desarrolladores de open source que crearon estas herramientas
¿Alguna vez se ha topado con un error que no estuviera documentado en línea, que tuviera una infinidad de causas probables e interrumpiera el trabajo por completo? Basta con encontrar uno solo de estos errores para que todo un equipo de TI se frustre y atrase.
Cuando se producen fallos y errores críticos, es fundamental manejarlos al estilo del samurái: con un enfoque centrado y disciplinado basado en la inmediatez, la precisión y la preservación de los intereses del empleador. También es preferible tener un ejército que un escuadrón.
Y Red Hat es uno de los mayores ejércitos que existen. Es muy difícil que los errores pasen inadvertidos por el ojo vigilante de nuestro equipo de servicio y soporte. Aquí encontrará un ejemplo de cómo actuamos en una ocasión en relación con un error de código abierto.
Esto se debe a que cuando acude a nosotros por ayuda ante un error, empezamos por evaluar el problema, replicarlo y descartar grandes porciones de la pila. Por lo general, contribuimos aproximadamente el 5 % del código en cualquier versión del kérnel de Linux.
Tal vez no parezca mucho, pero los principales contribuyentes pueden fluctuar con el tiempo a medida que se añaden nuevos aspectos al kérnel en torno a sistemas embebidos y dispositivos móviles. Red Hat está muy concentrado en el kérnel de Linux y, por ende, somos uno de los principales creadores y encargados de mantener el código que se le aporta. Cuando se aporta código al kérnel de Linux, lo revisamos y probamos, aun cuando no lo codifiquemos nosotros. Hacemos parte del trabajo tedioso, la tarea básica de dedicar ciclos del clúster para probar y proteger estos proyectos open source. Y luego comunicamos los hallazgos a los equipos de desarrollo inicial.
Lo mismo ocurre con Kubernetes, donde somos el segundo mayor colaborador de código corporativo del proyecto. Ayudamos a impulsar muchos de los planes futuros de la comunidad de Kubernetes y, cuando esos planes abarcan varios años, intentamos tapar los agujeros con soluciones open source temporales al mismo tiempo que impulsamos cambios arquitectónicos a largo plazo que suelen ser necesarios para abordar problemas sistémicos.
Esta larga explicación se reduce a lo siguiente: ROSA incluye el soporte integrado de Red Hat y AWS. Si se topa con un error realmente desconcertante, trabajará con colaboradores del kérnel de Linux, de Kubernetes y SRE expertos que utilizan estos sistemas a escala todos los días. Conocen el software y, cuando necesite ayuda, estarán presentes desde la base de la pila hasta donde arranque su aplicación.
4. Es mucho más que Kubernetes: es una plataforma de aplicaciones completa
Sus desarrolladores necesitan todo tipo de cosas: bases de datos, registros, repositorios, equilibradores de carga, cortafuegos, máquinas virtuales, colas de mensajes... y pizza. Aunque ROSA no incluye pizza, sí incluye el resto de estos componentes básicos. Con sólo pulsar un botón, puede implementar entornos de aplicaciones enteros según las necesidades de sus desarrolladores.
¿Están sus equipos construyendo API que se relacionan directamente con los resultados de su empresa? Red Hat OpenShift API Management ofrece la gestión de API de nivel empresarial basada en open source para que sus desarrolladores arranquen con ventaja y creen más API que generen ingresos con mayor rapidez.
¿Intentan sus equipos utilizar grandes cantidades de datos de forma asíncrona? Red Hat OpenShift Streams for Apache Kafka ofrece una cola de mensajes gestionada manejada por nuestros SRE, pero con sus propios datos, que proporciona a sus desarrolladores un flujo constante de datos para procesamiento.
O, tal vez, sus desarrolladores estén intentando construir un cerebro. El entrenamiento de algoritmos de AI/ML requiere de grandes conjuntos de datos, un gran volumen de procesamiento para el entrenamiento y sistemas de fácil acceso para que los científicos de datos gestionen ambos. Para ellos, tenemos Red Hat OpenShift Data Science.
Además, ROSA se integra perfectamente con todos los servicios de AWS en los que confía. Las más de 170 integraciones de servicios ayudan a los administradores a simplificar su carga de trabajo diaria y proporciona a los desarrolladores una experiencia Kubernetes más rápida y fácil de usar.
5. Le permite concentrarse en sus aplicaciones en lugar de en Kubernetes
Los cuatro motivos anteriores para adoptar ROSA pueden resumirse en este último. Como administrador, el trabajo diario de configurar sistemas y servicios, resolver problemas y planificar para el futuro se ha complejizado en los últimos años. Dado que las empresas dependen mucho más de sus desarrolladores de software para crear innovación y generar ingresos, son los elementos facilitadores de esos desarrolladores los que se esfuerzan por allanar el camino para su progreso.
Kubernetes constituyó un gran avance en la gestión de sistemas al permitir a los administradores centrar su atención en múltiples sistemas en lugar de en servidores individuales. Sin embargo, esto trajo aparejado un crecimiento exponencial de la complejidad de la gestión, que se aborda a través de las miles de herramientas y servicios disponibles para utilizar sobre Kubernetes.
Al igual que un administrador moderno no perdería el tiempo manejando un único contenedor, tampoco debería perderlo con un único servicio. Ese contenedor problemático debería eliminarse y reiniciarse desde el repositorio. Y ese servicio complicado debería, tal vez, estar a cargo de expertos que proporcionen directamente el clúster como servicio. De este modo, los administradores pueden dedicarse a capacitar a sus desarrolladores en lugar de a aprender un pequeño aspecto de Kubernetes.
Si se les da la oportunidad, los desarrolladores pueden hacer cosas increíbles con un clúster totalmente automatizado. Pueden aprovisionar una nueva base de datos sin que los administradores se horroricen, ya que a través de Kubernetes Operators han establecido directrices inviolables para estas implementaciones. Los desarrolladores pueden crear entornos enteros a pedido para probar teorías y software nuevo de forma segura y aislada del resto del mundo. Y, más importante aún, pueden innovar sin abrir un ticket de soporte.
Más información
Sobre el autor
Red Hatter since 2018, technology historian and founder of The Museum of Art and Digital Entertainment. Two decades of journalism mixed with technology expertise, storytelling and oodles of computing experience from inception to ewaste recycling. I have taught or had my work used in classes at USF, SFSU, AAU, UC Law Hastings and Harvard Law.
I have worked with the EFF, Stanford, MIT, and Archive.org to brief the US Copyright Office and change US copyright law. We won multiple exemptions to the DMCA, accepted and implemented by the Librarian of Congress. My writings have appeared in Wired, Bloomberg, Make Magazine, SD Times, The Austin American Statesman, The Atlanta Journal Constitution and many other outlets.
I have been written about by the Wall Street Journal, The Washington Post, Wired and The Atlantic. I have been called "The Gertrude Stein of Video Games," an honor I accept, as I live less than a mile from her childhood home in Oakland, CA. I was project lead on the first successful institutional preservation and rebooting of the first massively multiplayer game, Habitat, for the C64, from 1986: https://neohabitat.org . I've consulted and collaborated with the NY MOMA, the Oakland Museum of California, Cisco, Semtech, Twilio, Game Developers Conference, NGNX, the Anti-Defamation League, the Library of Congress and the Oakland Public Library System on projects, contracts, and exhibitions.
Más como éste
Accelerating NetOps transformation with Ansible Automation Platform
Enterprise automation resilience with EDB and Red Hat Ansible Automation Platform
Technically Speaking | Taming AI agents with observability
Get into GitOps | Technically Speaking
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Virtualización
El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube