OpenShift Virtualization es la solución de Red Hat para las empresas que tienden a modernizarse con la adopción de una arquitectura organizada en contenedores para sus aplicaciones, pero que reconocen que la virtualización sigue siendo una parte fundamental de la estrategia de implementación del centro de datos.
Francamente, algunas aplicaciones no están preparadas para adoptar dicha arquitectura. Por ello, OpenShift Virtualization proporciona un enfoque más moderno que aborda de manera coherente la necesidad de disponer de contenedores y máquinas virtuales en una plataforma unificada.
En Red Hat, debemos ocuparnos del siguiente asunto: además de ofrecer igualdad de funciones, ¿cómo logramos que la experiencia de los clientes siga siendo parecida a la de los productos y las configuraciones a las que están acostumbrados, de manera que la adopción de la nueva solución prácticamente no ocasione inconvenientes?
Una vez que los usuarios de un ecosistema de tecnología de la información se familiarizan con él, por lo general intentan adaptar principios conocidos a los sistemas nuevos. Muchos administradores de sistemas han usado VMware vSphere como solución para la virtualización del centro de datos. Se introdujeron muchas soluciones de diseño en este entorno, las cuales se adoptaron como prácticas recomendadas para la implementación y la configuración de máquinas virtuales o centros de datos virtuales. Estas decisiones relacionadas con el diseño suelen parecer instintivas para quienes trabajan en este ámbito de la TI, por lo que es probable que intenten aplicar lo mismo en otros entornos dentro de sus planes.
En esta serie de blogs, se analizarán las diferencias entre el uso de los entornos de hipervisor anteriores por parte de las empresas y sus administradores de virtualización y la posible aplicación de acciones o configuraciones similares en el ámbito de OpenShift Virtualization.

En primer lugar, céntrese en el diseño de redes múltiples, que es un aspecto general de las soluciones de virtualización, como VMware vSphere. Quienes conocen este tipo de entorno saben que aquí es donde los hosts ESXi suelen admitir varias redes, donde cada red virtual es exclusiva de un propósito diferente dentro del centro de datos virtual. Esta separación de las redes se puede lograr de varias maneras: con un cableado de diversos controladores de interfaz de red (NIC) físicos en los hosts a varios conmutadores o redes upstream, o con un enlace troncal de redes VLAN adicionales a través de un enlace ascendente y la verificación de que contienen las etiquetas correctas en el conmutador vSwitch o Distributed vSwitch dentro del propio hipervisor para indicar el propósito esperado. Por lo general, las redes tienen al menos las siguientes subdivisiones:
- Una red de gestión para los hosts ESXi y la máquina virtual vCenter, así como otros hosts de gestión de terceros que se pueden implementar
- Una red de migración de hosts para que los hosts ESXi admitan la migración en caliente de guests, conocida como vMotion, entre hosts para brindar alta disponibilidad
- Una red de almacenamiento de hosts para que los hosts ESXi accedan a los recursos de almacenamiento de respaldo o asignado a guests para las máquinas virtuales
- Una red de máquina virtual que brinda conectividad de red a los propios guests virtuales
Además de las redes mencionadas, es común que haya propósitos y configuraciones de red específicos según los casos prácticos del entorno particular de los clientes. Por naturaleza, la conmutación virtual permite implementar fácilmente una gran cantidad de configuraciones diferentes. Es lógico que las personas que suelen definir sus redes de una manera convencional se sorprendan al decidir adoptar una solución como OpenShift Virtualization que funciona de un modo distinto.
En las siguientes secciones, se analizan los casos prácticos principales que identificamos anteriormente y se explica la manera en la que OpenShift Virtualization aborda estas necesidades.
OpenShift Virtualization se instala con una sola red de pods interna de forma predeterminada. Tal como ocurre en todas las aplicaciones implementadas en un entorno de Kubernetes, esta red interna se usa para comunicarse con el pod durante su ciclo de vida. Con la consola de OpenShift, la herramienta virtctl de la CLI o el comando oc, puede realizar todas las funciones de gestión esenciales para los guests virtuales a través de la red interna de la API. Básicamente, esta red en OpenShift Virtualization realiza las mismas acciones que un administrador esperaría de su red de gestión interna en VMware vSphere.

Se pueden controlar todas las funciones de red en un entorno de OpenShift a través de la red de pods predeterminada, como las funciones de gestión mencionadas de una configuración sencilla, pero no es recomendable. Algunas tareas, como las migraciones de guests virtuales y el acceso al almacenamiento, se benefician en gran medida del acceso directo en redes exclusivas. Existen recursos para mejorar el rendimiento de determinadas acciones como la migración de guests con políticas para limitar el de ancho de banda necesario. Sin embargo, es probable que la mayoría de los usuarios empresariales coincida en que tener redes exclusivas para la migración, el almacenamiento y el acceso de guests virtuales, entre otras funciones, es un escenario ideal y conocido para quienes ya trabajaron en un entorno de VMware vSphere anteriormente.
Con esta finalidad, OpenShift usa el complemento CNI Multus, que le permite configurar interfaces de red adicionales, dispositivos SR-IOV o puentes Linux que se encuentran disponibles para los nodos de trabajo, lo que permite que se conecten a pods individuales según sea necesario.
Antes de instalar Multus, el cliente debe configurar la red correctamente: mediante el operador nmstate para los puentes Linux y el operador SR-IOV para los dispositivos SR-IOV. Luego, el administrador puede comenzar a configurar una definición de conexión de red, que indica a OpenShift el modo de usar interfaces físicas adicionales, dispositivos SR-IOV o puentes Linux.

A continuación, analice con detenimiento la configuración para las migraciones activas. Muchas implementaciones de VMware vSphere tienen una red exclusiva para admitir vMotion debido a los requisitos de ancho de banda de la migración activa. Cuando se produce un evento de migración activa en una infraestructura sin una red exclusiva para ese propósito, puede tener un efecto negativo en los recursos de red compartidos, como los guests virtuales. También puede afectar la gestión del entorno si un nodo deja de estar disponible y varios guests se ven obligados a migrar simultáneamente. En OpenShift Virtualization, hay varias opciones que protegen los eventos de migración activa para que no perjudiquen la red principal o el rendimiento del clúster.
La primera opción es definir una política de migración que incluya reglas, entre las que se encuentren algunas que limiten la cantidad de ancho de banda disponible para las migraciones. También se puede definir una red exclusiva para migraciones activas modificando la configuración del clúster en la pestaña Overview de OpenShift Virtualization. En este menú, puede limitar la cantidad de migraciones activas que pueden llevarse a cabo en un momento determinado sin alterar el ancho de banda. También puede modificar la red que se usa para esas migraciones.
Para ello, cree una definición de conexión de red para una interfaz de red exclusiva en sus nodos de trabajo, defina una red privada que permita la conectividad solo entre los nodos que están configurados para admitir la virtualización y selecciónela. De esta manera, cuando se selecciona un guest para la migración o un host se encuentra en mantenimiento, lo cual ocasiona que todos los guests queden anulados, se utilizará la red exclusiva para las migraciones activas y se evitará una carga adicional en la infraestructura principal de redes de OpenShift.
Las redes de los recursos de almacenamiento dependerán del proveedor de almacenamiento que se use para el clúster de OpenShift. Muchos proveedores de almacenamiento tienen controladores propios compatibles con CSI para sus sistemas, los cuales aplican automáticamente las prácticas recomendadas específicas para la conectividad del almacenamiento.
Desde el punto de vista de OpenShift Virtualization, se pueden sugerir algunas prácticas recomendadas de configuración de las clases de almacenamiento para admitir guests virtuales. Por ejemplo, los volúmenes permanentes implementados para máquinas virtuales deben encontrarse en modo RWX para que los nodos adicionales accedan al volumen permanente en caso de que el guest virtual deba migrarse a otro nodo. Al igual que sucede con la migración, los nodos de trabajo pueden configurarse para acceder al almacenamiento a través de la red de gestión predeterminada, o pueden tener una red distinta asociada para facilitar la conexión de volúmenes permanentes basados en NFS o iSCSI. En muchos casos, la red de pods predeterminada o de gestión en OpenShift tendrá la tarea de iniciar las llamadas a la API al sistema de almacenamiento indicado. El controlador de CSI comprobará que el volumen implementado esté asignado correctamente a través de la red de almacenamiento disponible.
Por último, tenga en cuenta el acceso público a la máquina virtual o a las aplicaciones que se ejecutan en ella. Para los usuarios que aún no están preparados para organizar sus aplicaciones en contenedores, se pueden tratar aquellas que se ejecutan actualmente en máquinas virtuales como las que se ejecutan junto a ellas en contenedores. Esto se puede lograr aplicando una etiqueta a una máquina virtual que identifique la aplicación a la que desea proporcionar acceso y creando un servicio de Kubernetes para los puertos que la aplicación en la máquina virtual pueda necesitar. Luego, para utilizar este servicio, se genera una ruta de OpenShift y se permite el acceso directo a la aplicación en lugar del guest virtual en su totalidad a través de la red de pods de OpenShift predeterminada, exactamente como sería el caso de una aplicación en contenedores.
El acceso a un guest virtual de esta manera representa un paso de transición entre la virtualización y la organización en contenedores de las aplicaciones. Si prefiere un enfoque más tradicional con el que tenga acceso directo al sistema operativo guest de una máquina virtual, cree una definición de conexión de red y un enlace a un puente Linux o dispositivo SR-IOV que esté disponible en cada nodo de trabajo habilitado para alojar guests virtuales. De esta manera, se asegura de que se asigne una IP externa al guest virtual y de que los usuarios puedan conectarse directamente al guest mediante SSH o el protocolo de acceso remoto que prefiera.
No obstante, tenga en cuenta la siguiente advertencia al asociar redes adicionales a los guests virtuales: el puente Linux, las interfaces físicas disponibles y las etiquetas VLAN deben definirse de manera idéntica y estar disponibles en cada nodo de trabajo del clúster para que haya una alta disponibilidad de las máquinas virtuales guests, en caso de que necesiten migrar a un nodo distinto del clúster.
Para que los clientes tengan una experiencia favorable con el producto, puede ser útil identificar las opciones de configuración de la arquitectura de red de una solución de OpenShift Virtualization para obtener un rendimiento y un comportamiento similares a los de otros entornos de hipervisores conocidos, como VMware vSphere. En Red Hat, creemos que las experiencias positivas aumentan la satisfacción de los clientes y la adopción de los productos, lo cual facilita la modernización de las aplicaciones.
Para obtener más información sobre la modernización de las aplicaciones y el aporte de OpenShift Virtualization para tal fin, asista a uno de nuestros próximos eventos en vivo, como Red Hat Summit Connect u OpenShift Virtualization Road Show, en los que presentaremos una descripción general del producto y un laboratorio práctico específico de OpenShift Virtualization.
Sobre el autor
Más similar
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Programas originales
Vea historias divertidas de creadores y líderes en tecnología empresarial
Productos
- Red Hat Enterprise Linux
- Red Hat OpenShift
- Red Hat Ansible Automation Platform
- Servicios de nube
- Ver todos los productos
Herramientas
- Training y Certificación
- Mi cuenta
- Soporte al cliente
- Recursos para desarrolladores
- Busque un partner
- Red Hat Ecosystem Catalog
- Calculador de valor Red Hat
- Documentación
Realice pruebas, compras y ventas
Comunicarse
- Comuníquese con la oficina de ventas
- Comuníquese con el servicio al cliente
- Comuníquese con Red Hat Training
- Redes sociales
Acerca de Red Hat
Somos el proveedor líder a nivel mundial de soluciones empresariales de código abierto, incluyendo Linux, cloud, contenedores y Kubernetes. Ofrecemos soluciones reforzadas, las cuales permiten que las empresas trabajen en distintas plataformas y entornos con facilidad, desde el centro de datos principal hasta el extremo de la red.
Seleccionar idioma
Red Hat legal and privacy links
- Acerca de Red Hat
- Oportunidades de empleo
- Eventos
- Sedes
- Póngase en contacto con Red Hat
- Blog de Red Hat
- Diversidad, igualdad e inclusión
- Cool Stuff Store
- Red Hat Summit