Jump to section

O que é virtualização?

Copiar URL

Virtualização é uma tecnologia que permite criar serviços de TI valiosos usando recursos que estão tradicionalmente vinculados a um determinado hardware. Com a virtualização, é possível usar a capacidade total de uma máquina física, distribuindo seus recursos entre muitos usuários ou ambientes.

Em termos práticos, imagine que você tenha três servidores físicos, cada um com finalidades específicas. O primeiro é um servidor de email, o segundo é um servidor web e o terceiro executa aplicações legadas internas. Você utiliza cerca de 30% da capacidade de cada servidor (apenas uma pequena fração do potencial de execução). No entanto, como as aplicações legadas ainda são importantes para as suas operações internas, você é obrigado a mantê-las, assim como o servidor que as hospeda, certo?

Server usage

Tradicionalmente, sim. Muitas vezes, era mais fácil e confiável executar tarefas individuais em servidores individuais: um servidor, um sistema operacional e uma tarefa. Não era fácil dar vários "cérebros" a um único servidor. Porém, com a virtualização, você pode dividir o servidor de e-mail em dois servidores únicos, capazes de processar tarefas independentes. Assim, é possível migar os aplicativos legados. Trata-se do mesmo hardware, mas utilizado de maneira mais eficiente.

Server usage: virtualization

Pensando na segurança, você pode dividir o primeiro servidor novamente para processar outra tarefa, aumentando o aproveitamento de 30% para 60% e, por fim, para 90%. Depois disso, os servidores que agora estão desocupados podem ser reutilizados em outras tarefas ou ter o seu uso descontinuado de vez para reduzir os custos de refrigeração e manutenção.

Apesar de a tecnologia de virtualização ter a sua origem na década de 1960, ela passou a ser adotada amplamente somente no início dos anos 2000. As tecnologias que tornaram a virtualização uma realidade, como os hipervisores, foram desenvolvidas há décadas para dar a vários usuários acesso simultâneo a computadores que realizavam processamento em lote. O processamento em lote era uma prática computacional popular no setor de negócios para a execução rápida de tarefas rotineiras que se repetiam milhares de vezes (como o processamento de folha de pagamento).

No entanto, ao longo das décadas seguintes, outras soluções para o problema de muitos usuários utilizando uma única máquina se tornaram mais populares, em detrimento da virtualização. Uma dessas outras soluções era o tempo compartilhado (time-sharing), que isolava os usuários dentro de um sistema operacional. Isso resultou no desenvolvimento de outros sistemas operacionais como o UNIX, que posteriormente abriu o caminho para o Linux®. Durante todo esse tempo, a adoção da tecnologia de virtualização ficou bastante restrita a um nicho.

Avançando para a década de 1990, a maioria das empresas possuía servidores físicos e stacks de TI de um único fornecedor, o que não permitia a execução de aplicativos legados no hardware de fornecedores diferentes. À medida que as empresas atualizavam os ambientes de TI com servidores comuns, sistemas operacionais e aplicativos mais econômicos oferecidos por uma variedade de fornecedores, elas se viam limitadas pela subutilização do hardware físico. Isso acontecia porque cada servidor executava somente uma única tarefa específica a um fornecedor.

Foi nesse momento que a virtualização realmente decolou. Era uma solução natural para dois problemas: as empresas poderiam particionar os servidores e executar os aplicativos legados em vários tipos e versões de sistema operacional. A adoção da tecnologia de virtualização aumentou a eficiência dos servidores (e aposentou tantos outros), resultando em uma redução dos custos associados à aquisição, configuração, refrigeração e manutenção.

A aplicabilidade ampla da virtualização contribuiu para a redução da dependência de fornecedor e tornou essa tecnologia a base da cloud computing. Hoje em dia, ela é tão predominante entre as empresas que é muitas vezes necessário implantar um software especializado em gerenciamento de virtualização para manter o controle de tudo.

Os programas de software chamados hipervisores separam os recursos físicos dos ambientes virtuais que precisam utilizar esses recursos. Os hipervisores podem ser executados em um sistema operacional (como em um laptop) ou instalados diretamente no hardware (como um servidor), este é o tipo de virtualização preferido da maioria das empresas. Os hipervisores dividem os recursos físicos para serem utilizados por diferentes ambientes virtuais.

How virtualization works

Os recursos do ambiente físico são particionados, conforme a necessidade, entre os diversos ambientes virtuais. Os usuários interagem e executam as operações computacionais no ambiente virtual (normalmente chamado máquina guest ou máquina virtual). A máquina virtual funciona como um único arquivo de dados. E como qualquer outro arquivo digital, ela pode ser transferida de um computador a outro, aberta em qualquer um e funcionar da mesma forma.

Quando o ambiente virtual está em execução e um programa ou usuário emite uma instrução que requer recursos adicionais do ambiente físico, o hipervisor retransmite a solicitação ao sistema físico e armazena as mudanças em cache. Tudo isso acontece a uma velocidade próxima à das operações nativas, principalmente quando a solicitação é enviada por meio de um hipervisor open source derivado de máquina virtual baseada em kernel (KVM).

Virtualização de dados

Dados distribuídos em vários locais são consolidados em uma única fonte. A virtualização de dados permite às empresas tratar os dados como uma categoria de suprimento dinâmico, oferecendo recursos de processamento capazes de reunir dados de diversas fontes, acomodar facilmente novas fontes e transformar os dados conforme as necessidades dos usuários. As ferramentas de virtualização de dados funcionam como múltiplas fontes de dados e permitem que essas fontes sejam tratadas como uma só. Assim, os dados necessários são oferecidos no formato e no momento certo para as aplicações e usuários.

Virtualização de desktop

Muitas vezes confundida com a virtualização do sistema operacional (a implantação de diversos sistemas operacionais em uma única máquina), a virtualização de desktop permite que um administrador central (ou ferramenta de administração automatizada) implante ambientes de desktop simulados em centenas de máquinas físicas de uma única vez. Diferente dos ambientes de desktop tradicionais, fisicamente instalados, configurados e atualizados em cada máquina, na virtualização de desktop, administradores podem realizar configurações, atualizações e verificações de segurança em massa em todos os desktops virtuais.

Virtualização de servidor

Server virtualization

Os servidores são computadores projetados para processar um grande volume de tarefas específicas, para que outros computadores, como laptops e desktops, realizem uma variedade de outras tarefas. A virtualização do servidor o libera para realizar mais funções específicas, pois se dá por meio do seu particionamento. Assim, os componentes podem ser utilizados para o processamento de várias funções.

Virtualização de sistemas operacionais

Operating system virtualization

A virtualização do sistema operacional é feita no kernel, o gerenciador de tarefas central dos sistemas operacionais. Essa é uma boa maneira de executar paralelamente ambientes em Linux e Windows. As empresas também podem implantar nos computadores sistemas operacionais virtualizados, que:

  • Reduzem os custos de hardware em massa, já que os computadores não requerem recursos prontos e sofisticados.
  • Aumentam a segurança, pois todas as instâncias virtuais podem ser monitoradas e isoladas.
  • Limitam o tempo gasto com serviços de TI, como atualizações de software.

Virtualização de funções de rede

Network function virtualization

A virtualização de funções de rede (NFV) separa as principais funções de uma rede (como serviços de diretório, compartilhamento de arquivos e configuração de IP) para distribuí-las entre os ambientes. Após separar as funções de software das máquinas físicas em que residiam, é possível reunir funções específicas em uma nova rede e atribuí-las a um ambiente. O resultado da virtualização de redes é a redução do número de componentes físicos, como switches, roteadores, servidores, cabos e hubs, necessários para criar várias redes independentes. Esse tipo de virtualização é popular principalmente no setor de telecomunicações.

Porque esta é uma decisão que vai muito além da infraestrutura. Envolve o que sua infraestrutura pode fazer (ou não) para viabilizar as tecnologias que dependem dela. Quando a empresa se encontra presa a um contrato com um fornecedor que oferece produtos cada vez mais caros, a capacidade de investir em tecnologias modernas, como nuvens, containers e sistemas de automação, fica limitada.

Nossas tecnologias de virtualização open source não estão vinculadas a contratos de licença empresarial cada vez mais caros. Além disso, oferecemos acesso completo ao mesmo código-fonte: mais de 90% das empresas da Fortune 500* confiam nele. Sua empresa tem o caminho livre para ser Ágil, implantar uma nuvem híbrida e testar tecnologias de automação.

*Dados de clientes Red Hat e lista da Fortune 500, junho de 2018

Leitura recomendada

ARTIGO

Diferença entre containers e máquinas virtuais (VMs)

Containers Linux e máquinas virtuais são ambientes de computação empacotados que combinam diversos componentes de TI e os isolam do restante do sistema.

ARTIGO

O que é uma máquina virtual (VM)?

Uma máquina virtual (VM) ou virtual machine é um ambiente de computação isolado, criado a partir da abstração de recursos de uma máquina física.

ARTIGO

O que é KVM?

As máquinas virtuais baseadas em Kernel (KVM) são uma tecnologia de virtualização open source que transforma o Linux em um hipervisor.

Leia mais sobre virtualização

Soluções Red Hat

Red Hat OpenShift Container Platform

Uma base consistente de nuvem híbrida para criar e escalar aplicações em containers.

Red Hat Openstack Platform

Uma plataforma que virtualiza o hardware e organiza esses recursos em nuvens.

Conteúdo adicional

Datasheet

Red Hat Virtualization

Uma base aberta e ágil preparada para o futuro da TI.

Checklist

Cinco motivos para adotar uma infraestrutura hiperconvergente open source

Uma infraestrutura hiperconvergente open source oferece computação e armazenamento definidos por software e integrados em uma solução única.

Treinamentos Red Hat

Treinamento gratuito

Virtualization and Infrastructure Migration Technical Overview

Illustration - mail

Quer receber mais conteúdo deste tipo?

Cadastre-se para receber a nossa newsletter Red Hat Shares.