Willkommen zu Red Hat

Folgen Sie aktuellen Entwicklungen in ihrer Nähe

Verpassen Sie nicht die neuesten Beiträge zu Red Hat Kunden weltweit:

Virtualisierung

Was ist Virtualisierung?

Virtualisierung ist die Technologie, mit der Sie nützliche IT-Services mithilfe von Ressourcen erstellen können, die traditionell an eine bestimmte Hardware gebunden sind. So sind Sie in der Lage, die vollständige Kapazität einer einzelnen physischen Maschine durch Verteilung ihrer Funktionen auf viele Nutzer und Umgebungen auszuschöpfen.

Hier ein Beispiel: Nehmen wir an, Sie haben 3 physische Server mit individuell dedizierten Bestimmungszwecken, darunter 1 Mail-Server, 1 Web-Server und 1 Server zur Ausführung interner Legacy-Anwendungen. Jeder dieser Server wird nur bis zu 30 %, also einem Bruchteil seiner Kapazität genutzt. Da Legacy-Anwendungen allerdings wichtig für Ihre internen Abläufe sind, müssen Sie diese sowie den Host-Server beibehalten, oder?

Server usage

Üblicherweise, ja. Es war oft viel einfacher und zuverlässiger, Aufgaben auf getrennten Servern auszuführen: 1 Server, 1 Betriebssystem, 1 Aufgabe. Ein Server mit mehr als einem Gehirn waren nur schwer vorstell- und durchführbar. Mithilfe der Virtualisierung aber können Sie den Mail-Server in zwei Maschinen für die Handhabung unabhängiger Aufgaben, d. h. die Migration von Legacy-Anwendungen aufteilen. Die Hardware bleibt die gleiche, allerdings wird ihre Effizienz um ein Vielfaches gesteigert.

Server usage: virtualization

Vor dem Hintergrund des Sicherheitsaspekts könnte man den ersten Server zur Ausführung einer weiteren Aufgabe erneut teilen und damit seine Auslastung von 30 über 60 bis auf 90 % steigern. Die dadurch „leer“ gewordenen Server könnten dann für andere Aufgaben verwendet oder komplett außer Betrieb gesetzt werden, um Kühl- und Wartungskosten einzusparen.


Eine kurze Geschichte der Virtualisierung

Die Anfänge der Virtualisierung lassen sich bis in die 1960er Jahre zurückverfolgen, allerdings wurde die Technologie erst Anfang des zweiten Jahrtausends übernommen. Die Technologien zur Umsetzung der Virtualisierung, wie Hypervisors, wurden bereits vor Jahrzehnten entwickelt, um mehreren Nutzern gleichzeitig Zugriff auf Computer zu gewähren, mit denen Batch-Prozesse ausgeführt wurden. Solche Prozesse erfreuten sich damals in Geschäftssektoren großer Beliebtheit, in denen Routineaufgaben tausendfach und extrem schnell durchgeführt werden mussten (wie die Lohnabrechnung).

Im Laufe der folgenden Jahrzehnte aber wurde die Virtualisierung von anderen Lösungen für das Problem „Viele Nutzer/Eine Maschine“ überholt. Eine dieser Lösungen war das Teilnehmerverfahren, bei dem Nutzer innerhalb von Betriebssystemen isoliert wurden. Dies wiederum führte fast unbeabsichtigt zu Systemen wie UNIX, auf das dann später Linux® folgte. Während dieser ganzen Zeit führte die Virtualisierung zumeist ein Schattendasein.

Springen wir nun zu den 1990ern. Die meisten Unternehmen verfügten damals über physische Server und IT-Stacks von einzelnen Anbietern, die die Ausführung von Legacy-Apps auf der Hardware eines anderen Anbieters unmöglich machten. Später aktualisierte man dann seine IT-Umgebungen mit kostengünstigeren Commodity-Servern, Betriebssystemen und Anwendungen von einer Vielfalt an Anbietern und machte sich so von ineffizient genutzter Hardware abhängig. So konnte mit jedem Server lediglich eine anbieterspezifische Aufgabe ausgeführt werden.

Und genau da kam die Virtualisierung wieder ins Spiel. Sie präsentierte eine natürliche Lösung für zwei Probleme: Mit ihr konnte man seine Server partitionieren und Legacy-Apps auf mehreren Betriebssystemen und -versionen ausführen. Ganz nebenbei stieg auch noch die Effizienz der Systeme (auch durch Ausmusterung) und die Kosten in Zusammenhang mit Anschaffung, Einrichtung, Kühlung und Wartung konnten gleichzeitig gesenkt werden.

Die vielen Einsatzmöglichkeiten der Virtualisierung reduzierten die Anbierterabhängigkeit und bildeten die Grundlage für das Cloud Computing. Mittlerweile ist diese Technologie bei Unternehmen so weit verbreitet, dass man nicht selten eine spezielle Virtualisierungsverwaltungssoftware benötigt, um mit der Entwicklung Schritt halten zu können.


Wie funktioniert Virtualisierung?

Eine Software namens Hypervisor trennt die physischen Ressourcen von den virtuellen Umgebungen, also den Systemen, die die Ressourcen benötigen. Hypervisors können auf beliebigen Betriebssystemen aufsitzen (wie auf einem Laptop) oder direkt auf der Hardware (wie ein Server) installiert werden, was das von Unternehmen am häufigsten verwendete Modell ist. Mit Hypervisors können Sie Ihre physischen Ressourcen zur spezifischen Verwendung durch Ihre virtuellen Umgebungen aufteilen.

How virtualization works

Ressourcen werden je nach Bedarf von Ihrer physischen Umgebung an die verschiedenen virtuellen Umgebungen partitioniert. Die Nutzer interagieren mit ihrer speziellen virtuellen Umgebung (der Gast- oder virtuellen Maschine) und führen dort ihre Berechnungen durch. Die virtuellen Maschinen (VMs) funktionieren wie eine einzelne Datendatei. Und wie diese Dateien auch lassen sie sich von einem PC zum anderen verschieben und dort öffnen bzw. bieten die exakt gleiche Funktion.

Wenn die virtuelle Umgebung ausgeführt wird und von einem Nutzer/Programm eine Anweisung ausgegeben wird, die zusätzliche Ressourcen von der physischen Umgebung erfordert, gibt der Hypervisor diese Anfrage an ein physisches System weiter und speichert die Änderungen. Das alles läuft praktisch mit nativer Geschwindigkeit ab (besonders dann, wenn die Anfrage über einen Open Source-Hypervisor außerhalb der Kernel-based Virtual Machine gesendet wird).


Arten der Virtualisierung

Zu den am häufigsten virtualisierten Ressourcen gehören Server, Betriebssysteme und Netzwerke.

Servervirtualisierung

Server virtualization

Server sind Computer, die speziell auf die Verarbeitung eines großen Volumens an spezifischen Aufgaben ausgelegt sind, damit andere Rechner wie Laptops und Desktops für eine Vielfalt an anderen Unternehmungen frei bleiben. Durch die Virtualisierung lassen sich mit einem Server noch mehr dieser spezifischen Funktionen sowie Partitionierungen ausführen, damit diese Komponenten für mehrere Funktionen verwendet werden können.

Virtualisierung von Betriebssystemen

Operating system virtualization

Die Virtualisierung von Betriebssystemen erfolgt auf Kernelebene, also beim zentralen Task Manager des Betriebssystems. Auf diese Weise können Linux und Windows Umgebungen sehr effizient parallel ausgeführt werden. Dazu können Unternehmen virtuelle Betriebssysteme auf Rechnern installieren, was folgende Vorteile zeitigt:

  • Senkung der Gesamt-Hardware-Kosten, da die Rechner keine so anspruchsvollen Out-of-the-Box-Funktionen aufweisen müssen
  • Verbesserung der Sicherheit, da alle virtuellen Instanzen überwacht und isoliert werden können
  • Reduzierung des Zeitaufwands für IT-Services wie Softwareaktualisierungen

Network Functions Virtualization

Network function virtualization

Die Network Functions Virtualization (NFV) gewährleistet die Trennung der wichtigsten Netzwerkfunktionen (wie Verzeichnisdienste, gemeinsame Dateinutzung und IP-Konfiguration) zwecks Verteilung über mehrere Umgebungen. Sobald die Softwarefunktionen von den physischen Rechnern „losgelöst“ sind, auf denen sie installiert waren, können spezifische Funktionen in einem neuen Netzwerk gepackt und einer speziellen Umgebung zugewiesen werden. Durch die Virtualisierung von Netzwerken lässt sich die Zahl der physischen Komponenten wie Switches, Router, Server, Kabel und Hubs reduzieren, die zur Erstellung von mehreren unabhängigen Netzwerken benötigt werden und besonders in der Telekommunikationsbranche beliebt sind.

Virtualisierung bietet eine Vielzahl weiterer Einsatzmöglichkeiten