Überblick
Virtualisierung ist die Technologie, mit der Sie nützliche IT-Services mithilfe von Ressourcen erstellen können, die traditionell an eine bestimmte Hardware gebunden sind. So sind Sie in der Lage, die vollständige Kapazität einer einzelnen physischen Maschine durch Verteilung ihrer Funktionen auf viele Nutzende oder Umgebungen auszuschöpfen.
In der Praxis können Sie sich das als 3 physiche Server mit individuellen Aufgaben vorstellen. Einer ist ein Mail-Server, der andere ein Webserver und der dritte führt interne Altanwendungen aus. Jeder dieser Server wird nur bis zu 30 %, also einem Bruchteil seiner Kapazität, genutzt. Da die Altanwendungen allerdings wichtig für Ihre internen Abläufe sind, müssen Sie diese Systeme sowie den Host-Server behalten, oder?
Normalerweise ja. Es war oft einfacher und zuverlässiger, einzelne Aufgaben auf einzelnen Servern auszuführen: Ein Server, ein Betriebssystem, eine Aufgabe. Ein Server mit mehr als einem „Gehirn“ war nur schwer vorstell- und durchführbar. Mithilfe der Virtualisierung aber können Sie den Mail-Server in 2 Rechner für die Ausführung unabhängiger Aufgaben, d. h. die Migration von Legacy-Anwendungen aufteilen. Es ist die gleiche Hardware, Sie nutzen nur mehr davon effizienter.
Vor dem Hintergrund des Sicherheitsaspekts könnte man den ersten Server zur Ausführung einer weiteren Aufgabe erneut teilen und damit seine Auslastung von 30 % über 60 % bis hin zu 90 % steigern. Die dadurch „leer“ gewordenen Server könnten dann für andere Aufgaben verwendet oder komplett außer Betrieb gesetzt werden, um Kühl- und Wartungskosten einzusparen.
Eine kurze Geschichte der Virtualisierung
Die Anfänge der Virtualisierung lassen sich bis in die 1960er Jahre zurückverfolgen, allerdings wurde die Technologie erst in den frühen 2000ern in größerem Umfang übernommen. Die Technologien zur Umsetzung der Virtualisierung, wie Hypervisors, wurden bereits vor Jahrzehnten entwickelt, um mehreren Nutzenden gleichzeitig Zugriff auf Computer zu gewähren, mit denen Batch-Verarbeitung erfolgte. Solche Prozesse erfreuten sich damals in Geschäftssektoren großer Beliebtheit, in denen Routineaufgaben tausendfach und extrem schnell durchgeführt werden mussten (wie die Lohnabrechnung).
Im Laufe der folgenden Jahrzehnte aber wurde die Virtualisierung von anderen Lösungen für das Problem „Viele Nutzende/Ein Rechner“ überholt. Eine dieser Lösungen war das Teilnehmerverfahren, bei dem Nutzende innerhalb von Betriebssystemen isoliert wurden. Dies wiederum führte fast unbeabsichtigt zu anderen Betriebssystemen wie UNIX, das dann später von Linux® abgelöst wurde. Während dieser ganzen Zeit fristete die Virtualisierung zumeist ein Schattendasein.
Machen wir einen Sprung in die 1990er Jahre. Die meisten Unternehmen verfügten über physische Server und IT-Stacks eines einzigen Anbieters, sodass Legacy-Anwendungen nicht auf der Hardware eines anderen Anbieters ausgeführt werden konnten. Als Unternehmen ihre IT-Umgebungen mit kostengünstigeren Standardservern, Betriebssystemen und Anwendungen verschiedener Anbieter aktualisierten, waren sie an nicht voll ausgelastete physische Hardware gebunden. Jeder Server konnte nur eine herstellerspezifische Aufgabe ausführen.
Dies ist der Punkt, an dem die Virtualisierung richtig in Schwung kam. Sie war die natürliche Lösung für 2 Probleme: Unternehmen konnten ihre Server partitionieren und Legacy-Anwendungen auf mehreren Betriebssystemtypen und -versionen ausführen. Die Server wurden effizienter (oder gar nicht) genutzt, wodurch die Kosten für Anschaffung, Einrichtung, Kühlung und Wartung sanken.
Die vielen Einsatzmöglichkeiten der Virtualisierung reduzierten die Anbieterabhängigkeit und bildeten die Basis für das Cloud Computing. Mittlerweile ist diese Technologie bei Unternehmen so weit verbreitet, dass man nicht selten eine spezielle Software für die Virtualisierungsverwaltung benötigt, um mit der Entwicklung Schritt halten zu können.
Red Hat Ressourcen
Wie funktioniert Virtualisierung?
Eine als Hypervisor bezeichnete Software trennt die physischen Ressourcen von den virtuellen Umgebungen – den Elementen, die diese Ressourcen benötigen. Hypervisoren können auf einem Betriebssystem (wie auf einem Laptop) oder direkt auf der Hardware (wie einem Server) installiert werden, was in den meisten Unternehmen der Fall ist. Hypervisors teilen Ihre physischen Ressourcen so auf, dass virtuelle Umgebungen sie nutzen können.
Ressourcen werden je nach Bedarf von Ihrer physischen Umgebung an die verschiedenen virtuellen Umgebungen verteilt und partitioniert. Die Nutzenden interagieren mit ihrer speziellen virtuellen Umgebung (der Guest oder Virtual Machine) und führen dort ihre Berechnungen durch. Die VM (virtuelle Maschine) funktioniert wie eine einzelne Datendatei. Und wie praktisch jede beliebige digitale Datei auch lassen sie sich von einem PC zum anderen verschieben und dort öffnen und bieten die exakt gleiche Funktion.
Wenn die virtuelle Umgebung ausgeführt wird und eine Nutzerin oder ein Nutzer/ein Programm eine Anweisung ausgibt, die zusätzliche Ressourcen von der physischen Umgebung erfordert, gibt der Hypervisor diese Anfrage an ein physisches System weiter und speichert die Änderungen. Das alles läuft praktisch mit nativer Geschwindigkeit ab (besonders dann, wenn die Anfrage über einen Open Source-Hypervisor außerhalb der Kernel-based Virtual Machine gesendet wird).
Die Vorteile der Virtualisierung
Virtualisierung ermöglicht es Hardwaresystemen, ihre höchste Kapazität zu nutzen. Teams können ihre Ressourcen zum Support wichtiger Anwendungen und virtualisierter Workloads einsetzen und so optimal nutzen. Zu den Vorteilen der Virtualisierung zählen folgende Punkte:
- Kosteneinsparungen: Durch die effizientere Nutzung der vorhandenen Ressourcen können die Teams ihre Ausgaben senken, da sie keine kostspielige Legacy-Infrastruktur mehr unterhalten müssen.
- Schnellere Anwendungsmigration: Administratoren müssen nicht mehr darauf warten, dass jede Anwendung auf neuer Hardware zertifiziert wird. Dank der Virtualisierung können sie die Umgebung einrichten, die VM migrieren, und alles funktioniert wie zuvor.
- Effiziente Umgebungen: Bei Regressionstests können Teams ein Testbed erstellen oder kopieren, sodass keine spezielle Testhardware oder redundante Entwicklungsserver erforderlich sind. Mit dem richtigen Training und Wissen können Teams ihre Umgebung optimieren, um eine größere Leistungsfähigkeit und Dichte zu erreichen.
Arten der Virtualisierung
Datenvirtualisierung
An vielen Orten verteilte Daten können in einer einzigen Quelle konsolidiert werden. Die Datenvirtualisierung ermöglicht es Unternehmen, Daten über Verarbeitungsfunktionen zu verwalten, die Daten aus verschiedenen Quellen zusammenführen, neue Datenquellen problemlos aufnehmen und Daten entsprechend den Anforderungen der Nutzenden umwandeln können. Datenvirtualisierungs-Tools sind mehreren Datenquellen vorgelagert, damit diese als eine Quelle behandelt werden können. So werden die benötigen Daten im geforderten Format und zum richtigen Zeitpunkt für Anwendungen oder Nutzende bereitgestellt.
Desktop-Virtualisierung
Die Virtualisierung von Desktops wird oft mit der Virtualisierung von Betriebssystemen verwechselt, die die Ausführung mehrerer Betriebssysteme auf einem Rechner ermöglicht. Mit der Virtualisierung von Desktops allerdings kann ein zentrales Administrationsteam (oder ein automatisiertes Administrationstool) simulierte Desktopumgebungen in Hunderten von physischen Rechnern gleichzeitig simulieren. Im Gegensatz zu traditionellen Desktopumgebungen, die physisch installiert, konfiguriert und für jeden Rechner aktualisiert werden müssen, ermöglicht die Virtualisierung von Desktops dem Administrationsteam die Ausführung von Massenkonfigurationen, -Updates und -Sicherheitsprüfungen auf allen virtuellen Desktops.
Server-Virtualisierung
Server sind Computer, die speziell auf die Verarbeitung eines großen Volumens an spezifischen Aufgaben ausgelegt sind, damit andere Rechner wie Laptops und Desktops für diverse andere Maßnahmen frei bleiben. Durch die Virtualisierung lassen sich mit einem Server noch mehr dieser spezifischen Funktionen sowie Partitionierungen ausführen, damit diese Komponenten für mehrere Funktionen verwendet werden können.
Virtualisierung von Betriebssystemen
Die Virtualisierung von Betriebssystemen erfolgt auf Kernelebene, also beim zentralen Task Manager des Betriebssystems. Auf diese Weise können Linux- und Windows-Umgebungen sehr effizient parallel ausgeführt werden. Unternehmen können auch virtuelle Betriebssysteme auf Computer übertragen, was folgende Vorteile mit sich bringt:
- Senkung der gesamten Hardware-Kosten, da die Rechner keine anspruchsvollen Out of the Box-Funktionen aufweisen müssen
- Verbesserung der Sicherheit, da alle virtuellen Instanzen überwacht und isoliert werden können
- Reduzierung des Zeitaufwands für IT-Services wie Softwareaktualisierungen
Network Functions Virtualization
Die Network Functions Virtualization (NFV) gewährleistet die Trennung der wichtigsten Netzwerkfunktionen (wie Verzeichnisdienste, gemeinsame Dateinutzung und IP-Konfiguration) zwecks Verteilung über mehrere Umgebungen. Sobald die Softwarefunktionen von den physischen Rechnern „losgelöst“ sind, auf denen sie installiert waren, können spezifische Funktionen in einem neuen Netzwerk gepackt und einer speziellen Umgebung zugewiesen werden. Durch die Virtualisierung von Netzwerken lässt sich die Zahl der physischen Komponenten (wie Switches, Router, Server, Kabel und Hubs) reduzieren, die zur Erstellung von mehreren unabhängigen Netzwerken benötigt werden und besonders in der Telekommunikationsbranche beliebt sind.
Warum Sie Ihre virtuelle Infrastruktur zu Red Hat migrieren sollten
Bei dieser Entscheidung geht es um mehr als Infrastruktur. Es geht darum, auf welche Weise Ihre Infrastruktur die Technologien, die Sie einsetzen möchten, unterstützen kann oder nicht. Eine vertragliche Bindung an Anbieter mit stetig teurer werdenden Lizenzvereinbarungen setzt Ihren Möglichkeiten bei der Investition in moderne Technologien (wie Clouds, Container und Automatisierungssysteme) Grenzen.
Unsere Open Source-Virtualisierungstechnologien sind jedoch nicht an Lizenzvereinbarungen gebunden. Sie erhalten vollen Zugriff auf den gleichen Quellcode, dem über 90 % der Fortune 500-Unternehmen vertrauen.* So können Sie ganz nach Belieben eine agile Strategie wählen, eine Hybrid Cloud verwenden oder mit Automatisierungstechnologien experimentieren.
Warum Red Hat für die Virtualisierung?
Das Portfolio an Produkten und Lösungen von Red Hat kann Sie bei der Entwicklung von Virtualisierungslösungen unterstützen. Red Hat® OpenShift® bietet eine cloudnative Virtualisierungsinfrastruktur, die VMs unabhängig von ihrem Ausführungsort unterstützt – ob lokal oder in Hybrid-, Public- oder Private Clouds. Zu den vielen Vorteilen gehören Einfachheit, Schnelligkeit und die Ausrichtung an modernen Prinzipien des IT-Managements, mit denen Sie VM-basierte Workloads modernisieren können.
Mit Red Hat OpenShift Virtualization – einer in Red Hat OpenShift enthaltenen Funktion – können Sie VM-Workloads erstellen und sowohl neue als auch bestehende VM-Workloads migrieren und bereitstellen. So können Teams VMs in containerisierte Workflows einbinden, indem sie eine VM innerhalb eines Containers ausführen, wodurch Sie VMs zusammen mit Containern bereitstellen und verwalten können – alles auf einer Plattform. Um Sie bei Ihrem Virtualisierungsprozess zu unterstützen, bietet unsere Einschätzung der Virtualisierungsmigration eine Überprüfung und einen individuellen Migrationsplan, der einen risikoarmen Übergang von herkömmlichen VMs zu OpenShift Virtualization ermöglicht.
* Red Hat Kundendaten und Liste der Fortune 500, Juni 2023
Der offizielle Red Hat Blog
Lernen Sie mehr über unser Ökosystem von Kunden, Partnern und Communities und erfahren Sie das Neueste zu Themen wie Automatisierung, Hybrid Cloud, KI und mehr.