Schweitzer Fachinformationen
Wenn es um professionelles Wissen geht, ist Schweitzer Fachinformationen wegweisend. Kunden aus Recht und Beratung sowie Unternehmen, öffentliche Verwaltungen und Bibliotheken erhalten komplette Lösungen zum Beschaffen, Verwalten und Nutzen von digitalen und gedruckten Medien.
In diesem Kapitel wollen wir uns kurz mit der Thematik der Virtualisierung im Allgemeinen befassen und die wichtigsten Begrifflichkeiten klären. Anschließend geht's dann direkt mit dem VMware-Produkt vSphere 7.0 los.
Um mal eben etwas auszuprobieren oder ein weiteres Betriebssystem zu installieren, muss man nicht unbedingt eine zusätzliche Partition zur Installation haben oder gar einen weiteren Rechner anschaffen. In den meisten Fällen reicht es, eine Software zu starten, »in« der ein zusätzlicher Computer unabhängig läuft. Eine solche Konstellation nennt man Virtualisierung. Den Computer, auf dem die Software installiert wird, nennt man Host oder Wirt, den Rechner, der im Fenster läuft, nennt man virtuelle Maschine (im Folgenden oft mit VM abgekürzt).
Natürlich erlauben viele Betriebssysteme und Anwendungen heute eine Testphase von 30 oder sogar mehr Tagen. Aber wer möchte schon gerne auf seinem Arbeitsrechner, geschweige denn auf einem Server eine Software zu Testzwecken installieren, nur um nach ein paar Tagen festzustellen, dass sie sich nicht mehr so einfach deinstallieren lässt? In einer virtuellen Maschine kann keine Software Schaden anrichten, und mit den meisten Virtualisierungsprogrammen lässt sich vor der Installation der aktuelle Zustand einfrieren und bei Belieben anschließend wiederherstellen.
Ein Computer, auf dem beliebig viele unterschiedliche Betriebssysteme gleichzeitig laufen können, also unabhängige und verschiedene Rechner in Fenstern, ist der Traum jedes Entwicklers, Supporters oder auch versuchsfreudigen Anwenders. Programme von VMware, Microsoft, XEN, KVM oder anderen erzeugen einen kompletten virtuellen Rechner. Mit nur ein paar Mausklicks steht ein neuer Test- PC schnell zur Verfügung.
So ein »PC-Emulator« ist ein Programm, das nach dem Start virtuelle Maschinen (kurz VMs) auf einem Hostsystem, also dem realen Hardwarecomputer, zur Verfügung stellt, in denen sich weitere Betriebssysteme installieren lassen (die Gastsysteme). Eine VM verfügt wie jeder echte PC über die üblichen Hardwarekomponenten wie Prozessor, Arbeitsspeicher, Festplatte, Netzwerkkarte usw. und bringt auch ein eigenes BIOS oder EFI (Extensible Firmware Interface) mit. Die im Fenster installierten Gastbetriebssysteme bemerken üblicherweise nicht, dass die Hardware, auf der sie laufen, nur emuliert wird.
Die meisten Hersteller dieser Virtualisierungslösungen sind sich dabei sogar einig und nutzen die gleiche Hardwareausstattung für ihre virtuelle Umgebung. Da sich der i440BX-Chipsatz von Intel zu Zeiten des Pentium II als sehr stabil erwiesen hat, wird dieser meist in der VM zur Verfügung gestellt. Das wiederum hat den Vorteil, dass sowohl alte als auch neue Microsoft-Betriebssysteme und auch so gut wie alle Linux-Distributionen in der virtuellen Maschine installiert werden können. Abhängig vom Hersteller der eingesetzten Applikation oder Hypervisoren sind auch andere Betriebssysteme verwendbar, z.B. DOS, Novell, Unix, OS/2 oder Mac OS X.
Viele spezielle Anwendungen, gerade auf Serverbetriebssystemen, erfordern einen eigenständigen Rechner. Nur so verspricht der Hersteller einen reibungslosen Einsatz. Gerade bei der öffentlichen Verwaltung und in Krankenhäusern werden diese Anforderungen an den Einsatz der Software im produktiven Bereich gestellt. In der Praxis sind das dann häufig Computer, die bei 2 bis 5% CPU-Auslastung laufen! Als virtuelle Maschine könnten aber gut zehn solcher Server eine einzige Hardware benutzen, um die Systemauslastung dann bei 20 bis 50% zu halten. Die gesparten neun Computer verbrauchen somit keinen Strom und belasten die Klimaanlage nicht - in der Regel rechnet sich die Anschaffung einer Virtualisierungssoftware daher schon nach wenigen Monaten. Das ist auch im Sinne von Green IT und wohl auch die beste Möglichkeit, große Einsparungen bei der Energieversorgung, der Hardware und Wartung sowie dem Platzbedarf für neue Server zu erreichen.
Wie Sie im Laufe des Buches noch lesen werden, ist die Energieeinsparung beim Virtualisieren jedoch nur einer von mehreren wichtigen Aspekten. Da eine VM nur von wenigen Dateien repräsentiert wird, ist ein Kopieren oder Klonen des Systems äußerst einfach. Durch das Nachhalten mehrerer Zustände des Gastbetriebssystems (Snapshots) lässt sich ohne Probleme mal eben etwas ausprobieren - sei es eine zusätzliche Software, ein neuer Releasestand oder auch ein Servicepack für das Betriebssystem. Funktioniert alles bestens, kann dieser Zustand getrost übernommen werden. Geht etwas daneben oder funktioniert es nicht wie gewünscht, so kann jederzeit zu einem vorherigen Stand (Snapshot) zurückgewechselt werden.
Ein weiterer Einsatzzweck für Virtualisierung: Ältere Betriebssysteme wie Windows NT laufen auf aktueller Hardware nicht mehr - meistens können sie noch nicht mal auf neuen Rechnern installiert oder portiert werden. In einer virtuellen Maschine ist das kein Problem.
Einzige Ausnahme bei den installierbaren Betriebssystemen sind wohl Echtzeitsysteme wie QNX, RTOS und VXworks, bei denen es auch keinen Sinn macht, diese virtuell laufen zu lassen. Zeitgenaue Abfolgen bei Betriebssystemen oder Anwendungen sollten nicht virtuell laufen - dafür ist das Laufzeitverhalten der VM nicht genau genug. Ein ESXi-Server (Host) macht keine abrupten Zeitänderungen, sondern dehnt Sekunden aus oder verkürzt sie, um die richtige Zeit irgendwann zu erreichen - auch das wäre für Echtzeitanwendungen sehr schädlich. Auch bei manchen Linux-Systemen, gerade mit spezieller Software, ist von der Virtualisierung grundsätzlich abzuraten.
Außerdem wird nur eine Standardhardware zur Verfügung gestellt, sodass spezielle Komponenten wie Steuerungssysteme oder spezielle Bus-Karten usw. leider nicht emuliert werden können. Gängige PCI- und PCIe-Adapter wie z.B. ISDN-Karten können aber - zumindest unter ESXi auf einigen Plattformen - an die VMs durchgereicht werden (PCI-Passthrough bzw. DirectPath-I/O-Konfiguration).
Was manche SysAdmins abschrecken kann: Die Administration der Systeme ist mit Virtualisierung zwar einfacher und sicherer - in gewisser Weise aber auch komplexer, weil zusätzliche Systeme (ESXi-, vCenter Server etc.) berücksichtigt werden müssen.
Auf Großrechnern wie den Mainframes von IBM sind virtuelle Maschinen schon seit langer Zeit nichts Besonderes. Das Grundprinzip ist einfach: In einer Sandbox (von Betriebs- und Dateisystem unabhängige Laufzeitumgebung, in der sich gegebenenfalls gefährlicher Code ohne Gefahr für die Stabilität und Sicherheit des Systems testen lässt) wird ein Computer »emuliert«, der über alle notwendige Hardware sowie Maus und Tastatur verfügt. Innerhalb dieses geschlossenen Systems kann ein Betriebssystem gestartet werden, das auf die virtuelle Hardware zugreift, als sei es ein echter Computer.
In der Praxis gestaltet sich diese Aufgabe jedoch erheblich schwieriger. Immerhin muss eine Vielzahl benötigter Komponenten virtuell erzeugt werden. Da das Betriebssystem auf dem Hostrechner immer den exklusiven Zugriff auf die Hardware behält, kann ein virtuelles Gastbetriebssystem keinen direkten Zugriff auf die reale Hardware bekommen (mit wenigen Ausnahmen). Deshalb findet das Betriebssystem in der virtuellen Maschine auch andere Hardware vor, als tatsächlich im PC eingebaut ist.
Die wichtigsten zu emulierenden Komponenten sind:
Neben diesen wesentlichen Komponenten wird häufig auch noch eine Reihe anderer Komponenten in der virtuellen Maschine benötigt, wie beispielsweise:
Zwei der wichtigsten Komponenten - CPU und Festplatte - widme ich einen eigenen Abschnitt, weil hier die meisten Missverständnisse auftreten und sich bei Unwissenheit über bestimmte Details auch Fehler einschleichen können.
Die CPU ist der Hauptbestandteil des echten und des virtuellen Rechners. Die AMD- oder Intel-Architektur hat allerdings hinsichtlich der Abbildung virtueller Maschinen gegenüber den Mainframes einige Schwächen. Letztere sind schon architektonisch auf VMs ausgelegt. Intel-Entwickler hatten früher hingegen nie einen virtuellen Rechner als primäres Ziel vorgesehen. Einen ersten Schritt machte AMD mit der »Pacifica« genannten Virtualisierungstechnik im Prozessorkern, Intel zog nach und nannte seine Virtualisierungsfunktion zunächst »Vanderpool...
Dateiformat: ePUBKopierschutz: Wasserzeichen-DRM (Digital Rights Management)
Systemvoraussetzungen:
Das Dateiformat ePUB ist sehr gut für Romane und Sachbücher geeignet - also für „fließenden” Text ohne komplexes Layout. Bei E-Readern oder Smartphones passt sich der Zeilen- und Seitenumbruch automatisch den kleinen Displays an. Mit Wasserzeichen-DRM wird hier ein „weicher” Kopierschutz verwendet. Daher ist technisch zwar alles möglich – sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.
Weitere Informationen finden Sie in unserer E-Book Hilfe.