Alle Jahre wieder, heisst neu das Motto bei Microsoft, wenn es um den Release von Softwareprodukten geht. So ist es gerade mal etwas mehr als ein Jahr her, seit Redmond Windows Server 2012 auf den Markt gebracht hat. Normalerweise wäre zum aktuellen Zeitpunkt ein Service Pack fällig gewesen, aber im Schlepptau des Windows-8.1-Clients – der dringend nachgebessert werden musste – ist parallel der Release 2 des Windows Server 2012 erschienen. Im Gegensatz zum Client ist beim Server die Palette an Neuerungen aber wesentlich umfangreicher ausgefallen.
Hyper-V Replica ermöglicht jetzt den Einbezug eines zweiten Replikats. (Quelle: Microsoft)
Mittels Storage Tiering werden oft benötigte Datenblöcke in einem Diskpool automatisch auf schnelle SSDs ausgelagert. (Quelle: Microsoft)
Powershell 4.0 bringt Desired State Configuration, das das Beschreiben von Serverzuständen mittels Code ermöglicht. (Quelle: Microsoft)
Die neuen «Generation 2»-VMs sind befreit von Hardware-Altlasten wie IDE-Controller oder PCI-Bus. Sie bieten Performance-Vorteile und mehr Flexibilität. (Quelle: Microsoft)
Hyper-V: Schnellere Live-Migration
Microsoft liefert sich mit Vmware bereits seit Jahren eine Schlacht um die Vorherrschaft im Virtualisierungsmarkt. Auch im neuesten Release setzt Redmond seine Aufholjagd weiter fort und hat Hyper-V zahlreiche neue Features spendiert. Einige Verbesserungen betreffen die Live-Migration von Virtual Machines (VMs). Seit Windows Server 2008 R2 gibt es die Möglichkeit, VMs im laufenden Betrieb zwischen Hyper-V-Hosts zu verschieben. Mit der neuen Cross-Version-Live-Migration lassen sich nun auch VMs zwischen Windows Server 2012 und Windows Server 2012 R2 transferieren. Neben einem gemischten Betrieb hat die Cross-Version-Unterstützung den Vorteil, dass man mit Windows Server 2012 virtualisierte Systeme ohne Downtime auf neue Hyper-V-R2-Umgebungen migrieren kann.
Überarbeitet wurde auch die Inplace-Upgrade-Funktion, über die ein Hyper-V-Host auf den aktuellsten Stand gebracht werden kann, ohne dass dabei VMs heruntergefahren oder Snapshots gelöscht werden müssen. Die Live-Migration kann unter Hyper-V R2 nun deutlich schneller durchgeführt werden. Dies auch dank der zuschaltbaren Komprimierung des Datenverkehrs, womit die Menge der übers Netzwerk zu übertragenden Daten verringert wird. Je nachdem wie viele Ressourcen auf dem Host-System für die Kompression zur Verfügung stehen, kann die Migration um bis zu Faktor zwei beschleunigt werden. Eine weitere Performance-Verbesserung lässt sich durch die Verwendung der neu unterstützten RDMA-Netzwerk-Adapter erreichen, welche Daten direkt in den Speicher des Zielhosts schreiben können.
Äusserst praktisch ist, dass sich neu virtuelle Harddisks auch während des VM-Betriebs vergrössern oder verkleinern lassen. Die dynamische Grössenanpassung setzt allerdings voraus, dass das neuere Virtual-Harddisk-Format VHDX verwendet und via SCSI-Controller betrieben wird. Mit den sogenannten Shared VHDX führt Microsoft auch von VMs gemeinsam nutzbare virtuelle Disks ein. Damit können nun Gast-Cluster aufgebaut werden, ohne dass man sich um eine SAN-Anbindung der beteiligten VMs kümmern muss.
Neu können Virtual Machines oder deren Snapshots auch während des Betriebs exportiert werden, ohne diese extra herunterfahren zu müssen. Man erhält dann eine voll funktionsfähige Kopie der Original-VM. Dies kann beispielsweise hilfreich sein, wenn man an einer produktiven Virtual Machine einige Tests durchführen möchte – zum Beispiel das Aufspielen eines Service Packs oder Hotfixes –, ohne die Verfügbarkeit zu beeinträchtigen.
VMs der zweiten Generation
VMs basierend auf Windows Server 2012 und Windows 8.x (64-Bit) können neu als sogenannte «Generation 2»-Virtual-Machines konfiguriert werden. Dabei handelt es sich um eine neue Klasse von VMs, welche die Unterstützung von Legacy-Hardware zugunsten einer modernen Architektur opfern. Statt alte, teilweise noch aus den 90er Jahren stammende Hardware wie beispielsweise S3-Videoadapter, IDE-Controller, PS/2-Tastatur oder PCI-Bus zu emulieren, kommt bei VMs der zweiten Generation nur noch moderne, virtuelle Hardware zum Einsatz. Dazu gehören
SCSI-Controller, synthetische Netzwerkadapter, VM-Bus oder das UEFI-Bios. Daraus resultieren Performance-Vorteile, die sich in schnelleren Boot-Zeiten und einer kürzeren Installationsdauer von Betriebssystemen bemerkbar machen. Kaum spürbare Performance-Gewinne lassen sich allerdings beim Betrieb der moderneren VM-Varianten ausmachen.
Ein weiterer Vorteil von «Generation 2»-Virtual-Machines ist die Unterstützung von Secure Boot durch UEFI, wodurch sich VMs besser vor Boot-Level-Malware schützen lassen. Via Preboot Execution Environment (PXE) lassen sich die neuen VMs zudem direkt übers Netzwerk booten, was vor allem in Cloud-Infrastrukturen zu mehr Flexibilität verhelfen kann.
Mehr Liebe für Pinguine
Die Linux-Unterstützung fristete in bisherigen Hyper-V-Fassungen eher ein Stiefmütterchendasein. In R2 gibt es hier nun deutliche Verbesserungen. So erhalten auch Linux-VMs bislang schmerzlich vermisste Features wie Remote Replication für Disaster Recovery oder das dynamische Anpassen von virtuellen
VHDX-Disks und Speicherkonfigurationen.
Mit der in Windows Server 2012 eingeführten Backup-Technologie Hyper-V Replica kann man auf unkomplizierte Art und Weise automatisch eine Offline-Kopie einer virtuellen Maschine auf einem zweiten Hyper-V-Server anlegen lassen. Diese wird dann in regelmässigen Intervallen automatisch auf dem neuesten Stand gehalten und kann bei Problemen auf dem ersten Server aktiviert werden. Ab R2 kann man für die Replizierung einen dritten Hyper-V-Server miteinbeziehen und damit ein zweites Offline-Backup anlegen. Die Verwendung eines dritten Servers ist vor allem dann praktisch, wenn man eine Kopie lokal und eine zweite offsite in einem anderen Datacenter oder in der Cloud anlegen möchte. Neu ist auch, dass man das Replikations-Intervall, das bisher fix bei fünf Minuten lag, jetzt auch auf 30 Sekunden oder 15 Minuten festlegen kann.
Schnellerer Speicher mit Storage Tiering
In Windows Server 2012 hat Microsoft mit Storage Spaces eine Speicher-Virtualisierungs-Technologie eingeführt, mit der sich mehrere physische Disks in sogenannten Pools zusammenfassen lassen. Disks mit unterschiedlichen Kapazitäten und Geschwindigkeiten sowie verschiedenen Controller-Technologien (SCSI, SATA, USB) können dabei beliebig kombiniert werden. Der in Pools aggregierte Speicherplatz lässt sich dann in Form von virtuellen Laufwerken zur Verfügung stellen. Die Idee hinter dem Konzept: Es lassen sich mit kostengünstigen Speichermedien ausfallsichere und flexible Speicherlösungen realisieren, bei der jederzeit Disks zugefügt, ausgetauscht oder entfernt werden können.
In Windows Server 2012 R2 erweitert Microsoft Storage Spaces nun um automatisches Storage Tiering, das Daten, auf welche häufig zugegriffen wird, automatisch auf schnellere SSD-Datenträger verschieben kann, während weniger genutzte Daten auf langsameren Harddisks verbleiben. Dabei wird die Datennutzung im Hintergrund überwacht und dann einmal pro Tag zu einem vorgegebenen Zeitpunkt in das entsprechende Tier verlagert. Das Ganze geschieht dabei nicht auf File-, sondern auf Block-Ebene (1-Megabyte-Blöcke), was bedeutet, dass auch nur Teile einer Datei in den schnellen SSD-Bereich «hochgeladen» werden können. Administratoren können den Zeitpunkt der Durchführung des Tierings vorgeben. Ausserdem lassen sich I/O-sensitive Daten auch permanent in das SSD-Tier verlagern. Microsoft hat Storage Spaces zudem ein Write-Back-Caching verpasst, das den schnelleren Tier als Zwischenspeicher verwendet und die Schreib-Performance von kurzzeitigen IOPS-Spitzen verbessert.
Verbesserungen gibt es auch bei der im 2012er Release eingeführten Data-Deduplication-Funktion, mit der sich der vorhandene Festplattenspeicher durch Eliminieren von redundanten Daten effizienter nutzen lässt. Data Deduplication zerlegt Dateien in kleinere Bruchteile, komprimiert diese und vergleicht, ob ein äquivalentes Teil bereits gespeichert wurde. Ist dies der Fall, wird lediglich ein Verweis auf das bereits vorhandene Teil angelegt.
Neu kann Data Duplication auch mit geöffneten Files eingesetzt werden, was insbesondere innerhalb von VDI-Umgebungen mit laufenden VDI-Instanzen zu enormen Speicherplatzeinsparungen führen kann. Nach wie vor kann Data Duplication nur mit Data Volumes eingesetzt werden. Boot-, System- oder ReFS-Volumes (Resilient File System) werden weiterhin nicht unterstützt. Interessant ist auch die neue Möglichkeit, Quality of Service (QoS) für bestimmte Virtual Disks von «kritischen» Virtual Machines festzulegen, um so einen bestimmten I/O-Durchsatz garantieren zu können. So kann man VMs mit I/O-intensiven Anwendungen wie beispielsweise Datenbanken höhere Priorität einräumen als einer VM, auf der etwa ein Webserver betrieben wird.
Virtualisierte Netze
Bereits in Windows Server 2012 hat Microsoft mit Hyper-V Network-Virtualization (HNV)-Technologien im Bereich Software Defined Networking (SDN) hinzugefügt. Die Idee hinter SDN ist, einzelne virtuelle Netzwerke zu definieren und vom eigentlichen physischen Netzwerk zu trennen. Der Vorteil: Netzwerkkonfigurationen lassen sich zwischen Datacenter (on Premise oder Cloud) portieren. So können beispielsweise komplette, virtualisierte Serverfarmen inklusive Netzwerkkonfiguration zwischen dem lokalen Datacenter und der Cloud verschoben werden, ohne dass dabei bestehende IP-Adressen und die zugrunde liegende Topologie angepasst werden müssen.
Software Defined Networking wird in R2 mit neuen Erweiterungen für HNV weiter vorangetrieben. So kann HNV nun die IP-Adressen von virtuellen Maschinen eines Netzwerks dynamisch erlernen. Damit wird der Einsatz von Guest-Clustering nun auch innerhalb von virtualisierten Netzwerk-Installationen möglich. Ausserdem können jetzt Domain-Controller, DNS-Server und DHCP-Server als virtuelle Maschinen innerhalb eines Virtual Networks betrieben werden. Weitere Neuerungen an HNV betreffen Performance-Verbesserungen wie etwa die Option, «NVGRE Traffic» (Network Virtualization for Generic Routing Encapsulation) auf mehrere Netzwerk-Adapter zu verteilen.
Das beim Vorgänger eingeführte NIC-Teaming, mit dem sich zwei oder mehr Netzwerk-Adapter zwecks Ausfallsicherheit und Performance zusammenschalten lassen, wurde um den neuen Load-Balancing-Betriebsmodus «Dynamic» erweitert. Dieser kombiniert die beiden bisherigen Betriebsmodi («Address Hash» und «Hyper-V Port») und sorgt für eine gleichmässigere Auslastung der parallel geschalteten Adapter.
Moderne Netzwerk-Adapter warten mittlerweile mit derart hoher Performance auf, dass sie von einzelnen Prozessoren eines Servers gar nicht mehr ausgereizt werden können. Mit Received Side Scaling (RSS) hat Microsoft bereits in Windows Server 2012 eine Technologie eingeführt, mit welcher die Verarbeitung des Netzwerkverkehrs auf mehrere Prozessorkerne aufgeteilt wird. In R2 wird nun mit Virtual RSS (vRSS) die Maximierung der Netzwerkauslastung auch aus einer Virtual Machine möglich. Die Verarbeitung des Netzwerkverkehrs lässt sich dabei auf mehrere virtuelle Prozessoren innerhalb der VM und Kerne des Hosts aufsplitten.
BYOD: Mobile Geräte einbinden
Die Anforderungen an IT-Administratoren sind rund um den zunehmenden Trend zu Bring your own Device (BYOD) angestiegen. Benutzer erwarten heute, von jedem Ort, mit jedem x-beliebigen Gerät auf die Daten und Anwendungen des Unternehmens zugreifen zu können. Mit Windows Server 2012 R2 führt Microsoft einige neue Technologien ein, welche Administratoren dabei helfen sollen, den verschiedenen BYOD-Bedürfnissen Rechnung zu tragen. Als Alternative zum bisherigen Domain Join wurde Active Directory um das neue Feature Workplace Join erweitert. Damit lassen sich mitgebrachte Windows- und iOS-Geräte in ein Firmennetzwerk integrieren und erhalten so sicheren Zugang zu Daten und Anwendungen des Unternehmens.
Workplace Join basiert auf dem neuen Device Registration Service (DRS), der Teil der Active Directory Federation Services (ADFS) ist. Verbindet sich ein Gerät via Workplace Join, wird via DRS ein Device-Objekt im AD erzeugt und mit dem User verknüpft. Ausserdem wird ein Zertfikat an das Gerät ausgeliefert, das dann jeweils für die Authentifizierung genutzt wird, ohne dass das Gerät der Active-Directory-Domäne beitreten muss.
Ergänzt wird Workplace Join durch den sogenannten Web Application Proxy, ein neuer Remote-Access-Service, der Benutzern ausserhalb des Unternehmens sicheren Zugang zu Anwendungen und Diensten innerhalb der Organisation ermöglichen soll. Workplace-Join-Unterstützung gibt es derzeit für Windows 8.1 (inklusive Windows RT) und iOS-Geräte. Android-Support fehlt aktuell noch, soll aber in absehbarer Zeit folgen.
Ein weiteres BYOD-Feature sind die sogenannten Work Folders, über welche Benutzer auf einem Windows Server abgelegte Dateien mit ihrem eigenen Gerät synchronisieren lassen können. Für jeden User wird ein eigener Work Folder angelegt, der vom Administrator zentral verwaltet werden kann. Leider lassen sich keine Work Folder anlegen, die von mehreren Personen gemeinsam genutzt werden können. Auch gibt es zum aktuellen Zeitpunkt keine selektive Synchronisierung, mit der man bestimmen kann, welche Daten man mit welchem Gerät synchronisiert haben möchte. Eine weitere Einschränkung ist, dass derweil nur Windows 8.1 (und Windows 8.1 RT) unterstützt wird. Support für Windows 7 und iPad sollen aber in Kürze nachgereicht werden.
Während die Group Policies in Windows Server 2012 starke Erweiterungen erfahren hatten, wurde hier beim neuen Release vor allem Fein-Tuning betrieben. Neben einigen neuen Policy-Settings und besserer Unterstützung von IPv6 ist insbesondere das neue Policy Caching zu erwähnen, welches das Anwenden von Gruppenrichtlinien auf dem Client erheblich beschleunigen kann.
Ebenfalls «nur» Detailverbesserungen gibt es bei RDS. Dazu zählen etwas mehr Komfort beim Anpassen der Bildschirmauflösung eines Remote-Desktop-Fensters, bessere Video-Performance über RDS-Sessions und Support von Directx 11.1. Eine neues Feature nennt sich Quick Reconnect, das bei abgebrochenen Sessions eine schnellere Wiederaufnahme der Remote-Verbindung ermöglicht. Bei schlechten Netzwerkverbindungen konnte eine erneute Verbindungsaufnahme schnell einmal bis zu einer Minute dauern. Jetzt wartet man typischerweise auch bei schlechten Connections weniger als fünf Sekunden. In R2 hat Microsoft auch das seit langem fällige Shadowing implementiert, mit dem Administratoren Einblick in eine User Session erhalten oder deren Kontrolle übernehmen können. Will der Administrator eine Sitzung übernehmen, erhalten Benutzer eine Dialogbox angezeigt, mit der sie die Kontrolle über die Session akzeptieren oder ablehnen können.
Verbesserungen am UI
An der Benutzeroberfläche hat sich für Administratoren nur wenig geändert. Wer nicht die UI-freie Server-Core-Variante von Windows Server installiert, findet nach erfolgtem Setup wie beim Vorgänger die hybride Desktop/Metro-Oberfläche wieder. Immerhin hat Microsoft die UI-Anpassungen von Windows 8.1 auch im Windows Server vorgenommen. So gibt es nun wieder einen Start-Button, über den man mit Rechtsklick das Power-User-Menü, das schnellen Zugriff auf Funktionen wie etwa Power-
shell, die Suche oder das Herunterfahren des Systems gibt, aufrufen kann. Und: Windows Server 2012 R2 zeigt nun nach erfolgtem Login wieder den altbewährten Desktop anstelle des für Server doch recht unnützen Metro-Style-Interface. Kaum verändert wurde der praktische Server Manager, der seit Windows Server 2012 im neuen Look daher kommt.
Powershell 4.0
Windows Server 2012 R2 wird standardmässig mit der neuen Version 4.0 von Powershell ausgeliefert. Neben einer Reihe von Detailverbesserungen bringt diese vor allem mit Desired State Configuration (DSC) ein interessantes neues Feature. DSC ermöglicht den gewünschten Zustand eines Servers in Form von Code zu definieren. In sogenannten Configuration Blocks wird beispielsweise spezifiziert, was auf dem Server installiert sein soll oder welche Registry-Einträge vorhanden sein müssen. Auch das Anlegen von Files, das Ausführen von Installationsroutinen oder das Zufügen und Entfernen von Windows Features ist via DSC möglich. DSC bietet grosses Potential, wenn es um eine fortwährende Sicherstellung von «idealen» Serverkonfigurationen geht.
Die verschiedenen Editionen
Windows Server 2012 R2 gibt es in den Varianten Foundation, Essentials, Standard und Datacenter. Während Foundation für Kleinunternehmen mit bis zu maximal 15 Usern gedacht und nur als OEM-Version verfügbar ist, handelt es sich bei Essentials um den Quasi-Nachfolger des ehemaligen Small Business Server. Zwar kommt Essentials auch in der R2-Fassung gegenüber dem bisherigen Small Business Server in abgespeckter Form daher – zum Beispiel ohne Exchange Server –, einige Beschränkungen wurden allerdings aufgehoben. Während die maximale Benutzerzahl bei 25 Usern bleibt, darf Essentials neu auch gemeinsam mit anderen Windows-Servern im Netzwerk betrieben werden. Zudem kann man Essentials nun als Server-Rolle auf einem Standard- oder Datacenter-Server aktivieren und so in einem grösseren Netzwerk Essentials-Funktionen wie das automatische Client-Backup oder die vereinfachte Admin-
Oberfläche mit einer Reihe von zusätzlichen Assistenten verwenden. Essentials R2 darf neu auch auf einer Virtual Machine betrieben werden. Die dazu nötige Hyper-V-Rolle ist Bestandteil des Essentials-Server, darf aber nur für den Gastbetrieb von Essentials, nicht aber für den Betrieb von weiteren virtuellen Instanzen verwendet werden.
Die Standard- und Datacenter-Editionen sind von der technischen Funktionalität her identisch. Unterschiede gibt es lediglich bei den Virtualisierungsrechten. Während der Standard-Server neben dem physischen Betrieb auf dem Server (zwei physische Prozessoren pro Lizenz) zusätzlich in zwei virtuellen Instanzen betrieben werden darf, sind beim Datacenter-Server neben dem physischen Serverbetrieb eine unlimitierte Anzahl an virtuellen Instanzen erlaubt. Microsoft bietet die Datacenter-Edition alternativ auch auf Windows Azure als Virtual Machine gegen eine auf Zeit basierende Nutzungsgebühr an.
Cloud OS: Flexibilität im DatAcenter
Windows Server 2012 R2 nimmt im Rahmen von Microsofts Cloud-OS-Strategie eine zentrale Rolle ein und soll gemeinsam mit den Produkten System Center 2012 R2 und Windows Azure eine konsistente Plattform für den Betrieb von Datacentern, sprich Clouds, an unterschiedlichen Standorten bilden. Microsoft unterscheidet dabei zwischen drei Arten von Clouds: Private Clouds (beim Kunden vor Ort), Service Provider Clouds (etwa bei Hosting-Anbietern) und Public Clouds (Windows Azure). Ein gewichtiger Vorteil von Microsofts Cloud-OS-Initiative ist, dass sich Dienste ohne grossen Aufwand zwischen den verschiedenen Datacenter verschieben lassen. Ausserdem soll sie die Umsetzung von hybriden Lösungen vereinfachen. In Windows Server 2012 R2 spiegelt sich die Cloud-OS-Idee vor allem in Form von erweiterten Virtualisierungstechnologien wider. Ein weiteres wichtiges Cloud-OS-Standbein ist der höhere Grad an Automation, der neben wichtigen Neuerungen in Powershell 4.0 von den Verwaltungswerkzeugen System Center 2012 R2 und dem Azure Management Pack abgedeckt wird.