cnt

Das bringt Speichervirtualisierung


Artikel erschienen in Swiss IT Magazine 2008/15

     

Wild wuchernde IT-Landschaften, proprietäre Systeme, unübersichtliche Dokumentationen. Was auf dem Papier wie eine Übertreibung aussieht, ist in vielen Unternehmen der ganz normale Wahnsinn. Und wo unterschiedliche Rechner, Betriebssysteme und Netzwerkgeräte den Administratoren schon genug Kopfzerbrechen bereiten, stöhnen sie erst so richtig, wenn es auch bei der wichtigsten Komponente undurchsichtig wird, nämlich beim Speicher und den darauf liegenden Daten. Mit einer durchdachten Speichervirtualisierung hätten es Administratoren leichter, denn sie senkt den Verwaltungsaufwand und erleichtert den Überblick. Speichervirtualisierung lässt sich an verschiedenen Stellen umsetzen: auf den Servern, die mit den Speichermedien kommunizieren, auf dem Speichermedium selbst oder im Netz.


Speichervirtualisierung auf dem Server

Diese Art der Virtualisierung ist seit Jahren erprobt und läuft meist über einen sogenannten Volume Manager, der im Betriebssystem des Servers sitzt. Er kann mehrere Festplatten zu einem logischen Volume zusammenfassen. Die an den Server angeschlossenen Festplatten sind für den Anwender nicht sichtbar; der Volume Manager lässt den von ihm virtualisierten Speicherplatz als ein Speichermedium erscheinen. Die Grösse des virtuellen Speichers lässt sich jederzeit ändern, wodurch der Administrator schnell auf veränderte Speicheranforderungen reagieren kann. Der Speicher lässt sich auch in mehrere kleinere logische Volumes aufteilen.

Je nach Hersteller unterstützen Volume Manager auch RAID und ermöglichen Snapshots. In einer homogenen Serverlandschaft lassen sich mehrere Server durch ein sogenanntes Shared-Disk-Dateisystem miteinander verbinden. So lässt sich die Virtualisierung auf mehrere Maschinen ausdehnen und über eine zentrale Management-Konsole bedienen. Es lässt sich aber nicht jeder Server mit jedem Speichermedium verbinden, weil viele Systeme inkompatibel zueinander sind. So arbeiten die Treiber eines Servers oft nur mit bestimmten Speichersystemen zusammen. Es kann passieren, dass ein Speichermedium noch Platz hätte – aber der Server, von dem diese Daten kommen, kann nicht mit diesem Speichermedium «sprechen».


Virtualisierung auf dem Speichermedium

Speichermedien, zum Beispiel Disk-Subsysteme, sind Maschinen, die mit vielen Festplatten ausgestattet sind. Die Hersteller liefern Werkzeuge mit, mit deren Hilfe sich diese Plattensammlungen überwachen und verwalten lassen. Die Virtualisierung kann auf den Speichermedien selbst stattfinden: Auch hier werden über eine Software die physischen Festplatten zu logischen Volumes zusammengefasst. Die Server können auf diese Volumes zugreifen und Daten abholen oder zurückschreiben. Diese Speichermedien sind in zwei Techniken im Einsatz: SAN (Storage Area Network) und NAS (Network Attached Storage).


In einem SAN greifen die Server auf Blockebene auf die Festplatten zu. Sie nutzen dabei Protokolle wie Fibre Channel, SCSI (Small Computer System Interface) oder iSCSI (Internet Small Computer System Interface). Fibre Channel ist eine serielle Hochgeschwindigkeitsübertragungstechnik, die sich auch über Glasfaserkabel nutzen lässt, SCSI ist eine parallele Schnittstelle für Datenübertragungen, mit iSCSI lassen sich Blockdaten über ein IP-Netzwerk übertragen. Dadurch sind keine dedizierten Verkabelungen wie bei SCSI nötig, die bestehende Ethernet-Struktur lässt sich hierfür nutzen. Eine neuere Entwicklung ist FCoE (Fibre Channel over Ethernet): Mit geeigneten Switches lassen sich Daten auch im Fibre-Channel-Protokoll übers Ethernet-LAN übermitteln – siehe dazu unser vierter Schwerpunktartikel auf Seite 36.



NAS eignet sich für Virtualisierung auf Dateiebene. Die Anwendungsserver greifen über Protokolle wie CIFS (Common Internet File System) oder NFS (Network File System) auf die NAS-Speichereinheiten zu. Leider müssen Administratoren die Virtualisierung auf jedem einzelnen Speichergerät veranlassen, dafür werden die Anwendungsserver nicht mit zusätzlichen Operationen belastet.


Speichervirtualisierung im Netz

Eine Virtualisierung lässt sich ausserdem realisieren, indem zwischen die Anwendungsserver und die eigentlichen Speichergeräte eine zusätzliche Schicht eingezogen wird, die sogenannte Virtualisierungsschicht. Es gibt zwei Arten der Virtualisierung im Netz: Virtualisierung im Datenpfad, meist «In-Band-Virtualisierung» genannt, und Virtualisierung ausserhalb des Pfades oder «Out-of-Band-Virtualisierung». Die Virtualisierungsarbeit übernehmen in beiden Fällen dedizierte Komponenten wie intelligente SAN-Switches oder spezielle Virtualisierungs-Appliances. Sie koordinieren die Kommunikation zwischen Anwendungsservern und Speichergeräten und verwalten und virtualisieren die Speichermedien. Mit beiden Verfahren ist ein Zugriff auf die Speicher sowohl auf Block- als auch auf Dateiebene möglich – SAN und NAS lassen sich vermischen.


Bei der In-Band-Virtualisierung liegen Hardware und Software direkt im Datenpfad zwischen Servern und Speicher. Die Anwendungsdaten, die von den Servern angefordert werden, und die Kontrolldaten, mit denen die Virtualisierungshardware mit den Servern spricht, gehen über den gleichen Datenpfad. Die Virtualisierungshardware ist aus diesem Grund zweigeteilt. Ein Teil verwaltet die Speichergeräte und fasst sie zu logischen Volumes zusammen. Der andere Teil kümmert sich um die Kommunikation mit den Servern. Weil sowohl Nutzdaten als auch Kontrolldaten durch die Virtualisierungshardware fliessen, entsteht womöglich ein Flaschenhals. Damit das nicht geschieht, arbeitet die Hardware in der Regel mit einem Cache. Wenn von den Servern schreibintensive Daten zum Speichern angeliefert werden, lässt sich so die Gefahr eines Engpasses verringern.



Wie erwähnt, hängt die Virtualisierungskomponente im Datenpfad zwischen Servern und Speichermedien. Wenn sie ausfällt, ist Schluss mit Storage: Das Virtualisierungsgerät ist ein «Single Point of Failure». Aus diesem Grund raten Experten dazu, die Virtualisierungsschicht hochverfügbar auszulegen, zum Beispiel durch Clustering. Damit kann beim Ausfall eines Virtualisierungssystems ein anderes dessen Arbeit übernehmen. Mit der Cluster-Bauweise lassen sich auch anfallende Lasten besser auf die einzelnen Komponenten verteilen.


Bei der Out-of-Band-Virtualisierung tritt die Gefahr eines Flaschenhalses nicht auf, weil hier Kontrolldaten und Anwendungsdaten getrennte Wege gehen. Dies lässt sich erreichen, indem die Virtualisierungsschicht ausserhalb des Datenpfades installiert wird. Die Verbindung zwischen Servern und Speicher ist so ausschliesslich für die Nutzdaten reserviert. Für die Kontrolldaten ist die Virtualisierungsschicht über einen separaten Pfad mit Servern und Speichermedien verbunden. Auch hier ist die Virtualisierungsschicht zweigeteilt. Ein Teil kümmert sich um die Darstellung der Festplatten als logische Volumes, der andere Teil kommuniziert mit den Servern.


Sollte hier die Virtualisierungsschicht ausfallen, fällt nicht gleich das ganze Speichernetz aus. Es ist noch funktionsfähig, allerdings lassen sich unter Umständen die Anwendungsdaten nicht mehr den einzelnen Speichern zuordnen oder sie lassen sich auf den Speichern nicht mehr abrufen. Auch hier empfiehlt es sich, die Virtualisierungskomponenten hochverfügbar auszulegen.


Speichervirtualisierung in der Praxis

Speichervirtualisierung bietet viele Möglichkeiten, die Datenmengen und die dazu nötigen Komponenten in den Griff zu bekommen. Gerade die Netzwerk-basierten Varianten In-Band und Out-of-Band haben grosses Potential, weil die Interoperabilitätsprobleme der Server- und Speicher-basierten Virtualisierung dabei nicht auftreten. Durch Virtualisierung lassen sich Speichermedien besser auslasten und zentraler verwalten. Und auch wenn Virtualisierung erst einmal Geld und Planungszeit kostet, schont sie langfristig die Nerven der Systemverantwortlichen und senkt die Gesamtbetriebskosten.


Allerdings sieht es momentan nicht so aus, als würde sich Speichervirtualisierug in den Unternehmen auf breiter Basis durchsetzen. Speichervirtualisierung ist zwar ein ziemlicher Hype und wurde zum Beispiel von «CIO Insight» zur «Number 1 Emerging Technology for 2008» erkoren, doch in den Rechenzentren und IT-Abteilungen ist davon bisher eher wenig zu sehen. Onstor, ein amerikanisches Unternehmen, das Software und Hardware für Speichertechnik herstellt, befragte in einer Studie 650 Unternehmensvertreter aus den USA und aus Europa. Zwar begreifen die Befragten die Vorteile einer Virtualisierung wie zum Beispiel bessere Skalierbarkeit, Hochverfügbarkeit oder Flexibilität – doch die wenigsten setzen diese Vorteile in die Tat um. Laut Onstor arbeiten nur 27 Prozent der befragten europäischen Unternehmen bereits mit virtualisiertem Speicher. Andererseits glauben 40 Prozent der befragten Europäer, dass ihre aktuelle Speicherlösung nur noch zwei Jahre skalierbar bleibt, falls das Datenvolumen so weiterwächst wie bisher.



Für 60 Prozent der befragten Europäer ist die einfache Verwaltung ausschlaggebend bei der Wahl einer Virtualisierungstechnik, und 48 Prozent glauben, dass sich mit der richtigen Virtualisierung zwischen 20 und 40 Prozent der Kosten einsparen lassen. Das Fazit: Zwar glaubt ein odentlicher Anteil der Umfrageteilnehmer im Prinzip an die Vorteile der Speichervirtualisierung, aber nur wenige setzen die Technik tatsächlich ein. Die Entscheider gehen eher vorsichtig an das Thema heran. Daran ist wohl auch die Tatsache schuld, dass die Speichervirtualisierung direkt das Allerheiligste umkrempelt: die Daten und ihre Aufbewahrungsorte. Die Ergebnisse der Umfrage von Onstor, aber auch andere aktuelle Studien zeigen, dass Speichervirtualisierung im Moment noch im Hype-Stadium steht. Es bleibt abzuwarten, wann und ob sich das ändert.




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Aus welcher Stadt stammten die Bremer Stadtmusikanten?
GOLD SPONSOREN
SPONSOREN & PARTNER