Vom Hype zur Commodity
Artikel erschienen in Swiss IT Magazine 2004/11
Mehr Daten erfordern mehr Speicher. Was so einfach, klar und wie eine Binsenwahrheit klingt, ist in Tat und Wahrheit wesentlich komplexer: Mehr Speicher erzeugt einen höheren Administrationsaufwand und damit höhere Kosten in Zeiten von sinkenden Budgets - wie Gartner vorrechnet, kostet jeder Dollar, der für neuen Datenspeicher ausgegeben wird, fünf Dollar an zusätzlichen IT-Ressourcen, um ihn zu verwalten. Gleichzeitig wird aber weniger als die Hälfte der bestehenden Speicherkapazität tatsächlich genutzt.
Das Problem heisst demnach nicht unbedingt zuwenig Speicher, sondern ineffiziente Nutzung desselben. Und genau dieses Problem will Speichervirtualisierung lösen.
Dabei ist das Konzept der Speichervirtualisierung noch nicht einmal neu. Die ersten Virtualisierungslösungen waren bereits vor 20 Jahren in Mainframes implementiert, das Volume-Management, bei dem mehrere physische Festplatten in logische Volumes gruppiert werden und so verschiedene Hosts bedienen, gehört seit langem zu den etablierten Konzepten, und auch die heute weitverbreiteten RAID-Lösungen sind letztlich nur eine mögliche Form von Virtualisierung. Allerdings muss hier auch eingeräumt werden, dass die heutigen heterogenen Speicherlandschaften wesentlich komplexer zu handhaben sind. Erst das Aufkommen von SANs (Storage Area Networks) in den vergangenen Jahren hat das Interesse erneut auf die Virtualisierungtechnologien gerichtet und das Verständnis dafür verbessert, welchen Nutzen sie in diesem Umfeld tatsächlich haben können.
Problematisch ist allerdings, dass Speichervirtualisierung kein Begriff mit einer festen Definition ist - schon unter dem Namen versteht jeder etwas anderes. Zur Verwirrung trägt auch bei, dass jeder Hersteller von Virtualisierungstechnologien einen anderen Ansatz hat, aber jeder für sich die beste, zuverlässigste, skalierbarste und am einfachsten zu verwaltende Lösung reklamiert; es wird zunehmend komplex, sich im Dschungel der Marketingsprüche zurechtzufinden. Und nicht zuletzt ist die Speichervirtualisierung in vielen Fällen noch nicht genügend ausgereift, um zu den weitverbreiteten Commodity-Anwendungen zu gehören.
Aber was ist Speichervirtualisierung nun überhaupt? Grundsätzlich gilt, dass die Konzepte der Speichervirtualisierung die «Speicherintelligenz», also die Datenverwaltung und die entsprechenden Dienste, weg vom Server oder Array hin ins Zentrum des Netzwerks verschieben wollen. Dadurch erhalten die Administratoren einen einheitlichen Zugang zu allen Speicherressourcen im Netz, die sogenannte repetitive Individual-Verwaltung der einzelnen Knoten wird damit überflüssig. Gleichzeitig werden das Deployment von neuem Speicher und das Sharing der Ressourcen vereinfacht sowie die Flexibilität in der Architektur und die Herstellerunabhängigkeit gewahrt.
Doch das sind nur einige von vielen Vorteilen der Virtualisierungstechnologie. Einen hohen Nutzen bietet die Technik auch in den Bereichen Performance, Flexibilität und Sicherheit.
Höhere Performance: Physische Speichergeräte können aus technischen Gründen nur eine bestimmte (beschränkte) I/O-Performance liefern. Diese Performance lässt sich allerdings bündeln: Wenn ein Laufwerk eine I/O-Kapazität von z.B. 50 Mbps bietet, steigt diese in einem virtuellen Speicher von 10 dieser Geräte auf 500 Mbps. Um diese (theoretische) Performance zu nutzen, fehlen aber noch die Vernetzungstechnologien: Gigabit-Ethernet überträgt «bloss» 100 Mbps, Fibre Channel bringt es auf rund 200 Mbps.
Bessere Flexibilität: Es ist definitiv unpraktisch, wenn Speichergeräte vom Netz genommen oder heruntergefahren müssen, wenn beispielsweise ihre Kapazität erweitert oder defekte Einheiten ausgetauscht werden sollen. RAID als Form der Speichervirtualisierung kennt hier bereits verschiedene Lösungen, etwa mit dem Feature «Online Capacity Expansion» oder mit «Online RAID-Level Migration». Derartige Features, die auch in modernen Virtualisierungslösungen zu finden sind, erlauben den Austausch oder die Erweiterung des Speichers ohne Ausfallzeit.
Erhöhte Datensicherheit: Im Bereich des virtualisierten Speichers sind vor allem drei Bedrohungen virulent: Hardware-Ausfälle, Viren und böswillige Anwender. Am einfachsten ist ersteres zu lösen: Durch Redundanz bei den Festplatten, in komplexeren Systemen auch bei den Controllern und der Netzwerk-/Kommunikationstechnologie, wird eine weitgehende Ausfallsicherheit erreicht und in manchen Fällen gleichzeitig die Performance verbessert. Gegen Viren und böswillige Anwender dagegen helfen Backups und die Wiederherstellung von historischen Daten, die durch Technologien wie N-Way-Mirroring, Array-Splitting und Mirror-Hiding erreicht werden.
Aus diesen technischen Grundlagen lässt sich nun der Nutzen erschliessen, den Virtualisierungstechnologien für Unternehmen bieten. Dies wäre zunächst einmal die bessere Nutzung des einzelnen Speichermediums: In vielen Firmen besteht die Speicherlandschaft aus einem historisch bedingten Wildwuchs aus DAS-, NAS- und SAN-Topologien (direct-/network-attached storage, storage area network), einzelnen Speicherinseln, die ineffizient zugeteilt sind und schlecht genutzt werden. Durch den Einsatz von Virtualisierungstechnik können diese Inseln zu einem oder mehreren Pools zusammengefasst und beliebig mit jedem Server im Netzwerk geshart werden.
Eine gängige Praxis in vielen grösseren Unternehmen ist es auch, teure Speicherlösungen der Enterprise-Klasse für missionskritische Anwendungen anzuschaffen. Für die Replikation der Daten, die aus offensichtlichen Gründen zwingend ist, wird dabei dieselbe Lösung ein zweites Mal benötigt, damit die Replikationssoftware überhaupt funktioniert - und das geht ins Geld. Speichervirtualisierung löst diesen Zwang zur Homogenität, indem die eigentlichen Speichermedien unsichtbar werden; die Replikationseinheit kann also auch mit günstigen ATA-Festplatten realisiert werden.
Speichervirtualisierung dient auch der Konsolidierung von Daten-Services. In vielen Firmen sind derartige Dienste, darunter etwa die Erstellung von Snapshots oder die Replikation, mit Array- oder Server-basierenden Werkzeugen bereits in die Abläufe und Disaster-Pläne eingebunden - mit dem Nachteil, dass für jede einzelne Speichereinheit von einem unterschiedlichen Hersteller ein eigenes Tool benötigt wird. Über eine Virtualisierungslösung lassen sich die konsolidierten Services auch für heterogene Speicherlandschaften nutzen; darüber hinaus ergibt sich eine Unabhängigkeit von den Herstellern des Speichers.
Der Markt für Speichervirtualisierung präsentiert sich unübersichtlich: Nicht weniger als zwanzig Hersteller buhlen um Kundschaft, darunter Schwergewichte wie Cisco, HP, IBM und McData ebenso wie hochspezialisierte Start-ups wie Maranti, StoneFly und Troika. Jeder der Hersteller hat unterschiedliche Konzepte, wobei sich diese in drei Kategorien einteilen lassen: es gibt Software-, Appliance- und Switch-basierte Lösungen.
Zu den wichtigsten Playern gehören die Firmen DataCore und FalconStor, die mit SANsymphony respektive IPStor beide eine Art «Virtualisierungs-Betriebssystem» anbieten. Diese Software braucht bloss auf einem Server (typischerweise Intel-Plattform) installiert und in einem Speichernetzwerk (SAN) implementiert werden. Die Vorteile dieses Ansatzes sind die relativ geringen Initialkosten bei freier Wahl der Server-Hardware.
Einen Appliance-basierten Ansatz verfolgen dagegen IBM mit dem SAN Volume Controller und HP mit CASA. Hier werden Software und Hardware in einer Storage Virtualization Appliance kombiniert – alles kommt aus derselben Hand. Die Software läuft über Agenten auf mehreren Servern (Cluster) und bietet so eine hohe Ausfallsicherheit und Skalierbarkeit.
Bei der dritten Möglichkeit schliesslich, dem Switch-basierten Ansatz, werden die Datendienste und die Virtualisierung vom Hersteller in einen Fibre-Channel-Switch integriert. Dieser zentralisierte Ansatz ermöglicht es, die Anzahl unterschiedlicher Geräte im Netz gering zu halten und Server und Arrays an einem einzigen Punkt zu vereinen. Diesen Ansatz zur Integration von Speichervirtualisierung in ihren Produkten verfolgen derzeit fast alle Hersteller von Fibre-Channel-Switches, einsatzbereite Lösungen wurden bisher aber noch nicht vorgestellt. Auch die Hersteller von Software-basierten Lösungen versuchen vermehrt, den Switch-basierten Ansatz zu integrieren und zumindest einen Teil der Intelligenz im Switch und damit im Netz unterzubringen.
Die Auswahl einer Speichervirtualisierungslösung für ein Unternehmen kann komplex sein. Es ist deshalb wichtig zu wissen, was man in Sachen Performance, Flexibilität, Features und Sicherheit erwartet. Ausserdem sollte man sich schon bei der Evaluation über die Kosten im Klaren sein: mit der Virtualisierungslösung allein ist es meist nicht getan. Vielmehr muss man auch Netzwerkhardware und die Bandbreite im Auge behalten, die für die Virtualisierung benötigt werden, damit diese Komponenten nicht zum Flaschenhals für eine schnelle und ausfallsichere virtualisierte Speicherlösung werden.
Die Technologien und ihre Anbieter