Geht es nach den Herstellern (nicht nur) von Speichergeräten, dann steht dieses Jahr ganz im Zeichen von «Green IT». Die Anzahl der Kongresse, Initiativen (oft von Herstellerseite gegründet) oder neuen Produktankündigungen mit dem Label «Green» ist kaum noch zu überblicken. Die Unternehmen und Anwender geraten dabei zunächst moralisch etwas in die Defensive, denn wer möchte schon als Feind der Umwelt dastehen?
Faktisch ändert sich allerdings kaum etwas, denn unter Geschäftsgesichtspunkten zählt letztlich nur eines – das Verhältnis von Anschaffungskosten und erwartetem Ertrag. Und gerade hier wird das grüne Marketing sehr schnell geständig – gilt es doch, neue Produkte zu verkaufen, und weil sie so fortschrittlich und voll auf der richtigen Seite sind, darf es auch ruhig etwas mehr kosten als bisher. Insgesamt ist das eine Entwicklung, die man so schon von den Bio-Lebensmitteln und anderen Produkten mit irgendeinem Gütesiegel drauf kennt.
Die Gelassenheit der Unternehmen, voll auf der grünen Schiene mitzumachen, wird allerdings konterkariert durch den rationalen Kern dieser Kampagne: Nicht nur in den USA wird zu viel Energie verschwendet, wobei die IT-Infrastruktur nur ein kleiner Teil eines viel grösseren Problems ist. Immerhin lässt sich auch bei der IT, bei Servern, Storage und Rechenzentren einiges an Energie einsparen. Doch die Frage ist: Wie viel? Der unabhängige Analyst Dave Vellante hat auf der Storage Networking World, die im April in Orlando stattfand, einige überraschende Zahlen einer neuen Untersuchung bekanntgegeben: Während Gartner und andere grosse Analystenfirmen bisher für Server von einem Anteil am Energieverbrauch von etwa 50 Prozent ausgingen, hat die Studie von Vellante ergeben, dass dieser lediglich bei 30 Prozent liegt.
Noch erstaunlicher und entgegen dem allgemein vermuteten Trend: Der Anteil von Speichergeräten am Energieverbrauch der Unternehmen liegt lediglich bei
15 Prozent. Berücksichtigt man noch die 10 Prozent, die weitere IT-Geräte verbrauchen, dann zeigt sich, dass mit 45 Prozent das Rechenzentrum selbst am meisten zum Energiebudget beiträgt – mit Kühlung und Lüftung (34 Prozent), mit UPS und Energieverteilung
(8 Prozent) und mit Beleuchtung
(3 Prozent). Wie Vellante ferner nachweist, sind Festplatten allein mit 80 Prozent am Stromverbrauch der Speichergeräte beteiligt. Damit liegt auch auf der Hand, wo der Hebel anzusetzen ist. Die Palette reicht von Solid State Disks (SSD) über Data Deduplication bis zu allen Varianten von Thin Provisioning und Virtualisierung, mit denen sich Speichergeräte besser aus-
lasten und auf weniger physikalische Exemplare reduzieren lassen.
Tiered Storage voll im Trend
Als der Hersteller StorageTek (heute Teil von Sun) vor ein paar Jahren mit dem Ansatz von Information Lifecycle Management (ILM) auf den Markt kam, waren die Reaktionen zwiespältig: Die einen hielten es für reines Marketing, andere meinten «nichts Neues» und verwiesen auf Hierarchical Storage Management (HSM), das die Mainframe-Welt schon lange kenne, und wieder andere vermissten konkrete Produkte. ILM als Produkt wäre in der Tat ein Missverständnis, geht es doch darum, bestimmten Sorten von gespeicherten Daten den jeweils angemessenen Platz zuzuweisen und sie im Laufe ihres Lebenszyklus auf weniger performante, aber preisgünstigere Geräte und Medien zu verschieben.
Die klassische Aufteilung kannte zwei Speicherebenen: In einem ersten Schritt wurden die Daten auf servernahen Festplatten (Direct Attached Storage bzw. DAS) abgelegt, eine Zeit lang dort für den schnellen Datenzugriff vorrätig gehalten und dann in einem zweiten Schritt auf eine Tape Library weiterverschoben. Mussten sie auch dort für einen Datenzugriff bereitstehen, kamen im Enterprise-Bereich nur mächtige Tape Libraries von StorageTek oder IBM mit ihrer performanten Motorik für das schnelle Be- und Entladen der Cartridges zum Einsatz.
Daneben wurden auch Backup- und Archivdaten auf Bänder abgelegt und – der Theorie nach – an einen sicheren Ort verbracht, oft ausserhalb des Firmenstandortes. Wurden die Daten im Recoveryfall wieder gebraucht, mussten sie zurücktransportiert und in einem stunden- oder tagelangen Prozess wieder in die produktiven Systeme eingespielt werden.
Mit der Weiterentwicklung der Platten- und Arraytechnologie geht man heute von einem mehrstufigen Tiered-Storage-Modell aus, das mindestens drei oder vier Klassen umfasst:
- Tier 1: Mission critical data, umsatzkritische Daten, ca. 15% der Daten, sehr schnelle Antwortzeit, FC-Disk, FC-SAN, Datenspiegelung, lokale und entfernte Replikation, automatisches Failover, 99,999% Verfügbarkeit, Recovery Time Objective: sofort, Retention Period: Stunden
- Tier 2: Vital Data, ca. 20% der Daten, weniger umsatzkritische Daten, schnelle Antwortzeit, FC- oder SAS-Disk, FC-SAN oder IP-SAN (iSCSI), Point-in-time Copies, 99,99% Verfügbarkeit, Recovery Time Objective: Sekunden, Retention Period: Tage
- Tier 3: Sensitive Data, ca. 25% der Daten, moderate Antwortzeit, SATA-Disk, IP-SAN (iSCSI), Virtual Tape Libraries, MAID, Disk-to-Disk-to-Tape-periodische Backups, 99,9% Verfügbarkeit, Recovery Time Objective: Minuten, Retention Period: Jahre
- Tier 4: Non-critical Data, ca. 40% der Daten, Tape (und Blue-ray), FC-SAN oder IP-SAN (iSCSI), 99,0% Verfügbarkeit, Recovery Time Objective: Stunden/Tage, Retention Period: unbegrenzt
Fast alle grossen Anbieter von Storage-Infrastruktur bedienen sämtliche Tiered-Segmente, während kleinere, aber inzwischen etablierte Hersteller und die meisten Start-ups nur über sehr spezielle Angebote verfügen.
Hewlett-Packard und Sun sind vor allem im Midrange-Bereich (Tier 2 und 3) aktiv, decken aber durch OEM-Abkommen mit
Hitachi Data Systems (HDS) auch jeweils das Highend für Tier 1 ab.
EMC ist immer noch der klare Führer bei Highend-Storagearrays, ergänzt in den letzten Jahren durch ein grosses Software- und Serviceangebot. Bedingt durch die vielen Zukäufe und eine teilweise schleppende Integration, passen nicht unbedingt alle Teile zusammen, aber unter dem Gesichtspunkt eines Tiered-Storage-Management ist der Anwender auf der sicheren Seite, wenn er sich ausschliesslich bei
EMC bedient. Allerdings ist dann die klassische Situation eines Vendor-Lock-In gegeben, und auch die Preispolitik des Anbieters ist nicht frei von monopolistischen Zügen.
Anfang des Jahres gab EMC einige Neuerungen für das Enterprise-Flaggschiff Symmetrix DMX-4 bekannt. Dazu gehört eine Unterstützung der Flash-SSD-Technologie (Solid State Disk), bisher einzigartig in diesem Arraysegment und laut Hersteller besonders geeignet für Anwendungen mit hohen Leistungsanforderungen wie Echtzeit-Transaktionssysteme, Datenmodellierung oder elektronische Handelssysteme. Ausserdem kann die DMX-4 jetzt mit günstigen SATA-II-Festplatten mit einer Kapazität von bis zu einem Terabyte ausgestattet werden. Das bedeutet, dass der Anwender mehrere Tiered-Speicherebenen in einem Gerät einrichten kann, wenn er Flash-Laufwerke, Fibre-Channel-Festplatten und SATA-II-Festplatten miteinander kombiniert. EMC hat ausserdem eine eigene Thin-Provisioning-Lösung zur besseren Auslastung der Systeme herausgebracht, genannt Virtual Provisioning für DMX-4 und DMX-3.
Virtualisierung und Interoperabilität
Hitachi Data Systems ist der einzige Hersteller, der eine im Controller angesiedelte Virtualisierungslösung anbietet, mit der sich die Arrays anderer Produzenten anschliessen und unter einer gemeinsamen Oberfläche verwalten lassen. Lücken gibt es noch bei den Serviceangeboten und der schon seit Jahren angekündigten Verbreiterung der Produkte nach unten in Richtung mittelständische Unternehmen. Bei NAS-Produkten hat sich HDS mit dem Start-up BlueArc zusammengetan und dessen Technologie adaptiert, mit der klassische Flaschenhälse bei Controllern und Bus-Interfaces vermieden werden können. Der Ansatz von BlueArc basiert auf paralleler Datenverarbeitung innerhalb des Filer-Gateways und geht damit ähnlich vor wie
Switches oder Router, indem die Systemarchitektur ganz auf die Optimierung von Datenbewegungen ausgelegt ist.
Während Hewlett-Packard mit Hilfe einer breiten Partnerlandschaft auch gut im Mittelstand aufgestellt ist, wird das Enterprise-Geschäft durch den OEM-Vertrag mit HDS abgedeckt – die Tagmastore wird zur XP. Entgegen der früheren Politik hat HP darauf verzichtet, die Systeme mit eigener Software anzureichern. Überhaupt gilt jetzt mehr die Linie, von den grossen Versprechungen einer Interoperabilität mit allem und jedem abzurücken.
Wie von HP-Managern zu hören ist, lohne sich der Aufwand für Zertifizierungen und die Entwicklung von APIs nur selten, und die Ausgaben für Wartung und Service auf diesen Gebieten stiegen enorm, da den Kunden von allen Seiten zu viel versprochen worden sei. HP hält sich jetzt mehr an die stete Fortentwicklung der eigenen Produktlinien, zuletzt zum Beispiel mit der EVA4400- und der MSA2000-Familie. So verfügt das Speicherarray MSA2000 in der maximalen Ausbaustufe über eine Kapazität von 36 Terabyte. In der Version MSA2000fc bietet es einen 4-Gigabit-Fibre-Channel (FC)-Anschluss und in der Version MSA2000i einen 1-Gigabit-iSCSI-Anschluss. Kunden, die auf abgestimmte Lösungen Wert legen, können bei HP Server und Storage aus einer Hand bekommen, einschliesslich von Tape Libraries aus OEM-Produktion.
IBM ist der einzige Anbieter, der eine komplette Produktpalette vom Highend-Array bis zur Tape Library im Programm hat. Hinzu kommen Consulting, Services und Notfall-Dienstleistungen (Business Continuity and Resiliency Services). Zwar hat sich
IBM in der Vergangenheit von einigen Geschäftszweigen getrennt, aber Storage wird traditionell als strategisch betrachtet, wie auch die jüngsten Akquisitionen von XIV oder Diligent beweisen. Es besteht zudem eine enge, wechselseitige Verkaufskooperation mit NetApp.
Im Februar 2008 stellte IBM die nächste Generation der N7000 Series vor, die mit bis 1176 Terabyte Kapazität grossen Unternehmen die Integration von SAN- und NAS-Funktionalitäten erlaubt. Die Modelle N3300 und N3600 sind für KMU geeignet und können jetzt gleichzeitig mit SATA- und mit SAS-Laufwerken bestückt werden. Bei LTO-Libraries bietet IBM jetzt mit der TS3200 Express auch ein Einsteigermodell an, das über einen Encryption Key Manager verfügt, so dass keine zusätzliche Appliance mehr für die Verschlüsselung erforderlich ist.
Kein ernsthafter Anbieter würde sich übrigens heute noch hinstellen und lauthals ausrufen «Tape is dead». Zwar gehen laut IDC die Verkaufszahlen langsam nach unten, aber im Rahmen von Tiered Storage ist es sinnvoll, bestimmte Daten aus dem Online- und Nearline-Bereich (Tier 1 bis 3) herauszunehmen und auf billige Medien wie Tape zu verschieben. Natürlich bedarf es dazu auch einer dedizierten Retention- und Archivierungspolicy.
Konsolidierung mit NAS
NetApp, einst Marktführer bei file-basierten NAS-Netzwerken, versucht seit einiger Zeit, sich breiter aufzustellen und mehr in den SAN-Markt vorzudringen. Zu diesem Zweck hat man eine Marketingkampagne mit neuem Logo, Webauftritt und einer zentralen Rechenzentrumsstrategie gestartet.
Daniel Bachofner, Country Manager Switzerland bei NetApp, sieht den Bedarf für NAS-Lösungen ungebrochen: «Während laut IDC der NAS-Markt sequenziell fiel, legte NetApp zu. Wir sehen einen enormen Nachholbedarf im Mittelklasse-Bereich, da viele Unternehmen von Direct-Attached Storage auf Networked Storage umsteigen wollen. KMU haben ja im Prinzip dieselben Probleme wie grosse Unternehmen. NAS-Systeme haben auf jeden Fall Zukunft und sind oft der Einstieg in Networked Storage. Der Trend geht aber auch zu Unified Storage, der Kombination von NAS und SAN in einem System, so dass der Konsolidierungseffekt insgesamt noch höher ausfällt.» Mit Unified Storage beansprucht NetApp, einen Weg einzuschlagen, bei dem der Anwender nicht in seiner Wahl eingeschränkt ist und zu jedem Zeitpunkt das Storage-Protokoll wechseln kann, von Fibre Channel zu iSCSI (IP-SAN) und umgekehrt.
Die beiden grossen verbliebenen Switch-Hersteller
Cisco und
Brocade gehen ebenfalls den Weg eines Unified Storage. So kündigte Cisco im Januar den Nexus7000 mit dieser Begründung an: «Nexus ist dezidiert für Rechenzentrums-Umgebungen konzipiert und vereint zukünftig Storage- und IP-Networking in einer gemeinsamen Unified Fabric. Damit können Rechenzentren ihre Speicher- und Server-Ressourcen um ein Vielfaches intensiver ausnutzen.» Der DCX Backbone von Brocade unterstützt ebenfalls das iSCSI-Protokoll. Vorsichtig sollten Anwender noch sein bei dem Versprechen der Hersteller, auch schon Fibre
Channel over Ethernet (FCoE), die nächste FC-Generation, zu unterstützen, denn noch sind die
Gremienarbeiten und die Kooperationsanstrengungen der Hersteller in vollem Gange.
Wer bei seinen Investitionen auf der sicheren Seite bleiben will, ist mit dem Angebot der führenden Speicheranbieter gut bedient, muss aber damit rechnen, aus dem Vendor-Lock-In nicht so schnell herauszukommen. Und wer Wert auf die jeweils allerneuste Technologie legt, kann das Risiko etwa dadurch einschränken, wenn er auf Verträge und Lizenzabkommen zwischen den Grossen und interessanten Start-ups achtet. Hinzu kommt die gegenwärtige Tendenz, dass früher oder später die meisten Neugründungen mit technologischem Hintergrund aufgekauft werden. So ist der iSCSI-Spezialist EqualLogic von
Dell übernommen worden, womit sich der texanische PC-Assemblierer aus seiner Rolle als Wiederverkäufer von EMC-Storage zu emanzipieren scheint. Unabhängig geblieben und inzwischen relativ erfolgreich am Markt sind die Array-Anbieter 3PAR, Compellent, Isilon oder Nexan. Von den schon länger existierenden Tape-Library-Anbietern haben sich
Quantum mit der ADIC-Übernahme und
Overland Storage mit einer Reorganisation offenbar wieder stabilisiert.
Der Konsolidierungsprozess in der Storage-Industrie ist derweil ungebrochen. Anwender, die auf langfristige Investitionssicherheit und das Überleben ihrer Lieferanten achten, sollten deshalb ab und zu einen Blick in die Fachpresse werfen.