Business Continuity gewinnt durch Virtualisierung
Artikel erschienen in Swiss IT Magazine 2008/06
In den Geschäftsleitungen wird die Möglichkeit einer Unterbrechung des ordentlichen Geschäftsbetriebs immer ernster genommen. Denn gehen durch einen Fehler kritische Daten verloren, entstehen nicht nur finanzielle Nachteile. Auch immaterielle Schäden wie Imageverlust und Kundenunzufriedenheit sind zu befürchten. Zudem kann ein Fehlerfall neben Datenverlust und Systemstillständen auch haftungsrechtliche Konsequenzen haben.
Virtualisierung ist längst mehr als nur die Realisierung von Einsparungen aufgrund von Konsolidierungspraktiken – auch wenn dies immer noch der Hauptgrund für den Einsatz solcher Techniken ist. Aber dank Virtualisierung können die IT-Abteilungen die Anforderungen der Fachbereiche viel schneller als früher erfüllen. Wurde in der Vergangenheit noch ein Server physisch einem Geschäftsbereich oder einer Applikation zugeordnet, vergingen schnell ein paar Wochen, einschliesslich Beschaffung, Bereitstellung und Konfiguration. Die Einrichtung eines virtuellen Servers dagegen dauert kaum länger als einen Tag – wenn überhaupt. So wird doppelt gespart: Weniger Zeit- und weniger Hardwareaufwand.
Die Konsolidierung der Rechenzentren ist zwar nach wie vor ein attraktiver Ansatz – leichter lässt sich kaum mehr aus den IT-Budgets herausholen – aber dabei dürfen es die Unternehmensinformatiker nicht bewenden lassen. Sie müssen darüber hinaus denken. Virtualisierung verschafft ganz neue Möglichkeiten, die zu mehr Flexibilität führen und die IT aus Sicht der Unternehmensleitung weniger als Problem denn als Lösung ansehen.
Ein weiterer Nebeneffekt: Auch die Energieaufnahme der IT-Systeme sollte aufgrund der geringeren Zahl physisch vorhandener Geräte sinken. Bei der Kalkulation der Energiekosten ist allerdings Vorsicht geboten: Die beliebten Bladeserver bringen eine höhere Energiedichte ins Rack – und damit kann der spezifische Aufwand für Kühlung steigen. Dennoch: Unter dem Strich verbleiben klare Einsparungen. Oder anders ausgedrückt: Auch wenn die IT-Budgets ständig gedrückt werden, können die Servicelevels doch aufrecht erhalten werden.
Es gilt die alte Weisheit «Keep it simple and stupid». Sollte tatsächlich ein Geschäftsleitungsmitglied die Frage nach der Virtualisierung stellen, genügt in der Regel die schlichte Antwort: «Wir betreiben 30 Server, aber wir haben nur einen einzigen.» Die Antwort ist meistens ein verständnisloses «Oh ja, ich verstehe». Für die Geschäftsbereiche ist ohnehin nur eine einzige Tatsache relevant: Services werden in Tagen statt in Wochen zur Verfügung gestellt. Wie das passiert, interessiert nicht. Das kann dann natürlich auch bedeuten, dass ein CIO mit Hilfe der Virtualisierung einen ‚Gewinn‘ aus seinem Budget einfahren und für andere Investitionen verwenden kann. Allein deswegen zahlt sich Schweigsamkeit aus.
Ein wesentlicher Vorteil der Virtualisierung soll hier nicht übersehen werden: Nach einer (geplanten oder ungeplanten) Unterbrechung lassen sich die IT-Services sehr viel schneller wieder herstellen. Das mag dann der wirkliche Gewinn aus der Virtualisierung sein: Die Unterbrechung geschäftskritischer Applikationen wird minimalisiert.
Unternehmen, die noch keinen Business-Continuity-Plan haben, sind folgende sechs Schritte empfohlen:
1. Bestandsaufnahme von Systemen, Applikationen und Personal sowie Feststellung der anstehenden Herausforderungen für die IT
2. Verfolgung eines ganzheitlichen Ansatzes, der Personen, Prozesse und Technologie integriert. So lässt sich am ehesten auf Marktveränderungen reagieren.
3. Suche nach einem, höchstens zwei externen Partnern mit einem umfassenden Lösungsportfolio, um die wichtigsten Bereiche der Business Continuity Verfügbarkeit, Wiederherstellung nach Eintritt eines Schadensereignisses und Sicherheit abzudecken.
4. Verabschiedung eines verbindlichen Zeitplans, innerhalb dessen definierte Kenngrössen erreicht sein sollen. Dazu sollen im Zeitplan konkrete Daten und Aktionen festgelegt werden.
5. Einsatz von Technologien wie Virtualisierung und ausgelagerten Datenspeichern, um Kosten zu senken und Ausfallsicherheit zu erreichen.
6. Häufige Systemtests, um Performance und Datenverfügbarkeit sicherzustellen.