Lizenzpolitik treibt Virtualisierung in die Kostenfalle
Artikel erschienen in Swiss IT Magazine 2009/12
Swiss IT Magazine: Mit welchen IT-Projekten beschäftigen Sie sich aktuell?
Mario Crameri: In diesem Jahr haben wir drei Schwerpunktthemen: Erstens arbeiten wir konstant weiter an der Renovation unserer Bankenplattform. Dies umfasst die Finalisierung des neuen Kundenberater-arbeitsplatzes sowie die Erneuerung unseres selbstgebauten Kernbankensystems. Zweitens müssen wir einige Investitionen in die Infrastruktur tätigen. Und schliesslich werden wir uns sehr intensiv mit der Integration der neulich akquirierten ING Schweiz auf unsere Plattform beschäftigen. Die drei Vorhaben unter einen Hut zu bringen, wird die spannende Herausforderung für das folgende Jahr sein. Neben diesen drei Bereichen steht das Thema Virtualisierung wieder ganz weit oben auf unserer Prioritätenliste.
Ist Virtualisierung denn wirklich noch ein aktuelles Problem?
Ja und Nein. Diskutiert wird das Thema bereits seit Jahren, und als die Technologien reif waren, setzten sie sich tatsächlich sehr rasch durch. Der Hauptgrund war der bestehende Business Case hinter der Idee. Die Situation beim Einsatz von Virtualisierungslösungen ist vergleichsweise einfach: Da ein physischer Server für verschiedenste Aufgaben genutzt werden kann, bringt das konkrete Kosten-einsparungen mit sich. Hinzu kommt, dass die bessere Auslastung der Ressourcen und – als Folge davon – die Reduktion der Anschaffungskosten für Hardware die Energie-effizienz im Betrieb verbessert. Insgesamt hat das Thema damit heute so stark an Attraktivität gewonnen, dass inzwischen nahezu alle grösseren Unternehmen diese Technologie nutzen. Allerdings sind damit aber neue Herausforderungen bei der Virtualisierung gewachsen.
Welche sind das?
Man sollte Virtualisierung als ein Projekt angehen und sauber planen. Zudem müssen einige Voraussetzungen geschaffen werden, damit man erfolgreich virtualisieren kann. Zum Beispiel benötigt man ein komplettes und korrektes Inventar der Server und Anwendungen. Die Komponente «Mensch» darf zudem nicht ausser Acht gelassen werden. Viele Entwickler und auch Sponsoren wollen einen eigenen Server, der ihnen alleine gehört. Argumente wie «ich habe diesen Server bezahlt, und er gehört mir» sind Aussagen, denen wir zu Beginn oft begegnet sind. Ein anderer Effekt ist, dass man nun noch mehr Überkapazität bestellt, da sie angeblich nichts kostet. Eine neue Kostenverrechnung hilft dabei, die Nachfrage entsprechend zu steuern. Durch Virtualisierung steigen aber die Komplexität und die Anforderungen an die Sicherheit. Schliesslich sollte man sich von Beginn an bewusst sein, dass man nicht zu 100 Prozent virtualisieren kann und es immer Ausnahmen geben wird. Ein standardisierter Kriterienkatalog sowie Antragsprozess für mögliche Ausnahmen sind zu empfehlen.
Also haben Sie insgesamt gute Erfahrungen mit der Virtualisierung gemacht?
Ja, wir können bislang über sehr gute Erfahrungen berichten. Zum Beispiel konnten die Durchlaufzeiten um 75 Prozent reduziert, die Auslastungsraten pro physischen Server signifikant erhöht und der Platz- und Strombedarf im Rechenzentrum massiv gesenkt werden. Gerade die Reduktion des ansonsten stetig steigenden Stromverbrauchs ist ein toller Nebeneffekt. In diesem Jahr haben wir fast ausschliesslich virtuelle Server aufgesetzt. All dies führt zu den erhofften Einsparungen. Einziger Wermutstropfen sind die endlosen Diskus-sionen mit den Software-Herstellern über deren Lizenzmodelle im Zusammenhang mit der Virtualisierung.
Warum Wermuthstropfen?
Viele unserer bestehenden Software-Lizenzmodelle verwenden die CPU-Leistung als Basis. Diese eher statisch definierten Lizenzmodelle können mit der dynamischen Realisierung der virtuellen Maschinen nicht Schritt halten. Das führt vor allem dann zu Problemen, wenn nur Teile der physischen Kapazität lizenziert werden sollen. Als Resultat mussten wir einen erheblich höheren Aufwand für das Lizenzmanagement feststellen. Zusätzlich berücksichtigen diese Lizenzmodelle zu wenig den Umstand, dass ein «Capping» der vir-tuellen Maschine aufgrund technischer Limitationen nicht immer möglich ist. Dies führt dazu, dass die Wartungsgebühren massiv erhöht werden, wenn eine Anwendung auf eine sehr leistungsstarke Mehrfachprozessor-Maschine verschoben wird. Es wäre zu wünschen, dass zukünftige Lizenzmodelle die Flexibilität, welche die Virtualisierung bietet, vermehrt berücksichtigen würden.
Betrifft diese Kritik alle Anbieter oder sind das Einzelfälle?
Es betrifft die meisten Anbieter. Denn die heute verbreiteten Gebührenmodelle basieren auf Rechenleistung. Einige Anbieter sind jedoch flexibler und bieten Hand, um hier eine Lösung zu finden, andere sind weniger kooperativ. Die Anbieter von Software-Lösungen mit unflexiblen Gebühren-modellen werden zunehmend unter Druck kommen seitens kleinerer Anbieter mit professionellen Lösungen aus dem Open-Source-Bereich. Es geht schliesslich darum, dass der Preis für Software sowohl für den Anbieter als auch für den Verbraucher als «fair» empfunden wird. Die Möglichkeiten der Virtualisierung haben dieses Verhältnis momentan zu Ungunsten der Verbraucher verschoben.
Hätten Sie diese Entwicklung nicht vorhersehen können?
Ja und nein. Klar haben wir die Lizenzmodelle im Voraus gekannt. Erstaunlich ist jedoch, dass gerade Firmen, welche durch ihre Hardware-Sparte Virtualisierungstechnologien aggressiv vermarkten, von bestehenden leistungsbasierten Lizenzmodellen nicht abrücken wollen. Da hätte ich mehr Flexibilität und Kundenfokus erwartet.
Fressen diese Kostennachteile die technischen Vorteile?
Nein, natürlich nicht. Der Business Case im Ganzen geht noch auf. Leider mussten wir jedoch an der einen oder anderen Stelle Kompromisse eingehen, weil eine Virtualisierung zu einer Kostenexplosion bei den Wartungsgebühren spezieller Software geführt hätte. Wir haben auch schon in Einzelfällen die Architektur angepasst, um dieser Kostenfalle zu entkommen. An dieser Stelle sei noch eine Bemerkung zu den nachhaltigen Kosteneinsparungen angebracht. Die Nachkalkulation des Business Case ist auf jeden Fall nicht trivial. Verschiedene Faktoren wie Wachstum, Teuerung, Lifecycle-Aktivitäten muss man akribisch herausfiltern, um die wahren Einsparungen im Nachhinein feststellen zu können.
In welchen Bereichen haben Sie denn bereits auf Virtualisierung gesetzt?
Wir haben vor allem unsere Server (Windows und Unix) virtualisiert. Aktuell installieren wir in der Regel nur noch virtuelle Server, physische sind die seltene Ausnahme geworden. Bei Storage, Tape-Infrastruktur und Client sind wir erst im «Denkstatus» und überprüfen den Nutzen für die Bank. Gerade beim Desktop gibt es neben vielen Vorteilen auch Gefahren, falls man zu früh auf den Zug aufspringt. Zudem weisen die heute verfügbaren Produkte beispielsweise im Bereich der Servervirtualisierung noch nicht die notwendige Reife auf. Da auch das Management der klassischen Desktops immer effizienter wird, müssen die Hersteller virtueller Desktop-Lösungen ihre beteuerten Kostenvorteile erst noch belegen. Wir positionieren uns bewusst nicht als «First Mover», sondern als «Follower» und setzen bewusst auf bewährte Technologien. Desktop-Virtualisierung braucht noch Zeit zum Reifen.
Haben Sie auch Manpower einsparen können?
Obwohl wir effizienter beim Aufsetzen neuer Server geworden sind und die Durchlaufzeiten signifikant reduziert wurden, ist unsere IT-Abteilung nicht kleiner geworden. Vielmehr ergaben sich mit dem Einsatz dieser Technologien neue Möglichkeiten für die Systeminge-nieure, sich strategischeren Themen wie der nächsten Generation von Basisplattformen zu widmen.
Aufgrund welcher Vorteile haben Sie sich zur Umstellung entschlossen?
Der grosse Vorteil der Virtualisierung liegt sicher darin, dass damit die Kosten massiv gesenkt werden können – und zwar sowohl im Betrieb als auch in den Projekten. Die meisten technologischen Innovationen werden zwar oft als Mittel zur Kostenreduktion angepriesen, halten dieses Versprechen jedoch selten ein. Durch Virtualisierung wird man auch agiler und kann rascher die Kapazitäten anpassen. Zudem reduziert man die Durchlaufzeiten für das Bereitstellen neuer Server signifikant, was auch der Liefergeschwindigkeit und somit der Innovationsfähigkeit hilft. Schliesslich tun wir auch noch Gutes für die Umwelt, indem der Stromverbrauch massiv reduziert und weniger Platz im Rechenzentrum benötigt wird.
Wenn man einige Kriterien im Vorfeld beachtet, hat Virtualisierung keine Nachteile. So muss man beispielsweise eine kritische Masse an Servern virtualisieren, damit man von den oben genannten Vorteilen profitieren kann. Es braucht zudem eine Standardisierung von Umgebungen und Prozessen, damit man erfolgreich ist. Der Business Case hinter Virtualisierung wird allgemein verstanden. Es besteht jedoch die Gefahr, dass überproportional mehr Server bestellt werden, weil sie im Vergleich zu den physischen sehr günstig sind. Deshalb ist ein konsequentes Kapazitätsmanagement notwendig.
Gibt es noch Alternativen zur Virtualisierung?
Virtualisierung muss geplant werden. Blindlings ohne Plan zu virtualisieren kostet am Ende mehr als es nützt. Zudem muss man, wie gesagt, über eine gewisse Population an Rechnern verfügen, sonst rechnet sich der Einsatz nicht. Ein Outsourcing ist für kleinere und mittlere Firmen bestimmt eine Alternative – am besten den gesamten Business-Prozess on Demand einkaufen. Besitzt man jedoch diese kritische Masse an Infrastruktur, dann kommt man heute kaum noch an Virtualisierung vorbei.
Was erwarten Sie von den Herstellern, um die Lizenzpolitik in den Griff zu bekommen?
Dass sie die Kundenbedürfnisse verstehen und hier Flexibilität beweisen. Gerade grössere, angelsächsisch dominierte Konzerne streben nach kurzfristigem Profit. Aber mittelfristig sind nur zufriedene Kunden überhaupt noch Kunden. Zudem existieren mit Open-Source-Produkten in sehr vielen Bereichen valable Alternativen, welche den Druck auf die konventionellen Anbieter erhöhen und diese somit zur Einsicht bringen werden.