Das Comeback der Technologie
Artikel erschienen in Swiss IT Magazine 2010/05
Virtualisieren Sie schon oder werden Sie – per Outsourcing – virtualisiert? Die Abstraktion einzelner IT-Instanzen mittels zusätzlicher Software-Ebenen ist die Technologie der Stunde. Die IT-Analysten-Gilde um IDC, Gartner und Forrester setzt mit Virtualisierung, Cloud Computing und Client Computing gleich drei Themen an die Spitze ihrer Trendlisten, die sich mit den unterschiedlichen Ausprägungen einer höher abstrahierten Infrastruktur befassen. Mit anderen Worten: Die Technologie selber ist wieder Toppriorität.
Man erinnert sich, dass die gleichen «Weisen» vor nicht allzu langer Zeit noch postulierten, einzig die Lösung respektive das Business seien entscheidend. Die Technologie dahinter interessiere nicht. Das fulminante Comeback der Technik beruht allerdings weniger auf einem euphorischen Zukunftsglauben, als auf den exponentiell wachsenden Problemen mit dem immer stärker vernetzten Computer-Unterbau.
Gartner warnt denn auch in einer Fussnote zur Trendhitparade vor den wachsenden Gefahren, die mit der Virtualisierung in den Rechenzentren Einzug halten. 60 Prozent der bis in zwei Jahren virtualisierten Server sollen unsicherer sein als ihre dedizierten Vorläufer.
Dies liegt quasi in der Natur der Sache. Die zusätzliche Software-Ebene bietet zum einen zusätzliche Angriffsflächen. Diese können, wie immer in der Computer-Security, erst abgesichert werden, wenn sie einmal erfolgreich angegriffen wurden. Zum anderen erhöht die Virtualisierung die Komplexität der gekoppelten Computersysteme, was aus rein mathematischen Gründen zu deren Destabilisierung führt.
In den Grossbanken wurden in den letzten Monaten etwa spezielle Abteilungen gegründet, die nach Verbindungen in ihren weltweiten Infrastrukturen suchen, über die beispielsweise eine einzelne, falsch eingegebene Währung eine fatale Lawine auslösen kann, die das ganze System ins Wanken bringt. Ähnliche Phänomene dürften schon bald vielen Verantwortlichen grösserer Rechenzentren den Schlaf rauben. So gross die Effizienzgewinne durch die virtuellen Verknüpfungen sind, so desaströs ist das negative Potential, das sie auslösen können.
Die Frage ist, ob menschliche Engineering-Schemen für diese Art von Problemen überhaupt geeignet sind. Wenn ich mir den Gang des Roboters Asimo von Honda anschaue, befallen mich Zweifel: Als hochmoderne Roboter hätten es die Urmenschen nie und nimmer auf den nächsten Baum geschafft, wenn ein Löwe hinter ihnen her war.
Die Natur ist ein Geflecht von vergleichbaren, aber inzwischen wesentlich besser austarierten, hochgekoppelten Systemen. Im menschlichen Körper ist die Virtualisierung entscheidend flexibler gelöst, als jede Computerarchitektur dies heute auch nur ansatzweise schafft. Das Hirn steuert zwar als bewusste Entscheidungszentrale. Dazu existieren aber vegetative Systeme, die zu einem grossen Teil autonom in den Extremitäten und Organen funktionieren.
Bis es soweit war, hat die Natur vier Milliarden Jahre evolutionärer Optimierung benötigt. In dieser Zeit haben unzählige Massenaussterben immer wieder grosse Teile des Lebens vernichtet, wie eine aktuelle Ausstellung im Zoologischen Museum der Universität Zürich eindrücklich zeigt. So dürfte uns auch die Virtualisierung noch das eine oder andere «IT-Massenaussterben» bescheren, bis die Architektur stabil funktioniert. Mit anderen Worten: Die Virtualisierung wird in unterschiedlichen Ausprägungen noch lange die Prioritätenlisten anführen.