Nach dem WWW das Great Global Grid
Artikel erschienen in Swiss IT Magazine 2003/18
Wer den Versprechungen von Oracle, IBM oder Sun glaubt, dem stehen abermals aufregende Zeiten bevor. Unter dem Schlagwort "Grid" ist in den letzten zwei Jahren kontinuierlich ein Hype zu einer technologischen Idee aufgebaut worden, die angeblich das 21. Jahrhundert revolutionieren soll. Da ist von einem Paradigmen-Wechsel die Rede und von einem Potential, die Welt zu verändern wie einst das World Wide Web. Setzt sich das "Grid Computing" durch, werde dies den PC obsolet machen, ist etwa in einer Analyse der Bostoner Technologieberaterin Delphi Group zu lesen. Unterstützt wird dies mit Visionen von Branchenprominenz wie Oracle-Chef Larry Ellison, der an der kürzlichen Jahreskonferenz "Oracleworld" die Werbetrommel für Grids als angebliche IT-Architekturrevolution rührte.
Hinter der Idee des Grid Computing steckt der Gedanke, dass in einem Betrieb oder überhaupt auf der Welt viele Computerressourcen zu einem sehr grossen Teil ungenutzt brach liegen. Diese sollen nun intelligent miteinander zu einem virtuellen System gekoppelt werden, dem Grid. Statt eines Supercomputers, so die Idee, braucht es einige Tausend PCs eines Unternehmens, die intelligent miteinander vernetzt sind und ihre Ressourcen dadurch gebündelt anbieten können.
Diese Idee funktioniert und kann in der Tat enorme Leistungen freisetzen. Doch die Technik ist nicht neu. Neu ist an ihr nur die Bezeichnung, und die Hoffnung einiger Firmen, sich mit einem neuen Schlagwort ins Gespräch zu bringen. Was die Grid-Technologie kann, zeigte etwa das "SETI@Home"-Experiment, bei dem Millionen von Internet-Benutzern die ungenutzte Rechenkraft ihrer Computer für die Auswertung von Radioteleskopdaten aus den USA online zur Verfügung stellten. Ein halbes Jahrzehnt zuvor gelang es Firmen wie IBM, durch die Vernetzung von herkömmlichen Workstations, rechenintensive Simulationen billiger und schneller als mit einem Supercomputer berechnen zu lassen.
Doch genau bei solchen einzelnen, häufig wissenschaftlichen, rechenintensiven Anwendungen wird es vorerst bleiben. Sollen Grids mehr als nur eine Alternative zum Supercomputer sein, kann keiner der Grid-Propheten das Hauptproblem lösen: Eine Technologie, die die Computerressourcen verschiedenster Anbieter für den Anwender (und IT-Abteilung) nicht nur unsichtbar, sondern auch universell nutzbar, automatisch und dynamisch bündeln kann, ist heute technisch zu anspruchsvoll.
Angesichts dem Drang eines jeden kommerziell denkenden Herstellers zu proprietären Systemen und der Heterogenität der IT-Welt ist die Vision zudem unrealistisch. Hinzu kommen erhebliche Sicherheitsrisiken und die Angst der Anwender, die Kontrolle über ihre Daten und Ressourcen zu verlieren. In den USA wird schon darüber diskutiert, wie Terroristen und Schurkenstaaten der Zugang zu öffentlichen Grids verwehrt werden kann.
Diese Gefahr besteht, wie gesagt, vorerst nicht. Unternehmen werden weiterhin Server anschaffen statt PCs zu vernetzen. Und während Server-Ressourcen schon heute auf die eine oder andere Weise gepoolt werden oder im Internet zur Lastenverteilung mit Mirror-Sites gearbeitet wird, werden echte Grids Nischenanwendungen bleiben. Ob anwenderseitig finanziell wirklich etwas eingespart würde, ist ohnehin fraglich. Die Software-Lizenzgebühren dürften wohl dem Nutzungszuwachs angepasst werden. Was dies angesichts der versprochenen Leistungssprünge des Grid-Computings bedeuten würde, kann sich jeder selbst ausrechnen.