Green IT: Ein Ding der Unmöglichkeit
Artikel erschienen in Swiss IT Magazine 2008/16
Glaubt man den IT-Herstellern, können die Unternehmen über den Einsatz ihrer Hard- und Softwareprodukte gleich zweifach sparen: an Kosten und am Ausstoss klimaschädlicher CO2-Emissionen. Grund genug, den tatsächlichen Effekten einer sogenannten Green IT nachzugehen. Die Paradedisziplin dafür ist die Server-Technologie. Sie soll das IT-Budget und das Klima besonders entlasten.
In den Rechenzentren wird erheblich Energie vergeudet. Das Marktinstitut Experton Group bringt die Ursache der Vergeudung auf den Punkt. Nach ihrer Studie wurden im deutschsprachigen Bereich erst 15 Prozent der installierten Server virtualisiert. Die Folge: zu viele unzureichend ausgelastete Server-Kapazitäten als Stromabnehmer. Die einzelnen Server wurden bisher an den Lastspitzen der Applikationen ausgelegt, was zu Normalzeiten unweigerlich zu einer erheblichen Kapazitätsvergeudung führt. Dieser Status quo schlägt voll auf die Stromabrechnung und den CO2-Ausstoss durch – zumal schlecht ausgelastete Server fast ebenso viel Strom verbrauchen wie solche unter Voll-Last.
Dabei bleibt es nicht. Zu viele installierte Server ziehen zu viele Zusatzgeräte für Cooling und Power nach sich. Sie treiben zu Lasten des IT-Budgets und des Klimas den Stromverbrauch zusätzlich in die Höhe. Schon heute macht in vielen Rechenzentren der Stromverbrauch 30 bis 40 Prozent der gesamten Server-Betriebskosten aus. Diese Ausgangssituation trifft die Unternehmen allerdings umso härter, zumal die Stromkosten stark steigen. Somit steht zu befürchten, dass sich ihr Anteil allmählich der 50-Prozent-Marke gemessen an den gesamten Server-Betriebskosten annähern wird.
Was für die Anwender zählt, ist aber nicht eine vermeintliche Green IT, sondern eine rein kaufmännische Betrachtung: Inwieweit führen Server-Virtualisierung und neue Hardware tatsächlich zu Energieeinsparungen? Natürlich müssen in diese Betrachtung die neuen Investitionen und ihre Abschreibung über einen Zeitraum von fünf Jahren einbezogen werden, um realistische Einsparungsaussagen treffen zu können.
Eine mögliche Einsparung an CO2 ist für
betriebswirtschaftlich kalkulierende Unternehmen ein zusätzliches Argument, aber kein Entscheidungsgrund. Das ist bei den IT-Herstellern, realistisch betrachtet, nicht anders. Sie nutzen das Aushängeschild «Green IT» vor allem für eines: um darüber besser ins Geschäft zu kommen.
Eine kritische Betrachtung der vermeintlich grünen Säulen des Server-Einsatzes – Virtualisierung und neue Hard- und Software – bringt Licht ins Marketing-Dunkel. Virtualisierungstechniken werden schon seit 1999 im Markt angeboten, also lange bevor der Green-IT-Trend vor etwas mehr als zwei Jahren begann.
Neue Server in Quad-Core-Prozessortechnologie überzeugen zwar durchaus mit einem besseren Watt-Leistungs-Verhältnis gegenüber der Vorgängergeneration. Diese bessere Relation wird aber über einen Abschreibungszeitraum von fünf Jahren den Unternehmen unter dem Strich keine Energieeinsparungen bringen – vorausgesetzt, sie investieren überhaupt in neue Server. Der Grund: Die Verarbeitungslasten wachsen überproportional, im Schnitt pro Jahr um 40 Prozent. Daraus ergibt sich nach fünf Jahren mehr als eine Verfünffachung der Verarbeitungslast auf den Servern, bei einem verbesserten Watt-Leistungs-Verhältnis von lediglich 1:3, also ein Strommehrverbrauch von etwa 70 Prozent.
Prognosen wie die von IDC machen andererseits deutlich, wie wichtig für die Unternehmen die Virtualisierung ihrer Server für eine deutlich effizientere Kapazitätsauslastung ist, damit ihre Energiekosten nicht förmlich explodieren. Für eine konsequente Server-Virtualisierung mit Lösungen wie Vmware, Xen oder Microsoft Virtual Server sprechen weitere Gründe. Durch die zahlenmässige Reduktion der Server fallen die Administrations- und Wartungskosten geringer aus. Parallel nimmt der Management- und im Fehlerfall der Analyseaufwand ab. Teure Stellplätze werden eingespart. Die Verkabelung, Installation und Konfiguration, ebenso mit der Zeit notwendige Aufrüstungen, fallen weniger aufwendig und kostspielig aus.
Damit steht die Frage im Rechenzentrum, wie Verarbeitungslasten künftig auf die Server verteilt werden sollten, damit ihr Potential optimal, also kostensparend bei gleichzeitigem Performance-Gewinn, ausgeschöpft werden kann. Denn genau dieser Leistungsgewinn wird für die optimierten, durchgehend IT-gestützten Geschäftsprozesse dringend gebraucht. Und die Server sind sozusagen die Arbeitspferde für die Applikationen und Datenbanken, aus denen die optimierten Geschäftsprozesse gespeist werden.
Hilfe naht durch eine Analyse- und Simulations-Software, die der bestehenden Installation auf den Zahn fühlt und unnötige Server und Kapazitäten bereinigt. Diese Unterstützung per System ist für die Unternehmen um so wichtiger, zumal sich bei ihnen über die Zeit ein unübersichtlicher Server-Wildwuchs herausgebildet hat. Er setzt sich über die flankierenden Cooling- und Power-Geräte bis hin zu den eingesetzten Speichern fort. Über eine klassische Analyse und Beratung ist diesem Wildwuchs kaum beizukommen, und wenn doch, dann nur mit hohen Personalkosten. Siemens IT Solutions and Services hat gemeinsam mit mehreren Lehrstühlen der Technischen Universität München (TUM) eine solche Analyse- und Simulations-Software entwickelt. Sie kommt auf einem Standard-Notebook zum Einsatz.
Nach Benjamin Speitkamp, Projektleiter bei der TUM, können Rechenzentren allein durch die Berechnung und Ausschöpfung regelmässiger Schwankungen bei den Arbeitslasten rund 30 Prozent der bestehenden Server einsparen. Ohne eine detaillierte Vorarbeit geht allerdings auch bei der programmgestützten Analyse und Simulation nichts. So müssen sich die RZ-Verantwortlichen vor dem Einsatz der Software ein komplettes Kosten-Leistungs-Bild über den bestehenden Server-Park einschliesslich der Abschreibungsfristen für die einzelnen Systeme und Geräte verschaffen. CPU-, Hauptspeicher- und Netzwerkkapazitäten müssen gemessen und erfasst werden. Natürlich muss das Geschäftsprozess- und Leistungs-Soll feststehen, um richtig dimensionieren zu können. Historische Auslastungsdaten sollten mit erfasst und eingegeben werden. Sie helfen, Trends verlässlich in die Zukunft fortzuschreiben. Sämtliche Applikationen und Dienste, die über den Server-Park abgewickelt werden sollen, müssen erfasst werden. Nur so können sie im Einzelnen den virtualisierten Kapazitäten ressourcen- und energiesparend zugeordnet werden.
Die anschliessende Berechnung des richtigen Virtualisierungs-Mix am Notebook fällt in die schwierigste Klasse von Algorithmen, bei denen Heuristiken zur Entscheidungsfindung eine zentrale Rolle spielen. Zwei Modelle werden durchlaufen. Beim ersten Durchlauf werden die bestehenden Server-Kapazitäten ausgereizt. Beim zweiten Durchlauf wird geprüft, inwieweit punktuelle Neuinvestitionen das
Kosten-Leistungs-Bild verbessern. Für das Rechenzentrum hat das den Vorteil, dass nur investiert wird, wenn sich diese Anschaffungen nachweislich lohnen. Und der Umwelt bleiben ohne voreilige Hardware-Investitionen unnötige Entsorgungslasten erspart.
Peter Arbitter ist Leiter Portfolio und Technologie Management bei Siemens IT Solutions and Services.