Standardisierung im Data Center
Artikel erschienen in Swiss IT Magazine 2008/06
Wachsende Komplexität durch heterogene Umgebungen («Best of Breed»-Lösungen), Infrastrukturänderungen durch Fusionen und Zukäufe, Personalmangel und Budgetknappheit sind die wichtigsten Herausforderungen, mit denen Rechenzentrumsmanager im Moment konfrontiert werden. Dabei sind vor allem die ständig wachsenden Anforderungen der Service Level Agreements (SLAs) schwer einzuhalten. Dies sind wesentliche Ergebnisse des weltweiten «State of the Data Center»-Reports von Symantec.
Gefragt sind heute umfassende Technologien, die es Unternehmen erlauben, heterogene Anwendungs-, Datenbank-, Server- und Speicherplattformen auf einer einheitlichen Software-Infrastruktur zu standardisieren. Eine gemeinsame Integrationsplattform ermöglicht es, Dutzende unterschiedliche Tools zu ersetzen. Die Administration eines Rechenzentrums mit allen Anwendungen, Speichermedien und Servern wird so wesentlich einfacher.
Massnahmen fürs grünere Data Center
Die Ergebnisse des «State of the Data Center»-Reports legen nahe, dass die grundlegenden Herausforderungen in umfassenden betrieblichen SLAs, dem anhaltenden Ausbau von Rechenzentren und im Personalmanagement liegen. Dabei hält das Budget in vielen Fällen nicht mit der Entwicklung der Rechenzentren Schritt. Gleichzeitig führen umfassende SLAs dazu, dass Rechenzentren immer schneller reagieren und eine immer höhere Verfügbarkeit liefern müssen.
Komplexität und Heterogenität sind nur zwei der Faktoren, die die Einhaltung der SLAs immer schwieriger machen. Auch qualifiziertes Personal ist in der Regel schwer zu finden. Dabei ist Unterbesetzung laut der Untersuchung weitaus häufiger auf Mangel an qualifiziertem Personal als auf zu knappe Budgets zurückzuführen.
In fast jedem Rechenzentrum stehen Geräte vieler verschiedener Anbieter von Speichermedien und Servern. Jeder dieser Anbieter bietet auch Funktionen für die Verwaltung der eigenen Plattformen an. In der natürlichen Konsequenz führt das oft zu einem «Wildwuchs» uneinheitlicher Tools und Ansätze. Hier zu standardisieren und damit den Rechenzentrumsbetrieb durch ein aktives Systemmanagement zu vereinfachen sowie verbesserte IT-Service-Levels zu erreichen,
ist eine wesentliche Grundlage für die Erzielung von Wettbewerbs-
vorteilen.
Zunehmend wichtiger werden Technologien, die Virtualisierung und Konsolidierung im Rechenzentrum unterstützen. Lösungen, die eine umfassende Steuerung sowohl für physische als auch für virtuelle Umgebungen ermöglichen, erlauben einen proaktiven Umgang mit der wachsenden Komplexität in Rechenzentren und bieten eine Möglichkeit zur Umsetzung der oft immer anspruchsvolleren SLAs.
In einer virtualisierten Umgebung kann sich mehr als eine Applikation auf einem einzelnen physischen Speicher befinden. Das hat verschiedene Vorteile: Bessere Ausnutzung von Hardware-Ressourcen, vereinfachte Handhabung und Hardware-Unabhängigkeit sind nur einige davon. Allerdings kann bei schlechtem Management dieses Konzept sehr komplex und risikoreich sein. Denn sämtliche Applikationen, die auf einem einzelnen Server abgelegt sind, sind dann auch anfällig für Hardwarefehler dieses Servers.
Die Einführung eines Storage Area Network (SAN) in einem Rechenzentrum reduziert den Administrationsaufwand langfristig erheblich, weshalb diese Art des Datenaustauschs zwischen Clients und Storage-Systemen immer wichtiger wird. Trotz den unbestrittenen Vorteilen kann die Einführung von Storage-Area-Netzwerken in einem Rechenzentrum die Speicherausnutzung beeinflussen, wenn IT-Verantwortliche SANs beispielsweise einsetzen, um Investitionen in die Storage-Infrastruktur zu verzögern oder sich nicht über ihre wirklich vorhandenen Speicherressourcen im Klaren sind.
Um die verfügbare Speicherkapazität effektiv verwenden zu können, ist es notwendig, eine Übersicht über alle Speichersysteme eines Unternehmens zu gewinnen. Welche werden genutzt und zu wie viel Prozent ausgelastet? Ein Beispiel dafür ist die Unterscheidung von Speicher, der einer Applikation zugewiesen ist, und Speicher, der in Wirklichkeit von der Applikation genutzt wird. Unternehmen benötigen zu diesem Zweck integrierte Anwendungen, die ihnen die Ressourcen, die Auslastung und auch die beispielsweise durch interne Richtlinien gemachten Backup-Vorgaben aufzeigen und diese automatisiert überwachen. Nur so können Kosten gespart und unnötiger Komplexität entgegengewirkt werden.
Service-Level fordern das Rechenzentrum
Bei grösseren Unternehmen ist es sinnvoll, auf automatisierte Konfigurations-Management-Lösungen zurückzugreifen. Indem diese die Konfiguration von Applikationen und Servern steuern, einen Überblick über Abhängigkeiten liefern und Veränderungen in Echtzeit verfolgen, können sie einen entscheidenden Beitrag zu einem ganzheitlichen Change Management liefern.
Fazit: Eine erfolgversprechende Strategie für den Umgang mit den Herausforderungen in Rechenzentren ist die Standardisierung der Software auf einer einzigen Ebene. Damit können alle primären Anwendungen, Datenbanken, Prozessoren sowie Speicher- und Hardware-Plattformen zentral gesteuert werden. Dies ermöglicht den Verantwortlichen, Informationen und Anwendungen zu schützen und trotzdem den Service zu erweitern. Speicher- und Service-Auslastung können verbessert und die (virtuelle) Umgebung organisiert werden. Damit werden operationale Kosten eingespart.
Hermann Wedlich, Senior Manager Solution Marketing EMEA, Symantec