Standardisierung gegen Komplexität

Der wachsenden Komplexität in Rechenzentren Herr zu werden, ist eine nicht ganz einfache Aufgabe. Mit geeigneten Technologien zur Automatisierung und Verwaltung von unterschiedlichen Systemen ist es aber möglich, das Rechenzentrum von einem Kostenverursacher in eine profitable Serviceorganisation zu verwandeln.

Artikel erschienen in Swiss IT Magazine 2007/03

     

Rechenzentren werden immer komplexer. In vielen Unternehmen haben sich im Laufe der Jahre IT-Landschaften entwickelt, in denen in einer einzigen Umgebung eine Vielzahl von verschiedenen Betriebssystemen, Applikationen, Datenbanken und Speicherplattformen verwendet werden. Dahinter stand die Absicht, für jede Aufgabe die am besten geeignete Lösung einzusetzen. Einzelne Prozesse profitieren natürlich von einer solchen heterogenen «Best-of-Breed»-Umgebung. In Summe stellt diese Komplexität für Rechenzentren jedoch – vor allem vor dem Hintergrund einer stetig wachsenden Datenmenge – eine grosse Herausforderung dar.






Kosten sind oft der zentrale Massstab, nach dem der Betrieb von Rechenzentren bewertet wird. Allerdings sind deren Funktionen mittlerweile von so zentraler Bedeutung, dass eine strenge Kostenorientierung starke Einschränkungen für den Betrieb bedeuten kann. Viele IT-Verantwortliche versuchen, sich durch Standardisierung aus der Kosten­fixierung zu lösen und das Rechenzentrum so von einem Kostenverursacher in eine möglichst profitable Serviceorganisation zu verwandeln. Mit Hilfe neuer Technologien zur Automatisierung und Verwaltung von unterschiedlichsten Systemen ist es leicht möglich, die Vorteile heterogener Applikationsumgebungen und standardisierter Rechenzentren miteinander zu kombinieren.


Rationalisierung mit dem richtigen Werkzeug

Der Schritt zu einem optimierten Rechenzentrum erfordert Technologien, die plattformübergreifend arbeiten und es Unternehmen erlauben, ihre Infrastruktur zu schützen, ihre Rechenzentren zu standardisieren und dadurch wichtige Prozesse wie beispielsweise Systemverfügbarkeit und -sicherheit, Datenmigration, Speichermanagement und Disaster Recovery zu optimieren.
Grundlage der Rationalisierung im Rechenzentrum ist eine Storage-Management-Technologie mit zentralisierten Multi-Host Management-Kapazitäten. Diese macht, über alle Hard- und Softwareplattformen hinweg, die Nutzung heterogener Speicherumgebungen höchst flexibel und trotzdem überschaubar. Mit diesen Tools können Administratoren beispielsweise eine Vielzahl von Backup-Jobs oder die Einhaltung von bestimmten Richtlinien über eine zentrale browserbasierte Konsole im Auge behalten. Ergänzt werden diese Schritte durch Technologien für die Datensicherung im Unternehmen, eine weitere Komponente bei der Standardisierung eines Rechenzentrums.


Immer online - worauf man achten sollte

Zentrale Aufgabe des Rechenzentrums ist es, für die ständige Verfügbarkeit wichtiger Applikationen und Daten zu sorgen, und heterogene Best-of-Breed-Umgebungen können IT-Verantwortliche dabei schnell vor Herausforderungen stellen. Im Falle eines Systemabsturzes ist es beispielsweise nur bedingt möglich, eine Applikation auf einen anderen Server zu verschieben und sie so am Laufen zu halten, da die Applikationsverfügbarkeit in einer heterogenen Umgebung nur durch die Verwendung von plattformunabhängigen Lösungen sichergestellt werden kann.




Was für die ständige Applikationsverfügbarkeit gilt, ist auch wichtig bei der Datenmigration, insbesondere wenn es darum geht, neue Systeme in Betrieb zu nehmen. Um ein optimiertes und damit immer auf dem neuesten Stand der Technologie befindliches Rechenzentrum zu betreiben, ist es notwendig, diesen Prozess bei Bedarf immer wieder vornehmen zu können, ohne die Geschäfts­aktivitäten zu behindern. Der IT-Administrator sollte deshalb darauf achten, dass die entsprechende Lösung sowohl Betriebssysteme als auch Dateien migrieren und beispielsweise auch benutzerspezifische Informationen berücksichtigen kann.





Zunehmend wichtig in Rechenzentren ist die Unterstützung von virtuellen Servern. In einer virtualisierten Umgebung kann sich mehr als eine Applikation auf einem einzelnen physischen Speicher befinden. Das hat verschiedene Vorteile: Bessere Ausnutzung von Hardware-Ressourcen, vereinfachte Handhabung und Hardware-Unabhängigkeit sind nur einige davon. Allerdings kann bei schlechtem Management dieses Konzept sehr komplex werden und sämtliche Applikationen, die auf einem einzelnen Server abgelegt sind, sind dann auch anfällig für Hardware-Fehler dieses Servers. An dieser Stelle macht beispielsweise der Einsatz von Clustering-Technologie Sinn, mit der ein einzelner Server – ob physisch oder virtuell – im Falle eines Absturzes schnell auf einen anderen übertragen werden kann.




Auch wenn viele Unternehmen mittlerweile Pläne für den Ernstfall eines Systemausfalls in ihren Rechenzentren entwickelt haben, bleiben diese in vielen Fällen graue Theorie. Das Testen dieser sogenannten Disaster-Recovery-Pläne ist im hektischen Alltag eines Unternehmens, in dem Ausfallzeiten gleich welcher Herkunft finanzielle Verluste bedeuten, meist zu aufwendig, um es überhaupt oder gar regelmässig durchzuführen. Durch den Einsatz von Software, die die Prozesse einer IT-Umgebung durch die realitätsnahe Simulation eines Ausfalls testet, ohne die Produktivsysteme im Rechenzentrum zu stoppen und ohne zusätzliche Hardware für die Speicherung zu benötigen, können Unternehmen Klarheit über die Wirksamkeit ihrer Pläne gewinnen. Ein Stichwort in diesem Zusammenhang sind die so genannten Fire-Drill-Funktionalitäten, die für verschiedene Applikationen angeboten werden.


Vorhandene Ressourcen optimal nutzen

Die Einführung eines Storage Area Network (SAN) in einem Rechenzentrum reduziert den Administrationsaufwand erheblich, – weshalb diese Art des Datenaustauschs zwischen Clients und Storage-Systemen immer wichtiger wird. Trotz der unbestrittenen Vorteile kann die Einführung von Storage Area-Netzwerken in einem Rechenzentrum die Speicherausnutzung beeinflussen, wenn IT-Verantwortliche SANs beispielsweise einsetzen, um Investitionen in die Storage-Infrastruktur zu verzögern oder sich nicht über ihre wirklich vorhandenen Speicherressourcen im klaren sind. Um die verfügbare Speicherkapazität effektiv verwenden zu können, ist es notwendig, eine Übersicht über alle Speichersysteme eines Unternehmens zu gewinnen. Welche werden genutzt und zu wie viel Prozent ausgelastet?



Ein Beispiel dafür ist die Unterscheidung von Speicher, der einer Applikation zugewiesen ist, und Speicher, der in Wirklichkeit von der Applikation genutzt wird. Unternehmen benötigen zu diesem Zweck integrierte Anwendungen, die ihnen die Ressourcen, die Auslastung und auch die beispielsweise durch interne Richtlinien gemachten Backup-Vorgaben aufzeigen und diese automatisiert überwachen. Nur so können Kosten gespart und unnötiger Komplexität entgegengewirkt werden.



Ein wichtiges Hilfsmittel bei der Optimierung der Speicherausnutzung ist auch die Speicherklassifizierung. Nicht alle Informationen müssen im Schadensfall sofort wieder verfügbar sein oder müssen über mehrere Jahre revisionssicher aufbewahrt werden. Beispielsweise können Daten, die jeden Tag benutzt werden, auf einem Tier-1-Speicher abgelegt werden, während Informationen, die 90 Tage nicht benutzt worden sind, auf einen anderen Speicher verschoben werden. Durch die Klassifizierung von Daten und die davon abhängige Wahl des Speichermediums, angefangen bei preisgünstigen Bändern bis hin zu Festplatten, kann ein Unternehmen von deutlichen Kosteneinsparungen profitieren.


Den Wandel meistern

Das typische Rechenzentrum eines Unternehmens kennt keinen Stillstand – weder in operativer noch in struktureller Hinsicht. Betriebssysteme werden gepatcht, Software wird auf den neuesten Stand gebracht und neue Hardware kommt auf den Markt. Auch wenn es diese dynamischen Prozesse erforderlich machen würden, ist das Change Management in den Rechenzentren vieler Unternehmen nicht in wünschenswertem Mass diszipliniert. Gerade bei grösseren Unternehmen macht es Sinn, auf automatisierte Konfigurations-Management-Lösungen zurückzugreifen. Indem diese die Konfiguration von Applikationen und Servern steuern, einen Überblick über Abhängigkeiten liefern und Veränderungen in Echtzeit verfolgen, können sie einen entscheidenden Beitrag zu einem ganzheitlichen Change Management liefern.


Fazit

Die Vorzüge heterogener Umgebungen führen in Rechenzentren zu stetig wachsender Komplexität. Viele Unternehmen müssen sich trotz aller Bemühungen mit explodierenden Kosten auseinandersetzen. Umfassende Technologien wie beispielsweise Symantec Data Center Foundation, die ein Unternehmen bei der Standardisierung und Rationalisierung von Rechenzentren unterstützen, können einen entscheidenden Beitrag zur Bewältigung dieser Komplexität leisten.


Der Autor

Hermann Wedlich ist Senior Manager Solution Marketing EMEA bei Symantec.




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Aus welcher Stadt stammten die Bremer Stadtmusikanten?
GOLD SPONSOREN
SPONSOREN & PARTNER