Standardisierung im Data Center

Im Data Center setzen IT-Verantwortliche immer häufiger auf die Standardisierung durch eine gemeinsame Software-Infrastruktur.

Artikel erschienen in Swiss IT Magazine 2008/06

     

Wachsende Komplexität durch heterogene Umgebungen («Best of Breed»-Lösungen), Infrastrukturänderungen durch Fusionen und Zukäufe, Personalmangel und Budgetknappheit sind die wichtigsten Herausforderungen, mit denen Rechenzentrumsmanager im Moment konfrontiert werden. Dabei sind vor allem die ständig wachsenden Anforderungen der Service Level Agreements (SLAs) schwer einzuhalten. Dies sind wesentliche Ergebnisse des weltweiten «State of the Data Center»-Reports von Symantec.


Gefragt sind heute umfassende Technologien, die es Unternehmen erlauben, heterogene Anwendungs-, Datenbank-, Server- und Speicherplattformen auf einer einheitlichen Software-Infrastruktur zu standardisieren. Eine gemeinsame Integrationsplattform ermöglicht es, Dutzende unterschiedliche Tools zu ersetzen. Die Administration eines Rechenzentrums mit allen Anwendungen, Speichermedien und Servern wird so wesentlich einfacher.


Massnahmen fürs grünere Data Center




Kein Investitionsspielraum in den Budgets

Die Ergebnisse des «State of the Data Center»-Reports legen nahe, dass die grundlegenden Herausforderungen in umfassenden betrieblichen SLAs, dem anhaltenden Ausbau von Rechenzentren und im Personalmanagement liegen. Dabei hält das Budget in vielen Fällen nicht mit der Entwicklung der Rechenzentren Schritt. Gleichzeitig führen umfassende SLAs dazu, dass Rechenzentren immer schneller reagieren und eine immer höhere Verfügbarkeit liefern müssen.


Komplexität und Heterogenität sind nur zwei der Faktoren, die die Einhaltung der SLAs immer schwieriger machen. Auch qualifiziertes Personal ist in der Regel schwer zu finden. Dabei ist Unterbesetzung laut der Untersuchung weitaus häufiger auf Mangel an qualifiziertem Personal als auf zu knappe Budgets zurückzuführen.



Inflationsbereinigt sind die zur Verfügung stehenden Budgets in den Rechenzentren der befragten Unternehmen nur geringfügig gewachsen. Daher müssen immer öfter erhebliche Anteile des zur Verfügung stehenden Budgets für die Aufrechterhaltung des laufenden Geschäfts ausgegeben werden. Langfristige Investi-tionen, die zukünftigen Mehrwert schaffen, können vor diesem Hintergrund oft nicht umgesetzt werden.


«Wildwuchs» bei den Werkzeugen

In fast jedem Rechenzentrum stehen Geräte vieler verschiedener Anbieter von Speichermedien und Servern. Jeder dieser Anbieter bietet auch Funktionen für die Verwaltung der eigenen Plattformen an. In der natürlichen Konsequenz führt das oft zu einem «Wildwuchs» uneinheitlicher Tools und Ansätze. Hier zu standardisieren und damit den Rechenzentrumsbetrieb durch ein aktives Systemmanagement zu vereinfachen sowie verbesserte IT-Service-Levels zu erreichen,
ist eine wesentliche Grundlage für die Erzielung von Wettbewerbs-
vorteilen.



Eine solche Lösung muss die unterschiedlichsten Plattformen unterstützen. Dazu gehören sämtliche weitverbreiteten Unix-, Linux- und Windows-Plattformen, insbesondere Solaris, Solaris Opteron, HP-UX, AIX, Red Hat Linux, Novell SUSE Linux und Windows ebenso wie gängige Server-Virtualisierungstechnologien für diese Betriebssystemumgebungen. Ferner alle wichtigen Unternehmens- und modularen Speicherplattformen von EMC, HDS, HP, IBM, Sun, Network Appliance und anderen Anbietern. Und schliesslich Applikationen auf der Basis von Oracle, DB2, Sybase, SAP (einschliesslich anderer ERP-Systeme), BEA WebLogic, IBM WebSphere sowie zahlreiche andere Anwendungen.


Virtualisierung und Konsolidierung sind top

Zunehmend wichtiger werden Technologien, die Virtualisierung und Konsolidierung im Rechenzentrum unterstützen. Lösungen, die eine umfassende Steuerung sowohl für physische als auch für virtuelle Umgebungen ermöglichen, erlauben einen proaktiven Umgang mit der wachsenden Komplexität in Rechenzentren und bieten eine Möglichkeit zur Umsetzung der oft immer anspruchsvolleren SLAs.


In einer virtualisierten Umgebung kann sich mehr als eine Applikation auf einem einzelnen physischen Speicher befinden. Das hat verschiedene Vorteile: Bessere Ausnutzung von Hardware-Ressourcen, vereinfachte Handhabung und Hardware-Unabhängigkeit sind nur einige davon. Allerdings kann bei schlechtem Management dieses Konzept sehr komplex und risikoreich sein. Denn sämtliche Applikationen, die auf einem einzelnen Server abgelegt sind, sind dann auch anfällig für Hardwarefehler dieses Servers.



Die wichtigsten Strategien für die Kostenbegrenzung sind laut der Symantec-Studie Virtualisierung und Server-Konsolidierung. Dabei setzen die Befragten sowohl auf Speicher- wie auch auf Server-Virtualisierung und virtuelle Umgebungen.




Einsatz von Virtualisierung im Rechenzentrum


SANs reduzieren Administrationsaufwand

Die Einführung eines Storage Area Network (SAN) in einem Rechenzentrum reduziert den Administrationsaufwand langfristig erheblich, weshalb diese Art des Datenaustauschs zwischen Clients und Storage-Systemen immer wichtiger wird. Trotz den unbestrittenen Vorteilen kann die Einführung von Storage-Area-Netzwerken in einem Rechenzentrum die Speicherausnutzung beeinflussen, wenn IT-Verantwortliche SANs beispielsweise einsetzen, um Investitionen in die Storage-Infrastruktur zu verzögern oder sich nicht über ihre wirklich vorhandenen Speicherressourcen im Klaren sind.


Um die verfügbare Speicherkapazität effektiv verwenden zu können, ist es notwendig, eine Übersicht über alle Speichersys­teme eines Unternehmens zu gewinnen. Welche werden genutzt und zu wie viel Prozent ausgelas­tet? Ein Beispiel dafür ist die Unterscheidung von Speicher, der einer Applikation zugewiesen ist, und Speicher, der in Wirklichkeit von der Applikation genutzt wird. Unternehmen benötigen zu diesem Zweck integrierte Anwendungen, die ihnen die Ressourcen, die Auslastung und auch die beispielsweise durch interne Richtlinien gemachten Backup-Vorgaben aufzeigen und diese automatisiert überwachen. Nur so können Kosten gespart und unnötiger Komplexität entgegengewirkt werden.




Service-Level fordern das Rechenzentrum


Integrationsplattform verringert Komplexität

Bei grösseren Unternehmen ist es sinnvoll, auf automatisierte Konfigurations-Management-Lösungen zurückzugreifen. Indem diese die Konfiguration von Applikationen und Servern steuern, einen Überblick über Abhängigkeiten liefern und Veränderungen in Echtzeit verfolgen, können sie einen entscheidenden Beitrag zu einem ganzheitlichen Change Management liefern.


Fazit: Eine erfolgversprechende Strategie für den Umgang mit den Herausforderungen in Rechenzentren ist die Standardisierung der Software auf einer einzigen Ebene. Damit können alle primären Anwendungen, Datenbanken, Prozessoren sowie Speicher- und Hardware-Plattformen zentral gesteuert werden. Dies ermöglicht den Verantwortlichen, Informa­tionen und Anwendungen zu schützen und trotzdem den Service zu erweitern. Speicher- und Service-Auslastung können verbessert und die (virtuelle) Umgebung organisiert werden. Damit werden operationale Kosten eingespart.


Der Autor

Hermann Wedlich, Senior Manager Solution Marketing EMEA, Symantec




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Vor wem mussten die sieben Geisslein aufpassen?
GOLD SPONSOREN
SPONSOREN & PARTNER