DSI: Ganzheitliches Systemmanagement
Artikel erschienen in Swiss IT Magazine 2006/01
Die Architektur von Business-Applikationen hat sich in den letzten Jahren rasant verändert. Nach den klassischen Client/Server- und Multitier-Architekturen verlagert sich der Trend immer mehr zu verteilten, serviceorientierten Anwendungen. Gleichzeitig ist die solchen Architekturen zu Grunde liegende Infrastruktur immer komplexer geworden und umfasst eine Vielzahl von Hardwarekomponenten, angefangen bei mehreren Servern über Netzwerkbausteine wie Load Balancer und Switches bis hin zu zentralen Speichersystemen. In den Unternehmen hat sich der Aufwand für die Entwicklung, das Deployment und den Betrieb aufgrund der Komplexität solcher Systeme und der damit verbundenen Abhängigkeiten zwischen Hard- und Software deutlich erhöht. Laut einer Studie von Accenture geben Firmen rund 70 bis 80 Prozent ihres IT-Budgets für den Betrieb ihrer vorhandenen Infrastruktur aus.
Um den Aufwand für die Entwicklung und die Wartbarkeit solcher zunehmend komplexer werdenden Systeme zu verringern, hat Microsoft die Dynamic Systems Initiative (DSI) ins Leben gerufen. Ziel ist es, aufeinander abgestimmte Managementlösungen anzubieten, mit denen sich verteilte Systeme künftig als Ganzes verwalten lassen. Das Interessante an Microsofts Management-Strategie ist, dass sie sich nicht nur auf den Betrieb von Systemen fokussiert, sondern den gesamten Lebenszyklus einer Applikation einbezieht, inklusive deren Planung, Entwicklung und Deployment. So sollen beispielsweise Entwicklungswerkzeuge den Entwurf eines vollständig verteilten Systems ermöglichen, einschliesslich darauf aufbauenden Anwendungen und der notwendigen Systemvoraussetzungen (Topologie, Konfiguration, Policies, Hardwareressourcen etc.). Statt wie bisher Daten, Speicher und Netzwerkressourcen eines einzelnen Servers zu verwalten, werden über ein Data Center verteilte Ressourcen zentral verwaltbar sein. Zudem sollen moderne Managementwerkzeuge mehr bieten als ein blosses Monitoring von einzelnen Komponenten. Vielmehr werden systemübergreifende Ansichten benötigt, die neben der Überwachung der eigentlichen Anwendung auch die zugrundeliegenden Hardwareressourcen umfasst.
Vom technischen Standpunkt aus betrachtet, beruht DSI auf Informationen – Microsoft verwendet hier den Begriff Knowledge – über die in einer verteilten Anwendung involvierten Systeme und Komponenten. Zu diesen Informationen zählen beispielsweise Policies, Installationsvorgaben, Modelle für Gesundheitszustand des Systems, Monitoring-Regeln, Service-Level-Agreements oder Transaktionsabläufe.
Alle diese Informationen lassen sich in Form von Softwaremodellen beschreiben. Dies lässt sich am ehesten mit einem Bauplan vergleichen, mit dem Unterschied allerdings, dass sich dieser während des gesamten Lebenszyklus eines Systems den Veränderungen dynamisch anpassen muss. So werden möglicherweise während des Entwicklungsprozesses einfache Regeln und Konfigurationsvorgaben definiert, die bei der Bereitstellung des Systems weiter eingeschränkt oder angepasst werden müssen. Oder während des Betriebs werden Best Practices entwickelt und laufend verbessert, die im Modell ebenfalls berücksichtigt werden sollen. Das Softwaremodell ist sozusagen ein «lebender» Bauplan, in dem alle relevanten Informationen über ein verteiltes System mit all seinen Eigenschaften und Abhängigkeiten aufgezeichnet sind.
In eingeschränkter Form setzt Microsoft das Modellkonzept bereits heute in seinen Managementprodukten ein. So etwa in den Management Packs des Microsoft Operations Manager 2005 (MOM), in denen in einem Health Model der ideale Gesundheitszustand eines Systems beschrieben wird. Aufgrund dieses Modells ist MOM in der Lage, die Anwendung zu überwachen. Die auf den Management Packs basierenden Modelle sind quasi eine erste Umsetzung der DSI-Idee, die sich allerdings auf MOM beschränkt. Um die DSI-Vision in vollem Umfang unter Einbezug des gesamten IT-Lebenszyklus und auf Basis von unterschiedlichen Entwicklungs- und Managementwerkzeugen realisieren zu können, werden universell einsetzbare Modelle benötigt. Zu diesem Zweck hat Microsoft das System Definition Model (SDM) kreiert. Dabei handelt es sich um eine auf XML basierende Definitionssprache, mit der sich die einzelnen Komponenten einer verteilten Applikation konkret beschreiben lassen. SDM ist sozusagen die Schlüsseltechnologie der Dynamic Systems Initiative, mit der nicht nur Microsoft, sondern auch Drittanbieter ihre Produkte DSI-fähig machen können. Ziel ist es, dass jede Hard- und Softwarekomponente mit SDM-Informationen ausgestattet ist und dadurch in eine DSI-Infrastuktur eingebunden werden kann. In SDM-Modellen können beispielsweise Abhängigkeiten zwischen Komponenten und Betriebssystemen, Konfigurationseinstellungen (über Betriebssystem-Policies ansteuerbar) oder Definitionen für Variablen, die für die Ermittlung des Systemstatus dienen, beschrieben werden. Entsprechend dem oben beschriebenen Lebenszyklus kann SDM in unterschiedlichen Stadien zum Einsatz kommen:
Design: Im Entwicklungsstadium kann SDM dazu genutzt werden, Systeme zu modellieren. Das Modell enthält alle für das Deployment und den Betrieb eines verteilten Systems erforderlichen Informationen, einschliesslich der benötigten Ressourcen, Schnittstellen, Konfigurationen und Richtlinien.
Deployment: Basierend auf dem im Design-Prozess erstellten Modell wird man künftig verteilte Systeme automatisch durch dynamische Zuweisung und Konfiguration von Software- und Hardwareressourcen (Server, Speicher und Netzwerk) bereitstellen können. Vor dem eigentlichen Deployment lassen sich die in der SDM-Definition beschriebenen Vorgaben mit der Zielumgebung vergleichen und gegebenenfalls auch Was-wäre-wenn-Analysen mit unterschiedlichen Konfigurationen durchspielen. Interessant ist auch, dass ein System, basierend auf demselben Modell, für verschiedene Umgebungen und Skalierungen bereitgestellt werden.
Operation: Während des Betriebs ermöglicht SDM systemweite Ansichten und erlaubt dadurch das verteilte System besser zu verwalten. Mit einer neuen Generation an Verwaltungstools wird man Systeme ganzheitlich überwachen können. Dazu gehörenauch das dynamische Zuweisen von Ressourcen, die Behandlung von Fehlerfällen, das Konfigurationsmanagement und die Automatisierung von Updates.
DSI ist vor allem als Langzeitstrategie zu verstehen, die über mehrere Jahre hinweg in die Produkte von Microsoft und dessen Partner einfliessen wird. Bis auf Visual Studio 2005 Team System hat der Softwaremulti bislang noch kein «echtes» DSI-Produkt mit SDM-Support lanciert. Immerhin haben die Redmonder im letzten Jahr mit Produkten wie MOM 2005 und System Center 2005 einige Lösungen auf den Markt gebracht – Microsoft nennt Produkte dieser Generation «DSI Wave 1» –, die bereits dem Kerngedanken der DSI entsprechen und mit denen sich bereits abzeichnet, in welche Richtung die System-Management-Zukunft gehen wird.
Mit der Architect Edition des Visual Studio 2005 Team System bietet Microsoft seit November letzten Jahres das erste Produkt an, das mit Unterstützung für das Software Definition Model (SDM) ausgestattet ist. Zur SDM-Funktionalität zählt eine Reihe von Design-Werkzeugen, mit deren Hilfe die Systeme auf unterschiedlichen Abstraktionsebenen modelliert werden können. Während sich beispielsweise mit dem Application Connection Designer die verschiedenen Anwendungen eines Systems und deren Kommunikationswege unabhängig von der effektiv vorhandenen Serverinfrastruktur designen lassen, dient der Logical Datacenter Designer der Planung der physisch vorhandenen Server. Der Deployment Designer bildet schliesslich das Bindeglied zwischen Application Connection und Logical Datacenter Designer, mit dem definiert wird, welche Anwendungen auf welchem Server zum Einsatz kommen sollen. Sowohl im Application Connection Designer als auch im Logical Datacenter Designer können für die einzelnen Systeme Regeln (z.B. verschlüsselte Kommunikation via SSL) und Konfigurationseinstellungen vorgegeben werden. Mit einer Validierungsfunktion lässt sich prüfen, ob die im Application Designer vorgenommenen Einstellungen mit den Regeln des Datacenter Design konform sind und umgekehrt.
Microsofts Management-Infrastruktur wird auch in Zukunft auf den Produkten System Management Server, MOM und den Werkzeugen der System-System-Reihe aufgebaut sein. Microsoft plant alle seine System-Management-Produkte künftig unter der Dachmarke System Center zu vereinen. Das verdeutlicht auch gleich eine wichtige Stossrichtung der DSI-Strategie, die vorsieht, die Funk—tionen der aktuellen Managementp rodukte miteinander zu kombinieren. So eröffnet etwa die Verknüpfung der Asset- und Change-Management-Funktionen des System Management Server mit den Überwachungsfunktionen von MOM interessante Möglichkeiten. Beispielsweise lassen sich Probleme schneller diagnostizieren, da sich mit SMS aufgezeichnete Systemveränderungen gemeinsam mit den von MOM aufgespürten Problemen auswerten lassen. Ausserdem können Informationen aus SMS und MOM in einer gemeinsamen Datenbank aufgezeichnet werden, so dass sich über Monaten und Jahren entstehende Trends ermitteln lassen. Mit System Center 2005 bietet Microsoft einen Grossteil dieser Funktionen bereits heute. Die nächste Generation von Managementprodukten (DSI Wave 2), welchen neben System Center V2 auch neue Versionen von MOM (V3) und SMS (V4) umfasst, sollen dann weit mehr DSI-Funktionalität bringen.
Auf dem Plan stehen etwa eine engere Anbindung an Visual Studio 2005, ein sogenanntes «Desired State» Monitoring und Performance-Modelling-Fähigkeiten, die laut Microsoft bislang noch von keinem Managementprodukt abgedeckt werden. Da für DSI geschriebene Komponenten Informationen über ihre Abhängigkeiten zu anderen Komponenten enthalten, wird die nächste System-Center-Version «Root Cause»-Analysen ermöglichen, über die sich ermitteln lässt, welches Ereignis (z.B. Fehlfunktion einer Komponente oder Änderung der Konfiguration) für eine Performance-Einbruch oder einen Ausfall verantwortlich war. System Center V2 wird in etwa zum selben Zeitpunkt (2007) wie Longhorn Server auf den Markt kommen. SMS V4, das unter anderem für das Deployment von Office 12 und Windows Vista ausgelegt sein wird, kommt gegen Ende 2006. Etwa für denselben Zeitraum ist auch MOM V3 geplant, das anstelle des reinen Server- neu ein serviceorientiertes Monitoring-Modell erhalten wird.
Eine wichtige Rolle in der Dynamic Systems Initiative nehmen auch die Windows-Betriebsysteme ein, da sie innerhalb einer verteilten Umgebung den Grossteil der Basisinfrastruktur zur Verfügung stellen. So plant Microsoft Windows Vista und Longhorn Server auf breiter Front für DSI zu optimieren. Dazu gehört etwa das Ausstatten aller Komponenten mit einem System Definition Model. Darauf basierend wird es komplett überarbeitete Management-Werkzeuge, wie ein neues Event Logging, einen aussagekräftigeren Performance Monitor oder die neue Management Console (MMC 3.0) geben, welche die Administration weiter vereinfachen sollen. Des weiteren zählt auch Virtual Server zum einem Kernprodukt der DSI-Strategie. So rechnen die Redmonder damit, dass in Zukunft eine Grosszahl von Anwendungen in virtuellen Umgebungen betrieben werden. Die Virtualisierung vereinfacht das Management von Systemen erheblich, etwa indem sie sich leichter replizieren und austauschen lassen. In DSI-Umgebungen sollen sich solche Vorgänge automatisieren und Systeme on-the-fly ersetzen lassen.
Die Dynamic Systems Initiative macht vor allem eines deutlich: Redmond will einiges dafür tun, um die Unternehmen von ihren System-Management-Sorgen zu entlasten. Das Lobenswerte an der Initiative ist der ganzheitliche Ansatz, der alle involvierten Komponenten und den gesamten Lebenszyklus einer Business-Applikation mit einbezieht. Da viele Produkte erst an die neue Technologie angepasst werden müssen, wird man erst in zwei bis drei Jahren einen wirklichen Nutzen aus der Initiative herausholen können. Und bis zu den sogenannten «Self healing»-Systemen, einem der Fernziele der DSI-Strategie, dürften gar noch viele Jahre ins Land ziehen.