Die Rolle des Speichers im Netz
Artikel erschienen in Swiss IT Magazine 2009/02
Heutzutage sehen sich IT-Abteilungen mit einer immer grösser werdenden Zahl interner und externer Geschäftsanforderungen konfrontiert, bei denen Rechenzentren und Daten eine strategische Ressource darstellen. Für die meisten Unternehmen sind die Daten neben den Mitarbeitern das wichtigste Gut. Daher hat das Datenmanagement eine enorm wichtige Rolle im Unternehmen eingenommen.
Das Datenmanagement ist in Rechenzentren die Garantie für den durchgängigen Zugriff auf benötigte Informationen. Dabei besteht das Datenmanagement schon lange nicht mehr aus der Kontrolle über die verfügbaren Speicherressourcen oder der Überwachung, ob die Speicherlösungen fehlerlos ihren Dienst verrichten. Vielmehr ist das Datenmanagement zu einer strategischen Komponente im Unternehmen geworden. Es sorgt heute für die Sicherheit der Daten, für die sinnvolle Verteilung auf unterschiedliche Speicherressourcen, für das Datenmanagement in Filialen und vor allem für die betriebswirtschaftliche Nutzung dieser Ressourcen. Diese wichtigen Rollen hat die Speicherabteilung erst mit der Einführung von Speichernetzen und erweiterten Servertechnologien bekommen. Die Abkopplung der Datenadministration von den Servern und Anwendungen erlaubt fortschrittliche und oftmals komplexe Konzepte wie beispielsweise die Virtualisierung.
Nach wie vor gibt es drei unterschiedliche Konzepte für die Datenspeicherung: DAS, NAS und SAN. In sehr kleinen Umgebungen kann das traditionelle DAS (Direct Attached Storage) immer noch eine sinnvolle Variante sein. Diese Form des Datenhaltung ist wohl die älteste und einfachste und sie erlaubt sehr wenig Flexibilität. Dies ist ideal für kleine Büros mit geringen Datenmengen. Besser geeignet für den Einsatz in grösseren und komplexeren Unternehmen ist das NAS (Network Attached Storage). Dieser Speicher kann im Vergleich zum DAS von allen Servern im Netzwerk genutzt werden.
Die heute jedoch am weitesten entwickelte Speicherinfrastruktur ist das SAN (Storage Area Network). Hier wird eigens für den Speicher, der wiederum aus vielen einzelnen Speicherlösungen bestehen kann, ein separates Netzwerk aufgebaut, das ausschliesslich für die Anforderungen einer Speicherinfrastruktur konzipiert ist. Es erlaubt eine wesentlich höhere Leistung, Sicherheit und vor allem ein Datenmanagement, das weder DAS noch NAS leisten können. SANs gelten daher ab einer bestimmten Grössenordnung der zu verwaltenden Daten als Standard.
Gleichzeitig mit der Entwicklung der drei Speicherinfrastrukturen DAS, NAS und SAN begann das Wettrennen der unterschiedlichen Protokolle. DAS beispielsweise basiert hauptsächlich auf den der SCSI-Anbindung, welche maximal zwei Serveranbindungen und vor allem eine sehr begrenzte Bandbreite und Distanz bietet.
Parallel dazu entwickelten sich die Protokolle für Mainframe-Umgebungen, die bis heute sehr leistungsfähige Lösungen darstellen. Die Protokolle für die Speicheranbindung reichten von Bus-and-Tag über ESCON bis zum heutigen FICON, das eine Bandbreite von 100 MB pro Sekunde über 20 Kilometer und im Full-Duplex-Betrieb ermöglicht.
Im Bereich des SAN und auch des NAS ist seit den 90er-Jahren die Fibre-Channel-Technologie der Standard. Fibre Channel bietet mit maximal 8 Gbit/s sehr hohe Bandbreiten und ist ausschliesslich für komplexe Anforderungen in Speicherumgebungen optimiert. Im Vergleich zu klassischen Netzwerken, beispielsweise dem LAN, verliert das Fibre Channel keine Datenblöcke, es ist nicht unterbrechbar und hat sehr geringe Latenzzeiten. Zusätzlich zum Fibre Channel versuchten unterschiedliche Hersteller immer wieder, neue Technologien und Protokolle im SAN zu etablieren. Vielversprechend waren beispielsweise die iSCSI-Technologie oder FCIP. Oft war vom Ende des Fibre Channel die Rede; eingetroffen ist dies jedoch nicht. Fibre Channel ist technologisch nach wie vor ungeschlagen und heute der Standard im SAN.
Seit einigen Monaten steht wieder eine neue Technologie in den Startlöchern, um den vermeintlichen Siegeszug im SAN anzutreten: Fibre Channel over Ethernet (FCoE). Viele Verfechter dieser neuen Technologie versprechen wesentlich kostengünstigere Speichernetze bei gleicher Qualität wie bei Fibre Channel. Konservativere Vertreter gehen von einer Komplementär-Technologie aus, die zumindest in den ersten Jahren neben den eventuellen Kinderkrankheiten teurer als Fibre Channel sein wird.
Der Druck, die Kosten zu reduzieren, die Daten zu sichern und die Flexibilität zu steigern – und das angesichts eines Datenwachstums, verbunden mit zunehmender Servervirtualisierung – sind massgebliche Ursachen für eine grundsätzliche Transformation des Rechenzentrums. Hauptursache dafür ist die grundlegende Anforderung, die Infrastruktur des Rechenzentrums zu konsolidieren, weiterzuentwickeln und zu automatisieren. Nur intelligente Netzwerke stellen sicher, dass Ressourcen effizient zugewiesen werden und auch bei sehr dynamischem Workload ausreichende Verfügbarkeit garantiert wird. Das Rechenzentrum der Zukunft erfordert innovative Technologien in den SAN Fabrics (SAN-Netzwerkinfrastruktur), die eine Server-to-Server-, Server-to-Storage- sowie Storage-to-Storage-Verbindung ermöglicht und ein flexibles, dynamisches Routing zwischen Fabrics bietet.
Die wichtigsten Ziele in Rechenzentren sind die Konsolidierung physischer Ressourcen zu offenen Ressourcen-Pools und der Ersatz fester, physischer Zuordnungen zwischen Anwendungen und Daten durch dynamische, virtuelle Verbindungen. Zur Anwendung kommen virtuelle Server- und Storage-Lösungen sowie optimierte Infrastrukturlösungen um Mobilität, Schutz und Sicherheit der Daten und die Verbesserung der Kosten- und Energieeffizienz zu erreichen.
Um den zunehmenden Herausforderungen gerecht zu werden, muss das Rechenzentrum über eine hochgradig verknüpfte und skalierbare Netzwerkinfrastruktur verfügen. Sie muss für virtuelle Serverumgebungen optimiert sein und intelligente beziehungsweise anwendungsbezogene Services bereitstellen. Zudem soll sie einen sehr hohen Grad an Energie- und Platzeffizienz bieten, um mit den Beschränkungen der Umgebung im Rechenzentrum zurechtzukommen. Und schliesslich muss die Fabric ein hohes Mass an Automatisierung bieten, basierend auf anwendungsbezogenen Richtlinien.
Eines der wichtigsten Elemente für den Fortschritt im Rechenzentrum ist die Konsolidierung, die erstmals durch die weite Verbreitung der SAN-Technologie ermöglicht wurde. Heute ist es die Server-Konsolidierung, die eine fundamentale Anpassung oder Änderung der Fabrics verlangt, um hunderte oder vielleicht sogar tausende virtueller Rechner zu unterstützen. Und um noch grössere Effizienzsteigerungen in den Bereichen Management und Energieverbrauch zu erzielen, müssen Unternehmen viele kleine SANs zu wenigen, immer grösseren SANs konsolidieren.
Ein Rechenzentrum erfordert eine hochgradig integrierte Fabric-Infrastruktur, die zuverlässig, sicher und anpassungsfähig ist. Sie muss beispielsweise für virtuelle Server-Anwendungen optimierbar sein, um expandierende Umgebungen virtueller Server zu ermöglichen und zu unterstützen. Darüber hinaus sollte die integrierte Intelligenz genutzt werden, um gezielt auf einzelne Anwendungen zugeschnittene Services bereitstellen zu können. Und schliesslich ist ein hohes Mass an Automatisierung wichtig, basierend auf anwendungsorientierten Richtlinien.
Die Fabric muss heute hauptsächlich die Servervirtualisierung in Hinsicht auf den schnellen Datenzugriff und die Anwendungsmobilität optimieren. Da Anwendungen zunehmend über mehrere virtuelle Server und Infrastrukturen verteilt werden, muss die Infrastruktur entsprechend ausgelegt sein und die Fähigkeiten besitzen, virtuelle Server optimal zu unterstützen, beispielsweise durch die Bereitstellung von virtuellen Kanälen im Fabric. Für einen nahtlosen Zugriff auf gemeinsam genutzte Storage-Ressourcen und Netzwerkservices, benötigt die Servervirtualisierung auch eine Verwaltung der virtuellen End-to-End-Kommunikation (Server-zu-Storage über eine gemeinsam genutzte physische Verbindung). Hier helfen auch neue Technologien des Service-Managements, welche unter dem Begriff «Adaptive Networking» zusammengefasst werden und verschiedene Möglichkeiten der Priorisierung und Bandbreitensicherung beinhalten.
Nach der Einrichtung eines SAN mit umfassender Konnektivität, hoher Performance, Servervirtualisierung sowie flexibler Partitionierung können Unternehmen eine breite Palette intelligenter Anwendungsservices nutzen. Dank der Verfügbarkeit von «Plug-in»-Services kann die Fabric Anwendungsserver entlasten, was für höhere Datensicherheit, Datenmobilität und End-to-End-Sicherheit sorgt. Dazu gehört auch die Verschlüsselung von Daten, was bei der heutigen Anzahl an bekannten Datenmissbrauchsfällen jedem Unternehmen anzuraten ist. Dabei werden die Daten im Speichernetz verschlüsselt, so dass keine Informationen in Klartext über das unternehmensweite Netzwerk geschickt werden. Komponenten wie diese helfen beim Schutz gegen kriminelle Aktionen und ermöglichen die Einhaltung von weltweiten oder branchenspezifischen Compliance-Anforderungen.
Das SAN ist heute nicht nur ein vom restlichen Netzwerk separiertes Netz zur Datenbereitstellung. Die fortschreitende Intelligenz in einem SAN ist die Basis für neue Technologien, und das SAN übernimmt heute Funktionen, die in der Vergangenheit von Servern geleistet wurde. Durch die klare Abtrennung vom Datenmanagement und der serverseitigen Applikationsverarbeitung lassen sich leistungsfähigere Infrastrukturen einrichten, die nicht nur die heutigen Anforderungen erfüllen, sondern künftige Innovationen und Technologien ermöglichen. Damit rückt das SAN noch weiter in den strategischen Mittelpunkt von Rechenzentren.
Marco DeLuca ist Lead Solutions Architect bei Brocade.