Neue Ansprüche an das Netzwerk
Artikel erschienen in Swiss IT Magazine 2010/07
Das Netzwerk steht zunehmend im Mittelpunkt, wenn Organisationen mit Infrastruktur-Erneuerungen Kosten senken, den Service verbessern und Risiken besser managen möchten. Richtige Entscheidungen im Netzwerkbereich sind von zentraler Bedeutung, um nachhaltig Infrastrukturvorteile zu erzielen und ein Höchstmass an Effizienz sicherzustellen. Dennoch konzentrieren sich viele Organisationen bislang zu sehr auf die Optimierung von Server- und Storage-Hardware und vernachlässigen Verbesserungen im Bereich des Netzwerks. Doch was ist bei der Optimierung des Netzwerkbereiches zu beachten?
Damit Performance- und Sicherheitsoptimierungen erfolgreich sind, gibt es verschiedene Herangehensweisen. So etwa einen «Dynamic Infrastructure»-Ansatz, der Unternehmen einen Fahrplan bietet, Kosteneinsparungen, Service-Verbesserung und Risikosenkung in der IT-Infrastruktur zu realisieren. Data-Center-Networking-Lösungen sind dabei ein integraler Bestandteil und gleichzeitig Voraussetzung für Cloud Computing.
Die Virtualisierung von IT-Ressourcen kann vielfältige Vorteile bringen, wie Platz- und Energieeinsparungen sowie reduzierte Betriebskosten. Sie versetzt die IT in die Lage, schnell auf neue Service-Anforderungen oder Lastspitzen zu reagieren. Netzwerke spielen dabei eine zentrale Rolle. Sie müssen noch strengeren Leistungs- und Verfügbarkeitsanforderungen genügen, um einen schnellen und zuverlässigen Zugang zu virtualisierten Ressourcen zu ermöglichen. Flexibilität und Schnelligkeit sind wichtige Merkmale, damit für eine möglichst effiziente Nutzung der IT-Ressourcen Lasten verschoben werden können. Netzwerke setzen eine robuste Sicherheit voraus, um den Schutz von Informationen sicherzustellen, damit diese nur an vertrauenswürdige Nutzer weitergegeben werden. Die richtige Netzwerkkonzeption ist entscheidend, um die Vorteile der Virtualisierung gewinnbringend nutzen zu können.
Bei hochgradig virtualisierten Infrastrukturen, wie etwa Clouds, können neue Anforderungen an das Netzwerk zu einem Flaschenhals werden. Dies erfordert eine neue Herangehensweise. Organisationen sollten Netzwerke als integralen Teil der Storage-, Server- und Applikationsvirtualisierung planen, auslegen und implementieren. Darüber hinaus ist es wichtig, dass die Kunden den Wert und die potentiellen Stolpersteine neuer Technologien kennen; gute Beispiele für neue Technologien mit Vor- und auch Nachteilen sind Edge Virtual Bridging (EVB) und Fibre Channel over Ethernet (FCoE).
Seit mehr als zwölf Jahren sorgt Fibre Channel (FC) in Storage-Netzwerken für Zuverlässigkeit, Leistung und Netzwerkintelligenz – insbesondere für Applikationen, welche auf eine niedrige Latenz und hohe Bandbreite angewiesen sind. Ethernet ist der eingeführte Standard für Verbindungen zwischen Computern. FCoE ist ein Enkapsulierungsprotokoll, welches die Übertragung von FC-Datenverkehr über eine neue Ethernet-Version, das sogenannte Converged Enhanced Ethernet (CEE), ermög-licht. Da FCoE dafür ausgelegt ist, FC zu entkapsulieren, ohne dessen Frames zu verändern, können FCoE-Lösungen ohne Unterbrechungen zu vorhandenen FC-Umgebungen hinzugefügt werden.
FCoE ist am Anfang seiner Entwicklung, und es gibt noch offene Punkte. Zum Beispiel die CEE-Standardisierung, welche noch nicht vollständig abgeschlossen ist. CEE beruht auf der Standardisierung durch die Data Center Bridging (DCB) Task Group als Teil der IEEE 802.1 Working Group und soll künftig den Transport von FCoE zuverlässig und verlustfrei ermöglichen. Zudem soll die DCB-Gruppe Ethernet deutlich weiterentwickeln, so dass alle Anwendungen und Protokolle davon profitieren. Ein weiterer grosser Vorteil: CEE ist rückwärtskompatibel. Die steile 10-GbE-Kostenkurve, interne Politik/Team-Strukturen sowie Fragen hinsichtlich der Sicherheit oder der Service Level Agreements (SLAs) sind in diesem Zusammenhang zu beantworten. Eine intelligente Netzwerkstrategie für das Datenzentrum mit FCoE sollte so konzipiert sein, dass existierende und künftige Technologien reibungslos sund vor allem ohne intensive Anpassungen integriert werden können. So können die Vorteile der neuen Technologie genutzt werden, während die Kosten/Risiko-Struktur unter Kontrolle bleibt.
Die frühen FCoE-Implementierungen werden zuerst auf der Server-Seite umgesetzt, bevor sie im nächsten Schritt bis in die Tiefen des Datenzentrums einziehen. Es ist daher wichtig, mit einem Anbieter zusammenzuarbeiten, der Rückwärts- und Vorwärtsinteroperabilität bei seinen Server-Anschlusslösungen bietet, zumindest bis die Standards für die vollständige Implementierung bereit stehen. Auf diese Weise können Organisationen die vorhandenen FC-Infrastrukturen nutzen und gleichzeitig die Grundlagen für zukünftige FCoE-Implementierungen schaffen.
Die Möglichkeit, beide Technologien zusammen zu benutzen statt lediglich parallel, leistet einen wesentlichen Beitrag dazu, die Netzwerk-Infrastruktur zu vereinfachen – besonders bei der Verkabelung. Darüber hinaus reicht diese eine Schnittstelle am Server aus, um sowohl Netzwerk- als auch Storage-Funktionen anzubinden. Die leistungsfähige Kombination aus FCoE und CEE ermöglicht es Organisationen, ihre Server-I/Os unter Verwendung von Converged Network Adapter (CNA) zu konsolidieren. Als Ergebnis können sie die Anzahl der erforderlichen Storage- und Netzwerkadapter reduzieren, wodurch sich wiederum die Menge der Kabel und Switch-Anschlüsse in jeder FCoE/CEE-Konfiguration verringert.
Einfachere Hardware-Konfigurationen und entsprechende Server-I/O-Konsolidierung senken laufende Betriebskosten durch FCoE/CEE-Installationen, da geringere Kosten für Stromverbrauch und Kühlung anfallen. Zusätzliche Einsparungen bei den Betriebskosten werden durch geringere Diagnosekosten erreicht, da die vorhandenen Applikationen für das FC-Management weiterhin verwendet werden können.
CEE-Netzwerke können eine einzige physische Transportschicht für mehrere Protokolle wie zum Beispiel TCP/IP, Infiniband und FCoE nutzen. Diese Konsolidierung unterstützt Unternehmen dabei, unnötige Hardware und Kabel zu vermeiden, den Kapital- und Betriebsaufwand sowie die Komplexität des Systems zu reduzieren, was gleichzeitig das IT-Management vereinfacht. Hinzu kommt eine ökologische Komponente: Einfache IT-Strukturen senken den Stromverbrauch, so dass sich die CO2-Bilanz des Rechenzentrums verbessert.
Schlussendlich wachsen mit der Verabschiedung der DCB-Standards die Welten der SAN-und LAN-Netzwerke mithilfe von CNA-Adaptern immer mehr zusammen. Dies dient auch zur Unterstützung von Virtualisierungen und Clouds in dynamischen Infrastrukturen.