Bei Servern ist die Virtualisierung schon eine Selbstverständlichkeit. Dafür gibt es auch gute Gründe, denn diese virtuelle Umgebung ist um einiges flexibler, skalierbarer und einfacher zu handhaben als eine traditionelle Server-Infrastruktur. Unternehmen können damit schnell auf Veränderungen eingehen und ihren Bedarf an Rechenleistung flexibel und dynamisch den aktuellen Anforderungen anpassen. Doch wie sieht dies mit dem Netzwerk aus? Auch da sind die Anforderungen in den letzten Jahren zum Beispiel durch Cloud Computing, Big Data, Social Media und auch durch die Virtualisierung ständig gestiegen. Aber: Netzwerke hinken schon seit Längerem hinterher, wenn es darum geht, den steigenden Anforderungen optimal gerecht zu werden. Wer die heutigen Netzwerke mit jenen vor 20 Jahren vergleicht, stellt fest, dass sich diese nicht bemerkenswert verändert haben. Sie müssen nach wie vor manuell konfiguriert werden, was lange dauert sowie ressourcenintensiv und fehleranfällig ist.
Cloud braucht dynamisches Netz
Gerade beim Umzug in die Cloud stellen viele Unternehmen fest, dass ihre herkömmlichen Netzwerkarchitekturen zum Flaschenhals werden, wenn es darum geht, schnellen Zugang zu Anwendungen und Diensten zu gewähren. Die Cloud ist bekannt für Agilität, Geschwindigkeit und Einfachheit. Das funktioniert aber nur, wenn auch das Netzwerk mithalten kann. Die Trägheit der heutigen Netzwerke führt dazu, dass viele Unternehmen nicht in der Lage sind, Business-Chancen zu ergreifen. Viel zu lange dauert es, bis das Netzwerk entsprechend angepasst ist. Das wird noch viele Unternehmen vor grosse Herausforderungen stellen, denn gemäss IDC werden bis 2020 64 Prozent der IT aus der Cloud und nur 36 Prozent aus traditioneller IT stammen – heute ist das Verhältnis noch umgekehrt. Eine Erneuerung des Netzwerkes scheint also unumgänglich. Vielen Organisationen macht auch die Komplexität der bestehenden Fabrics in ihren Rechenzentren zu schaffen: Diese müssen für jedes Gerät aufwändig und manuell konfiguriert werden, was sehr fehleranfällig ist. Zudem bieten die Fabrics unzureichende Bandbreiten für datenintensive Anwendungen. Die heutigen Netzwerke sind zu starr, zu kompliziert im Management und zu wenig agil.
Die Lösung für diese Probleme lautet Software-defined Network, kurz SDN. Hinter den drei Buchstaben steht eine neue Netzwerk-Architektur. Das Besondere daran: Mit SDN werden Hardware, Control-Software und Anwendungen virtualisiert und über eine einzige Steuerungsebene verwaltet. Auf diese Weise wird im Prinzip die Steuerungsebene – die Software – von der physikalischen Infrastruktur – der Hardware – getrennt.
Das erlaubt es einem zentralisierten Controller (oder einem Set von Controllern), aufgrund einer High-Level Policy das Weiterleitungsverhalten der verschiedenen Datenströme zu definieren. Der Controller regelt so flexibel den Netzwerkverkehr und dessen komplette, logische Verwaltung (dynamische Allokation von Bandbreite). Mit dem Controller können alle Switches gesteuert werden, was das Management des Netzwerks um ein Vielfaches erleichtert (Automation). Dies macht sich vor allem bei einer grösseren Anzahl von Switches bemerkbar, denn in traditionellen Netzwerken müssen diese einzeln konfiguriert werden, was sehr zeitraubend und ressourcenintensiv ist.
SDN mit OpenflowDie SDN-Architektur enthält drei Ebenen: die Infrastruktur-, die Kontroll- und die Applikations-Ebene (siehe Grafik). Die Kommunikation zwischen Controller und Infrastruktur-ebene (Data/Forwarding Plane) erfolgt über ein spezielles Protokoll, beispielsweise Openflow. Dieses offene, standardisierte Protokoll wurde an der Stanford University in Kalifornien entwickelt. Derzeit wird es von vielen Herstellern wie NEC, Hewlett-Packard und IBM verwendet. Für die Anbindung der Anwendungen sind standardisierte Programmierschnittstellen (APIs) zuständig.
Optimal auslasten
Die zentrale Steuerung des Netzwerkflusses durch den Controller ermöglicht ein optimales Load Balancing, auch dynamische Allokation von Bandbreite genannt. Ganz im Gegensatz zu traditionellen Netzwerken, wo die Netzwerkkapazität fix den verschiedenen Anwendungen zugeteilt ist und nicht auf andere Data Planes verschoben werden kann. Wenn eine Anwendung gerade nicht im Einsatz ist, liegt auch die betreffende Netzwerkkapazität brach – das Netzwerk ist überprovisioniert – und das, obwohl die Kapazität andernorts bei einer aktiven, datenintensiven Anwendung gut gebraucht werden könnte. Bildlich gesprochen leben die einen im Überfluss, während die anderen verhungern. Das SDN praktiziert einen ressourcenschonenden Umgang. Es verteilt die Ressourcen dorthin, wo sie gerade gebraucht werden, und wenn die einen satt sind, wird wieder von neuem verteilt. Das ist möglich, weil im SDN der Controller Netzwerkkapazitäten flexibel von einem Datenstrom in einen anderen verschieben kann – dorthin, wo gerade Bedarf ist, was dazu führt, dass das Netzwerk immer optimal ausgelastet und sehr flexibel ist. Das ist beim ständig steigenden Netzwerkbedarf eine Eigenschaft, die das Portemonnaie schont.
Auch die Server-Virtualisierung hat dazu beigetragen, dass der Netzwerkbedarf in den letzten Jahren ständig angestiegen ist. Denn hinter einem einzigen Port können sich heute 50 virtualisierte Server befinden, von denen in einem Legacy-Netzwerk jeder einzelne eine eigene Netzwerk- und Security-Policy braucht, weil in dieser Art von Netzwerk eine 1:1-Beziehung zwischen dem Server und den Switch Ports existiert. Die Konfiguration muss über die Kommandozeile (Command Line Interface CLI) manuell erfolgen. Das ist nicht nur sehr fehleranfällig, sondern führt auch zu einem massiven administrativen Aufwand, der nicht kosteneffizient zu bewältigen ist. Im SDN hingegen wird die gesamte Netzwerk-infrastruktur durch einen Controller aufgrund einer Policy gesteuert. Dadurch kann das Netzwerk dynamisch und schnell an veränderte Anforderungen angepasst werden, weil es schnell Zugang zu neuen Anwendungen und Diensten gewähren kann.
SDN in der Praxis
Entscheidend dabei, ob sich SDN für ein Unternehmen lohnt, ist nicht die Grösse des Unternehmens, sondern vielmehr welche Anwendungen es betreibt. Wer beispielsweise datenintensive Applikationen wie Voice- und Videokommunikation nutzt, wird mit SDN eine frappante Verbesserung der Netzwerkgeschwindigkeit feststellen, weil aufgrund des Load Balancings die Spitzen an hohem Bedarf an Brandbreite optimal ausgeglichen werden.
Auch Unternehmen, die Bring your own Device (BYOD) praktizieren, können von SDN profitieren. Der zentralisierte Controller ermöglicht es dem Systemadministrator auf einfache Art und Weise, Sicherheitsrichtlinien im ganzen Netzwerk zu hinterlegen und schnell anzupassen, so dass auffällige Datenpakete gar nicht erst durch das Netzwerk gelassen werden, also bereits beim Port gestoppt werden. Viele Unternehmen betreiben heutzutage auch zwei Rechenzentren, welche sie durch ein Wide Area Network (WAN) miteinander verbinden. SDN sorgt da dafür, dass die Netzwerkkapazität immer optimal zwischen den Rechenzentren verteilt ist. Die Netzwerk-Power ist da, wo sie gerade gebraucht wird. Mit einem Software-defined Network können Unternehmen zudem dynamisch und schnell auf neue Geschäftsanforderungen reagieren, denn neue Anwendungen und Netzdienste können innerhalb von Stunden bereitgestellt werden. Mit einem traditionellen Netzwerk erfordert dies oft mehrere Tage oder gar Monate.
CERN nutzt SDN bereits
Seit Gartner das SDN 2011 in seinen Hype Cycle aufgenommen hat, zweifelt niemand mehr daran, dass dies ein Thema ist, das die IT-Branche bewegt. Praktische Erfahrungen mit SDN haben bisher vor allem Forschungseinrichtungen und Hochschulen wie die Stanford University oder das CERN, die Europäische Organisation für Kernforschung. Beim CERN in Genf wird SDN für das Load Balancing verwendet. Es hilft den Wissenschaftlern, die Petabytes an Daten, die sie generieren, sinnvoll und priorisiert zu erfassen und zu sammeln. Aber auch der Suchmaschinengigant Google nutzt SDN in seinen Rechenzentren, vor allem im WAN-Bereich.
Es ist nur eine Frage der Zeit, bis sich die neue Netzwerk-Architektur auch im kommerziellen Umfeld etablieren wird. Das wird aber nicht von heute auf morgen passieren. Der Weg zum Software-defined Network verläuft schrittweise und beginnt mit der Anpassung der Infrastruktur. Die Switches und Router in einer SDN-Infrastruktur müssen das Protokoll, das der SDN-Controller verwendet, nämlich erst mal verstehen. Das bedeutet im Extremfall den Austausch von älteren Systemen gegen neue, die über entsprechende Schnittstellen verfügen. Denn auch wenn beim SDN ganz klar die Software im Vordergrund steht, ohne entsprechende Hardware geht gar nichts.
Marco Wenzel ist Country Manager HP Networking bei HP Schweiz.