cnt
Hybride Arrays und Clouds, Software Defined Storage und konvergente Systeme
Quelle: istockphoto

Hybride Arrays und Clouds, Software Defined Storage und konvergente Systeme

Von Christoph Schnidrig

IT-Verantwortliche werden heute mit unzähligen Schlagwörtern konfrontiert, auch und insbesondere wenn es um das Thema Storage geht. Was ist dabei wirklich wichtig und hat einen direkten Einfluss auf die aktuelle und zukünftige Storage-Strategie? «Swiss IT Magazine» hat die wichtigsten Storage-Trends aus- findig gemacht.

Artikel erschienen in Swiss IT Magazine 2015/04

     

Getrieben durch Technologie sehen wir enormen Veränderungen in der Wirtschaft entgegen. Man spricht von der grossen Transformation oder auch Industrie 4.0. Dabei werden Technologien wie 3D-Printing die produzierende Industrie fundamental verändern. Das Internet of Things (IoT), schon lange angepriesen durch die grossen Netzwerkanbieter, wird Realität und die Sensoren unzähliger vernetzter Geräte liefern grosse Datenmengen, die analysiert werden müssen.
Durch diese Veränderungen und um den neuen Anforderungen gerecht zu werden, respektive die neuen Geschäftsprozesse überhaupt erst zu ermöglichen, werden neue Ansätze in der IT notwendig. Man spricht dabei von der dritten IT-Plattform, die nach der Client/Server-Ära neue Ansätze in den Bereichen Mobility, Cloud, Social Business sowie Big Data und Analytics liefert – und natürlich auch das Thema Storage betrifft.
In diesem Zusammenhang gibt es viele Schlagwörter und Stossrichtungen. Nachfolgend stellen wir die wichtigsten Trends im Storage-Bereich vor.

Internet of Things und Big Data Analytics

Die Kombination der beiden Themenbereiche Internet of Things und Big Data Analytics wird das Rezept für bahnbrechende Innovationen und den Technologien zum Durchbruch verhelfen. Daten sind bereits heute der Rohstoff Nummer 1 für viele Unternehmen.
Die Vernetzung von Kaffeemaschinen, Autos oder Home-Automation ermöglicht die Sammlung von Daten und bietet damit die Grundlage für die Analyse von Verhaltens- und Verbrauchsmustern. Zunächst müssen die Daten aber vorhanden sein. Dazu müssen Produkte angepasst und erweitert werden. Als Beispiel versehen Autohersteller ihre Fahrzeuge mit Kommunikationssystemen, welche Daten zurück senden.
Zusätzlich braucht es neue IT-Systeme, respektive die Möglichkeit, bestehende Systeme mit den nötigen Funktionen zu versehen. Beim Automobilbauer Tesla sind das All-Flash-Systeme, die die Datenflut entgegennehmen und dann in Analytiksystemen weiterverarbeiten, um aus den Daten einen Mehrwert für Kunden und die interne Entwicklung zu schaffen – zum Beispiel nötige Software-Anpassungen zu identifizieren oder Kunden zum Service in die Garage aufzubieten.

Zukunft von All-Flash Arrays

Neue Flash-Technologien werden den Einsatzbereich, dank sinkender Kosten und höherer Verfügbarkeit, stark erweitern. Gleichzeitig steigt jedoch der nutzbare Platz bei Disks stark an und bietet auch entsprechend tiefere Preise. Das angepriesene Wundermittel der Datenreduktion durch Deduplizierung und Komprimierung kann auf beide Medien gleichermassen angewendet werden und hilft dabei nicht, die eine oder andere Technologie zu bevorzugen.
Parallel zur steigenden Datenmenge vergrössert sich in den Unternehmen der Anteil von nicht genutzten Daten und damit drängt sich der Einsatz von günstigen SATA-Harddisks (HDDs) auf. Als solche sogenannt kalte Daten können zum Beispiel Archiv- und Backup-Daten gezählt werden. Zukünftige Technologien werden die Datendichte bei SATA-HDDs nochmals deutlich erhöhen. Eine solche sind sogenannte Shingled Drives. Dabei überlappen sich die Schreibspuren auf den Disks. Zwar können bei solchen Drives die Daten nicht mehr überschrieben werden, jedoch ist das bei Archiv-Daten auch nicht gefordert – Endresultat ist die deutlich günstigere Datenhaltung.
Aufgrund dieser Punkte werden in naher Zukunft in den allermeisten Fällen hybride Systeme gefragt und Technologien gefordert sein, die die Daten transparent zwischen den zweckmässigen Medien (SSD oder SATA-HDD) umherschieben können.

Multi-Vendor Hybrid-Clouds

Dass die Zukunft bei hybriden Cloud-Modellen liegt, ist bereits allgemein akzeptiert. Der Trend geht dahin, dass mehr Fokus und Effort auf die Business IT gelegt wird und somit die geschäftskritischen und elementaren Dienste schneller und flexibler bereitgestellt werden können.
Dienste wie E-Mail können heute einfach ausgelagert und als Standardservice bezogen werden. Ein grosser Pain-Point sind heute immer noch Backups. Die Nerven und Zeit der Administratoren werden damit arg strapaziert. Weiter ist die geforderte, maximale Performance oft nur aufgrund der hohen Last beim Backup nötig. In diesem Bereich entstehen darum gerade viele neue Services, die unter anderem von lokalen Providern angeboten werden (siehe Marktübersicht ab Seite 43).
Die EU hat zu Beginn des Jahres 2015 einen neuen Vorschlag für eine EU-weite Datenschutzvereinbarung vorgelegt, worin die Verarbeitung von Personendaten reglementiert wird. Diese Vereinbarung könnte den Trend zu ausländischen Cloud-Anbietern weiter verlangsamen und stattdessen lokalen, inländischen Angeboten Rückenwind verschaffen. Dabei ist Backup as a Service bei weitem nicht der einzige Anwendungsbereich für einen externen Cloud-Service. Unternehmen müssen sich heute auch überlegen, ob sie ihr primäres Rechenzentrum zwar noch selber betreiben, das zweite jedoch in einer Cloud abbilden wollen (Disaster Recovery as a Service).
Eine grosse Herausforderung beim hybriden Ansatz ist das Management der Daten. Ein virtueller Server ist schnell am gewünschten Standort gestartet. Netzwerkpakete können über x-beliebige Wege zum Ziel transportiert werden. Bei den Daten sieht das ein bisschen anders aus. Der Verlust des falschen Bits kann ganze Datensätze unbrauchbar machen. Daten zu verschieben ist mit einem Schwertransport zu vergleichen.

Software Defined Storage

Die Definition von Software Defined Storage (SDS), eines der momentan marketing-technisch ausgereizteren Schlagworte, wird zunehmend klarer. Eine der Hauptaufgaben ist es, eine einheitliche Datenmanagement-Schicht zur Verfügung zu stellen. Dadurch können Daten flexibel zwischen den verschiedenen Cloud-Anbietern und der internen IT verschoben werden. Weiter stehen, egal wo, immer die selben Tools, Schnittstellen und Kommandos zur Verfügung.
Damit dies möglich wird, ist SDS von der Hardware, ähnlich wie bei der Server-Virtualisierung, abstrahiert (mehr ab Seite 38). So können Daten flexibel und unterbruchsfrei von einer Hardware auf die andere transportiert werden. Denn bei aller Virtualisierung: Ohne Hardware funktioniert heute nach wie vor gar nichts.
Ein nächster Punkt ist die Automatisierung, die aufgrund der virtualisierten Komponenten überhaupt erst möglich wird. Damit werden Services definiert und die Selbstbedienung in der IT möglich. Die Zweckmässigkeit und die Vorteile dieses Ansatzes müssen im Einzelnen für das eigene Unternehmen bestimmt werden. Daraus lässt sich dann die Strategie der Nutzung von externen Services respektive die Entwicklung der internen Infrastruktur ableiten.

Deutliches Wachstum konvergenter Systeme

Der Aufbau von IT-Infrastrukturen ist ein Husarenritt. Server, Netzwerk und Storage müssen evaluiert, entworfen und aufeinander abgestimmt werden. Nicht zuletzt liegt der Teufel im Detail und man muss Technologien in der Tiefe kennen, um seine Infrastruktur stabil und performant aufbauen und betreiben zu können. Schliesslich müssen Fragen zum Hypervisor, Betriebssystemen und nicht zuletzt auch zum Backup und Disaster Recovery (DR) geklärt werden.
Es ist viel Arbeit, bis man sich mit dem Business darüber unterhalten kann, welche Mehrwerte ihnen die IT bieten kann. Aus diesem Grund sind die sogenannten Converged Systems auf dem Vormarsch. Auch hier verfolgen unterschiedliche Hersteller verschiedene Ansätze. Für den Endkunden sollte die End-zu-End-Lösung im Zentrum stehen. Denn nur, wenn die eingesetzte Plattform die Mehrzahl der Anforderungen erfüllt und die Infrastruktur ganzheitlich abgebildet wird, bringt sie die gewünschten Vorteile und Flexibilität. Sprich: Auch Backup, DR, Applikationsintegration oder Cloud-Anbindung müssen in Betracht gezogen werden. Ansonsten bildet sich ein weiteres Silo, das weitere Herausforderungen rund um den Betrieb mit sich bringt. Aufgrund des Wachstumspotentials in diesem Bereich tummeln sich gerade hier viele Lösungen, die den initialen Hype-Status noch nicht verlassen haben.

Ernsthafte Konkurrenz für Hypervisor

Der letzte Trend ist wohl jener, der noch am weitesten entfernt ist, speziell für KMU ohne Software-Entwicklung. Grundsätzlich geht es um einen neuartigen IT-Ansatz, der sich Devops (Development Operations) nennt. Entwickelt man eigene Software, gibt es dafür eigene Abteilungen, die ihre Applikationen für den Betrieb an andere Abteilungen übergeben. Dabei muss in jedem Bereich, sei es in der Entwicklung, im Test oder in der Produktion, immer wieder aufwendig IT-Infrastruktur aufgebaut werden. Zudem haben verschiedene Applikationen oft auch unterschiedliche Anforderungen und Abhängigkeiten, weshalb sie in unterschiedlichen Servern respektive virtuellen Maschinen betrieben werden müssen.
Es gibt hierfür einen neuen Ansatz, sogenannte Container, mit denen sich virtuelle Instanzen isoliert voneinander auf demselben Betriebssystem betreiben lassen. Diese Container sind viel kleiner und deshalb viel einfacher zu migrieren, zu sichern und haben deutlich kleinere Speicheranforderungen als bestehende Hypervisor-Lösungen. Zudem wird die Konfiguration und Abhängigkeit dieser Container entsprechend schon bei der Entwicklung der Applikation festgelegt. Dies ist der Grundstein dafür, dass die Applikationen sehr einfach, viel häufiger und mit massiv tieferen Aufwänden in die Produktion gebracht werden können – das eigentliche Hauptziel von Devops.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER