Die Speicherindustrie entwickelt sich schneller als je zuvor. Marktforscher rechnen mit enormen jährlichen Datenzuwachsraten von bis zu 40 Prozent. Das Gesamtspeichervolumen soll bis 2020 über 50 Zettabyte (ZB) betragen – eine Datenmenge, die vor einigen Jahren noch unvorstellbar war.
Der Erfolg von Unternehmen, sei es eines mit fünf Mitarbeitern oder eines der Global Fortune 500, hängt somit zunehmend mit dessen Speicherstrategie zusammen, denn diese bildet das Fundament, auf dem alles andere aufbaut. Und das muss sicher und felsenfest sein sowie aus den zuverlässigsten Komponenten bestehen.
Die Speicher-Landschaft ist aber auch zunehmend komplexer geworden, neue Technologien, Modelle und Konzepte entern den Markt, und der Wald an möglichen Optionen, sei es bei der Datensicherung, Backup-Strategie oder Datenanalyse, wird immer dichter. Trotzdem lassen sich einige Hauptströme erkennen, wenn es darum geht, zu erkennen, welche Trends in naher Zukunft die Möglichkeit bieten, das Geschäftsmodell von Unternehmen nachhaltig positiv zu beeinflussen.
Automatisierung, Cloud & Backup
Der Bedarf an Automatisierung auf breiter Front ist da. Die Tage der Band- und manuellen Sicherung gehören der Vergangenheit an und das Thema Cloud müsste deutlich auf dem Firmenradar zu erkennen sein. Angesichts der hinter jeder Ecke lauernden potenziellen Sicherheitsverletzungen ist es heute ausserdem wichtiger denn je, kritische Backup-Prozesse zu automatisieren, anstatt es dem Zufall zu überlassen, dass die Mitarbeiter daran denken, das Backup zu aktivieren.
Hierbei geht der Trend in Richtung Appliance-basierten Backups im Zusammenspiel mit geo-redundantem Cloud-Speicher. So können automatische Backups erstellt werden, wobei die Daten dank Speicherung in der Cloud wiederhergestellt werden können, egal was lokal mit ihnen passiert: Etwa durch bösartige Angriffe, wie etwa Ransomware, die alle Dateien im Netzwerk verschlüsseln und somit unbrauchbar machen kann, oder durch unvorsichtige Mitarbeiter, die vielleicht aus Versehen wichtige Dateien löschen. Dank geo-redundanter Speicherung werden sämtliche Daten in mehreren Rechenzentren gesichert und können sogar dann wiederhergestellt werden, wenn einer der Speicherstandorte ausfällt, etwa durch eine Beschädigung der Infrastruktur. Die Cloud erlaubt es Unternehmen einerseits die Kontrolle über kritische Geschäftsdaten zu behalten und gleichzeitig die Skalierbarkeit, Kosteneffizienz und Flexibilität von Software-as-a-Service (Saas)-Lösungen zu nutzen. Diese Art von Backup-Lösung trägt damit im Wesentlichen dazu bei, Datenverlust und Ausfallzeiten zu vermeiden. Ausserdem erlaubt eine Speicherstrategie, die auf der Cloud basiert, Mitarbeitenden auch dann zu arbeiten, wenn die eigene Infrastruktur ausser Betrieb ist, indem diese ganz einfach remote auf die Daten in der Cloud zugreifen. Wenn Backup-Daten in die Cloud verlagert werden, können diese zudem für Migration, Entwicklung und Tests, Daten-Analyse und mehr wiederverwendet werden, wodurch sich wiederum Mehrwert generieren lässt.
Künstliche Intelligenz
Doch auch Rechenzentren entwickeln sich weiter, und Künstliche Intelligenz (KI) spielt zunehmend eine Rolle bei deren Konzeption und Entwicklung. Die Implementierung von KI, im Sinne von lernfähigen Algorithmen und Systemen, birgt zahlreiche Vorteile für den Endanwender. So können KI-gestützte Technologien die Energieeffizienz von Rechenzentren enorm steigern. Google verkündete etwa unlängst, dass durch den Einsatz von KI der Energieverbrauch in den eigenen Datenzentren um bis zu 40 Prozent gesenkt werden konnte.
Andere Vorteile von KI liegen auf der Hand: So birgt die Technologie etwa das Potential, den Geschäftsbetrieb zu modernisieren, indem Daten um ein Vielfaches schneller analysiert werden können oder kann durch die bestmögliche Verteilung von Arbeitslasten die Serverauslastung optimieren und dadurch die Effizienz steigern. Zentral dürfte aber auch der Einsatz als Sicherheitsmechanismus sein. So können Systeme mit Hilfe von Machine-Learning-basierten Systemen rund um die Uhr automatisch überwacht werden, während die Systeme Angriffen und Angriffsvektoren dank Non-Stop-Analyse von Mustern, Daten und -bewegungen stets einen Schritt voraus ist. Ins Detail zum Thema Machine Learning und Sicherheit in der Cloud geht Vesselin Tzvetkov, Senior Security Consultant bei AWS Professional Services, in seinem Fachartikel ab Seite 39.
Flash- & Objekt-Speicher
Durch die kontinuierliche Weiterentwicklung klettern Solid-State-Laufwerke (SSDs) in der Hierarchie von Speichersystemen immer weiter nach oben. Ob vor Ort, in Cloud-Umgebungen oder als Teil einer hybriden Systemarchitektur, Flash-Speicher bietet zahlreiche Vorteile in Bezug auf Geschwindigkeit und Effizienz. Heute kann Flash-Speicher dank seiner wachsenden Komplexität Informationen in Echtzeit (oder nahezu in Echtzeit) liefern und hat deutliche Vorteile gegenüber Festplatten (HDDs) sowohl in Sachen Leistung als auch bei den Betriebskosten. Gleichzeitig sinken die Preise und die Leistung von SSDs verbessert sich von Jahr zu Jahr. All-Flash-Arrays sind so mittlerweile durchaus zu einer ernstzunehmenden Option geworden, um die traditionelle HDD-Infrastruktur zu ersetzten. Und auch im Zusammenspiel mit der Cloud könnte Flash-Speicher eine wichtige Rolle spielen. So stellt die Einführung von Flash neue Leistungserwartungen an Rechenzentren, etwa in Bezug auf ambitionierte Recovery Time Objectives (RTOs), die bisher nur auf kritische Workloads beschränkt waren, nunmehr aber zunehmend auch für nicht-kritische Prozesse und Daten zum neuen Standard werden. Mit Flash-Speicher können die zurzeit leistungsstärksten Backups und Wiederherstellungen implementiert werden, und die Geschwindigkeit der Wiederherstellung von All-Flash-Produktionssystemen ist der von traditionellen Band- oder Harddisk-Lösungen deutlich überlegen. Flash-Backups können zudem auch verwendet werden, um mehr gleichzeitige Server-Backups zu ermöglichen, was wiederum zu einer besseren Auslastung bei gleichem Umfang führt. Dieser Meinung ist auch Markus Grau, Principal Systems Engineer bei Pure Storage, in seinem
Fachartikel ab Seite 32.
Das Backup-Problem ist damit aber keineswegs gelöst. Denn auch wenn Flash-Speicher für eine schnelle Wiederherstellung verwendet wird, müssen grosse Datenmengen zur Archivierung und Einhaltung gesetzlicher Vorschriften ausserhalb des Unternehmens gespeichert werden. Dazu kommt immer noch in erster Linie Bandspeicher zum Einsatz. Der eigentliche Nachteil der Bandspeicherung besteht darin, dass Daten irgendwo ausserhalb des Netzwerks abgelegt werden und so keinen Wert für das Unternehmen generieren können. Eine mögliche Lösung für dieses Problem heisst Objektspeicher (auch bekannt als Objekt-basierter Speicher). Dabei handelt es sich um eine Datenspeicherarchitektur, die Daten als Objekte verwaltet, im Gegensatz zu anderen Speicherarchitekturen wie Dateisystemen, die Daten als Dateihierarchie verwalten, und Blockspeichern, die Daten als Blöcke innerhalb von Sektoren und Spuren verwalten.
Solche Systeme ermöglichen die Speicherung grosser Mengen unstrukturierter Daten und eignen sich besonders für Daten, auf die zugegriffen werden muss, die aber nicht bearbeitet werden. Objektspeicher kommt etwa zur Speicherung von Fotos auf Facebook, Songs auf Spotify oder Dateien in Online-Speicherdiensten wie Dropbox zum Einsatz, eignet sich aber auch besonders gut für Firmen-Backups. Denn dieser ist praktisch unbegrenzt skalierbar. In einer Welt, in der die Menge der erzeugten Daten exponentiell wächst, ist dies sicher eine gute Voraussetzung. Zu beachten ist jedoch, dass Daten nicht bearbeitet werden können, ohne das gesamte Objekt neu zu schreiben.
Cloud-Objektspeicher ermöglichen heute aber sicher eine kostengünstige, belastbare und sichere Datenhaltung und gehört definitiv zu den Top Speicher-Trends. Was es mit Objektspeicher genau auf sich hat und welches Potential dieser Speicher-Trend entfalten könnte, erfahren Sie im Fachbeitrag ab Seite 46 von Mathias Wenig, Senior Manager TS und Digital Transformation Specialist bei Veritas.
(swe)