Mit In-Memory gegen die Datenflut

Auswertungen riesiger Datenmengen können dauern. In-Memory-Lösungen beschleunigen Prozesse – bisher für grosse und jetzt auch für kleinere Unternehmen.

Artikel erschienen in Swiss IT Magazine 2012/09

     

Als Big Data werden grosse Datenmengen ab etwa einem Terabyte bezeichnet. Kontinuierlich wachsende Datenbestände bergen das Wissen eines Unternehmens und sind damit ein wertvolles und wettbewerbskritisches Kapital. Die Daten stammen allerdings oft aus unterschiedlichen Quellen und sind nach verschiedenen Philosophien abgelegt. So entstehen aus vielen Gründen und diversen Verknüpfungen Multidimensionen. Das macht den Zugriff auf diese Daten und damit auf das Unternehmenswissen zu einer komplizierten und in der Regel extrem zeitaufwendigen Herausforderung.
Effizientes Datenmanagement ist nur ein Teil der Datenbewirtschaftung und reicht nicht aus, um das vorhandene Wissen effektiv zu nutzen. Unternehmen benötigen klar definierte Verfahren und Prozesse zur Sammlung, Auswertung und Darstellung der vorhandenen Daten. Die Gesamtheit dieser Prozesse wird als Business Intelligence (BI) bezeichnet. In der Praxis versteht man darunter bisher vor allem die Automatisierung des betrieblichen Berichtswesens (Reporting), zum Beispiel aus ERP- und CRM-Tools heraus. Die dafür notwendigen Informationen werden in einer eigenen Datenbasis, dem Data Warehouse, gespeichert.

Analyse enormer Datenmengen

Alle fünf Jahre gibt es mindestens eine Verdoppelung der verfügbaren Datenmenge – Unternehmen müssen sich je nach Grösse für die Zukunft auf Begriffe wie Tera-, Peta-, Exabytes einstellen. Die technischen und analytischen Verfahren zur Wissensgenerierung aus solch riesigen Datenbeständen werden als Big Data Analytics bezeichnet. Diese werden unter anderem für Analysen über alle Bereiche des Datenbestands, die Segmentierung von Kunden, Monitoring, Mustererkennung und Innovationsmanagement eingesetzt. Big Data ist also eine Grundlage, um relevante Geschäftsinformationen aus vorhandenen Daten zu generieren. Aus unternehmerischer Sicht bietet sich damit die Chance, wettbewerbsspezifische Entwicklungen frühzeitig zu erkennen und sich somit Wettbewerbsvorteile zu sichern. Die Möglichkeiten sind vielfältig – allein der Zeitaufwand für aufschlussreiche Analysen kann zermürbend bis untragbar sein. Einfach, weil die Menge der in klassischen Speichern verfügbaren Daten irrwitzig gross ist und die Zugriffszeiten auf diese Speicher entsprechend lang sind. Das Laden von Daten für Reportings aus einem Data Warehouse hat schon manchem Analysten die Laune und den Feierabend verdorben.

In-Memory schafft Abhilfe

Einen Ausweg aus der Datenmenge-Geschwindigkeits-Falle bieten so genannte In-Memory-Lösungen. Dabei werden durch digitale Kompression ganze Datenbankbestände komplett in den Arbeitsspeicher geladen. Im Ergebnis hat der Anwender quasi einen Echtzeit-Zugriff auf seine Daten – und somit eine Einsparung an Ressourcen. Schnellere Analysen sind möglich und dadurch schnellere Entscheidungen im Business.
Eine entsprechende In-Memory-Lösung hat SAP mit SAP Hana im Angebot. Dabei setzen die Walldorfer auf die Zusammenarbeit mit Technologie-Partnern wie IBM, HP und Fujitsu. Hinter Hana steckt neben der Anwendung auch eine In-Memory-Datenbank. Diese ermöglicht einen Komprimierungsfaktor zwischen 5 und 10. Damit kann eine Datenbank mit einer Grösse von zirka 20 Terabyte in einen Arbeitsspeicher von etwa zwei Terabyte geladen werden – unter bestimmten Umständen sogar mehr.
Nach eigenen Angaben hat SAP 2011 über 700 Millionen Franken in der Schweiz umgesetzt. Besonderes Interesse habe bei Kunden die Hana-Technologie geweckt. Folgerichtig möchte der Konzern bis 2015 seinen weltweiten Umsatz von aktuell über 14 Milliarden Euro auf etwa 20 Milliarden Euro steigern. Ein Treiber: die Hana-Technologie. Tatsächlich gibt es bereits Kunden, die den 20/2-Terabyte-Rahmen sprengen. Ein gutes Beispiel ist Apple: Hinter dem App Store steht ein SAP-System, von dem Apple sich besondere Erkenntnisse über das Kundenverhalten erhofft.

KMU kämpfen mit Datenflut

Auch kleine und mittlere Unternehmen sind zunehmend mit dem Problem Big Data konfrontiert. Wie bei Grossunternehmen dauern Datenzugriff und -analyse oft zu lange, um auf einer solchen Basis rechtzeitig konkrete Auswertungen zu bekommen, um Beschlüsse der Geschäftsleitung zu stützen oder tägliche Aufgaben der Mitarbeiter effizient zu gestalten. Dass die vorhandene Datenbasis mit klassischen Speichersystemen nicht mehr effektiv und effizient gehandhabt werden kann, lässt sich unter anderem daran erkennen, dass das Datenwachstum die Zugriffsgeschwindigkeit verlangsamt oder daran, dass verschiedene Datentypen aus verschiedenen Quellen verarbeitet werden. Denn klassische Data Warehouses legen Daten redundant ab, die Analyse wird kompliziert und der Zugriff extrem langsam. Weitere Indizien für ineffiziente Speichersysteme sind Mitarbeiter, die Daten in Echtzeit für Ad-hoc-Tätigkeiten brauchen, aber nicht direkt darauf zugreifen können, oder die Unmöglichkeit eines schnellen und gezielten Datenzugriffs ohne vorheriges, umfangreiches Reporting.
Hana eignet sich für kleine und mittlere Unternehmen insbesondere dann, wenn grosse Datenvolumina bearbeitet werden müssen und auch alternativ, wenn zeitkritische Applikationen den Einsatz rechtfertigen. So kommt Hana etwa bei der Auswertung von Daten über Business-Intelligence-Applikationen auf dem Handy und anderen mobilen Geräten, bei Ad-hoc-Auswertungen des Verhaltens von Fernsehzuschauern während einer Sendung, um in der Pause zielgruppengerechte Werbeblöcke zu schalten, oder bei der Echt-Zeit-Mustererkennung bei Kreditkarten-Daten zur Erkennung von Betrügereien zum Einsatz. Als weiteres Verwendungsgebiet wird die Echtzeit-Auswertung von Verkehrsdaten, um Staus zu umfahren oder um bei Taxis Standzeiten zu minimieren, identifiziert.

Echtzeit-Daten auch für KMU

Damit der Datenzugriff in Echtzeit auch für kleine und mittlere Unternehmen grundsätzlich betriebswirtschaftlich interessant wird und in greifbare Nähe rückt, haben SAP und Fujitsu im Frühjahr 2012 die weltweit erste Lösung SAP Business One gelauncht. SAP Business One bietet eine durch die SAP-Hana-Plattform unterstützte Analyse, wird auf einem anschlussbereiten Fujitsu Primergy TX300 Server vorinstalliert und somit betriebsbereit ausgeliefert. KMU haben damit starke Tools, um fit für den Umgang mit dem Daten-Dschungel zu sein. Noch läuft die weltweite Einführungsphase und aktuell sind mehr als 50 Partner und Kunden aus Amerika, Asien, Europa und Afrika dabei. Das Interesse ist auch in der Schweiz gross.
In der bisherigen Ausführung bot Business One lediglich einen Arbeitsspeicher von 48 Gigabyte. Seit September wird die Lösung mit bis zu 128 GB RAM ausgeliefert. Interessant bleibt für die Zukunft die Frage, ob In-Memory-Lösungen gegenüber klassischen Data Warehouses nicht den Nachteil haben, verhältnismässig schnell an Volumen-Grenzen zu stossen. Allerdings ist das unwahrscheinlich. Die Grösse der Arbeitsspeicher wird mit der Entwicklung der Datenmengen Schritt halten. Zudem haben multidimensionale Data-Warehouses einen grossen Nachteil: Sie enthalten üblicherweise Unmengen redundanter Daten, die in verschiedenen Gefässen abgelegt sind. Je nach Art der Anwendung können so riesige Datenmengen entstehen, die zusätzlichen Speicherplatz brauchen und zu extrem langen Ladezeiten führen. Genau das ist es, was Unternehmen behindert und zu Wettbewerbsnachteilen führt. (abr)


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
GOLD SPONSOREN
SPONSOREN & PARTNER