cnt
Big Data - grosses Potential, grosse Erwartungen
Quelle: istock Photo

Big Data - grosses Potential, grosse Erwartungen

Von Andreas Stuker

Das Potential von Big Data ist auch für kleinere und mittlere Unternehmen riesig. Die Speichertechnologie ist so weit fortgeschritten, dass Analysen in Echtzeit vorgenommen werden können. Unabhängig von der Branche wissen KMU heute schon recht genau, wofür sie dies in Zukunft nutzen könnten.

Artikel erschienen in Swiss IT Magazine 2014/09

     

Gut drei Jahre ist es her, als die weltweit pro Jahr produzierte Datenmenge die Zettabyte-­Marke (eine Eins mit 21 Nullen) knackte. Mittlerweile sind wir bereits bei rund vier Zettabyte pro Jahr angelangt. Und Prognosen zufolge verdoppelt sich das Volumen alle zwei Jahre. Das rasante Wachstum der Datenmengen sowie ihre Analyse und Auswertung haben den Begriff «Big Data» geprägt. Zusätzliche Daten entstehen überall, wo eine Digitalisierung stattfindet. Beispielsweise, wenn ein Energie-Erzeuger auf die jähr­liche Stromablesung verzichtet und dafür im Viertelstundentakt die Messdaten der Stromzähler elektronisch abliest. Datenberge produzieren auch die Finanzin­dustrie (Finanztransaktionen, Börsendaten), der Detailhandel und das Gesundheitswesen. Oder denken wir nur an die täglich 500 Millionen Tweets und die ungezählten Petabyte-Berechnungen aus Windkanaltests der Autoindustrie.

KMU: Big-Data-Potential erkannt

Viele Unternehmen müssen immer grös­sere Datenmengen speichern, verwalten und analysieren, um sie für ihre Geschäftsprozesse optimal verwerten zu können. Big Data betrifft nicht länger nur eine spezifische Branche, sondern alle Wirtschaftszweige, Organisationen und Nutzer von digitalen Technologien.
Big Data ist kein Vorrecht grosser Firmen. In einer Befragung des Fraun­hofer-Instituts IAIS konnte die Mehrheit der Teilnehmer angeben, welche Daten in ihrem Unternehmen vorliegen und wie sie deren Bedeutung für ihren Unternehmenserfolg einschätzen. Dabei zeigte sich, dass neben Daten aus Transaktions- und CRM-Systemen ein weites Spektrum an unstrukturierten und veränderlichen Daten in den Unternehmen existiert, auch wenn ihre heutige Relevanz noch untergeordneter Natur ist. Weitgehend klar ist den KMU-Vertretern zudem, welche Unternehmensbereiche Daten mit hoher Veränderlichkeit auswerten. So zeichnet sich ab, dass insbesondere das Marketing und der Vertrieb sowie das Management und die Produktion zu den Big-Data-affinen Unternehmensbereichen zählen.

Eine weitere Erkenntnis der Befragung: Die Teilnehmer wissen, welche Anwendungen auf Basis von Big Data in ihrem Unternehmen potentiell relevant sind. Dazu gehören Prognosen der Werbewirksamkeit, der Abverkäufe und der ­Mikrosegmentierung, gefolgt von Anwendungen zum Monitoring von Markenwahrnehmung, Wettbewerbern, Markt­preisen und Kaufinteressenten im Web sowie Besucherströmen vor Ort. Auch die automatische Preissetzung, die Analyse von Kündigungswilligen und die personalisierte Kundenansprache zählen zu den favorisierten Big-Data-Anwendungen. So kommt das Fraunhofer-Institut IAIS zum Schluss, «dass den KMU die Potentiale von Big Data bekannt sind».

Grosse Versprechen

Angesichts der globalen Datenexplosion wird man den Autoren des Buches «Data Unser» kaum widersprechen, wenn sie proklamieren: «Big Data wird Gesellschaft, Politik und Wirtschaft so grundlegend verändern wie der elektrische Strom und das Internet.» Oft hört man auch, dass neuere IT-Systeme dabei helfen können, Big Data zur Beantwortung existierender, aber auch zur Entdeckung neuer Fragestellungen auszuwerten. Das öffne sowohl Prozessverbesserungen als auch Produktinnovationen Tür und Tor. Um Beispiele ist niemand verlegen. Die Vereinten Nationen etwa können mittlerweile drohende Virusinfektionen, Hungersnöte oder Unruhen über ganze Länder hinweg früher erkennen, da Millionen öffentlicher Kurznachrichten mit Fotos und Videos auswertbar sind. In Irland bietet eine Firma an, einen Wald mit Lasern zu erfassen und nach kurzer Zeit zu berechnen, welche Bäume darin vorkommen und wie man den Wald besser bewirtschaftet. Und in naher Zukunft könnte das Smartphone bereits die attraktiven Plätze im Lieblingsrestaurant reserviert haben, wenn man gerade erst von der neuen Geschäftsreise erfahren hat.

Ehrgeizige Prognostik

Dass solche Aussichten und Versprechen die Erwartungen hochschrauben, ist nicht weiter verwunderlich. Von den ehrgeizigsten Vorhaben der Prognostik seit dem Orakel von Delphi ist die Rede. Von Hinweisen gar, wie der Klimawandel oder die Finanzkrise zu bewältigen seien. Da kann ein Blick auf die real existierende IT-Wirklichkeit in den Unternehmen nicht schaden, geht es doch in erster Linie darum, aus den vorhandenen polystrukturierten Daten geschäftsrelevante und geschäftsfördernde Erkenntnisse zu gewinnen.
Methoden der Datenanalyse und -bewertung haben in Unternehmen eine nahezu 40-jährige Geschichte. Jedes Unternehmen nutzt Werkzeuge für die Datenanalyse, angefangen von Excel als Front-end oder Stand-alone-Anwendung über gängige, aber komplexe Standardwerkzeuge bis hin zu anwendungsspezifischen Individuallösungen. Angesichts der verborgenen Schätze, die in den Datenbergen mutmasslich schlummern, angesichts des stetig zunehmenden Wettbewerbsdrucks und nicht zuletzt angesichts der schieren Datenmengen sind jedoch neue Ansätze und Lösungen gefragt.

Effizienter, präziser, schneller

Die Erwartungen an solche Lösungen sind hoch. Im Vordergrund steht der Wertbeitrag in operativen Prozessen, der sich durch besseres Informationsmanagement erzielen lässt. Datenmanagement, Analysen und daraus abgeleitete Business-Szenarien sollen effizienter betrieben und genutzt werden – mit sofortigem Effekt auf das Geschäft. Eng mit Big Data verbunden ist des weiteren die Forderung nach höherer Geschwindigkeit. Erfolg hat, wer den Mitbewerbern eine Nasenlänge voraus ist. Eine schnellere Informationsgewinnung leistet dazu einen wesentlichen Beitrag. Technologien, die eine Beschleunigung der Prozesse unterstützen, stossen daher auf grosses Interesse. Dazu kommt der Anspruch an genauere Informationen.
Für diese Anforderungen hat sich die In-Memory-Technologie als Plattform der Wahl etabliert. Dieser Ansatz erlaubt es, hohe Datenvolumina direkt im Hauptspeicher zu halten und dort mit grosser Geschwindigkeit zu verarbeiten. Die Verfügbarkeit von riesigen Hauptspeichern bei gleichzeitig sinkenden Kosten hat die Voraussetzungen für eine extreme Beschleunigung und eine hohe Skalierbarkeit des Datenmanagements geschaffen. Unter dem Strich haben Unternehmen jeder Grösse und Branche die Möglichkeit, neue Geschäftsabläufe aufzusetzen und Entscheidungsprozesse massiv zu beschleunigen.

Breites Einsatzspektrum

Tatsächlich können Unternehmen mit Hilfe der In-Memory-Plattform erstmals Daten und Geschäftsvorgänge in Echtzeit analysieren. Bei einem Konsumgüterhersteller heisst das konkret: Die Zeit, um 460 Milliarden Datensätze mit einem Gesamtvolumen von 50 Terabyte zu analysieren, sinkt auf 0,04 Sekunden. Entsprechend kann das Unternehmen Segmentierung, Merchandising, Lagerhaltung und Prognosen im Bruchteil einer Sekunde überprüfen. Topaktuelle Daten können aus verschiedenen Datenquellen gezogen, die Konsumentenstimmung und die Wirksamkeit von Werbemassnahmen blitzschnell ausgewertet oder die Auswirkungen kurzfristiger Schwankungen bei Bedarf und Nachfrage im Handumdrehen analysiert werden. Aufgrund von Ad-hoc-Sichten, die sich schnell und ohne besondere Kenntnisse erstellen lassen, findet die Aktivitätenplanung auf der Basis von fundierten Kenntnissen statt.
In zahlreichen Branchen und Sparten kommen heute hyperschnelle Lösungen zum Einsatz, die aus den riesigen Mengen operativer Daten kombiniert mit historischen Daten und externen Quellen Entscheidungsgrundlagen generieren. Dazu gehören etwa die Auswertung von Webstatistiken und Anpassung von Online-Werbemassnahmen, die Entdeckung von Unregelmässigkeiten bei Finanztransaktionen (Fraud-Detection), die Einführung und Optimierung einer intelligenten Steuerung des Energieverbrauchs (Smart Metering) oder der Aufbau flexibler Billing-Systeme in der Telekommunikation.

Business Intelligence im Fussball

Relativ neu im Kreis der Big-Data-affinen Branchen ist der Sport – zum Beispiel der Fussball. Dort geht es in erster Linie um die Frage, wie die Trainer die Performance von Einzelspielern und deren Zusammenspiel verbessern können. Müssen die Spieler im Angriff andere Wege laufen? Muss sich die Mannschaft tiefer in den Strafraum zurückziehen? Oder muss Spieler A die Flanken zu Spieler B anders schiessen?
Mit solchen Fragen hat sich der deutsche Bundesligist TSG 1899 Hoffenheim auseinandergesetzt und schliesslich eine Lösung zur Analyse der Spielerperformance entwickeln lassen. Diese arbeitet mit Geodaten, die über Sensoren ermittelt und über eine In-Memory-Plattform verarbeitet werden. Schienbeinschoner, Trainingskleidung und der Ball sind bei TSG 1899 Hoffenheim mit speziellen Sensoren ausgestattet. So erhält der Club grosse Mengen an Daten aus jedem Training, die sich speichern, verarbeiten und analysieren lassen.

Die Analyse bestimmter Leistungsmerkmale erlaubt den Trainern einen besseren Einblick in das Spielverhalten der einzelnen Spieler und deckt Optimierungspotentiale auf. Leistungsmerkmale sind dabei unter anderem Sprints, Geschwindigkeit und Ballkontaktzeit. Mit diesen Daten kann das Training indivi­duell angepasst werden, um strategisch die Stärken und Schwächen jedes Spielers anzugehen und damit einen möglichst effektiven Trainingsplan zu erstellen. Spielwitz und Kreativität – die entscheidenden Erfolgsfaktoren im Fussball – bekommen dadurch ein solides faktengestütztes Fundament.
Darin unterscheidet sich der Fussball kaum von der Wirtschaft: Hier wie dort geht es darum, aus grossen Mengen an Daten, welcher Herkunft sie auch immer seien, schnell Erkenntnisse zu gewinnen, um den eigenen Erfolg nachhaltig zu sichern. Mit «Big Ideas + Big Data = Big Business» bringt das Fraunhofer-Institut das Potential auf eine griffige Formel.


Andreas Stuker ist COO und Mitglied der Geschäftsleitung bei SAP (Schweiz).

Big Data: Drei Chancen

Das Fraunhofer-Institut IAIS hat in seiner Untersuchung drei grosse Chancen für den Einsatz von Big Data in Unternehmen identi­fiziert.

Effizientere Unternehmensführung:
Im Einzelhandel lassen sich genauere Prognosen treffen, wann welches Produkt verkauft wird und nachzubestellen ist. Die Energiebranche kann besser vorhersagen, wie viel Strom zu welchen Zeiten benötigt wird. Bei einfachen Prozessen wie der Postbearbeitung können lernfähige Systeme durch automatisierte Abläufe für mehr Effizienz sorgen.


Massenindividualisierung:
Wenn Systeme während der Arbeit Informationen über den Kunden mitlernen, können Dienstleistungen individualisiert werden. Nutzungsbezogene Versicherungsprodukte, tägliche Gesundheitsdiagnosen, individuelle Unterhaltung oder der vorausschauende Service bei Maschinen sind Beispiele dafür. Bisher standardisierte Dienstleistungen werden zunehmend individualisiert angeboten.

Intelligente Produkte:
Schon heute verfügen viele Maschinen und Anlagen über Sensoren, die über den Wartungszustand Auskunft geben. In Zukunft werden immer mehr Produkte und Maschinen mit eigener Big-Data-Intelligenz ausgestattet, um die Sensordaten direkt zu verarbeiten und zu reagieren, um sich zum Beispiel auf besondere Anforderungen einzustellen und sich selbst zu reparieren.



Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Welche Farbe hatte Rotkäppchens Kappe?
GOLD SPONSOREN
SPONSOREN & PARTNER