Site-Performance und Data Mining: Elementar für den effizienten Umgang mit Datenbeständen
Artikel erschienen in Swiss IT Magazine 2002/13
Websites gehören heute zu den wichtigsten Kommunikationsinstrumenten von Unternehmen. Während 1992 lediglich etwa 1000 Websites im Netz waren, gab es im Juni 2000 schon etwa 2 Milliarden. Je komplexer eine Website wird, desto wichtiger ist es, geeignete Analyse-Tools zu haben, um diese auszuwerten. Dabei gehen die Analysemethoden heute weit über die Zugriffsstatistiken aus Protokollen (sogenannten Logfiles) hinaus.
Die Site-Performance soll dazu beitragen, einen hohen Informationsfluss zwischen den Unternehmen und den Kunden sicherzustellen, während das Data Mining vor allem dazu beitragen soll, die Kommunikation zwischen den Mitarbeitern (z.B. über Intranets) zu verbessern. Wem es gelingt, eine hohe Site-Performance sicherzustellen und wer über entsprechende Auswertetools der Datenströme und Kommunikationskanäle verfügt, kann die Transaktionskosten deutlich senken und die Reaktions- und Anpassungsgeschwindigkeit eines Unternehmens im Markt deutlich erhöhen. Site Management schafft dann einen hohen Mehrwert für Kunden oder Mitarbeiter, wenn Informationen schnellstmöglich aktualisiert und zielspezifisch zur Verfügung gestellt werden können. Der Mehrwert des Data Mining liegt darin, bisher nicht sichtbares Wissen in grossen Datenbanken zu suchen, um dieses profitabel einsetzen zu können. Die entscheidende Frage des Data Mining ist hierbei: Wie kann für die Kunden Wert generiert werden. Einer der führenden Anbieter von Data-Mining-Lösungen, das SAS Institute, sieht drei Hauptanwendungen für das Data Mining: 1. das Auffinden der profitabelsten Kunden und das Binden dieser an das Unternehmen, 2. das Durchführen zielgerichteter Marketing-Kampagnen und 3. zukünftige Entwicklungen vorauszusehen sowie Schlüsselfaktoren für positive oder negative Verstärkungen herauszufiltern.
Site-Performance, Site-Management und Data Mining stehen vor der Herausforderung der immer grösser werdenden Komplexität in den Systemen. Die Nutzung von Analysetools in diesen Bereichen setzt voraus, sich über die zu erreichenden Ziele im klaren zu sein. Die Analyse von Zugriffszahlen, von Schlüsselmerkmalen der Kunden, Analyse der Online-Verkäufe zur Ermittlung höherwertiger Kunden, Ermittlung erfolgreicher Marketingaktivitäten, Kundenrelevanzanalysen, Kostensenkungsanalysen, Verbesserung der Kundenbindung, Verbesserung des Cross-Selling-Potentials bilden heute die Basis für erfolgreiches Customer Relationship Management sowie die Optimierung von Multi-Channel-Strategien. Site-Performance- und Web-Monitoring-Systeme ermöglichen eine Beobachtung des Kundenverhaltens und liefern eine transparente Sicht auf die IT-Infrastruktur. Messbare Daten im Hinblick auf Sicherheit, Performance und Verfügbarkeit sind für Marc-Yves Baechli, den CEO von TerreActive, umso wichtiger, wenn die IT-Infrastruktur bei einem Hosting-Partner betrieben wird: "Die zentrale Sammlung der Daten ermöglicht die Anwendung von Strategien zur Verdichtung, Korrelation und statistischen Auswertung, so dass auf wichtige, businesskritische Ereignisse reagiert werden kann", führt Baechli aus. Und weiter: "Data-Mining-Methoden werden diesen Prozess unterstützen, indem sie bisher unbekannte Zusammenhänge und Trends in den steigenden Volumen an Monitoring-Daten entdecken. Während heute noch viele Unternehmen ihre Web-Applikationen im Blindflug betreiben, wird in Zukunft kaum jemand auf diese Möglichkeiten der Überwachung und Auswertung verzichten können."
Urs Wolfensberger, Geschäftsführer von MMXI Schweiz, betont, dass verantwortungsbewusste Entscheider zunehmend erkennen, dass auch im Online-Bereich soziodemografische Informationen über die Benutzer wichtiger sind als technische Daten zur Kalibrierung der Server: "Panel-basierte Nutzungsforschung, wie sie von MMXI Switzerland angeboten wird, zeigt fortlaufend die aktuellsten Trends, setzt Benchmarks, verschafft Überblick und stellt die eigenen Aktivitäten in einen Beziehungsrahmen."
Für Karl Zumstein, CEO SAS Schweiz, bedeutet echte Web-Performance, erfolgreich Kunden und Interessenten durch das Internet zu akquirieren und zu binden. Dazu braucht es laut Zumstein aber primär ein neues Verständnis des Internets: "Das Internet, das wir jetzt haben, ist funktional ziemlich falsch. Da es nichts anderes ist als die digitale Verlängerung des klassischen Marketingverständnisses ins Netz, zwingt es uns die falsche Net-Strategie auf. Die heutigen Websites, Channels und Portale sind nicht mehr als bewegte Plakate."
Es kann deshalb nicht um eine Optimierung alter und nicht auf das Netz angepasster Strategien gehen, sondern darum, vorausschauend das Nutzerverhalten zu antizipieren. Voraussetzung hierfür ist für Zumstein eine neue Internet-Fitness der Anbieter, bei der es darum geht, Nutzungssysteme für die User herzustellen, die immer wieder neue Wirklichkeiten generieren: "Traditionelle Lösungen wie Data Warehouse und Data Mining sind zwar Voraussetzung, reichen aber nicht aus. Sie erlauben uns zwar, die verborgenen und abstrakten Muster des Verhaltens zu diagnostizieren, aber sie geben uns keinen Aufschluss über die zu Grunde liegenden Motivationen und die Bewegungen im Unterbewusstsein der User. Aber genau darum geht es im Endeffekt, denn wir wollen im Kopf der User diejenigen Wirklichkeitsaspekte verstärken und an die Marke oder an das Produkt koppeln, die dafür sorgen, dass aus einer Ablehnung ein 'Ich will' wird."
Der Wille des Kunden kann allerdings in erheblichem Umfang von Störgrössen beeinflusst werden. Es ist deshalb auch ein systematisches Risk Management notwendig, um mögliche Entwicklungen vorwegzunehmen und auf eventuelle Krisensituationen vorbereitet zu sein. Die Analyse der Site-Performance wie auch das Data Mining übernehmen die Aufgabe, mögliche Fehlerquellen zu erkennen und Verhaltensmuster zu analysieren. Hierbei geht der Trend zu rechnergestützten, daten-, methoden- und modellorientierten Entscheidungsunterstützungssystemen. Viele Unternehmen sind sich über die möglichen Risiken durch fehlende bzw. gestörte Informations- und Kommunikationswege sowie -abläufe nicht bewusst. Zielkonflikte, verzögerte Entscheidungsfindung oder Fehlentscheidungen sind dann oftmals vorprogrammiert.
Deshalb gilt es, Risiken frühzeitig zu erkennen und eine RiskMap zu erstellen, die der Zunahme der Komplexität in den Systemen Rechnung trägt. Die Grundlage hierzu bieten heute fortschrittliche Technologien wie Data Warehouses oder Data Marts, Data Mining, aber auch die offenen Infrastrukturen und Prozesse in die diese Werkzeuge im Unternehmen eingebettet werden. Für Marc-Ives Baechli von TerreActive bieten die Daten eines umfassenden Monitoring-Systems die Grundlage für die Risikoanalyse im IT-Bereich, da sonst die Daten in kostspieligen Audits erarbeitet werden müssen: "Die Praxis zeigt, dass Unternehmen mit guten Monitoring-Systemen, basierend auf einem sauber dokumentierten IT-Inventar, weniger verletzlich sind und viel schneller auf Sicherheitszwischenfälle reagieren können." Die zunehmende Automatisierung von Transaktionen macht es Cyber-Kriminellen einfacher, die Sicherheit von Netzwerken und Servern zu untergraben, betont Karl Zumstein von SAS: "Da Betrug, insbesondere Kreditkartenbetrug, in elektronischen Märkten eine immer grössere Rolle spielen wird, sind Data-Mining-basierende Lösungen, wie sie etwa Amazon.com zur Identifikation potentieller Betrugsfälle einsetzt, eminent wichtig. Alle Daten, die im E-Business anfallen - von Kundenkontaktpunkten, Transaktionen, Kaufmustern -, können benutzt werden, um typische Verhaltensbilder zu kreieren und dagegen untypisches, potentiell betrügerisches Verhalten zu erkennen." SAS selbst hat für dieses Einsatzgebiet die Lösung SAS Risk Management entwickelt.
Über den Schritt der Datensammlung (Frage: Wie hoch war mein Umsatz in den zurückliegenden Jahren), den Datenzugriff über relationale Datenbanken (Frage: Wie hoch war mein Umsatz im Land X im Oktober letzten Jahres) wird heute das sogenannte Data Mining (Frage: Wie hoch werden sich die Umsätze im Land Y voraussichtlich in den nächsten Monaten entwickeln?) immer wichtiger. Data Mining macht die Mustererkennung, das Erkennen von versteckten Strukturen oder möglichen Entwicklungen zu einem strategischen Geschäftsziel. Mit einer derartigen Frühwarnbrille versehen, können Unternehmen eher als ihre Wettbewerber erkennen, was ihre Kunden wollen und diese somit wirksamer an sich binden. Beim Data Mining ist es jedoch wie im richtigen Leben: Nur die wenigsten, die mit Schaufeln ausgestattet werden, um nach Gold zu suchen, finden dieses auch tatsächlich. Ob Data Mining Früchte trägt kommt desahalb neben dem richtigen Produkt auch auf die richtigen Märkte an, Wer eine falsche Unternehmensstrategie verfolgt, wer mangelhafte IT-Infrastrukturen in Form von zu geringer Prozessleistung oder Speicherkapazitäten, eine zu kleine Datenbasis oder eine schlechte Datenqualität hat, darf sich vom Data Mining keine Wunderdinge erwarten. Die Hauptvoraussetzung für erfolgreiche Mustererkennung ist eine genügend grosse Datenbasis. Je mehr Datensätze vorliegen, desto geringer fällt die Anzahl der Schätzfehler und der Varianten aus. Die 1. Generation von Data-Mining-Systemen arbeitete mit einfachen Algorithmen, während die 2. Generation die Skalierbarkeit und die Funktionalität der Systeme erhöhte. Aufgrund der weiteren Komplexitätszunahme wird die 3. Generation von Systemen höchste Anforderungen in bezug auf Risk Management und Frühwarnung erfüllen müssen. Derartige Systeme werden zukünftig mit nicht-traditionellen, komplexen und verteilten Daten umgehen müssen und diese kontextorientiert miteinander verbinden. Data Mining und künstliche Intelligenz werden nicht von ungefähr von der Gartner Group immer wieder als Top-Wachstumssegmente für die nächsten Jahre genannt. Getragen wird diese Entwicklung einerseits von der Entwicklung der Datenbanken, der Leistungsfähigkeit von Prozessoren und Hochleistungsspeichern sowie verbesserten Analysemethoden. Fortschrittliche Data Mining Software wie auch die Software Clementine 6.5 des Unternehmens SPSS sind heute deshalb elementar für den Erfolg von Customer Relationship Software Eine der besten Übersichten zu Anbietern von Data Mining Tools bietet derzeit die Webseite von Kdnuggets.
Ein wichtiger Trend wird weiterhin das Zusammenstellen von personalisierten Daten sein, d.h. das Anzeigen von Inhalten abgestimmt auf den jeweiligen Benutzer. Durch die Personalisierung der gespeicherten Informationen wie z.B. Transaktions-Daten (Kaufhistorie, Benutzerverhalten auf der Website etc.), psychographische oder soziodemographische Informationen können dem Kunden massgeschneiderte Angebote unterbreitet werden. Die zwei wesentlichen Elemente von Systemen zur Personalisierung sind sogenannte Rules-Engines und Data-Mining-Systeme. Die Personalisierung hat dabei verschiedene Phasen zu durchlaufen: Als erstes muss das Interesse des Besuchers für eine Site intensiviert werden. Kunden sollten zum Wiederkehren auf die Site bewegt werden und andere Bereiche der Site kennenlernen. In einer nächsten Phase steht die Umsatzsteigerung im Vordergrund, d.h., beim erneuten Besuch der Site soll der Kunde höhere Kaufabschlüsse tätigen. Vor allem wird die Personalisierung jedoch dazu verwendet, die Bereitstellung von Informationen zu beschleunigen und dadurch die Nutzbarkeit und damit die Kundenbindung einer Site zu erhöhen. Erfolgreiche Sites wie etwa diejenige von Amazon.com verwenden umfangreiche Profilinformationen als Grundlage für die Bereitstellung der richtigen Services. Diese Profile sollen den Kunden Wünsche erfüllen, die diese selbst noch nicht einmal kennen. Die heute verwendeten Verfahren sind die explizite und die implizite Profilerstellung: Bei der expliziten Profilerstellung wird jeder Benutzer aufgerufen, Informationen online einzugeben oder Fragebögen auszufüllen. Zum Beispiel kann auf der Website MyYahoo der Besucher selbst spezifizieren, welche Aktien er verfolgt und welche Nachrichtenkategorien für ihn von Interesse sind. Die implizite Profilerstellung schreibt hingegen das Verhalten des Besuchers automatisch und im Hintergrund mit, was für den User die Folge hat, dass die in einem sogenannten "Cookie" gespeicherten Informationen für ihn nicht mehr transparent sind.
Der Aufbau eines exzellenten Teams beim Fussball erfordert, die Spieler zu kennen. Im Bereich des Geschäftslebens gilt es, die relevanten Daten aller Teilnehmer eines Netzwerkes zu kennen, um intelligente Lösungen hervorzubringen und versteckte Muster erkennen zu können. Die sogenannte Business Intelligence muss Entscheider in die Lage versetzen, Win-Win-Situationen zu schaffen, Kosten zu reduzieren, Umsätze zu erhöhen, Verluste zu vermeiden und neue Gelegenheiten zu erkennen. Da Unternehmen heute immer mehr vernetzte, komplexe Business-Ökosysteme herausbilden, stellt sich die Frage nach der Lenkung dieser Systeme. Die Entkopplung von strategischen und taktischen Entscheidungen in Unternehmen kann heute durch die Möglichkeiten des Data Mining überwunden werden. Die kollektive Intelligenz eines vernetzten Systems ist hierbei eine der wesentlichen Triebfedern für den Aufbau derartiger Business-Netzwerke. Unternehmen sind jedoch nur dann intelligent, wenn sie ein exzellentes Sensorik-System haben, über eine exzellente Navigation verfügen, eine hohe Umlaufgeschwindigkeit des Wissens ermöglichen, schnell und effektiv entscheiden können und dies alles in ein firmenübergreifendes Netzwerk eingebettet ist. Deshalb integrieren immer mehr Firmen, die auf E-Business-Anwendungen spezialisiert sind wie SAP, PeopleSoft, i2 und Siebel, spezielle Analyse-Tools in ihre Software, wozu Karl Zumstein von SAS ausführt: "Versetzen operative Lösungen wie z.B. Sales Force Automation Tools oder Marketingdatenbanken Unternehmen in die Lage, ihren operativen Prozess zu automatisieren, gibt erst der Einsatz von Analyse-Tools dem Unternehmen sogenannte 'Business Intelligence', d.h. durch entsprechende Auswertungen und Prognose-Werkzeuge das Wissen 'was los ist' und was wahrscheinlich passieren wird. Erst dann kann ein Unternehmen intelligent reagieren."
Wer den Begriff der Ökosysteme ernst nimmt, kommt vor allem nicht an der Analyse des genauen Kundenverhaltens sowie der Trends im Internet und den digitalen Medien vorbei, wie dies von MMXI angeboten wird. Deren Forschungskonzept bietet hier interessante Lösungen, wozu Urs Wolfensberger ausführt: "Wir messen beispielsweise, woher bestimmte Besucherprofile kommen, was diese auf der Site tun und wohin sie anschliessend weitergehen. Aber auch Besucherloyalitäten, die Effizienz von Kooperationen und so weiter. Nur wer die Nutzer als soziodemografische Profile kennt, kann gezieltes Marketing betreiben." Eines der führenden Unternehmen im Bereich Traffic Control im Internet ist das Unternehmen F5 Networks, welches Produkte entwickelt, die Server in LANs überwachen, um Fehlfunktionen zu erkennen, den Nutzerverkehr zu regeln und Routing-Anfragen auf den passenden und verfügbaren Server umzuleiten. Wohin der Markt sich hierbei entwickelt, zeigt beispielsweise die strategische Allianz von F5 Networks und Inktomi. Analysefirmen werden zukünftig verstärkt mit Internetinfrastruktur-Software-Anbietern kooperieren.
Site Performance, Site Management und Data Mining sind zwar grosse Wachstumsbereiche. Allerdings dürfte sich für Urs Wolfensberger eine Spezialisierung der Werkzeuge abzeichnen: "Wir gehen davon aus, dass eine Spezialisierung dieser Tools stattfinden wird, indem sich jedes Tool auf Teilaspekte wie Audience Management, Performance Monitoring oder Intrusion Detection konzentriert. Nur Produkte, welche offene Schnittstellen haben und sich so gut und einfach integrieren lassen, werden überleben." Fest steht, dass der Markt für Site Performance, Site Management und Data Mining in Bewegung geraten ist. Dies zeigt nicht zuletzt die Zusammenarbeit von SAS und der auf Customer Relationship fokussierten Firma Blue Martini. In Jahr 2001 hat SAS ein weltweit einheitliches Partnerprogramm verabschiedet, mit dem Ziel, Partnerschaften mit den erfolgreichsten Beratungshäusern, Systemintegratoren sowie Hardware- und Softwareanbietern aufzubauen. Für den SAS-Manager Karl Zumstein bietet insbesondere der Bereich des Data Mining ein starkes Wachstumsgebiet, das in immer mehr Bereichen eingesetzt wird, wobei vor allem das sogenannte Text Mining vielversprechend ist: "Der zunehmende Einsatz digitaler Kommunikationsformen nicht nur im geschäftlichen Umfeld, sondern auch in den Medien und in der Wissenschaft deutet darauf hin, dass sich textliche Daten zu dem dominanten Datentyp entwickeln werden. Untersuchungen gehen davon aus, dass bereits mehr als 80 Prozent der heute digital verfügbaren Informationen in Textform vorliegen. In seiner komplexesten Form zielt Text Mining darauf ab, Muster und Zusammenhänge in grossen textuellen Datensammlungen aufzudecken, die zuvor unbekannt waren." Marc-Yves Baechli sieht insbesondere im Bereich des Monitoring Entwicklungen, bei denen etablierte Produkte wie HP OpenView, CA Unicenter oder IBM Tivoli mit kleineren, spezialisierten Anbietern kooperieren oder diese sogar integrieren.