Datenqualität erfolgreich managen
Artikel erschienen in Swiss IT Magazine 2010/12
Verfälschte, unvollständige und inkonsistente Daten und daraus abgeleitete Informationen führen zu Problemen in Geschäftsprozessen, in denen diese Daten verwendet werden. Ungültige Daten verzögern die tägliche Arbeit, verursachen Aufwand und damit Kosten. Denn die Daten müssen korrigiert und Prozesse neu aufgesetzt werden. Ebenso müssen Reports neu erstellt werden, wenn die Zahlen nicht konsistent sind. Des weiteren müssen Berichte verifiziert werden, weil Zweifel bestehen, ob diese wirklich gültig sind.
Werden strategische Entscheidungen auf Grund mangelhafter Daten gefällt, kann dies für ein Unternehmen kritisch werden. Bei Banken und Versicherungen steigt die Bedeutung der Datenqualität zudem durch neue Anforderungen im Bereich der Compliance. Ein Riskmanagement bei einer Bank kann nur funktionieren, wenn die Qualität der firmeninternen als auch der externen Daten systematisch gemanagt wird.
Die drei wichtigsten Treiber für die Verbesserung der Datenqualität sind also die Einsparung von Kosten und Erhöhung der wirtschaftlichen Leistungsfähigkeit, die Notwendigkeit, gültige und konsistente Informationen für die Unternehmensführung verfügbar zu machen und die Erfüllung der gesetzlichen Compliance.
Der negative Ein?uss schlechter Datenqualität auf ein Unternehmen wurde in verschiedenen Studien erforscht. Gemäss Thomas Redman, einem bekannten Fachmann für Datenqualität und Autor des Buches «Data Quality: The Field Guide», schmälert die schlechte Datenqualität den operativen Gewinn um 8 bis 12 Prozent.
Oftmals werden die Folgen schlechter Datenqualität von Linienmanagern aber fälschlicherweise als «normal cost of doing business» akzeptiert und nicht der mangelnden Qualität zugeschrieben, wie der Autor Larry English in seinem Buch «Improving Data Warehouse and Business Information Quality: Methods for Reducing Costs and Increasing Pro?ts» schreibt. Das Potential und die Bedeutung einer hohen Datenqualität wird somit in sehr vielen Fällen nicht wirklich wahrgenommen. Ein Grund dafür ist, dass manche Fehler erst in späteren Prozessen auffallen. Zum Beispiel, wenn in Berichten Kategorien auftauchen, die offensichtlich so nicht existieren dürften oder die mehrfach mit unterschiedlichen Bezeichnungen vorhanden sind. Als Folge resultiert eine falsche Aggregation der Daten und der Report kann so nicht verwendet werden. Ungültige Daten verursachen also nicht nur Zusatzarbeit, sondern verschlechtern die Akzeptanz bei den Anwendern in den Fachabteilungen, die wichtige geschäftliche Entscheidungen nicht auf fehlerhaften Daten abstützen möchten. Nachlässigkeit bei der Datenqualität verursacht also ernst zu nehmende direkte und indirekte Kosten für ein Unternehmen.
Spricht man von Qualitätsmanagement bei Daten, geht es darum, dass die Daten in ihrem Lebenszyklus begriffen werden und dass die Qualität der Daten entsprechend der Anwendung in den Business-Prozessen definiert wird. Ausserdem muss die Datenqualität periodisch überwacht werden. Erfüllen die Daten die Qualitätsanforderungen nicht, werden die Ursachen ermittelt und organisatorische und technische Lösungen erarbeitet und umgesetzt. Ein Problem-Management-System, sorgt dafür, dass aufgetretene Datenqualitätsprobleme systematisch bearbeitet werden.
Aus Informationen werden damit Produkte, die erstellt, qualitätsgeprüft, benutzt und weiter verarbeitet werden. Ein wichtiger Punkt hierbei ist die Festlegung der Verantwortung für die Daten. Ein Data Owner ist fachlich zuständig für die Daten und deren Qualität über Applikationsgrenzen hinweg und bestimmt über notwendige Massnahmen zur Qualitätssicherung und die Verwendung der Daten in anderen Kontexten. Das Datenqualitätsmanagement hat einen Programmcharakter und besteht aus einer Reihe von Aktivitäten, die gemäss ihrer Dringlichkeit geplant und umgesetzt werden. Die weitere organisatorische Anbindung und Binnenstruktur ist aus der Struktur des Unternehmens abzuleiten. Bei Business-Intelligence-Anwendungen wird Datenqualität meist innerhalb des Business Intelligence Competency Centers (BICC) organisiert. Klar ist, dass Personen mit Fachwissen die Verantwortung für die Datenqualität tragen müssen. Weiter darf nicht vergessen werden, dass die Kommunikation mit allen Beteiligten eine sehr wichtige Rolle spielt. Die Verantwortlichen für die Datenqualität müssen ihre Anliegen gut vermitteln können. Letztlich ist Datenqualität ein Teil der Qualitätskultur eines Unternehmens und betrifft jeden, der in der Firma arbeitet.
Bei der Herstellung von Compliance gehen Datenqualitätsinitiativen vom Management aus. Solche zentrale Initiativen haben den Vorteil, dass sie abgestützt sind und finanziell unterstützt werden. Somit kann das Thema Datenqualität systematisch angegangen werden. Beispiele für eine Top-Down-Herangehensweise sind neben Compliance insbesondere Risk Management und unternehmensweites Data Warehousing.
Andere Initiativen beginnen in Teilbereichen, zum Beispiel beim Adressen-Management in CRM-Systemen, wobei die Datenqualität punktuell verbessert wird. Denn auf der Fach- oder Abteilungsebene sind Datenqualitätsprobleme oft bekannt, auch wenn sie nicht so bezeichnet werden, und werden dort von den Mitarbeitern mit Ad-hoc-Methoden gelöst. Eine solche Bottom-up-Vorgehensweise kann bei guter Kommunikation der Resultate auch auf höherer Ebene Erfolg haben. Der Vorteil liegt dabei darin, dass engagierte Teams entstehen, die von ihrer Arbeit überzeugt sind und später auch in der Lage sind, die Policies aufgrund ihrer konkreten Praxis zu definieren.
Beim Start einer Datenqualitätsinitiative wird zunächst eine Situationsanalyse durchgeführt, in der die aktuellen Probleme erfasst, bisherige Massnahmen dokumentiert und Ziele definiert werden. Dies ist der Ausgangspunkt für eine Roadmap - eine Rahmenplanung für Aktivitäten und Prozesse. Sie entsteht durch die Analyse von bestehenden Datenquellen, einer vertieften Analyse durch Anwenderbefragungen, die Regelung von organisatorischen Zuständigkeiten und die Anpassung der Projektmethodik. Danach werden Verbesserungsmassnahmen durchgeführt. Weiter können dann Initiativen wie Master Data Management oder Data Governance erfolgen.
Unterdessen bieten verschiedene Hersteller Tools für einzelne Prozesse an, welche die Arbeit wesentlich beschleunigen können. Der Tooleinsatz ohne konzeptionelles Fundament macht jedoch wenig Sinn. Das Aufsetzen der Prozesse und die organisatorischen Aktivitäten sind komplexer und bedeutend schwieriger zu realisieren, als die technische Umsetzung. Auch die Gesellschaft für Qualität (SAQ) hat die Bedeutung der Datenqualität erkannt und eine Arbeitsgruppe Datenqualität gegründet. Diese wird nächstes Jahr verschiedene Aktivitäten auf diesem Gebiet durchführen.