Prozess-Änderungen schnell umsetzen
Artikel erschienen in Swiss IT Magazine 2006/06
Die Hauptakteure im Stamm- und Referenzdatenmanagement-Prozess – also im Master Data Management (MDM) – sind der Datennutzer, der Datenverwalter, der Datenbesitzer und der Service-Provider. Diese Rollen bewältigen und überwachen den Prozess und sind daher auf gute Kommunikation und einen reibungslosen Ablauf angewiesen. Der Prozess sollte elektronisch unterstützt und mit den entsprechenden digitalen Formularen und Checklisten versehen sein. Veränderungen im Prozess sollen schnell und einfach umgesetzt werden können
Da Stamm- und Referenzdaten in der Regel von mehreren Applikationen gleichzeitig genutzt werden, kann es vorkommen, dass einzelne Datenbezüge und Datenlieferungen nicht planmässig durchgeführt werden können. In der Regel hat dies keine Konsequenzen, da die betroffenen Applikationen den Datenbestand vom Vortag oder den aktuellen Bestand des Folgetages verwenden können, um ihre stichtagbezogenen Berechnungen durchzuführen. In Einzelfällen wie beispielsweise bei nachgelagerten Berechnungen auf der Basis von Stamm- und Referenzdaten kann es so aber zur ungewollten Verfälschung der Resultate kommen, wenn durch einen Unterbruch in der Beschaffung der Daten
«Lücken» im Verlauf dieser
Daten auftreten.
In solchen Fällen ist es wünschenswert, auf eine umfassende Historie der Informationen zurückgreifen zu können, um fortlaufende, auf bestehenden Resultaten aufbauende Berechnungen gewährleisten und reproduzieren zu können.
Die Verfügbarkeit einer Historie ist weiter von Vorteil, wenn eine nutzende Applikation nur an der Veränderung über einen bestimmten Zeitraum interessiert ist – sei es, um Berechnungen auszuführen oder um den Datenbestand effizient und ohne Overhead zu replizieren.
Hinzu kommt, dass die Führung einer umfassenden Historie in einem zentralen System deren Führung in sämtlichen Daten beziehenden Applikationen erübrigen kann und so den Ressourcen-bedarf einzelner Applikationen entsprechend begünstigt.
Nutzbar ist eine Historie in den oben beschriebenen Fällen aber nur, wenn diese auch online verfügbar ist, wenn sie also ein Bestandteil des aktiven Datenbestandes ist.
Dies erfordert besondere Massnahmen bei der Führung der Daten in deren physischen Strukturen, die typischerweise mit der Abbildung über zwei Zeitdimensionen, der sogenannten bitemporalen Datenhaltung, realisiert wird. Bei der bitemporalen Datenhaltung werden sämtliche Informationen auf zwei Zeitdimensionen abgebildet.
Die eine Dimension – die fachliche Gültigkeit – gibt Aufschluss über die Periode, während der eine bestimmte fachliche Information gültig ist. Diese Perioden liegen nicht nur in der Gegenwart, sondern auch in der Vergangenheit oder in der Zukunft.
Ein typisches Beispiel dafür sind etwa zukünftige Zinskonditionen. Üblicherweise werden diese Informationen einige Zeit vor dem Datum, an dem sie in Kraft gesetzt werden, ins System eingegeben. Forecast-Modelle nutzen beispielsweise dann diese «Zukunftsinformationen», um Veränderungen in den Geldflüssen vorzeitig zu erkennen.
Die zweite Dimension – das Wissen – gibt Aufschluss über die Periode, während der eine bestimmte fachliche Information im System Gültigkeit hatte. Mit dieser zusätzlichen Zeitdimension wird sichergestellt, dass jede Version einer fachlichen Information im System registriert bleibt. Nachträgliche Korrekturen an der fachlichen Information oder an deren Gültigkeit werden stets als neue Version beziehungsweise als neues Wissen festgehalten.
So kann man jederzeit «altes Wissen» rekonstruieren und somit begründen, auf welcher Datenbasis Berichte erstellt und Entscheide getroffen wurden.
Die Abbildung von Stamm- und Referenzdaten erfolgt grundsätzlich nach den individuellen Bedürfnissen. Um gute Resultate bezüglich der Wartbarkeit und der Konsistenz der Daten und damit der gesamten Datenqualität zu erzielen, sollte darauf geachtet werden, dass die Datenstrukturen in der 3. Normalform ausgelegt werden. Dies verhindert weitgehend Redundanzen im System.
Weiter empfiehlt sich die Stan-dardisierung der Namensgebung und der Datentypen. In der Praxis bewährt haben sich Abkürzungslisten, die den Einsatz von Abkürzungen regeln, sowie einheitliche Regeln für den Aufbau zusammengesetzter Namen. Dies, um nur einige der Massnahmen aufzuführen, die für die Qualität der Daten im Unternehmen grundlegend sind.
Der Zugriff auf die Daten aus Sicht der Endbenutzer soll der Einfachheit halber denormalisiert erfolgen können. Das heisst, sämtliche Beschreibungen und Erläuterungen der einzelnen Werte werden in demselben Datensatz mit diesen und allfälligen weiteren Hauptinformationen präsentiert. Gleichzeitig können die Datensätze über den Sprachcode auf die für den Endbenutzer relevante Sprache eingeschränkt werden.
Hemmschwelle bei der Umsetzung eines allumfassenden MDMs ist oft die Angst vor einem Projekt ohne Ende. Dies ist ein weiterer Vorteil des beschriebenen Konzepts, lässt es sich doch nach Bedarf skalieren. So ist es ohne weiteres denkbar, mit einem solchen Projekt in einer Abteilung zu beginnen und nach und nach das gesamte Unternehmen zu integrieren. Es steht ausser Zweifel, dass das Augenmerk auf höchste Datenqualität und speziell auf Stamm- und Referenzdaten gelegt werden muss, um die benötigte geschäftliche Transparenz zu erreichen und die regulatorischen Anforderungen sowie die Compliance-Fähigkeit in Zukunft zu gewährleisten. In diesem Sinn sollte die Verantwortung für ein solches Projekt auf höchster Führungsebene angesiedelt sein.
Stamm- und Referenzdatenmanagement-Prozess
Philipp Künsch ist Geschäftsführer und Gründer des Dietikoner Software- und Beratungsunternehmens Datalizard.