Quo vadis Datenqualität?

Wer Datenqualität dauerhaft sichern will, kommt um ein professionelles Stammdatenmanagement nicht herum

Die Capgemini-Studie „IT-Trends 2015“ hat es einmal mehr an den Tag gebracht: Die Bedeutung von Datenqualität und Stammdatenmanagement ist weiter gestiegen. Die beiden Themen würden zwar schon seit Jahren als wichtig eingestuft und viele Projekte aufgesetzt, aber durch die Anbindung vieler neuer Datenquellen, unter anderem aus dem WWW und dem Internet der Dinge, steige die Komplexität der Datenwelt. Datenqualität und Stammdatenmanagement seien wichtig, um die Zuverlässigkeit von strukturierten und unstrukturierten Daten zu gewährleisten. Und die brauchten Unternehmen nicht nur, um mit herkömmlichen Verfahren eine 360-Grad-Sicht auf den Kunden herzustellen, sondern auch für Big Data Analytics, also für die Analyse von großen, komplexen und sich schnell ändernden Datenmengen (s. ergänzend Grafik „Treiber für Stammdatenqualität“).

Da Stammdaten häufig allerdings in verschiedenen Applikationen und Datenbanken hinterlegt seien und Kunden-, Produkt- oder Finanzdaten von unterschiedlichen Abteilungen angelegt, genutzt und gepflegt werden, sei ihre Vereinheitlichung schwierig und langwierig. Fragt man die Unternehmen, woran sie 2015 arbeiten, so nennen 45,3 Prozent folgerichtig neue Projekte in Sachen Datenqualität und Stammdatenmanagement, zusätzlich zu den 31,6 Prozent, die bereits an der Erhöhung der Datenqualität arbeiten. Der Treiber dafür ist laut Capgemini einerseits das gestiegene Bedürfnis nach Informationen, andererseits die Tatsache, dass Datenkonsolidierung und -bereinigung Dauerthemen sind.

Datenqualität mangelhaft

Kein Wunder, schließlich sagen 36 Prozent der von dem Analysten- und Beratungshaus für Unternehmenssoftware BARC für die Studie Datenmanagement im Wandel (Dezember 2014) befragten Unternehmen, sie seien mit der Datenqualität sehr unzufrieden (7 Prozent) oder eher unzufrieden (29 Prozent). Bei den Antworten auf die Frage „Was sind aktuell die größten Probleme beim Betrieb des Data Warehouse?“ steht die Datenqualität mit 50 Prozent auf Platz 3. Eine typische Situation bei Kunden ist beispielsweise, dass eine fehlerfreie Auswertung von Material- und Artikeldaten nicht möglich ist (s. ergänzend Grafik „Verbesserungspotentiale durch Aufbau eines SDM in der Materialwirtschaft“).

Werden Lieferantendaten nicht korrekt gepflegt und ist nicht bekannt, dass mehrere Konzernunternehmen mit demselben Lieferanten zusammenarbeiten, verschenkt man Geld, weil falsch verhandelt wird. Weitere Beispiele für die Fehleranfälligkeit von Geschäftsprozessen durch schlechte Datenqualität weiß die Unternehmensberatung Camelot Management Consultants zu nennen: So entstünden durch falsch gepflegte Gewichte unter anderem Fehler in der Transportplanung und somit erhöhte Logistikkosten. Fehlende Gefahrstoffkennzeichnungen könnten zu einem Versicherungsausfall bei Unfällen führen und die falsche Risikobewertung von Geschäftspartnern zu Zahlungsausfällen. Zudem steige das Risiko, aufgrund inkonsistenter Daten und somit nicht verlässlicher Reports falsche unternehmerische Entscheidungen zu treffen, beispielsweise bei Planung und Disposition.

Mit Blick auf diese potentiellen Fehlerquellen nennen folgerichtig rund 70 Prozent aller Unternehmen bei den Themen Datenintegration und Data Warehousing die Integration heterogener Datenquellen als wesentliche aktuelle und zukünftige Herausforderung. Das Ziel, an einem Ort eine über alle Daten hinweg gültige Wahrheit herzustellen (Single Point of Truth), resümiert BARC in seiner Studie, behalte also auch im Zeitalter von Big Data eine sehr hohe Relevanz für Unternehmen. Allerdings gerieten die traditionellen Herangehensweisen an das Datenmanagement heute an mehreren Fronten gleichzeitig unter Druck: Zum einen rückten steigende Datenvolumina, Datenquellen und -strukturen, sowie der vermehrte Einsatz von Self-Service-Werkzeugen und die Ausbreitung abteilungsinterner Datensilos die Idealvorstellung eines Single Point of Truth in weite Ferne. Zum anderen erschwere der zunehmende Einsatz von Self-Service-Konzepten und -Werkzeugen in den Fachbereichen die ohnehin heikle Aufgabe, einheitliche Standards und eine kohärenten Datenstrategie durchzusetzen, ungemein.

Konsolidierung und Harmonisierung sind nur der erste Schritt

Wenngleich vielfach erkannt wird, dass Datenqualität und Stammdatenmanagement wichtig sind – operatives Handeln ist dieser Erkenntnis bislang keineswegs überall gefolgt. Erstaunlich ist, dass viele Unternehmen ohne eine professionelle Stammdatenmanagement-Lösung arbeiten. Viele, auch große Unternehmen „behelfen“ sich mit selbst gestrickten Lösungen, gerade das Konsolidieren und Harmonisieren heterogener Daten erfolgt oft sehr spät, manchmal erst im Reporting. Da werden dann einige Klimmzüge gemacht, um herauszufinden, dass man von demselben Kunden oder Material spricht, kann gleichwohl aber nicht sicher sagen, beispielsweise wie viel Umsatz mit einer Unternehmensgruppe gemacht wird, weil nicht zweifelsfrei feststeht, wer alles zu deren Kunden gehört. Voraussetzung für die Implementierung einer Stammdatenlösung ist es daher, zunächst die vorhandenen Material- und Artikel- sowie Kunden- und Lieferantenstammdaten zu harmonisieren und zu konsolidieren, um eine einheitliche Daten-basis zu schaffen, die nicht zuletzt verlässliche Analysen und Reports ermöglichen soll. Eine Konsolidierung und Harmonisierung von Stammdaten sind aber nur der erste Schritt zu einer verlässlichen und einheitlichen Datenbasis. Kurzfristig werden hiermit zwar Qualitätsprobleme gelöst, aber nicht an der eigentlichen Ursache gearbeitet. Um Datenqualität dauerhaft sicherzustellen, müssen betroffene Geschäftsprozesse und Verantwortlichkeiten festgelegt sowie Standards für Stammdaten und deren Pflege definiert werden. Es muss sichergestellt werden, dass es nicht nach kurzer Zeit wieder zu Dubletten und anderen Abweichungen kommt; andernfalls muss später erneut konsolidiert und harmonisiert werden. Eine Lösung für das Stammdatenmanagement muss so aufgesetzt werden, dass Unternehmen ein zentrales System und eine einheitliche Sicht auf die Daten haben – inklusive klarer Regeln für die Data Governance (s. ergänzend Grafik „Rahmenstruktur für DQM“).

Geschäftsprozesse und Data Governance definieren

Ein professionelles Stammdatenmanagement kostet Geld. Schlechte Datenqualität und nicht vorhandenes oder „selbstgestricktes“ Stammdatenmanagement kosten noch mehr Geld. Mit dieser Erkenntnis tun sich viele Unternehmen unverändert schwer. Sie setzen lieber Manpower ein und nutzen eigene Tools, um zu wenigstens halbwegs brauchbaren Daten zu kommen. Nicht zuletzt versuchen sie so, sich vor der Aufgabe zu drücken, ihre Geschäftsprozesse zu justieren und Regeln für den Umgang mit Daten aufzustellen. Gerade das erfordert aber ein professionelles Stammdatenmanagement: Es darf eben nicht mehr jeder in seinem Datensilo machen, was er will; es gibt klare Richtlinien, die natürlich in Hoheitsgebiete eingreifen. So darf beispielsweise der Vertrieb mit „seinen“ Daten nicht nach Gusto umgehen, sondern muss sich an Vorgaben halten, welche Daten wo und wie gepflegt werden, wer genehmigt usw. Hinzu kommt, die Verantwortlichen müssen auch für die Richtigkeit und Vollständigkeit der Daten geradestehen. Solange allerdings das Bewusstsein für die Notwendigkeit von Veränderungen bei Geschäftsprozessen und Verantwortlichkeiten nicht vorhanden ist, sehen viele Unternehmen auch keinen Anlass, Geld für eine Stammdatenmanagement-Lösung auszugeben.

Damit greifen sie allerdings zu kurz: „Effektives und effizientes Stammdatenmanagement ist (…) unumstritten ein wesentlicher betriebswirtschaftlicher Erfolgsfaktor. Stammdaten können ohne Übertreibung als ‚Rückenmark‘ der Geschäftsprozesse bezeichnet werden”, betonen Camelot Management Consultants. Eine professionelle Standardlösung für das Stammdatenmanagement stellt einen „Single Point of Truth“ für die verschiedenen Stammdatenkategorien bereit (s. Grafik „SPoT für Stammdaten“). Sie verbessert nicht nur die Qualität und Aktualität der Stammdaten, sondern sorgt auch für effizientere Prozesse (s. ergänzend Grafik „Datenqualität als Voraussetzung für Geschäftsprozesse“).

Gleichzeitig implementieren Unternehmen einen einheitlichen und kontrollierten Ablauf für die Pflege ihrer Stammdaten. Ein IT-gestütztes Stammdatenmanagement verhindert, dass Stammdaten mehrfach und unsauber gepflegt werden und am Ende verfälschte, unvollständige und inkonsistente Daten die tägliche Arbeit verzögern und unnötigen Aufwand erzeugen. Es sorgt zudem für einen einheitlichen Datenpool, aus dem alle angeschlossenen Systeme bedient und „saubere“ Berichte sowie Auswertungen erstellt werden können (s. Grafik „SPoT für Stammdaten“). Regelmäßige Bereinigungsprojekte zur Konsolidierung und Harmonisierung sind nicht mehr notwendig – die richtigen und vollständigen Stammdaten stehen jedem zu jeder Zeit zur Verfügung.