zetVisions
Bunte Post-It Zettel
Stammdatenmanagement
Datenmanagement
Data Governance
10.02.22

Datenqualität messen – 3 Instrumente zur Bewertung

Ein Artikel von: Andreas Stock

Schlechte Datenqualität beschäftigt ständig Unternehmen. Das Thema kommt immer wieder auf den Tisch, doch valide Daten fehlen. Drei Instrumente helfen, Kosten und Datenqualität zu messen.

Das Thema Datenqualität im Stammdatenmanagement hat etwas von „Und täglich grüßt das Murmeltier“. Ähnlich wie Phil Conners, gespielt von Bill Murray, hat man das Gefühl, in einer Zeitschleife festzusitzen und im übertragenen Sinne ein und denselben Tag immer wieder zu erleben. Immer wieder wird betont, wie wichtig Datenqualität ist und was Unternehmen alles dafür tun sollten, während im gleichen Atemzug die verbreitet unzureichende bis schlechte Datenqualität angeprangert wird. Nun wird man nicht behaupten können, an dem Thema werde nicht gearbeitet. Da passiert schon einiges, gleichwohl bleibt der Eindruck, so richtig ist die Bedeutung der Datenqualität noch nicht überall dort angekommen, wo sie ankommen müsste – vor allem nicht in den Chefetagen.

Kosten schlechter Datenqualität

Das könnte daran liegen, dass es viele Unternehmen unterlassen, die Kosten schlechter Datenqualität transparent zu machen. Laut dem Gartner Data Quality Market Survey von 2017 messen fast 60 Prozent der Unternehmen die jährlichen finanziellen Kosten von Daten schlechter Qualität nicht. „Wenn diese Auswirkungen nicht gemessen werden, führt dies zu reaktiven Antworten auf  Datenqualitätsprobleme, verpasste Geschäftswachstumschancen, erhöhte Risiken und einen niedrigeren ROI“, sagt Mei Yang Selvage, Research Director bei Gartner.

„Führende informationsorientierte Organisationen messen aktiv den Wert ihrer Informationsressourcen sowie die Kosten von Daten schlechter Qualität und den Wert von Daten guter Qualität“, so Selvage weiter. „Vor allem verknüpfen sie diese direkt mit den wichtigsten Kennzahlen für die Unternehmensleistung.“ Schlechte Datenqualität trifft Organisationen dort, wo es weh tut – beim Geld. Nach der Gartner-Umfrage belaufen sich die durchschnittlichen jährlichen Finanzkosten je Unternehmen auf 15 Millionen US-Dollar. Das sind die direkten Kosten. Unternehmen sind aber nicht nur finanziell betroffen. Schlechte Datenqualitätspraktiken untergraben digitale Initiativen, schwächen ihre Wettbewerbsfähigkeit und säen Misstrauen der Kunden, betont Salvage.

Mehr Fakten gefällig? Gerne! Thomas C. Redman, Gründer von Data Quality Solutions und in der Community als „the Data Doc“ bekannt, schätzt, dass die Kosten schlechter Daten für die meisten Unternehmen bei 15 bis 25 Prozent des Umsatzes liegen. Diese Schätzung von Ende November 2017 stand nicht irgendwo, sondern im Sloan Management Review des MIT. Sie basiert auf Untersuchungen von Experian (schlechte Daten kosten Unternehmen weltweit 23 Prozent des Umsatzes) sowie den Beratern James Price von Experience Matters (20.000 US-Dollar pro Mitarbeiter für schlechte Daten) und Martin Spratt von Clear Strategic IT Partners (16 bis 32 Prozent unnötiger Aufwand mit Daten).

Die Gesamtkosten für die US-Wirtschaft: schätzungsweise 3,1 Billionen US-Dollar pro Jahr, laut IBM. Das ist eine ordentliche Stange Geld. Dabei sind die Kosten, die Unternehmen durch wütende Kunden und Fehlentscheidungen entstehen, noch nicht einmal messbar – in jedem Fall aber enorm. Soweit die schlechte Botschaft. Die gute lautet: Schätzungsweise zwei Drittel der messbaren Kosten können laut Redman identifiziert und dauerhaft beseitigt werden.

Nun mag man einwenden, das seien ja vorrangig Zahlen aus den USA und die Verhältnisse in Deutschland – was Datenqualität angeht – viel besser. Das kann der Autor aus eigener langjähriger Erfahrung leider nicht bestätigen. Im Übrigen weisen alle bisher bekannten empirischen Untersuchungen zur Datenqualität auch für die hiesigen Gefilde in dieselbe Richtung: Es besteht dringender Handlungsbedarf.

Damit Sie die Datenqualität in Zukunft sichtbar und messbar machen können, stellen wir Ihnen drei Methoden zur Analyse der Datenqualität und Bewertung der Folgekosten vor. Die ersten zwei Methoden sind eine manuelle Analyse, die Dritte ist eine softwarebasierte Lösung für Daten in SAP-Systemen.

  1. Status erheben: die „Friday Afternoon“-Messmethode
  2. Kosten aufzeigen: die „Zehner-Regel“-Messmethode
  3. Umfassend analysieren: der zetVisions Data Quality Analyzer (DQA)

1. Status erheben: die „Friday Afternoon“-Messmethode

Wer dem Problem im eigenen Unternehmen auf den Grund gehen möchte, dem sei die „Friday Afternoon“-Messmethode empfohlen, die Thomas Redman entwickelt hat („Friday Afternoon“, weil die Methode ohne großen Aufwand an einem ruhigeren Freitagnachmittag in ein, zwei Stunden angewandt werden kann). Zunächst geht es darum, die Datensätze der letzten 100 in einer Gruppe, einer Abteilung erledigten Arbeitseinheiten zu sammeln. Bearbeitet die Gruppe Kaufaufträge, dann die letzten 100 Aufträge usw. Dann werden zehn bis 15 kritische Datenattribute definiert, also Attribute, die vollständig, fehlerfrei und konsistent sein müssen, damit mit den Datensätzen etwas anzufangen ist.

Alles wird in eine Tabelle eintragen, die 100 Zeilen für die Datensätze und 10 bis 15 Spalten für die Datenattribute enthält. Im nächsten Schritt geht ein kleiner Personenkreis Datensatz für Datensatz durch und markiert die offensichtlichen Fehler in den entsprechenden Tabellenfeldern farbig. Am Ende wird für jeden Datensatz festgehalten, ob er perfekt ist (keine Farbmarkierungen) oder nicht (Markierungen vorhanden), und die Summe der perfekten Datensätze gebildet. Diese Zahl, die zwischen 0 und 100 liegen kann, repräsentiert den Prozentsatz der korrekt erstellten Daten.

Screenshot Tabelle "Friday Afternoon Measurement Spreadsheet"

Redman hat zusammen mit Tadhg Nagle und David Sammon in einem Zeitraum von zwei Jahren mit 75 Führungskräften aus verschiedenen Unternehmen und Branchen, aus Regierungsbehörden sowie Abteilungen wie Kundenservice, Produktentwicklung und Personal diese Bestandsaufnahme durchgeführt. Das Ergebnis war erschütternd: Nur 3 Prozent der Datensätze fielen in den „akzeptablen“ Fehlerbereich (als „akzeptabel“ galten hier mindestens 97 korrekte Datensätze von 100).

Fast 50 Prozent der neu erstellten Datensätze wiesen mindestens einen kritischen Fehler auf. Dabei zeigte sich auch, dass keine Branche, Regierungsbehörde oder Abteilung gegen die Verwerfungen schlechter Datenqualität immun ist. Als Ergebnis kann festgehalten werden: Die Datenqualität ist in wesentlich schlechterem Zustand, als es den meisten Führungskräften bewusst ist. Wer keine eindeutigen Beweise für das Gegenteil hat, muss davon ausgehen, dass die eigenen Daten auch nicht besser sind, warnt Redman.

Eine Visualisierung macht es deutlicher:

Balkendiagramm Datenqualität messen

2. Kosten aufzeigen: die „Zehner-Regel“-Messmethode

Gewissheit verschafft die „Friday Afternoon“-Messmethode. Und damit auch gleich die monetären Folgen der eigenen Befunde illustriert werden, kommt die sogenannte „Zehner-Regel“ zum Einsatz. Natürlich lassen sich die Kosten nicht exakt bemessen, aber die Zehner-Regel, so Redman, helfe dabei, zumindest eine realistische Vorstellung davon zu gewinnen.

Die Regel besagt, dass „die Fertigstellung einer Arbeitseinheit zehn Mal so viel kostet, wenn die Daten in irgendeiner Weise fehlerhaft sind, als wenn sie perfekt sind“. Nehmen wir als Beispiel noch einmal die Gruppe, die Kaufaufträge bearbeitet und sagen wir, sie muss davon 100 Stück pro Tag bearbeiten. Die Bearbeitung eines Kaufauftrags kostet 5 Euro, wenn die Daten perfekt sind. Sind die Daten aller 100 Kaufaufträge perfekt, liegen die täglichen Gesamtkosten bei 100 x 5 Euro = 500 Euro. Wenn nun nur 82 Kaufaufträge perfekte Datensätze haben, 18 aber fehlerhafte, dann sieht die Rechnung wie folgt aus: (82 x 5 Euro) + (18 x 50 Euro) = 410 Euro + 900 Euro = 1310 Euro. Ein Kostenanstieg um 162 Prozent.

Dabei berücksichtigt die Zehner-Regel keine nicht-monetären Kosten wie verlorene Kunden, schlechte Entscheidungen oder einen Reputationsschaden.

3. Umfassend analysieren: der zetVisions Data Quality Analyzer (DQA)

Der zetVisions Data Quality Analyzer (DQA), ist eine softwarebasierte Lösung um eine sichere Aussage über den aktuellen Zustand der Datenqualität in SAP-Systemen zu erhalten. Unternehmen können sich ein zuverlässiges Bild davon machen, wie gut oder schlecht es um ihre Datenqualität bestellt ist. Die "gefühlte Datenqualität" kann überprüft mit Fakten untermauert werden.

Nach der Installation des DQA auf dem SAP-System wird in die einzelnen Stammdatendomänen, wie die Kunden/Lieferanten bzw. Geschäftspartner, Produkt- und Materialstammdaten, Einblick genommen. Der DQA scannt die Daten nach individuell festgelegten Parametern auf inkonsistente, doppelte, unvollständige und veraltete Datensätze.

Mit Hilfe von KPIs werden die Datensätze mit gut, mangelhaft oder ausreichend bewertet. Diese definierten Regelsätze prüft der DQA in festgelegten Abständen und visualisiert den Trend der Verbesserung auf einem Dashboard. Nach Aufspüren eines mit Mängeln behafteten Datensatzes wird automatisch eine Korrekturaufgabe angestoßen und per Email an die zuständigen Mitarbeiter gesendet.

Vor der Anschaffung einer Stammdatenmanagement-Software muss sich das Management und die Stakeholder von der Notwendigkeit dieser Investition überzeugen – keine leichte Aufgabe. Die mit Fakten untermauerte Erkenntnis über die Datenqualität unterstützt den Vorschlag oder sogar die Entscheidung für die Anschaffung einer Software.

Die unausweichlich anstehende Umstellung aller SAP ERP Systeme auf SAP S/4Hana stellt viele Unternehmen vor Herausforderungen. Schlechte Datenqualität wird bei der Umstellung zu Verzögerungen der Migration führen. Steigende Kosten und gestörte Geschäftsprozesse sind vorprogrammiert. Die Verbesserung der Datenqualität sollte also schon heute ganz oben auf der Tagesordnung stehen, damit die Umstellung auf SAP S/4Hana reibungslos gelingt.

Möchten Sie sich den zetvisions DQA live anschauen? Im Rahmen unserer regelmäßigen Produkt-Demos können Sie interaktiv teilnehmen oder einfach nur zuschauen. Hier geht es zu den Terminen.

Ausblick

Es ist am Ende unerheblich, ob die Kosten für die Bearbeitung von Arbeitseinheiten mit fehlerhaften Datensätzen nun zehn Mal höher liegt als mit perfekten Daten, oder nur acht oder sieben Mal. Allein die monetären Kosten liegen in jedem Fall deutlich höher, und die Zehner-Regel veranschaulicht dies.

Zusammen mit der „Friday Afternoon“-Messmethode haben die Verantwortlichen zwei einfache Instrumente an der Hand, die sie dabei unterstützen, zum einen den Status zur Datenqualität zu erheben und zum anderen die Kosten schlechter Datenqualität zu illustrieren.

Mit dem zetVisions DQA lässt sich der Zustand der Datenqualität per Software analysieren und untermauert mit Fakten die Entscheidung in ein Stammdatenmangementsystem zu investieren.

[Die erste Version des Beitrags erschien zuerst bei it daily.]

Andere Beiträge

Fünf Holzwürfel mit Sternen, wie bei einem Bewertungssystem.
26.10.23

Datenqualität im Stammdatenmanagement

Datenqualität im Stammdatenmanagement sind der Schlüssel zum Unternehmenserfolg. Korrekte Daten prägen die Entscheidungsfindung und steigern die Effizienz.

Türme aus Holzklötzchen
08.12.21

Data Preparation – die Grundlage für aussagekräftige Analysen

Das Ziel von Data Preparation ist, Nutzer und analytische Systeme mit nutzbaren Daten zu versorgen – als Grundlage für die Ermittlung von Kundenbedürfnissen.

Zwei Zahnräder aus Metall mit Beschriftung "Prozess" und "Automation"
05.10.21

Effizienter arbeiten durch automatisierte Stammdatenpflege

Die Pflege von Stammdaten automatisieren, um Pflegeaufwand zu reduzieren und Datenkonsistenz und -qualität zu steigern.