Stammdatenmanagement und die Herausforderungen durch Industrie 4.0 und Big Data

Teil 2/2

Mit Blick auf die künftigen Produktionsprozesse besteht die technologische Herausforderung darin, die riesigen Datenmengen schnell aufzubereiten und zu analysieren, so Manfred Wittenstein, Aufsichtsratsvorsitzender der Wittenstein AG.

Herausforderung Datenaustausch: Ohne Stammdatenmanagement läuft nichts

Eine der größten Aufgaben durch Industrie 4.0 sei daher das Beherrschen des Datenaustauschs über die verschiedenen Wertschöpfungsketten der Produktions- und Fertigungsprozesse hinweg. Dafür gelte es, Datenverteilung, Datenqualität, Datensicherheit und das Datenwachstum übersichtlich darzustellen und zu kontrollieren, kommentiert Josef Glöckl-Frohnholzer, COO des Cloud-Dienstleisters Zimory. Um diese Aufgabe zu bewältigen, ist der Einsatz von Stammdatenmanagementsystemen unerlässlich. Nur mit ihrer Hilfe lassen sich Datenqualität und gleichzeitig Data-Governance-Aspekte über die Geschäftsprozesse hinweg sicherstellen. Gerade in der Produktion spielen Stammdaten eine wichtige Rolle (siehe das Beispiel VW in Teil 1); damit geht ein höherer Anspruch an die Datenqualität einher. Werden beispielsweise Stücklisten nicht korrekt gepflegt, verzögert sich die Zusammenstellung des Produktes erheblich, Lieferverzögerungen und erhöhte Kosten sind die Folge. Findet der Datenaustausch in der Industrie 4.0 automatisiert zwischen den intelligenten Objekten und Produktionsanlagen statt, verschwinden mehr und mehr die menschlichen „Schnittstellen“, die Datenqualität sicherstellen können.

Werkstücke und Maschinen mögen noch so „intelligent“ sein, „Datenqualität“ können sie nicht beurteilen und daher auch nicht korrigierend eingreifen. Fehlt aber das menschliche Korrektiv, ist es umso mehr unerlässlich, datenqualitätssichernde Maßnahmen mit Hilfe professioneller Stammdatenmanagement-Lösungen von vornherein zu integrieren.

Herausforderung Datenanalyse: Datenqualitätsmanagement essentiell

Der fortschreitende Umgang mit Data Analytics und Big Data in den Unternehmen erhöht die Anforderungen an die Stammdatenqualität weiter, so Andreas Dietze und Thomas Fischer, IT-Experten bei Roland Berger Strategy Consultants.

Big Data wird üblicherweise anhand dreier Charakteristika beschrieben: Datenmenge (Volume), Geschwindigkeit des Datenstroms (Velocity) und Vielfalt der Datenformate und -quellen (Variety). Allerdings müssen Unternehmen eine wichtige vierte Dimension berücksichtigen: die Richtigkeit der Daten. Die Einbeziehung von Richtigkeit (Veracity) unterstreiche, wie wichtig es sei, die implizite Unsicherheit einiger Datentypen zu berücksichtigen und in den Griff zu bekommen. Darauf haben das IBM Institute for Business Value und die Saïd Business School in ihrer 2012 veröffentlichten Studie „Analytics - Big Data in der Praxis“ hingewiesen. Hohe Datenqualität sei eine wichtige Anforderung im Umgang mit Big Data. Kein Wunder: Auch noch so viele Daten sind ohne das Erkennen von Zusammenhängen, Bedeutungen und Mustern wertlos. Der Einsatz von Verarbeitungs- und Analysemethoden kann aber nur dann einen monetären Wert aus Big Data generieren, wenn die Daten „stimmen“. Auswertungen oder Planungen sind fehleranfällig, wenn sie nicht auf vollständigen, eindeutigen und „richtigen“ Daten basieren. Daher bilde das Vertrauen in die Verlässlichkeit der Daten eine essentielle Voraussetzung, um wichtige Entscheidungen zu treffen, betonen Dietze/Fischer. Fehlende Standards zur Datenpflege störten dieses Vertrauen jedoch. Unternehmen sollten daher die Mahnung von Marco Geuer, Senior Berater bei der ACT-Gruppe, ernst nehmen: „Ohne ein effektives Datenqualitätsmanagement werden Unternehmen es nicht schaffen, das Potential von Big Data und Business Analytics voll auszuschöpfen.“

„Single Point of Truth“ durch Stammdatenmanagementlösung

Mit Blick auf die geschilderten Herausforderungen ist es nicht übertrieben, Stammdaten als „Rückenmark“ der Produktionsprozesse zu bezeichnen. Ein professionelles Stammdaten- und Datenqualitätsmanagement ist daher unerlässlich. Aufwändige Datenbereinigungsaktionen, bei denen lediglich kurzfristig Qualitätsprobleme durch Konsolidierung und Harmonisierung behoben werden, lassen die eigentliche Ursache unangetastet. Um eine dauerhafte Datenqualität zu erzielen, müssen betroffene Produktionsprozesse identifiziert und Standards für Stammdaten, für Datenpflege und -freigabe (Data Governance) definiert werden. Erst wenn das geschehen ist, kann eine IT-Unterstützung erfolgen.