Glossar
Stammdatenmanagement von A bis zetVisions
A
- Änderungsbeleg
-
Darunter versteht man die die Dokumentation von vorgenommenen Änderungen, z. B. an einer Gesellschaft, die mit Hilfe des Vier-Augen-Prinzips geprüft und im System freigegeben werden.
Eine zentrale Forderung aller Erlasse und Gesetze im Unternehmens- und Kapitalmarktrecht der letzten Jahre ist die nach einer nachvollziehbaren, verlässlichen Dokumentation von relevanten Geschäftsvorgängen. Nur auf dieser Weise ist eine Verantwortlichkeit für die Einhaltung von Prozessen und die Richtigkeit von Mitteilungen herzustellen.
In zetVisions SPoT wird jede Änderung, z. B. die Korrektur eines Straßennamens, per Änderungsbeleg dokumentiert. Damit wird eine lückenlose, jederzeit nachvollziehbare Historie erstellt, die ausgewertet werden kann und Revisionssicherheit bietet.
B
- Benutzerrollen
-
Eine Benutzerrolle (oder kurz Rolle) definiert Aufgaben, Eigenschaften und vor allem Rechte eines Benutzers in einer Software bzw. in einem Betriebssystem. Benutzerrollen werden verwendet, um die Einstellungen der vorgenannten Bereiche nicht für jeden Nutzer einzeln festlegen zu müssen. Statt Benutzern Rechte direkt zuzuweisen, wird eine Benutzerrolle definiert, die dann vielen Benutzern zugeordnet werden kann. Dies erleichtert die Rechteverwaltung des Softwaresystems, da insbesondere bei Änderungen der Rechtestruktur nur die Rechte der Benutzerrolle angepasst werden müssen.
Ein Benutzer kann mehrere Rollen haben und seine Rechte ergeben sich dann durch die Vereinigung der Rechte aller Rollen.
Die Definition von Benutzerrollen gehört zum Aufgabenfeld der Berechtigungsadministration, die Zuordnung von Rollen an Benutzer dagegen als Teil der Benutzeradministration.
- Berechtigungen / Berechtigungskonzept
-
Ein Berechtigungskonzept beschreibt ein System, in dem die Nutzung von Ressourcen nicht uneingeschränkt möglich ist, sondern eine genaue Definition der Nutzung je Benutzer und Ressource erfolgt.
Obwohl ursprünglich aus dem organisatorischen Umfeld kommend, haben Berechtigungskonzepte vor allem im Zusammenhang mit Systemen zur Informationstechnik eine wichtige Bedeutung. Ressourcen sind hier beispielsweise Daten und Informationen, aber auch die technische Infrastruktur wie Systemzugänge, Speicherplatz, Rechnerleistung, Computerprogramme usw.
Ein Berechtigungskonzept dient dem Schutz dieser Ressourcen vor Veränderung oder Zerstörung (z.B. Datensicherheit), verhindert aber auch ihren unrechtmäßigen Gebrauch (z. B. Datenschutz).
Neben den zu schützenden Ressourcen beschreibt und regelt das Berechtigungskonzept auch die zum Schutz dieser Ressourcen anzuwendenden Hilfsmittel (die zur Systemsoftware bzw. zur systemnahen Software gehören) sowie deren Einsatz, zum Beispiel wie sich die Benutzer von Computer-Systemen identifizieren (Passwort, Zugangscode ...).
Rein benutzerbezogene Konzepte neigen zur Unübersichtlichkeit und sind deshalb oft nur rudimentär ausgeprägt. Besser ist ein Konzept über Rollen oder Benutzergruppen. Damit lassen sich Berechtigungen zusammenfassen, beispielsweise alle Berechtigungen, die Mitarbeiter in der Personalbuchhaltung benötigen, wie es sich aus den dortigen Geschäftsprozessen eben ergibt. Jedem Mitarbeiter, der nun konkret in der Personalbuchhaltung arbeitet, wird diese Rolle zugeordnet. Ein Mitarbeiter kann aber durchaus mehrere Rollen haben, wenn er mehrere Funktionen bekleidet. Auf diese Weise wird erreicht, dass sowohl Veränderungen in den Zuständigkeiten der einzelnen Mitarbeiter, als auch Veränderungen im Geschäftsprozess, nur an jeweils einer Stelle im Berechtigungskonzept nachvollzogen werden müssen und dieses konsistent und überschaubar bleibt.
- Big Data
-
Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen. Big Data wird üblicherweise anhand dreier Charakteristika beschrieben: Datenmenge (Volume), Geschwindigkeit des Datenstroms (Velocity) und Vielfalt der Datenformate und -quellen (Variety). Allerdings müssen Unternehmen zudem eine wichtige vierte Dimension berücksichtigen: die Richtigkeit der Daten. Die Einbeziehung von Richtigkeit (Veracity) als viertem Merkmal von Big Data unterstreicht, wie wichtig es ist, die implizite Unsicherheit einiger Datentypen zu berücksichtigen und in den Griff zu bekommen.
Darauf haben das IBM Institute for Business Value und die Saïd Business School in ihrer 2012 veröffentlichten Studie „Analytics - Big Data in der Praxis“ hingewiesen. Hohe Datenqualität sei eine wichtige Anforderung und Herausforderung im Umgang mit Big Data. Unternehmen müssen erkennen, dass zu den bereits bekannten Treibern für Stammdatenqualität, wie etwa Compliance-Anforderungen, 360-Grad-Sicht auf den Kunden oder Schaffung eines „Single Point of Truth“, jetzt Big Data Analytics mit Macht hinzukommt. Ein effektives Datenqualitäts- und à Stammdatenmanagement ist daher im Zusammenhang mit Big Data endgültig unerlässlich. Nur so lässt sich Datenqualität sichern und lassen sich Strukturen in Big Data erkennen und nutzbar machen.
- Big Data Analytics
-
Meint die Auswertung und Nutzung von Daten. Grundlage ist das Erkennen von Zusammenhängen, Bedeutungen und Mustern. Auch noch so viele Daten sind ohne dieses Erkennen wertlos. Entscheidend ist: Die Datenqualität muss stimmen. Der Einsatz von Verarbeitungs- und Analysemethoden kann nur dann einen monetären Wert aus Big Data generieren, wenn die Daten „stimmen“. Aus „schlechten“ Daten kann es keine „guten“ Informationen geben. Auswertungen oder Planungen sind fehleranfällig, wenn sie nicht auf vollständigen, eindeutigen und „richtigen“ Daten basieren.
Daher bilde das Vertrauen in die Verlässlichkeit der Daten eine essentielle Voraussetzung, um wichtige Entscheidungen zu treffen, betonen Andreas Dietze und Thomas Fischer, IT-Experten bei Roland Berger Strategy Consultants. Fehlende Standards zur Datenpflege störten dieses Vertrauen jedoch; das Optimierungspotential bleibe oft ungenutzt. Unternehmen sollten daher die Mahnung von Marco Geuer, Senior Berater bei der ACT-Gruppe, ernst nehmen: „Ohne ein effektives Datenqualitätsmanagement werden Unternehmen es nicht schaffen, das Potential von Big Data und Business Analytics voll auszuschöpfen.“ Erst ein professionelles Stammdatenmanagement liefert die Grundlage, um aus „guten“ Daten „gute“ Informationen und sodann mit Hilfe wirkungsvoller Analytik zuverlässiges Wissen zu generieren, das wiederum gut abgesicherte unternehmerische Entscheidungen ermöglicht. elektronischer Form.
Ziel ist die Gewinnung von Erkenntnissen, die in Hinsicht auf die Unternehmensziele bessere operative oder strategische Entscheidungen ermöglichen. Dies geschieht mit Hilfe analytischer Konzepte, entsprechender Software bzw. IT-Systeme, die Daten über das eigene Unternehmen, die Mitbewerber oder die Marktentwicklung im Hinblick auf den gewünschten Erkenntnisgewinn auswerten. Mit den gewonnenen Erkenntnissen können Unternehmen ihre Geschäftsabläufe, sowie Kunden- und Lieferantenbeziehungen profitabler machen, Kosten senken, Risiken minimieren und die Wertschöpfung vergrößern.
- Business Intelligence
-
Der Begriff Business Intelligence, Abkürzung BI, wurde ab Anfang bis Mitte der 1990er Jahre populär und bezeichnet Verfahren und Prozesse zur systematischen Analyse (Sammlung, Auswertung und Darstellung) von Daten in elektronischer Form. Ziel ist die Gewinnung von Erkenntnissen, die in Hinsicht auf die Unternehmensziele bessere operative oder strategische Entscheidungen ermöglichen. Dies geschieht mit Hilfe analytischer Konzepte, entsprechender Software bzw. IT-Systeme, die Daten über das eigene Unternehmen, die Mitbewerber oder die Marktentwicklung im Hinblick auf den gewünschten Erkenntnisgewinn auswerten. Mit den gewonnenen Erkenntnissen können Unternehmen ihre Geschäftsabläufe, sowie Kunden- und Lieferantenbeziehungen profitabler machen, Kosten senken, Risiken minimieren und die Wertschöpfung vergrößern.
C
- Compliance
-
Compliance bzw. Regeltreue (auch Regelkonformität) ist in der betriebswirtschaftlichen Fachsprache der Begriff für die Einhaltung von Gesetzen und Richtlinien, aber auch von freiwilligen Kodizes, in Unternehmen. Die Gesamtheit der Grundsätze und Maßnahmen eines Unternehmens, zur Einhaltung bestimmter Regeln und damit zur Vermeidung von Regelverstößen in einem Unternehmen wird als Compliancemanagementsystem bezeichnet. Der Deutsche Corporate Governance Kodex (DCGK) definiert Compliance als die in der Verantwortung des Vorstands liegende Einhaltung der gesetzlichen Bestimmungen und unternehmensinternen Richtlinien. „Der Begriff Compliance steht für die Einhaltung von gesetzlichen Bestimmungen, regulatorischer Standards und Erfüllung weiterer, wesentlicher und in der Regel vom Unternehmen selbst gesetzter ethischer Standards und Anforderungen.“
D
- Data Governance
-
Unternehmensinterne Richtlinien für den Umgang mit Daten. Data Governance definiert einheitliche Prozesse und Verantwortlichkeiten für Dateneingabe, -freigabe und -pflege. Data Governance handelt von der Konvergenz von Datenqualität, Datenmanagement, Datenrichtlinien, Geschäftsprozessmanagement und Risikomanagement rund um den Umgang mit Daten in einer Organisation. „Data Governance legt einen Ordnungsrahmen mit Regeln für das strategische Informationsmanagement fest und stellt die Werkzeuge zur Überwachung und Steuerung der Vorschriften, internen Regeln sowie gesetzlicher Vorgaben und Compliance-Anforderungen bereit“, heißt es bei CIO.de. Wie sieht eine Data-Governance-Unterstützung praktisch aus? Die Daten können von unterschiedlichen Nutzern in einem System erfasst, von der Konzernzentrale validiert und an die relevanten Systeme distribuiert werden. Dies geschieht auf Basis von Prozessen, die sich inklusive Freigaben und Workflows von den Unternehmen selbst definieren lassen. Belege können innerhalb eines Prozesses (Requests) dokumentieren, welcher Nutzer beziehungsweise welche Nutzergruppe welche Daten eingegeben, und wer diese Daten auf Basis welcher Informationen freigeben hat.
- Data Governance Office
-
Institutionalisierte Daten-Autorität, die die Nutzung von Daten innerhalb des Unternehmens festlegt. Das Office besteht aus Vertretern der relevanten Geschäftsbereiche; dabei kann nach fachlichem Fokus (zentrale/dezentrale Vertriebsfunktionen, Finance, HR, IT) oder geographischem Fokus (alle Funktionen einer Landesvertretung) unterschieden werden. Die Tätigkeit des Data Governance Office beschränkt sich vorrangig auf Felder, die das Unternehmen bei der Erreichung von Geschäftszielen unterstützen: (1) Schaffung von Konsistenz über den Daten-Lebenszyklus hinweg; (2) Funktionsübergreifende Zusammenarbeit, um Best Practices auszutauschen und Konflikte, Kannibalisierungseffekte oder Synergien zu identifizieren; (3) Begründung von Daten-Betriebsbereitschaft und Vertrauen in Daten; (4) Konstituierung einer unternehmensweiten „Data Quality Culture“.
- Data Owner / Dateneigner
-
Analog zum Prozesseigner, der für einen bestimmten Prozess zuständig ist, ist der Dateneigner für einen bestimmten Teil der Unternehmensdaten (z.B. für Lieferantenstammdaten) zuständig. Seine Rolle bewegt sich im Rahmen der Data Governance und der Qualität von Daten. Er sorgt für die Umsetzung der Standards und Richtlinien, die vom Governance-Komitee oder vom für die Qualitätssicherung von Daten zuständigen Gremium verabschiedet wurden. Der Dateneigner ist üblicherweise ein Manager, dem für die Erfüllung seiner Aufgaben ein Data steward zuarbeitet.
- Data Steward
-
Sorgen dafür, dass die Data Governance von allen im Unternehmen bei allen Tätigkeiten beachtet und umgesetzt wird. Diese Aufgabe sollten sie nicht als polizeiliche Kontrollinstanz erfüllen, sondern im Gegenteil als Dienstleister für die Fachabteilungen. Dazu gehören unterschiedliche Tätigkeiten. Data Stewards sollten eine führende Rolle bei der Entwicklung von Datendefinitionen einnehmen. Sie sollten Data Profiling unterstützen, um Fehler in Daten aufzudecken und die Auswirkungen solcher Fehler abschätzen. Sie sollten die Nutzung von Daten propagieren und für Datensicherheit sorgen. Sie sollten auch über die Einhaltung aller Regeln und über die Qualität der Daten mittels Monitoring wachen. Sie sind auch beteiligt, wenn es um die Priorisierung von Datenqualitäts-Maßnahmen geht.
Die Aufgaben von Data Stewards sollten natürlich auch im Rahmen der Unternehmensstrategie und der Unternehmensziele priorisiert werden.
- Datenaktualität
-
Alle Datensätze müssen jeweils dem aktuellen Zustand der abgebildeten Realität entsprechen. Die Aktualität von Daten ist ein Bestandteil der Datenqualität.
- Datenbereinigung / Data Cleansing
-
Zumeist nur kurzfristig wirksamer Versuch, die Datenqualität zu verbessern. Im Unternehmensalltag werden im Umgang mit mangelnder Datenqualität aufwändige Datenbereinigungsaktionen durchgeführt, um Inkonsistenzen zu korrigieren. Diese Aktionen wirken wie ein „Herzschrittmacher“ für die Stammdaten. Kurzfristig werden hiermit sicherlich Qualitätsprobleme gelöst, aber nicht nachhaltig und langfristig. Es wird konsolidiert und harmonisiert, aber nicht an der eigentlichen Ursache gearbeitet. Statt die Symptome schlechter Datenqualität zu behandeln, sollten Unternehmen an die Ursachen gehen. Es gilt, sich die Prozesse der Stammdatenpflege genauer anzuschauen, Fehlerquellen zu beseitigen und eine Data Governance mit klar definierten Workflows und Verantwortlichkeiten aufzusetzen.
- Datenintegration
-
Integration von Daten mehrerer betrieblicher Funktionsbereiche mit dem Ziel, dieselben Daten unmittelbar für verschiedene Aufgaben nutzbar zu machen. Dabei sollen vor allem heterogene Quellen möglichst vollständig und effizient zu einer strukturierten Einheit zusammengeführt werden, die sich effektiver nutzen lässt, als dies bei direktem Zugriff auf die einzelnen Quellen möglich wäre. Datenintegration ist vor allem dort notwendig, wo mehrere gewachsene Systeme miteinander verbunden werden sollen, also beispielsweise bei der Zusammenführung von Unternehmen, Arbeitsabläufen und Anwendungen. Der Vorteil besteht darin, dass eine Datenredundanz vermieden und die Konsistenz der Daten (Datenintegrität) gesichert wird.
- Datenlebenszyklus
-
Der Datenlebenszyklus bezeichnet die Zeitspanne von der erstmaligen Anlage eines Datums bis zu seiner Löschung. Während des Lebenszyklus wird ein Datum geändert, ergänzt, genutzt und archiviert. Diese Operationen werden in Geschäftsprozessen ausgeführt.
- Datenmenge
-
Zu mangelhafter Datenqualität und -aktualität kommt künftig erschwerend hinzu, dass die zu bewältigenden Datenmengen exponentiell wachsen. Die Nachricht, nach der sich das Datenwachstum alle zwei Jahre verdoppelt, ist rund fünf Jahre alt. 2011 wurden bereits 1,8 Zettabyte Daten erzeugt und kopiert, 2013 waren es bereits 4,4 Zettabytes. Die Anzahl der Bits im digitalen Universum entsprach in jenem Jahr nahezu der Anzahl der Sterne im physischen Universum. Wäre das digitale Universum in den Speichern eines Stapels von Tablet-Computern (iPad, 128 GB) versammelt, so würde dieser Tablet-Stapel zwei Drittel der Strecke zwischen Erde und Mond ausmachen. 2020 – das digitale Universum soll dann 44 Zettabyte umfassen – entspräche dieser Stapel bereits der 6,6-fachen Strecke zwischen der Erde und ihrem Trabanten (Quelle: IDC). Wichtiger Teil dieser Entwicklung ist der Umstand, dass in Zukunft jedes Werkstück diverse Daten über seinen Herstellungsprozess und künftigen Einsatz „an Bord“ hat (Internet der Dinge).
Das lässt sich am Beispiel VW anschaulich zeigen. Das Unternehmen produziert an weltweit 118 Standorten rund 40.000 Autos pro Tag. Dazu bedarf es einer Milliarde Teile (25.000 Teile pro Auto) und 1,25 Milliarden Arbeitsgänge pro Tag (5 Arbeitsgänge pro Teil, 25 Prozent Eigenfertigungsanteil). Für jeden dieser Arbeitsgänge gibt es Auftragsdaten, Maschinendaten, Fertigungshilfsmitteldaten, Lager- und Materialdaten, Prozessdaten, Qualitätsdaten und Personaldaten. Hinzu kommen Daten zu den außerhalb der Fertigung liegenden Prozessen, wie beispielsweise für Vertrieb, Einkauf, Logistik, Verwaltung und Management. Digitalisierung und Vernetzung sind in vollem Gang.
Alle fünf Jahre verdoppelt sich die Anzahl der vernetzten intelligenten Objekte: Waren es 2010 weltweit 12,5 Milliarden, sollten es 2015 bereits 25 Milliarden und 2020 50 Milliarden sein. In Bytes ausgedrückt: Im Jahr 2003 dauerte das Generieren von fünf Exabyte (5 x eine Trillion Bytes = 10 hoch 18) noch 1.000 Jahre, 2011 nur noch zwei Tage und inzwischen nur noch zehn Minuten.
- Datenmodell
-
Ein Modell, der zu beschreibenden und verarbeitenden Daten eines Anwendungsbereichs (z. B. Daten des Produktionsbereichs, des Rechnungswesens oder die Gesamtheit der Unternehmensdaten) und ihrer Beziehungen zueinander.
In der Informatik, im Besonderen bei der Entwicklung von Informationssystemen, dienen Datenmodelle und die zu deren Erstellung durchgeführten Aktivitäten (Datenmodellierung) dazu, die Struktur für die in den Systemen zu verarbeitenden (im Besonderen für die zu speichernden) Daten zu finden und festzulegen.
- Datenpflege
-
Daten am aktuellen Stand zu halten nennt man Datenpflege. Ändert etwa ein Kunde, dessen Daten in einer Kundendatenbank gespeichert sind, seinen Wohnsitz, so muss die neue Anschrift des Kunden in der Datenbank aktualisiert werden, dies nennt man Datenpflege. Dabei unterscheidet man zwischen einer zentralen Datenpflege und einer dezentralen Datenpflege. Im Gegensatz zur zentralen Datenpflege werden bei der dezentralen Datenpflege Stammdaten unmittelbar durch die einzelnen Anwender gepflegt, die ihre Daten eigenständig im Stammdatenmanagementsystem erfassen, sodass keine Informationen außerhalb des Systems an die Zentrale übermittelt werden müssen. Alle Informationen werden also an der Stelle gepflegt, wo sie anfallen und nicht durch die Zentrale selbst. Dabei ist eine Datenerfassung bzw. Datenpflege per Vier-Augen-Prinzip oder mithilfe von Prozessen möglich.
- Datenqualität
-
Datenqualität ist sowohl ein technisches, wie auch ein betriebswirtschaftliches Thema. Um eine hohe Verlässlichkeit, Aktualität und innere Stimmigkeit (Konsistenz) zu erzeugen, sind die datentechnischen Voraussetzungen zu schaffen. Beispielsweise muss die Datenerfassung möglichst einfach erfolgen, die Speicherung zuverlässig und die Aktualisierung darf nicht an technischen Problemen scheitern. Wichtiger ist allerdings eine genaue Definition, was überhaupt erfasst werden soll.
Eine hohe Datenqualität ist eine unabdingbare Voraussetzung, um aus der riesigen Datenmenge die richtigen Schlüsse zu ziehen. Datenqualität ist die Voraussetzung für Informationsqualität und Informationsqualität ist die Grundlage gesicherten Wissens. Da Informationen auf Daten basieren, wirkt sich die Datenqualität auf die Qualität der Informationen aus, die aus den entsprechenden Daten gewonnen werden: Aus „schlechten“ Daten kann es keine „guten“ Informationen geben (garbage in, garbage out).
Aussagen zur Qualität einer Information beziehen sich zum Beispiel darauf, wie genau diese die Realität „beschreibt“ oder wie verlässlich sie ist, inwieweit sie also als Grundlage für eine Planung des eigenen Handelns verwendbar ist. Wenn auf Basis „schlechter“ Daten Informationen die Realität ungenau „beschreiben“ oder wenig zuverlässig sind, dann sind sie als „Grundlage für die Planung des eigenen Handelns“ nur bedingt, wenn überhaupt verwendbar. Praktisch gesehen: Schlechte Daten können beispielsweise zu Falschlieferungen führen oder zu Fehlern im Einkauf. Das wiederum lässt die Logistik- und Beschaffungskosten steigen und die Zufriedenheit von Kunden und Mitarbeitern sinkt. Kurz: Der Geschäftsprozess wird erheblich gestört und bleibt unter seinem Potenzial.
Wie steht es um die Datenqualität? Nimmt man die Ergebnisse einer Umfrage des Beratungshauses für Unternehmenssoftware BARC von Dezember 2014, steht es um sie nicht zum Besten: Danach sagen 36 Prozent der befragten Unternehmen, sie seien mit der Datenqualität sehr unzufrieden (7 Prozent) oder eher unzufrieden (29 Prozent). Bei den Antworten auf die Frage „Was sind aktuell die größten Probleme beim Betrieb des Data Warehouse?“ steht die Datenqualität mit 50 Prozent auf Platz 3. Beispiel Stammdaten: In einer Umfrage der Camelot Management Consultants (2013) nennen Führungskräfte aller Branchen und Unternehmensgrößen unvollständige Stammdaten als häufigste Ursache für geringe Datenqualität. Mehr als die Hälfte der befragten Unternehmen gebe an, dass unzureichende Stammdatenqualität sich nach wie vor massiv negativ auf die Prozesse entlang ihrer gesamten Wertschöpfungskette auswirke. Rund 60 Prozent der Befragten sähen zudem enormen Nachholbedarf bei der Messbarkeit, Kontrolle und Verbesserung von Datenqualität. Kein Wunder, wenn schlechte Datenqualität seit Jahren zu den Top-3-Problemen der Business Intelligence zählt. Fachbereiche beklagen, es gebe keinen zentralen Ort, der die „wahren“ Daten bereithält (Golden Record). Das hat Folgen: Laut Schätzungen liegt der negative Effekt schlechter Datenqualität bei 8 bis 12 Prozent des operativen Gewinns (Thomas C. Redman, Navesink Consulting Group).
- Datenqualitätsmanagement
-
Ist eine Unternehmensfunktion, die sämtliche Aktivitäten zur Analyse, Definition, Überwachung und Sicherung der Datenqualität umfasst.
- Datenqualitätszyklus
-
Wesentliche Methode zur Erhöhung und Sicherstellung der Datenqualität. Mit seinen vier Bestandteilen Analyse, Bereinigung, Anreicherung sowie Überwachung & Kontrolle macht der Kreislauf deutlich, dass Datenqualität kein Einmal-Projekt ist, sondern laufend auf Basis der definierten Datenqualitäts-Kennzahlen zu prüfen und zu sichern ist.
- Datensilo
-
Gehört zu den Hauptproblemen für wirkungsvolles Stammdatenmanagement und ist maßgeblich für mangelnde Datenqualität verantwortlich. Historisch gewachsene Datensilos bedienen meist nur einzelne Abteilungen, obwohl diese Daten auch für weitere Bereiche relevant sind. Die Bewältigung des Tagesgeschäfts wird zum Kraftakt, sei es durch permanente manuelle Datenpflege oder -abgleich oder fehlende Verlässlichkeit hinsichtlich der Datenqualität.
- Datentransfer (Datenübertragung / Datenverteilung)
-
Darunter versteht man Methoden relevante Daten von einer Informationsquelle (Sendersystem) zu einem Informationsempfänger (Empfängersystem) zu übermitteln. Dies erfolgt mithilfe von Schnittstellen.
- Datenvalidierung
-
Bezeichnet die Prüfung von Dateneingaben. Weil fehlende oder unbrauchbare Eingaben zu schwerwiegenden Fehlern innerhalb eines Systems führen können, sollten diese Werte vor einer Übernahme in ein System validiert werden. Im Stammdatenmanagement steht dafür ein Regelwerk für Validierungen zur Verfügung, mit welchen Validierungen beliebig definiert werden können. Ebenso wird hinterlegt zu welchem Zeitpunkt der Datenpflege die Validierung greifen soll, z.B. sofort bei Dateneingabe oder zu einem bestimmten Turnus.
- Datenwanderung
-
Tendenz von Daten, die sich in ihrer Umgebung nicht wohlfühlen nach anderen Daten zum gleichen Thema zu suchen und sich mit diesen auf Wanderschaft durch verschiedene Systeme zu begeben und dabei überall unterschiedliche Ergebnisse zu hinterlassen, deren Herkunft nicht mehr erklärt werden kann und deren Berichtigung schwer möglich ist.
- Digitalisierung der Wertschöpfungsketten
-
Der Digitalisierungsgrad der Wertschöpfungsketten wird durch das Internet der Dinge in Zukunft rapide zunehmen. Laut PwC ist in vier, fünf Jahren mit einem Digitalisierungsgrad zwischen 80 und 90 Prozent zu rechnen. So wird erwartet, dass der Digitalisierungsgrad der horizontalen Wertschöpfungskette (Vernetzung zwischen Kunde, Unternehmen und Lieferant) von 24 Prozent (2014) auf 86 Prozent in fünf Jahren steigen wird; bei der vertikalen Wertschöpfungskette (durchgängiger Informations- und Datenfluss innerhalb des Unternehmens) ist ein Anstieg von 20 auf 80 Prozent zu erwarten.
Wichtigster Baustein dieser Digitalisierung sind Daten – und die wachsen exponentiell (Datenmenge). Kein Wunder, wenn für die Zukunft branchenübergreifend 90 Prozent aller Unternehmen davon überzeugt sind, dass die Fähigkeit, große Datenmengen effizient zu analysieren und effektiv zu nutzen (Big Data Analytics), für den Erfolg ihres Geschäftsmodells von entscheidender Bedeutung ist.
Das Hauptproblem dabei ist die Datenqualität. Auch noch so viele Daten sind ohne das Erkennen von Zusammenhängen, Bedeutungen und Mustern wertlos. Der Einsatz von Verarbeitungs- und Analysemethoden kann aber nur dann einen monetären Wert aus Daten generieren, wenn sie „stimmen“. Auswertungen oder Planungen sind fehleranfällig, wenn sie nicht auf vollständigen, eindeutigen und „richtigen“ Daten basieren.
- Dokumentation
-
Alle Datenänderungen müssen über definierte Methoden und in aufeinander abgestimmten Workflows organisiert werden – dann kann eine automatische Mitprotokollierung und Dokumentation aller Änderungsvorgänge eingerichtet werden. So kann auch rückwirkend dauerhaft geklärt werden, wann wer welchen Datensatz wie geändert hat. Mittels einer nachvollziehbaren Historie kann der einzelne Kenntnisstand nachgewiesen werden.
- Dublette
-
Ein Datensatz in einer Datenbank, der redundant, d.h. mehrfach, vorhanden ist, dessen Redundanz aber aufgrund abweichender Schreibung nicht durch Prüfung auf gleiche Inhalte erkannt werden kann. Dubletten entstehen insbesondere in Adressdatenbanken, und zwar dann, wenn die gleiche Person oder Gesellschaft mehrfach auf Basis unterschiedlicher Eingangsinformationen erfasst wird, mehrere Adressdatenbestände vereinigt werden oder die erfassten Personen oder Unternehmen ihren Namen wechseln.
Da Dubletten (insbesondere beim Massenversand) unnötige Kosten verursachen und negative Folgen für das Image haben können, wird mit entsprechender Software versucht, die Dubletten zu identifizieren und automatisch oder halbautomatisch zu bereinigen. Hierbei kommen mehr oder weniger scharfe phonetische, musterbezogene oder assoziative Algorithmen zur Anwendung. Auch in Material- und Produktdaten können Dubletten auftreten. Nach der Fusion zweier Unternehmen sind meist viele Bauteile in beiden Unternehmen vorhanden, jedoch in unterschiedlicher Schreibweise verzeichnet.
E
- Eigenlösung
-
Der Versuch, es ohne professionelle Stammdatenmanagement-Lösung „hinzukriegen“. Viele Unternehmen setzen lieber Manpower ein und nutzen eigene Tools, um zu wenigstens halbwegs brauchbaren Daten zu kommen. Nicht zuletzt versuchen sie so, sich vor der Aufgabe zu drücken, ihre Geschäftsprozesse zu justieren und Regeln für den Umgang mit Daten aufzustellen (Data Governance). Gerade das erfordert aber ein professionelles Stammdatenmanagement: Es darf eben nicht mehr jeder in seinem Datensilo machen, was er will; es gibt klare Richtlinien, die natürlich in Hoheitsgebiete eingreifen. So darf beispielsweise der Vertrieb mit „seinen“ Daten nicht nach Gusto umgehen, sondern muss sich an Vorgaben halten, welche Daten wo und wie gepflegt werden, wer genehmigt usw. Hinzu kommt, die Verantwortlichen müssen auch für die Richtigkeit und Vollständigkeit der Daten geradestehen.
- Entität
-
Dabei handelt es sich im Allgemeinen um ein individuell identifizierbares Objekt. Im Stammdatenmanagement bildet eine Summe von Entitäten eine Stammdatendomäne, z.B. sind Entitäten wie Produktdaten, Stücklisten, Produktgruppen zugehörig der Stammdatendomäne für Produktstammdaten.
F
- Finanzstammdaten
-
Eindeutige Finanzstammdaten und kontrollierte Datensammlungsprozesse sind die Voraussetzung für den reibungslosen Ablauf von sowohl lokalen als auch konzernrelevanten Buchungen, Abstimmungen und Abschlüssen. Zu den Finanzstammdaten zählen u.a. Informationen zu A-Segment und B-Segment mit Sachkonten, Kontenplandaten, Buchungskreisdaten (Kontrolldaten, Erfassung) und GuV-/Bilanzstruktur, aber auch Profit Center mit Grunddaten, Kennzeichen, B-Segment (Buchungskreisdaten).
- Führendes System
-
Ein System in einem Systemverbund, nach dessen Informationsbestand sich die anderen Systeme richten.
Der Begriff des führenden Systems wird häufig in der Software-Systemintegration verwendet, kann aber auch in anderen Bereichen der Integration verwendet werden. Dafür ist es nicht zwingend erforderlich, dass diese Systeme technisch miteinander verbunden sind (Schnittstellen). Sie können auch organisatorisch verbunden sein, Beispielsweise ein System für die Rechnungserstellung und ein System für die Versandabwicklung. Ein System kann auch eine Aktenablage sein, beispielsweise papierhafte Versandanweisungen mit Adressen. Kerngedanke ist, dass die relevanten Informationen, in obigen Beispielen die Adressangaben (Rechnung und Versand), von mehreren Systemen benötigt werden. Die Informationen können dann redundant (in Kopie) oder als Verweis (zum Beispiel „siehe Rechnung XY“) vorliegen. Als korrekt wird aber nur die Information aus dem, für diese Information, führenden System angenommen.
Abhängig von der Information, kann es in einem Systemverbund mehrere führende Systeme geben, das heißt, ein System kann für Information A führend sein, während ein anderes System für eine Information B führend sein kann. Umgekehrt ist aber in der Regel nur ein System führend für eine Information.
G
- Globale Daten
-
Diese Daten sind häufig Attribute zu Stammdatenklassen, die unternehmensweit einheitlich verwendet werden, z.B. Materialnummern, Produktklassifikationen, Lieferantennummern, etc. Globale Daten sind von lokalen Daten zu unterscheiden, die einen organisatorisch begrenzten Gültigkeitsbereich aufweisen (z.B. Land oder Produktionsstätte).
- Golden Record
-
Die eine einheitliche, verlässliche und aktuelle Datenbasis für das gesamte Unternehmen/die gesamte Unternehmensgruppe, der »Single Point of Truth« für Kunden-, Lieferanten-, Finanz-, Produkt- und alle anderen Arten von Stammdaten.
H
- Harmonisierung
-
Meint den Prozess, die in diversen Datensilos vorgehaltenen Daten auf einen einheitlichen Nenner zu bringen. Eine Konsolidierung und Harmonisierung von Stammdaten reichen üblicherweise nicht; sie sind nur der erste Schritt zu einer verlässlichen und einheitlichen Datenbasis. Kurzfristig werden hiermit zwar Qualitätsprobleme gelöst, aber nicht an der eigentlichen Ursache gearbeitet. Um Datenqualität dauerhaft sicherzustellen, müssen betroffene Geschäftsprozesse und Verantwortlichkeiten festgelegt sowie Regeln und Standards für den Umgang mit Stammdaten und deren Pflege definiert werden. Ohne wirksame Data Governance geht es nicht. Es muss sichergestellt werden, dass es nicht nach kurzer Zeit wieder zu Dubletten und anderen Abweichungen kommt; andernfalls muss später erneut konsolidiert und harmonisiert werden.
I
- Industrie 4.0
-
Allgemein wird darunter die durch das Internet getriebene vierte industrielle Revolution verstanden. Sie umschreibt den technologischen Wandel heutiger Produktionstechnik hin zu cyber-physischen Produktionssystemen (Smart Factory).
Was zunächst sehr abstrakt klinge, so die F.A.Z., könne man sich in etwa so vorstellen: „Das Werkstück, ein Kolben etwa, wird aus der Gießerei angeliefert und auf ein autonom fahrendes Transportsystem – eine Art intelligenter Servierwagen – gepackt. Sobald der Fahrroboter die Fabrikhalle befährt, meldet der Kolben über ein Drahtlosnetzwerk, welchen Bearbeitungsbedarf er hat. Er einigt sich mit einer freien Werkzeugmaschine, die dann angefahren wird. Die Kommunikation übernimmt ein zuckerwürfelgroßer Webserver, der das Werkstück durch die Fabrik begleitet - das sogenannte cyberphysische System (CPS).“ Dieses Beispiel verdeutlicht die Verknüpfung eindeutig identifizierbarer physischer Objekte mit einer virtuellen Repräsentation in einer Internet-ähnlichen Struktur. In diesen cyber-physischen Systemen sind künftig außerordentlich viele intelligente Objekte in einem à Internet der Dinge, Daten und Dienste miteinander vernetzt und steuern sich selbstständig. Diese Vernetzung wird eine neue Qualität der Verfügbarkeit von Informationen über die Produktionsabläufe in Echtzeit bringen.
Eine der größten Aufgaben durch Industrie 4.0 sei daher das Beherrschen des Datenaustauschs über die verschiedenen Wertschöpfungsketten der Produktions- und Fertigungsprozesse hinweg. Dafür gelte es, Datenverteilung, Datenqualität, Datensicherheit und das Datenwachstum übersichtlich darzustellen und zu kontrollieren, kommentiert Josef Glöckl-Frohnholzer, COO des Cloud-Dienstleisters Zimory. Das Fraunhofer IAO erwartet in seiner Studie „Produktionsarbeit der Zukunft - Industrie 4.0“ (2013), dass die Datenmodelle aktueller und das Produktionsgeschehen insgesamt transparenter werden. Bis dahin ist allerdings noch einiges zu tun. So sagen 51 Prozent der in der Studie befragten Unternehmen, schlechte Qualität der Produktionsdaten machten in starkem/sehr starkem Maße kurzfristige Eingriffe in die Produktionssteuerung notwendig; ein weiterer wichtiger Grund hierfür ist die mangelnde Aktualität der Produktionsdaten (44 Prozent stark/sehr stark). Die für Industrie 4.0-Anwendungen benötigte aktuelle, für die jeweilige Nutzung genaue und verlässliche Datengrundlage steht heute in den meisten Fällen noch nicht zur Verfügung. 72 Prozent der Befragten stimmten 2014 der Aussage zu, dass bevor Industrie 4.0-Potentiale gehoben werden können, massive Investitionen in die heute zur Verfügung stehende Datenqualität erforderlich sind. Produzierende Unternehmen müssen erkennen: Industrie 4.0 gehört bei den relevanten Treibern für Stammdatensoftware ganz weit nach oben.
- Insellösung
-
Als Insellösung werden technische Systeme bezeichnet, die nur innerhalb ihrer eigenen Grenzen wirksam sind und nicht mit ähnlichen oder verwandten Systemen der Umgebungsvariablen zusammenwirken können bzw. kompatibel sind. Das Gegenteil davon ist Interoperabilität.
Oft existieren Insellösungen in einem Unternehmen noch aus den Anfängen der EDV, als den Entwicklern und Unternehmen die Erfahrung für eine alle Aufgaben abdeckende Software fehlte. In Unternehmen haben Insellösungen im Vergleich zu integrierten Lösungen zahlreiche Nachteile, unter Anderem entstehen beim Übertragen von Daten sogenannte Medienbrüche.
- Internet der Dinge
-
Potenziert das Problem des systematischen Stammdatenmanagements. Der Begriff Internet der Dinge (englisch Internet of Things, Kurzform: IoT) beschreibt, dass der (Personal-) Computer zunehmend als Gerät verschwindet und durch „intelligente Gegenstände“ ersetzt wird. Das Internet der Dinge bezeichnet die Verknüpfung eindeutig identifizierbarer physischer Objekte (things) mit einer virtuellen Repräsentation in einer Internet-ähnlichen Struktur. Es besteht nicht mehr nur aus menschlichen Teilnehmern, sondern auch aus Dingen. Je nach Quelle gibt es unterschiedliche Angaben für die Entwicklung des „Internets der Dinge“. Einig sind sich aber alle, dass die Zahlen explodieren. Laut Cisco gab es 2010 weltweit 12,5 Milliarden vernetzte intelligente Objekte; 2015 sollten es bereits 25 Milliarden sein und 2020 50 Milliarden. Laut IDC waren 2013 bereits 20 Milliarden „Dinge“ mit dem Internet verbunden (= 7 Prozent aller potentiell verbindbaren Dinge), 2020 werden es 32 Milliarden sein (= 15 Prozent); das entspricht einem Wachstum von 60 Prozent.
- IT-Unterstützung
-
Ein IT-gestütztes Stammdatenmanagement verhindert, dass Stammdaten mehrfach und unsauber gepflegt werden und am Ende verfälschte, unvollständige und inkonsistente Daten die tägliche Arbeit verzögern und unnötigen Aufwand erzeugen. Es sorgt zudem für einen einheitlichen Datenpool, aus dem alle angeschlossenen Systeme bedient und „saubere“ Berichte sowie Auswertungen erstellt werden können. Regelmäßige Bereinigungsprojekte zur Konsolidierung und Harmonisierung sind nicht mehr notwendig – die richtigen und vollständigen Stammdaten stehen jedem zu jeder Zeit zur Verfügung.
K
- Konsolidierung
-
Datenkonsolidierung und -bereinigung sind Dauerthema, da Stammdaten zum einen häufig in verschiedenen Applikationen und Datenbanken hinterlegt sind und zum anderen Kunden-, Artikel-, Material-, Lieferanten-, Finanz- oder Mitarbeiterdaten von unterschiedlichen Abteilungen angelegt, genutzt und gepflegt werden. Das macht ihre Vereinheitlichung schwierig und langwierig (Harmonisierung).
- Kundenstammdaten
-
Fehlerbehaftete Kundenstammdaten (Debitoren) verursachen reale Kosten durch Rückläufer aufgrund falscher Adressen (z.B. Rechnungsstellungen, Fehllieferungen), Unzufriedenheit bei Kunden und im schlimmsten Fall deren Abwanderung. Einheitliche Kundenstammdaten in CRM- und in ERP-Systemen reduzieren dagegen Fehlerquellen, erhöhen die Datenqualität und führen am Ende auch zu erhöhter Kundenzufriedenheit. Zum Debitor werden im Stammdatenmanagement u.a. Informationen wie A- und B-Segment (Buchungskreisdaten), Anschrift, Steuerung, Zahlungsverkehr, Marketing, Ansprechpartner und Bankdaten gepflegt.
L
- Lieferantenstammdaten
-
Bei Lieferantenstammdaten (Kreditoren) gibt es zahlreiche Fehlerquellen, wenn z.B. Lieferanten mehrfach in Systemen existieren oder falsch hinterlegte Vertragslaufzeiten das Nutzen von Preisnachlässen verhindern. Zum Kreditor werden im Stammdatenmanagement u.a. Informationen wie A- und B-Segment (Buchungskreisdaten), Anschrift, Steuerung, Zahlungsverkehr, Marketing, Ansprechpartner und Bankdaten gepflegt.
M
- Massendatenpflege
-
Die Massendatenpflege ermöglicht die einfache Datenpflege für eine Vielzahl von Stammsätzen in einem Schritt, was erheblich den Pflegeaufwand reduziert.
- Materialstammdaten
-
Ein „Golden Record“ für Materialstammdaten reduziert Aufwände bei Inventur, Stücklistenerstellung oder auch im Bestellprozess. Wenn Materialstammsätze in unterschiedlichen Systemen unabhängig voneinander gepflegt werden, kann dies zudem kaufmännisch sinnvolle Preisverhandlungen für Abnahmemengen verhindern, da nicht klar ist, dass die „verschiedenen“ Materialien eigentlich zu einer Position gehören. Bei Materialstammdaten werden im Stammdatenmanagement u.a. Informationen wie Grunddaten zu Materialien, Artikeln, Waren, Betriebsstoffen, Klassifizierungen und Stücklisten gepflegt.
- MDM Hybrid
-
Eine mögliche Systemarchitektur für das Stammdatenmanagement, bei welcher die Stammdatenhaltung sowohl im Stammdatenmanagementsystem, als auch in den operativen Systemen stattfindet. Der Austausch der Stammdaten ist vergleichbar mit einem Abonnement. Die Systeme bedienen sich auf Anfrage im MDM-System und nutzen die gelieferten Stammdaten eigenständig.
- MDM-Registry
-
Eine mögliche Systemarchitektur für das Stammdatenmanagement, bei welcher die betroffenen Stammdaten nicht im Stammdatenmanagementsystem gespeichert werden, sondern in den jeweiligen Vorsystemen verbleiben. Das Stammdatenmanagementsystem beinhaltet lediglich Verweise und Überleitung (Mappings) zwischen den Objekten und deren Eigenschaften und stellt diese als Information anderen operativen Systemen zur Verfügung.
- MDM-Repository
-
Eine mögliche Systemarchitektur für das Stammdatenmanagement, bei welcher die betroffenen Stammdaten einzig in einem Stammdatenmanagementsystem gehalten und verwaltet werden. Systeme, die Daten aus diesem zentralen Stammdatenmanagementsystem benötigen, fragen diese über eine entsprechende Schnittstelle (Datentransfer) ab.
- Multi-Domain
-
Stammdaten-Lösung, die mehrere Stammdatendomänen abdeckt, beispielsweise Kunden-, Lieferanten-, Produkt- und Finanzstammdaten. Eine Multi-Domain-Lösung zentralisiert das gesamte Master Data Management (Stammdatenmanagement). Alle relevanten Daten vom Einkauf bis zum Verkauf laufen in einem zentralen System zusammen. Das eröffnet neue Perspektiven auf den Geschäftsprozess. Unternehmensweite Zusammenhänge und Wechselwirkungen werden sichtbar – und damit nicht selten ein beträchtliches Einsparungspotenzial bei Zeit und Kosten. Bringt man zugehörige Stammdaten einer Domäne zusammen, lassen sich ein „Golden Record“ für z.B. Kunden, Produkte, Lieferanten bilden und Wechselwirkungen zwischen diesen Domänen erkennen. Man erhält einen Rundumblick auf die Stammdaten über alle Domänen hinweg. Ein Master Data Management schafft somit die „eine Wahrheit“ für unterschiedliche Stammdatendomänen über den gesamten Geschäftsprozess.
Neben der integrierten unternehmensweiten Datenhaltung können Multi-Domain-MDM-Systeme mit Datenqualitätsregeln und Lebenszyklusprozessen auch Data Governance unterstützen, also einheitliche und verbindliche Rahmenbedingungen, Workflows und Verantwortlichkeiten für den Umgang mit Daten, ihre Pflege, Verteilung etc. Bei der Nutzung von diversen Single-Domain-Datensilos ist es naturgemäß schwierig, die unternehmensweite Einhaltung definierter Standards sicherzustellen. Gibt es dagegen nur eine Quelle für Stammdaten, haben die Nutzer erheblich weniger Autonomie bei der Entwicklung von Definitionen und Regeln für Daten, da die domänenübergreifende Datenarchitektur verbindlich und transparent ist. Das Ergebnis: wirksame Governance-Prinzipien und funktionsübergreifende Zusammenarbeit zwischen Abteilungen. Beides zusammen führt zu mehr Prozesseffizienz und besserer Ressourcenallokation.
O
- OneERP
-
Vor dem Hintergrund mangelnder Datenqualität in ERP-Systemen gibt es in Unternehmen einen Harmonisierungs- und Konsolidierungstrend mit dem Ziel, durch weniger Systeme Komplexität, Fehlerquellen und Kosten zu reduzieren sowie die Datenqualität zu verbessern. Dieses Ziel glaubt man mit OneERP-Projekten erreichen zu können. OneERP bezeichnet das Vorhaben, die heterogene ERP-Landschaft durch ein einziges ERP-System zu ersetzen. Das mag auch kurzfristig helfen – in jedem Fall ist für die Datenqualität ein ERP-System besser als viele ERP-Systeme –, mittel- bis langfristig fehlen aber die Validierungsprozesse und Datenqualitätsprüfungen, also gerade die Aspekte, die eine Stammdatenmanagement-Lösung ausmachen und die notwendig sind, um Datenqualität nachhaltig zu sichern. Der wesentliche Unterschied zwischen einem OneERP-Projekt und einer Stammdateninitiative (Stammdatenmanagement): Letztere analysiert die vorhandenen Prozesse, passt sie dem erforderlichen Soll-Zustand an und definiert Abläufe, Regeln und Standards für das Datenmanagement; ersteres konsolidiert zwar mehrere ERP-Systeme zu einem einzigen, belässt aber die Prozesse in der Regel wie sie sind und legt keine verbindliche Data Governance fest.
P
- Produktstammdaten
-
Der termingerechte Ablauf von lokalen sowie konzernrelevanten Einkäufen und Lieferungen ist wichtig. Sind Produktstammdaten nicht aktuell, sorgen diese für Kosten durch Fehlbestellungen oder Lieferengpässe. Meist spricht man im Stammdatenumfeld von Produkt-, Material- und Artikelstammdaten. Hierbei gibt es folgende allgemeine Differenzierung:
Produkt:
Eine erzeugte Ware z.B. ein Gut, ein Erzeugnis, Output / Ergebnis (einer Produktion), oder (Handels-)Ware. Insbesondere im Marketing wird allerdings explizit von Produkten gesprochen, womit alle Objekte gemeint sind, die das Unternehmen verkaufen möchte.
Material:
Stoffe; Rohstoffe, Hilfsstoffe und Betriebsstoffe der Fertigung sowie Kleinmaterial, bezogene Normteile, einbaufertige Aggregate, wiederverwertbare Reststoffe etc., d.h. vorwiegend Ausgangsstoffe der Produktion und insbesondere bei erzeugenden Industrie relevant. Halb- und Fertigerzeugnisse und selbst gefertigte Bestandteile gehören nicht zum Material.
Artikel:
Eine ganz bestimmte Ausführung eines Produkttyps (Bsp. Apfelsaft der Marke XY im 0,75 l Tetrapack). Artikel einer Artikelgruppe unterscheiden sich hinsichtlich einiger Merkmale, wie z.B. Preis, Größe oder Materialien voneinander. Im Handel ist ein Artikel gemäß der Sortimentspyramide ein Teilelement einer bestimmten Warenart.
- Prozesse
-
Durch die Weiterentwicklung und Optimierung von Prozessen kann man sich gegenüber dem Wettbewerb deutlich differenzieren. Auch Prozesse, die nicht direkt der Wertschöpfung dienen, müssen effizient sein. Im globalen Wettbewerb gewinnen Konsolidierung und Standardisierung von Geschäftsprozessen an Bedeutung. Klassischer Fall von Betriebsblindheit: Oftmals werden Geschäftsprozesse aus historischen Gründen oder aufgrund fehlender Übersicht und Einsicht der beteiligten Bereiche in einem ineffizienten Zustand belassen. Eine Bereinigung der nicht wertschaffenden Prozesse im Unternehmen kann durch die Einführung einer Standardlösung wesentlich vorangebracht werden; so lassen sich auch im Umfeld der Stammdaten Wettbewerbsvorteile generieren. Aber erst nachdem Prozesse und Befugnisse für die Datenpflege und -freigabe (Data Governance) klar definiert sind, kann eine IT-Unterstützung erfolgen.
R
- Referenzdaten
-
Referenzdaten werden für Gruppierungen, Hierarchien und Kategorisierungen von Daten verwendet. Sie existieren sowohl unternehmensintern (etwa Unternehmensstrukturdaten), aber auch über Unternehmensgrenzen hinweg (zum Beispiel ISO-Ländercodes, ISO-Währungscodes, Postleitzahlen).
- Revisionssicherheit
-
Bezieht sich auf die revisionssichere Archivierung für elektronische Archivsysteme. Der Begriff orientiert sich am Verständnis der Revision aus wirtschaftlicher Sicht und betrifft aufbewahrungspflichtige oder aufbewahrungswürdige Informationen und Dokumente. Durch den Einsatz einer Standardsoftware im Stammdatenmanagement können Informationen revisionssicher bereitgestellt werden.
- Rollen
-
Definition und Zuordnung von Aufgaben und Kompetenzen zu Personen. Typische Rollen für das Datenqualitäts- und Stammdatenmanagement seien Data Owner („Daten-Eigner“, im Fachbereich), Data Steward („fachlicher Datenverwalter“, meist im Fachbereich), Data Manager („technischer Datenverwalter“, meist in der IT) und Data User („Anwender“, im Fachbereich und in der IT).
S
- Schnittstellen
-
(Software-)Schnittstellen oder softwareseitige Datenschnittstellen sind logische Berührungspunkte in einem Softwaresystem: Sie ermöglichen und regeln den Austausch von Kommandos und Daten zwischen verschiedenen Prozessen und Komponenten.
- Single Point of Truth
-
Unter dem Single Point of Truth oder auch dem Golden Record wird eine einheitlich, verlässliche und aktuelle Datenbasis für das gesamte Unternehmen/ die Unternehmensgruppe verstanden. Dieser beinhaltet alle Kunden-, Lieferanten-, Finanz-, Produkt- und alle anderen Arten von Stammdaten.
- Single-Domain
-
Stammdaten-Lösung, die nur eine Stammdatendomäne abdeckt, beispielsweise nur Kundenstammdaten. Schlägt man einmal den Weg des „Single-Domain Stammdatenmanagements“ ein, hat man am Ende wieder Einzellösungen für die jeweiligen Domänen, die nicht miteinander kommunizieren. Wechselwirkungen zwischen den Domänen können nicht erkannt werden. Dies widerspricht dem Prinzip eines zentralen Stammdatenmanagements für alle relevanten Domänen in einem System (Multi-Domain).
- Smart Factory
-
Smart Factory (deutsch „intelligente Fabrik“) ist ein Begriff aus der Forschung im Bereich Fertigungstechnik. Er bezeichnet die Vision einer Produktionsumgebung, in der sich Fertigungsanlagen und Logistiksysteme ohne menschliche Eingriffe weitgehend selbst organisieren. Technische Grundlage sind cyber-physische Systeme, welche mit Hilfe des Internets der Dinge miteinander kommunizieren. Teil dieses Zukunftsszenarios ist weiterhin die Kommunikation zwischen Produkt (z. B. Werkstück) und Fertigungsanlage.
Der zentrale Punkt der Smart Factory, so heißt es bei Audi, ist die Beherrschung der enormen Datenströme (Datenmenge): „Bereits heute werden während des Fertigungsprozesses zu jedem Audi weit mehr Daten erzeugt, als der Laie sich vorzustellen vermag. Jede einzelne Schrauberstation dokumentiert mit einem Gigabyte Daten pro Tag, dass sie all ihre Befestigungselemente auch korrekt gesetzt hat, der Karosseriebau für den Audi A3 belegt mit täglich 200 Gigabyte, dass alle Maße korrekt sind und die Qualität perfekt passt. Aber wenn erst einmal alle Maschinen mit kognitiven Fähigkeiten ausgestattet sind, wenn alle wesentlichen Teile eines Automobils selbst wissen, dass sie in Ordnung sind und an der richtigen Stelle sitzen – dann müssen in einer unvorstellbaren Komplexität noch ganz andere Datenmengen kanalisiert und verarbeitet werden.“
- Staging Area
-
Damit ist die eigene Datenhaltung getrennt vom ERP (OneERP) gemeint. Änderungen oder die Neuanlage von Daten können veranlasst, aber erst später verteilt werden (Produktivsetzung).
- Stammdaten
-
„Rückenmark“ der Geschäftsprozesse. Als Stammdaten (Master Data) bezeichnet man statische Grunddaten oder Referenzdaten zu betriebsrelevanten Objekten wie z.B. Produkten, Lieferanten, Kunden und Mitarbeitern.
Je nach Datenmodell bezeichnen Stammdaten die unveränderlichen Merkmale einer Informationseinheit und grenzen sich dadurch zu Bewegungsdaten ab. Kerngeschäftsprozesse und Stammdaten sind eng miteinander verzahnt. Nur optimal aufeinander abgestimmt, verursachen sie keine zusätzlichen Kosten im gesamten Unternehmen.
Als Herzstück eines jeden Unternehmens und als Grundlage von Unternehmensentscheidungen wirken sich verlässliche Stammdaten positiv auf die Prozesseffizienz aus und sorgen für Kosteneinsparungen. Stammdaten bilden heute oftmals das Zentrum der unternehmerischen Tätigkeit: Auf ihrer Grundlage fallen Entscheidungen, sie regeln den Geschäftsprozess. Stammdaten sind eine wichtige übergreifende Komponente, die in operativen Prozessen und Unternehmensentscheidungen ebenso beteiligt ist, wie bei Datenauswertungen und -analysen oder Produkten und Dienstleistungen. Stammdaten stellen einen oft unterschätzten Vermögenswert dar. Zudem steigen im Zeitalter von Big Data die Anforderungen an die Qualität von Stammdaten und an den Umgang mit ihnen einmal mehr.
- Stammdatendomäne
-
Bezeichnung für die Stammdaten-Kategorien, also beispielsweise Kundenstammdaten oder Lieferantenstammdaten.
- Stammdatenmanagement
-
Stammdatenmanagement (engl. Master Data Management) ist das Zusammenfügen aller im Unternehmen befindlichen Informationen/Daten zu einem schlüssigen Ganzen, dem „Golden Record“. Ein IT-gestütztes Stammdatenmanagement sorgt für einen einheitlichen Datenpool, aus dem alle angeschlossenen Systeme bedient und „saubere“ Berichte sowie Auswertungen erstellt werden können. Regelmäßige Bereinigungsprojekte (Datenbereinigung) sind nicht mehr notwendig – die richtigen und vollständigen Stammdaten stehen jedem zu jeder Zeit zur Verfügung. Zu den bekannten Treibern für Stammdatenqualität – Compliance-Anforderungen, 360-Grad-Sicht auf den Kunden, intern und extern integrierte Geschäftsprozesse, „Single Point of Truth“ – kommt Big Data Analytics hinzu. Stammdatenmanagement ist daher im Zusammenhang mit Big Data unerlässlich, um Datenqualität zu sichern und Strukturen in Big Data zu erkennen und nutzbar zu machen. Erst ein professionelles Stammdatenmanagement liefert die Grundlage, um aus „guten“ Daten „gute“ Informationen und sodann mit Hilfe wirkungsvoller Analytik zuverlässiges Wissen zu generieren, das wiederum gut abgesicherte unternehmerische Entscheidungen ermöglicht. Ein professionelles Stammdatenmanagement kostet Geld. Schlechte Datenqualität und nicht vorhandenes oder „selbstgestricktes“ Stammdatenmanagement kosten noch mehr Geld.
Eine Stammdatenmanagement-Initiative muss in Unternehmen gemeinsam von IT und Fachbereichen getrieben werden. Laut einer PwC-Studie gehören u.a. die Unterstützung durch das Management, strukturierte und zielgerichtete Data Governance sowie Prozessoptimierung zu den Erfolgsfaktoren für Stammdatenmanagement-Initiativen. Zusätzlich ist ein Management-Buy-in erforderlich für eine erfolgreiche Stammdatenmanagement-Initiative. Eine professionelle Software-Lösungen (Standardsoftware) kann stets nur unterstützend wirken. Aber erst nachdem Prozesse und Befugnisse für die Datenpflege und -freigabe (Data Governance) klar definiert sind, kann eine IT-Unterstützung erfolgen.
- Standardsoftware
-
Eine Standardsoftware ist eine Software, die für Problemstellungen entwickelt wurden, die eine große Anzahl von Kunden gleichermaßen hat. Die Software ist somit für eine große Anzahl von Kunden/Anwendern entwickelt worden. Individualsoftware hingegen wird immer genau für ein Unternehmen erstellt und genügt nur dessen Anforderungen. Die Vorteile einer Standardsoftware sind vor allem die Unabhängigkeit von Einzelpersonen (Know-how-Verlust) und die breite Weiterentwicklung für den Markt. Ferner ist eine Standardsoftware kostengünstiger als eine Individuallösung. Die Weiterentwicklung ist in der Regel in der Wartung enthalten, wobei bei einer Individualsoftware jede Erweiterung separat bezahlt werden muss.
Eine professionelle Standardlösung für das Stammdatenmanagement stellt einen „Golden Record“ für die verschiedenen Stammdatenkategorien (Stammdatendomäne) bereit. Sie verbessert nicht nur die Qualität und Aktualität der Stammdaten, sondern sorgt auch für effizientere Prozesse. Gleichzeitig implementieren Unternehmen einen einheitlichen und kontrollierten Ablauf für die Pflege ihrer Stammdaten. Die Daten werden über eine intuitive Weboberfläche dezentral erfasst, zentral freigegeben und an die relevanten Systeme distribuiert. Jede Änderung wird auf Belegen dokumentiert. Neben der Datenhistorie ist auch eine Prozesshistorie abrufbar. Durch klar definierte Verantwortlichkeiten für die Dateneingabe und -freigabe im Zusammenspiel mit kontrollierten Prozessen für die Stammdateneingabe unterstützt eine Stammdatenmanagementlösung unternehmenseigene Data-Governance-Aspekte. Da durch den Einsatz einer solchen Lösung die Datenpflege nur einmalig anfällt, lassen sich zeitaufwendige und redundante Pflegeaktionen vermeiden.
- Systemarchitektur
-
Ist eine Informationsarchitektur für Stammdaten. Sie umfasst ein konzeptionelles Datenmodell der Stammdaten sowie die Datenhaltungs- und die Datenverteilungsarchitektur. Typische Datenhaltungs- und die Datenverteilungsarchitekturen im Stammdatenmanagement sind
MDM Hybrid, MDM-Repository, MDM-Registry.
U
- Unscharfe Suche / Fuzzy Search
-
Die unscharfe Suche, auch Fuzzy-Suche oder Fuzzy-String-Suche genannt, umfasst in der Informatik eine Klasse von String-Matching-Algorithmen, die eine bestimmte Zeichenkette in einer längeren Zeichenkette oder einem Text suchen bzw. finden sollen. Typisch für die „unscharfe“ Suchmethode ist dabei, dass nicht die exakte Zeichenfolge als Suchkriterium zugrunde gelegt werden muss, sondern auch ähnliche Zeichenketten gefunden werden sollen. Bei der Suche in Datenbanken können fehlertolerante Suchwerkzeuge unter Anwendung von String-Matching-Algorithmen Tipp- und Rechtschreibfehler ausgleichen.
V
- Vier-Augen-Prinzip
-
Das Vier-Augen-Prinzip besagt, dass die Aktion eines Handelnden von einem anderen überprüft wird; gelegentlich erfolgt auch eine zweite Prüfung (Sechs-Augen-Prinzip). Das reduziert die Fehlerquote und befördert die Qualität der Aktionen. Im Fall einer Datenbehandlung sorgt beispielsweise ein Verantwortlicher vor Ort für die Erfassung von Informationen. Diese Informationen werden zentral vorgelegt und die Angaben auf Plausibilität und inhaltliche Richtigkeit geprüft; erst nach dieser Prüfung werden die Daten zur allgemeinen Nutzung freigegeben.
Z
- zetVisions
-
Die 2001 gegründete zetVisions AG entwickelt und implementiert State-of-the-Art-IT-Lösungen für das Beteiligungs- und Stammdatenmanagement. Nutzer profitieren dabei gleichermaßen vom langjährigen Erfahrungsschatz sowie dem starken Kundenfokus der zetVisions und von einer Vielzahl an Best Practices, welche in den Lösungen abgebildet sind. Heute nutzen 200 Kunden in Europa, darunter zahlreiche DAX- und MDAX-Konzerne und mittelständische Unternehmen, Lösungen von zetVisions. 85 Mitarbeiter des Unternehmens unterstützen sie dabei.
Marktführer für IT-Lösungen zum Beteiligungsmanagement
Startpunkt von zetVisions war die Entwicklung einer Beteiligungsmanagement-Lösung speziell für die Venture Capital- und Private Equity-Branche. 2006 schloss zetVisions mit der SAP AG eine Kooperationsvereinbarung zur Entwicklung einer Beteiligungsmanagement-Lösung und entwickelte in der Folge die erste Version des „zetVisions Corporate Investment Managers“ – die erste SAP-basierte Beteiligungsmanagement-Standard-software der Welt. Mit der Übernahme der OpenData Systemhaus GmbH (Software-Lösung:
„Anteilsbesitz-Management-Informationssystem“, heute zetVisions AMI) im Sommer 2007 und der Fortführung des Insighter/Cosmos-Geschäfts (heute zetVisions Insighter) seit Juni 2008 verbreiterte sich die Kundenbasis und das Know-how für Beteiligungsmanagement beträchtlich. Mit der Erfahrung aus rund 400 Projekten ist die zetVisions GmbH heute das führende europäische IT-Kompetenzzentrum für das Beteiligungsmanagement und zugleich der größte Anbieter von Anwendungen zu diesem Thema.Wirkungsvolle Standardsoftware für das Stammdatenmanagement
Seit 2001 entwickelt zetVisions SAP-basierte Anwendungen. Zahlreiche Projekte für das Management von Stammdaten (Master Data Management) konnten seither erfolgreich durchgeführt werden. Diese Erfahrung hat das Unternehmen 2012 in die SAP-basierte Standardlösung „zetVisions SPoT“ überführt. Die Software bietet Unternehmen einen „Single Point of Truth“, also ein zentrales Management von Stammdaten in all seinen Facetten (z.B. Finanz-, Lieferanten-, Produkt-, Kunden- und Personalstammdaten). Sie verbessert nicht nur die Qualität und Aktualität der Stammdaten, sondern sorgt auch für effizientere Prozesse. Gleichzeitig implementieren Unternehmen einen einheitlichen und kontrollierten Ablauf für die Pflege ihrer Stammdaten.
zetVisions – Kompetenz vertrauen
In beiden Geschäftssegmenten verfügt die zetVisions GmbH über umfassendes fachliches und technisches Know-how sowie langjährige Erfahrung mit Unternehmen jeder Größenordnung. Die Softwarelösungen sind auf der Höhe der Zeit und bieten zudem regelmäßig produktive Neuerungen. Als hilfreich erweist sich hier die breite Kundenbasis, durch die auf wertvolle Best Practices zurückgegriffen werden kann.
Kundenzufriedenheit spielt bei zetVisions eine wichtige Rolle. Unser Service zeichnet sich durch jederzeitige Erreichbarkeit, zügige Reaktions- und Bearbeitungszeit, transparente Information und wirkungsvolle Wartung/Weiterentwicklung aus.
zetVisions bietet Lösungen für unterschiedliche Systemumfelder und entwickelt Software gemeinsam mit Kunden. Sie sticht durch schnelle Implementierung und einfache Bedienung hervor; zudem kann sie an individuelle Anforderungen leicht angepasst werden (Customizing).
Auf der Basis eines klaren, übersichtlichen Leistungsangebots agiert zetVisions im Rahmen definierter Prozesse mit der Beweglichkeit eines Schnellboots. Die Unternehmensgröße ist zudem Garant für kurze Wege, eine flache Hierarchie und transparente Kommunikation. Kunden profitieren von der lokalen Inhouse-Entwicklung und haben Investitionssicherheit durch die langfristige Pflege und Wartung bestehender Softwarelösungen.
- zetVisions SPoT
-
Mit der Multi-Domain Master Data Management Lösung zetVisions SPoT erhalten Sie einen „Single Point of Truth“ (SPoT) für unterschiedliche Stammdatendomänen wie beispielsweise Kunden-, Lieferanten-, Finanz-, Produktstammdaten oder frei definierbaren Stammdatendomänen.
Die SAP-basierte Lösung ermöglicht Ihnen nicht nur eine Verbesserung der Qualität sowie Aktualität von Stammdaten, sondern auch eine Optimierung der Prozesseffizienz. Zusätzlich wird eine vollständige Transparenz und Dokumentation über die Verteilung und Nutzung dieser Stammdaten sichergestellt. Die Daten werden verteilt über eine Weboberfläche erfasst, zentral freigegeben sowie an die relevanten Systeme verteilt. Dies geschieht mithilfe von Workflows oder Freigabeprozessen. Klar definierte Prozesse hinsichtlich Dateneingabe und -freigabe verhelfen Ihnen zu mehr Data Governance und zu einem effizienteren, konzernweiten Stammdatenmanagement über alle Stammdatendomänen hinweg.