DQM-Framework- Bereiche Fallstudien | Strategie | Führungssystem | Organisation | Prozesse und Methoden | Architektur | Anwendungssysteme |
---|---|---|---|---|---|---|
1) Allianz:
Data Governance und Datenqualitätsmanagement in der Versicherungswirtschaft | √ | √ | √ | √ | ||
2) Bayer CropScience:
Datenqualitätscontrolling in der agrochemischen Industrie | √ | √ | √ | √ | √ | |
3) Beiersdorf:
Produktdatenqualität in der Konsumgüter-Supply Chain | √ | √ | √ | √ | √ | |
4) Bosch:
Datenarchitekturmanagement in einem diversifizierten Technologiekonzern | √ | √ | √ | |||
5) Festo:
Unternehmensweites Produktdatenmanagement in der Automatisierungsindustrie | √ | √ | √ | √ | √ | |
6) Hilti:
Durchgängiges Kundendatenmanagement in der Werkzeug- und Befestigungsindustrie | √ | √ | √ | √ | ||
7) Johnson & Johnson:
Institutionalisierung des Stammdatenmanagements in der Konsumgüterindustrie | √ | √ | √ | √ | ||
8) Lanxess:
Business Intelligence und Stammdatenmanagement bei einem Spezialchemiehersteller | √ | √ | √ | √ | √ | |
9) Shell:
Datenqualität im Produktlebenszyklus in der Mineralölindustrie | √ | √ | √ | √ | ||
10) Syngenta:
Auslagerung von Datenmanagementaufgaben in der Pflanzenschutzindustrie | √ | √ | √ |
2.1 Allianz: Data Governance und Datenqualitätsmanagement in der Versicherungswirtschaft
2.1.1 Unternehmensüberblick
Allianz SE | |
---|---|
Gründung | 1890 |
Branche | Versicherungswesen, Finanzdienstleistungen |
Unternehmenssitz | München, Deutschland |
Rechtsform | Societas Europaea |
Homepage | |
Umsatz (2013) | 110,77 Mrd. EUR |
Gewinn (2013) | 6,34 Mrd. EUR |
Mitarbeiter (2013) | 147.627 |
-
Bestimmung der Höhe des Risikokapitals sowie Vorhalten der nötigen Liquidität, um für Force-Majeure-Versicherungsfälle gewappnet zu sein
-
Maximierung der Gewinnmarge bei gleichzeitig ausreichender Höhe von Rücklagen für das Risikokapital
-
Umsetzung und Einhaltung gesetzlicher und behördlicher Auflagen (z. B. Solvency II (EU 2009))
2.1.2 Ausgangssituation und Handlungsdruck
-
Unklarheit über Verantwortlichkeiten im Datenqualitätsmanagement: Zwar gab es in einigen Abteilungen vereinzelte Datenqualitätsteams, aber kein unternehmensweites Konzept.
-
Fehlende Entscheidungsstrukturen bei Datenqualitätsproblemen: Datenqualitätsprobleme wurden entweder gar nicht behoben oder erst nach mehrstufigen Eskalationsschritten, was dazu führte, dass sich das Unternehmen bezüglich der Datenqualität konstant im „Feuerlöschmodus“ befand.
-
Fehlende organisatorische Verankerung des gesamten Datenqualitätsthemas: Keiner Stelle im Unternehmen war klar, wer für die unternehmensweite Koordination des Datenqualitätsmanagements verantwortlich zeichnete.
2.1.3 Das Solvency-II-Projekt
-
Definition der wichtigsten Datenqualitätsanforderungen bei der Bewertung von Rückstellungsbedarfen
-
Definition der Prozesse und Handlungsanweisungen zur Sicherung der Datenqualität
-
Entwurf der Maßnahmen zur Datenqualitätsmessung und -überwachung
-
Entwurf einer unternehmensweiten Richtlinie für das Datenqualitätsmanagement
-
Definition von Rollen und Verantwortlichkeiten für das Datenqualitätsmanagement
-
Definition von Kriterien zur Messung der Datenqualität
-
Entwurf von Prozessen und Abläufen des Datenqualitätsmanagements
-
Auswahl und Implementierung eines Softwaresystems zur dauerhaften Messung der Datenqualität
2.1.4 Datenqualitätsmanagement bei AGCS
-
Data Governance Steering Group2: Alle Unternehmensfunktionen (Underwriting, Claims etc.) sind in diesem Gremium vertreten. Es ist die höchste Instanz des Datenqualitätsmanagements bei AGCS und genehmigt Standards und Richtlinien und überwacht deren Umsetzung. Außerdem stellt die Steering Group sicher, dass sämtliche Compliance-Anforderungen berücksichtigt sind.
-
Data Governance Team: Das Data Governance Team berichtet an den COO (Chief Operating Officer) der Operational Business Transformation-Abteilung an der Schnittstelle zwischen Fachbereichen und Informatik im Unternehmen. Das Data Governance Team entwirft Prozesse im Datenqualitätsmanagement und erarbeitet Standards für die Datenqualität.
-
Datenproduzenten: Die Datenproduzenten sind Teil der Fachbereiche. Sie sind für die Bereitstellung und Transformation der Daten verantwortlich.
-
Datennutzer: Sie sind ebenfalls Teil der Fachbereiche und nutzen die Daten u. a. für die Risikobewertung.
-
Systemverantwortliche: Sie betreuen die Softwaresysteme, in denen die Daten erfasst, verarbeitet und für den Datennutzer bereitgestellt werden.
-
Vollständigkeit: Daten gelten als vollständig, wenn sie granular genug sind, um Trends zu identifizieren und zugehörige Risiken umfassend zu beschreiben.
-
Genauigkeit: Daten sind genau, wenn sie die Wirklichkeit korrekt, also fehlerfrei, abbilden.
-
Angemessenheit: Daten sind angemessen, wenn sie für den Geschäftszweck, d. h. die Risikoanalyse und -bewertung, geeignet sind.
Geschäftsregel-Beispiel | |
---|---|
Vollständigkeit
| Das Feld „LoB“ darf nicht leer sein |
Genauigkeit
| Das Feld „Datum“ muss mit dem korrekten Format befüllt sein |
Der Wert im Feld „Prämie“ darf nicht negativ sein | |
Angemessenheit
| Das Datum im Feld „Booked Date“ darf nicht mehr als 40 Tage nach dem Datum im Feld „Bound Date“ liegen (Indikator Prozessqualität) |
-
Definieren (D – Define): Dieser erste Schritt umfasst die Definition der Anforderungen an die Datenqualität aus den Fachabteilungen. Die Anforderungen werden durch die o. a. Merkmale, über Geschäftsregeln und Grenzwerte modelliert. ACGS betrachtet bei der Anforderungsdefinition den gesamten Datenlebenszyklus und bindet deswegen auch alle beteiligten Rollen, also Datenproduzenten, Datennutzer und Systemverantwortliche, mit ein.
-
Messen (M – Measure): AGCS nutzt SAS DataFlux-Software3 zur Messung der Datenqualität. Die Messung erfolgt in regelmäßigen Abständen an verschiedenen Messpunkten im Datenlebenszyklus.
-
Analysieren (A – Analyze): Die Datennutzer analysieren und priorisieren Datenqualitätsprobleme, die sich aus der Messung ergeben. Beispielsweise führen sie „Root Cause“-Analysen durch, um die Ursachen von Datenqualitätsproblemen herauszufinden, und bereiten Verbesserungsmaßnahmen vor, über welche die Data Governance Steering Group zu entscheiden hat.
-
Verbessern (I – Improve): Datenproduzenten, Datennutzer und Systemverantwortliche setzen die Entscheidungen der Data Governance Steering Group um.
-
Überwachen (C – Control): Der letzte Schritt überwacht die Verbesserungsmaßnahmen und überprüft, ob sie erfolgreich sind.
-
Sigma-Level: Jeder Datensatz, der mindestens eine Geschäftsregel verletzt, gilt als fehlerhaft. Die Fehlerrate ist das Verhältnis zwischen fehlerhaften Datensätzen und der Gesamtzahl an Datensätzen. Sie kann also einen Wert zwischen 0 und 1 annehmen. Gemäß den „Six-Sigma-Prinzipien“ wird die Fehlerrate auf die Standardabweichung analysiert, sodass ein „Six-Sigma“-Niveau erreicht ist, wenn die Fehlerrate einen Wert zwischen 0,023 und 0,00026 % annimmt.
-
Reifegrad: Ein qualitatives Maß, nämlich der Reifegrad, ergänzt den errechneten Sigma-Wert. Der Reifegrad ist das Ergebnis einer Experteneinschätzung und kann die Werte „initial“, „verbessert“, „reif“ sowie „nicht zutreffend“ annehmen.
-
Status: Der Status misst die Schwere der Datenfehler und kann die Werte „rot“, „gelb“, und „grün“ annehmen. Die Datenfehler werden anhand der Kritikalität der Geschäftsregeln bewertet, die sie verletzen. AGCS unterscheidet zwischen „signifikanten“ und „kritischen“ Geschäftsregeln. Ist eine kritische Geschäftsregel verletzt (die schwerwiegendste Einstufung), ist der Datenqualitätsstatus rot.
-
Fehlerentwicklung: Die Datenqualitätsüberwachung stellt dar, wie sich die Fehlerrate über die Zeit verändert.
2.1.5 Erkenntnisse
-
Regulatorische Anforderungen wie Solvency II zwingen Unternehmen zum Aufbau eines unternehmensweiten Datenqualitätsmanagements. Oft machen erst solche externen Anforderungen den Handlungsdruck im ganzen Unternehmen sichtbar und sorgen für die notwendige Unterstützung durch die Geschäftsleitung des Unternehmens.
-
Der Nutzer der Daten (Datenkonsument) definiert die Anforderungen an Datenlebenszyklus und Datenarchitektur.
-
Bewährte Ansätze des Qualitätsmanagements (z. B. der DMAIC-Zyklus) können auf das unternehmensweite Datenqualitätsmanagement übertragen werden. Datenqualitätsüberwachung ist dabei ein Prozess, der nicht einmalig, sondern kontinuierlich durchlaufen werden muss.
-
Risikomanagement-Ansätze helfen bei der Bewertung der Datenqualität.
-
Datenqualitätsüberwachung und Data Governance gehen Hand in Hand. Ohne klare Rollen und Verantwortlichkeiten laufen Maßnahmen zur Sicherung und zur Verbesserung der Datenqualität ins Leere.
-
In komplexen Prozess- und Systemlandschaften ist Datenqualität sowohl aus Datenkonsumenten- als auch aus Datenquellensicht zu messen. Nur so sind Ursachenanalysen („Root Cause“-Analysen) möglich.
2.1.6 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Baghi und Abraham 2013
| Case study: Allianz Global Corporate & Specialty AG – data quality controlling and data governance | Fallstudie CC CDQ | √ | √ |
Pfaffenzeller 2012
| Data governance: data governance in an insurance company | Präsentation auf CC CDQ-Workshop | √ | |
Pfaffenzeller 2013
| Data governance: data governance in an insurance company | Präsentation auf Praxiskonferenz | √ |
2.2 Bayer CropScience: Datenqualitätscontrolling in der agrochemischen Industrie
2.2.1 Unternehmensüberblick
Bayer AG | |
---|---|
Gründung | 1863 |
Branche | Arzneimittel, Pflanzenschutzmittel, Kunststoff (CropScience: Pflanzenschutzmittel) |
Unternehmenssitz | Leverkusen, Deutschland |
Rechtsform | Aktiengesellschaft |
Homepage | |
Umsatz (2013) | 40,16 Mrd. EUR (CropScience: 8,8 Mrd. EUR) |
Gewinn (2013) | 3,19 Mrd. EUR |
Mitarbeiter (2013) | 113.200 (CropScience: 22.400) |
-
CropProtection/Seeds: Dieser Geschäftsbereich stellt Pflanzenschutzprodukte her, also Herbizide, Fungizide, Insektizide und Saatgutbehandlungsmittel. Der Teilbereich Seeds züchtet unter dem Einsatz von Biotechnologie Saatgut der Kernkulturen Baumwolle, Raps, Reis und Gemüse.
-
Environmental Science: Dieser Geschäftsbereich ist spezialisiert auf den Einsatz außerhalb der Landwirtschaft und bietet Produkte zur Schädlingskontrolle und -bekämpfung in Heim und Garten bis zur Forstwirtschaft an.
-
Regulierung: Länderspezifische gesetzliche Auflagen, branchenspezifische Richtlinien sowie behördliche Vorgaben, die sich aus den Eigenschaften der hergestellten Produkte ergeben, regulieren das Marktumfeld von Bayer CropScience. Der Verkauf eines Produkts in einem Land ist nur möglich, wenn Bayer CropScience eine gültige Registrierung besitzt und die chemische Zusammensetzung des Produkts der Registrierung entspricht.
-
Forschungs- und Entwicklungsaufwand: Die Entwicklung neuer Produkte ist, ähnlich wie in der pharmazeutischen Industrie, langwierig und mit hohen Investitionen verbunden.
-
Saisonalität: Sowohl der Absatz- als auch der Beschaffungsmarkt (Rohstoffe) hängen vor allem vom Wetter ab. Hitze- und Kälteperioden in den Anbaugebieten sorgen für überdurchschnittliche Preisschwankungen und sind schwer zu prognostizieren.
2.2.2 Ausgangssituation und Handlungsdruck
-
Verbesserung der Kapitalbedarfs-und Liquiditätsplanung mittels eines durchgängigen Prozesses zur Planung und Steuerung der Produktion und Materialbeschaffung ausgehend von der Absatzplanung in den Regionen
-
Verbesserung des Berichtswesens durch eine vereinheitlichte Datengrundlage und ein einheitliches Management Cockpit
-
Verbesserung der Qualität der Controlling-Organisation durch ein zentrales Schulungsprogramm
2.2.3 Aufbau des unternehmensweiten Datenqualitätsmanagements
-
Messung der Datenqualität
-
Grafische Darstellung der Messergebnisse
-
Speicherung der Messergebnisse über einen Zeitraum von mindestens 12 Monaten, um Trends darstellen zu können
-
Unterstützung nutzer- und rollenspezifischer Sichten
-
Bewusstsein schaffen: Fachbereiche und Landesgesellschaften für das Thema Datenqualität sensibilisieren und den Bedarf für ein unternehmensweites Datenqualitätsmanagement aufzeigen.
-
Transparenz schaffen: Zusammenhänge zwischen Datendefekten und Geschäftsproblemen aufzeigen und Maßnahmen zur Verbesserung der Datenqualität begründen.
-
Mitarbeit stärken: Akzeptanz für die Initiative bei den verantwortlichen Anwendern der Fachbereiche schaffen, um ihre Unterstützung zu sichern.
-
Handlungsbedarf identifizieren: Ermittlung des Handlungsbedarfs in verschiedenen Bereichen, um die Datenqualität verbessern zu können und nachhaltig auf einem stabilen Level zu halten.
-
Messbarkeit: Die Regel ist technisch messbar, d. h. alle vermessenen Daten sind verfügbar und die durch die Regel formulierten Eigenschaften sind vergleichbar.
-
Geschäftsrelevanz: Es gibt einen kausalen Zusammenhang zwischen der Regel und den Geschäftszielen des Unternehmens, d. h. die fachliche Auswirkung einer Regelverletzung ist nachvollziehbar.
-
Geschäftskonformität: Die Regel ist „nah am Alltagsgeschäft“ und überprüft die Tätigkeiten, die im operativen Tagesgeschäft wirklich durchgeführt werden sollen.
-
Ziel-DQI des jeweiligen Landes
-
Aktueller DQI der jeweiligen Geschäftseinheit
-
DQI der Geschäftseinheit mit der besten Datenqualität
-
DQI der Geschäftseinheit mit der schlechtesten Datenqualität
-
Durchschnitts-DQI der Region
2.2.4 Erkenntnisse
-
Datenqualität ist Voraussetzung für Kerngeschäftsprozesse wie die Finanz- und Produktionsplanung.
-
Datenqualitätsmanagement ist kein einzelnes Projekt, sondern muss über Data-Governance-Rollen in der Organisation verankert sein.
-
Die regelmäßige Messung der Datenqualität ist Voraussetzung für ihr Management und damit ihre Verbesserung.
-
Datenqualität muss Bestandteil der Zielvereinbarungen mit Mitarbeitern sein.
-
Einfachheit: Eine einzige, klar verständliche Metrik wie der Datenqualitätsindex ist verständlicher und aussagekräftiger als eine Vielzahl abstrakter Metriken.
-
Relevanz: Klar definierte kausale Zusammenhänge zwischen Datenqualität und Geschäftsproblemen sichern den Fokus auf die wichtigsten Datenqualitätsprobleme und sichern Mitarbeiter- und Managementunterstützung.
-
Fachlichkeit: Fachliches Wissen aus dem Tagesgeschäft ist notwendig, um geschäftskritische Datendefekte zu identifizieren.
-
Management: Die Unterstützung der Unternehmensleitung erhöht die Sichtbarkeit und Akzeptanz der Datenqualitätsmessung im Unternehmen.
-
Visualisierung: Eine zielgruppengerechte, leicht verständliche und übersichtliche Aufbereitung der Messergebnisse ist Voraussetzung für die Akzeptanz von Datenqualitätsmessungen.
-
Vergleichbarkeit: Der Vergleich von Messwerten, z. B. zwischen verschiedenen Ländern, kann die Mitarbeitermotivation erhöhen. Vergleichbare Messwerte ermöglichen auch die unternehmensübergreifende Datenauswertung.
2.2.5 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Brauer 2009
| Master data quality cockpit at Bayer CropScience | Präsentation auf CC CDQ-Workshop | √ | |
Brauer 2012
| The master data quality journey at Bayer CropScience | Präsentation auf CC CDQ-Steuerungskreissitzung | √ | |
Ebner und Brauer 2011
| Case study on the governance system for master data quality at Bayer CropScience | Wiss. Beitrag in Fachzeitschrift | √ | √ |
Ebner et al. 2011
| Fallstudie Bayer CropScience AG – Entwurf und Implementierung geschäftsorientierter Datenqualitätskennzahlen | Fallstudie CC CDQ | √ | √ |
Nachtsheim et al. 2010
| „TOP Controlling“-Initiative bei Bayer CropScience | Beitrag in Fachzeitschrift | √ | |
Otto et al. 2010
| Measuring master data quality: Findings from a case study | Wiss. Beitrag in Fachkonferenzband | √ | √ |
Weber 2009
| Data Governance-Referenzmodell | Dissertation | √ | √ |
2.3 Beiersdorf: Produktdatenqualität in der Konsumgüter-Supply Chain
2.3.1 Unternehmensüberblick
Beiersdorf AG | |
---|---|
Gründung | 1882 |
Branche | Konsumgüterindustrie |
Unternehmenssitz | Hamburg, Deutschland |
Rechtsform | Aktiengesellschaft |
Homepage | |
Umsatz (2013) | 6,14 Mio. EUR |
Gewinn (2013) | 543 Mio. EUR |
Mitarbeiter (2013) | 16.708 |
2.3.2 Ausgangssituation des Datenmanagements
-
Konzernfunktion: Zentrale Dienste bei Beiersdorf (z. B. Bedarfsplanung, Produktmarketing, Produktentwicklung, Packungsdesign) nutzen und pflegen Produktdaten (siehe [1] in Abb. 2.15) und stellen sie sowohl internen als auch externen Partnern zur Verfügung. Zum Beispiel wird eine Produktrezeptur von der Abteilung Produktentwicklung erstellt und von der Funktion Bedarfsplanung genutzt. Außerdem sind zum Beispiel GTINs oder Nettogewichte in einer Designvorlagenspezifikation [4] für externe Partner enthalten. GTINs sind die weltweit einheitlichen Identifikationsnummern für Artikel.
-
Produktionswerk, Lieferant, Drittanbieter, Grafikagentur: Global verteilte Produktionsstätten und externe Produktionspartner nutzen z. B. Artikellisten oder GTINs [2, 7] sowie länderspezifische Designvorlagen [10, 15] und bestellen Rohmaterialien (Positionen von Stücklisten [9]) von Zulieferern.
-
Distributionszentrum, Logistikdienstleister, Zollbehörde: Verteilzentren nutzen für die Lagerung und den Transport von Gütern logistische Daten, die von zentralen Unternehmensfunktionen [8] bereitgestellt und von den Produktionsstätten [12] bearbeitet oder ergänzt werden. Externe Dienstleister nutzen ebenfalls logistische Daten sowie Umwelt-, Gesundheits- und Sicherheitsdaten [11, 13]. Zollrelevante Daten [14] müssen den Zollbehörden zur Verfügung gestellt werden.
-
Datenpool-Anbieter: Beiersdorf stellt in seinem Datenpool „1Sync“ GTINs [3] zur Nutzung durch Kundenunternehmen [16] bereit.
-
Kundenunternehmen: Beiersdorf stellt Kundenunternehmen logistische Daten zur Verfügung, um deren Planungsprozesse zu unterstützen ([6], insbesondere Daten zu Packmaßen).
-
Normenorganisation: Beiersdorf fragt bei Standardisierungsorganisationen Daten für die Definition von neuen GTINs [5] an.
2.3.3 Projekt zur Messung der Datenqualität
-
Phase I: Scoping. Bestimmung von Datenattributen und Datenqualitätsdimensionen, die als geschäftskritisch eingestuft werden.
-
Phase II: Interviews. Identifikation von Geschäftsproblemen, die auf Mängel bei den ausgewählten Attributen zurückzuführen sind (über Interviews mit Vertretern von diversen Partnern im Ökosystem von Beiersdorf).
-
Phase III: Analyse. Zusammenfassung der Interviewergebnisse und Identifikation von kritischen Datenmängeln.
-
Phase IV: Spezifikation. Spezifikation von Messwerten für die Datenqualität zur Überwachung kritischer Datenmängel.
-
Fehlende Angaben zu Temperaturbedingungen für den Transport: In einigen Fällen wurden Produkte aufgrund extremer Außentemperaturen gefroren geliefert. Die Folge waren Kundenbeschwerden und zusätzliche Kosten für die Rücksendung, Qualitätsprüfung und erneute Lieferung. Der Aufbau des PLM-Systems sah keine produktspezifischen Angaben für die Umgebungstemperatur beim Transport vor.
-
Kein einheitliches Format für die Produktkennzeichnung (Verfallsdatum): Wie viele andere Unternehmen hatte Beiersdorf in einigen Fällen Probleme mit dem korrekten Format für die Kennzeichnung der Produktverpackungen mit dem Verfallsdatum. Diese Formate unterscheiden sich von Land zu Land und mussten häufig einzeln recherchiert werden, da keine vollständige zentrale Dokumentierung aller gültigen Formate zum Nachschlagen existierte.
-
Fehlende Gefahrgutkennzeichnung bei Produktbündeln: Beiersdorf stellt stets sicher, dass Gefahrengüter (z. B. Spraydosen mit Deodorant) entsprechend gekennzeichnet und beschriftet sind. Fehlende oder fehlerhafte Gefahrgutkennzeichnungen waren deshalb bisher nicht bekannt. Jedoch werden Produktbündel für bestimmte Marketingkampagnen (z. B. Auslagen, die eine Tasche mit Shampoo und Deospray enthalten) meist nicht in den Produktionsstätten verpackt, in denen die einzelnen Komponenten hergestellt werden, sondern in den Verteilzentren. In diesem Fall müssen die Stücklisten der kombinierten Produkte einzeln überprüft werden, um festzustellen, ob eine Gefahrgutkennzeichnung notwendig ist. Dieser Prozess wurde in mehreren Interviews als mühsam und risikoreich beschrieben, auch wenn keine konkreten Ausfälle erwähnt wurden.
-
Fehlende oder fehlerhafte GTIN: Es gab Fälle, in denen GTINs für logistische Einheiten (z. B. Schrumpfverpackung, Packungseinheit, Palette) fehlten, fehlerhaft oder nicht eindeutig waren (z. B. Produkt-GTINs, die auch für Schrumpfverpackung benutzt wurden) oder nicht mit den Daten übereinstimmten, die an den GS1-Datenpool übermittelt wurden (die GS1 ist eine internationale Organisation, die globale Standards für Supply Chains entwickelt und umsetzt). Die Folge waren Probleme im Vertrieb der Produkte und ein Abfall des Dienstleistungsniveaus.
-
Ungenaue oder nicht rechtzeitig verfügbare logistische Daten: Das automatisch errechnete Produktgewicht wurde im PLM-System nicht in allen Fällen durch die nach der Produktion und letzten Anpassungen gemessenen tatsächlichen Werte ersetzt. Bei Produkten mit einer transparenten Verpackung (z. B. Shampoo, das in durchsichtigen Flaschen abgefüllt ist) wurde die Flasche in manchen Fällen auf etwas mehr als das angegebene Füllgewicht bis zum Deckel aufgefüllt, da die Flasche andernfalls etwas leer aussieht. Obwohl sich solche Volumenänderungen im Rahmen des von der GS1 vorgegebenen Toleranzbereichs von 20 % bewegen, können durch erhöhte Palettengewichte Logistikprozesse beeinflusst werden.
-
Stückliste nicht rechtzeitig freigegeben: In einigen Fällen waren Stücklisten nicht rechtzeitig verfügbar oder wurden nach dem Freigabedatum mehrmals geändert. Dadurch konnte es zu Verzögerungen im Produktionsprozess, zu zusätzlichem Aufwand in den Produktionsstätten und zu potentiell niedrigerer Dienstleistungsqualität kommen.
-
Dokumente nicht rechtzeitig verfügbar: Es gab zudem Fälle, in denen Designvorlagen und technische Zeichnungen nicht rechtzeitig verfügbar waren, was ebenfalls zu Verzögerungen im Produktionsprozess, zu zusätzlichem Aufwand in den Produktionsstätten und zu potentiell niedrigerer Dienstleistungsqualität führte.
Datenfluss | Datencluster/Attribut | Datenqualitätsdimensionen | Einfluss auf Geschäftsprozesse |
---|---|---|---|
[2] | Stückliste | Aktualität, Änderungshäufigkeit | • Zusätzliche Kosten aufgrund neuer Produktion, wenn Änderungen der Stückliste Produkte unbenutzbar machen • Beeinträchtigung der Dienstleistungsqualität aufgrund von Verzögerungen in der Produktion |
Format der Produktkennzeichnung | Genauigkeit, Vollständigkeit, Änderungshäufigkeita
| • Zusätzliche Kosten aufgrund zusätzlicher Arbeit (z. B. Informationen einholen, Kommunikation) • Zusätzliche Kosten durch Nachbesserungen, wenn der Mangel nicht vor Produktionsbeginn erkannt wird • Risiko der Geldstrafe durch Aufsichtsbehörden, wenn der Mangel nicht vor Lieferung der Waren erkannt wird | |
[3] | GTIN | Konsistenz | • Beeinträchtigung der Dienstleistungsqualität, wenn Unstimmigkeiten nicht vor Lieferung der Waren erkannt werden • Risiko der Geldstrafe durch Aufsichtsbehörden, wenn der Mangel nicht vor Lieferung der Waren erkannt wird |
Logistische Daten | Genauigkeit | • Beeinträchtigung der Dienstleistungsqualität, wenn Unstimmigkeiten nicht vor Lieferung der Waren erkannt werden • Risiko der Geldstrafe durch Aufsichtsbehörden, wenn der Mangel nicht vor Lieferung der Waren erkannt wird | |
[4] | GTIN | Genauigkeit, Konsistenz | • Zusätzliche Kosten durch Notwendigkeit neuer Designvorlage, wenn der Mangel nicht vor Produktion oder Lieferung erkannt wird |
[6] | Gefahrgutkennzeichnung | Vollständigkeit | • Risiko der Geldstrafe durch Aufsichtsbehörden, wenn der Mangel nicht vor Lieferung der Waren erkannt wird |
Logistische Daten | Aktualität | • Kosten aufgrund entgangener Erlöse | |
[7] | Stückliste | Aktualität, Änderungshäufigkeit | • Zusätzliche Kosten aufgrund neuer Produktion oder Nachbesserung, wenn Änderungen der Stückliste bestehende Produkte unbenutzbar machen • Beeinträchtigung der Dienstleistungsqualität aufgrund von Verzögerungen in der Produktion |
[8] | Gefahrgutkennzeichnung | Vollständigkeit | • Zusätzliche Kosten aufgrund zusätzlicher Arbeit (z. B. Informationen einholen, Kommunikation) |
GTIN | Genauigkeit, Vollständigkeit, Änderungshäufigkeit | • Zusätzliche Kosten aufgrund zusätzlicher Arbeit (z. B. Informationen einholen, Kommunikation) • Risiko der Geldstrafe durch Aufsichtsbehörden, wenn der Mangel nicht vor Lieferung der Waren erkannt wird | |
Logistische Daten | Genauigkeit, Vollständigkeit, Änderungshäufigkeit | • Zusätzliche Kosten aufgrund zusätzlicher Arbeit (z. B. Informationen einholen, Kommunikation), insbesondere hinsichtlich GTINs für Logistikbereiche | |
[10] | Designvorlagen, technische Zeichnungen | Aktualität | • Beeinträchtigung der Dienstleistungsqualität aufgrund von Verzögerungen in der Produktion |
[11] | Gefahrgutkennzeichnung | Vollständigkeit | • Risiko der Geldstrafe durch Aufsichtsbehörden, wenn der Mangel nicht vom Logistikdienstleister erkannt wird |
[12] | GTIN | Genauigkeit, Konsistenz, Vollständigkeit | • Zusätzliche Kosten aufgrund zusätzlicher Arbeit (z. B. Informationen einholen, Kommunikation), insbesondere hinsichtlich GTINs für Logistikbereiche |
Logistische Daten | Genauigkeit, Änderungshäufigkeit | • Zusätzliche Kosten aufgrund zusätzlicher Arbeit (z. B. Informationen einholen, Kommunikation), insbesondere betreffend Bruttogewicht | |
[13] | Gefahrgutkennzeichnung | Vollständigkeit | • Risiko der Geldstrafe durch Aufsichtsbehörden, wenn der Mangel nicht vom Logistikdienstleister erkannt wird |
Logistische Daten | Genauigkeit | • Zusätzliche Kosten, wenn Ware aufgrund Übertretung des Toleranzbereichs neu verpackt und gelagert werden muss | |
[14] | Zollrelevante Daten | Aktualität | • Zusätzliche Kosten aufgrund zusätzlicher Arbeit (z. B. Informationen einholen, Kommunikation) • Beeinträchtigung der Dienstleistungsqualität aufgrund von Verzögerungen in der Produktion |
[15] | Designvorlagen, technische Zeichnungen | Aktualität | • Beeinträchtigung der Dienstleistungsqualität aufgrund von Verzögerungen in der Produktion |
-
Bester Wert (1): Kein überprüftes Datenobjekt enthält einen kritischen Mangel.
-
Schlechtester Wert (0): Jedes überprüfte Datenobjekt enthält mindestens einen kritischen Mangel.
2.3.4 Erkenntnisse
-
Produktdatenqualität ist Voraussetzung für Supply-Chain-Prozesse.
-
Anforderungen an die Datenqualität leiten sich aus den Steuerungsgrößen der Geschäftsprozesse und den Anforderungen der Datennutzer ab.
-
Datenqualität muss über Datenqualitätsdimensionen operationalisiert und messbar gemacht werden.
2.3.5 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Schemm 2008 | Stammdatenmanagement zwischen Handel und Konsumgüterindustrie: Referenzarchitektur für die überbetriebliche Datensynchronisation | Dissertation | √ | √ |
Hüner 2010
| Methode zur Spezifikation geschäftsorientierter Datenqualitätskennzahlen | Arbeitsbericht CC CDQ | √ | √ |
Hüner 2011
| Führungssysteme und ausgewählte Maßnahmen zur Steuerung von Konzerndatenqualität | Dissertation | √ | √ |
Hüner et al. 2011a
| Product data quality in supply chains: The case of Beiersdorf | Wiss. Beitrag in Fachzeitschrift | √ | √ |
Grillo 2009
| Improvement of Master Data Quality at Beiersdorf | Präsentation auf CC CDQ-Workshop | √ | |
Schierning 2010
| MDM @ Beiersdorf: Project DACOTA „Data Defect Identification & Measurement“ | Präsentation auf CC CDQ-Workshop | √ | |
Schierning 2012
| Consumer-centric Information Management: Exploring Product Information | Präsentation auf CC CDQ-Workshop | √ |
2.4 Bosch: Datenarchitekturmanagement in einem diversifizierten Technologiekonzern
2.4.1 Unternehmensüberblick
Robert Bosch GmbH | |
---|---|
Gründung | 1886 |
Branche | Mischkonzern: Technologie, Maschinenbau, Dienstleistungen |
Unternehmenssitz | Gerlingen, Deutschland |
Rechtsform | GmbH |
Homepage | |
Umsatz (2013) | 46,07 Mrd. EUR |
Gewinn (2013) | 1,25 Mrd. EUR |
Mitarbeiter (2013) | 281.381 |
2.4.2 Ausgangssituation und Handlungsdruck
-
Gemeinsame Ziele im Stammdatenmanagement
-
Gemeinsamer Ordnungsrahmen für das Stammdatenmanagement (Funktionen und Rollen)
-
Definition unternehmensweit relevanter Stammdatenklassen (u. a. Daten zu Kontenplänen, Lieferanten, Kunden, Mitarbeitern, Materialien, Kundenhierarchien)
-
Eindeutige, verbindliche Zuständigkeiten bei der Ordnungsfunktion für eine Stammdatenklasse (insbesondere bei der Datenpflege) durch eine Stammdatenowner-Organisation
-
Einheitliches und konsistentes Datenmodell (z. B. hinsichtlich Struktur und Inhalt) als Basis für effiziente Prozessgestaltung und -abwicklung
-
Bereitstellung und Nutzung von IT-Tools zur Stammdatenpflege, -harmonisierung, -konsolidierung und -verteilung
-
Einheitliche Methodik für die Bearbeitung von stammdatenrelevanten Aufgaben (z. B. die Erstellung von Konzepten, Umsetzung von IT-Projekten, Ausübung der Ordnungsfunktion) und Prozessen
-
Das Führungssystem (Governance) legt die Richtlinien für die Bewirtschaftung jeder Stammdatenklasse fest und überwacht die Umsetzung und den Erfolg des Datenmanagements für diese Datenklassen.
-
Die Datenbereitstellung (Provisioning) hat mehrere Funktionen: Sie entwirft erstens die Organisation des Datenmanagements (inkl. der Rollenzuordnung) und zweitens die Datenerfassungs- und Datenpflegeprozesse. Drittens ist sie für die Entwicklung eines konzeptionellen Stammdatenmodells zuständig und definiert viertens die Anwendungssysteme, in denen die Daten führend bewirtschaftet werden.
-
Die Datennutzung umfasst die Verwendung der Daten in den Geschäftsprozessen. Aufgrund der Komplexität der Aufbauorganisation und der Vernetzung der Sparten nutzen verschiedene Geschäftsprozesse in unterschiedlichen Sparten dieselben Daten.
-
Die Funktion „Konzepte und Projekte“ ist für die Weiterentwicklung des Datenmanagements sowie die Anpassung der Daten über ihren Lebenszyklus hinweg verantwortlich. Da sich die Geschäftsprozesse ändern, wandeln sich auch die Anforderungen an die Daten. Beispielsweise wird die Handelsregisternummer im Lieferantenstamm aufgrund gesetzlicher Vorgaben von einem Kann- zu einem Muss-Feld.
-
Die Migration auf eine einzige Standardarchitektur wäre in vielen Fällen zu kostspielig und zu riskant – auch aufgrund unterschiedlicher Anwendungssysteme in den einzelnen Sparten.
-
Der Harmonisierungsbedarf der Daten unterscheidet sich von Stammdatenklasse zu Stammdatenklasse. So ist er z. B. bei Mitarbeiterdaten vergleichsweise hoch, bei Lieferantendaten jedoch gering.
-
Der Reifegrad im Stammdatenmanagement war über das Unternehmen hinweg uneinheitlich.
2.4.3 Datenarchitekturmuster bei Bosch
-
Organisatorische Verankerung der Verantwortung für eine Stammdatenklasse, die im Falle von Bosch stets dezentral ist
-
Verantwortung für den Entwurf der Datenpflegeprozesse, die entweder zentral oder dezentral organisiert sein kann
-
Verantwortung für die Ausführung der Datenpflegeprozesse, die ebenfalls entweder zentral oder dezentral organisiert sein kann
-
Verantwortung für den Datenmodellentwurf
Designparameter | I (Zentraler Ansatz) | II (Hybrider Ansatz) | III (Lokaler Ansatz) |
---|---|---|---|
Organisatorische Verantwortlichkeit für Stammdatenklasse | Verantwortung liegt beim MDO,zusammen mit Repräsentanten einer Geschäftseinheit und MDF | ||
Design der Datenpflegeprozesse | ▪ MDO definiert unternehmensweite Pflegeprozesse(Standard) | ▪ MDO definiert Prinzipien für unternehmensweite Pflegeprozesse ▪ Detaillierte Definitionen werden von Geschäftseinheiten erstellt | ▪ Keine zentralen Prinzipien durch MDO ▪ Pflegeprozesse werden von Geschäftseinheiten erstellt |
Ausführung der Datenpflegeprozesse | ▪ Datenpflege durch zentrale MDO Organisation,zusammen mit Geschäftseinheit | ▪ Datenpflege durch Geschäftseinheiten | ▪ Datenpflege durch Geschäftseinheiten |
Design des konzeptuellen Datenmodells | Design durch MDO | ||
Beispiele | ▪ Kundenhierarchiedaten | ▪ Stammdaten der Konsumenten ▪ Ersatzteile von Maschinen ▪ Stammdaten des Personalwesens | ▪ Produkthierarchie |
Organisatorischer Ansatz | I (Zentral) | II (Hybrid) | III (Lokal) |
---|---|---|---|
Technischer Ansatz | |||
A (Analytisch)
| 〇 | ◑ | ● |
B (Transaktional)
| ● | ●b
| 〇 |
C (Koexistenz)
| 〇 | ●a
| 〇 |
D (Parallel)
| 〇 | ● | 〇 |
-
Vielfalt der Geschäftsprozesse und Systeme
-
Heterogenität der Daten und Datenmodelle
-
Dringlichkeit der Anforderungen der Datennutzer
-
Machbarkeit und Wirtschaftlichkeit
2.4.4 Erkenntnisse
-
Architekturmuster helfen, den Bedarf nach Flexibilität und Einzigartigkeit in unterschiedlichen Divisionen und Landesgesellschaften auf der einen Seite und den Druck nach Vereinheitlichung und Komplexitätsreduktion auf der anderen Seite abzuwägen. Die Entscheidung für eine bestimmte Gestaltung der Stammdatenarchitektur kann somit auf Basis transparenter und einheitlicher Kriterien getroffen werden.
-
IT-Entwicklungskosten und Kosten für die Prozessanpassung im Fachbereich können ins Gleichgewicht gebracht werden.
-
Standardmuster von Softwareanbietern oder „Best Practice“-Lösungen von Beratungs- und Marktforschungsunternehmen reichen nicht aus. Beispielsweise ist der parallele Ansatz auf die Anforderungen großer Unternehmen zugeschnitten, in denen komplexe Prozess- und Systemarchitekturen den Parallelbetrieb erfordern.
-
Architekturmuster stärken die Orientierung am internen Kunden des Stammdatenmanagements, also den Fachbereichen, durch Auswahl aus einem Katalog und beschleunigen die Umsetzung des Stammdatenmanagement-Konzepts.
2.4.5 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Hatz 2008
| BOSCH master data management | Präsentation auf CC CDQ-Workshop | √ | |
Ebner 2014
| Entwicklung einer Methode zum Entwurf einer Unternehmensdatenarchitektur | Dissertation | √ | √ |
Otto 2012a
| How to design the master data architecture: findings from a case study at Bosch | Wiss. Beitrag in Fachzeitschrift | √ | √ |
Schmidt 2010 | Stammdatenintegration | Dissertation | √ | √ |
Otto und Schmidt 2010
| Enterprise master data architecture: design decisions and options | Wiss. Beitrag in Fachkonferenzband | √ | √ |
Ebner et al. 2012
| Conceptualizing data in multinational enterprises: model design and application | Wiss. Beitrag in Fachkonferenzband | √ | √ |
2.5 Festo: Unternehmensweites Produktdatenmanagement in der Automatisierungsindustrie
2.5.1 Unternehmensüberblick
Festo AG & Co. KG | |
---|---|
Gründung | 1925 |
Branche | Pneumatik, Automatisierungstechnik |
Unternehmenssitz | Esslingen am Neckar, Deutschland |
Rechtsform | AG & Co. KG |
Homepage | |
Umsatz (2013) | 2,3 Mrd. EUR |
Gewinn | (nicht ausgewiesen) |
Mitarbeiter (2013) | 16.700 |
-
Global Production Centers (GPC) bilden das Rückgrat der weltweiten Marktversorgung bei Festo. Die GPCs gewährleisten die Primärversorgung mit Komponenten und Endprodukten und beliefern die Regional Service Centers (RSC). Das Zielsystem der GPCs ist auf niedrige Fertigungskosten und die Bündelung von Kernkompetenzen ausgerichtet. Die zentral organisierten Technical Engineering Centers (TECs) sind je einem GPC zugeordnet und entwickeln die Katalogprodukte.
-
Die RSCs haben die Aufgabe, die regionale Marktversorgung für das komplette Produktprogramm über kurze Lieferzeiten sicherzustellen und regional benötigte Varianten zu fertigen.
-
In Märkten, welche von RSCs nicht mit ausreichend kurzen Lieferzeiten bedient werden können, übernehmen National Service Centers (NSC) diese Aufgabe und fungieren zugleich als „verlängerte Werkbank“ für kundenspezifische Produktanpassungen.
-
Wahrung der finanziellen Unabhängigkeit als Familienunternehmen
-
Fokussierung auf definierte Wachstumsfelder und Sicherung des Geschäfts in bestehenden Geschäftsfeldern
-
Entwicklung einheitlicher Prozesse und deren kontinuierliche Verbesserung im Hinblick auf Kosten, Zeit und Qualität
-
Gewährleistung und Förderung der persönlichen Mitarbeiterentwicklung im Sinne eines „Lernunternehmens“
2.5.2 Ausgangssituation und Handlungsdruck des Produktdatenmanagements
-
Lieferservice in 176 Ländern
-
24 h am Tag Abhol- und Lieferservice in der Mehrzahl der Niederlassungen
-
Auslieferung von mehr als 75 % der Aufträge binnen 24 h innerhalb Europas (bei einem Volumen von bis zu 34.000 Lieferpositionen pro Tag allein in Deutschland)
-
Bereitstellung elektronischer Produktinformationen sowohl als CD-ROM- als auch als Online-Katalog in 24 Sprachen
-
Normung und Klassifizierung
-
Sachmerkmalsverwaltung
-
Grunddatenverwaltung
-
Zeichnungsprüfung
-
Änderungsmanagement
-
Neuheitendaten-Support
-
Internationalisierung sämtlicher Prozesse einschließlich des Produktdatenmanagements: Das Produktdatenmanagement muss den internationalen Anforderungen einerseits durch höhere Standardisierung von Abläufen begegnen, andererseits aber auch auf länderspezifische Ansprüche eingehen (z. B. Unterstützung von 24 Sprachen).
-
Wissenserosion: Eine wachsende Mitarbeiterzahl und zunehmende Zahl an Produktionsstätten führt dazu, dass das Wissen und die Erfahrungen um die eigenen Produkte zunehmend weltweit verteilt sind. Festo hat aber ein Interesse daran, dass dieses Wissen im Sinne der gemeinsamen Prozesse an zentraler Stelle gebündelt wird.
-
Effizienzsteigerung: Neue Unternehmensvorgaben verlangen vom Produktdatenmanagement höhere Prozesseffizienz. Dies gilt sowohl für die eigenen Prozesse der Abteilung als auch für seine internen Kunden (z. B. die Konstruktion, Einkauf, Fertigung und Vertrieb).
2.5.3 Projekte im Produktdatenmanagement zwischen 1990 und 2009
Vollständig bearbeitet | Teilweise bearbeitet |
---|---|
Schrauben | Zylinderstifte (Dubletten) |
O-Ringe | Gewindeeinsätze (Dubletten) |
Muttern | Spannstifte (Dubletten) |
Alu-Halbzeuge | |
Stahl-Halbzeuge | Scheiben/Ringe (SMV-Daten + Vorzug + Dubletten) |
Kolbenstangen | Kugeln (SMV-Daten + Vorzug + Dubletten) |
HIBE (Hilfs- und Betriebsstoffe) | Passfedern (SMV-Daten + Vorzug + Dubletten) |
Kugellager (SMV-Daten + Vorzug + Dubletten) |
-
Erhöhte Transparenz über Teile und Produkte durch qualitativ hochwertige Datenbestände
-
Effizienzsteigerung durch Verwendung von Wiederholteilen und Wiederholgeometrien
-
Effizienzsteigerung durch Verwendung von standardisierten Symbolen, Werkstoffen, Texten usw.
-
Verbesserung der Produkt- und Prozessqualität durch Verwendung von Standards
-
Reduzierung von Markteinführungszeiten durch kürzere Entwicklungszeiten
Szenario | Durchschn. Gesamtkosten 2001 und 2002 [TEUR] | Anteil an Aktivitäten mit PDM-Bezug [%] | Neuheiten [%] | Jährliche Gesamtkosten Neuheiten [TEUR] | Änderungen [%] | Jährliche Gesamtkosten Änderungen [TEUR] |
---|---|---|---|---|---|---|
F&E | 48.256 | 90 | 65 | 28.230 | 35 | 15.201 |
PM | 11.923 | 80 | 85 | 8108 | 15 | 1431 |
BM | 2456 | 20 | 100 | 491 | 0 | 0 |
Patente | 1428 | 100 | 100 | 1428 | 0 | 0 |
Industrial Engineering | 2298 | 100 | 70 | 1608 | 30 | 689 |
Value Management | 865 | 100 | 60 | 519 | 40 | 346 |
QS | 11.468 | 100 | 60 | 6881 | 40 | 4587 |
Katalogverwaltung | 2860 | 100 | 40 | 1144 | 60 | 1716 |
Logistik und Lagerhaltung | 23.749 | 100 | 5 | 1187 | 95 | 22.526 |
Summe
|
49.595
|
46.531
|
-
In der Anschaffungsphase sind Kosten in Höhe von 5000 € pro Neuanlage zu veranschlagen. Der Wert errechnet sich aus der Division der Gesamtkosten von 49,6 Mio. € für Neuheiten, dividiert durch 10.000 Neuheiten durchschnittlich p. a. und anschließender Aufrundung auf tausend Euro.
-
In der Nutzungsphase kalkuliert Festo mit einem Gemeinkostensatz in Höhe von 500 € p. a. Für diese Berechnung werden ein durchschnittlicher Teilebestand von 120.000 und eine durchschnittliche Lebensdauer von acht Jahren pro Teil vorausgesetzt.
Szenario | Teiledifferenz | Kostensatz [EUR] | Kosteneinsparung [TEUR] |
---|---|---|---|
Vermeidung von Neuanlagen | 2171 | 5000 | 10.855 |
Vermeidung von Teilebewirtschaftung | 2286 | 500 | 1143 |
Summe
|
11.998
|
2.5.4 Aktuelle Aktivitäten und Ausblick
-
Reorganisation der Verwaltungswerkzeuge
-
Bereitstellung von Bibliotheken
-
Stammdatenreorganisation
2.5.5 Erkenntnisse
-
Bewusstseinsbildung: Alle Hierarchieebenen verstehen, akzeptieren und unterstützen die Absicht, ein „globales Optimum“ in den Geschäftsprozessen zu definieren und einzuführen – selbst wenn es lokal kein Optimum darstellt. Ein Beispiel dafür ist, SAP als weltweit gemeinsames Informationssystem zu nutzen.
-
Geschäftsprozessgestaltung: Alle Änderungen und Verbesserungen an Geschäftsprozessen wurden so gestaltet, dass sie weltweit verwendbar und skalierbar sind.
-
Werkzeugunterstützung: Für neue Geschäftsprozesse und für die internationale Verwendung stehen Software-Werkzeuge zur Verfügung.
-
Zentrale Produktdatenverwaltung: Die Verwaltung der Produktdaten nutzt nicht nur ein zentrales Informationssystem, sondern ist auch in einer zentralen Unternehmensfunktion organisiert.
-
Harmonisierte Produktdaten sichern Produktdatenqualität und damit durchgängige Geschäftsprozesse von der Konstruktion bis zur Logistik.
-
Voraussetzung ist eine integrierte PLM-Systemarchitektur sowie eine zentrale Verantwortung für PLM-Prozesse.
-
Gemeinkostenanalysen für das Produktdatenmanagement helfen bei der Bereinigung des Teileportfolios.
2.5.6 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Falge 2015
| Methode zur Strategieentwicklung für unternehmensweites Datenqualitätsmanagement in globalen Konzernen | Dissertation | √ | √ |
Huber 2009
| Internationales Produktdatenmanagement – Methoden und Konzepte | Präsentation auf Praxiskonferenz | √ | |
Lehmann 2012
| Boost the collaboration and communication between product development and master data administration | Präsentation auf CC CDQ-Workshop | √ | |
Otto 2012b
| Managing the business benefits of product data management: the case of Festo | Wiss. Beitrag in Fachzeitschrift | √ | √ |
Otto und Ofner 2010 | Fallstudie Festo AG: Gemeinkostenwirksames Produktdatenmanagement | Fallstudie CC CDQ | √ | √ |
2.6 Hilti: Durchgängiges Kundendatenmanagement in der Werkzeug- und Befestigungsindustrie
2.6.1 Unternehmensüberblick
Hilti AG | |
---|---|
Gründung | 1941 |
Branche | Werkzeugherstellung, Befestigungstechnik |
Unternehmenssitz | Schaan, Liechtenstein |
Rechtsform | Aktiengesellschaft |
Homepage | |
Umsatz (2013) | 3,59 Mrd. EUR (4,34 Mrd. CHF) |
Gewinn (2013) | 251 Mio. EUR (304 Mio. CHF) |
Mitarbeiter (2013) | 21.456 |
2.6.2 Ausgangssituation des Kundendatenmanagements und Handlungsdruck
-
Datennutzung: Hilti verwendet Daten aus unterschiedlichen Systemen sowie aus unterschiedlichen Datenfeldern desselben Systems, um kundenindividuelle Preiskalkulationen zu erstellen. Fehlerhafte Daten in diesen Feldern führen zu falschen Berechnungen und gefährden damit einerseits die Kundenzufriedenheit und andererseits den Umsatzerfolg.
-
Datenqualitätsmessung: Da es keine regelmäßige Datenqualitätsmessung der Kundendatenqualität gab, fielen Datendefekte meist erst bei Geschäftsprozessproblemen auf. Die Folge waren zeitintensive Ursachenforschungen und Korrekturmaßnahmen durch die Hilti-Mitarbeiter im Datenmanagement. Zudem gab es keine unternehmensübergreifenden Vorgaben über Datenqualitätsstandards, da die Kundendaten in erster Linie lokal von Mitarbeitern für Berichte oder Kundengespräche gepflegt wurden.
-
Datenpflegeprozess: Es existierte kein einheitlich definierter Anlage- und Pflegeprozess für Kundenstammdaten, der den Anforderungen der Außendienstmitarbeiter hinsichtlich Schnelligkeit, Zuverlässigkeit und Mobilität entsprochen hätte.
-
Eine höhere Kundenzufriedenheit und verbesserte Kundenbindung
-
Erleichterung der strategischen Vertriebsplanung durch eine verbesserte Kundenanalyse (z. B. Kundensegmentierung)
-
Reduzierung der Kosten für das Kontaktmanagement
-
Bessere Unterstützung bei der Ausführung von Logistik- und Abrechnungsprozessen
-
Reduktion von Datenpflegeaufwänden, die durch fehlerhafte Kundendatensätze verursacht werden
2.6.3 Das Projekt Customer Data Quality Tool
-
Schaffung eines Bewusstseins für die Notwendigkeit von Datenqualitätsmanagement auf Seiten der Unternehmensführung mit Hilfe einfacher Schlüsselindikatoren, die interne Leistungsvergleiche ermöglichen
-
Schaffung von Transparenz über die Kundendatenqualität
-
Einrichtung von Kontroll- und Überwachungsfunktionen, um Trends und Entwicklungen in der Kundendatenqualität permanent zu verfolgen
-
Initiierung angemessener Datenbereinigungs- und Qualitätsverbesserungsaktivitäten für die identifizierten Handlungsfelder
-
Etablierung von kontinuierlichen Prozessen für die Kundendatenpflege
2.6.4 Erkenntnisse
-
Unterstützung durch Hiltis Top-Management: Dank des Projektmandats durch die Geschäftsleitung waren die benötigten Änderungen in den Organisationsstrukturen möglich.
-
Frühzeitige Definition von Geschäftsregeln: Hilti definierte die notwendigen Geschäftsregeln zu Beginn des Projekts und stellte sicher, dass sie von einem gemeinsamen Verständnis getragen wurden.
-
Definition unternehmensweiter Datenqualitätsziele.
-
Bereichsübergreifende Zusammenarbeit: Hilti bewertete die intensive Zusammenarbeit aller am Projekt beteiligten Personen sehr positiv, sowohl zwischen lokaler Ebene und der Unternehmenszentrale als auch zwischen den Fachabteilungen und der IT. Von Anfang an wurden die Anforderungen für die neuen Tools an den Bedürfnissen der Fachabteilungen und den dazugehörigen Geschäftsprozesse ausgerichtet. So wurden die Datennutzer z. B. in mehreren intensiven Workshops während des ganzen Projekts miteinbezogen, um in den Fachabteilungen das notwendige Maß an Motivation und aktiver Beteiligung an dem Projekt zu sichern. Die Abteilung Market Reach bewertete die Implementierung und den unternehmensweiten Roll-Out der Lösungen deshalb insgesamt als reibungslos und erfolgreich.
-
Kundendatenqualität ist eine Voraussetzung für direkte Vertriebsmodelle.
-
Kundendatenqualität kann am besten an der Quelle, also beim Vertriebsmitarbeiter, gesichert werden.
-
Akzeptanz für Datenqualitätsprozesse steigt durch Closed-Loop-Ansätze, bei denen Vertriebsmitarbeiter direkt von ihren Datenqualitätsverbesserungen profitieren.
-
Datenqualitätsmessungen zeigen den Handlungsbedarf und dokumentieren Datenqualitätsverbesserungen.
2.6.5 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Baghi und Ebner 2013
| Case study: customer data quality management at Hilti | Fallstudie CC CDQ | √ | √ |
Fohrer 2009
| Customer data management at Hilti | Präsentation auf CC CDQ-Workshop | √ | |
Fohrer 2012
| Driving corporate data quality through the use of consumer technology | Präsentation auf CC CDQ-Workshop | √ |
2.7 Johnson & Johnson: Institutionalisierung des Stammdatenmanagements in der Konsumgüterindustrie
2.7.1 Unternehmensüberblick
Johnson & Johnson | |
---|---|
Gründung | 1886 |
Branche | Pharmazeutische Produkte, Medizinprodukte, Diagnostik |
Unternehmenssitz | New Brunswick, NJ, USA |
Rechtsform | Aktiengesellschaft |
Homepage | |
Umsatz (2013) | 55,07 Mrd. EUR (71,31 Mrd. USD) |
Gewinn (2013) | 10,68 Mrd. EUR (13,83 Mrd. USD) |
Mitarbeiter (2013) | 128.100 |
2.7.2 Ausgangssituation des Datenmanagements im Bereich Consumer Products und Aktivitäten bis 2008
2.7.3 Die Einführung von Data Governance
2.7.4 Aktuelle Situation
-
Die Data Garage speichert täglich eine Kopie aller produktiven SAP-Daten.
-
Das Stammdaten-Cockpit ist ein Analyse- und Reporting-Tool für die Datenqualität. Es überprüft, ob Stammdatensätze die definierten Regeln verletzen und den Qualitätsanforderungen entsprechen.
-
cMat ist ein Workflow-Management-System, das die Anlage von Stammdatensätzen unterstützt. Johnson & Johnson prüft die einzugebenden Daten auf Qualität, bevor sie in den Standardtransaktionen des ERP-Systems gebucht werden. Der Datenfluss durch diese Bereitstellungsbereiche (Staging Areas) stellt sicher, dass nur fehlerfreie Datensätze für den jeweils nächsten Bearbeitungsschritt zugelassen werden und setzt damit das „first time right“-Prinzip um.
-
Data Dialysis Trigger Reports: Die Informationen aus dem Stammdaten-Cockpit steuern zusammen mit den Statusberichten aus cMat den Prozess zur Anlage der Materialstammdaten.
-
Der Production Validation – Bericht überwacht Änderungen und Fehler in wichtigen Datenfeldern bei allen vorhandenen Materialien.
-
Die Stammdaten-Testberichte werden vom Stammdaten-Cockpit erzeugt. 350 unterschiedliche Berichte und Anfragen sind dabei möglich.
-
Die Management-Reports liefern Kennzahlen zu Datenqualität und Aktualität pro Abteilung oder für Geschäftseinheiten.
2.7.5 Erkenntnisse
Datenmanagementkompetenz | Stand Anfang 2008 | Stand Anfang 2012 |
---|---|---|
Data Strategy Management | Auf Ebene des Gesamtunternehmens nicht vorhanden | • EMD-Ziele aus Geschäftszielen abgeleitet • Unterstützung durch Executive Management • Kontinuierliches Managementreporting |
Data Quality Management | Überhaupt nicht vorhanden | • Datenqualitätsprozesse und -werkzeuge sind etabliert und werden kontinuierlich verbessert, sowohl vor als auch während der Datennutzung |
Data Stewardship | Nur auf Ebene der einzelnen Geschäftsbereiche vorhanden; keine Koordination auf der Ebene des Gesamtunternehmens | • Klare Verantwortlichkeiten für die einzelnen Datenklassen • Zentrales EMD-Team mit Stewardship-Verantwortung |
Data Lifecycle Management | Kein unternehmensweites Konzept vorhanden | • Workflow-unterstützter Prozess für die Anlage und Pflege von Stammdatensätzen • Prozess für die Deaktivierung von Stammdatensätzen ist in Entwicklung |
Data Architecture Management | Keine einheitliche Definition der wesentlichen Geschäftsobjekte Zentrale Datenquelle ist das SAP-ERP-System | • Unternehmensweit einheitliches Verständnis der wesentlichen Geschäftsobjekte (z. B. „Product Samples“) • Das SAP-ERP-System ist die führende Datenquelle |
Database Management | SAP-ERP-System | SAP-ERP-System |
-
Qualitätsprobleme von Material- und Produktdaten schlagen sich in allen Geschäftsprozessen nieder; deshalb müssen Anforderungen an die Datenqualität auch vom gesamten Produktlebenszyklus abgeleitet werden.
-
Die dauerhafte Verbesserung der Datenqualität erfordert eine organisatorische Verankerung des unternehmensweiten Datenqualitätsmanagements.
-
Automatisierte digitale Datenqualitätsprüfungen durch Geschäftsregeln müssen mit halbmanuellen, physischen Prüfungen (hier mithilfe des CubiScan-Geräts) kombiniert werden. Die Korrektheit der Daten wird so durch Prüfung am Realweltobjekt sichergestellt.
-
Workflows und Bereitstellungsbereiche (Staging Areas) vor der Datenübernahme ins ERP-System verhindern die Erfassung fehlerhafter Daten und sichern die Datenqualität im Produktivsystem.
-
Die Übertragung von bewährten Qualitätsmanagementsystemen wie Six Sigma auf das Datenqualitätsmanagement erleichtert die Umsetzung und erhöht die Akzeptanz.
2.7.6 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Otto 2013
| On the evolution of data governance in firms: The case of Johnson & Johnson consumer products North America | Wiss. Beitrag in Herausgeberband | √ | √ |
Viman und Otto 2012
| Data governance: Learning from the past: J&J case study | Präsentation auf Praxiskonferenz | √ | |
Wailgum 2012
| Data and information governance at Johnson & Johnson | Beitrag in Fachzeitschrift | √ |
2.8 Lanxess: Business Intelligence und Stammdatenmanagement bei einem Spezialchemiehersteller
2.8.1 Unternehmensüberblick
Lanxess AG | |
---|---|
Gründung | 2004 |
Branche | Spezialchemie |
Unternehmenssitz | Köln, Deutschland |
Rechtsform | Aktiengesellschaft |
Homepage | |
Umsatz (2013) | 8,3 Mrd. EUR |
Gewinn (2013) | − 159 Mio. EUR |
Mitarbeiter (2013) | 17.343 |
2.8.2 Ausgangssituation des Datenmanagements und Business Intelligence 2004–2011
-
1 globales Stammdatensystem
-
2 ERP-Systeme
-
1 globales Reportingsystem (SAP BW)
2.8.3 Das Stammdatenmanagement bei Lanxess seit 2011
-
Professionelle Beratung und Support für das zentrale Stammdatensystem
-
Vertrags- und Lizenzmanagement
-
Verteilung von Stammdaten an alle relevanten Systeme von Lanxess
-
Schulung und Beratung für Mitarbeiter in den Geschäftseinheiten hinsichtlich der Nutzung von Stammdaten und ihrer Prozesse
-
MDM-System: Die zentrale Stammdatendatenbank
-
SAP NetWeaver: Ein Web-Portal, das den Stammdatenworkflow einschließlich Business Rules implementiert. Diese Benutzerschnittstelle ist in mehreren Landessprachen realisiert
-
Business Objects Data Service: Eine Lösung für automatische Adress- und andere Validierungen
-
SAP PI: Eine Middleware, die das zentrale Stammdatensystem mit 21 Zweitsystemen verbindet und die Verteilung der globalen Stammdaten in diese Systeme umsetzt
2.8.4 Aufbau des strategischen Reportings seit 2012
-
Strategische Funktionen: Zusätzlich zu den oben genannten Berichten sollten nun auch weitere Funktionen wie eine Umsatz- & Margen-Analyse mit Simulation, eine globale Kostenanalyse, ein Top-Management-Reporting in Form von Cockpits sowie zukünftig auch weitere Funktionen ermöglicht werden.
-
Standards: Trotz des neuen zentralen BW-Systems griffen Anwender in den Geschäftsbereichen weiterhin häufig auf ihre eigenen Reporting-Frontends zurück. Diese meist Microsoft Office-basierten Tools wurden oft als schneller und bedienungsfreundlicher empfunden als das Reportingtool „Business Explorer“, welches in das BW integriert ist. Eine neue Standardlösung sollte den Bedarf für solche Behelfslösungen reduzieren.
-
Performance & Usability: Neue Lösungen mussten leicht bedienbar und leistungsfähig sein, um von den Anwendern angenommen zu werden.
-
Flexibilität: Neue Berichte sollten durch den Anwender anpassbar sein, um die Abhängigkeit vom IT-Support zu reduzieren und für eine höhere Anwenderzufriedenheit zu sorgen („self-service BI“).
-
Funktionalität: Leistungsfähige Unterstützung der beiden geplanten Szenarien, Cockpit und Margen-Simulation
-
Kompatibilität mit der bisherigen IT-Landschaft und angemessener Implementierungsaufwand
-
Hohe Anwendungsfreundlichkeit, um die Nutzerakzeptanz sicher zu stellen
2.8.5 Erkenntnisse
-
Konsolidierte und saubere Unternehmensdaten sind Voraussetzung für fortgeschrittene BI-Lösungen.
-
Ein systemgestützter Workflow für den Stammdatenpflegeprozess mit klaren Rollen und Verantwortlichkeiten stellt sicher, dass Stammdaten zügig und unter gesicherter Qualität in zentralen und lokalen Anwendung zur Verfügung stehen.
-
In-Memory Computing-Technologie kann dazu eingesetzt werden, komplexe Simulationen mit großen Datenmengen durchzuführen und ein für Endnutzer flexibles Berichtswesen zu etablieren.
2.8.6 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Bärenfänger 2014
| Value potential of in-memory data management | Arbeitsbericht CC CDQ | √ | √ |
Rosenhagen 2014
| Master Data Management @ Lanxess | Präsentation auf CC CDQ-Workshop | √ | |
Schuster 2013
| Re-engineering management information at Lanxess | Präsentation auf Praxiskonferenz | √ |
2.9 Shell: Datenqualität im Produktlebenszyklus in der Mineralölindustrie
2.9.1 Unternehmensüberblick
Shell | |
---|---|
Gründung | 1907 |
Branche | Mineralöl, Erdgas |
Unternehmenssitz | Den Haag, Niederlande |
Rechtsform | Public limited company |
Homepage | |
Umsatz (2013) | 348,46 Mrd. EUR (451,24 Mrd. USD) |
Gewinn (2013) | 12,76 Mrd. EUR (16,53 Mrd. USD) |
Mitarbeiter (2013) | 92.000 |
2.9.2 Ausgangssituation und Handlungsdruck
-
Niedrige Datenqualität
-
Lange Durchlaufzeit bei der Anlage von Produktdaten
-
Hohe Komplexität des Prozesses zur Anlage von Produktdaten
-
Wissenslücken im PLM-Prozess
-
Fehlende Leistungskennzahlen
2.9.3 Durchgängiges Datenmanagement im Produktlebenszyklus
-
Verbesserung der Systemunterstützung des PLM-Prozesses
-
Definition „globaler“ und „lokaler“ Geschäftsregeln zur Steuerung des Produktanlageprozesses
-
Entwicklung eines Werkzeugs zur automatischen Belegung von Feldern („Auto Population“) bei der Produktanlage
-
Einführung einer SAP-Stammdatenlösung
-
Einführung eines Workflow-Managementsystems für die Produktanlage
-
Reduktion manueller Tätigkeiten im Produktanlageprozess
2.9.4 Herausforderungen bei der Umsetzung
2.9.5 Nutzen der neuen Lösung
-
Reduktion der Durchlaufzeit bei komplexen Produktneuanlagen um 86 % auf 3,3 Tage
-
Reduktion der Durchlaufzeit bei normalen Produktneuanlagen um 64 % auf 2,1 Tage
-
Fristgerechte Neuanlage bei 92 % der Anfragen (Steigerung um 33 Prozent)
-
Steigerung der „first time right“-Anlagen von 90 auf 97 %
-
Steigerung der Prozesstreue bei der Produktneuanlage von 96 auf 99 %
2.9.6 Erkenntnisse
2.9.7 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Self 2011
| Data quality in Shell | Präsentation auf Fachkonferenz | √ | √ |
Self 2013
| Shell’s global data quality journey | Buchbeitrag | √ | √ |
Tan 2013
| Shell’s Product Lifecycle Management (PLM) End to End (E2) data process improvement story | Präsentation auf CC CDQ-Workshop | √ |
2.10 Syngenta: Auslagerung von Datenmanagementaufgaben in der Pflanzenschutzindustrie
2.10.1 Unternehmensüberblick
Syngenta | |
---|---|
Gründung | 2000 |
Branche | Agrochemie |
Unternehmenssitz | Basel, Schweiz |
Rechtsform | Aktiengesellschaft |
Homepage | |
Umsatz (2013) | 11,34 Mrd. EUR (14,69 Mrd. USD) |
Gewinn (2013) | 1,38 Mrd. EUR (1,79 Mrd. USD) |
Mitarbeiter (2013) | 28.149 |
2.10.2 Ausgangssituation und Ziele der Stammdatenmanagementinitiative
-
Es gab keine klaren Verantwortlichkeiten für global gültige Unternehmensstammdaten
-
Geschäftsprozesse waren kaum standardisiert und automatisiert
-
Die Prozesse für die Pflege der Stammdaten waren ineffizient und uneinheitlich
-
Niedrige Datenqualität wirkte sich negativ auf die Geschäftsprozesse aus
-
Das Stammdatenmanagement war in „funktionalen Silos“ organisiert (wurde also in den einzelnen Geschäftsbereichen und Linienabteilungen dezentral durchgeführt). Ein unternehmensweites Stammdatenmanagement existierte nicht.
-
Auf der Ebene des Gesamtunternehmens gab es keine standardisierten oder harmonisierten Prozesse.
-
Es gab keine klaren MDM-Verantwortlichkeiten und expliziten MDM-Rollen (also keine Data-Governance-Strukturen).
-
Die Datenhaltung war redundant, inkonsistent und oft unvollständig.
-
Für die Anlage von Stammdaten waren keine Service Levels oder Qualitätskennzahlen definiert.
-
Der Prozess für die Anlage von Stammdaten wurde durch eine hohe Anzahl von Schnittstellen zwischen den Systemen sowie komplexe Systemarchitekturen erschwert.
-
Verspätete Warenlieferung an den Kunden infolge fehlerhafter Materialdaten
-
Probleme bei der Abrechnung von Lieferungen infolge fehlerhafter Kundendaten
-
Falsche Verpackung und/oder Beschriftung von Produkten
-
Hoher Aufwand für die Ermittlung von Beständen aufgrund von niedrigem Vertrauen in die vom Warenwirtschaftssystem bereitgestellten Informationen
2.10.3 Das Transformationsprojekt und MDM-Designprinzipien
-
„Ein Team“: Alle MDM-Ressourcen stehen unter einer gemeinsamen Führung
-
„Ein Weg“: Sicherstellung eines standardisierten Ansatzes für die Bereitstellung qualitativ hochwertiger Stammdaten
-
„Ein Tool“: Ein zentrales MDM-Tool für alle Datenpflegeprozesse
Designprinzip für MDM | Beschreibung |
---|---|
Prozessstandardisierung und -automatisierung | Das Stammdatenmanagement erfolgt über standardisierte Prozesse, die mit einem zentralisierten Workflow-Tool unterstützt werden. Alle nutzenden Prozesse der Stammdaten sind identifiziert und definiert |
Data Ownership in der Linienabteilung | Die Workflows beinhalten eingebettete Kontrollen, Data-Ownership-Rollen und Freigabemechanismen für die Linienabteilungen. Sie sind auditierbar und transparent durch ein entsprechendes Reporting |
Datenqualität | In die Workflows sind Datenqualitätschecks eingebettet. Standardisierte Tools und Prozesse unterstützen die Pflegeprozesse der wichtigsten Stammdatenobjekte. Alle datennutzenden Systeme müssen die Daten aus diesen Prozessen verwenden. Als „Single Point of Truth“ für die Stammdatenschlüsselelemente fungiert das SAP Data Repository |
Data Governance/Business Service | Die MDM-Organisation hat die Ownership und die Stewardship für die Prozesse inne. Technischer Support wird von der IT-Abteilung bereitgestellt. Verantwortlichkeiten und Rollen sind entlang von drei Bereichen definiert: Data Content Ownership, Process Ownership und Technical Ownership. Die Workflows werden so konfiguriert, dass sie den Anforderungen der verschiedenen Verantwortlichkeiten, Rollen und Bereiche Rechnung tragen |
Change Governance | Die Linienabteilungen initiieren Änderungen an Stammdaten. Änderungsanfragen werden von dem definierten Verantwortlichen geprüft und zur weiteren Bearbeitung zugeordnet |
Zukunftssichere und skalierbare Lösungen | Systemübergreifende Skalierbarkeit wird bei jedem neuen IT-Tool von Beginn an eingeplant (z. B. Enterprise Portal). Das Architektur-Team prüft und bewilligt jede Stammdatenlösung und stellt sicher, dass den übergeordneten organisatorischen und technischen Anforderungen des Unternehmens Rechnung getragen wird |
Prozesstransparenz und -kontrolle | Das Stammdatenmanagement sichert einheitliche Prozesse für Erstellung, Erweiterung, Aktualisierung, Berichte und Prüfung von Stammdaten mit adäquater Qualitätssicherung. Prozesskennzahlen-Reports ermöglichen ein kontinuierliches Monitoring der definierten Prozesse |
Systemübergreifender Ansatz | Bei der Migration der Stammdaten in das SAP-System werden Referenzta-bellen befüllt. Sowohl während der Migration als auch im normalen Betrieb werden Deduplikationsroutinen implementiert. Kundenstammdaten können zum Teil über verschiedene Geschäftsbereiche hinweg geteilt werden, zum Teil handelt es sich aber auch um bereichsspezifische Daten |
2.10.4 Organisationsstruktur des Stammdatenmanagements
-
Head of MDM: Der Head of MDM leitet die MDM-Organisation und stellt sicher, dass die Anforderungen der Linienabteilungen an das Stammdatenmanagement in Leitlinien, Strategien und Prozessen Berücksichtigung finden.
-
Lead Steward: Die Lead Stewards entwickeln die globalen Richtlinien und Prozesse für die von ihnen verantworteten Stammdatenobjekte und garantieren, dass alle Workflows und Prozesse des Stammdatenmanagements global gepflegt, überwacht und verbessert werden. Darüber hinaus sind die Lead Stewards maßgeblich an der Definition der SLAs (Service Level Agreements) der Stammdaten-Organisation beteiligt und überwachen deren Erfüllung. Außerdem stellen sie sicher, dass die Datenqualität überwacht wird, und halten bei Bedarf die regionalen Verantwortlichen dazu an, Qualitätsverbesserungsmaßnahmen einzuleiten. Schließlich sind sie auch zuständig für ein regelmäßiges Kennzahlen-Reporting gegenüber dem für das jeweilige Datenobjekt verantwortlichen Governance-Gremium.
-
Data Architect: Der Data Architect ist dafür verantwortlich, dass das Stammdatenmanagement die Geschäftsprozesse durch passende Systeme und Prozesse unterstützt, z. B. mit einheitlichen Stammdaten-Workflows. Er berät zudem den Head of MDM und die Lead Stewards hinsichtlich Stammdatenstrukturen und -anwendungen, damit Best Practices unternehmensweit bekannt sind und angewendet werden können. Außerdem verantwortet er Projekte der MDM-Organisation hinsichtlich Zeit, Kosten, und Qualität und leitet datenobjektübergreifende Stammdatenprojekte.
-
Regional Steward: Die Regional Stewards stellen sicher, dass alle Stammdatenmanagementprozesse und -workflows einer bestimmten geografischen Region definiert, gepflegt, überwacht, optimiert und mit überregionalen Prozessen abgestimmt werden. Sie sind zudem verantwortlich für die Qualität der regional gültigen Stammdaten und Stammdatenmanagementsysteme.
-
Data Analyst: Die Data Analysts kontrollieren alle Stammdatenmanagementprozesse und -workflows einer bestimmten geografischen Region und leiten den kontinuierlichen Verbesserungsprozess. Sie überwachen zudem die Qualität der Stammdaten im System und leiten bei Bedarf entsprechende Qualitätsverbesserungsmaßnahmen ein. Außerdem unterstützen sie stammdatenbezogene Projekte.
-
Data Specialist: Die Data Specialists führen die Aufgaben des Stammdatenmanagements in den entsprechenden Workflows gemäß den in den SLAs definierten zeitlichen und qualitätsbezogenen Vorgaben operativ aus. Außerdem unterstützen sie die Linienabteilungen in allen Fragen rund um das Stammdatenmanagement. Ebenso unterstützen sie Data Stewards und Data Analysts durch Analysen und Qualitätsverbesserungsmaßnahmen.
2.10.5 Datenpflegeprozess und Entscheidungskriterien für die Auslagerung
Kriterium | Beschreibung |
---|---|
Gleichheit und Wiederholung | Der Prozess verläuft in seiner Gesamtheit stets annähernd identisch und besteht aus einzelnen routinemäßig wiederkehrenden Aktivitäten. Der Prozess tritt zudem regelmäßig auf |
Ressourcenintensivität | Der Prozess ist zeitaufwändig und kann von einem externen, spezialisierten Anbieter schneller und effizienter abgewickelt werden |
Leichte Beschreibbarkeit | Prozessbeschreibungen sind immer präzise und einfach formuliert und können schon nach kurzer Einarbeitung verstanden werden. Jede Prozessbeschreibung folgt den vorgegebenen Geschäftsregeln, welche dokumentiert werden können |
Nutzung von Standardtechnologien | Um den Prozess auszuführen, sind keine speziellen Tools oder spezielles Fachwissen notwendig |
Keine ausgedehnte verbale Interaktion mit den Anforderern der Fachbereiche notwendig | Nach dem ersten Informationsaustausch kann der Prozess ohne verbale Interaktion zwischen den Anforderern der Fachbereiche und den Datenerfassern im Shared Service Center ausgeführt werden |
Geringe Änderungshäufigkeit | Ein gerade ausgelagerter Prozess sollte nicht gleich wieder verändert werden müssen. Wenn Änderungen am Prozess absehbar sind, sollte dies schnellstmöglich kommuniziert werden |
Keine Einbeziehung von geistigem Eigentum von Syngenta | Während der Ausführung des Prozesses werden keine Informationen verwendet und ausgetauscht, die zum Kern des geistigen Eigentums von Syngenta zählen |
Ortsunabhängigkeit | Der Prozess kann von überall aus ausgeführt werden. Es besteht keine Notwendigkeit, den Prozess an einem bestimmten Ort oder in einer bestimmten geografischen Region auszuführen |
2.10.6 Erkenntnisse
-
Die Organisation des unternehmensweiten Datenqualitätsmanagements muss zentrale und dezentrale sowie verschiedene funktionale Interessen im Unternehmen berücksichtigen.
-
Bei der Organisation des unternehmensweiten Datenqualitätsmanagements sind strategische, taktische und operative Aufgaben zu unterscheiden.
-
Strategische Aufgaben sind zentral zu organisieren, operative Aufgaben wie die Datenerfassung können weiterhin dezentral gelöst werden oder gar an externe Dienstleister ausgelagert werden.
-
Leistungsvereinbarungen regeln das operative Datenmanagement und ermöglichen die Leistungskontrolle.
2.10.7 Weiterführendes Material
Quelle | Titel | Ergebnistyp | Wiss. | Praxis |
---|---|---|---|---|
Bauer 2009
| Creating a Worldwide Master Data Management Organization for Syngenta | Präsentation auf CC CDQ-Workshop | √ | |
Bauer und Murphy 2011
| Master Data Management Outsourcing of MDM Activities – A case study | Präsentation auf CC CDQ-Workshop | √ | |
Fischer 2013
| Global Master Data Services at Syngenta | Präsentation auf CC CDQ-Workshop | √ | |
Moltes und Raymond 2010
| KPI Dashboard MDM Syngenta | Präsentation auf CC CDQ-Workshop | √ | |
Reichert 2014
| Methode zur Einführung von Stammdaten-Management als betriebliche Unterstützungsfunktion | Dissertation | √ | √ |