Skip to main content
Top

2018 | Book

Daten- und Informationsqualität

Auf dem Weg zur Information Excellence

Editors: Prof. Dr. Knut Hildebrand, Dr. Marcus Gebauer, Holger Hinrichs, Michael Mielke

Publisher: Springer Fachmedien Wiesbaden

insite
SEARCH

About this book

Die Verbesserung und Sicherung der Informationsqualität (IQ) wird in immer mehr Unternehmen als eigenständige und wichtige Managementaufgabe begriffen. IQ-Management ist mittlerweile ein elementarer Baustein in Systemintegrationsprojekten. Aber auch für laufende Prozesse mit heterogenen Daten und Nutzern ist eine hohe Informationsqualität die Grundvoraussetzung für funktionierende betriebliche Abläufe. Das erste deutschsprachige Buch zum Thema behandelt Daten- und Informationsqualität umfassend: von Definitionen zur Datenqualität über Methoden und Regelwerke für ihr Management bis hin zur Verankerung in der Organisation – mit Fallbeispielen aus zahlreichen Unternehmen.

Im einführenden Kapitel erläutern die Autoren zunächst die Grundlagen. Sie stellen wissenschaftliche Modelle der Informationstheorie vor und erläutern die Rolle von Daten im Wissens- und Informationsmanagement und als Produktionsfaktor. Ein weiteres grundlegendes Kapitel widmet sich den verschiedenen Dimensionen der Informationsqualität. Anhand von 15 Begriffen und erläuternden Beispielen werden die IQ-Dimensionen wie beispielsweise Zugänglichkeit (accessibility), Umfang (appropriate amount of data) oder Glaubwürdigkeit (believability) präzise beschrieben. Dieses Kapitel ist zugleich Ergebnis der Arbeit einer Projektgruppe in der DGIQ (Deutsche Gesellschaft für Informations- und Datenqualität). Im zweiten Teil des Buchs werden die Methoden, Tools und Techniken für das Management der Datenqualität erläutert. Dazu zählen unter anderem Datenqualitätsmetriken, Methoden wie Total Data Quality Management, die strukturierte Datenanalyse oder Maßnahmen wie Datenbereinigung.

Der Band wurde für die vierte Auflage erweitert und an zahlreichen Stellen überarbeitet. Wissenschaftlich fundiert und von Praktikern geschrieben, präsentiert es den aktuellen Stand aus Forschung und Anwendung. Das Buch richtet sich an Unternehmensführungen, IT-Manager, beispielsweise in Banken und Versicherungen, und an alle Datenspezialisten. Ein Muss für alle IT-Profis.

Table of Contents

Frontmatter

Informationsqualität - Grundlagen

Frontmatter
1. Was wissen wir über Information?
Zusammenfassung
Der Begriff Information stammt aus dem Lateinischen. Von der Antike bis in das 20. Jahrhundert war Information ein kaum verwendetes und unspektakuläres Wort. Zemanek belegt diese Hypothese mit dem Verweis auf ein Häufigkeitswörterbuch der deutschen Sprache aus dem Jahre 1897. Dort kommt in ca. 11 Mio. Wörten nur 55 mal das Wort Information vor.
Florian Engelmann, Christoph Großmann
2. Informationsqualität – Definitionen, Dimensionen und Begriffe
Zusammenfassung
Die Verbesserung und Sicherstellung der Informationsqualität wird in immer mehr Unternehmen als eigenständige Managementaufgabe von großer Wichtigkeit begriffen. IQ-Management ist ein elementarer Baustein in Systemintegrationsprojekten. Aber auch in bestehenden Prozessen mit heterogenen Datenquellen und Informationsnutzern ist eine hohe Informationsqualität die Grundvoraussetzung für funktionierende betriebliche Abläufe. Voraussetzung für ein effektives IQ-Management ist die Bewertung der Informationsqualität. In vielen Unternehmen ist Informationsqualität nur ein gefühlter Wert. Die meisten Anwender bringen ein gewisses Misstrauen den Daten gegenüber zum Ausdruck, dies jedoch ohne genaue Angabe der Fehlerart und -häufigkeit. Nicht selten werden kostspielige Projekte angestoßen, um die Informationsqualität zu verbessern, ohne sich vor einer IQ-Maßnahme durch eine Analyse ein genaues Bild über die tatsächlichen Probleme zu verschaffen. Nur auf der Basis einer umfassenden Bewertung der Informationsqualität können die notwendigen Ressourcenentscheidungen herbeigeführt, Ziele gesetzt und der Erfolg des IQ-Management beurteilt werden.
Jan P. Rohweder, Gerhard Kasten, Dirk Malzahn, Andrea Piro, Joachim Schmid

Methoden – Techniken – Tools – Regelwerke/Standards

Frontmatter
3. Datenqualitätsmetriken für ein ökonomisch orientiertes Qualitätsmanagement
Zusammenfassung
Für eine ökonomische Betrachtung der Datenqualität (DQ) und insbesondere die Planung von DQ-Maßnahmen unter Kosten-Nutzen-Aspekten sind DQ-Metriken unverzichtbar. Deswegen wird im Folgenden die Fragestellung aufgegriffen, wie DQ zweckorientiert und adäquat quantifiziert werden kann. Dazu werden Metriken entwickelt und vorgestellt, die zum einen eine quantitative Analyse der zum Messzeitpunkt vorhandenen DQ ermöglichen sollen, um Handlungsbedarfe zu identifizieren. Zum anderen sollen Auswirkungen auf die DQ, wie z. B. zeitlicher Verfall oder die Durchführung von DQ-Maßnahmen, zielgerichtet – durch Vergleich des DQ-Niveaus zu zwei oder mehreren Messzeitpunkten – untersucht werden können.
Bernd Heinrich, Mathias Klier
4. Datenqualitätsmanagement – Steigerung der Datenqualität mit Methode
Zusammenfassung
Daten- und Informationsqualität ist ein Thema von enormer Reichweite. In den meisten Organisationen werden Problem und Schwierigkeiten mit dem vorhandenen Qualitätsniveau meist nur reaktiv erkannt und behandelt.
Niels Weigel
5. Strukturierte Datenanalyse, Profiling und Geschäftsregeln
Zusammenfassung
In heutigen Diskussionen zum Thema Datenqualität wird häufig der Begriff der Informationsqualität synonym verwendet. Dies ist für die pragmatische Anwendung nicht von entscheidender Bedeutung, jedoch bestehen ein paar grundsätzliche, auch für das Verständnis der Datenqualität, wichtige Unterschiede. Aber auch die Autoren verwenden die Begriffe synonym. Die Abb. 5.1 stellt den Zusammenhang zwischen Daten und Information dar.
Marcus Gebauer, Ulrich Windheuser
6. Datenbereinigung zielgerichtet eingesetzt zur permanenten Datenqualitätssteigerung
Zusammenfassung
Sind Datenfehler mit Hilfe der in den vorangegangenen Kapiteln beschriebenen Methoden und Techniken identifiziert worden, ist die Datenqualität damit (leider) noch nicht automatisch verbessert. Man hat zwar nun einen qualifizierten Überblick über die tatsächliche Situation und die existierenden Fehlerkonstellationen, aber die Korrektur steht noch bevor und stellt in einem Datenqualitätsprojekt oftmals eine besondere Herausforderung dar, da hierfür mitunter ein nicht unbedeutender Aufwand erbracht werden muss.
Marcus Zwirner
7. Datenintegration und Deduplizierung
Zusammenfassung
In Unternehmen liegen viele Daten heutzutage immer seltener vollständig an einem einzigen physikalischen Ort vor, sondern sind weltweit verteilt. Dies liegt zum einen an der immer besser gewordenen Infrastruktur, die eine solche Verteilung auf einfache Art und Weise ermöglicht, und zum anderen an der Tatsache, dass viele Unternehmen weltweit tätig sind. So fallen Daten weltweit an, werden aber jeweils lokal – vor Ort – gespeichert. Daher müssen oft mehrere Datenquellen genutzt werden, um einen aktuellen, vollständigen und genauen Überblick über die vorhandenen Daten zu gewinnen. Datenintegration hilft, indem sie Daten aus mehreren Quellen zusammenführt und einheitlich darstellt. Diese integrierten Daten können genutzt werden, um sich einen Überblick über das Unternehmen zu verschaffen, z. B. wenn Unternehmen fusionieren und nur noch eine Kundendatenbank bestehen bleiben soll, oder wenn zu einem Kunden die Daten aus den verschiedenen Fachabteilungen zusammengeführt werden sollen. Anhand eines solchen Beispiels, der Integration von Kundendaten zu Kfz- und Lebensversicherungen erläutern wir im Folgenden einzelne Techniken.
Jens Bleiholder, Joachim Schmid
8. Definition von Datenarten zur konsistenten Kommunikation im Unternehmen
Zusammenfassung
Probleme in der Informationsqualität (IQ) treten in den unterschiedlichsten Bereichen eines Unternehmens auf und werden durch die unterschiedlichsten Bereiche verursacht. Daher ist es um so wichtiger, diese Probleme klar und eindeutig kommunizieren zu können. Insbesondere wenn Kollegen fachübergreifend IQ-Probleme beheben wollen, kann dies schwierig sein. Erst wenn klar ist, worüber geredet wird, und häufig sind dies Datenfelder und ihr Inhalt, kann das Problem eindeutig beschrieben und gelöst werden.
Andrea Piro, Marcus Gebauer
9. Suchmaschinen und Informationsqualität: Status quo, Problemfelder, Entwicklungstendenzen
Zusammenfassung
Das Thema Informationsqualität wird in den vorangegangenen Beiträgen umfangreich betrachtet. Die dabei geführte Diskussion zielt vordergründig auf organisatorische Dimensionen der Datenqualität, die strukturierte Datenanalyse oder Datenmanagementprozesse im Unternehmen ab. Dabei liegt ein Großteil der zur Unterstützung von Entscheidungsprozessen herangezogenen Informationen in Datenbanksystemen bzw. in einem Data Warehouse vor. Auf Basis verschiedener Analysetools (z. B. Online-Analytical-Processing) lassen sich diese Informationen dann systematisch auswerten. Allerdings können Entscheidungen nicht allein aufgrund der unternehmensintern vorliegenden Informationen getroffen werden. Vielmehr gilt es auch die aus der Unternehmensumwelt relevanten Informationen zu verarbeiten, die zum Teil über das Internet zugänglich sind. Im Gegensatz zu unternehmensinternen Datenbanksystemen handelt es sich beim Internet um ein schwach strukturiertes und offenes Netzwerk, weshalb die im Unternehmenskontext eingesetzten Analysetools kaum weiterhelfen, um Informationen mit hoher Qualität herauszufiltern. In dieser Situation spielen Suchmaschinen eine wichtige Rolle, um Informationen zu identifizieren und anhand verschiedener Kriterien in Form einer Suchergebnisseite zu sortieren. Konservative Schätzungen gehen davon aus, dass über Suchmaschinen zwischen 70 und 85 % aller Informationsrecherchen im Internet erfolgen. Teilweise beziffert man diesen Wert sogar auf über 90 %.
Christian Maaß, Gernot Gräfe
10. Bedeutung der Informationsqualität bei Kaufentscheidungen im Internet
Zusammenfassung
Bei Kauf- und Verkaufsentscheidungen ist das Internet eine bedeutende Informationsquelle für Anbieter und Nachfrager. Während Anbieter ihre Produkte und Dienstleistungen sehr gut kennen und dazu Informationen bereitstellen, sehen sich Nachfrager oft mit einem Informationsdefizit konfrontiert. Sie haben unvollständige Kenntnisse über die Anbieter, ihre Produkte, Preise und weitere Gschäftsbedingungen und informieren sich daher im Internet. Die unausgewogene Informationsverteilung zwischen beiden Parteien wird als Informationsasymmetrie bezeichnet.
Gernot Gräfe, Christian Maaß
11. Datenqualitäts-Audits in Projekten
Zusammenfassung
Datenqualität leidet zumeist schon in der Entstehung der Daten und ihrer zugrunde liegenden Datenhaushalte. Datenqualität ist üblicherweise der letzte Bereich, der in Projekten berücksichtigt wird, wenn diese Projekte in Schwierigkeiten geraten. Daher ist es notwendig, Datenqualität in den verschiedenen Stadien eines Projektes strukturell zu verankern.
Marcus Gebauer, Michael Mielke
12. Bewertung der Informationsqualität im Enterprise 2.0
Zusammenfassung
Die Entwicklungen zum Web 2.0 haben das World Wide Web (WWW) grundlegend verändert. Nachdem die meisten Nutzer im WWW zunächst „nur“ nach Informationen suchten stellen Nutzer inzwischen sehr ausgiebig Informationen über sich selbst oder ihnen vertraute Themen in Blogs und Communities bereit. Facebook und Wikipedia sind zwei prominente Webseiten. Ihre Attraktivität entstammt allein den Informationen, welche die Nutzer selber zur Verfügung stellen.
Sven Ahlheid, Gernot Gräfe, Alexander Krebs, Dirk Schuster

Organisation

Frontmatter
13. Organisatorische Ansiedlung eines Datenqualitätsmanagements
Zusammenfassung
Für die meisten Unternehmen im deutschsprachigen Raum ist Daten- bzw. Informationsqualität ein junges Thema – ein Thema, das in den letzten Jahren in vielen Organisationen an Bedeutung gewonnen hat. Dies zeigt die Vielzahl der Aktivitäten, die mit dem Thema Datenqualität (DQ) verknüpft sind. In den letzten Jahren werden vermehrt DQ-Werkzeuge am Markt angeboten, immer mehr Beratungsunternehmen spezialisieren sich auf dieses Thema.
Jens Lüssem
14. Organisatorische Maßnahmen für gute Datenqualität
Zusammenfassung
Datenqualität kann nicht delegiert, verordnet und im Nachhinein nur schwer in ein Software-Produkt integriert werden. Maßnahmen für eine gute Datenqualität müssen bereits beim Design einer Applikation oder eines Prozesses getroffen werden.
Jürg Wolf
15. Informationsmanagementprozesse im Unternehmen
Zusammenfassung
In vielen Organisationen werden Datenqualitätsprojekte nachwievor taktisch lanciert. Anhand eines konkreten, punktuellen Problems werden Qualitätsprobleme erkannt und ebenso konkret und punktuell zu lösen versucht. Nachhaltige Qualitätsverbesserungen sind i. d. R. so nicht zu erzielen. Hierfür ist strategisches Denken und Handeln erforderlich, d. h. das Denken in Lösungsräumen (Mehrdimensionalität) und Wirkungszusammenhängen.
Klaus Schwinn
16. Data Governance
Zusammenfassung
Unternehmen müssen ihr Geschäftsmodell heutzutage laufend anpassen und weiter entwickeln: Globale Marktpräsenz erfordert weltweit harmonisierte Geschäftsprozesse, Kunden verlangen individuell auf ihre Bedürfnisse zugeschnittene Produkte, und Dienstleistungen werden nach den Prinzipien industrieller Abläufe erbracht. Diese Anforderungen betreffen zum einen die Unternehmensstrategie und die Architektur der Geschäftsprozesse. Zum anderen sind Daten von hoher Qualität eine Grundvoraussetzung, um den Anforderungen gerecht zu werden.
Boris Otto, Kristin Weber
17. IQM-Reifegradmodell für die Bewertung und Verbesserung des Information Lifecycle Management Prozesses
Zusammenfassung
Heutige Organisationen produzieren und speichern mehr Informationen als je zuvor. Der resultierende Informationsüberfluss, zusammen mit einem Mangel an Qualitätssicherung für das Information Lifecycle Management, führt zu einem unsicheren Status der Informationsqualität in vielen Organisationen. Weiterhin hat sich herausgestellt, dass das Bewerten, Verbessern und Steuern der Informationsqualität ein offenkundig schwieriges Unterfangen ist. Dieses Kapitel stellt ein Modell zur Bewertung und Verbesserung der Information Quality Management Capability Maturity (IQM-Reifegrad) vor. Es wird ein Satz von Kriterien vorgestellt, der aus Literaturrecherche und Fallstudien abgeleitet wurde. Die Reifegradindikatoren werden validiert und in einem mehrstufigen Reifegradmodell durch eine Delphi-Studie gruppiert. Das abgeleitete IQM-Reifegradmodell hilft Organisationen ihre bestehenden Praktiken im IQM zu bewerten und potentielle Lücken und Verbesserungsstrategien zu ermitteln.
Saša Baškarada, Marcus Gebauer, Andy Koronios, Jing Gao
18. Master Data Life Cycle – Management der Materialstammdaten in SAP®
Zusammenfassung
Im Rahmen der digitalen Transformation (Digitalisierung) und der damit einher gehenden zunehmenden Vernetzung bekommt die Qualität der Materialstammdaten eine noch höhere Bedeutung als bisher. Technische und organisatorische Herausforderungen wie Supply Chain Management, IoT, Industrie 4.0, Big Data usw. erfordern zwingend eindeutige Prozesse für die Erstellung, Pflege und Löschung von Stammdaten. Ein bewährtes Konzept für die weit verbreitete Standardsoftware von SAP (R/3, ERP und S/4HANA) ist der Master Data Life Cycle. Stammdaten (Geschäftsobjekte) sind der Datenbestand, auf dem Geschäftsprozesse aufbauen, und der über einen längeren Zeitraum erhalten bleibt, z. B. Kunden oder Artikel. Daher ist ihre Datenqualität sehr wichtig! Stammdaten ändern sich nicht während einer betrieblichen Transaktion – der Buchung eines Geschäftsvorfalls –, aber sie steuern ihn und fließen in die Belege (Bewegungsdaten) ein, die diesen Prozessschritt dokumentieren. Stammdaten ändern sich jedoch sehr wohl im Laufe ihres Lebens, da sich die einzelnen Attributswerte weiterentwickeln können. Beispielsweise die Anschrift oder Rechtsform eines Lieferanten oder die Dispositions-Parameter eines Materials.
Knut Hildebrand
19. Prinzipien erfolgreichen Informationsqualitätsmanagements im Lichte von Industrie 4.0
Zusammenfassung
Das Internet der Dinge, Industrie 4.0 und Big Data sind in aller Munde. Die Digitalisierung des Lebens schreitet mit großen Schritten voran. Die aktuelle EMC Studie spricht von 200 Mrd. Dingen die vernetzt werden, eine nie dagewesene Datenmenge erzeugen und mit Hilfe von Big Data Analytics zu neuen Erkenntnissen führen sollen, so zumindest die Hoffnung.
Michael Mielke

Praxisbeispiele

Frontmatter
20. Ein Entscheidungsmodell zur Weitergabe persönlicher Daten im Internet
Zusammenfassung
In den vergangenen zwei Jahrzehnten wandelte sich das Internet von einer Spielwiese für technikbegeisterte Computerspezialisten zu einem vielseitig einsetzbaren weltweiten Netzwerk für Privatpersonen und Unternehmen. Maßgeblichen Anteil daran besaß die rasante Entwicklung des World Wide Web (WWW), das, durch die Möglichkeit multimediale Inhalte zu vermitteln, für einen großen Teil der Bevölkerung industrialisierter Länder zu einem wesentlichen Bestandteil des täglichen Lebens wurde. Dass diese Entwicklung noch lange nicht abgeschlossen ist, zeigt die derzeitige Diskussion zum Thema Web 2.0 bzw. 3.0. Waren es in den letzten Jahren die hohen Umsatzzuwächse im E-Commerce und multimedial gestaltete Webseiten in Kombination mit aufwändigen Applikationen, die für ständig steigende Nutzerzahlen im World Wide Web sorgten, so wird dieser Innovationsschub nunmehr durch eine Vielzahl von Anwendungen fortgesetzt, die sich durch die zunehmende Vernetzung der Nutzer untereinander auszeichnen.
Horst Treiblmaier
21. Einführung eines proaktiven DQ-Managements
Zusammenfassung
In diesem Kapitel wird die Einführung eines proaktiven Datenqualitätsmanagements in der Bremer Landesbank beschrieben. Nach einer kurzen Erläuterung der Rahmenbedingungen wird auf den Aufbau der Datenqualitätsorganisation eingegangen, die verschiedenen Typen an proaktiven Datenqualitätsmaßnahmen beschrieben, die bankintern definiert wurden und abschließend liegt der Schwerpunkt auf den Bereich Datenqualitätsmessungen.
Volker Landt
22. Informationsqualität für das Management mit TOPAS®
Zusammenfassung
Management-Entscheidungen hängen nicht zuletzt von Informationen ab, die auf sinnvollen und verlässlichen Daten beruhen und kommuniziert werden.
Otto-Ernst Brust, Frank Möller, Werner Skrablies
23. Datenqualitäts-Modell der Volkswagen Financial Services AG
Zusammenfassung
Im Rahmen der Vertriebsaktivitäten und der umfangreichen rechtlichen und regulatorischen Anforderungen u. a. Basel II hat die Volkswagen Financial Services AG (nachfolgend VW FS AG) beschlossen, dem Thema Datenqualität und Datenqualitätsmanagement, insbesondere unter dem Blickwinkel der Konzern Leitlinien Kundennähe, Schaffung von Werten und Höchstleistung, eine hohe Priorität einzuräumen.
Helena Moser
24. Verknüpfung von DQ-Indikatoren mit KPIs und Auswirkungen auf das Return on Investment
Zusammenfassung
Häufig ist nicht klar, welche Beziehungen zwischen Datenqualitätsindikatoren (DQI, Definition folgt weiter unten) und Key Performance Indicators (KPI, s. Abschn. 1.3 für weitere Details) eines Unternehmens oder einer Organisation bestehen. Dies ist insbesondere deshalb von Bedeutung, da die Kenntnis dieser Beziehungen maßgeblich die Ausprägung eines Datenqualitätsprojekts beeinflusst.
Frank Block
25. Gewährleistung einer hohen Artikelstammdatenqualität im Global Data Synchronisation Network (GDSN)
Zusammenfassung
Das Global Data Synchronisation Network (GDSN) bietet vornehmlich eine Reihe von Datenvalidierungen, die ein Artikelstammdatensatz „überstehen“ muss, bevor er vom Lieferanten zum Händler übertragen werden kann. So fordert zum Beispiel die GDSN-Validierung 457, dass innerhalb einer kompletten Artikelhierarchie (bestehend aus Basiseinheit, Karton, Palette) mindestens ein Artikel eine Rechnungseinheit ist – sprich der Artikelsatz muss einen Artikel enthalten, der fakturiert werden kann. Zusätzlich zu den Mussangaben der Artikelabmessungen wie Höhe, Breite und Tiefe verlangt die GDSN-Validierung 584, dass diese Angaben gemäß den zielmarktspezifischen Regeln zur Nutzung der Maßangaben (UOM), z. B. für den Zielmarkt Deutschland im metrischen und für den Zielmarkt der USA im imperialen System, zu erfolgen hat (GS1 2018, Tabulator Validation Rules_3.1.5). Natürlich lassen sich derartige Prüfungen in die internen Datenverarbeitungssysteme eines Lieferanten bzw. Datensenders integrieren, und bevor die Artikelstammdaten an das globale Netzwerk gesendet werden, erfolgt die entsprechend Einhaltung dieser Prüfungen. Diese Online-Validierungen sind damit ein profundes Mittel zur Erreichung einer gewünschten Datenqualität. Aus Sicht eines Datenpools stellen diese Validierungen standardisierte Konsistenzregeln für das definierte Artikelstammdatenmodel des Global Data Dictionary (GDD) der Global Standards 1 (GS1) dar (Schemm 2009, S. 95).
Sascha Kasper
Backmatter
Metadata
Title
Daten- und Informationsqualität
Editors
Prof. Dr. Knut Hildebrand
Dr. Marcus Gebauer
Holger Hinrichs
Michael Mielke
Copyright Year
2018
Electronic ISBN
978-3-658-21994-9
Print ISBN
978-3-658-21993-2
DOI
https://doi.org/10.1007/978-3-658-21994-9