Skip to main content
Top

2025 | Book

Daten- und Informationsqualität

Die Grundlage der Digitalisierung

insite
SEARCH

About this book

Dieses Buch war das erste deutsche Buch zum Thema Daten- und Informationsqualität und ist mittlerweile ein Klassiker. Es wurde für die sechste Auflage um neue Inhalte erweitert, aktualisiert und an zahlreichen Stellen überarbeitet. Von Wissenschaftlern und Praktikern geschrieben, präsentiert es den aktuellen Stand aus Forschung und Anwendung und ist somit ein Muss für alle IT-Profis.

Table of Contents

Frontmatter

Informationsqualität – Grundlagen

Frontmatter
Kapitel 1. Was wissen wir über Information?
Zusammenfassung
Der Begriff Information stammt aus dem Lateinischen. Von der Antike bis in das 20. Jahrhundert war Information ein kaum verwendetes und unspektakuläres Wort. Zemanek belegt diese Hypothese mit dem Verweis auf ein Häufigkeitswörterbuch der deutschen Sprache aus dem Jahre 1897. Dort kommt in ca. 11 Mio. Wörten nur 55 mal das Wort Information vor.
Florian Engelmann, Christoph Großmann
Kapitel 2. Informationsqualität – Definitionen, Dimensionen und Begriffe
Zusammenfassung
Die Verbesserung und Sicherstellung der Informationsqualität wird in immer mehr Unternehmen als eigenständige Managementaufgabe von großer Wichtigkeit begriffen. IQ-Management ist ein elementarer Baustein in Systemintegrationsprojekten. Aber auch in bestehenden Prozessen mit heterogenen Datenquellen und Informationsnutzern ist eine hohe Informationsqualität die Grundvoraussetzung für funktionierende betriebliche Abläufe. Voraussetzung für ein effektives IQ-Management ist die Bewertung der Informationsqualität. In vielen Unternehmen ist Informationsqualität nur ein gefühlter Wert. Die meisten Anwender bringen ein gewisses Misstrauen den Daten gegenüber zum Ausdruck, dies jedoch ohne genaue Angabe der Fehlerart und -häufigkeit. Nicht selten werden kostspielige Projekte angestoßen, um die Informationsqualität zu verbessern, ohne sich vor einer IQ-Maßnahme durch eine Analyse ein genaues Bild über die tatsächlichen Probleme zu verschaffen. Nur auf der Basis einer umfassenden Bewertung der Informationsqualität können die notwendigen Ressourcenentscheidungen herbeigeführt, Ziele gesetzt und der Erfolg des IQ-Management beurteilt werden.
Jan P. Rohweder, Gerhard Kasten, Dirk Malzahn, Andrea Piro, Joachim Schmid

Methoden – Techniken – Tools – Regelwerke/Standards

Frontmatter
Kapitel 3. Datenqualitätsmetriken für ein ökonomisch orientiertes Qualitätsmanagement
Zusammenfassung
Für eine ökonomische Betrachtung der Datenqualität (DQ) und insbesondere die Planung von DQ-Maßnahmen unter Kosten-Nutzen-Aspekten sind DQ-Metriken unverzichtbar. Deswegen wird im Folgenden die Fragestellung aufgegriffen, wie DQ zweckorientiert und adäquat quantifiziert werden kann. Dazu werden Metriken entwickelt und vorgestellt, die zum einen eine quantitative Analyse der zum Messzeitpunkt vorhandenen DQ ermöglichen sollen, um Handlungsbedarfe zu identifizieren. Zum anderen sollen Auswirkungen auf die DQ, wie z. B. zeitlicher Verfall oder die Durchführung von DQ-Maßnahmen, zielgerichtet – durch Vergleich des DQ-Niveaus zu zwei oder mehreren Messzeitpunkten – untersucht werden können.
Bernd Heinrich, Mathias Klier
Kapitel 4. Datenqualitätsmanagement – Steigerung der Datenqualität mit Methode
Zusammenfassung
Daten- und Informationsqualität ist ein Thema von enormer Reichweite. In den meisten Organisationen werden Problem und Schwierigkeiten mit dem vorhandenen Qualitätsniveau meist nur reaktiv erkannt und behandelt.
Niels Weigel
Kapitel 5. Strukturierte Datenanalyse, Profiling und Geschäftsregeln
Zusammenfassung
In heutigen Diskussionen zum Thema Datenqualität wird häufig der Begriff der Informationsqualität synonym verwendet. Dies ist für die pragmatische Anwendung nicht von entscheidender Bedeutung, jedoch bestehen ein paar grundsätzliche, auch für das Verständnis der Datenqualität, wichtige Unterschiede. Aber auch die Autoren verwenden die Begriffe synonym. Die Abb. 5.1 stellt den Zusammenhang zwischen Daten und Information dar.
Marcus Gebauer, Ulrich Windheuser
Kapitel 6. Datenbereinigung zielgerichtet eingesetzt zur permanenten Datenqualitätssteigerung
Zusammenfassung
Sind Datenfehler mit Hilfe der in den vorangegangenen Kapiteln beschriebenen Methoden und Techniken identifiziert worden, ist die Datenqualität damit (leider) noch nicht automatisch verbessert. Man hat zwar nun einen qualifizierten Überblick über die tatsächliche Situation und die existierenden Fehlerkonstellationen, aber die Korrektur steht noch bevor und stellt in einem Datenqualitätsprojekt oftmals eine besondere Herausforderung dar, da hierfür mitunter ein nicht unbedeutender Aufwand erbracht werden muss.
Marcus Zwirner
Kapitel 7. Datenintegration und Deduplizierung
Zusammenfassung
In Unternehmen liegen viele Daten heutzutage immer seltener vollständig an einem einzigen physikalischen Ort vor, sondern sind weltweit verteilt. Dies liegt zum einen an der immer besser gewordenen Infrastruktur, die eine solche Verteilung auf einfache Art und Weise ermöglicht, und zum anderen an der Tatsache, dass viele Unternehmen weltweit tätig sind. So fallen Daten weltweit an, werden aber jeweils lokal – vor Ort – gespeichert. Daher müssen oft mehrere Datenquellen genutzt werden, um einen aktuellen, vollständigen und genauen Überblick über die vorhandenen Daten zu gewinnen. Datenintegration hilft, indem sie Daten aus mehreren Quellen zusammenführt und einheitlich darstellt. Diese integrierten Daten können genutzt werden, um sich einen Überblick über das Unternehmen zu verschaffen, z. B. wenn Unternehmen fusionieren und nur noch eine Kundendatenbank bestehen bleiben soll, oder wenn zu einem Kunden die Daten aus den verschiedenen Fachabteilungen zusammengeführt werden sollen. Anhand eines solchen Beispiels, der Integration von Kundendaten zu Kfz- und Lebensversicherungen erläutern wir im Folgenden einzelne Techniken.
Jens Bleiholder, Joachim Schmid
Kapitel 8. Definition von Datenarten zur konsistenten Kommunikation im Unternehmen
Zusammenfassung
Probleme in der Informationsqualität (IQ) treten in den unterschiedlichsten Bereichen eines Unternehmens auf und werden durch die unterschiedlichsten Bereiche verursacht. Daher ist es um so wichtiger, diese Probleme klar und eindeutig kommunizieren zu können. Insbesondere wenn Kollegen fachübergreifend IQ-Probleme beheben wollen, kann dies schwierig sein. Erst wenn klar ist, worüber geredet wird, und häufig sind dies Datenfelder und ihr Inhalt, kann das Problem eindeutig beschrieben und gelöst werden.
Andrea Piro, Marcus Gebauer
Kapitel 9. Suchmaschinen und Informationsqualität: Status quo, Problemfelder, Entwicklungstendenzen
Zusammenfassung
Das Thema Informationsqualität wird in den vorangegangenen Beiträgen umfangreich betrachtet. Die dabei geführte Diskussion zielt vordergründig auf organisatorische Dimensionen der Datenqualität, die strukturierte Datenanalyse oder Datenmanagementprozesse im Unternehmen ab. Dabei liegt ein Großteil der zur Unterstützung von Entscheidungsprozessen herangezogenen Informationen in Datenbanksystemen bzw. in einem Data Warehouse vor. Auf Basis verschiedener Analysetools (z. B. Online-Analytical-Processing) lassen sich diese Informationen dann systematisch auswerten. Allerdings können Entscheidungen nicht allein aufgrund der unternehmensintern vorliegenden Informationen getroffen werden. Vielmehr gilt es auch die aus der Unternehmensumwelt relevanten Informationen zu verarbeiten, die zum Teil über das Internet zugänglich sind. Im Gegensatz zu unternehmensinternen Datenbanksystemen handelt es sich beim Internet um ein schwach strukturiertes und offenes Netzwerk, weshalb die im Unternehmenskontext eingesetzten Analysetools kaum weiterhelfen, um Informationen mit hoher Qualität herauszufiltern. In dieser Situation spielen Suchmaschinen eine wichtige Rolle, um Informationen zu identifizieren und anhand verschiedener Kriterien in Form einer Suchergebnisseite zu sortieren. Konservative Schätzungen gehen davon aus, dass über Suchmaschinen zwischen 70 und 85 % aller Informationsrecherchen im Internet erfolgen. Teilweise beziffert man diesen Wert sogar auf über 90 %.
Christian Maaß, Gernot Gräfe
Kapitel 10. Bedeutung der Informationsqualität bei Kaufentscheidungen im Internet
Gernot Gräfe, Christian Maaß
Kapitel 11. Datenqualitäts-Audits in Projekten
Zusammenfassung
Datenqualität leidet zumeist schon in der Entstehung der Daten und ihrer zugrunde liegenden Datenhaushalte. Datenqualität ist üblicherweise der letzte Bereich, der in Projekten berücksichtigt wird, wenn diese Projekte in Schwierigkeiten geraten. Daher ist es notwendig, Datenqualität in den verschiedenen Stadien eines Projektes strukturell zu verankern.
Marcus Gebauer, Michael Mielke
Kapitel 12. Bewertung der Informationsqualität im Enterprise 2.0
Zusammenfassung
Die Entwicklungen zum Web 2.0 haben das World Wide Web (WWW) grundlegend verändert. Nachdem die meisten Nutzer im WWW zunächst „nur“ nach Informationen suchten stellen Nutzer inzwischen sehr ausgiebig Informationen über sich selbst oder ihnen vertraute Themen in Blogs und Communities bereit. Facebook und Wikipedia sind zwei prominente Webseiten. Ihre Attraktivität entstammt allein den Informationen, welche die Nutzer selber zur Verfügung stellen.
Sven Ahlheid, Gernot Gräfe, Alexander Krebs, Dirk Schuster

Organisation

Frontmatter
Kapitel 13. Organisatorische Ansiedlung eines Datenqualitätsmanagements
Zusammenfassung
Für die meisten Unternehmen im deutschsprachigen Raum ist Daten- bzw. Informationsqualität ein junges Thema – ein Thema, das in den letzten Jahren in vielen Organisationen an Bedeutung gewonnen hat. Dies zeigt die Vielzahl der Aktivitäten, die mit dem Thema Datenqualität (DQ) verknüpft sind. In den letzten Jahren werden vermehrt DQ-Werkzeuge am Markt angeboten, immer mehr Beratungsunternehmen spezialisieren sich auf dieses Thema.
Jens Lüssem
Kapitel 14. Organisatorische Maßnahmen für gute Datenqualität
Zusammenfassung
Datenqualität kann nicht delegiert, verordnet und im Nachhinein nur schwer in ein Software-Produkt integriert werden. Maßnahmen für eine gute Datenqualität müssen bereits beim Design einer Applikation oder eines Prozesses getroffen werden.
Jürg Wolf
Kapitel 15. Informationsmanagementprozesse im Unternehmen
Zusammenfassung
In vielen Organisationen werden Datenqualitätsprojekte nachwievor taktisch lanciert. Anhand eines konkreten, punktuellen Problems werden Qualitätsprobleme erkannt und ebenso konkret und punktuell zu lösen versucht. Nachhaltige Qualitätsverbesserungen sind i. d. R. so nicht zu erzielen. Hierfür ist strategisches Denken und Handeln erforderlich, d. h. das Denken in Lösungsräumen (Mehrdimensionalität) und Wirkungszusammenhängen.
Klaus Schwinn
Kapitel 16. Data Governance
Kristin Weber, Boris Otto, Dominik Lis
Kapitel 17. IQM-Reifegradmodell für die Bewertung und Verbesserung des Information Lifecycle Management Prozesses
Zusammenfassung
Heutige Organisationen produzieren und speichern mehr Informationen als je zuvor. Der resultierende Informationsüberfluss, zusammen mit einem Mangel an Qualitätssicherung für das Information Lifecycle Management, führt zu einem unsicheren Status der Informationsqualität in vielen Organisationen. Weiterhin hat sich herausgestellt, dass das Bewerten, Verbessern und Steuern der Informationsqualität ein offenkundig schwieriges Unterfangen ist. Dieses Kapitel stellt ein Modell zur Bewertung und Verbesserung der Information Quality Management Capability Maturity (IQM-Reifegrad) vor. Es wird ein Satz von Kriterien vorgestellt, der aus Literaturrecherche und Fallstudien abgeleitet wurde. Die Reifegradindikatoren werden validiert und in einem mehrstufigen Reifegradmodell durch eine Delphi-Studie gruppiert. Das abgeleitete IQM-Reifegradmodell hilft Organisationen ihre bestehenden Praktiken im IQM zu bewerten und potentielle Lücken und Verbesserungsstrategien zu ermitteln.
Saša Baškarada, Marcus Gebauer, Andy Koronios, Jing Gao
Kapitel 18. Management der Materialstammdaten in SAP®-Systemen
Zusammenfassung
Stammdaten sind die digitalen Zwillinge von Objekten der realen Welt, z. B. von Material. Durch die rasch fortschreitende digitale Transformation (Digitalisierung) und der damit einhergehenden zunehmenden Vernetzung bekommt die Qualität der Materialstammdaten eine noch höhere Bedeutung als bisher. Technische und organisatorische Herausforderungen wie Supply Chain Management, IoT, Industrie 4.0, Big Data usw. erfordern zwingend eindeutige Prozesse für die Erstellung, Pflege und Löschung von Stammdaten.
Knut Hildebrand
Kapitel 19. Prinzipien erfolgreichen Informationsqualitätsmanagements im Lichte von Industrie 4.0
Zusammenfassung
Das Internet der Dinge, Industrie 4.0 und Big Data sind in aller Munde. Die Digitalisierung des Lebens schreitet mit großen Schritten voran. Die aktuelle EMC Studie spricht von 200 Mrd. Dingen die vernetzt werden, eine nie dagewesene Datenmenge erzeugen und mit Hilfe von Big Data Analytics zu neuen Erkenntnissen führen sollen, so zumindest die Hoffnung.
Michael Mielke

Praxisbeispiele

Frontmatter
Kapitel 20. Ein Entscheidungsmodell zur Weitergabe persönlicher Daten im Internet
Zusammenfassung
In den vergangenen zwei Jahrzehnten wandelte sich das Internet von einer Spielwiese für technikbegeisterte Computerspezialisten zu einem vielseitig einsetzbaren weltweiten Netzwerk für Privatpersonen und Unternehmen. Maßgeblichen Anteil daran besaß die rasante Entwicklung des World Wide Web (WWW), das, durch die Möglichkeit multimediale Inhalte zu vermitteln, für einen großen Teil der Bevölkerung industrialisierter Länder zu einem wesentlichen Bestandteil des täglichen Lebens wurde. Dass diese Entwicklung noch lange nicht abgeschlossen ist, zeigt die derzeitige Diskussion zum Thema Web 2.0 bzw. 3.0. Waren es in den letzten Jahren die hohen Umsatzzuwächse im E-Commerce und multimedial gestaltete Webseiten in Kombination mit aufwändigen Applikationen, die für ständig steigende Nutzerzahlen im World Wide Web sorgten, so wird dieser Innovationsschub nunmehr durch eine Vielzahl von Anwendungen fortgesetzt, die sich durch die zunehmende Vernetzung der Nutzer untereinander auszeichnen.
Horst Treiblmaier
Kapitel 21. Der Aufbau einer Organisationsrichtlinie für den Daten- und Informationsqualitätsmanagement-Prozess
Zusammenfassung
Im folgenden Kapitel wird ein Prozessmodell mit Vorlagen, Checklisten und Mustern für das Datenqualitätsmanagement vorgeschlagen, das die methodischen Empfehlungen aus mehreren Quellen komponiert. Entlang dieses Prozessmusters wurde der Status mehrerer Unternehmen unterschiedlicher Branchen erhoben, deren Bedarf für ein systematisches Datenqualitätsmanagement diskutiert und das Prozessmodell situationsgerecht angepasst. Das Ergebnis der Reflexion wurde in den meisten Projekten durch den zukünftigen Datenqualitätsmanager als initiale Datenqualitätsmanagement-Richtlinie verfasst. Ziel dieses Artikels ist es, die Lessons Learned dieser Projekte zu einem Verfahren für die Konzeption eines unternehmensindividuell anpassbaren Datenqualitätsmanagement-Prozesses zu konsolidieren. Aus der Konzeption wird als Nebeneffekt der Aufbau einer DQM-Richtlinie gewonnen, die auch die Methodenempfehlungen aus diesem Buch im DQM-Prozess verortet.
Reinhard Höhn
Kapitel 22. Informationsqualität und Digitale Assistenzsysteme: Ein Laborbericht aus dem Campus 4.0
Zusammenfassung
Informationen sind ein wichtiger Produktionsfaktor geworden. Wir sammeln täglich riesige Mengen an Informationen, der globale „Daten- und Informationsbestand“ verdoppelt sich etwa alle 18 Monate; gleichzeitig wird der Eindruck erweckt, dass die Qualität der Informationen nicht in gleichem Maße besser wird. Dies bestätigt auch eine Studie des Grimme-Instituts von 2012 (Im Blickpunkt 2012).
Abdessalam Ait Salah, Hendrik Thüs, Michael Mielke
Kapitel 23. Datenqualitäts-Modell der Volkswagen Financial Services AG
Zusammenfassung
Im Rahmen der Vertriebsaktivitäten und der umfangreichen rechtlichen und regulatorischen Anforderungen u. a. Basel II hat die Volkswagen Financial Services AG (nachfolgend VW FS AG) beschlossen, dem Thema Datenqualität und Datenqualitätsmanagement, insbesondere unter dem Blickwinkel der Konzern Leitlinien Kundennähe, Schaffung von Werten und Höchstleistung, eine hohe Priorität einzuräumen.
Helena Moser
Kapitel 24. Verknüpfung von DQ-Indikatoren mit KPIs und Auswirkungen auf das Return on Investment
Zusammenfassung
Häufig ist nicht klar, welche Beziehungen zwischen Datenqualitätsindikatoren (DQI, Definition folgt weiter unten) und Key Performance Indicators (KPI, s. Abschn. 1.3 für weitere Details) eines Unternehmens oder einer Organisation bestehen. Dies ist insbesondere deshalb von Bedeutung, da die Kenntnis dieser Beziehungen maßgeblich die Ausprägung eines Datenqualitätsprojekts beeinflusst.
Frank Block
Kapitel 25. Gewährleistung einer hohen Artikelstammdatenqualität im Global Data Synchronisation Network (GDSN)
Zusammenfassung
Dr.-Ing. Sascha Kasper studierte an der Ruhr-Universität Bochum Wirtschaftswissenschaften. Seine Schwerpunkte waren unter anderem Planung und Organisation. Nach seinem Abschluss als Diplom Ökonom war er zunächst vier Jahre bei der SinnLeffers AG, Hagen als Teammitglied im Lieferantenmanagement tätig. Zuletzt war er zuständig für den elektronischen Datenaustausch (EDI) und der partnerschaftlichen Zusammenarbeit mit den Lieferanten im Zuge des Efficient Consumer Response (ECR). Anfang 2000 trat er als Projekt- und Fachgruppenmanager bei der Centrale für Coorganisation GmbH (CCG) in Köln [heute GS1 Germany] ein. Der Schwerpunkt seiner Tätigkeit zielte auf die national und internationale Standardisierung von Artikelstammdaten im Bereich der Artikelstammdatenpoollösung SINFOS ab. Heute nimmt er die Funktion des Directors Solution Partners & New Businesses in der atrify GmbH (ehemals 1WorldSync GmbH) wahr, die als Tochterunternehmen GS1 Germany entstand und heute einer der größten Artikelstammdatenpools im Global Data Synchronization Network (GDSN) ist. Dort zeichnet er sich verantwortlich für die Betreuung der GS1 Mitgliederorganisation wie GS1 Austria, Italy und Spain. Sascha Kasper hat Anfang 2018 seine Dissertation zum Thema „Qualitätsorientiertes Artikelstammdatenmanagement und dessen wirtschaftliche Effekte auf die Prozesskette aus Sicht eines globalen Artikelstammdatenpools“ an der Universität Bremen erfolgreich abgeschlossen. Er lebt mit seiner Frau und seinen Kindern in Heiligenhaus.
S. Kasper
Kapitel 26. Datenqualität in der Praxis: Einfache Methoden zur Umsetzung des Datenqualitätsmanagements
Zusammenfassung
Zur Einführung eines Datenqualitätsmanagements in Organisationen gehört meist die Implementierung einer Software zur Messung der Datenqualität (DQ).
Christiana Klingenberg, Kristin Weber
Kapitel 27. Optimierung der Datenqualität bei der Stammdaten-Migration
Zusammenfassung
Wie schafft man es, eine hohe Datenqualität bei der Migration von Informationssystemen zu erhalten? Was soll wann, wie und wohin migriert werden? Welche Techniken, Konzepte, Regeln, Tipps und Tools können den Prozess unterstützen? Ist es wirklich wichtig, die Daten schon im Altsystem aufzuräumen? Das geht doch auch später. Nein, geht es nicht! Zumindest ist es nicht sinnvoll, teuer und sehr problematisch, mit schlechten Stammdaten in ein neues System zu gehen.
Knut Hildebrand
Backmatter
Metadata
Title
Daten- und Informationsqualität
Editors
Knut Hildebrand
Michael Mielke
Marcus Gebauer
Copyright Year
2025
Electronic ISBN
978-3-658-47317-4
Print ISBN
978-3-658-47316-7
DOI
https://doi.org/10.1007/978-3-658-47317-4

Premium Partner