Skip to main content
main-content

Über dieses Buch

Dieses Buch war das erste deutsche Buch zum Thema Daten- und Informationsqualität und ist mittlerweile ein Klassiker. Es wurde für die fünfte Auflage um neue Inhalte erweitert, aktualisiert und an zahlreichen Stellen überarbeitet. Von Wissenschaftlern und Praktikern geschrieben, präsentiert es den aktuellen Stand aus Forschung und Anwendung und ist somit ein Muss für alle IT-Profis.

Inhaltsverzeichnis

Frontmatter

Informationsqualität – Grundlagen

Frontmatter

1. Was wissen wir über Information?

Zusammenfassung
Der Begriff Information stammt aus dem Lateinischen. Von der Antike bis in das 20. Jahrhundert war Information ein kaum verwendetes und unspektakuläres Wort. Zemanek belegt diese Hypothese mit dem Verweis auf ein Häufigkeitswörterbuch der deutschen Sprache aus dem Jahre 1897. Dort kommt in ca. 11 Mio. Wörten nur 55 mal das Wort Information vor.
Florian Engelmann, Christoph Großmann

2. Informationsqualität – Definitionen, Dimensionen und Begriffe

Zusammenfassung
Die Verbesserung und Sicherstellung der Informationsqualität wird in immer mehr Unternehmen als eigenständige Managementaufgabe von großer Wichtigkeit begriffen. IQ-Management ist ein elementarer Baustein in Systemintegrationsprojekten. Aber auch in bestehenden Prozessen mit heterogenen Datenquellen und Informationsnutzern ist eine hohe Informationsqualität die Grundvoraussetzung für funktionierende betriebliche Abläufe. Voraussetzung für ein effektives IQ-Management ist die Bewertung der Informationsqualität. In vielen Unternehmen ist Informationsqualität nur ein gefühlter Wert. Die meisten Anwender bringen ein gewisses Misstrauen den Daten gegenüber zum Ausdruck, dies jedoch ohne genaue Angabe der Fehlerart und -häufigkeit. Nicht selten werden kostspielige Projekte angestoßen, um die Informationsqualität zu verbessern, ohne sich vor einer IQ-Maßnahme durch eine Analyse ein genaues Bild über die tatsächlichen Probleme zu verschaffen. Nur auf der Basis einer umfassenden Bewertung der Informationsqualität können die notwendigen Ressourcenentscheidungen herbeigeführt, Ziele gesetzt und der Erfolg des IQ-Management beurteilt werden.
Jan P. Rohweder, Gerhard Kasten, Dirk Malzahn, Andrea Piro, Joachim Schmid

Methoden – Techniken – Tools – Regelwerke/Standards

Frontmatter

3. Datenqualitätsmetriken für ein ökonomisch orientiertes Qualitätsmanagement

Zusammenfassung
Für eine ökonomische Betrachtung der Datenqualität (DQ) und insbesondere die Planung von DQ-Maßnahmen unter Kosten-Nutzen-Aspekten sind DQ-Metriken unverzichtbar. Deswegen wird im Folgenden die Fragestellung aufgegriffen, wie DQ zweckorientiert und adäquat quantifiziert werden kann. Dazu werden Metriken entwickelt und vorgestellt, die zum einen eine quantitative Analyse der zum Messzeitpunkt vorhandenen DQ ermöglichen sollen, um Handlungsbedarfe zu identifizieren. Zum anderen sollen Auswirkungen auf die DQ, wie z. B. zeitlicher Verfall oder die Durchführung von DQ-Maßnahmen, zielgerichtet – durch Vergleich des DQ-Niveaus zu zwei oder mehreren Messzeitpunkten – untersucht werden können.
Bernd Heinrich, Mathias Klier

4. Datenqualitätsmanagement – Steigerung der Datenqualität mit Methode

Zusammenfassung
Daten- und Informationsqualität ist ein Thema von enormer Reichweite. In den meisten Organisationen werden Problem und Schwierigkeiten mit dem vorhandenen Qualitätsniveau meist nur reaktiv erkannt und behandelt.
Niels Weigel

5. Strukturierte Datenanalyse, Profiling und Geschäftsregeln

Zusammenfassung
In heutigen Diskussionen zum Thema Datenqualität wird häufig der Begriff der Informationsqualität synonym verwendet. Dies ist für die pragmatische Anwendung nicht von entscheidender Bedeutung, jedoch bestehen ein paar grundsätzliche, auch für das Verständnis der Datenqualität, wichtige Unterschiede. Aber auch die Autoren verwenden die Begriffe synonym. Die Abb. 5.1 stellt den Zusammenhang zwischen Daten und Information dar.
Marcus Gebauer, Ulrich Windheuser

6. Datenbereinigung zielgerichtet eingesetzt zur permanenten Datenqualitätssteigerung

Zusammenfassung
Sind Datenfehler mit Hilfe der in den vorangegangenen Kapiteln beschriebenen Methoden und Techniken identifiziert worden, ist die Datenqualität damit (leider) noch nicht automatisch verbessert. Man hat zwar nun einen qualifizierten Überblick über die tatsächliche Situation und die existierenden Fehlerkonstellationen, aber die Korrektur steht noch bevor und stellt in einem Datenqualitätsprojekt oftmals eine besondere Herausforderung dar, da hierfür mitunter ein nicht unbedeutender Aufwand erbracht werden muss.
Marcus Zwirner

7. Datenintegration und Deduplizierung

Zusammenfassung
In Unternehmen liegen viele Daten heutzutage immer seltener vollständig an einem einzigen physikalischen Ort vor, sondern sind weltweit verteilt. Dies liegt zum einen an der immer besser gewordenen Infrastruktur, die eine solche Verteilung auf einfache Art und Weise ermöglicht, und zum anderen an der Tatsache, dass viele Unternehmen weltweit tätig sind. So fallen Daten weltweit an, werden aber jeweils lokal – vor Ort – gespeichert. Daher müssen oft mehrere Datenquellen genutzt werden, um einen aktuellen, vollständigen und genauen Überblick über die vorhandenen Daten zu gewinnen. Datenintegration hilft, indem sie Daten aus mehreren Quellen zusammenführt und einheitlich darstellt. Diese integrierten Daten können genutzt werden, um sich einen Überblick über das Unternehmen zu verschaffen, z. B. wenn Unternehmen fusionieren und nur noch eine Kundendatenbank bestehen bleiben soll, oder wenn zu einem Kunden die Daten aus den verschiedenen Fachabteilungen zusammengeführt werden sollen. Anhand eines solchen Beispiels, der Integration von Kundendaten zu Kfz- und Lebensversicherungen erläutern wir im Folgenden einzelne Techniken.
Jens Bleiholder, Joachim Schmid

8. Definition von Datenarten zur konsistenten Kommunikation im Unternehmen

Zusammenfassung
Probleme in der Informationsqualität (IQ) treten in den unterschiedlichsten Bereichen eines Unternehmens auf und werden durch die unterschiedlichsten Bereiche verursacht. Daher ist es um so wichtiger, diese Probleme klar und eindeutig kommunizieren zu können. Insbesondere wenn Kollegen fachübergreifend IQ-Probleme beheben wollen, kann dies schwierig sein. Erst wenn klar ist, worüber geredet wird, und häufig sind dies Datenfelder und ihr Inhalt, kann das Problem eindeutig beschrieben und gelöst werden.
Andrea Piro, Marcus Gebauer

9. Suchmaschinen und Informationsqualität: Status quo, Problemfelder, Entwicklungstendenzen

Zusammenfassung
Das Thema Informationsqualität wird in den vorangegangenen Beiträgen umfangreich betrachtet. Die dabei geführte Diskussion zielt vordergründig auf organisatorische Dimensionen der Datenqualität, die strukturierte Datenanalyse oder Datenmanagementprozesse im Unternehmen ab. Dabei liegt ein Großteil der zur Unterstützung von Entscheidungsprozessen herangezogenen Informationen in Datenbanksystemen bzw. in einem Data Warehouse vor. Auf Basis verschiedener Analysetools (z. B. Online-Analytical-Processing) lassen sich diese Informationen dann systematisch auswerten. Allerdings können Entscheidungen nicht allein aufgrund der unternehmensintern vorliegenden Informationen getroffen werden. Vielmehr gilt es auch die aus der Unternehmensumwelt relevanten Informationen zu verarbeiten, die zum Teil über das Internet zugänglich sind. Im Gegensatz zu unternehmensinternen Datenbanksystemen handelt es sich beim Internet um ein schwach strukturiertes und offenes Netzwerk, weshalb die im Unternehmenskontext eingesetzten Analysetools kaum weiterhelfen, um Informationen mit hoher Qualität herauszufiltern. In dieser Situation spielen Suchmaschinen eine wichtige Rolle, um Informationen zu identifizieren und anhand verschiedener Kriterien in Form einer Suchergebnisseite zu sortieren. Konservative Schätzungen gehen davon aus, dass über Suchmaschinen zwischen 70 und 85 % aller Informationsrecherchen im Internet erfolgen. Teilweise beziffert man diesen Wert sogar auf über 90 %.
Christian Maaß, Gernot Gräfe

10. Bedeutung der Informationsqualität bei Kaufentscheidungen im Internet

Zusammenfassung
Bei Kauf- und Verkaufsentscheidungen ist das Internet eine bedeutende Informationsquelle für Anbieter und Nachfrager. Während Anbieter ihre Produkte und Dienstleistungen sehr gut kennen und dazu Informationen bereitstellen, sehen sich Nachfrager oft mit einem Informationsdefizit konfrontiert. Sie haben unvollständige Kenntnisse über die Anbieter, ihre Produkte, Preise und weitere Gschäftsbedingungen und informieren sich daher im Internet. Die unausgewogene Informationsverteilung zwischen beiden Parteien wird als Informationsasymmetrie bezeichnet.
Gernot Gräfe, Christian Maaß

11. Datenqualitäts-Audits in Projekten

Zusammenfassung
Datenqualität leidet zumeist schon in der Entstehung der Daten und ihrer zugrunde liegenden Datenhaushalte. Datenqualität ist üblicherweise der letzte Bereich, der in Projekten berücksichtigt wird, wenn diese Projekte in Schwierigkeiten geraten. Daher ist es notwendig, Datenqualität in den verschiedenen Stadien eines Projektes strukturell zu verankern.
Marcus Gebauer, Michael Mielke

12. Bewertung der Informationsqualität im Enterprise 2.0

Zusammenfassung
Die Entwicklungen zum Web 2.0 haben das World Wide Web (WWW) grundlegend verändert. Nachdem die meisten Nutzer im WWW zunächst „nur“ nach Informationen suchten stellen Nutzer inzwischen sehr ausgiebig Informationen über sich selbst oder ihnen vertraute Themen in Blogs und Communities bereit. Facebook und Wikipedia sind zwei prominente Webseiten. Ihre Attraktivität entstammt allein den Informationen, welche die Nutzer selber zur Verfügung stellen.
Sven Ahlheid, Gernot Gräfe, Alexander Krebs, Dirk Schuster

Organisation

Frontmatter

13. Organisatorische Ansiedlung eines Datenqualitätsmanagements

Zusammenfassung
Für die meisten Unternehmen im deutschsprachigen Raum ist Daten- bzw. Informationsqualität ein junges Thema – ein Thema, das in den letzten Jahren in vielen Organisationen an Bedeutung gewonnen hat. Dies zeigt die Vielzahl der Aktivitäten, die mit dem Thema Datenqualität (DQ) verknüpft sind. In den letzten Jahren werden vermehrt DQ-Werkzeuge am Markt angeboten, immer mehr Beratungsunternehmen spezialisieren sich auf dieses Thema.
Jens Lüssem

14. Organisatorische Maßnahmen für gute Datenqualität

Zusammenfassung
Datenqualität kann nicht delegiert, verordnet und im Nachhinein nur schwer in ein Software-Produkt integriert werden. Maßnahmen für eine gute Datenqualität müssen bereits beim Design einer Applikation oder eines Prozesses getroffen werden.
Jürg Wolf

15. Informationsmanagementprozesse im Unternehmen

Zusammenfassung
In vielen Organisationen werden Datenqualitätsprojekte nachwievor taktisch lanciert. Anhand eines konkreten, punktuellen Problems werden Qualitätsprobleme erkannt und ebenso konkret und punktuell zu lösen versucht. Nachhaltige Qualitätsverbesserungen sind i. d. R. so nicht zu erzielen. Hierfür ist strategisches Denken und Handeln erforderlich, d. h. das Denken in Lösungsräumen (Mehrdimensionalität) und Wirkungszusammenhängen.
Klaus Schwinn

16. Data Governance

Zusammenfassung
Unternehmen müssen ihr Geschäftsmodell laufend anpassen und weiterentwickeln: Globale Marktpräsenz erfordert weltweit harmonisierte Geschäftsprozesse, Kunden verlangen individuell auf ihre Bedürfnisse zugeschnittene Produkte, und Dienstleistungen werden nach den Prinzipien industrieller Abläufe erbracht. Diese Anforderungen betreffen zum einen die Unternehmensstrategie und die Architektur der Geschäftsprozesse. Zum anderen sind Daten von hoher Qualität eine Grundvoraussetzung, um den Anforderungen gerecht zu werden.
Kristin Weber, Boris Otto, Dominik Lis

17. IQM-Reifegradmodell für die Bewertung und Verbesserung des Information Lifecycle Management Prozesses

Zusammenfassung
Heutige Organisationen produzieren und speichern mehr Informationen als je zuvor. Der resultierende Informationsüberfluss, zusammen mit einem Mangel an Qualitätssicherung für das Information Lifecycle Management, führt zu einem unsicheren Status der Informationsqualität in vielen Organisationen. Weiterhin hat sich herausgestellt, dass das Bewerten, Verbessern und Steuern der Informationsqualität ein offenkundig schwieriges Unterfangen ist. Dieses Kapitel stellt ein Modell zur Bewertung und Verbesserung der Information Quality Management Capability Maturity (IQM-Reifegrad) vor. Es wird ein Satz von Kriterien vorgestellt, der aus Literaturrecherche und Fallstudien abgeleitet wurde. Die Reifegradindikatoren werden validiert und in einem mehrstufigen Reifegradmodell durch eine Delphi-Studie gruppiert. Das abgeleitete IQM-Reifegradmodell hilft Organisationen ihre bestehenden Praktiken im IQM zu bewerten und potentielle Lücken und Verbesserungsstrategien zu ermitteln.
Saša Baškarada, Marcus Gebauer, Andy Koronios, Jing Gao

18. Management der Materialstammdaten in SAP®-Systemen

Zusammenfassung
Stammdaten sind die digitalen Zwillinge von Objekten der realen Welt, z. B. von Material. Durch die rasch fortschreitende digitale Transformation (Digitalisierung) und der damit einhergehenden zunehmenden Vernetzung bekommt die Qualität der Materialstammdaten eine noch höhere Bedeutung als bisher. Technische und organisatorische Herausforderungen wie Supply Chain Management, IoT, Industrie 4.0, Big Data usw. erfordern zwingend eindeutige Prozesse für die Erstellung, Pflege und Löschung von Stammdaten.
Knut Hildebrand

19. Prinzipien erfolgreichen Informationsqualitätsmanagements im Lichte von Industrie 4.0

Zusammenfassung
Das Internet der Dinge, Industrie 4.0 und Big Data sind in aller Munde. Die Digitalisierung des Lebens schreitet mit großen Schritten voran. Die aktuelle EMC Studie spricht von 200 Mrd. Dingen die vernetzt werden, eine nie dagewesene Datenmenge erzeugen und mit Hilfe von Big Data Analytics zu neuen Erkenntnissen führen sollen, so zumindest die Hoffnung.
Michael Mielke

Praxisbeispiele

Frontmatter

20. Ein Entscheidungsmodell zur Weitergabe persönlicher Daten im Internet

Zusammenfassung
In den vergangenen zwei Jahrzehnten wandelte sich das Internet von einer Spielwiese für technikbegeisterte Computerspezialisten zu einem vielseitig einsetzbaren weltweiten Netzwerk für Privatpersonen und Unternehmen. Maßgeblichen Anteil daran besaß die rasante Entwicklung des World Wide Web (WWW), das, durch die Möglichkeit multimediale Inhalte zu vermitteln, für einen großen Teil der Bevölkerung industrialisierter Länder zu einem wesentlichen Bestandteil des täglichen Lebens wurde. Dass diese Entwicklung noch lange nicht abgeschlossen ist, zeigt die derzeitige Diskussion zum Thema Web 2.0 bzw. 3.0. Waren es in den letzten Jahren die hohen Umsatzzuwächse im E-Commerce und multimedial gestaltete Webseiten in Kombination mit aufwändigen Applikationen, die für ständig steigende Nutzerzahlen im World Wide Web sorgten, so wird dieser Innovationsschub nunmehr durch eine Vielzahl von Anwendungen fortgesetzt, die sich durch die zunehmende Vernetzung der Nutzer untereinander auszeichnen.
Horst Treiblmaier

21. Der Aufbau einer Organisationsrichtlinie für den Daten- und Informationsqualitätsmanagement-Prozess

Zusammenfassung
Im folgenden Kapitel wird ein Prozessmodell mit Vorlagen, Checklisten und Mustern für das Datenqualitätsmanagement vorgeschlagen, das die methodischen Empfehlungen aus mehreren Quellen komponiert. Entlang dieses Prozessmusters wurde der Status mehrerer Unternehmen unterschiedlicher Branchen erhoben, deren Bedarf für ein systematisches Datenqualitätsmanagement diskutiert und das Prozessmodell situationsgerecht angepasst. Das Ergebnis der Reflexion wurde in den meisten Projekten durch den zukünftigen Datenqualitätsmanager als initiale Datenqualitätsmanagement-Richtlinie verfasst. Ziel dieses Artikels ist es, die Lessons Learned dieser Projekte zu einem Verfahren für die Konzeption eines unternehmensindividuell anpassbaren Datenqualitätsmanagement-Prozesses zu konsolidieren. Aus der Konzeption wird als Nebeneffekt der Aufbau einer DQM-Richtlinie gewonnen, die auch die Methodenempfehlungen aus diesem Buch im DQM-Prozess verortet.
Reinhard Höhn

22. Informationsqualität und Digitale Assistenzsysteme: Ein Laborbericht aus dem Campus 4.0

Zusammenfassung
Informationen sind ein wichtiger Produktionsfaktor geworden. Wir sammeln täglich riesige Mengen an Informationen, der globale „Daten- und Informationsbestand“ verdoppelt sich etwa alle 18 Monate; gleichzeitig wird der Eindruck erweckt, dass die Qualität der Informationen nicht in gleichem Maße besser wird. Dies bestätigt auch eine Studie des Grimme-Instituts von 2012 (Im Blickpunkt 2012).
Abdessalam Ait Salah, Hendrik Thüs, Michael Mielke

23. Datenqualitäts-Modell der Volkswagen Financial Services AG

Zusammenfassung
Im Rahmen der Vertriebsaktivitäten und der umfangreichen rechtlichen und regulatorischen Anforderungen u. a. Basel II hat die Volkswagen Financial Services AG (nachfolgend VW FS AG) beschlossen, dem Thema Datenqualität und Datenqualitätsmanagement, insbesondere unter dem Blickwinkel der Konzern Leitlinien Kundennähe, Schaffung von Werten und Höchstleistung, eine hohe Priorität einzuräumen.
Helena Moser

24. Verknüpfung von DQ-Indikatoren mit KPIs und Auswirkungen auf das Return on Investment

Zusammenfassung
Häufig ist nicht klar, welche Beziehungen zwischen Datenqualitätsindikatoren (DQI, Definition folgt weiter unten) und Key Performance Indicators (KPI, s. Abschn. 1.3 für weitere Details) eines Unternehmens oder einer Organisation bestehen. Dies ist insbesondere deshalb von Bedeutung, da die Kenntnis dieser Beziehungen maßgeblich die Ausprägung eines Datenqualitätsprojekts beeinflusst.
Frank Block

25. Gewährleistung einer hohen Artikelstammdatenqualität im Global Data Synchronisation Network (GDSN)

Zusammenfassung
Dr.-Ing. Sascha Kasper studierte an der Ruhr-Universität Bochum Wirtschaftswissenschaften. Seine Schwerpunkte waren unter anderem Planung und Organisation. Nach seinem Abschluss als Diplom Ökonom war er zunächst vier Jahre bei der SinnLeffers AG, Hagen als Teammitglied im Lieferantenmanagement tätig. Zuletzt war er zuständig für den elektronischen Datenaustausch (EDI) und der partnerschaftlichen Zusammenarbeit mit den Lieferanten im Zuge des Efficient Consumer Response (ECR). Anfang 2000 trat er als Projekt- und Fachgruppenmanager bei der Centrale für Coorganisation GmbH (CCG) in Köln [heute GS1 Germany] ein. Der Schwerpunkt seiner Tätigkeit zielte auf die national und internationale Standardisierung von Artikelstammdaten im Bereich der Artikelstammdatenpoollösung SINFOS ab. Heute nimmt er die Funktion des Directors Solution Partners & New Businesses in der atrify GmbH (ehemals 1WorldSync GmbH) wahr, die als Tochterunternehmen GS1 Germany entstand und heute einer der größten Artikelstammdatenpools im Global Data Synchronization Network (GDSN) ist. Dort zeichnet er sich verantwortlich für die Betreuung der GS1 Mitgliederorganisation wie GS1 Austria, Italy und Spain. Sascha Kasper hat Anfang 2018 seine Dissertation zum Thema „Qualitätsorientiertes Artikelstammdatenmanagement und dessen wirtschaftliche Effekte auf die Prozesskette aus Sicht eines globalen Artikelstammdatenpools“ an der Universität Bremen erfolgreich abgeschlossen. Er lebt mit seiner Frau und seinen Kindern in Heiligenhaus.
S. Kasper

Backmatter

Weitere Informationen

Premium Partner

    Bildnachweise