Skip to main content

2023 | Buch

Deskriptives Data-Mining

insite
SUCHEN

Über dieses Buch

Dieses Buch bietet einen Überblick über Data-Mining-Methoden, die durch Software veranschaulicht werden. Beim Wissensmanagement geht es um die Anwendung von menschlichem Wissen (Erkenntnistheorie) mit den technologischen Fortschritten unserer heutigen Gesellschaft (Computersysteme) und Big Data, sowohl bei der Datenerfassung als auch bei der Datenanalyse. Es gibt drei Arten von Analyseinstrumenten. Die deskriptive Analyse konzentriert sich auf Berichte über das, was passiert ist. Bei der prädiktiven Analyse werden statistische und/oder künstliche Intelligenz eingesetzt, um Vorhersagen treffen zu können. Dazu gehört auch die Modellierung von Klassifizierungen. Die diagnostische Analytik kann die Analyse von Sensoreingaben anwenden, um Kontrollsysteme automatisch zu steuern. Die präskriptive Analytik wendet quantitative Modelle an, um Systeme zu optimieren oder zumindest verbesserte Systeme zu identifizieren. Data Mining umfasst deskriptive und prädiktive Modellierung. Operations Research umfasst alle drei Bereiche. Dieses Buch konzentriert sich auf die deskriptive Analytik.
Das Buch versucht, einfache Erklärungen und Demonstrationen einiger deskriptiver Werkzeuge zu liefern. Es bietet Beispiele für die Auswirkungen von Big Data und erweitert die Abdeckung von Assoziationsregeln und Clusteranalysen. Kapitel 1 gibt einen Überblick im Kontext des Wissensmanagements. Kapitel 2 erörtert einige grundlegende Softwareunterstützung für die Datenvisualisierung. Kapitel 3 befasst sich mit den Grundlagen der Warenkorbanalyse, und Kapitel 4 demonstriert die RFM-Modellierung, ein grundlegendes Marketing-Data-Mining-Tool. Kapitel 5 demonstriert das Assoziationsregel-Mining. Kapitel 6 befasst sich eingehender mit der Clusteranalyse. Kapitel 7 befasst sich mit der Link-Analyse.

Die Modelle werden anhand geschäftsbezogener Daten demonstriert. Der Stil des Buches ist beschreibend und versucht zu erklären, wie die Methoden funktionieren, mit einigen Zitaten, aber ohne tiefgehende wissenschaftliche Referenzen. Die Datensätze und die Software wurden so ausgewählt, dass sie für jeden Leser, der über einen Computeranschluss verfügt, weithin verfügbar und zugänglich sind.

Inhaltsverzeichnis

Frontmatter
1. Wissensmanagement
Zusammenfassung
Wir leben in einem Zeitalter der allgegenwärtigen Information, in dem Unmengen von Daten zu praktisch jedem Aspekt des Lebens verfügbar sind. Unser tägliches Leben kann durch Fitbit zur Überwachung gesundheitsbezogener Daten unterstützt werden, durch Sensorsysteme zur Überwachung unserer Häuser und zur Überprüfung derjenigen, die an unsere Haustür kommen, zur Überwachung unserer Autos auf demselben Niveau, das früher für Raumfähren verwendet wurde, und zur Lenkung unserer Fahrwege, um Verkehrskontrollen zu vermeiden. In der Wirtschaft kann die Landwirtschaft durch GPS gesteuert werden, wobei fortschrittliche Genetik für Saatgut, Düngemittel und die Bekämpfung von Pflanzenkrankheiten eingesetzt wird, so wie Wal-Mart seine Lagerbestände auf Mikroebene überwacht und Banken ihre Marketingmaterialien optimieren. Nur der Himmel weiß, was Regierungen auf der ganzen Welt tun, um unsere Sicherheit zu gewährleisten oder uns umgekehrt in Gefahr zu bringen.
David L. Olson, Georg Lauhoff
2. Visualisierung von Daten
Zusammenfassung
Daten und Informationen sind wichtige Ressourcen, die in modernen Unternehmen verwaltet werden müssen. Business Analytics bezieht sich auf die Fähigkeiten, Technologien, Anwendungen und Praktiken zur Erkundung und Untersuchung vergangener Unternehmensleistungen, um Erkenntnisse zu gewinnen und die Unternehmensplanung zu unterstützen. Der Schwerpunkt liegt auf der Entwicklung neuer Einsichten und Erkenntnisse auf der Grundlage von Daten und statistischen Analysen. Der Schwerpunkt liegt auf faktenbasiertem Management, um die Entscheidungsfindung zu unterstützen.
David L. Olson, Georg Lauhoff
3. Warenkorb-Analyse
Zusammenfassung
Wissensentdeckung ist das Bemühen, Informationen aus Daten zu finden. Aus heutiger Sicht ist es die Anwendung von Werkzeugen (aus der Statistik und der künstlichen Intelligenz), um interessante Muster aus Daten zu extrahieren, die in großen Datenbanken gespeichert sind. Interessant bedeutet hier nicht-triviales, implizites, bisher unbekanntes und leicht verständliches und beschriebenes Wissen, das genutzt werden kann (actionable). Eine der ersten Anwendungen von Data-Mining zur Generierung von interessantem Wissen für Unternehmen war die Warenkorbanalyse (Agrawal et al. in IEEE Transactions on Knowledge and Data Engineering 5(6): 914–925, 1995).
David L. Olson, Georg Lauhoff
4. Aktualität, Häufigkeit und Geldwertanalyse (Recency, Frequency, und Monetary Analyse)
Zusammenfassung
Mit der RFM-Analyse (Recency, Frequency, and Monetary) wird versucht, Kunden zu identifizieren, die mit höherer Wahrscheinlichkeit auf neue Angebote reagieren. Das Pareto Prinzip besagt, das 80 % des Verkaufes von 20 % der Kunden kommt. Darum ist es so wichtig, diese Kunden zu identifizieren. In der RFM Analyse werde diese mit drei Parametern. Doch das Prinzip ist sehr allgemein. Man sucht drei wichtige Messungen, um sich ein Bild von der Umgebung zu machen. So kann dieses Prinzip auch auf andere Probleme angewandt werden. Während Lift das statische Maß der Reaktion auf eine bestimmte Kampagne betrachtet, verfolgt RFM die Kundentransaktionen nach Zeit, Häufigkeit und Betrag.
David L. Olson, Georg Lauhoff
5. Assoziationsregeln
Zusammenfassung
Die Assoziationsanalyse bezeichnet die Suche nach Korrelationen zwischen gemeinsam auftretenden Dingen. Der Zweck einer Assoziationsanalyse besteht also darin, Items z. B. einzelne Artikel eines Warenkorbs zu ermitteln, die das Auftreten anderer Waren innerhalb einer Transaktion implizieren.
Mit Assoziationsregeln wird versucht, Kombinationen von Dingen zu ermitteln, die häufig zusammen auftreten (Affinitätsanalyse). Dies ist auch die Grundlage der Warenkorbanalyse, die wir im Zusammenhang mit der Korrelation und dem Jaccard-Verhältnis erörtert haben. Assoziationsregeln gehen noch einen Schritt weiter, indem sie eine Form des maschinellen Lernens anwenden, von denen der Apriori-Algorithmus der häufigste ist.
David L. Olson, Georg Lauhoff
6. Cluster-Analyse
Zusammenfassung
Dieses Kapitel behandelt eine Reihe von Aspekten der Clusteranalyse. Zunächst wird das Clustering von Hand anhand von standardisierten Daten vorgestellt. Damit soll gezeigt werden, wie grundlegende Algorithmen funktionieren. Der zweite Abschnitt zeigt, wie die Software mit diesen standardisierten Daten arbeitet. Im dritten Abschnitt wird die Clusteranalyse von Daten demonstriert, die keine Standardisierung erfordern. Wenn Sie sich nicht dafür interessieren, was Computer tun, können Sie mit diesem Abschnitt fortfahren.
David L. Olson, Georg Lauhoff
7. Link-Analyse
Zusammenfassung
Bei der Link-Analyse werden die Beziehungen zwischen Entitäten in einem Netzwerk untersucht. Sie sind in vielen Kontexten interessant, z. B. bei der Analyse sozialer Netzwerke (Knoke und Yang, Social network analysis, 2nd edn. Sage Publications, Thousand Oaks, CA 2008), die zur Messung sozialer Beziehungen, einschließlich sozialer Medien und Kollaborationsnetzwerke, verwendet wurde. Personen (oder Kunden) können als Knoten dargestellt werden, und die Beziehungen zwischen ihnen können Links in einem Diagramm sein. In der Biowissenschaft wurden sie zur Analyse von Proteininteraktionen eingesetzt. Sie wurden auch bei der Strafverfolgung und im Terrorismus eingesetzt. In der Wirtschaft sind sie für das Marketing von Interesse, insbesondere im Zusammenhang mit der Analyse von Produktempfehlungen. Amazon ist berühmt für seine Empfehlungsmaschine, die sich auf die Link-Analyse von Kundenauswahlen stützt. Durch die Clickstream-Analyse können Websites von Unternehmen vorhersagen, wohin die Kunden gehen, so dass die Systeme mit diesen Kunden interagieren können, um die Wahrscheinlichkeit zu erhöhen, dass sie die Waren des Anbieters kaufen.
David L. Olson, Georg Lauhoff
8. Deskriptives Data-Mining
Zusammenfassung
Dieses Buch befasst sich mit der die Praxis, große Datenbanken zu analysieren, um neue Informationen zu generieren was man auf Englisch und auf Deutsch als Data-Mining nennt. So schürft man wie in einer Goldmine neue Goldschätze Das beschreibenden Data-Mining (deskriptiven Data Mining) , ist ein Aspekt des Data-Mining. Wie im Vorwort erwähnt, befasst es sich mit verschiedenen Formen der Statistik, um zu verstehen, was in dem untersuchten Bereich passiert ist. Das Buch beginnt mit einem Kapitel über Wissensmanagement und versucht, die Analytik in den Gesamtrahmen des Informationsmanagements zu stellen. Es beginnt mit einem Überblick über Computer-Informationssysteme, eine Quelle für viele wichtige Daten und deren Speicherung und Abruf zur Unterstützung der Entscheidungsfindung.
David L. Olson, Georg Lauhoff
Metadaten
Titel
Deskriptives Data-Mining
verfasst von
David L. Olson
Georg Lauhoff
Copyright-Jahr
2023
Electronic ISBN
978-3-031-21274-1
Print ISBN
978-3-031-21273-4
DOI
https://doi.org/10.1007/978-3-031-21274-1