Skip to main content
main-content

Über dieses Buch

Mit diesem Herausgeberwerk führen die Autoren den Begriff „Big Data Analytics“ ein und geben Fallstudien aus unterschiedlichen Anwendungsgebieten. Unter Big Data Analytics wird das Aufbereiten, Analysieren und Interpretieren von großen, oft heterogenen Datenbeständen verstanden, mit dem Ziel, Muster und Zusammenhänge in den Daten aufzudecken und Entscheidungsgrundlagen für wissenschaftliche, betriebliche oder gesellschaftliche Fragestellungen zu erhalten.
Nebst den theoretischen Grundlagen widmet sich das Herausgeberwerk der Vielfalt verschiedener Anwendungsmöglichkeiten. Fallbeispiele geben Einblick in die Anwendung von Big Data Analytics und dessen Nutzenpotenziale.
Das Werk richtet sich gleichermaßen an Studierende, Fachleute aller Fachrichtungen als auch an interessierte Anwender. Es hilft den Leserinnen und Leser, die Bedeutungsvielfalt des Begriffs Big Data Analytics zu verstehen und verschiedene Einsatzmöglichkeiten im eigenen Umfeld zu erkennen und zu bewerten.

Inhaltsverzeichnis

Frontmatter

Grundlagen

Frontmatter

1. Rundgang Big Data Analytics – Hard & Soft Data Mining

Zusammenfassung
Das Einführungskapitel definiert und charakterisiert verschiedene Facetten des Big Data Analytics und zeigt auf, welche Nutzenpotenziale sich für Wirtschaft, öffentliche Verwaltung und Gesellschaft ergeben. Nach der Klärung wichtiger Begriffe wird der Prozess zum Schürfen nach wertvollen Informationen und Mustern in den Datenbeständen erläutert. Danach werden Methodenansätze des Hard Computing basierend auf klassischer Logik mit den beiden Wahrheitswerten wahr und falsch sowie des Soft Computing mit unendlich vielen Wahrheitswerten der unscharfen Logik vorgestellt. Anhand der digitalen Wertschöpfungskette elektronischer Geschäfte werden Anwendungsoptionen für Hard wie Soft Data Mining diskutiert und entsprechende Nutzenpotenziale fürs Big Data Analytics herausgearbeitet. Der Ausblick fordert auf, einen Paradigmenwechsel zu vollziehen und sowohl Methoden des Hard Data Mining wie des Soft Data Mining für Big Data Analytics gleichermaßen zu prüfen und bei Erfolg umzusetzen.
Andreas Meier

2. Methoden des Data Mining für Big Data Analytics

Zusammenfassung
Noch nie wurden derart gewaltige Datenmengen produziert wie in jüngster Zeit. Daraus erwächst die Erwartung, dass sich in den Peta- und Exabyte an Daten interessante Informationen finden lassen, wenn es nur gelingt, dieses gewaltige Volumen zielgerichtet auszuwerten. Sowohl in der Wissenschaft als auch zunehmend in der Praxis werden daher Verfahren und Technologien diskutiert, die interessante Muster in umfangreichen Datenbeständen aufdecken und Prognosen über zukünftige Ereignisse und Gegebenheiten anstellen können. Zahlreiche der hierfür verwendeten Methoden sind unter dem Begriffsgebilde Data Mining bereits seit langer Zeit bekannt, wurden jedoch im Laufe der Jahre ausgebaut und verfeinert. Der vorliegende Beitrag setzt sich das Ziel, die wesentlichen Verfahren zur Datenanalyse im Überblick zu präsentieren und dabei auf die grundlegenden Vorgehensweisen sowie potenzielle Einsatzbereiche einzugehen.
Peter Gluchowski, Christian Schieder, Peter Chamoni

3. Digital Analytics in der Praxis – Entwicklungen, Reifegrad und Anwendungen der Künstlichen Intelligenz

Zusammenfassung
Die Professionalisierung des Digital Analytics, der automatisierten Sammlung, Analyse und Auswertung von Web- und App-Daten, hat sich durch die Digitalisierung in den letzten Jahren stark erhöht. Die damit einhergehenden Möglichkeiten, mit Kunden zu interagieren und deren Verhalten zu verstehen, werden zunehmend wichtiger, um wirtschaftlich erfolgreich zu bleiben. In diesem Kapitel werden nach 2011 und 2016 die Resultate der dritten Digital-Analytics-Umfrage vorgestellt. Es zeigt aktuelle Trends, den steigenden Reifegrad, Nutzenpotenziale und KI-Anwendungen der Digital-Analytics-Praxis auf. Dazu gehören die Personalisierung, Price Nudging, Anomaly Detection, Predictive Analytics sowie die Marketing Automation. Die grössten Herausforderungen sind die Datenqualität, fehlendes Wissen beziehungsweise Know-How und die Datenkultur, sprich die Offenheit gegenüber Daten und datengetriebenen Prozessen im gesamten Unternehmen.
Darius Zumstein, Andrea Zelic, Michael Klaas

Textanalyse

Frontmatter

4. Searching-Tool für Compliance – Ein Analyseverfahren textueller Daten

Zusammenfassung
Text ist immer noch die vorherrschende Kommunikationsform der heutigen Geschäftswelt. Techniken des Textverstehens erschliessen vielfältiges Wissen zur Verbesserung der Kommunikation zwischen Menschen und Menschen, sowie Menschen und Maschinen. Durch die erhebliche Steigerung der Leistungsfähigkeit moderner Computer haben das automatische Textverstehen und die Extraktion von Semantik bedeutende Fortschritte gemacht. Der Vorteil der Nutzung eines Textanalysesystems für die Überprüfung der Regelkonformität in der Finanzbranche, ist angesichts des Wachstums der Online-Informationen wichtiger denn je. Es ist eine Herausforderung, aktuelle Informationen über Kunden, Unternehmen und Lieferanten zu verfolgen und zu interpretieren. Bei fehlerhaftem Verhalten sind die Auswirkungen auf ein Unternehmen unter Umständen drastisch. Zum Beispiel sind Kundeneröffnungen wegen verordneten Abklärungen für Finanzinstitute oft komplex und kostenintensiv. Um zum Beispiel Missbräuche (Geldwäsche) aufzudecken müssen grosse Mengen an textueller Daten interpretiert werden. Vorgestellt wird ein Anwendungsfall aus der Praxis mit dem Analysewerkzeug Find-it for Person Check, ein von Canoo Engineering entwickeltes Werkzeug mit semantischen Textanalysen. Find-it for Person Check ermöglicht deutlich effizientere Abklärungen in Compliance-Prüfprozessen der Finanzindustrie unter Berücksichtigung internationaler, lokaler und firmeninternen Richtlinien.
Urs Hengartner

5. Entscheidungsunterstützung im Online-Handel

Zusammenfassung
Kundenfeedback im Online-Handel in Form von Produktrezensionen liefern wichtige Informationen über die Kundenwahrnehmung von Produkten. So beschreiben sie verwendete Materialien, Farben, die Passform, das Design und den Anwendungszweck eines Produkts. Das Kundenfeedback liegt hier in unstrukturierter Textform vor, weshalb zur Verarbeitung Ansätze aus dem Gebiet des Natural Language Processing und des maschinellen Lernens von Vorteil sind. In diesem Beitrag wird ein hybrider Ansatz zur Kategorisierung von Produktrezensionen vorgestellt, der die Vorteile des maschinellen Lernens des Word2Vec-Algorithmus und die der menschlichen Expertise vereint. Das daraus resultierende Datenmodell wird im Anschluss anhand einer Praxisanwendung zum Thema Produktempfehlungen demonstriert.
René Götz, Alexander Piazza, Freimut Bodendorf

Machine Learning

Frontmatter

6. Einsatzoptionen von Machine Learning im Handel

Zusammenfassung
Zwei der zentralen Technologietrends der Digitalisierung sind Big Data und Künstliche Intelligenz (KI), insbesondere Machine Learning. Es wird mitunter in der vor allem von Informatikern und Technologen dominierten Literatur der Eindruck erweckt, dass Technologien für Unternehmen unmittelbar einen Mehrwert stiften. Inwieweit allerdings ein Analogieschluss beispielsweise aus Googles Erfolgen mit AlphaGo bis MuZero auf primär betriebswirtschaftliche Problemstellungen zulässig ist, soll für die Domäne des Handels in dem vorliegenden Kapitel untersucht werden. Aufbauend auf einer grundsätzlichen Erörterung des Big-Data-Phänomens aus einer Entscheidungsperspektive werden Einsatzmöglichkeiten für das Marketing im Handel untersucht. Im letzten Abschnitt wird problematisiert, wie Machine Learning in ausgewählten Bereichen Mehrwerte für Unternehmen eröffnet.
Reinhard Schütte, Felix Weber, Mohamed Kari

7. Automatisierte Qualitätssicherung via Image Mining und Computer Vision – Literaturrecherche und Prototyp

Zusammenfassung
Systeme zur Defekterkennung und Qualitätssicherung in der Produktion verfolgen das Ziel, Ausschussraten zu minimieren und Qualitätsstandards einzuhalten. Die dadurch angestrebte Reduktion der Produktionskosten folgt dem übergeordneten Ziel, der Maximierung der Wertschöpfung. Zu diesem Zweck lassen sich bildbasierende- sowie analytische Methoden und Techniken kombinieren. Die Konzepte Computer Vision und Image Mining bilden hierbei die Grundlage, um aus Bilddaten einen Wissensgewinn im Hinblick auf die Produktqualität zu generieren. Im Rahmen dieses Beitrages wurde ein Design Artefakt in Form eines Prototyps zur Defekterkennung und Qualitätssicherung im Bereich der Additiven Fertigung mittels eines gestaltungsorientierten Forschungsansatzes entwickelt. Die Wissensbasis für diesen Ansatz wurde innerhalb einer strukturierten Literaturanalysen erarbeitet. Der Fokus hierbei liegt auf der Identifikation und Analyse von besagten Systemen in den verschiedenen Bereichen und Branchen der Produktion. Dabei ließen sich eine Reihe von Techniken und Methoden identifizieren, die sich in den Sektor der Additiven Fertigung übertragen und gewinnbringend einsetzen lassen. Es handelt sich dabei um Methoden aus den Bereichen der Bildaufnahme, der Vorverarbeitung sowie der algorithmischen Analyse. Es konnten zudem keine Barrieren für den Einsatz von Computer-Vision- und Image-Mining-Techniken identifiziert werden, die einen Einsatz auf bestimmte Bereiche der Produktionen und Produktionsszenarien begrenzen. Die Ergebnisse dieses Beitrags stellen somit grundlegende Erkenntnisse für die Entwicklung anwendungsbezogener Defekterkennungs- und Qualitätssicherungssysteme in verschiedenen Branchen und Bereichen der Produktion dar.
Sebastian Trinks

8. Deep Learning in der Landwirtschaft – Analyse eines Weinbergs

Zusammenfassung
Der ubiquitäre Einsatz moderner Informations- und Kommunikationstechnologie verändert sämtliche Wirtschaftszweige und revolutioniert somit auch die Landwirtschaft. Der vorliegende Beitrag präsentiert dahingehend eine Big-Data-Analytics-Fallstudie aus dem Bereich des Weinanbaus, wo mithilfe von mobilen Aufnahmegeräten umfangreiches Bildmaterial aufgezeichnet wurde, um eine automatisierte Objekterkennung zur Unterstützung von operativen Winzertätigkeiten realisieren zu können. Dazu gehören zum Beispiel das Zählen von Reben, die Identifikation von Rebfehlstellen und die Prognose von potenziellem Erntegut. Hierbei besteht die Herausforderung unter anderem darin, landwirtschaftlich relevante Weinobjekte wie Reben, Trauben und Beeren über die einzelnen Hierarchieebenen hinweg erkennen zu können und diese auch in Bezug auf bewegtes Bildmaterial folgerichtig zu zählen. Zur Realisierung werden einige Lösungsansätze vorgestellt, die auf modernen Deep-Learning-Verfahren der bildbasierten Objekterkennung aufbauen. Der Beitrag wird abgerundet mit einer Diskussion und Implikationen für analytische Anwendungen in der landwirtschaftlichen Praxis.
Patrick Zschech, Kai Heinrich, Björn Möller, Lukas Breithaupt, Johannes Maresch, Andreas Roth

Prädiktive Modelle

Frontmatter

9. Data Pipelines in Big Data Analytics – Fallbeispiel Religion in der US Politik

Zusammenfassung
Am Anfang jeder Datenanalyse steht die Beschaffung und Aufbereitung der Daten in ein Format, welches für statistische Verfahren geeignet ist. Mit dem starken Zuwachs an digitalen Datenbeständen und der Vielfalt an digitalen Datenquellen und der damit verbundenen Vielfalt an hochdimensionalen Datenstrukturen ist dieser erste Teil einer Datenanalyse herausfordernder geworden. Die saubere Planung und Implementierung von Data Pipelines hilft in der Praxis mit diesen Herausforderungen umzugehen. Während Data Pipelines heutzutage im Data Engineering die Grundlage vieler Datenanwendungen sind, ist das Konzept in der wirtschafts- und sozialwissenschaftlichen Forschung noch wenig verbreitet. Dieser Beitrag diskutiert das Potenzial von Data Pipelines für die angewandte empirische Forschung mit dem Fokus auf die sozialwissenschaftliche Datenanalyse (im Kontrast zur Datenapplikationsentwicklung) basierend auf Big Data aus dem programmable Web. Anhand eines Fallbeispiels mit Daten aus der US Politik wird das Data Pipeline Konzept für Big Data Analytics in der wirtschafts- und sozialwissenschaftlichen Forschung Schritt für Schritt aufgezeigt.
Ulrich Matter

10. Self-Service Data Science – Vergleich von Plattformen zum Aufbau von Entscheidungsbäumen

Zusammenfassung
Um das Potenzial der stetig wachsenden Datenmengen in verschiedenen Geschäfts- und Gesellschaftsbereichen verstärkt zur Erkenntnisgewinnung und Entscheidungsunterstützung nutzen zu können, wäre es hilfreich, Big-Data-Analysemethoden für einen größeren Anwenderkreis zugänglich zu machen. Dies kann entweder durch eine stärkere Vermittlung von Datenkompetenzen aus Anwendersicht oder durch eine Vereinfachung der Methoden, insbesondere durch weitere Automatisierung der Prozesse oder Algorithmen mit geringer Komplexität aus Anwendungssicht geschehen. Zu letzteren gehören unter anderem Entscheidungsbäume, da sie leicht nachvollziehbar und die Analyseergebnisse zudem grafisch darstellbar sind. Für die in dieser Arbeit vorgestellte Versuchsreihe wurden sie daher als Anhaltspunkt für die Etablierbarkeit von Self-Service Data Science verwendet. In den Plattformen IBM SPSS Modeler, RapidMiner, KNIME und Weka wurden auf einer einheitlichen Datengrundlage Klassifikationsmodelle erstellt und diese in Bezug auf ihre Genauigkeit und Komplexität miteinander verglichen. Die Ergebnisse deuten darauf hin, dass die Plattformen im Hinblick auf diese beiden Punkte unterschiedliche Stärken und Schwächen im Analyseprozess aufweisen. Gegenwärtig gibt es bereits vielversprechende Ansätze zur Erweiterung des potenziellen Nutzerkreises von Big-Data-Analysen, jedoch sind Entwicklungen in diesem Bereich noch lange nicht abgeschlossen. Um den Prozess weiter voranzutreiben, müssen die Kompetenzen von Anwendern stärker in die Analyse eingebunden werden. In dieser Arbeit soll daher zusätzlich und beispielhaft ein Verfahren vorgestellt werden, um das Wissen von Domänenexperten zur Verbesserung von Entscheidungsbaummodellen einzusetzen.
Daniel Badura, Alexander Ossa, Michael Schulz

Trendforschung

Frontmatter

11. Einfluss von Covid-19 auf Wertschöpfungsketten – Fallbeispiel Verkehrsdaten

Zusammenfassung
Für Volkswirtschaften weltweit war und ist die größte Herausforderung im Jahr 2020 die Ausbreitung der Infektionskrankheit COVID-19. Dies gilt vor allem medizinisch, gesellschaftlich, aber auch ökonomisch. Bei den ökonomischen Effekten rückt das virusbedingte Zusammenbrechen der Wertschöpfungsketten häufig in den Mittelpunkt der Diskussion. Dieses Phänomen ist oft beschrieben, jedoch fehlt meist eine empirische Einordnung. Mit Hilfe von Echtzeitverkehrsdaten des Landes Nordrhein-Westfalen (NRW) wird ein Beitrag geleistet, einen Teil dieser Lücke zu schließen. Hierzu wurden in der ersten Infektionswelle ab Ende März 2020 minütlich Verkehrsdaten aus ganz NRW im Hinblick auf die LKW-Menge auf den Autobahnen mitgeschrieben und ausgewertet. Auf Basis dieser Analyse wird versucht, eine Orientierung zu geben, wie stark die Wertschöpfungsketten durch die COVID-19-Krise beeinflusst worden sind, wo die ökonomische Aktivität aktuell steht und inwieweit Echtzeitverkehrsdaten von LKW-Mengen bei dieser Art von Analyse hilfreich sein können.
Henry Goecke, Jan Marten Wendt

12. Intelligente Bots für die Trendforschung – Eine explorative Studie

Zusammenfassung
Das zielgerichtete Management von Innovationen hat in Zeiten globaler und dynamischer Märkte einen maßgeblichen Einfluss auf die Wettbewerbsfähigkeit von Unternehmen. Insbesondere die frühe Phase des Innovationsprozesses zielt darauf ab, Innovationschancen im Rahmen des Umfeldscannings frühzeitig zu erkennen. Hierfür stehen immer stärker wachsende Datenmengen zur Verfügung, aus denen relevante Informationen jedoch erst extrahiert werden müssen. Dieser Beitrag präsentiert die Ergebnisse einer Studie zu den Herausforderungen an ein erfolgreiches Innovationsmanagement und stellt ein Umfeldscanningsystem vor, welches die Effektivität und die Effizienz des Innovationsmanagements mithilfe von künstlicher Intelligenz steigert. Durch das dreistufige Verfahren, bestehend aus Themenerkennung, Trenderkennung und Trendbeobachtung, kann das Umfeldscanning in hohem Maße automatisiert werden. In der anschließenden Fallstudie wird anhand von drei Praxisbeispielen gezeigt, wie mithilfe des Systems die Trends von Morgen erkannt werden können. Zum Schluss wird das datenbasierte Umfeldscanningsystem als Chance für Unternehmen jeder Größe diskutiert.
Christian Mühlroth, Laura Kölbl, Fabian Wiser, Michael Grottke, Carolin Durst

Backmatter

Weitere Informationen

Premium Partner

    Bildnachweise