Skip to main content
main-content

Über dieses Buch

Dieses Buch bietet einen Einstieg in das Thema Data Science auf Basis der visuellen Aufbereitung von Daten. Es hat ethische Betrachtungen in der digitalen Transformation zum Gegenstand und stellt ein Prozessrahmenwerk für die Bewertung von Technologien vor. Außerdem erläutert es Besonderheiten und Erkenntnisse zum Scheitern von Data-Science-Projekten und stellt Empfehlungssysteme unter Berücksichtigung aktueller Entwicklungen vor. Funktionalität zu Machine Learning in Werkzeugen zu Business Analytics wird verglichen und der Einsatz eines Vorgehensmodells für Data Science aufgezeigt.Die Integration erneuerbarer Energien am Beispiel von Photovoltaikanlagen, ein effizienterer Umgang mit Wärmeenergie, wissenschaftliche Literaturauswertung, Kundenzufriedenheit in der Automobilindustrie und ein Framework für die Analyse von Fahrzeugdaten dienen als Anwendungsbeispiele für den konkreten Einsatz von Data Science. Das Buch bietet wichtige Informationen, die für Praktiker ebenso relevant sind wie für Studierende und Lehrende.

Inhaltsverzeichnis

Frontmatter

Einleitung

Frontmatter

Kapitel 1. Data Science: Vom Begriff zur Anwendung

Zusammenfassung
Dieser Beitrag bietet eine Einführung in den Themenband „Data Science anwenden“, der in der Reihe „Angewandte Wirtschaftsinformatik“ erscheint. Nach einer Einordnung der Begriffe Data Science und Data Scientist erfolgt die Vorstellung der Beiträge, die in den thematischen Schwerpunkten erscheinen. Ausgangspunkt ist eine Einführung in das Themengebiet Data Science. Es folgen verschiedene Beiträge zu Systemen, Werkzeugen und Methoden. Ein Fokus dieses Buches liegt in der Vorstellung konkreter Anwendungen.
Thomas Barton, Christian Müller

Einführung in Data Science

Frontmatter

Kapitel 2. Visualisierung und Deep Learning in der Data Science

Von Daten zu Bildern und von Bildern zu Daten
Zusammenfassung
Menschen nehmen visuell aufbereitete Informationen schnell und effizient wahr. Die Aufbereitung von Daten jeder Art ist daher ein wichtiges und stark beforschtes Gebiet in der Data Science und all ihren umliegenden Feldern. Dabei gilt es, komplexe Informationen so weit zu vereinfachen, dass ohne signifikanten Sinnverlust die Kerninformationen möglichst einfach und anschaulich transportiert werden können. Im Gegenzug besteht eine steigende Notwendigkeit, Bilder und Bildinformationen automatisch zu verarbeiten, sei es für die Gesichtserkennung als biometrisches Merkmal, für persönliche Assistenten oder für die Auswertung der Kamerabilder beim fahrerlosen Auto. Der Beitrag stellt dar, welche Möglichkeiten jeweils existieren und wie Algorithmen, z. B. im Deep Learning, sich selbst oder gegenseitig trainieren und verbessern.
Jens Kaufmann, Daniel Retkowitz

Kapitel 3. Digitale Ethik in datengetriebenen Organisationen und deren Anwendung am Beispiel von KI-Ethik

Zusammenfassung
Digitale Ethik fokussiert auf die moralischen Werte und Normen im Umgang mit den modernen Technologien des digitalen Zeitalters, reflektiert menschliche Handlungen im Design von Technologien und liefert Prinzipien für einen verantwortungsvollen Einsatz. Datengetriebene Organisation leben von der wertschöpfenden Datenanalyse zur Entscheidungsdurchsetzung. Die ethisch korrekte Nutzung solcher Technologien wird hierbei zu einem Schlüsselfaktor. Dieser Beitrag führt in datengetriebene Organisationen ein, zeigt wesentliche Begriffe zur digitalen Ethik und erläutert anhand ethischer Grundsätze die Implikationen für eine datengetriebene Wertschöpfung. Das Beispiel Deutsche Telekom AG demonstriert, wie digital-ethische Grundsätze entwickelt und konkret genutzt werden für einen zunehmenden Einsatz von intelligenten Systemen in datengetriebenen Organisationen. Es zeigt, wie eine KI-Ethik im Geschäftsalltag erfolgreich eingesetzt wird und einen besseren Umgang mit diesen Technologien schafft.
Claudia Lemke, Dagmar Monett, Manuel Mikoleit

Kapitel 4. Multiple Perspektiven bei der Implementierung innovativer technologischer Lösungen im Kontext datengesteuerter Entscheidungsfindung

Zusammenfassung
Dieses Kapitel befasst sich mit den durch die digitale Transformation hervorgerufenen Veränderungen, die Unternehmen mit intensiverem Wettbewerb, Leistungsdruck und wachsenden Kundenanforderungen konfrontieren. Das Streben nach gesteigerter Wettbewerbsfähigkeit und Effizienz findet vor allem in der Implementierung (innovativer) technologischer Lösungen und der zunehmend durch Automatisierung und Datenanalyse bestimmten Entscheidungsprozesse Ausdruck. Die vorgestellte Methode, das TOCI-Modell (Technological and Organisational Coherence Implementation), wurde speziell für die Implementierung innovativer Technologien in der Unternehmenspraxis entwickelt. Die Methode berücksichtigt die Kohärenz vielfältiger Faktoren, einschließlich der erforderlichen Änderungen der organisatorischen Entscheidungsunterstützungsprozesse. Das TOCI-Modell wurde basierend auf bekannten Modellen aus der akademischen Literatur, wie dem Technologieakzeptanzmodell, der agilen Prozessmanagementmethode Scrum, dem CRISP-DM-Prozessmodell und dem Stage-Gate-Modell entwickelt. Darüber hinaus werden sozio-technische Systemmethoden und Erkenntnisse aus der Theorie des situativen Führens eingebunden.
Anna-Maria Nitsche, Christian-Andreas Schumann, Christoph Laroque, Olga Matthias

Kapitel 5. Keine Angst vor Fehlschlägen – Erkenntnisse aus einer Umfrage zum Scheitern von Data-Science-Projekten

Zusammenfassung
Data-Science-Vorhaben scheitern häufiger als andere Projekte. Viele Unternehmen schrecken daher noch davor zurück, komplexe datengetriebene Fragestellungen zu adressieren. Die Gründe für das Scheitern in der Neuartigkeit und Komplexität dieser Projekte zu suchen, fasst zu kurz. Eine Umfrage unter 85 Wissensarbeiterinnen und Wissensarbeitern aus Unternehmen verschiedener Größen zeigt neben Problemen, für die bereits etablierte Lösungsansätze existieren, auch besondere Herausforderungen der Disziplin Data Science auf. Zu nennen sind vor allem fehlende Data-Science-Kompetenzen bei den relevanten Gruppen im Unternehmen sowie eine falsche Herangehensweise an Data-Science-Vorhaben. Die Erkenntnisse aus dieser Untersuchung können von Unternehmen und Forschenden genutzt werden, um das Misserfolgsrisiko durch ein geeignetes Projektvorgehen zu reduzieren.
Jule Aßmann, Joachim Sauer, Michael Schulz

Systeme, Werkzeuge und Methoden

Frontmatter

Kapitel 6. Empfehlungssysteme und der Einsatz maschineller Lernverfahren

Zusammenfassung
Empfehlungssysteme nutzen die Präferenzen eines Nutzers, um ihm individuelle Inhalte zu vermitteln. Zu diesem Zweck werden Informationen wie Produktmerkmale oder -bewertungen genutzt, um personalisierte Empfehlungen zu generieren. Empfehlungssysteme stellen somit eine besondere Form der Personalisierung dar und bieten vor allem im Zusammenhang mit großen Informationsbeständen ein enormes Potenzial für Unternehmen. Dieser Beitrag befasst sich mit einer anwendungsorientierten Vorstellung der unterschiedlichen Konzepte, die zur Erstellung von personalisierten Empfehlungen genutzt werden können. Jedes dieser Konzepte birgt in seinem Kern einen Algorithmus, der in vielen Systemen mittels maschineller Lernverfahren umgesetzt wird. In diesem Zusammenhang werden Methoden des maschinellen Lernens für die Erstellung von personalisierten Empfehlungen beleuchtet.
Andreas Peuker, Thomas Barton

Kapitel 7. Vergleich der Machine-Learning-Funktionalitäten von Business-Intelligence- und Analytics-Tools

Zusammenfassung
Vor dem Hintergrund steigender Notwendigkeit von Datenanalysen in Unternehmen, die nicht nur Data Scientists, sondern Fachanwender mit durchschnittlichen IT-Kenntnissen durchführen, stellt sich die Frage nach geeigneten BI-Systemen, die Machine-Learning-Funktionalität (ML) zur Datenauswertung integrieren, aber den Anforderungen einer Fachanwenderzielgruppe gerecht werden. Der Beitrag untersucht ausgehend vom Gartner Magic Quadrant BI-Systeme, die in einer kostenfreien Testlizenz ML-Funktionalität bereitstellen. Für die fünf BI-Tools TIBCO Cloud Spotfire, SAP Analytics Cloud, Qlik Sense, Tableau sowie das als neutrale Referenz herangezogene Open-Source-Werkzeug RapidMiner geht der Vergleich anhand des ML-Workflows mit den Phasen Datenaufnahme und -bereinigung sowie Modelltraining, -test, -einsatz und -überwachung vor und analysiert die jeweilige angebotene ML-Funktionalität. Es zeigen sich Unterschiede in der Breite des Spektrums der abgedeckten ML-Algorithmenarten Klassifikation, Regression, Clustering und Assoziationsanalyse, in der Vielzahl der je Bereich angebotenen ML-Einzelalgorithmen sowie im Detailgrad der möglichen Feineinstellungen für die Algorithmen. Die Bandbreite der Einordnung reicht von Werkzeugen, die sich an Laien ohne Vorkenntnisse in Datenanalyse wenden und statt ML-Funktionalität lediglich eine wenig transparente AI-Anbindung beinhalten, über BI-Systeme mit ML-Algorithmen, die zumindest die Algorithmenart offenlegen, aber den konkreten Algorithmus verbergen und sich mit Einstellmöglichkeiten zurückhalten, um Laienanwender mit einen Grundverständnis zu Datenanalysen, aber geringen Vorkenntnissen anzusprechen, bis zu BI-Tools, die mit einer Vielzahl von ML-Algorithmen und einer Fülle von Einstelloptionen zum Finetuning aufwarten und so für Experten mit fundiertem Fachwissen im Bereich Data Science geeignet sind. Letztlich ermöglichen feingranulare Einstellmöglichkeiten komplexere Analysen, während BI-Tools mit einem hohen Automatisierungsgrad und mit Machine Learning quasi auf Knopfdruck eher zum Lösen einfacher Problemstellungen taugen. Es zeigt sich, dass es das eine universal einsetzbare BI-System nicht gibt. Forderungen nach detaillierten Steuerungsmöglichkeiten für die ML-Algorithmen stehen der breiten Anwendbarkeit durch viele Nutzer diametral gegenüber. Insgesamt muss die Auswahlentscheidung im Unternehmen die anvisierte Nutzergruppe und deren Vorkenntnisse berücksichtigen, um das passende BI-System auszuwählen.
Gabriele Roth-Dietrich, Michael Gröschel, Benedikt Reiner

Kapitel 8. Data-Science-Projekte mit dem Vorgehensmodell „DASC-PM“ durchführen: Kompetenzen, Rollen und Abläufe

Zusammenfassung
Der Beitrag stellt anhand des Data Science Process Model (DASC-PM) und mittels einer Fallstudie dar, wie die umfassend gestalteten Projektphasen, Aufgaben und Ergebniselemente eines Data-Science-Projekts ineinandergreifen und für den individuellen Einsatzzweck ausgewählt, angepasst und umgesetzt werden können. Dies erlaubt Organisationen, ihre individuellen Fragestellungen, die sich etwa in Größe, Komplexität, Art des zu erzielenden Ergebnisses und Erfahrungslevel der beteiligten Personen unterscheiden, pragmatisch und fundiert zu bearbeiten. Es wird zudem gezeigt, wie sich die abstrakten Phasen des DASC-PM durch Kompetenz- und Rollenprofile spezifizieren lassen. Dies Spezifikation ermöglicht es, DASC-PM für verschiedene betriebliche Situationen zu nutzen, beispielsweise, um gezielt Projektmitglieder auszuwählen, Schlüsselqualifikationen zu identifizieren und einen nachhaltigen Projekterfolg sicherzustellen.
Emal M. Alekozai, Jens Kaufmann, Stephan Kühnel, Uwe Neuhaus, Michael Schulz

Anwendungen

Frontmatter

Kapitel 9. Integration erneuerbarer Energien – KI-basierte Vorhersageverfahren zur Stromerzeugung durch Photovoltaikanlagen

Zusammenfassung
In Deutschland entspricht die heutige Übertragungsnetztopologie häufig noch dem technischen Stand des einseitigen Energieflusses von zentralen Kraftwerken zu den Verbrauchern. Die Energiewende mit dem Ausstieg aus den Kernkraftwerken bis 2022 und dem Ausbau der erneuerbaren Energien auf Verteilnetzebene konfrontiert Niederspannungsnetze mit Herausforderungen wie z. B. unüberwachten Überlastungen oder Verletzungen des Spannungsbereichs. Zusätzlich erschwert die Volatilität von Lasten und erneuerbaren Energien die Vorhersage zukünftiger Netzzustände, die Planung von Präventivmaßnahmen und deren Anwendung im Bedarfsfall. In diesem Kapitel wird die Integration erneuerbarer Energien am Beispiel von Photovoltaikanlagen vorgestellt. Die Schritte der Integration umfassen dabei die notwendigen informationstechnischen Schritte wie Erfassung der Daten an der Photovoltaikanlage, deren Weiterleitung, Vorverarbeitung und Speicherung in einer Datenbank und deren Weiterverarbeitung durch weitere Dienste – in diesem Fall (a) durch KI-basierte Vorhersageverfahren, die die Stromerzeugung einer Photovoltaikanlage vorhersagen, und (b) nachgelagerte Dienste, die diese Vorhersagen für weitere Zwecke verwenden wie beispielsweise für eine Stromnetzberechnung zur Vorhersage zukünftiger Netzzustände oder für eine Preisbildung für den Strom an einer Stromladesäule.
Boris Brandherm, Matthieu Deru, Alassane Ndiaye, Gian-Luca Kiefer, Jörg Baus, Ralf Gampfer

Kapitel 10. Machine Learning für die Energiemanagementoptimierung

Zusammenfassung
In Unternehmen wie Privathaushalten gewinnt Nachhaltigkeit immer mehr an Bedeutung. Ein Ansatzpunkt zum effizienteren Umgang mit Wärmeenergie ist die Optimierung des Energiemanagements in Wohngebäuden. Dies soll am Beispiel der Analyse eines Klimatisierungsgeräts mit aktiver und passiver Wärmerückgewinnung demonstriert werden. Es zeigt sich, dass die intelligente, vorausschauende Steuerung solch einer Anlage Kosten und Ressourcen einsparen kann. In einem Projekt gemeinsam mit Studierenden der Unternehmens- und Wirtschaftsinformatik der Hochschule Mannheim wurde dazu die Klimatisierungsanlage „Combi S 302 Polar Top“ der Nilan GmbH mit statistischen Methoden des Maschinellen Lernens untersucht. Der Proof-of-Concept stellt die Kernfunktionen der Datenaufbereitung und -auswertung in einer Datenpipeline nach dem ETLA-Prinzip (Extract-Transform-Load-Analyze) zur Verfügung, die die Daten automatisch erhebt und bereinigt. Es folgt die Berechnung einer Prognose über das Verhalten der Anlage auf Basis von Wettervorhersagen lokaler Wetterdienste. Nutzer der Anlage können mit den aus den Predictive Analytics-Methoden gewonnenen Erkenntnissen die automatisierte Optimierung der Anlagenparameter erreichen und so die Effizienz der Anlage erhöhen.
Gabriele Roth-Dietrich, Rainer Gerten

Kapitel 11. Text Mining bei einer wissenschaftlichen Literaturauswertung: Extraktion von Schlüsselwörtern zur Beschreibung von Inhalten

Zusammenfassung
Schlüsselwörter sollen den Inhalt von Dokumenten in kompakter Form repräsentieren. Sie dienen bei einer wissenschaftlichen Literaturrechereche dazu, passende Publikationen zu einer Suchanfrage zuzuordnen. Wird im Rahmen einer wissenschaftlichen Arbeit eine Literaturrecherche durchgeführt, gilt es, die gefundenen Publikationen zu analysieren und ihren Inhalt auszuwerten. Hierbei kann es sich um eine Vielzahl von Publikationen handeln, sodass die Analyse des Inhalts äußerts zeitaufwendig werden kann. Dieser Beitrag beschreibt, wie im Rahmen einer wissenschaftlichen Literaturauswertung zu „Explainable AI“ die Analyse von Publikationen mithilfe von Text Mining unterstützt werden kann. Hierbei werden aus den Abstracts der gefundenen Publikationen Schlüsselwörter mithilfe von Text Mining extrahiert.
Thomas Barton, Arthur Kokoev

Kapitel 12. Identifikation relevanter Zusammenhänge in Daten mit maschinellem Lernen

Zusammenfassung
Im produzierenden Gewerbe wie der Autoindustrie und in Dienstleistungsunternehmen mit großer Infrastruktur, z. B. im Bereich der Telekommunikation, muss die Anzahl von Fehlern in den Produkten so klein wie möglich gehalten werden, um Kunden nicht zu verärgern und Kosten für Wartung und Reparatur zu minimieren. Maschinelle Lernmodelle wie Subgroup Discovery und Assoziationsregeln ermöglichen es, Zusammenhänge zwischen Produktkonfigurationen und Fehlern zu finden. Allerdings sind die Ergebnisse typischerweise zu umfangreich, um sie in Ansätze für die Fehlerreduktion umsetzen zu können. Dieses Kapitel stellt eine neue Systematik vor, anhand derer die Anzahl der gefundenen Zusammenhänge drastisch reduziert werden kann, ohne wesentliche Informationen zu verlieren.
Joshua Hammesfahr, Martin Spott

Kapitel 13. Framework für das Management und die Analyse von Fahrzeugdaten für die modellbasierte Fahrerassistenzsystementwicklung in Lehre und Forschung

Zusammenfassung
In diesem Kapitel wird die Integration eines Frameworks für das Management und die Analyse von Fahrzeugdaten für die modellbasierte Fahrerassistenzsystementwicklung in Lehre und Forschung beschrieben. Das Framework dient als Umgebung für die Entwicklung von Funktionalitäten unter Zuhilfenahme von Fahrzeugmodellen, die innerhalb der rahmengebenden digitalen Lernfabrik Wildauer Maschinen Werke entstanden sind. Des Weiteren wird beschrieben, wie ein digitales Unternehmen in der Lehre eingesetzt werden kann, um Studierenden an einer Hochschule eine möglichst reale Abbildung von in Unternehmen verfolgten Prozessen aufzeigen zu können. Dabei werden Mechanismen veranschaulicht, die sowohl für Entwicklungsprozesse als auch für den Bereich des Projektmanagements sowie den anschließenden Wissenstransfer verwendet werden können. Nachdem anhand der Beschreibung der Verwendung des Frameworks aufgezeigt wird, wie dieses in der Praxis verwendet werden kann, erfolgt ein Ausblick auf zukünftige Aktivitäten.
Tobias Peuschke-Bischof, Stefan Kubica

Backmatter

Weitere Informationen

Premium Partner