Skip to main content

2023 | Buch

Künstliche Intelligenz und Data Science in Theorie und Praxis

Von Algorithmen und Methoden zur praktischen Umsetzung in Unternehmen

herausgegeben von: Andreas Gillhuber, Göran Kauermann, Wolfgang Hauner

Verlag: Springer Berlin Heidelberg

insite
SUCHEN

Über dieses Buch

Dieser Sammelband verbindet theoretische Grundlagen und praktische Anwendungen von Künstlicher Intelligenz (KI) und Data Science: Anerkannte Experten stellen in ihren Beiträgen den aktuellen Stand in Forschung und Wirtschaft dar – und bieten so einen einzigartigen Überblick über aktuelle Konzepte und ihre Umsetzung in Unternehmen.

Im ersten Teil des Buchs werden die Methoden und Algorithmen skizziert, die sich größtenteils aus einer Kombination von Statistik und Informatik ergeben und auf Verfahren des Maschinellen Lernens bis hin zu Deep Learning und KI basieren. Im zweiten Teil wird die konzeptionelle Umsetzung in der Praxis skizziert: Hier wird insbesondere aufgezeigt, welche Herausforderungen in der Praxis auftreten – ob nun bei der Einbettung der Daten-Use-Cases in eine Gesamtstrategie oder bei der Produktivsetzung, Weiterentwicklung und dem Betrieb von Daten-basierten Lösungen. Der dritte Teil zeigt das breite Potpourri von Data Science in der Praxis: Branchengrößen wie Allianz, ADAC, BMW, Deutsche Bahn, Lufthansa, REWE, RTL, St. Galler Stadtwerke, SwissRe und viele weitere zeigen konkret, welche Erfahrungen sie bei ihren Projekten gesammelt haben. Fachartikel von über 20 namhaften Unternehmen decken die spezifischen Anforderungen ihrer jeweiligen Branchen ab.

Das Buch möchte die interdisziplinäre Diskussion und Kooperation zwischen Wissenschaft und Wirtschaft fördern und richtet sich daher an verschiedene Lesergruppen:

Studierende und Absolventen, die Orientierung für die eigene Laufbahn suchen.Forschende und Lehrende, die einen Einblick in praxisrelevante Einsatzgebiete erhalten möchten.Anwender, Praktiker und Entscheider, die sich über Chancen und Herausforderungen von KI in der Praxis informieren möchten.

Inhaltsverzeichnis

Frontmatter

Grundlagen von Data Science

Frontmatter
Kapitel 1. Geschichte von Data Science
Zusammenfassung
Data Science kann als neu(er)es wissenschaftliches Gebiet angesehen werden. Oft definiert man es als Kombination von Statistik und Informatik mit dem speziellen Fokus auf Anwendungen. Auch wenn die Beschreibung recht gut passt, so ist sie doch etwas zu grob. Wir wollen daher in dem nachfolgenden Kapitel die geschichtliche Entwicklung von Data Science etwas genauer beschreiben. Wir beleuchten dabei die zwei „Kulturen“, die vereinfacht gesprochen aus der Statistik und aus der Informatik herrühren und heute im Bereich Data Science eine Symbiose bilden.
Göran Kauermann
Kapitel 2. Data Science in der Ausbildung
Zusammenfassung
Der Boom von Data Science hat zu einem ebensolchen Boom im Bereich der Ausbildung geführt. An zahlreichen Universitäten wurden Studiengänge für Data Science eingerichtet und Professuren im Bereich Data Science geschaffen. Die Inhalte der Studiengänge sind dabei recht heterogen, sodass sich ein Blick in die Curricula lohnt, um zu erfahren, welche Schwerpunkte Universitäten und Hochschulen jeweils setzen.
Göran Kauermann
Kapitel 3. Quantifizierung von Unsicherheit
Zusammenfassung
Jegliche Vorhersage unterliegt einem Grad an Unsicherheit, insbesondere wenn sie datenbasiert ist. In Zeiten von Big Data scheint dabei oberflächlich betrachtet die Unsicherheit mit wachsendem Datenvolumen abzunehmen, sodass man meinen könnte, das Thema Unsicherheit sei in Zeiten von massiven Daten und komplexen Machine Learning Algorithmen nicht mehr relevant. Gerade dies wäre aber ein falscher Schritt und ein Trugschluss, denn das Thema Quantifizierung von Unsicherheit bleibt so relevant wie eh und je.
Göran Kauermann
Kapitel 4. Maschinelles Lernen
Zusammenfassung
In diesem Kapitel fassen wir die Grundlagen des Maschinellen Lernens (Machine Learning) zusammen.
Damian Borth, Eyke Hüllermeier, Göran Kauermann
Kapitel 5. Strukturierte und unstrukturierte Daten
Zusammenfassung
Statistische Methoden und maschinelle Lernverfahren kann man sich vorstellen als Algorithmen, die einen Datensatz als „Eingabe“ erhalten und ein Modell, eine Parameterschätzung oder eine Prädiktion als „Ausgabe“ liefern. An die Eingabe werden dabei in der Regel spezielle Erwartungen gerichtet, vor allem im Hinblick auf die Struktur und das Format der Daten. Die meisten Methoden operieren auf „tabellarischen“ Daten, also Daten in Form einer Tabelle, in der jede Zeile zu einer Beobachtung korrespondiert und jede Spalte einer Variablen entspricht (synonym werden hier auch Begriffe wie Attribut oder Feature verwendet).
Wolfgang Reuter, Anna Korotkova, Linh Nguyen
Kapitel 6. Visualisierung und Exploration
Zusammenfassung
Visualisierung ist die optische Darstellung oder Veranschaulichung (Dudenredaktion o. J.). Was die Visualisierung im Umfeld von Data Science angeht, werden verschiedenste Begriffe zur Bezeichnung des optischen Darstellens abstrakter Daten verwendet. Die drei Kernbegriffe sind Datenvisualisierung, Informationsvisualisierung und Visuelle Analyse.
Kathrin Guckes
Kapitel 7. Datenethik zwischen gesellschaftlichem Anspruch und betrieblicher Praxis
Zusammenfassung
Die Ausweitung von Künstlicher Intelligenz und Maschinellem Lernen auf viele Alltagsbereiche führte zum Aufkommen großer gesellschaftlicher Ängste und Unsicherheiten, so etwa bezüglich möglicher Diskriminierung im digitalen Raum oder der Entstehung einer „Superintelligenz“. Das Thema Datenethik spielt deshalb eine zunehmend wichtige Rolle, und zwar insbesondere in wirtschaftlichen, zunehmend aber auch in medizinischen und pädagogischen Kontexten.Nach einer allgemeinen Einführung in die Geschichte der Datenethik werden in diesem Beitrag vier Geltungsbereiche der Datenethik aufgegriffen: eine datenethische Individualethik, eine datenethische Professionsethik, eine datenethische Institutionenethik und eine datenethische Sozialethik mit Blick auf die Gesamtgesellschaft. Ziel der Datenethik sollte dabei das verantwortliche Handeln ihrer Akteure sein, auf individueller (Personen), institutioneller (Unternehmen, Universitäten) und politischer Ebene (Staaten und Gesetzgeber).
Ulrich Hemel

Data Science in der Praxis

Frontmatter
Kapitel 8. Data Science in der Praxis
Zusammenfassung
Allenthalben schreibt man der Corona-Krise die positive Seite zu, als Beschleuniger der Digitalisierung in unserer Gesellschaft zu wirken. Was gut ist, schließlich liegen wir diesbezüglich laut EU-Index für digitale Wirtschaft und Gesellschaft im europäischen Vergleich gerade mal auf Platz 14 – von 28 Staaten. Bei genauerer Betrachtung aber relativiert sich das Bild sehr schnell.
Andreas Gillhuber
Kapitel 9. Data Science Use Cases
Zusammenfassung
Für die datengestützte und Data Science basierte Anwendung in der Praxis hat sich der Begriff „Use Case“ weitläufig etabliert. Im Folgenden werden für den Prozess eines Use Cases ein Vorgehensmodell, die effektive Auswahl und Priorisierung von Use Cases sowie mögliche Metriken diskutiert.
Ludwig Brummer, Andreas Gillhuber
Kapitel 10. Skalierbare und wertschaffende KI-Implementierung in der Luftfahrt
Zusammenfassung
In der Luftfahrtindustrie geht es – wie in vielen anderen Industrien – darum, Prozesse zu optimieren, um vielfache Effizienzen heben zu können. Die Prozesse sind daher auch aufgrund von strikten Sicherheitsanforderungen hoch standardisiert. Neben diversen KI-Anwendungen ermöglicht dies auch, Prozesse effizienter aber auch weniger fehleranfällig und nachhaltiger zu gestalten sowie Aufgaben zu automatisieren, die bisher nicht automatisiert werden konnten.
Susan Wegner
Kapitel 11. Künstliche Intelligenz: Anwendungen und Werkzeuge in der Automobilindustrie
Zusammenfassung
Künstliche Intelligenz (KI) kommt zunehmend im Alltag, in der Wissenschaft, aber auch in verschiedenen Bereichen der Automobilindustrie zum Einsatz. KI ermöglicht intelligenter Funktionen im Produkt und in Prozessen entlang der vollständigen automobilen Wertschöpfungskette. Zukünftig werden alle kritischen Anwendungen KI in unterschiedlicher Form nutzen.
Die Entwicklung und Einführung von KI-Anwendungen im industriellen Bereich ist aufgrund mehrerer Aspekte besonders herausfordernd: Komplexe Datenflüsse und Abhängigkeiten und diverse Infrastrukturkomponenten bestehend aus Hardware und Software verteilt von der Cloud bis zur Edge müssen gemanagt werden. Eine der größten Herausforderungen ist die Erstellung praxistauglicher Machine-Learning (ML)-Modelle. Diese benötigen nicht nur große Mengen an Daten, sondern auch komplexe Aufbereitungs- und Labeling-Prozesse.
Ziel dieses Abschnitts ist es, einen Überblick von Anwendungsfällen der KI in der automobilen Wertschöpfungskette zu geben. Anhand eines Beispiels aus der Qualitätsanalyse in der Elektromotorenfertigung beschreiben wir als Mitarbeiter eines Automobilherstellers, wie die genannten Herausforderungen adressiert werden können. Wichtig ist hier insbesondere ein gesamthafter, interdisziplinärer Ansatz, der Technologien, Methoden, Tools, Prozesse und Kompetenzen vereint.
Andre Luckow, Joscha Eirich, Kai Demtröder
Kapitel 12. Architekturen und Technologien für den Data Lake
Zusammenfassung
Lange Zeit galt das Data Warehouse als das zentrale Architekturkonzept für dispositive Reporting- & Analysezwecke. Im Zuge der zunehmenden Digitalisierung und der intensiven Diskussion um Big Data und der darauf aufsetzenden datenbasierten Use Cases hat mittlerweile jedoch der Data Lake dem klassischen Data Warehouse den Rang abgelaufen. In diesem Beitrag wird nach einer Einordnung das Konzept des Data Lakes vorgestellt und gängige Architektur- und Technologiemuster der Praxis werden skizziert.
Carsten Dittmar, Peter Schulz
Kapitel 13. Big Data bringt Einsparungen in Milliardenhöhe
Zusammenfassung
Die Nutzung von Maschinellem Lernen ist eine der Kernanwendungen, um Produktionsverfahren mithilfe Künstlicher Intelligenz zu verbessern. Der Ansatz bringt jedoch sehr spezielle Anforderungen mit sich, die weit über das Maschinelle Lernen hinausgehen. Obschon die Akzeptanz dieser Technologie nur sehr langsam voranschreitet, gibt es hierzu allerhand Anwendungen – mit mehr oder weniger großem Erfolg.
Thomas Froese

Beispiele aus der Praxis

Frontmatter
Kapitel 14. (Rück-)Versicherung
Zusammenfassung
In diesem Abschnitt diskutieren wir daten- und KI-gestützte Anwendungsfälle aus dem Versicherungsbereich.
Wolfgang Hauner
Kapitel 15. Die AI Factory der ERGO
Zusammenfassung
Daten sind für (Erst-)Versicherer wichtige strategische Vermögenswerte. Dennoch scheinen erfolgreiche Advanced-Analytics-Projekte, die auf dem über Jahre gewachsenen Datenschatz aufbauen, eher die Ausnahme als die Regel zu sein. Der Nutzen aus dem Einsatz von Data Science bleibt hinter den Erwartungen zurück. Dieser Beitrag zeigt mögliche Ursachen auf und erläutert, wie ERGO sich dieser Herausforderung stellt. So ist das Ziel, die Ende-zu-Ende-Umsetzung von AI-Anwendungsfällen zu skalieren und schrittweise zu einem industrialisierten AI-Umsetzungsprozess zu gelangen, ein wesentlicher Treiber für den Aufbau einer dedizierten Artificial Intelligence IT-Plattform bei ERGO.
Felix Wenzel, Alexander Haag
Kapitel 16. Daten und Rückversicherung: Eine ewige Liebe
Zusammenfassung
Im Folgenden sehen wir die Bedeutung von Daten und KI bei einem global tätigen Rückversicherer.
Monica Epple, Maya Bundt
Kapitel 17. Automotive & Manufacturing
Zusammenfassung
Die daten- und KI-gestützten Use Cases erlangen in der Automobil- und Maschinenbaubranche schon seit vielen Jahren steigende Bedeutung.
Joscha Eirich, Andre Luckow, Kai Demtröder
Kapitel 18. Computer Vision based Deep Learning zur Reifenwanderkennung
Zusammenfassung
Rund um den Reifen gibt es viele Arbeitsschritte, die bis heute manuell durchgeführt werden. Auch wenn in absehbarer Zeit Nearfield-Technologien (wie zum Beispiel RFID) jeden einzelnen Reifen eindeutig identifizierbar machen, werden viele Prozesse noch eine ganze Weile auf manuell lesbare Informationen angewiesen sein. Bisher werden dazu in der Reifenpresse Informationen auf die Seitenwand des Reifens geprägt.
Holger Großkreutz, Dubravko Dolic
Kapitel 19. Autonomes Fahren und das Projekt KI-Wissen
Zusammenfassung
Autonomes Fahren ist zentraler Bestandteil der Mobilitätskonzepte der Zukunft. Die in Systeme des Autonomen Fahrens integrierten Deep-Learning-Ansätze stellen Entwickler vor Herausforderungen des enormen Datenbedarfs und fehlender Transparenz solcher Modelle. Insbesondere an Lösungen für genau diese Herausforderungen arbeiten Partner aus der Industrie und Forschung im Rahmen des Projektes KI-Wissen, welches Teil der VDA-Leitinitiative der KI-Strategie der deutschen Bundesregierung ist. Dabei geht es um die Entwicklung und Einsatz von Methoden zur Wissensintegration, Erklärbarkeit und Abgleich von Modellvorhersagen mit Weltwissen, die die Dateneffizienz und Transparenz in den für die Anwendung üblichen Deep-Learning-Ansätzen fördern sollen. Es werden einige Beispiele solcher Ansätze und ihre Anwendung im Bereich des autonomen Fahrens erklärt, u. A. die LIME-Methode, Analyse der Repräsentationen im latenten Raum, Surrogate Modelle, Saliency-Methoden, Vision-Language-Modelle und Methoden zur Wissenskonformität der Modelle.
Luca Bruder, Dina Krayzler
Kapitel 20. Energiewirtschaft
Zusammenfassung
Aufgrund von Veränderungen in der Charakteristik der Energieproduktion spielen Prognosen eine zunehmend wichtige Rolle für stabile Stromnetze. Die St.Galler Stadtwerke arbeiten mit der Universität St.Gallen in einem gemeinsamen Projekt daran, die Prognosefähigkeit von Meteodaten zu verbessern, um zuverlässigere Vorhersagen für die Einspeisemengen von Strom aus Photovoltaikanlagen zu erhalten. Dazu setzen sie auf maschinelles Lernen und testen verschiedene Modellansätze im realen Umfeld, die sukzessive weiterentwickelt werden.
Philipp Ditzel, Michael Mommert, Wolfgang Korosec
Kapitel 21. Transport & Logistik
Zusammenfassung
Im Industriebereich Transport und Logistik sind u. a. die Deutsche Lufthansa und die Deutsche Bahn Vorreiter bei der Einführung und Nutzung KI-unterstützter Use Cases.
Christian Spannbauer, Sebastian Weber
Kapitel 22. Die Entwicklung eines Kartellscreening-Tools bei der Deutsche Bahn AG
Zusammenfassung
Zur Aufdeckung und Vermeidung von Kartellen in der Lieferkette haben Einkauf und Rechtsabteilung der Deutschen Bahn ein innovatives Kartellscreening-Tool entwickelt. Datenbasiert, algorithmengestützt und automatisiert werden Muster in Preisen und Geboten von Lieferanten identifiziert und visualisiert, die auf eine Koordination kartellbeteiligter Lieferanten hindeuten. Projekt und Screening-Tool sind gute Beispiele dafür, dass sich durch Data Science Methoden neuartige Analyseansätze umsetzen lassen, die Menschen als Anwender des Tools überhaupt erst in die Lage versetzen, zielgerichtet als auffällig identifizierte Beschaffungsvorgänge weitergehend betrachten und bewerten zu können. Und durch die Vermeidung von Kartellabsprachen können Beschaffungskosten gesenkt und fairer Wettbewerb gefördert werden. So ist der Kartellscreening-Ansatz der Deutschen Bahn sicherlich auch für andere Unternehmen von Bedeutung.
Hannes Beth, Livia Kaiser
Kapitel 23. Datenstrategie „Mehrwert durch Daten und KI“ professionalisiert die Digitalisierung der Bahn
Zusammenfassung
Mit mehreren Millionen Reisenden, tausenden Zügen sowie unzähligen Fahrzeug- und Infrastrukturdaten sitzt die Deutsche Bahn AG (DB) auf einem enormen Datenschatz, den es zu nutzen gilt. Um einen Wert aus den Daten zu ziehen, setzt die DB die Datenstrategie „Mehrwert aus Daten und KI“ um. Im ersten Schritt müssen diese Daten auffindbar gemacht werden, bevor sie genutzt werden können.
Oliver Wittmaier, Anna Einhorn, Ursula Besbak, Nicholas Drude
Kapitel 24. Wie Künstliche Intelligenz helfen kann, die Pünktlichkeit der Bahn zu verbessern
Zusammenfassung
Disposition ist die Koordination des Eisenbahnverkehrs und kann einen Beitrag zur Pünktlichkeit leisten. Dispositionsentscheidungen sind komplex und müssen meist unter Zeitdruck regulierungskonform getroffen werden. Bei der Entscheidungsfindung können KI-basierte Verfahren unterstützen.
Hannah Richta
Kapitel 25. Gesundheitswesen, Chemie/Pharma
Zusammenfassung
Auch im Gesundheitsweise sowie der Chemie- und Pharma-Branche gibt es zahlreiche Use Cases für KI, wie wir im Folgenden vorstellen.
Wolfgang Reuter
Kapitel 26. Retail & Consumer Products, Media
Zusammenfassung
KI-gestützte Verfahren finden bei der RTL Deutschland GmbH ihren Einsatz in verschiedensten Bereichenvon Produktion bis zur Ausspielung von Inhalten. Hierzu zählen sowohl Planungs-, Prognose- undEntscheidungsunterstützungssysteme in Produktions- und Vertriebsprozessen, als auch solche in direktemNutzerkontakt wie Empfehlungs-, Personalisierungs- und Suchsystemen. Letztere werden unter anderemim Streaming-Service RTL+ eingesetzt. Im Rahmen dieses Abschnittes wird eine dieser neuronalenSuchsysteme auf technischer Ebene illustriert. Grundlage bilden dabei kontinuierliche Datenanalysen diedas Potenzial der Verbesserung des Sucherlebnisses aufdecken konnten, indem die Anzahlfehlgeschlagener Suchanfragen verringert wird. Es wird illustriert wie ein hochspezialisiertes, neuronalesSuchsystem entwickelt und end-to-end ausgerollt wird. Die Erfolgsmessung zeigt dabei, dass bis zu 80 %der fehlgeschlagenen Suchen verhindert werden konnten und die Click-Through-Rate aufSuchergebnissen um bis zu 26 % erhöht wurde.
Karin Immenroth, Marc Egger
Kapitel 27. Automatische Klassifikation von Points-of-Interest für passgenaue Empfehlungen von Reise- und Freizeitaktivitäten in der ADAC Trips App
Zusammenfassung
Der ADAC versteht sich als Mobilitätsbegleiter für seine Mitglieder – individuell in jeder Lebenslage, an jedem Ort zu jeder Zeit – und nutzt dabei digitale Möglichkeiten. Dies belegt er auch bei der Weiterentwicklung touristischer Services und Reiseinformationen. Im Jahr 2018 hat er sich mit der ADAC Trips App der Herausforderung gestellt, Reiseempfehlungen bzw. Empfehlungen zu Points-of-Interest (POIs) möglichst passend zu den individuellen Freizeitmotivationen seiner Mitglieder bereitzustellen.
Astrid Rohmfeld, Christina Sievers, Florian Leser, Nico Becker
Kapitel 28. Modellierung der Nachfrageunsicherheit zur gezielten Steuerung auf Ziel-Servicelevel
Zusammenfassung
Beim REWE-Lieferservice können Kundinnen und Kunden ihre Lebensmittel online bestellen und sich liefern lassen. Der Online-Shop bietet mit ca. 12.000 unterschiedlichen Artikeln ein ähnlich großes Artikelangebot wie ein durchschnittlicher stationärer REWE-Markt. Dazu zählen auch kühlpflichtige Artikel aus den Bereichen Frische und Tiefkühl.
Matthias Ulrich, Robin Senge
Metadaten
Titel
Künstliche Intelligenz und Data Science in Theorie und Praxis
herausgegeben von
Andreas Gillhuber
Göran Kauermann
Wolfgang Hauner
Copyright-Jahr
2023
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-66278-6
Print ISBN
978-3-662-66277-9
DOI
https://doi.org/10.1007/978-3-662-66278-6

Premium Partner