Skip to main content
Top

2021 | Book

Data Science

Konzepte, Erfahrungen, Fallstudien und Praxis

Editors: Prof. Dr. Detlev Frick, Prof. Dr. Andreas Gadatsch, Prof. Dr. Jens Kaufmann, Birgit Lankes, Prof. Dr. Christoph Quix, Andreas Schmidt, Prof. Dr. Uwe Schmitz

Publisher: Springer Fachmedien Wiesbaden

insite
SEARCH

About this book

Data Science ist in vielen Organisationen angekommen und oft alltägliche Praxis. Dennoch stehen viele Verantwortliche vor der Herausforderung, sich erstmalig mit konkreten Fragestellungen zu beschäftigen oder laufende Projekte weiterzuentwickeln. Die Spannbreite der Methoden, Werkzeuge und Anwendungsmöglichkeiten ist sehr groß und entwickelt sich kontinuierlich weiter. Die Vielzahl an Publikationen zu Data Science ist spezialisiert und behandelt fokussiert Einzelaspekte. Das vorliegende Werk gibt den Leserinnen und Lesern eine umfassende Orientierung zum Status Quo aus der wissenschaftlichen Perspektive und zahlreiche vertiefende Darstellungen praxisrelevanter Aspekte. Die Inhalte bauen auf den wissenschaftlichen CAS-Zertifikatskursen zu Big Data und Data Science der Hochschule Niederrhein in Kooperation mit der Hochschule Bonn-Rhein-Sieg und der FH Dortmund auf. Sie berücksichtigen wissenschaftliche Grundlagen und Vertiefungen, aber auch konkrete Erfahrungen aus Data Science Projekten. Das Buch greift praxisrelevante Fragen auf wissenschaftlichem Niveau aus Sicht der Rollen eines „Data Strategist“, „Data Architect“ und „Data Analyst“ auf und bindet erprobte Praxiserfahrungen u. a. von Seminarteilnehmern mit ein. Das Buch gibt für Interessierte einen Einblick in die aktuell relevante Vielfalt der Aspekte zu Data Science bzw. Big Data und liefert Hinweise für die praxisnahe Umsetzung.

Table of Contents

Frontmatter

Data Strategist Digitalisierung von Geschäftsmodellen – Big Data Technologien erfolgreich implementieren

Frontmatter
Kapitel 1. Big Data
Zusammenfassung
Die gespeicherten Daten-Volumina wachsen weltweit rasant an. Sowohl aus den sozialen Netzwerken als auch aus dem Umfeld des „Internet of Things“ werden Daten gesammelt, die meist unstrukturiert sind. Damit wachsen die Herausforderungen. Die Datenmengen müssen gespeichert, verwaltet und analysiert werden. Um sie nutzen zu können und damit Werte zu generieren, werden attraktive Anwendungsgebiete benötigt. Erst das passende Geschäftsmodell macht aus dem Datenvorrat einen potenziellen Schatz. Diverse Praxisbeispiele zeigen den Einsatz von Big Data Lösungen auf.
Uwe Schmitz
Kapitel 2. Data Literacy als ein essenzieller Skill für das 21. Jahrhundert
Zusammenfassung
Die heutige Geschäftswelt wird bestimmt durch Daten. Während das Problem normalerweise nicht ein Mangel an Daten ist, ist es vielmehr die Unfähigkeit, mit Daten adäquat umzugehen und daraus zielführende Schlussfolgerungen abzuleiten. Dabei ist Datenkompetenz heute genauso wichtig wie Lesen und Schreiben und eine Schlüsselqualifikation der Vierten Industriellen Revolution. Obgleich den meisten Unternehmen die Bedeutung von Daten in einer immer digitaleren Geschäftswelt durchaus bewusst ist, gibt es dennoch immer noch große Wissenslücken. Dieser Beitrag soll den Begriff Data Literacy und die damit verbundenen Fähigkeiten komprimiert beleuchten, während darüber hinaus mögliche Ansätze zur Integration des Themenfelds in Lehre und Praxis vorgestellt werden.
Andreas Schmidt, Thomas Neifer, Benedikt Haag
Kapitel 3. Management von Big Data Projekten
Zusammenfassung
Big Data Projekte unterscheiden sich von klassischen IT-Projekten wegen der Vernetzung mit Geschäftsmodellen hinsichtlich der Erarbeitung von Anforderungen, der wirtschaftlichen Tragweite und der Vorgehensweise in der organisatorischen Umsetzung. Der Beitrag führt zunächst in die Rahmenkonzepte des klassischen Informationsmanagements ein, um die aktuellen Trends einzuordnen. Er geht anschließend auf die aktuellen Fragestellungen und Auswirkungen der Digitalisierung ein und thematisiert hieran die Herausforderungen von Big Data Projekten. Schließlich stellt er bekannte Ansätze von Vorgehensmodellen für die Durchführung von Big Data-Projekten vor und geht auf die Reifegradmessung von Big Data in Organisationen ein. Abschließend werden Auswirkungen auf das Informationsmanagement diskutiert.
Andreas Gadatsch, Dirk Schreiber
Kapitel 4. Digital Leadership
Zusammenfassung
Die digitale Transformation verändert die Art und Weise, wie wir arbeiten, erfordert andere Qualifikationen seitens der Arbeitnehmer und verlangt neue Formen der Führung. Die Führungskräfte von morgen müssen bereit sein, ihren Führungsstil zu verändern und digitale Tools im Rahmen virtueller Führung anzuwenden. Für die erfolgreiche Verankerung von Digital Leadership im Unternehmen existieren verschiedene Konzepte und Methoden. Hierbei wird die Teamarbeit gestärkt. Ein Digital Leader muss Macht und Kontrollbefugnisse abgeben und agiert überwiegend als Coach und Motivator für sein Team.
Wilhelm Mülder

Data Architect: Informationsarchitekturen gestalten – Daten effizient verwalten

Frontmatter
Kapitel 5. Data Engineering
Zusammenfassung
Die Digitalisierung schafft eine stetig steigende Flut von Daten unterschiedlichster Art in Unternehmen, die in den Geschäfts- oder Produktionsprozessen an verschiedenen Stellen benötigt werden. Die Verfügbarkeit und Nutzbarkeit von Daten ist für die Steuerung eines Unternehmens auf verschiedenen Ebenen unentbehrlich. Zwar haben viele Unternehmen diese Notwendigkeit erkannt, jedoch stellen die vielfältigen Daten-Management-Lösungen, die in den letzten Jahren unter dem Schlagwort „Big Data“ entstanden sind, die Unternehmen vor die Herausforderung ein geeignetes „Ökosystem“ für das Daten-Management im Unternehmen aufzubauen.
Data Engineering beschäftigt sich mit verschiedenen Aspekten, die für ein effizientes und effektives Daten-Management notwendig sind. Anhand von verschiedenen Vorgehensmodellen für Data Science werden zunächst die Aufgaben charakterisiert, die zum Data Engineering zählen. Die wesentlichen Aufgaben, wie zum Beispiel die Konzeption einer Architektur für das Daten-Management, Datenmodellierung und Datenintegration, werden dann in den folgenden Abschnitten im Detail diskutiert.
Christoph Quix
Kapitel 6. Data Governance
Zusammenfassung
Die sogenannten „Megatrends“ Big Data und Industrie 4.0 bestimmen die aktuelle Forschung im Bereich der Data Governance. Die Anzahl der Datenquellen nimmt zu, wie auch die Menge der Daten und insbesondere deren unterschiedlicher Strukturierungsgrad. Die klassischen Werkzeuge für Datenhaltung und -verarbeitung und ein anforderungsgerechter Umgang mit den verfügbaren Datenmengen stößt an seine Grenzen. Die Manager in den Unternehmen verstehen Daten inzwischen als wertvolles Unternehmensgut und es wird dringend ein Ordnungsrahmen für das Datenmanagement in den Unternehmen benötigt.
Data Governance steht für ganzheitliches Management von Daten, die in einem Unternehmen oder einer Organisation verwendet werden. Es beinhaltet Richtlinien und Vorgehensweisen, um die Qualität, den Schutz und die Sicherheit der Daten zu gewährleisten und sorgt für die Einhaltung rechtlicher Vorgaben. Damit ist Data Governance für alle Mitarbeiter, die mit Daten zu tun haben, essentiell!
Detlev Frick
Kapitel 7. Einsatz von In-Memory Technologien
Zusammenfassung
Viele Unternehmen stehen aktuell vor der Herausforderung, ein stetig steigendes Datenvolumen verarbeiten zu müssen. Die richtigen Informationen sollen zum richtigen Zeitpunkt in adäquater Form, Menge und Qualität für die jeweiligen Anwender im Unternehmen verfügbar sein – und das in nur wenigen Sekunden. Traditionelle relationale Datenbanksysteme stoßen bei diesen Anforderungen häufig an ihre Grenzen. Moderne Datenbankmodelle legen ihre Daten nicht auf herkömmlichen Festplattenspeichern ab, sondern nutzen hierfür direkt den Arbeitsspeicher. Dadurch lassen sich wesentlich höhere Zugriffsgeschwindigkeiten realisieren und in der Konsequenz die betrieblichen Entscheidungsprozesse verkürzen und effizient unterstützen
Uwe Schmitz
Kapitel 8. Big-Data-Technologien
Zusammenfassung
Big Data stellt sowohl auf technischer als auch auf organisatorischer Ebene enorme Herausforderungen. Zur Bearbeitung der großen, heterogenen Datenmengen wurden in den letzten Jahren verschiedene Systeme und Konzepte entwickelt, die zu einer enormen Vielfalt an Big-Data-Lösungen geführt hat. In diesem Kapitel geben wir einen Überblick über die Technologien, die im Big-Data-Bereich entwickelt wurden. Zunächst betrachten wir die Aspekte Skalierbarkeit und Fehlertoleranz, die in allen Big-Data-Systemen aufgrund der verteilten, parallelen Verarbeitung gewährleistet sein müssen. In den folgenden Abschnitten diskutieren wir dann die Technologien, die zur Bewältigung der drei Herausforderungen Volume, Velocity und Variety genutzt werden können.
Christoph Quix
Kapitel 9. Information Data Models: Das Fundament einer guten Information Strategy
Zusammenfassung
Dieser Beitrag beschäftigt sich mit den Voraussetzungen und Leitlinien einer nachhaltig erfolgreichen Data Science Strategie. Sie soll angehenden Data Scientists und Data Architects einen Einblick in die aktuelle Wirtschaftssituation vermitteln, erklären warum aktuelle Verhältnisse normativ wirken und deren Ursprung erklären. Es wird erarbeitet, dass die Hürden zu einer nativ-homogenen Informations-Architektur systemisch sind und die Möglichkeit des Überspringens dieser Hürden maßgeblich im Bereich der Bereitschaft zur Veränderung der handelnden Individuen begründet liegen.
Weiter wird aufgezeigt, in welcher technologischen Phase der Informations-Architektur die Mehrzahl der Akteure eingeordnet werden können, der „Application Centric“ Ära. Nach einer Definition der Begrifflichkeiten Application Centric, Data Driven und Data Centric Architecture wird wiederlegt, dass die „Data Driven“ Ära eine Übergangsphase zu Data Centric Architecture darstellt und nahtlos ist. Aufgezeigt wird ebenfalls, dass eine gewisse Größe von Strukturen und deren gewachsene Organisationen ein großes Hemmnis darstellen und warum sich Startups oft mit diesen Problemen nicht so massiv konfrontiert sehen. Dem Leser wird ebenfalls vermittelt, wie Quick-Wins erzeugt werden um ein entsprechend positiveres Mindset zu erzeugen. Abschließend wird dargelegt, weshalb die Public Cloud ein Weg aus der Zwickmühle sein kann.
Probleme kann man niemals mit derselben Denkweise lösen, durch die sie entstanden sind – Albert Einstein (vgl. Einstein o. J.)
Christian Rupert Maierhofer

Data Analyst: Auswerten, Präsentieren, Entscheiden – Systematische Datenanalyse im Unternehmen

Frontmatter
Kapitel 10. Reporting multidimensionaler Daten und Kennzahlen
Zusammenfassung
Business Intelligence ist in den Unternehmen zu einem wichtigen Werkzeug im Wettbewerb geworden. Damit sind betriebswirtschaftliche Kennzahlen wieder in Fokus gerückt. Welche Kennzahlen sollten gewählt und wie können die Kennzahlen effizient ermittelt werden? Antworten dazu wurden im 1. Abschnitt zusammengefasst. Dazu sollen natürlich operative Daten in BI-Systeme transferiert werden und entsprechend aufbereitet werden. Welche Punkte dazu zu beachten sind wurden im 2. Abschnitt behandelt. Abschließend wurden noch im 3. Abschnitt die Berichtsformen und die Anforderungen an Berichte behandelt.
Detlev Frick, Birgit Lankes
Kapitel 11. Fundamentale Analyse- und Visualisierungstechniken
Zusammenfassung
Professionelle Datenanalyse basiert auf statistischen Methoden und der geschickten, (semi-)automatisierten Anwendung geeigneter Algorithmen auf zuvor aufbereiteten Datenbeständen. Während durch die fortschreitende Digitalisierung immer umfangreichere Datenmengen bereitstehen und hierfür komplexe und hochspezialisierte Werkzeuge zum Einsatz kommen, lassen sich die üblichen Fragen in Unternehmen in der Regel durch den Einsatz fundamentaler Analysetechniken lösen und die Ergebnisse nachvollziehbar grafisch aufbereiten. Der Beitrag stellt die relevanten Methoden mit ihren zugrunde liegenden Konzepten vor, gibt erste Einblicke in die Feinheiten der Anwendung und bietet Leserinnen und Lesern eine Übersicht des Feldes der Datenanalyse. Er vermittelt so die Möglichkeit, die richtigen Methoden für die ersten eigenen Analysen auszuwählen und das passende Vertiefungsgebiet zu finden.
Jens Kaufmann
Kapitel 12. Fortgeschrittene Verfahren zur Analyse und Datenexploration, Advanced Analytics und Text Mining
Zusammenfassung
Leistungsfähige Computersysteme und umfassende Datenbestände ermöglichen den Einsatz diverser, teils hochkomplexer Analyseverfahren, die nicht nur numerische Werte, sondern auch Texte und weitere Datenarten auswerten können. Grundstein einer Datenanalyse ist das Verständnis darüber, welche Daten vorliegen und welche Fragestellungen überhaupt beantwortet werden sollen. Der Beitrag zeigt, wie Daten grafisch aufbereitet werden können, um einen schnellen Einblick in deren Struktur zu erhalten und beschreibt unterschiedliche Analyseverfahren, die über die fundamentalen Methoden hinausgehen. Dabei wird auch auf die Bewertung von Entscheidungen und die Güte von einzelnen Verfahren eingegangen sowie ein Ausblick auf spezialisierte Verfahren zur Zeitreihen- und Text-Analyse gegeben. Leserinnen und Leser erhalten einen Einblick in die Möglichkeiten fortgeschrittener Methoden, möglicher Schwerpunkte zur weiteren Vertiefung und Informationen zu weiteren Schritten in der Datenanalyse.
Jens Kaufmann
Kapitel 13. Datenbasierte Algorithmen zur Unterstützung von Entscheidungen mittels künstlicher neuronaler Netze
Zusammenfassung
Künstliche neuronale Netze sind eines der aktuell vielversprechendsten Gebiete im Bereich der Künstlichen Intelligenz und des maschinellen Lernens. Sie finden in immer mehr Bereichen Anwendung und versprechen damit, einen wesentlichen Beitrag im Zuge der Digitalisierung in Unternehmen zu leisten. Künstliche neuronale Netze sind dabei ein Ansatz, aus Beispieldaten zu „lernen“ und auf diese Weise maschinelle Entscheidungsfindung und Bewertung in unterschiedlichsten Bereichen zu ermöglichen. Die Bandbreite reicht von unterstützenden Systemen bis hin zu einer vollständigen Automatisierung. Ein wesentlicher Unterschied zu klassischen Softwarelösungen liegt darin, dass zuvor kein spezifisches, schrittweises Lösungsverfahren mit festen Regeln entwickelt werden muss. Künstliche neuronale Netze haben daher einen starken Einfluss auf die Art und Weise wie Software zukünftig entwickelt wird.
Daniel Retkowitz
Kapitel 14. Künstliche Neuronale Netze – Aufbau, Funktion und Nutzen
Zusammenfassung
Niemals zuvor wurden derart gewaltige Datenmengen produziert wie in jüngster Zeit. Daraus erwächst die Erwartung, dass sich in den Daten interessante Informationen finden lassen, wenn es nur gelingt, dieses hohe Datenvolumen zielgerichtet auszuwerten. Sowohl in der Wissenschaft als auch zunehmend in der Praxis werden daher Verfahren und Technologien diskutiert, die interessante Muster in umfangreichen Datenbeständen aufdecken und Prognosen über zukünftige Ereignisse und Gegebenheiten ermöglichen.
Zunehmende Bedeutung erlangt in diesem Kontext die Beschäftigung mit künstlichen Neuronen und den zugehörigen künstlichen neuronalen Netzen, welche auf eine insgesamt fast 80-jährige Entwicklung zurückblickt. Zwar hat in dieser Zeit eine stetige Weiterentwicklung der Konzepte stattgefunden, allerdings greifen bis heute die ursprünglich zugrunde gelegten basalen Annahmen und Sichtweisen. Inzwischen finden künstliche neuronale Netze Anwendung für unterschiedlichste Aufgabenstellungen in einem weiten Spektrum ökonomischer und nicht-ökonomischer Einsatzbereiche.
Der vorliegende Beitrag beschreibt den Aufbau sowie die Funktionsweise von künstlichen neuronalen Netzen und greift dabei auch neuere Entwicklungen auf. Aus einer betriebswirtschaftlichen Perspektive erweisen sich vor allem die Nutzenpotenziale als relevant, sodass auch hierauf eingegangen wird.
Anja Tetzner, Tom Kühne, Peter Gluchowski, Melanie Pfoh
Kapitel 15. Bayesian Thinking in Machine Learning
Wie ein Pfarrer unbewusst die Statistik revolutionierte
Zusammenfassung
Das Bayes-Theorem ermöglicht die Integration von Vorwissen und Erfahrung in die Datenanalyse und schafft dadurch Instrumente, die einen Mehrwert gegenüber klassischen multivariaten Verfahren hinaus gehen. Im Rahmen des maschinellen Lernens tritt es insbesondere in Regressions- und Klassifikationsfragestellungen in den Vordergrund und dient dort u. a. zur Klassifikation und Analyse von Texten, der Erkennung von Spam-Nachrichten oder auch Spracheingaben bei Sprachassistenten. Dieser Beitrag gibt einen Einblick in die Grundprinzipien des Bayes-Theorems, diskutiert seine Rolle in Regressions- und Klassifikationsfragestellungen und zeigt exemplarisch auf, wie er im Rahmen des Naive Bayes Classifiers im maschinellen Lernen zum Einsatz kommt.
Thomas Neifer, Andreas Schmidt, Dennis Lawo, Lukas Böhm, Özge Tetik

Anwendungsorientierte Data Science

Frontmatter
Kapitel 16. Text Mining: Durchführung einer Sentiment Analysis mit SAP HANA
Zusammenfassung
In diesem Beitrag wird das Vorgehen zur erfolgreichen Durchführung einer Sentiment Analysis mit SAP HANA beschrieben. Es wird einer gekürzten Version eines Vorgehensmodells gefolgt, welches im Rahmen der Masterthesis von Herrn Bachmaier erarbeitet wurde. Im Detail wird beschrieben, welche konkreten Tätigkeiten in SAP HANA umzusetzen sind, um grundlegend eine Stimmungsanalyse auf Basis von Twitterdaten durchzuführen. Dazu gehören in diesem Fall die zunächst notwendige Datenakquise sowie u. a. Tokenization, Stop Word Removal, Stemming und Classification. Abschließend erfolgt die Betrachtung der Ergebnisse der Sentiment Analysis.
Patrick Bachmaier
Kapitel 17. Weiterbildung in Data Science
Zusammenfassung
In den letzten Jahren wurden von verschiedenen Anbietern Lehr- und Weiterbildungskurse im Bereich Data Science entwickelt, die unterschiedliche Zielgruppen ansprechen sollen. Von Hochschulen und Universitäten wurden vor allem Master-Programme entwickelt, die von Studierenden besucht werden können, die schon einen Abschluss mit Informatik-Bezug erreicht haben. Aufgrund der fortschreitenden Digitalisierung gibt es zunehmend Angebote zur beruflichen Weiterbildungen in der Digitalisierung, aber insbesondere auch für Data Science. In immer mehr Fachgebieten sind zumindest Grundlagenkenntnisse der Data Science erforderlich, da Daten erfasst, verwaltet und analysiert werden müssen. Daher werden Weiterbildungen für Data Science allgemein oder für Data Science in bestimmten Anwendungsbereichen verstärkt nachgefragt.
In diesem Kapitel geben wir einen Überblick über verschiedene Weiterbildungsangebote, ausgehend von Kompetenzfeldern, die für Data Science definiert wurden. Basierend auf den Kompetenzfeldern ist ein Vergleich der Studiengänge und Weiterbildungsangebote möglich.
Christoph Quix
Kapitel 18. Plattformökonomie für Data Plattformen
Zusammenfassung
Es liegt nahe, dass in der Datennutzung von Unternehmen ähnliche Wertschöpfungsprinzipien gelten, wie bei plattformbasierten Geschäftsmodellen wie Amazon und AirBnB. Der Beitrag „Plattformökonomie für Data Plattformen“ untersucht, welche Design-Prinzipien den erfolgreichen Plattformen zugrunde liegen und wie sich diese auf Data Plattformen übertragen lassen. Dafür wird das Konzept einer Plattform auf ein Data-Umfeld übertragen sowie Plattformteilnehmer und Netzwerkeffekte definiert. Durch erste Erkenntnisse zu Design-Prinzipien können Data Plattformen so gesteuert werden, dass Nutzeffekte gezielter herbeigeführt und realisiert werden.
Valeria Knoll, Alexa Scheffler
Kapitel 19. Akzeptanz und Nutzung von maschinellem Lernen und Analytics im Rechnungswesen und Controlling
Zusammenfassung
Rechnungswesen und Controlling wirken wie mögliche Paradebeispiele für den Einsatz von maschinellem Lernen und Analytics. Große Mengen strukturierter Daten werden tagtäglich erzeugt, verdichtet und zur Entscheidungsfindung aufbereitet. Dennoch scheinen die Akzeptanz und Nutzung dieser beiden Technologien weit hinter den Prognosen der letzten Jahre zurückzustehen. Auch fehlt es an Treibermodellen, die beim Verständnis dieser Diskrepanz unterstützen könnten. Vor diesem Hintergrund stellt der folgende Beitrag die Ergebnisse einer Studie zur Akzeptanz und Nutzung von maschinellem Lernen und Analytics vor. Die Ergebnisse zeigen, dass für große Teile der befragten Führungskräfte die Aufgabencharakteristika den stärksten Einfluss auf die eigentliche Nutzung haben. Der Wunsch, die Technologien zunächst parallel zu bestehenden Lösungen zu benutzen, ist ein Indikator für eine geringere Nutzung. Darüber hinaus wird die Vermutung bestätigt, dass Führungskräfte in höheren Positionen tendenziell weniger vertraut mit Methoden aus dem Bereich des maschinellen Lernens sind. Der Beitrag schließt mit vier Handlungsempfehlungen zu den Stichworten Intelligenz, Investitionen, Implementierung und Incentivierung.
Markus Eßwein, Domenica Martorana, Martina Reinersmann, Peter Chamoni
Kapitel 20. Durch Daten zu neuen Geschäftsmodellen und Prozessoptimierungen – im Kontext von Car-Sharing
Im Praxisbeispiel erfahren Sie, wie Sie es besser nicht machen sollten
Zusammenfassung
Durch die optimale Nutzung von Daten können neue Geschäftsmodelle entwickelt werden. Jedoch sind dafür nicht jegliche Arten von Daten geeignet, sondern vornehmlich Daten, die die Interessen und Bedürfnisse von Menschen beziehungsweise potenziellen Kunden widerspiegeln und dadurch für die Neuproduktentwicklung oder die Optimierung bestehender Angebote genutzt werden können. Genauso können durch neue Produkte oder Angebote neue und gegebenenfalls vielfältigere Daten eingeholt und analysiert werden, wodurch Optimierungen möglich werden und neue Kunden angesprochen werden können, die vorher möglicherweise gar nicht im Fokus standen. Des Weiteren können durch dokumentierte Vorgehensweisen bei Projekten sogenannte Lessons Learned durchgeführt werden, um zukünftige Prozesse zu optimieren und aus Fehlern zu lernen.
Eva Schoetzau
Kapitel 21. Einsatz von Logit- und Probit-Modellen in der Finanzindustrie
Zusammenfassung
Ein häufiges Anwendungsfeld von statistischen Verfahren in der Finanzindustrie ist die Ermittlung von Krediten, die von einem Ausfall betroffen sind. Der vorliegende Beitrag behandelt mit den Logit- und Probit-Modellen zwei Einsatzmöglichkeiten von Verfahren des überwachten statistischen Lernens in der Finanzindustrie und überprüft ihre Eignung zur Modellierung von Kreditausfallwahrscheinlichkeiten. Als Analysewerkzeug wird RStudio verwendet. Die Datengrundlage ist ein fiktiver Datenbestand, dessen Zusammensetzung sich an den Vorarbeiten von Altmann et al. orientiert. Im Vergleich wird deutlich, dass alle vorgestellten Probit- und Logit-Modellvarianten eine ansprechende Trennschärfe und Prognosefähigkeit für den betrachteten Anwendungsfall zeigen und sie darüber hinaus praktisch identische Ergebnisse liefern.
Uwe Rudolf Fingerlos, Alexander Pastwa
Backmatter
Metadata
Title
Data Science
Editors
Prof. Dr. Detlev Frick
Prof. Dr. Andreas Gadatsch
Prof. Dr. Jens Kaufmann
Birgit Lankes
Prof. Dr. Christoph Quix
Andreas Schmidt
Prof. Dr. Uwe Schmitz
Copyright Year
2021
Electronic ISBN
978-3-658-33403-1
Print ISBN
978-3-658-33402-4
DOI
https://doi.org/10.1007/978-3-658-33403-1

Premium Partner