Skip to main content

2021 | OriginalPaper | Buchkapitel

4. Werttreiberanalysemodell

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Im Folgenden soll ein Modell entwickelt werden, das im Controlling bei der Identifikation von Werttreibern unterstützt. Dabei soll der Blick in die Planung ‚ex ante‘ fokussiert werden. Damit wird der Zukunftsorientierung als Anforderung an eine Kennzahl entsprochen. Es wird ein synthetisches Modell vorgestellt. An diesem soll getestet werden, ob sich die Werttreiberanalyse mit den Möglichkeiten KNN koppeln lässt.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Anhänge
Nur mit Berechtigung zugänglich
Fußnoten
1
Zur Anforderung der Zukunftsorientierung an ein Kennzahlensystem siehe Abschnitt 2.​1.​4.​1.
 
2
Vergleiche hierzu Abschnitt 2.​2.
 
3
Zum Konzept des EVA siehe Abschnitt 2.​3.​2. Es wird darüber hinaus davon ausgegangen, dass die Herausforderung der Anpassungen erfüllt seien. Zu den Anpassungen siehe ebenfalls Abschnitt 2.​3.​2.
 
4
Zur Einordnung der Anforderung und inwieweit die Annahme des Erfüllens dieser durch den EVA gegeben ist siehe Abschnitt 2.​1.​4.
 
5
Zum ‚no-free-lunch‘-Theorem siehe Goodfellow, Bengio und Courville 2016, S. 116. mit Verweis auf Wolpert 1996.
 
6
Siehe zu den Eigenschaften der potenziellen Werttreiber Abschnitt 2.​4.
 
7
Die verwendete Programmiersprache ist Python. Zur genauen Angabe der Versionen von Paketen siehe Anhang 1 im elektronischen Zusatzmaterial.
 
8
Siehe Abschnitt 2.​3.​2.
 
9
Vgl. Goodfellow, Bengio und Courville 2016, S. 98.
 
10
An dieser Stelle ist der Entscheidungsträger mit in die Modellierung einzubeziehen. Es sind weitere Vorgehensweisen denkbar. So könnten andere Verteilungen gezogen werden oder entsprechend des Konzepts ‚Wisdom of Crowds‘ nach Surowiecky Überlegungen angestellt werden, um die wahrscheinlichste Verteilung durch die Offenlegung von ‚hidden information‘ zu nutzen und ein der jeweilige Situation maßgeschneiderten Datensatz zu erzeugen. Zum Konzept ‚Wisdom of Crowds‘ siehe Surowiecki 2004. Zum Thema der ‚hidden information‘ im Kontext der Wertorientierung siehe Pape 2010. Jedoch sei des Weiteren angemerkt, dass diese Detailtiefe nicht unbedingt als zielführend zu charakterisieren ist, da es hier zunächst darum geht, eine Datenbasis zu generieren, anhand welcher das später zu erstellende KNN die Konstellation von Werten auf den Werttreiber bezieht. Zeitreihen bedingte Effekte sind an dieser Stelle der beabsichtigten Modellierung nicht zwangsläufig zielführend.
 
11
In der Fachdisziplin des maschinellen Lernens hat sich der Begriff des ‚Sets‘ als abgekürzte Begrifflichkeit für Datensätze durchgesetzt.
 
12
Siehe dazu Abschnitt 3.​2.
 
13
Hier sei a = Erlöse; b = Kosten; c = Kapital; d = Kapitalkostensatz.
 
14
Zur modularen Bauweise KNN die durch weitere Systemteile erweitert werden können siehe Goodfellow, Bengio und Courville 2016; Hinton, Osindero und Teh 2006. Zur generellen Idee des Controlling und Rechnungswesen integrierenden Ansatzes, der als Inspiration für die Integration hier maßgeblich ist siehe Richter 2002.
 
15
Vgl. Japkowicz und Stephen 2002.
 
16
Vgl. Chawla u. a. 2002.
 
17
Im maschinellen Lernen besteht allgemein die Gefahr des Overfitting. Dies bedeutet, dass die approximierte Funktion zu sehr auf einen Einzelfall zugeschnitten ist. Insofern die generierten Daten also einen Einzelfall darstellen, kann der generelle Fall nicht durch das System erlernt werden. Siehe zur Zusammenfassung der Themen Overfitting und Underfitting im Kontext des ‚Occam’s Razor‘ die Ausführungen in Goodfellow, Bengio und Courville 2016, S. 114 mit Verweis auf Vapnik 1982.
 
18
Vgl. Chawla u. a. 2002.
 
19
Vgl. Hsu u. a. 2009, S. 2.
 
20
Eigene Darstellung.
 
21
Vgl. Hsu u. a. 2009, S. 2.
 
22
Vgl. Y. A. Le Cun u. a. 2012, S. 15.
 
23
Vgl. Raschka 2015, S. 26.
 
24
Dies ist in dem hier erarbeiteten Modell der Fall.
 
25
Vgl. Y. A. Le Cun u. a. 2012, S. 18.
 
26
Vgl. Raschka 2015, S. 26.
 
27
Vgl. Raschka 2015, S. 27. sowie Abschnitt 3.​3.
 
28
Vgl. Dokumentation scikitlearn 2019.
 
29
Siehe Abbildung 3.​2.
 
30
Vgl. Géron 2017, S. 29.
 
31
Bei dem in dieser Arbeit umgesetzten Vorgehen ist dies nicht zu überprüfen. Durch die eigenständige Synthese der Daten bei der gewählten hohen Anzahl an Datensätzen ist das Vorhandensein von Extremwerten höchst unwahrscheinlich. Darüber hinaus würde es durch adäquates Verhalten der Vergabe des zugehörigen Labels die Genauigkeit nicht nachhaltig beeinflussen.
 
32
Vgl. Géron 2017, S. 30.
 
33
Für eine tiefergehende Auseinandersetzung siehe Wolpert 1996, S. 1352.
 
34
Vgl. Géron 2017, S. 29.
 
35
Zur Hyperparameter Optimierung siehe Bergstra und Bengio 2012, sowie Abschnitt 3.​4.​4.
 
36
Zum Aufbau von KNN durch vollständige Verbundenheit (fully connected) siehe Kapitel 3.
 
37
Vgl. Abschnitt 4.2.1.3.
 
38
Eigene Darstellung.
 
39
Zu den Aktivierungsfunktionen siehe Abschnitt 3.​4.​3.
 
40
Vgl. Géron 2017, S. 261.
 
41
Vgl. Goodfellow, Bengio und Courville 2016, S. 172 ff.
 
42
Der Quellcode ist in Anhang 3 im elektronischen Zusatzmaterial zu finden.
 
43
Siehe Géron 2017, S. 232.
 
44
API ist die Abkürzung für ‚Application Programming Interface‘ und stellt eine Programmierschnittstelle dar.
 
45
Vgl. Géron 2017, S. 232.
 
46
Vgl. Keras 2019.
 
47
Vgl. Reed 1999, S. 72.
 
48
Vgl. Bengio 2012; Goodfellow, Bengio und Courville 2016, S. 429.
 
49
Vgl. Bengio 2012.
 
50
Vgl. Goodfellow, Bengio und Courville 2016, S. 429.
 
51
Vgl. Goodfellow, Bengio und Courville 2016, S. 296 f.
 
52
Vgl. Keras 2019.
 
53
Vgl. Raschka 2015, S. 14.
 
54
Siehe dazu Abschnitt 3.​3.​2.
 
55
Siehe dazu Abschnitt 4.2.2.2.
 
56
Vgl. Goodfellow, Bengio und Courville 2016, S. 275.
 
57
Vgl. zur Empfehlung der Stapelgröße Li u. a. 2014, S. 663.
 
58
Siehe Abschnitt 3.​4.​4.
 
59
Vgl. Kingma und Ba 2015, S. 1.
 
60
Siehe Duchi, Hazan und Singer 2011.
 
61
Vgl. Kingma und Ba 2015, S. 1., mit dem Verweis auf die Arbeiten von Hinton, Osindero und Teh 2006.
 
62
Vgl. Wyatt II u. a. 2018, S. 6.
 
63
Der Einsatz leistungsstarker, für Matrixoperationen optimierte Rechner, erfolgt für den Lernvorgang häufig. Hier werden Tage und Wochen an Zeiten für die Berechnungen in Anspruch genommen, um den Lernvorgang durchzuführen.
 
64
Ergebnis des Quellcodes in Anhang 3 des elektronischen Zusatzmaterials.
 
65
Zur allgemeinen Auswertung der Genauigkeit siehe Stehman 1997.
 
66
Vgl. Fawcett 2005, S. 862.
 
67
Genauer erfolgt der Eintrag neben der Summe der Zeileneinträge.
 
68
Resultiert aus dem Quellcode. Siehe Anhang 3 im elektronischen Zusatzmaterial.
 
69
Eigene Darstellung.
 
70
Im Kontext der Auswertung handelt es sich damit um Beispieldatensätze, welche mit dem Werttreiber ‚Erlöse‘ kategorisiert sind und durch das KNN ebenfalls mit dieser Kategorie identifiziert werden. Hier arbeitet das Netz somit im Sinne der beabsichtigten Approximation.
 
71
Bei genauer Definition der Wertsteigerung im langfristigen Sinne muss dies im Kontext des MVA betrachtet werden.
 
72
Dies sind in der Abbildung 4.3 die Werttreiber ‚Actual = 2 und Predict = 3‘.
 
73
Siehe zur Aufgabe der Entscheidungsunterstützung Abschnitt 2.​2.
 
74
Vgl. Géron 2017, S. 22.
 
75
Diese ist gewählt mit dem EVA auf der höchsten Aggregationsebene und somit:
Erlöse − Kosten − (Kapital * Kapitalkostensatz).
 
76
Siehe zur Ermittlung des EVA 2.​3.​2.
 
77
Eigene Ergebnisse.
 
78
Siehe dazu den Quellcode in Anhang 2 des elektronischen Zusatzmaterials.
 
Metadaten
Titel
Werttreiberanalysemodell
verfasst von
Marius Hölscher
Copyright-Jahr
2021
DOI
https://doi.org/10.1007/978-3-658-34132-9_4