Skip to main content

2023 | OriginalPaper | Buchkapitel

4. Dynamische Entscheidungsfindung

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Das Kapitel befasst sich mit den Grundlagen der dynamischen Entscheidungsfindung und definiert den dynamischen Entscheidungsprozess (DDP) als zentrales Konzept. Ein DDP umfasst eine Reihe von Entscheidungen, die in einem definierten System über einen Zeithorizont getroffen werden. Ein exogener Prozess beeinflusst das System kontinuierlich, während Entscheidungen den nachfolgenden Zustand des Systems beeinflussen. Der Markov-Entscheidungsprozess (MDP) wird als Spezialfall des DDP eingeführt, wobei der Entscheidungsträger ausschließlich auf die aktuellen Zustandsparameter zurückgreift. Die approximative dynamische Programmierung (ADP) wird als Strategie zur Lösung von MDPs vorgestellt, die durch Simulationen und Wertfunktionsapproximation zukünftige Entwicklungen antizipiert. Drei Kategorien von ADP-Strategien werden unterschieden: myopisch, vorausschauend und Wertfunktionsapproximation. Jede Kategorie hat spezifische Merkmale und Anwendungsfälle, die die Effizienz und Genauigkeit der Entscheidungsfindung beeinflussen. Die detaillierte Darstellung der ADP-Strategien und ihre Anwendung in realen Anwendungen macht den Beitrag besonders interessant für Fachleute, die sich mit stochastisch-dynamischen Optimierungsproblemen beschäftigen.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Fußnoten
1
Wenn nicht anders angegeben, gehen wir davon aus, dass ein Beitrag eine Strafe ist.
 
2
Der Einfachheit halber bezeichnen wir die Obermenge über alle Entscheidungsmengen als X = ∪s ∈ SXs.
 
3
Mit anderen Worten: Eine gierige Politik „approximiert“ jeden Wert auf Null.
 
4
Bei einer parametrischen VFA geht man von einer funktionalen Abhängigkeit zwischen Zustandsparametern und Wert aus. Da wir in dieser Arbeit keine parametrische VFA anwenden, gehen wir nicht ins Detail. Wir verweisen den interessierten Leser jedoch auf Powell (2011) für einen tieferen Überblick über VFA und auf Wooldridge (2015) für einen Überblick über die Bestimmung multivariater linearer Funktionen mithilfe der Ökonometrie.
 
5
Der Begriff „unvollständige Approximationen“ bezieht sich auf die Tatsache, dass die Approximationsphase noch nicht abgeschlossen ist.
 
6
Sobald ein bestimmter Entscheidungszustand eingetreten ist und eine bestimmte Entscheidung ausgewählt wurde, α wird inkrementiert. Daher α ist bei Anwendung von Gl. (4.6) nie gleich Null.
 
Literatur
Zurück zum Zitat Bellman R (1957) A Markovian decision process. Technical report, DTIC Document Bellman R (1957) A Markovian decision process. Technical report, DTIC Document
Zurück zum Zitat Powell WB (2011) Approximate dynamic programming: solving the curses of dimensionality, 2. Aufl. Wiley, New YorkCrossRefMATH Powell WB (2011) Approximate dynamic programming: solving the curses of dimensionality, 2. Aufl. Wiley, New YorkCrossRefMATH
Zurück zum Zitat Puterman ML (2014) Markov decision processes: discrete stochastic dynamic programming, 2. Aufl. Wiley, New YorkMATH Puterman ML (2014) Markov decision processes: discrete stochastic dynamic programming, 2. Aufl. Wiley, New YorkMATH
Zurück zum Zitat Wooldridge JM (2015) Introductory econometrics: a modern approach. Nelson Education, Wooldridge JM (2015) Introductory econometrics: a modern approach. Nelson Education,
Metadaten
Titel
Dynamische Entscheidungsfindung
verfasst von
Jan Brinkmann
Copyright-Jahr
2023
DOI
https://doi.org/10.1007/978-3-031-16536-8_4