Skip to main content
Top

2018 | Book

Modelle der Zeitreihenanalyse

insite
SEARCH

About this book

Dieses Buch bietet eine einheitliche und geschlossene Darstellung von Theorie und Modellen, die der Zeitreihenanalyse zugrunde liegen. Das Schwergewicht liegt dabei beim schwach stationären Fall und bei linearen Modellen: Im ersten Teil wird die Theorie allgemeiner multivariater schwach stationärer Prozesse in Zeit-und Frequenzbereich, einschließlich deren Prognose und Filterung hergeleitet. Der zweite Teil beschäftigt sich mit multivariaten AR-, ARMA- und Zustandsraum-Systemen als den wichtigsten Modellklassen für stationäre Prozesse. In diesem Rahmen werden Yule-Walker Gleichungen, die Faktorisierung rationaler Spektren, das Kalman Filter und die Struktur von ARMA-und Zustandsraum-Systemen beschrieben. Ziel des Buches ist es die wesentlichen Konzepte, Ideen, Methoden und Resultate in mathematisch sauberer Form darzustellen und somit eine solide Fundierung für Studenten und Forscher in Feldern wie datengetriebener Modellierung, Prognose und Filterung, wie sie etwa für die Kontrolltheorie, Ökonometrie, Signalverarbeitung und Statistik relevant sind, zu bieten.

Table of Contents

Frontmatter
1. Zeitreihen und stationäre Prozesse
Zusammenfassung
In diesem Kapitel werden grundlegende Begriffe wie Zeitreihe, stationärer Prozess und Kovarianzfunktion eingeführt. Die Kovarianzfunktion beschreibt die lineare Abhängigkeitsstruktur des Prozesses über Zeit- und Querschnitt und enthält die erforderliche Information zur Lösung von linearen Kleinst-Quadrate Approximationsproblemen, wie z. B. Prognose. Dann wird der Zeitbereich eines stationären Prozesses, der ein Unterraum des Hilbert-Raumes \(\mathbb{L}_{2}\) der quadratisch integrierbaren Zufallsvariablen ist, dargestellt. In diesem Hilbert-Raum sind die Kovarianzen innere Produkte und lineare Kleinst-Quadrate-Approximationsprobleme lassen sich elegant mit Hilfe des Projektionssatzes lösen. Die Stationarität des Prozesses impliziert die Unitarität des sogenannten Vowärts-Shift-Operators, der die Prozessvariablen in der Zeit weiterbewegt. Im letzten Abschnitt werden wichtige Klassen stationärer Prozesse, wie Moving-Average-Prozesse, autoregressive Prozesse, ARMA-Prozesse und harmonische Prozesse kurz vorgestellt, sowie Beispiele für nicht-stationäre Prozesse angegeben.
Manfred Deistler, Wolfgang Scherrer
2. Prognose
Zusammenfassung
Die Berechnung von zuverlässigen Prognosen und eine entsprechende quantitative Analyse der Prognose-Güte ist eine der wichtigsten Anwendungen der Zeitreihenanalyse. Allgemein geht es bei der Prognose darum eine zukünftige Prozessvariable \(x_{t+h}\) möglichst gut durch eine Funktion der beobachteten Werte \(x_{t},x_{t-1},x_{t-2},\ldots\) zu approximieren. Wir diskutieren hier die lineare Kleinst-Quadrateprognose. Das heißt, wir beschränken uns auf lineare (genauer gesagt affine) Prognosefunktionen und auf den mittleren quadratischen Prognosefehler als Gütekriterium. Wir nehmen auch an, dass wir die Eigenschaften des zugrundeliegenden Prozesses (Erwartungswert und Kovarianzfunktion) exakt kennen. Dieses idealisierte Prognoseproblem lässt sich einfach und elegant mit Hilfe des Projektionssatzes behandeln. Für eine „echte“ Prognose müssen natürlich zunächst die Populationsmomente aus Daten geschätzt werden.
Im ersten Abschnitt dieses Kapitels werden die letzten k beobachteten Werte für die Prognose verwendet. Man spricht daher auch von der Prognose aus der endlichen Vergangenheit. Der Übergang k → ∞, der entsprechend Prognose aus der unendlichen Vergangenheit genannt wird, führt dann zu der sogenannten Wold-Zerlegung von stationären Prozessen. Diese Wold-Zerlegung ist wichtig für die Prognose und darüber hinaus zentral für das Verständnis der Struktur von stationären Prozessen.
Manfred Deistler, Wolfgang Scherrer
3. Spektraldarstellung
Zusammenfassung
In diesem Kapitel werden wir zeigen, dass sich jeder stationäre Prozess approximativ als Summe von harmonischen Schwingungen (mit zufälligen und unkorrelierten Amplituden) darstellen lässt. Das heißt, man kann den Prozess (punktweise in t) beliebig genau durch einen harmonischen Prozess
$$\displaystyle x_{t}\approx a_{0}+a_{M}(-1)^{t}+\sum_{m=1}^{M-1}\left[a_{m}\cos(\lambda_{m}t)+b_{m}\sin(\lambda_{m}t)\right]$$
approximieren. Der Grenzwert dieser Summen führt zu einer Integraldarstellung, der sogenannten Spektraldarstellung von stationären Prozessen. Diese Spektraldarstellung ist eine Verallgemeinerung der Fourierdarstellung von deterministischen Folgen auf stationäre Prozesse. Sie ist von zentraler Bedeutung für die Theorie stationärer Prozesse und für die Interpretation. Die Spektraldarstellung definiert einen isometrischen Isomorphismus zwischen dem Zeitbereich und dem sogenannten Frequenzbereich des Prozesses. In diesem Frequenzbereich können lineare dynamische Transformationen von stationären Prozessen (siehe Kap. 4) besonders einfach durchgeführt und interpretiert werden. Die der Spektraldarstellung des Prozesses entsprechende Fourierdarstellung der Kovarianzfunktion erlaubt eine äquivalente Beschreibung der linearen Abhängigkeits-Struktur des Prozesses.
Wir zeigen hier die wesentlichen Beweisschritte der Spektraldarstellung stationärer Prozesse. Obwohl die Struktur des Beweises wesentliche Einblicke gibt, kann der Leser beim ersten Lesen technische Einzelheiten überspringen.
Manfred Deistler, Wolfgang Scherrer
4. Lineare zeitinvariante dynamische Filter und Differenzengleichungen
Zusammenfassung
In diesem Kapitel betrachten wir zunächst lineare, zeitinvariante, im Allgemeinen dynamische Transformationen stationärer Prozesse. Solche Transformationen werden auch Filter oder Systeme genannt, der ursprüngliche Prozess ist dabei der Input und der transformierte Prozess der Output.
Dynamische Filter dienen oft als (mathematisches) Modell für reale Systeme (z. B. technische oder ökonomische Systeme). In der Zeitreihenanalyse werden sie verwendet, um bestimmte Komponenten wie etwa Störungen oder Saisonschwankungen aus Zeitreihen zu extrahieren. MA(∞) Prozesse erhält man durch die lineare, dynamische Transformation von weißem Rauschen; das Filter beinhaltet hier daher die wesentlichen Informationen über den transformierten Prozess.
Wir betrachten zunächst allgemeine lineare Transformationen stationärer Prozesse und dann sogenannte l 1-Filter, beides im Zeit- und Frequenzbereich. Ein Abschnitt ist der Interpretation solcher Filter im Frequenzbereich gewidmet. Im vorletzten Abschnitt dieses Kapitels wird das Wiener-Filter behandelt und der letzte Abschnitt beschäftigt sich mit der Lösung von linearen Differenzengleichungen. Diese Lösungen erhält man durch sogenannte rationale Filter, die im weiteren im Zentrum unsere Behandlung stehen werden.
Manfred Deistler, Wolfgang Scherrer
5. Autoregressive Prozesse
Zusammenfassung
In diesem Kapitel behandeln wir sogenannte autoregressive Prozesse, d. h. stationäre Lösungen von Differenzengleichungen der Form
$$\displaystyle x_{t}=a_{1}x_{t-1}+\cdots+a_{p}x_{t-p}+\epsilon_{t},\,\,\forall t\in\mathbb{Z}$$
wobei ε t weißes Rauschen ist. Für die praktischen Anwendungen der Zeitreihenanalyse bilden AR-Modelle die wohl gebräuchlichste Modellklasse. Mit AR-Modellen kann man insbesondere Prozesse mit dominierenden „fast periodischen“ Komponenten, wie sie in vielen Anwendungen zu finden sind, gut beschreiben.
Ein weiterer wichtiger Vorteil von autoregressiven Prozessen ist deren einfache Prognose. Unter der Stabilitätsbedingung ist die Ein-Schritt-Prognose aus der unendlichen Vergangenheit einfach \(\hat{x}_{t,1}=a_{1}x_{t}+\cdots+a_{p}x_{t+1-p}\). Das AR-Modell kann auch sehr einfach z. B. mit Hilfe der sogenannten Yule-Walker Gleichungen geschätzt werden.
Im ersten Abschnitt diskutieren wir kurz die stationäre Lösung des AR-Systems unter der Stabilitätsbedingung. Wir behandeln dann die Prognose von AR-Prozessen aus der endlichen bzw. unendlichen Vergangenheit und diskutieren die wesentlichen Charakteristika der spektralen Dichte von AR-Prozessen. Der vorletzte Abschnitt ist den Yule-Walker-Gleichungen gewidmet, die den Zusammenhang zwischen den Parametern des AR-Systems und der Kovarianzfunktion herstellen.
Im letzten Abschnitt betrachten wir auch spezielle nicht-stationäre Lösungen, nämlich sogenannte integrierte und kointegrierte Prozesse, die im Fall einer sogenannten Einheitswurzel (unit root) auftreten. Eines der wichtigsten Resultate ist der Darstellungssatz von Granger.
Manfred Deistler, Wolfgang Scherrer
6. ARMA-Prozesse
Zusammenfassung
ARMA(Autoregressive-Moving Average)-Systeme sind von der Form
$$\displaystyle x_{t}=a_{1}x_{t-1}+\cdots+a_{p}x_{t-p}+\epsilon_{t}+b_{1}\epsilon_{t-1}+\cdots+b_{q}\epsilon_{t-q}$$
wobei ε t weißes Rauschen ist. ARMA-Prozesse sind stationäre Lösungen von ARMA-Systemen. Reguläre ARMA-Prozesse sind Prozesse mit rationaler spektraler Dichte und wie wir zeigen werden, ist umgekehrt jeder Prozess mit rationaler spektraler Dichte ein ARMA-Prozess.
AR- und ARMA- (und die äquivalenten Zustandsraum-)Modelle sind die wichtigsten Modelle für stationäre Prozesse. Jeder reguläre stationäre Prozess kann (durch geeignete Wahl von p und q) beliebig genau durch einen AR- oder ARMA-Prozess approximiert werden. Vergleicht man AR- und ARMA-Modellierung, so ist die Schätzung von AR-Modellen ungleich einfacher. Im ARMA-Fall besteht ein Identifizierbarkeitsproblem und wichtige Schätzer wie die Maximum-Likelihood-Schätzer liegen nicht in expliziter Form vor, sondern müssen durch numerische Optimierung bestimmt werden.
Wir beschreiben zunächst die Lösungen von ARMA-Systemen und die zugehörige spektrale Dichte. Im Zentrum steht aber die inverse Frage, wie man aus der spektralen Dichte das zugrundeliegende ARMA-System erhält. Dies erfolgt in zwei Schritten. Im ersten Schritt wird mit Hilfe der sogenannten spektralen Faktorisierung aus der spektralen Dichte die (stabile und miniphasige) Transferfunktion des ARMA-Systems bestimmt. Im zweiten Schritt werden aus dieser Transferfunktion die ARMA-Parameter gewonnen. Dabei tritt das sogenannte Identifizierbarkeitsproblem auf, d. h. ohne weitere Restriktionen sind die ARMA-Parameter nicht eindeutig aus der spektralen Dichte bzw. der Transferfunktion bestimmt.
Manfred Deistler, Wolfgang Scherrer
7. Zustandsraummodelle
Zusammenfassung
Lineare Zustandsraumsysteme sind wie ARMA-Systeme Modelle für stationäre Prozesse, genauer gesagt für die Klasse stationärer Prozesse mit rationaler spektraler Dichte. ARMA-Modelle und Zustandsraummodelle (mit weißem Rauschen als Input) stellen die gleichen stationären Prozesse dar. Zustandsraummodelle enthalten eine i. Allg. unbeobachtete Variable, den Zustand, der die für die Zukunft relevante Information aus der Vergangenheit des Prozesses enthält. Sie werden vor allem in der Kontrolltheorie ungleich häufiger als die äquivalenten ARMA-Systeme angewendet.
Zwei zentrale Ergebnisse in diesem Kapitel sind die Äquivalenz von Kontrollierbarkeit und Beobachtbarkeit mit Minimalität und die Beschreibung der Äquivalenzklassen beobachtungsäquivalenter minimaler Systeme. Sodann geben wir eine Konstruktion zur Ermittlung eines Zustandsraumsystems aus der Wold-Zerlegung an.
Im Abschn.~7.4 behandeln wir das Kalman-Filter. Dies ist ein Algorithmus zur Schätzung des nicht beobachteten Zustands aus den Beobachtungen und zur Prognose dieser Beobachtungen (bei bekannten Systemparametern). Das Kalman-Filter ist für die Prognose oder die Maximum-Likelihood-Schätzung von großer Wichtigkeit.
Manfred Deistler, Wolfgang Scherrer
Backmatter
Metadata
Title
Modelle der Zeitreihenanalyse
Authors
Manfred Deistler
Univ.-Prof. Wolfgang Scherrer
Copyright Year
2018
Electronic ISBN
978-3-319-68664-6
Print ISBN
978-3-319-68663-9
DOI
https://doi.org/10.1007/978-3-319-68664-6