Zum Inhalt

Time Series Econometrics

  • 2025
  • Buch

Über dieses Buch

Dieser Text stellt moderne Entwicklungen in der Zeitreihenanalyse vor und konzentriert sich auf ihre Anwendung auf wirtschaftliche Probleme. Das Buch stellt zunächst das grundlegende Konzept einer stationären Zeitreihe und ihre Beziehung zu den grundlegenden Eigenschaften von Kovarianzfunktionen vor und untersucht die Struktur und Schätzung autoregressiv-bewegter Durchschnittsmodelle (ARMA) und ihre Beziehungen zur Kovarianzstruktur. Das Buch geht dann zu nichtstationären Zeitreihen über, beleuchtet deren Folgen für die Modellierung und Vorhersage sowie Regressionsmodelle und stellt statistische Standardtests vor. Als nächstes werden Volatilitätsmodelle und ihre Anwendung bei der Analyse von Finanzmarktdaten diskutiert, wobei der Schwerpunkt auf generalisierten autoregressiven bedingten heteroskedastischen Modellen (GARCH) liegt. Der zweite Teil des Textes widmet sich multivariaten Prozessen wie vektorautoregressiven (VAR) und strukturellen vektorautoregressiven (SVAR) Modellen, die zu den wichtigsten Werkzeugen der empirischen Makroökonomie geworden sind. Der Text endet mit einer Diskussion über kointegrierte Modelle und den Kalman-Filter, der immer häufiger zum Einsatz kommt. Die Ausstellung schließt schließlich an die jüngsten Entwicklungen auf diesem Gebiet an. Mathematisch rigoros, aber anwendungsorientiert, wird dieser in sich abgeschlossene Text den Studenten helfen, ein tieferes Verständnis der Theorie zu entwickeln und die für das Feld lebenswichtigen Modelle besser zu beherrschen. Unter der Voraussetzung grundlegender Kenntnisse in Statistik und / oder Ökonometrie eignet sich dieser Text am besten für fortgeschrittene Studenten und Studienanfänger.

Inhaltsverzeichnis

  1. Frontmatter

  2. Univariate Time Series Analysis

    1. Frontmatter

    2. 1. Introduction and Basic Theoretical Concepts

      Klaus Neusser
      Das Kapitel beginnt mit der Betonung der entscheidenden Rolle der Zeitreihenanalyse in empirischen Untersuchungen, insbesondere in der Ökonomie, wo sie mit Makroökonomie und Finanzwesen verflochten ist. Sie stellt zwei einander ergänzende Perspektiven vor: deskriptive Statistiken, die beobachtbare Merkmale zusammenfassen, und den internen Mechanismus zur Datenerzeugung, der häufig auf autoregressiven Moving-Average-Modellen (ARMA) beruht. Der Text vertieft sich in das Konzept der Stationarität, das für das Verständnis der zeitlichen Abhängigkeit von Zeitreihendaten von entscheidender Bedeutung ist. Außerdem wird die Konstruktion stochastischer Prozesse untersucht, wobei weißes Rauschen als Baustein verwendet wird, um komplexere Prozesse wie bewegliche Durchschnittswerte und autoregressive Modelle zu erzeugen. Das Kapitel bietet detaillierte Beispiele und grafische Illustrationen, wie etwa die Analyse des realen Pro-Kopf-BIP und der Zinssätze in den USA, um Schlüsselkonzepte zu veranschaulichen. Außerdem werden die Bedeutung von Prognosen und die Herausforderungen durch nichtstationäre Prozesse, wie zufällige Wanderungen, diskutiert. Das Kapitel schließt mit einer Diskussion über die Autokovarianzfunktion, die ihre Rolle bei der Charakterisierung der externen Eigenschaften von Zeitreihen und ihrer Beziehung zu bestimmten Modellen hervorhebt. Dieser umfassende Ansatz macht das Kapitel zu einer unverzichtbaren Lektüre für alle, die ihr Verständnis der Zeitreihenanalyse in der Ökonomie vertiefen wollen.
    3. 2. Autoregressive Moving-Average Processes

      Klaus Neusser
      Dieses Kapitel baut auf den grundlegenden Konzepten der Zeitreihenanalyse auf, um autoregressive ARMA-Prozesse zu erforschen, die bei der Modellierung komplexer Zeitreihendaten von entscheidender Bedeutung sind. Sie beginnt mit der Definition von ARMA-Prozessen durch lineare stochastische Differenzgleichungen, wobei ihre weit verbreitete Anwendung in der angewandten Zeitreihenanalyse hervorgehoben wird. Der Text vertieft sich in den Verzögerungsoperator, ein entscheidendes Werkzeug, um Differenzgleichungen kompakt umzuschreiben und die intrinsischen Eigenschaften von ARMA-Prozessen zu analysieren. Sie behandelt auch die Konzepte der Kausalität und Unumkehrbarkeit, die für das Verständnis der Einflüsse vergangener und zukünftiger Schocks auf die Zeitreihen von entscheidender Bedeutung sind. Das Kapitel bietet eine detaillierte Untersuchung der Prozesse Moving-Average (MA) und Autoregressive (AR), einschließlich ihrer Autokovarianz- und Autokorrelationsfunktionen. Anhand numerischer Beispiele und Übungen erhalten die Leser praktische Einblicke in die Berechnung der Autokovarianzfunktion stationärer ARMA-Prozesse, was dieses Kapitel zu einer unschätzbaren Ressource für fortgeschrittene Zeitreihenanalysen macht.
    4. 3. Forecasting Stationary Processes

      Klaus Neusser
      Dieses Kapitel bietet eine eingehende Untersuchung der Vorhersage stationärer stochastischer Prozesse, wobei der Schwerpunkt auf linearen Vorhersagen mit den wenigsten Quadraten liegt. Es beginnt mit der Festlegung des Rahmens für Vorhersagen mit einer bekannten Mittelwert- und Autokovarianzfunktion, wobei der Schwerpunkt auf der Entfernung deterministischer Komponenten liegt, um sich auf das stochastische Element zu konzentrieren. Der Text vertieft sich in die Bestimmung optimaler linearer Prädiktoren und hebt die Verwendung von mittleren quadratischen Fehlern als Kriterium zur Minimierung von Vorhersagefehlern hervor. Außerdem werden die geometrische Interpretation linearer Prädiktoren und die Bedingungen diskutiert, unter denen die Kovarianzmatrix invertierbar ist, was einzigartige Lösungen gewährleistet. Das Kapitel untersucht die Vorhersage mit AR (p) - und MA (q) -Prozessen und liefert detaillierte Beispiele und numerische Abbildungen. Er untersucht das Wold Decomposition Theorem, das stationäre Prozesse auf der Grundlage ihres Prognoseverhaltens klassifiziert, und diskutiert die Implikationen des Theorems für praktische Anwendungen. Darüber hinaus behandelt das Kapitel die Funktion der partiellen Autokorrelation (PACF) und ihre Rolle bei der Identifizierung der zugrunde liegenden AR- und MA-Prozesse. Er schließt mit einer Untersuchung der exponentiellen Glättung als alternative Prognosemethode, in der ihre Vorteile und theoretischen Grundlagen diskutiert werden. Der gesamte Text bietet einen umfassenden Leitfaden zu den theoretischen und praktischen Aspekten der Vorhersage von Zeitreihen, was ihn zu einer unverzichtbaren Ressource für fortgeschrittene Leser macht.
    5. 4. Estimation of the Expected Value and the Autocorrelation Function of a Stationary Stochastic Processes

      Klaus Neusser
      Das Kapitel beginnt damit, die Grundlagen für das Verständnis der Autokovarianzfunktion und ihrer Beziehung zu ARMA-Prozessen zu legen und betont ihre Rolle bei der Charakterisierung der dynamischen Eigenschaften stationärer stochastischer Prozesse. Anschließend vertieft er sich in die Schätzung des erwarteten Wertes, hebt den arithmetischen Mittelwert als natürlichen und unvoreingenommenen Schätzer hervor und untersucht seine asymptotischen Eigenschaften, einschließlich der Konvergenz von Mittelquadrat und Wahrscheinlichkeit. Der Text diskutiert auch die Schätzung der Autokovarianz- und Autokorrelationsfunktionen und präsentiert konsistente und asymptotisch normal verteilte Schätzer sowie praktische Beispiele zur Veranschaulichung der Anwendung dieser Schätzer. Darüber hinaus behandelt das Kapitel die Schätzung partieller Autokorrelationsfunktionen und langfristiger Varianz und bietet Einblicke in die Konstruktion von Konfidenzintervallen und die Prüfung von Hypothesen. Das Kapitel schließt mit einem detaillierten Beispiel, das die Bedeutung der Berücksichtigung serieller Korrelation in der Zeitreihenanalyse demonstriert und einen umfassenden Leitfaden für die Schätzung von Erwartungswerten und Autokorrelationsfunktionen in stationären stochastischen Prozessen bietet.
    6. 5. Modeling Stationary ARMA Processes

      Klaus Neusser
      Das Kapitel beginnt mit einer Beschreibung der Schritte bei der Spezifizierung und Einschätzung stationärer ARMA (p, q) -Prozesse und betont den iterativen Charakter der Modellauswahl und -validierung. Er diskutiert die Bestimmung der Ordnungen p und q, die Schätzung von Parametern und die zur Validierung des Modells erforderlichen Robustheitsprüfungen. Der Text geht auf drei primäre Schätzmethoden ein: den Yule-Walker-Schätzer, den OLS-Schätzer und den ML-Schätzer, jede mit ihren eigenen Annahmen und Anwendungen. Der Yule-Walker-Schätzer wird im Detail untersucht, insbesondere seine Anwendung auf rein autoregressive Modelle und seine Grenzen beim Umgang mit beweglichen Durchschnittswerten (MA). Der OLS-Schätzer wird als Alternative präsentiert und hebt seine Vorteile in kleinen Stichproben und seine asymptotische Äquivalenz zum Yule-Walker-Schätzer hervor. Der ML-Schätzer wird als Standardmethode für ARMA-Prozesse eingeführt, wobei der Schwerpunkt auf der numerischen Berechnung und den asymptotischen Eigenschaften liegt. Das Kapitel behandelt auch die Herausforderungen der Auftragsauswahl, diskutiert Informationskriterien wie AIC und BIC und die Bedeutung der Modelldiagnose. Praxisbeispiele, einschließlich der Modellierung des realen Schweizer BIP, veranschaulichen die Konzepte und bieten Einblicke in die reale Anwendung dieser Methoden. Das Kapitel schließt mit einer Diskussion über die Validierung von Modellen, in der die Bedeutung der Überprüfung von Residuen auf Weißrauscheigenschaften, Parameterkonstanz und Prognoseleistung betont wird.
    7. 6. Spectral Analysis and Linear Filters

      Klaus Neusser
      Dieses Kapitel präsentiert eine detaillierte Untersuchung der Spektralanalyse und linearer Filter und bietet eine neue Perspektive auf die Analyse von Zeitreihen. Es beginnt mit der spektralen Darstellung stochastischer Prozesse, die Zeitreihen in Sinusoide unterschiedlicher Frequenzen aufspalten. Dieser Ansatz steht im Gegensatz zur traditionellen Zeitdomänenanalyse und hebt die Vorteile der Frequenzdomänenperspektive bei der Konstruktion und Analyse linearer Filter hervor. Das Kapitel vertieft sich in die Schätzung der Spektraldichten, sowohl nichtparametrisch als auch parametrisch, und diskutiert die Herausforderungen und Lösungen bei der Schätzung der spektralen Verteilungsfunktion aus endlichen Proben. Es untersucht auch die Anwendung linearer zeitinvarianter Filter in wirtschaftlichen Zeitreihen und zeigt, wie diese Filter bestimmte Frequenzen eliminieren oder verstärken können, um grundlegende Trends und Zyklen aufzudecken. Das Kapitel schließt mit einer Diskussion über die Verwendung gefilterter Daten, in der die Vor- und Nachteile saisonbereinigter Serien in praktischen Anwendungen abgewogen werden. Überall ist der Text mit Beispielen und Zahlen angereichert, die Schlüsselkonzepte und -techniken veranschaulichen, was ihn zu einer unverzichtbaren Lektüre für diejenigen macht, die ihr Verständnis der Spektralanalyse und ihrer Anwendungen in der Zeitreihenanalyse vertiefen wollen.
    8. 7. Integrated Processes

      Klaus Neusser
      Dieses Kapitel untersucht die Eigenschaften und Interpretation integrierter Prozesse, die für das Verständnis ökonomischer Zeitreihen mit tendenziösem Verhalten von entscheidender Bedeutung sind. Es beginnt mit der Gegenüberstellung integrierter Prozesse mit stationären Prozessen, insbesondere mit stationären ARMA-Prozessen, und führt das Konzept der Mean Reversion ein. Anschließend vertieft sich der Text in die Charakteristika trendstationärer und differenzstationärer Prozesse und hebt deren Unterschiede in langfristigen Prognosen, Abweichungen von Prognosefehlern und Impulsreaktionsfunktionen hervor. Ein wesentlicher Teil des Kapitels widmet sich der Beveridge-Nelson-Zersetzung, die einen Rahmen für das Verständnis der Komponenten integrierter Prozesse bietet, einschließlich linearer Trends, zufälliger Wanderungen und stationärer Komponenten. Das Kapitel behandelt auch Unit-Root-Tests, einschließlich der Dickey-Fuller- und Phillips-Perron-Tests, und diskutiert die Herausforderungen und Strategien zur Prüfung der Stationarität von Zeitreihen. Darüber hinaus wird das Konzept der Kointegration untersucht, das für das Verständnis der Beziehungen zwischen integrierten Variablen von entscheidender Bedeutung ist. Das Kapitel schließt mit Beispielen und Übungen, die die praktische Anwendung dieser Konzepte veranschaulichen und es zu einer unschätzbaren Ressource für fortgeschrittene Studien in der Zeitreihenanalyse machen.
    9. 8. Models of Volatility

      Klaus Neusser
      Das Kapitel untersucht das Phänomen zeitlich variierender Volatilität an den Finanzmärkten und konzentriert sich dabei auf die autoregressiven Modelle bedingter Heteroskedastizität (ARCH) und generalisierter bedingter Heteroskedastizität (GARCH). Diese Modelle sind von entscheidender Bedeutung für das Verständnis und die Vorhersage der bedingten Varianz finanzieller Zeitreihen, die für genaue Finanzprognosen und Risikomanagement von entscheidender Bedeutung ist. Der Text beginnt mit einer Rekapitulation der Vorhersageeigenschaften stationärer AR (1) -Modelle und bereitet den Boden für die komplexeren GARCH-Modelle. Anschließend vertieft er sich in das GARCH (1,1) -Modell und beschreibt seine Definition, Eigenschaften und die Bedingungen, unter denen er eine stationäre Lösung zulässt. In diesem Kapitel wird auch die Prognose bedingter Varianz diskutiert und die Bedeutung dieser Modelle für die Bewertung des Value at Risk (VaR) von Investitionen hervorgehoben. Darüber hinaus werden verschiedene Verallgemeinerungen und Erweiterungen des GARCH-Modells untersucht, darunter ARCH (p), GARCH (p, q), Schwelle GARCH, integriertes GARCH, exponentielles GARCH und ARCH-in-mean-Modelle. Das Kapitel schließt mit praktischen Anwendungen wie der Analyse des Swiss Market Index (SMI), die die empirische Relevanz dieser Modelle aufzeigen. Die Leser erhalten Einblicke in die theoretischen Grundlagen und praktischen Anwendungen der Volatilitätsmodellierung, was dieses Kapitel zu einer unverzichtbaren Ressource für jeden macht, der die Feinheiten der Finanzmarktdynamik verstehen will.
  3. Multivariate Time Series Analysis

    1. Frontmatter

    2. 9. Synopsis on Empirical Macroeconomic Research

      Klaus Neusser
      Dieses Kapitel zeichnet die Entwicklung empirischer makroökonomischer Forschung nach, beginnend mit den bahnbrechenden Arbeiten Tinbergens und Kleins Mitte des 20. Jahrhunderts. Er hebt die Schaffung gleichzeitiger Gleichungssysteme hervor, die darauf abzielten, die Komplexität nationaler Volkswirtschaften und die Hilfe bei der politischen Analyse zu erfassen. Das Kapitel diskutiert die Fortschritte, die durch volkswirtschaftliche Daten und Computerwissenschaften ermöglicht wurden und zu immer detaillierteren Modellen wie dem Klein-Goldberger-Modell und dem LINK-Projekt führten. Es untersucht jedoch auch die in den 1970er Jahren auftauchenden Kritiken, insbesondere die Lucas-Kritik und die Theorie rationaler Erwartungen, die die theoretischen Grundlagen und Prognosefähigkeiten dieser Modelle in Frage stellten. Das Kapitel stellt dann die 1980 von Sims vorgeschlagenen Vektor-Autoregressive-Modelle (VAR) vor, die sich auf einige Kernvariablen und ihre dynamischen Wechselbeziehungen konzentrieren. Es untersucht Identifikationsprobleme und verschiedene Identifikationsschemata innerhalb des VAR-Rahmens, einschließlich Impulsreaktionen und vorhergesagte Fehlervarianzdekomplikationen. Darüber hinaus werden in diesem Kapitel die Interaktion zwischen mehreren Variablen, die Identifizierung struktureller Schocks, die Modellierung integrierter Variablen und die Einführung in staatliche Raumfahrtmodelle diskutiert und ein umfassender Überblick über die Evolution und aktuelle Methoden in der empirischen makroökonomischen Forschung geboten.
    3. 10. Definitions and Stationarity

      Klaus Neusser
      Das Kapitel beginnt mit der Definition multivariater stochastischer Prozesse und ihrer Dimensionen, wobei die Analogie zu univariaten Prozessen betont wird. Dann wird das Konzept der Stationarität eingeführt, das in der Zeitreihenanalyse von entscheidender Bedeutung ist, und es wird durch die Invarianz der ersten beiden Momente auf Zeitverschiebungen definiert. Die Kovarianz- und Korrelationsfunktionen werden im Detail untersucht, wobei der Schwerpunkt auf ihren Eigenschaften und Matrixdarstellungen liegt. Das Kapitel behandelt auch die strikte Stationarität, bei der die gesamte Verteilung unveränderlich gegenüber Zeitverschiebungen bleibt. Zur Veranschaulichung dieser Konzepte werden praktische Beispiele wie die Konstruktion von Prozessen aus weißem Rauschen und die Definition linearer Prozesse angeboten. Darüber hinaus vertieft sich das Kapitel in die Norm und Summierbarkeit von Matrizen, die für das Verständnis der Konvergenz von Matrizenfolgen im Kontext linearer Prozesse von entscheidender Bedeutung sind. Theoreme und Beweise sind enthalten, um den theoretischen Rahmen zu unterstützen, was dieses Kapitel zu einer wertvollen Ressource für diejenigen macht, die ein tiefgreifendes Verständnis multivariater stochastischer Prozesse und ihrer Anwendung in der Zeitreihenanalyse anstreben.
    4. 11. Estimation of Mean and Covariance Function

      Klaus Neusser
      Das Kapitel beginnt mit der Feststellung der grundlegenden Rolle von Mittel- und Kovarianzfunktionen bei der Beschreibung stationärer Prozesse, insbesondere im Gaußschen Fall, wo diese Funktionen die Verteilung vollständig charakterisieren. Es stellt natürliche Schätzer für Mittelwert und Kovarianzfunktionen vor, wie den arithmetischen Mittelwert und empirische Momente, und untersucht ihre asymptotischen Eigenschaften. Der Text leitet Schlüsseltheoreme ab, die die Konvergenz dieser Schätzer mit ihren wahren Werten sowohl im mittleren Quadrat als auch in der Wahrscheinlichkeit unter milden Bedingungen zeigen. Es wird auch die asymptotische Normalität des Probendurchschnitts und die Konstruktion von Vertrauensregionen für den Mittelwert diskutiert. Das Kapitel vertieft sich dann in die Schätzung der Kovarianzmatrixfunktion und ihre Anwendung bei der Ableitung der Korrelationsfunktion. Er präsentiert einen nicht parametrischen Schätzer für die langfristige Abweichung und diskutiert ihre praktische Umsetzung. Das Kapitel schließt mit einer eingehenden Untersuchung der Prüfung bivarianter Kreuzkorrelationen, die ein zweistufiges Verfahren zur Konstruktion von Konfidenzintervallen und zur Prüfung der Unabhängigkeit zwischen Zeitreihen bietet. Anhand detaillierter Beweise, praktischer Beispiele und aufschlussreicher Anmerkungen bietet das Kapitel einen umfassenden Leitfaden zur Einschätzung und Analyse multivariater stationärer Prozesse.
    5. 12. Vector Autoregressive Moving-Average Processes

      Klaus Neusser
      Dieses Kapitel bietet eine eingehende Untersuchung der Vector Autoregressive Moving-Average (VARMA) -Prozesse, einer entscheidenden Modellklasse in empirischen Anwendungen. Es beginnt mit der Definition der VARMA-Prozesse und ihrer Eigenschaften, wobei ihre Bedeutung für die Annäherung an stationäre Prozesse hervorgehoben wird. Der Text vertieft sich in die theoretische Bedeutung von VARMA-Prozessen und diskutiert ihre Lösungen für lineare stochastische Differenzgleichungen und ihre Darstellung mittels des Verzögerungsoperators. Ein wesentlicher Teil des Kapitels ist den VAR (1) -Prozessen gewidmet, wobei deren Eigenschaften, Stationarität und einzigartige Lösungen analysiert werden. Das Kapitel behandelt auch die Darstellung von VAR (p) -Prozessen in Begleitform und bietet Einblicke in höherwertige VAR-Modelle und ihre Beziehung zu univariaten AR (p) -Modellen. Die Frage der kausalen Repräsentation wird gründlich untersucht und bietet eine Verallgemeinerung vom univariaten zum multivariaten Fall. Das Kapitel enthält praktische Beispiele, wie ein VAR (2) -Modell, das die Berechnung kausaler Darstellungen und Kovarianzfunktionen veranschaulicht. Zusätzlich wird die autoregressive Endform diskutiert, die eine äquivalente Darstellung von VARMA-Prozessen als univariate ARMA-Prozesse bietet. Das Kapitel schließt mit Übungen, die die Leser auffordern, die diskutierten Konzepte anzuwenden und ihr Verständnis der VARMA-Prozesse zu stärken.
    6. 13. Estimation of Vector Autoregressive Models

      Klaus Neusser
      Dieses Kapitel untersucht die Schätzung vektorautoregressiver (VAR) Modelle, wobei die Ordnung p des VAR-Modells vorausgesetzt wird. Er diskutiert sorgfältig die asymptotischen Eigenschaften mehrerer Schätzer, einschließlich gewöhnlicher kleinster Quadrate (OLS), Yule-Walker und maximaler Wahrscheinlichkeitsschätzungen. Das Kapitel beginnt mit der Übersetzung des VAR (p) -Modells in ein multivariates Regressionsmodell, wobei die Korrelation zwischen Fehlerbegriffen und der Äquivalenz von OLS und generalisierter Schätzung der kleinsten Quadrate (GLS) unter bestimmten Bedingungen hervorgehoben wird. Sie geht der Konsistenz und asymptotischen Normalität dieser Schätzer nach, vorausgesetzt, der Fehlerprozess ist unabhängig identisch verteilt (IID) mit endlichen vierten Momenten. Der Text deckt auch den Yule-Walker-Schätzer ab und weist auf seine asymptotische Äquivalenz zu OLS und seine Tendenz hin, die Kausalität im geschätzten VAR-Modell sicherzustellen. Zusätzlich wird der maximale Wahrscheinlichkeitsschätzer unter der Annahme normal verteilter Fehlerbegriffe untersucht, was die asymptotische Äquivalenz von OLS, Yule-Walker und maximalen Wahrscheinlichkeitsschätzern aufzeigt. Das Kapitel schließt mit Beweisen für die asymptotische Normalität von OLS-Schätzern, die eine rigorose Grundlage für die diskutierten Methoden bieten.
    7. 14. Forecasting with VAR Models

      Klaus Neusser
      Das Kapitel beginnt mit der Einführung des Konzepts der Vorhersage mit VAR-Modellen, wobei bekannte Parameter vorausgesetzt werden, um grundlegende Konzepte und Ideen zu etablieren. Anschließend geht er auf das realistischere Szenario der Vorhersage mit geschätzten Parametern über und diskutiert die Implikationen und Anpassungen, die notwendig sind, wenn wahre Parameter durch ihre Schätzungen ersetzt werden. Die Analyse konzentriert sich auf stationäre und kausale VAR (1) -Prozesse mit Erweiterungen zu Prozessen höherer Ordnung durch begleitende Formtransformationen. Das Kapitel vertieft sich in die mathematische Notation und Matrixgleichungen, die diese Transformationen beschreiben, und bietet eine rigorose Grundlage für das Verständnis von VAR-Modellprognosen. Sie untersucht auch das Konzept der Wiener-Granger-Kausalität und bietet ökonometrische Implementierungen und nichtparametrische Ansätze unter Verwendung von Kreuzkorrelationen. Das Kapitel schließt mit einem praktischen Beispiel für den Aufbau eines makroökonomischen VAR-Prognosemodells für die US-Wirtschaft, in dem die Prognoseleistung verschiedener Modelle bewertet und die Herausforderungen und Abhilfemaßnahmen zur Verbesserung der Prognosegenauigkeit diskutiert werden. Das Kapitel streift auch die Bedeutung der Darstellung von Konfidenzintervallen und der Schätzung der Wahrscheinlichkeitsverteilung zukünftiger Ergebnisse, wobei die den Vorhersageproblemen innewohnenden Unsicherheiten hervorgehoben werden. Er diskutiert das Potenzial für strukturelle Brüche und Überparametrisierung und schlägt bayesche Schrumpfungstechniken und andere Abhilfemaßnahmen zur Verbesserung der Prognoseleistung vor.
    8. 15. Structural VAR (SVAR) Models

      Klaus Neusser
      Das Kapitel beginnt mit den Herausforderungen bei der Interpretation von Vector Autoregressive (VAR) -Modellen, die trotz ihrer einfachen Einschätzung aufgrund der Vielzahl von Koeffizienten und des Fehlens einer klaren Beziehung zwischen VAR-Parametern und theoretischen Modellen Schwierigkeiten bereiten. Dieses als Identifikationsproblem bekannte Problem steht im Mittelpunkt der Diskussion. Der Text stellt strukturelle Vektorautoregressive (SVAR) Modelle als Lösung vor und präsentiert verschiedene Techniken, um VAR-Modellen eine explizite wirtschaftliche Interpretation zu geben. Er geht der Unterscheidung zwischen strukturellen und reduzierten Formen nach und veranschaulicht anhand eines prototypischen makroökonomischen Beispiels die damit verbundenen Komplexitäten. Das Kapitel untersucht verschiedene Identifikationssysteme, einschließlich kurz- und langfristiger Beschränkungen, Zeichenbeschränkungen und nicht-gaußscher Identifikationsmethoden. Jedes Schema wird detailliert diskutiert und seine Stärken und Anwendungsmöglichkeiten hervorgehoben. Der Text liefert auch praktische Beispiele, wie die Analyse von Werbeausgaben und Verkäufen, und das IS-LM-Modell mit einer Phillips-Kurve, um die Anwendung dieser Techniken zu demonstrieren. Darüber hinaus umfasst es die Berechnung von Impulsantwortfunktionen und die Vorhersage der Fehlervarianzdekomposition, wesentliche Werkzeuge für die Interpretation von VAR-Modellen. Das Kapitel schließt mit einer Diskussion über die Schätzung und Schlussfolgerung von SVAR-Modellen, wobei die Bedeutung des Verständnisses der zugrunde liegenden wirtschaftlichen Zusammenhänge betont wird.
    9. 16. Cointegration

      Klaus Neusser
      Dieses Kapitel bietet eine eingehende Untersuchung der Kointegration, eines zentralen Konzepts für die Analyse ökonomischer Zeitreihen. Er beginnt mit der Herausforderung nichtstationärer Daten, die in wirtschaftlichen Variablen üblich sind, und führt Kointegration als Methode ein, um dieses Problem zu lösen. Der Text vertieft sich in die theoretischen Grundlagen der Kointegration und erklärt, wie er die Analyse der Beziehungen zwischen nichtstationären Variablen ermöglicht, die bei Kombination stationär werden. Ein zentraler Schwerpunkt ist das Konzept der kointegrierten Prozesse, bei denen es sich um stochastische Prozesse handelt, die in Ordnung eins integriert sind, aber eine lineare Kombination aufweisen, die stationär ist. Das Kapitel diskutiert auch die historische Entwicklung der Kointegrationstheorie, führt ihre Ursprünge auf die Arbeit von Engle und Granger zurück und betont ihre Bedeutung in der Wirtschaftsforschung. Praktische Anwendungen werden anhand eines detaillierten Beispiels anhand aktueller diskontierter Wertmodelle veranschaulicht und gezeigt, wie Kointegration genutzt werden kann, um auf das Verhalten ursprünglicher, nicht transformierter Wirtschaftsreihen zu schließen. Das Kapitel geht weiter auf das Vektorfehlerkorrekturmodell (VECM) ein, ein wichtiges Werkzeug bei der Analyse kointegrierter Prozesse, und bietet Einblicke in die Schätzung und Interpretation von Kointegrationsvektoren. Darüber hinaus wird Johansens Test für Kointegration behandelt, eine weit verbreitete Methode zur Bestimmung der Anzahl der Kointegrationsbeziehungen in einer multivariaten Zeitreihe. Das Kapitel schließt mit einem Beispiel, das diese Konzepte auf Wirtschaftsdaten aus der realen Welt anwendet und die praktische Relevanz der Kointegration in der ökonomischen Analyse aufzeigt.
    10. 17. State-Space Models and the Kalman Filter

      Klaus Neusser
      Das Kapitel stellt State-Space-Modelle vor, eine flexible Technik, die ursprünglich in der automatischen Steuerungstechnik entwickelt wurde, um dynamische Systeme darzustellen, zu modellieren und zu steuern. Diese Modelle fassen den unbeobachteten oder teilweise beobachteten Zustand eines Systems unter Verwendung eines m-dimensionalen Vektors zusammen, wobei die Entwicklung des Zustandes durch ein VAR-Modell der ersten Ordnung, die so genannte Zustandsgleichung, beschrieben wird. Eine zweite Gleichung, die Beobachtungsgleichung, verbindet den Zustand mit den Beobachtungen und erlaubt Messfehler. Diese Struktur umfasst eine breite Palette von Modellklassen, darunter VARMA, unbeobachtete Komponentenmodelle, Faktormodelle und strukturelle Zeitreihenmodelle. Der Kalman-Filter, ein von Rudolf Emil Kálmán entwickelter rekursiver Algorithmus, steht im Mittelpunkt der Analyse und liefert statistisch optimale Schätzungen des Staates. Das Kapitel hebt die Vielseitigkeit und Einfachheit der Implementierung des Kalman-Filters hervor und macht ihn zu einem beliebten Werkzeug in der ökonomisch orientierten Zeitreihenliteratur. Es bietet eine Einführung in das Thema und verweist auf wichtige Literatur für weitere Details. Das Kapitel diskutiert auch die einheitliche Behandlung von Schätzung, Prognose und Glättung, die durch die Modellierung von Zuständen im Weltraum angeboten wird, und präsentiert verschiedene Beispiele, um die Vielseitigkeit von Zuständen im Weltraum zu veranschaulichen. Dazu gehören VAR (p) -Prozesse, ARMA-Prozesse, fehlende Beobachtungen, zeitlich variierende Koeffizienten, strukturelle Zeitreihenanalysen, dynamische Faktorenmodelle und reale Geschäftszyklusmodelle. Das Kapitel behandelt auch Filter- und Glättungstechniken, den Kalman-Filter und -Glätter, die Schätzung von Raumfahrtmodellen, Identifikationsprobleme und praktische Anwendungen wie die Berechnung des vierteljährlichen BIP aus jährlichen Daten und die Analyse struktureller Zeitreihen. Der Text ist mit Übungen und detaillierten Beispielen angereichert, was ihn zu einer umfassenden Ressource für fortgeschrittene Leser macht.
    11. 18. Advanced Time Series Models

      Klaus Neusser
      Dieses Kapitel stellt eine umfassende Untersuchung bayesianischer Zeitreihenmodelle dar und stellt sie traditionellen frequentistischen Ansätzen gegenüber. Es beginnt mit der Erläuterung der grundlegenden Unterschiede zwischen den beiden Methoden, wobei die subjektive Natur der bayesianischen Wahrscheinlichkeit und ihr Schwerpunkt auf der Aktualisierung früherer Überzeugungen durch beobachtete Daten hervorgehoben werden. Das Kapitel geht den praktischen Herausforderungen und Vorteilen bayesianischer Methoden nach, insbesondere im Zusammenhang mit Vector Autoregressive (VAR) -Modellen, die häufig unter Überparametrisierung und unpräzisen Schätzungen leiden. Der Text bietet einen eingehenden Einblick in die Bayesian Vector Autoregressive (BVAR) -Modelle und hebt deren Fähigkeit hervor, Wirtschaftstheorie und Vorkenntnisse einzubeziehen und damit die Prognoseleistung zu verbessern. Außerdem werden die Spezifikation früherer Verteilungen, der Einsatz von Simulationsmethoden wie Markov Chain Monte Carlo (MCMC) und der Metropolis-Hastings-Algorithmus zur Generierung hinterer Proben diskutiert. Das Kapitel geht weiter auf fortgeschrittene Themen wie Strukturbrüche, zeitlich variierende Parameter und Regime-Switching-Modelle ein und bietet eine detaillierte Untersuchung ihrer theoretischen Grundlagen und praktischen Anwendung. Darüber hinaus deckt sie die Minnesota-Vorabverteilung ab, die in makroökonomischen VAR-Modellen weit verbreitet ist, und ihre Rolle bei der Stabilisierung von Parameterschätzungen. Das Kapitel schließt mit einer Diskussion über die Schätzung und Interpretation zeitvariierender Koeffizientenmodelle, die ein gründliches Verständnis ihrer Umsetzung und der damit verbundenen Herausforderungen vermittelt. Überall betont der Text die intuitive Klarheit und Kohärenz des bayesianischen Ansatzes, was ihn zu einer unverzichtbaren Lektüre für diejenigen macht, die ihr Verständnis fortgeschrittener Zeitreihenanalysen vertiefen wollen.
  4. Backmatter

Titel
Time Series Econometrics
Verfasst von
Klaus Neusser
Copyright-Jahr
2025
Electronic ISBN
978-3-031-88838-0
Print ISBN
978-3-031-88837-3
DOI
https://doi.org/10.1007/978-3-031-88838-0

Die PDF-Dateien dieses Buches entsprechen nicht vollständig den PDF/UA-Standards, bieten jedoch eingeschränkte Bildschirmleseunterstützung, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen zur einfachen Navigation sowie durchsuchbaren und auswählbaren Text. Nutzer von unterstützenden Technologien können Schwierigkeiten bei der Navigation oder Interpretation der Inhalte in diesem Dokument haben. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com

    ADVERTORIAL

    KI ohne Großprojekt und Risiko starten

    Mit freundlicher Unterstützung von:
    • ​​​​​​​Dell Technologies, Intel und Microsoft.
    Bildnachweise
    Schmalkalden/© Schmalkalden, NTT Data/© NTT Data, Verlagsgruppe Beltz/© Verlagsgruppe Beltz, ibo Software GmbH/© ibo Software GmbH, Sovero/© Sovero, Axians Infoma GmbH/© Axians Infoma GmbH, Prosoz Herten GmbH/© Prosoz Herten GmbH, Stormshield/© Stormshield, MACH AG/© MACH AG, OEDIV KG/© OEDIV KG, Rundstedt & Partner GmbH/© Rundstedt & Partner GmbH, Doxee AT GmbH/© Doxee AT GmbH , Governikus GmbH & Co. KG/© Governikus GmbH & Co. KG, Vendosoft/© Vendosoft, Conceptboard Cloud Service GmbH/© Vendosoft, Matrix42 GmbH/© Matrix42 GmbH, Videocast 1: Standbild/© Springer Fachmedien Wiesbaden, givve Bezahlkarte - digitale Effizienz trifft menschliche Nähe/© givve