Skip to main content
main-content

Über dieses Buch

Dieses Studienbuch Ökonometrie soll den Studierenden der Ökonometrie die Möglichkeit geben, ihre Kenntnisse durch die Bearbeitung konkreter Problemstellungen zu vervollkommnen, zu erweitern und zu vertiefen. Es ist als Leitfaden für eine Übungsveranstaltung im Rahmen der Grundausbildung zur Ökonometrie konzipiert und hat ausschließlich Eingleichungsmodelle zum Gegenstand. Es beschreibt das klassische Modell der linearen Einfachregression sowie das klassische Modell der linearen Mehrfachregression. Ferner behandelt es Ergänzungen zum klassischen Modell der linearen Mehrfachregression, insbesondere die multiple und partielle Korrelation, die Kollinearität, die Fehlspezifikation und qualitative Variablen als exogene Variablen und a-priori-Restriktionen, Erweiterungen des klassischen Modells der linearen Mehrfachregression, insbesondere das verallgemeinerte Modell der linearen Mehrfachregression, die reine Heteroskedastie sowie das autoregressive Schema erster Ordnung. Den Problemstellungen und Lösungsvorschlägen ist jeweils ein kurzer Lehrtext vorangestellt. Diese Lehrtexte geben die wesentlichen Aussagen der ökonometrischen Theorie für Eingleichungsmodelle in systematischer Anordnung wieder und vermitteln die in diesem Buch zugrundeliegenden Grundbegriffe sowie die verwendete Notation.

Inhaltsverzeichnis

Frontmatter

Einführung

Grundbegriffe, Konzepte und Aufgaben der Ökonometrie
Zusammenfassung
Zur Diskussion steht die Ökonometrie als wissenschaftliche Disziplin.
Eberhard Schaich, Hans Wolfgang Brachinger

Erstes Kapitel. Das Klassische Modell der Linearen Einfachregression

Zusammenfassung
Beim klassischen Modell der linearen Einfachregression geht man von n linearen Regressionsbeziehungen
$$ {\tilde{y}_{i}} = {\beta _{1}} + {\beta _{2}}{x_{i}} + {\tilde{u}_{i}}\quad \left( {i = 1, \ldots ,n} \right) $$
(1. - 1)
aus, die jeweils zwischen einem Wert x i einer deterministischen Variablen x und zwei stochastischen Variablen ỹ i und ũ i bestehen. Die Parameter β1 und β2 dieser Regressionsbeziehungen werden als Regressionsparameter bezeichnet; die Gesamtheit der Regressionsbeziehungen heißt Strukturgerade. Die stochastischen Variablen ũ i werden Störvariablen dieser Regressionsbeziehungen genannt.
Eberhard Schaich, Hans Wolfgang Brachinger

Zweites Kapitel. Das Klassische Modell der Linearen Mehrfachregression

Zusammenfassung
Beim klassischen Modell der linearen Mehrfachregression geht man von n linearen Regressionsbeziehungen
$$ {\tilde{y}_{i}} + {\beta _{1}} + {\beta _{2}}{x_{{2i}}} + \ldots + {\beta _{k}}{x_{{ki}}} + {\tilde{u}_{i}}\quad \left( {i = 1, \ldots ,n} \right) $$
(1. - 2)
aus, die jeweils zwischen Werten x2i, x3i,...,x ki von k — 1 deterministischen Variablen x j (j = 2,..., k) und zwei stochastischen Variablen ỹ i und ũ i bestehen. Die Parameter β1, β2,..., β k dieser Regressionsbeziehungen werden als Regressionsparameter bezeichnet; die Gesamtheit der Regressionsbeziehungen heißt Strukturhyperebene. Die stochastischen Variablen ũ i werden Störvariablen dieser Regressionsbeziehungen genannt.
Eberhard Schaich, Hans Wolfgang Brachinger

Drittes Kapitel. Ergänzungen zum Klassischen Modell der Linearen Mehrfachregression

Zusammenfassung
Bezeichnet man mit
$$ s_y^2: = \frac{1} {{n - 1}}\sum\limits_{i = 1}^n {{{({y_i} - \bar y)}^2}} $$
die Varianz der Beobachtungswerte y i , mit
$$ s_y^2: = \frac{1} {{n - 1}}\sum\limits_{i = 1}^n {{{({{\hat y}_i} - \bar y)}^2}} $$
die Varianz der geschätzten Regressionswerte ỹ i und mit
$$ s_y^{r2}: = \frac{1} {{n - 1}}\sum\limits_{i = 1}^n {d_i^2} $$
die Varianz der Residuen d i eines Mehrfachregressionsansatzes, dann gilt die Varianzzerlegungsformel
Eberhard Schaich, Hans Wolfgang Brachinger

Viertes Kapitel. Erweiterungen des Klassischen Modells der Linearen Mehrfachregression

Zusammenfassung
Beim verallgemeinerten Modell der linearen Mehrfachregression wird für die Strukturbeziehung
$$ \mathop {\tilde y - \mathop X\limits_ - }\limits_{} \mathop \beta \limits_ - + \mathop {\tilde u}\limits_ - $$
des linearen Mehrfachregressionsansatzes (vgl. Beziehung (2.-2)) zugelassen, daß die Störvariablen nicht homoskedastisch und nicht unkorreliert sind; es dürfen also Heteroskedastie und Autokorrelation vorliegen. Die Annahme (A.2.-2) des klassischen Regressionsmodells (vgl. Kapitel 2) wird zu einer Annahme (A.4.-2) abgeschwächt; dabei werden folgende zwei Varianten unterschieden: (A.4.-2′) Für die Varianz-Kovarianz-Matrix var ũ des Störvariablenvektors ũ gilt
$$ \operatorname{var} \mathop {\tilde u}\limits_ - = {\sigma ^2} \cdot \mathop \Omega \limits_ - $$
var ũ = σ2 · Ω, wobei Ω eine positiv definite Matrix ist, d.h. für Ω gilt xΩx > 0 für alle x Rn mit x0. (A.4.-2″) Die Varianz-Kovarianz-Matrix var ũ des Störvariablenvektors ũ ist regulär, besitzt also vollen Rang.
Eberhard Schaich, Hans Wolfgang Brachinger

Backmatter

Weitere Informationen