Skip to main content

2017 | OriginalPaper | Buchkapitel

10. Regression in R – Teil II

verfasst von : Carsten F. Dormann

Erschienen in: Parametrische Statistik

Verlag: Springer Berlin Heidelberg

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Dieses Kapitel setzt Kapitel 9 in R um. Neben den Schritten der Modelldiagnostik, in Zahlen und Abbildungen, schauen wir uns den Spezialfall des „linearen Modells“ an, d.h. normalverteilte Antwortvariablen.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Fußnoten
1
Die hat-Matrix H misst analytisch den Einfluss eines Datenpunktes auf die gefitteten Werte \(\hat{y}\): \(\boldsymbol{H}=\boldsymbol{X}\left(\boldsymbol{X}^{\top}\boldsymbol{X}\right)^{-1}\boldsymbol{X}^{\top}\), wobei X die Matrix der Prädiktoren ist.
 
2
Dazu eliminieren wir einfach diese beiden Zeilen für die Analyse von unserem Datensatz, in dem wir sie mit einem negativen Index versehen: bsp[-c(1,12), ]. Dies bedeutet: lösche Zeilen 1 und 12, aber behalte alle Spalten (Leere hinter dem Komma) von bsp.
 
3
Anders sähe das bei den untransformierten x-Werten aus, bei denen 11 und 12 als auffällig identifiziert wurde. Wenn wir diese weglassen ist der Zusammenhang nicht mehr signifikant:
 
4
Etwa dispersiontest in AER für Poisson-GLMs.
 
5
Oder, alternativ, mit vglm in VGAM: summary(vglm(y   log(x)+, data=bsp+, family=negbinomial))+.
 
6
qAIC-Werte existieren zwar auch (z. B. qaic im Paket bbmle), führen aber hier zu weit ab vom Thema.
 
7
Bzw. besser der 95 %-Konfidenzintervalle, also ±2 Standardabweichungen.
 
8
Der interessierte Leser sei auf Toms und Lesperance, 2003 () und das Paket segmented verwiesen.
 
9
Tatsächlich ist in diesem Fall (nur ein Prädiktor) sogar \(F=t^{2}\).
 
10
Mit der Option test=″​Chisq″​ oder test=″​F″​ (siehe ?anova.lm) im anova-Aufruf können wir wählen, welchen Test wir für die Signifikanzwerte wählen wollen. Dabei entspricht für linearen Modelle das Verhältnis von Faktor- und Residuen-MSS einer F-Verteilung. Für nicht-normalverteilte Daten (GLM) nimmt man allgemeiner eine χ2-Verteilung an. Auf normalverteilte Daten angewandt ist diese etwas konservativer, aber meistens sehr ähnlich.
 
Metadaten
Titel
Regression in R – Teil II
verfasst von
Carsten F. Dormann
Copyright-Jahr
2017
Verlag
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-54684-0_10