Skip to main content
main-content

Über dieses Buch

Dieses Buch bietet eine kompakte und verständnisorientierte Einführung in die Inferenzstatistik. Ein Schwerpunkt ist dabei die zugrundeliegende Logik der Inferenzstatistik und des Hypothesentestens. Dies ermöglicht es, die Tücken der Datenauswertung kennenzulernen und Ergebnisse richtig zu interpretieren. Darüber hinaus wird die Logik auf die gängigsten Verfahren (t-Test, Varianzanalyse mit und ohne Messwiederholung, Korrelation/Regression) übertragen. Eine Ergänzung liefern Beispiele aus dem Forschungsalltag inklusive exemplarischer Auswertungen mit den Programmen SPSS und R. Die zweite Auflage bietet neben zahlreichen sprachlichen Überarbeitungen verschiedene Querverweise auf aktuelle Entwicklungen der psychologischen Methodenforschung.

Inhaltsverzeichnis

Frontmatter

1. Einführung und deskriptive Statistik

Zusammenfassung
Das Kapitel gibt eine kurze Einführung in die Grundlagen der deskriptiven Statistik, welche für das Verständnis der späteren Kapitel unerlässlich sind. Nach einer Klärung relevanter Begriffe und Schreibweisen, werden die wichtigsten und gebräuchlichsten deskriptiven Maße betrachtet und ihre Berechnung per Hand sowie mithilfe von Computerprogrammen (R und SPSS) vorgestellt. Die deskriptive Statistik erlaubt es, die Daten einer vorliegenden Stichprobe zu beschreiben und ihre wesentlichen Aspekte zu quantifizieren. Um von der vorliegenden Stichprobe allgemeinere Aussagen ableiten zu können sind hingegen die Methoden der Inferenzstatistik gefragt, die in den späteren Kapiteln beschrieben werden.
Markus Janczyk, Roland Pfister

2. Grundlagen der Inferenzstatistik 1: Zufallsvariablen

Zusammenfassung
Ziel der Inferenzstatistik ist es, aus den Daten einer gegebenen Stichprobe Aussagen über eine dahinter stehende Population abzuleiten (vgl. Kap. 3). Um die Grundlagen dieses Vorgangs nachvollziehen zu können, werden in diesem Kapitel verschiedene mathematische Konzepte betrachtet: das Zufallsexperiment sowie Zufallsvariablen und deren Verteilungen. Hierbei wird mit dem einfacheren Fall diskreter Zufallsvariablen begonnen, bevor schließlich der für spätere Überlegungen relevante Fall stetiger Zufallsvariablen beschrieben wird. In diesem Zusammenhang wird auch die Normalverteilung eingeführt, die in der Inferenzstatistik eine zentrale Rolle spielt.
Markus Janczyk, Roland Pfister

3. Grundlagen der Inferenzstatistik 2: Population und Parameterschätzung

Zusammenfassung
Das Kapitel beschäftigt sich mit der grundlegenden Unterscheidung von Stichprobe und Population und beschreibt das Wechselspiel von Stichprobenziehung einerseits und Parameterschätzung andererseits. Anhand einer Simulation wird hierbei der Zusammenhang von Stichprobenstatistiken und hypothetischen Populationsparametern betrachtet und schließlich beschrieben, welche Gütekriterien ein Schätzer erfüllen muss.
Markus Janczyk, Roland Pfister

4. Hypothesentests und Signifikanz

Zusammenfassung
Aufbauend auf der Unterscheidung von Stichprobe und Population beschäftigt sich dieses Kapitel mit dem Testen von Hypothesen über Populationsparameter. Hierbei werden inhaltliche Hypothesen zunächst in eine statistische Formulierung überführt, die aus einem sich ausschließenden Paar von Null- und Alternativhypothese besteht. Eine Entscheidung zwischen diesen beiden Hypothesen wird auf Basis des Ergebnisses eines Signifikanztests getroffen. In diesem Zusammenhang werden die Konzepte des Signifikanzniveaus sowie des p-Werts diskutiert und die der Entscheidung zugrunde liegende Logik anhand einer Simulation betrachtet. Diese Logik ist gleichzeitig der Grundstein für alle weiteren Testverfahren, die in diesem Buch behandelt werden.
Markus Janczyk, Roland Pfister

5. Unterschiedshypothesen bei bis zu zwei Gruppen: t-Tests

Zusammenfassung
Der t-Test ist eines der am häufigsten eingesetzten Testverfahren und erlaubt es, Unterschiedshypothesen bei bis zu zwei Gruppen zu testen. Genau genommen handelt es sich hierbei um eine Familie statistischer Tests, die für verschiedene Untersuchungsdesigns und Fragestellungen relevant sind: der t-Test für (zwei) unabhängige Stichproben, der t-Test für (zwei) abhängige Stichproben und der Einstichproben-t-Test. Die ersten beiden Tests überprüfen, ob eine empirische Mittelwertsdifferenz auch für Unterschiede der Populationsmittelwerte spricht. Der dritte Test vergleicht einen Stichprobenmittelwert mit einem angenommenen Populationsmittelwert.
Markus Janczyk, Roland Pfister

6. Konfidenzintervalle

Zusammenfassung
In den vorangegangenen Kapiteln wurde betrachtet, wie ein Populationsmittelwert und die dazugehörige Populationsvarianz aus vorhandenen Stichproben geschätzt werden können. Die entsprechenden Schätzer werden üblicherweise als Punktschätzer bezeichnet, man kann jedoch noch einen Schritt weiter gehen und einen Bereich angeben, in dem plausible Populationsparameter liegen. In einem solchen Fall spricht man von Bereichsschätzung, und die berechneten Bereiche nennt man Konfidenzintervalle (engl.: confidence intervals). Das Kapitel beginnt mit der allgemeinen Form eines Konfidenzintervalls und wendet diese dann auf das (normale) Konfidenzintervall um Mittelwerte an. Danach werden die Konzepte des Nullhypothesentests und des Berechnens von Konfidenzintervallen gegenübergestellt und schließlich Konfidenzintervalle für abhängige Stichproben betrachtet.
Markus Janczyk, Roland Pfister

7. Fehlertypen, Effektstärken und Power

Zusammenfassung
Obwohl signifikante Ergebnisse oft gewünscht werden, sagt – wie in diesem Kapitel aufgezeigt wird – die bloße Signifikanz eines Tests nichts über die Stärke eines Effekts aus, und man kann sich berechtigt fragen: Bedeutet statistische Signifikanz auch immer „inhaltliche Relevanz“ bzw. „praktische Bedeutsamkeit“? In diesem Kapitel werden diejenigen Konzepte eingeführt, die zur Beantwortung dieser Frage benötigt werden, und begonnen wird dabei mit einer systematischen Betrachtung statistischer Entscheidungen. Im Anschluss wird Cohen’s d als Maß der Effektstärke für die bisher behandelten t-Tests betrachtet. Das Konzept der Effektstärke führt schließlich zur Power (Teststärke) eines Signifikanztests und der Frage nach dem optimalen Stichprobenumfang.
Markus Janczyk, Roland Pfister

8. Einfaktorielle Varianzanalyse

Zusammenfassung
Mit den bisher behandelten Verfahren können Unterschiedshypothesen für bis zu zwei Gruppen bzw. Bedingungen mittels eines t-Tests geprüft werden. In der Realität treten allerdings häufig Situationen auf, bei denen mehr als zwei Gruppen oder Bedingungen verglichen werden sollen, und bei solchen Situationen wird üblicherweise auf die sog. Varianzanalyse (engl.: Analysis of Variance; ANOVA) zurückgegriffen. Dieses Kapitel behandelt den einfachsten Fall einer Varianzanalyse, bei der es nur eine unabhängige Variable gibt (man spricht hier auch von einem Faktor), die aber mehr als zwei Ausprägungen haben kann. Diese sog. einfaktorielle Varianzanalyse ist gewissermaßen eine Verallgemeinerung des t-Tests für zwei unabhängige Stichproben auf mehr als zwei Gruppen.
Markus Janczyk, Roland Pfister

9. Mehrfaktorielle Varianzanalyse

Zusammenfassung
In vielen Untersuchungssituationen gibt es nicht nur eine, sondern zwei (oder mehr) unabhängige Variablen. Auch in solchen Fällen kann die Varianzanalyse zur Auswertung genutzt werden, und in diesem Kapitel wird die einfaktorielle Varianzanalyse aus Kap. 8 auf den Fall mehrerer Faktoren erweitert. Zum Verständnis der generellen Idee beginnt das Kapitel mit der zweifaktoriellen Varianzanalyse und betrachtet in diesem Zusammenhang die Unterscheidung von Haupteffekten und Interaktionen der beteiligten Faktoren. Am Ende des Kapitels wird ein kurzer Ausblick auf den Fall von drei (oder mehr) Faktoren gegeben. Weiterhin wird die Logik der mehrfaktoriellen Varianzanalyse auch zum Verständnis der Varianzanalyse mit Messwiederholung benötigt (Kap. 10).
Markus Janczyk, Roland Pfister

10. Varianzanalyse mit Messwiederholung

Zusammenfassung
So wie die einfaktorielle Varianzanalyse eine Verallgemeinerung des t-Tests für unabhängige Stichproben war, kann die Varianzanalyse mit Messwiederholung (engl.: repeated-measures oder within-subject Analysis of Variance) gewissermaßen als Verallgemeinerung des t-Tests für zwei abhängige Stichproben auf mehr als zwei Stichproben gesehen werden: Hier liegt der Fokus also auf den bedingungsabhängigen Veränderungen innerhalb jeder Versuchsperson. Um das Prinzip der Varianzanalyse mit Messwiederholung zu verstehen, beginnt das Kapitel zunächst mit der Betrachtung einer vereinfachten Methode zur Berechnung, die sog. ipsative Werte verwendet. Im Anschluss wird die allgemeine Vorgehensweise zur Berechnung einer einfaktoriellen Varianzanalyse mit Messwiederholung eingeführt, die große Ähnlichkeit mit einer zweifaktoriellen Varianzanalyse (Kap. 9) besitzt.
Markus Janczyk, Roland Pfister

11. Zusammenhangshypothesen: Korrelation und Regression

Zusammenfassung
Alle vorangegangenen Kapitel haben sich mit Verfahren zur Prüfung von Unterschiedshypothesen beschäftigt. Dieses Kapitel wendet sich nun einem weiteren Bereich zu: den Zusammenhangshypothesen. Zunächst wird dazu geklärt, was eigentlich ein statistischer Zusammenhang (oder statistische Abhängigkeit) ist. Anschließend wird mit dem Korrelationskoeffizienten ein Maß zur Beschreibung eines linearen Zusammenhangs hergeleitet. Danach folgt eine Behandlung der einfachen linearen Regression, die eine weitere Sichtweise auf den Zusammenhang zweier Variablen darstellt. Im letzten Abschnitt werden schließlich weitergehende Konzepte wie die multiple Regression sowie die Partialkorrelation kurz beschrieben.
Markus Janczyk, Roland Pfister

12. Anmerkungen zum Schluss

Zusammenfassung
Die in diesem Buch behandelten Verfahren erlauben es, verschiedenste Datensätze auszuwerten und inhaltliche Hypothesen statistisch abzusichern. Darüber hinaus gibt es natürlich zahlreiche weitere inferenzstatistische Verfahren; in Anbetracht dieser Vielfalt statistischer Tests sollte jedoch nicht vergessen werden, dass das Vorgehen bei allen Verfahren konzeptuell völlig identisch ist. Wer dieses Vorgehen einmal verinnerlicht hat, verfügt also über das nötige Rüstzeug, um jeden beliebigen statistischen Test korrekt durchzuführen und dessen Ergebnis interpretieren zu können. Zum Abschluss des Buches sind die wichtigsten Schritte daher in diesem Kapitel kurz zusammengefasst.
Markus Janczyk, Roland Pfister

Backmatter

Weitere Informationen

Premium Partner

    Bildnachweise