Skip to main content
Top

2011 | Book

Datenanalyse mit SPSS für Fortgeschrittene 1

Datenaufbereitung und uni- und bivariate Statistik

insite
SEARCH

About this book

Das Buch ist als Arbeitsprogramm für Studierende der Sozialwissenschaften konzipiert: Ziel ist es, sozialwissenschaftliche Fragestellungen in statistische Auswertungskonzepte umzusetzen und diese mit der Statistik-Software SPSS selbständig bearbeiten zu können. Dazu werden typische Probleme der Datenbereinigung und -konstruktion ebenso behandelt wie grundlegende Techniken und Fragestellungen deskriptiver und induktiver univariater und bivariater Statistik. Was dieses Buch von anderen unterscheidet, sind sein starker Praxisbezug und sein Kurscharakter: Die Autoren verfügen über langjährige Lehr- und Forschungserfahrung in der empirischen Sozialforschung und im Data Mining und konnten deshalb praxistypische Probleme in besonderer Weise berücksichtigen. Alle Fragestellungen werden an realen Daten erläutert und bearbeitet, so dass auch forschungstypische Probleme wie z.B. fehlende Werte an praktischen Beispielen erarbeitet werden können. Zu allen Themen gibt es Aufgaben und Lösungen auf der Verlagshomepage, so dass das Buch auch als ein- oder zweisemestriger Methodenkurs verwendet werden kann. Ein Vorschlag für einen Arbeitsplan hilft Dozierenden bei der Seminarvorbereitung.

Die 3. Auflage ist nicht nur komplett überarbeitet, sondern auch erweitert, insbesondere um einen Teil zur schließenden Statistik, der sich insbesondere dem Hypothesentesten widmet.

Table of Contents

Einleitung: Die Rolle von SPSS im Forschungsprozess

Einleitung: Die Rolle von SPSS im Forschungsprozess

Gegenstand dieses Buches sind Fragen der Aufbereitung und Analyse quantitativer Daten. Dabei wollen wir uns nicht auf bloß auswertungstechnische Fragen beschränken, sondern zeigen, wie sich wie sich konkrete empirische Fragestellungen in statistische Auswertungsstrategien umsetzen lassen und diskutieren dabei typische Probleme, die in diesem Prozess auftreten. Zunächst soll der Prozess der Datenaufbereitung und Auswertung in den Forschungsprozess insgesamt eingeordnet werden.

Grafik L1

gibt einen Überblick über typische Phasen eines Forschungsprozesses (vgl. z. B. auch

Alemann

1984,

Behnke

et al. 2010,

Diekmann

2007,

Friedrichs

2006,

Kromrey

2009 sowie

Schnell

et al. 2008). Ob tatsächlich alle Schritte des Forschungsprozesses in einem konkreten Projekt durchlaufen werden, hängt davon ab, ob eigene Daten erhoben oder aber bereits bestehende Datensätze verwendet werden sollen. Die Auswertung selbst erhöhender Daten wird als

Primäranalyse

bezeichnet, die Auswertung von Daten, die urspünglich für ein anderes Projekt erhoben wurden, als

Sekundäranalyse

. Sollen frühere Ergebnisse nachgeprüft und repliziert werden, spricht man von

Re-Analysen

bzw.

Replikationsstudien.

Datenaufbereitung

Kapitel 1. Vom Fragebogen zum Datensatz

Wie wir im vorherigen Kapitel gezeigt haben, benötigt man SPSS (oder andere Statistikpakete) nur in zwei Phasen des Forschungsprozesses und nur für einen bestimmten Typus empirischer Sozialforschung: in der Aufbereitungs- und in der Auswertungsphase bei quantitativer Sozialforschung. Dieses Kapitel befasst sich mit der Aufbereitungsphase und geht zusätzlich auf die Verknüpfung der Datenerhebungsphase mit der Datenaufbereitungsphase ein.

Kapitel 2. Nützliche Software und Fundorte für Daten

Die statistischen Analysen in diesem Lehrbuch werden mit dem Programm SPSS durchgeführt, einer der am weitesten verbreiteten Statistiksoftware in der sozialwissenschaftlichen Methodenausbildung und Forschungspraxis. Obwohl SPSS für viele Auswertungsprobleme sehr gut geeignet ist, birgt der Einsatz nur eines Programms stets die Gefahr, die eigene Arbeit durch die Auswertungsmöglichkeiten dieses Programms zu standardisieren und über Alternativen nicht mehr nachzudenken. Wir wollen in diesem Kapitel deshalb auf andere Statistiksoftware hinweisen, die zum Teil als Alternative, zum Teil als Ergänzung zum Einsatz von SPSS gesehen werden kann. Weiterhin verweisen wir auf Data Mining-Tools sowie auf Programme zur qualitativen Analyse. Für einige der genannten Programme sind Demoversionen als Freeware verfügbar und können von der jeweiligen Website herunter geladen werden.

Kapitel 3. Mängel im Datensatz beseitigen

Zwar erfordert die Datenbereinigung kaum besondere methodische Kenntnisse und es lassen sich auch wenig allgemeingültige Hinweise über die Vorgehensweise geben. Doch gerade bei der Datenbereinigung tut sich eine starke Diskrepanz zwischen Lehre und Forschungspraxis auf, die geschlossen werden sollte: Weil Studierende und Forscher (nahezu) nie mit dieser Frage konfrontiert wurden und weil es den Ergebnissen einer Studie auf den ersten Blick nicht anzusehen ist, ob die Daten bereinigt wurden, ist die Versuchung groß, diesen Arbeitsschritt ganz und gar „unter den Tisch fallen zu lassen“. Akademische Methodenlehre und Lehrbücher thematisieren die Datenbereinigung kaum. Dabei ist er für die Qualität der Ergebnisse von großer Bedeutung. Es mag sein, dass in vier von fünf Erhebungen keine nennenswerten Fehler im Datensatz zu entdecken sind. Doch angesichts der Tatsachen, dass immer häufiger „fremde“ Daten re-analysiert werden und dass bei „eigenen“ Studien die Erhebung oft an Dritte delegiert wird, sollte es selbstverständlich sein, dass man sich der Qualität der Daten versichert.

Kapitel 4. Zusammenführen von Datensätzen und Wechsel der Analyseebene

Wie Kapitel 1 gezeigt hat, sind viele Schritte nötig, um zu einem fertigen Datensatz zu kommen. Doch selbst wenn ein fertig erhobener und formatierter Datensatz zur Reanalyse beschafft wird - und alle in Kapitel 1 vorgestellten Arbeitsschritte wegfallen - fallen vor der Datenauswertung häufig weitere Vorarbeiten an. Beispielsweise sollen verschiedene Erhebungswellen einer Panel-Befragung gleichzeitig ausgewertet werden und müssen daher erst zu einem Datensatz zusammengeführt werden. Oder es soll eine Auswertung auf Haushaltsebene durchgeführt werden, es liegen aber nur Individualdaten vor.

Kapitel 5. Neue Variablen berechnen

Beim Berechnen neuer Variablen geht es darum, Informationen, die im Datenerhe- bungsprozess gewonnen wurden, entweder zu erweitern oder zu verdichten. Neue, zusätzliche Variablen werden an unterschiedlichen Stellen des Auswertungsprozesses generiert: Nach der Bereinigung des Datensatzes um offensichtliche Eingabefehler, dem Kodieren bzw. dem Ausschluss fehlender Werte und anderen Operationen der Datenaufbereitung wird man z. B. häufig Mehrfachantworten zusammenfassen oder mittels arithmetischer bzw. logischer Operationen neue Variablen berechnen, die in dieser Form nicht mit dem Fragebogen erhoben werden konnten. Neue Variablen werden aber oft auch als Ergebnisse komplexer Auswertungen berechnet, etwa wenn man Summenvariablen bildet, um die Ausprägungen einer Disposition festzuhalten, oder Extremgruppen vergleicht. Die jeweils verwendeten Transformationsbefehle sind dabei die gleichen. Im Folgenden werden die am häufigsten verwendeten Befehle zur Berechnung neuer Variablen vorgestellt:

recode, compute, count

und

if.

Kapitel 6. Arbeitserleichterungen für geübte Nutzer

Die folgenden Tipps sollen dabei helfen, effizienter mit SPSS zu arbeiten. Dabei ist es wichtig, dass der Anwender bereits gut mit dem Programm vertraut ist. Es handelt sich um Hinweise zu jeweils unterschiedlichen Themenbereichen, so dass das Kapitel nicht chronologisch gelesen werden muss.

Beschreibende Statistik

Kapitel 7. Univariate Statistik

Wenn Sie Datensätze analysieren, sollten Sie als erstes die eindimensionalen Häufigkeitsverteilungen untersuchen, d. h. Sie sollten jede Variable zunächst für sich analysieren. Insbesondere die Verteilung, Lage, Streuung und Schiefe jeder Variablen müssen untersucht werden.

Kapitel 8. Kreuztabellen und Kontingenzanalyse

Ziel der Kreuztabellierung und Kontingenzanalyse ist es, Zusammenhänge zwischen zwei nominalen Variablen zu entdecken. Des Weiteren können Zusammenhänge zwischen ordinalskalierten und metrischen Variablen oder zwischen Variablen mit verschiedenen Skalenniveaus untersucht werden. Voraussetzung ist, dass die Zahl der Ausprägungen nicht zu groß ist. Die Kreuztabellierung dient dazu, Ergebnisse einer Erhebung tabellarisch darzustellen und auf diese Art und Weise einen möglichen Zusammenhang zwischen Variablen zu erkennen. Das Erkenntnisinteresse bei der Analyse von Kreuztabellen ist fast immer kausalanalytisch.

Kapitel 9. Das Ordinalskalenproblem

Jedes statistische Verfahren setzt ein Mindestskalenniveau voraus. Ein Verfahren für nominale Daten kann also auch für höhere Skalenniveaus angewandt werden. Allerdings gehen dabei Informationen verloren. Bei nominalen und metrischen Variablen ist dies kein Problem: Für beide Skalenniveaus existieren zahlreiche leistungsfähige Verfahren. Das Problem stellen Daten auf ordinalem Skalenniveau dar - obwohl sie in den Sozialwissenschaften ein sehr häufiger Datentyp sind, existieren hierfür fast keine Verfahren.

Kapitel 10. Kontrolle von Drittvariablen für bivariate Beziehungen

Existiert ein statistischer Zusammenhang zwischen zwei Variablen X (z. B. „Bildungsgrad“) und Y („Wahrscheinlichkeit der Nichtwahl“), muss sichergestellt werden, dass keine dritte Variable Z (z. B. „Geschlecht“) die bivariate Beziehung verursacht, also ein Effekt einer dritten Variablen vorliegt.

Schließende Statistik

Kapitel 11. Hypothesentests

Wissenschaftliche Hypothesen

haben entweder die Form von Sätzen, in denen gesagt wird: „Es gibt (...)“, oder sie haben die Form: Wenn (...) dann (...). Hiernach lassen sich „Es-gibt-Hypothesen“ und „Wenn-Dann-Hypothesen“ unterscheiden. Bei den

,JEs-gibt Hypothesen

“ lassen sich Aussagen über Einzelereignisse („Es gibt einen Planeten der Sonne jenseits des Saturn“) oder über Massenereignisse unterscheiden. Hypothesen über Massenereignisse wären: „Es gibt in dieser Grundgesamtheit von erwachsenen Personen einen hohen Anteil von Analphabeten.“ „Es gibt zwischen den beiden Einkommensgruppen A und B einen bedeutsamen Unterschied der Erwerbseinkommen.“ „Die Erwerbseinkommen der Gruppe B sind gesunken.“

„Wenn- Dann-Hypothesen“

beziehen sich auf Kausalzuammenhänge mindestens zweier Variablen, zwischen denen nicht nur zufällige, sondern systematische statistische Beziehungen bestehen: „Wenn Kinder aus Familien mit Migrationshintergrund kommen, dann haben sie schlechtere Aussichten auf dem Arbeitsmarkt.“

Kapitel 12. Probleme der Hypothesenprüfung mittels Signifikanztests

Herr Meyer trifft nach langer Zeit in einem Lokal seinen alten Bekannten Herrn Müller, der ihm nach kurzem Gespräch eröffnet, er habe übersinnliche Fähigkeiten entwickelt und sei aufgrund dieser Fähigkeiten unter anderem in der Lage zufällige Abläufe zu beeinflussen. Er will dies auch belegen und behauptet, er schaffe es z.B. beim Münzwurf in mindestens drei von vier Fällen ’Kopf zu werfen. Da Herr Meyer ein rationaler Skeptiker ist, hat er Zweifel an den übersinnlichen Fähigkeiten seines alten Bekannten und rechnet anhand seiner statistischen Kenntnisse ein konkretes Beispiel für diese Behauptung durch: Die Wahrscheinlichkeit des Ereignisses ’Kopf ist beim Münzwurf p=0,5 und bei z.B. n = 20 Würfen ist mit n*p = 10mal ‘Kopf’ zu rechnen.

Ergebnispräsentation

Kapitel 13. Tabellen und Grafiken mit SPSS für Windows gestalten

Tabellen und Grafiken werden in Forschungsberichten verwendet, um die inhaltliche Argumentation mit empirischen Daten zu belegen. Bei der Gestaltung von Tabellen und Grafiken spielt der Verwendungskontext daher eine maßgebliche Rolle. So sollen nur diejenigen statistischen Daten präsentiert werden, auf die auch im Text Bezug genommen wird. Die optische Darstellung sollte auf das Layout abgestimmt sein, in dem der Bericht gehalten ist. Insgesamt sind inhaltliche und optische Klarheit, leichte Lesbarkeit und Übersichtlichkeit in der Präsentation der statistischen Daten die wichtigsten Leitlinien.

Kapitel 14. Statistische Ergebnisse präsentieren

Wer statistische Ergebnisse präsentieren will, sieht sich oft mit dem Problem konfrontiert, nur eine kleine Auswahl aus den gesamten Daten einer Studie treffen zu müssen und diese einem Publikum vorzuführen, das über ein mehr oder weniger ausgeprägtes Vor- bzw. Fachwissen verfügt.

Metadata
Title
Datenanalyse mit SPSS für Fortgeschrittene 1
Copyright Year
2011
Electronic ISBN
978-3-531-93041-1
Print ISBN
978-3-531-17015-2
DOI
https://doi.org/10.1007/978-3-531-93041-1