Skip to main content

2008 | Buch

Datenanalyse mit SPSS für Fortgeschrittene

Ein Arbeitsbuch

herausgegeben von: Dr. Nina Baur, Dr. Sabine Fromm

Verlag: VS Verlag für Sozialwissenschaften

insite
SUCHEN

Inhaltsverzeichnis

Frontmatter

Einleitung: Die RoUe von SPSS im Forschungsprozess

Einleitung: Die RoUe von SPSS im Forschungsprozess
Auszug
In den folgenden Kapiteln fokussieren wir lediglich ein Teilgebiet der empirischen Sozialforschung — die quantitative Sozialforschung — und einen Ausschnitt innerhalb des Prozesses quantitativer Sozialforschung: die Datenaufbereitung und -analyse. Wir woUen zeigen, wie sich konkrete empirische Fragestellungen in statistische Auswertungsstrategien umsetzen lassen und diskutieren dabei typische Probleme, die in diesem Prozess auftreten. Die Konzentration auf den Teilaspekt der quantitativen Datenanalyse ist keine Aussage tiber seine Wichtigkeit. Jedes Forschungsvorhaben lauft in mehreren Phasen ab, deren Qualitat voneinander abhangt. Ein Beispiel fur die Unterscheidung der verschiedenen Phasen gibt Grafik 1.1 (vgl. z. B. auch Alemann (1984), Behnke et. al. (2006), Diekmann (2007), Friedrichs (2006), Kromrey (2006) sowie Schnell et. al. (2004)).

SPSS und Statistik im Rahmen des Forschungsprozesses

Frontmatter
Kapitel 1. Vom Fragebogen zum Datensatz
Auszug
Wie wir im vorherigen Kapitel gezeigt haben, benötigt man SPSS (oder andere Statistikpakete) nur in zwei Phasen des Forschungsprozesses und nur für einen bestimmten Typus empirischer Sozialforschung: in der Aufbereitungs- und in der Auswertungsphase bei quantitativer Sozialforschung. Dieses Kapitel befasst sich mit der Aufbereitungsphase und geht zusätzlich auf die Verknüpfung der Datenerhebungsphase mit der Datenaufbereitungsphase ein. Anders formuliert, geht es um die Frage: Wie kommt man zu einem fertigen Datensatz? Im Einzelnen müssen bis zu diesem Punkt folgende Arbeiten durchgeführt werden:
1)
Erstellen des Fragebogens
 
2)
Erstellen des Codeplans
 
3)
Durchfuhren des Pre-Tests und Überarbeitung von Fragebogen und Codeplan
 
4)
Durchfuhren der Haupterhebung
 
5)
Datenerfassung
 
6)
Nachkontrolle der Daten
 
7)
Datenaufbereitung
 
Detlev Lück, Nina Baur
Kapitel 2. Zusammenführen von Datensätzen und Wechsel der Analyseebene
Auszug
Wie Kapitel 1 gezeigt hat, sind viele Schritte nötig, um zu einem fertigen Datensatz zu kommen. Doch selbst wenn ein fertig erhobener und formatierter Datensatz zur Reanalyse beschafft wird — und alle in Kapitel 1 vorgestellten Arbeitsschritte wegfallen — fallen vor der Datenauswertung häufig weitere Vorarbeiten an. Beispielsweise sollen verschiedene Erhebungswellen einer Panel-Befragung gleichzeitig ausgewertet werden und müssen daher erst zu einem Datensatz zusammengeführt werden. Oder es soll eine Auswertung auf Haushaltsebene durchgeführt werden, es liegen aber nur Individualdaten vor.
Detlev Lück
Kapitel 3. Mängel im Datensatz beseitigen
Auszug
Zwar erfordert die Datenbereinigung kaum besondere methodische Kenntnisse und es lassen sich auch wenig allgemeingültige Hinweise über die Vorgehensweise geben. Doch gerade bei der Datenbereinigung tut sich eine starke Diskrepanz zwischen Lehre und Forschungspraxis auf, die geschlossen werden sollte: Weil Studierende und Forscher (nahezu) nie mit dieser Frage konfrontiert wurden und weil es den Ergebnissen einer Studie auf den ersten Blick nicht anzusehen ist, ob die Daten bereinigt wurden, ist die Versuchung groß, diesen Arbeitsschritt ganz und gar „unter den Tisch fallen zu lassen“. Dabei ist er für die Qualität der Ergebnisse von großer Bedeutung. Es mag sein, dass in vier von fünf Erhebungen keine nennenswerten Fehler im Datensatz zu entdecken sind. Doch angesichts der Tatsachen, dass immer häufiger „fremde“ Daten re-analysiert werden und dass bei „eigenen“ Studien die Erhebung oft an Dritte delegiert wird, sollte es selbstverständlich sein, dass man sich der Qualität der Daten versichert.
Detlev Lück
Kapitel 4. Neue Variablen berechnen
Auszug
Beim Berechnen neuer Variablen geht es darum, Informationen, die im Datenerhebungsprozess gewonnen wurden, entweder zu erweitern oder zu verdichten 10. Neue, zusätzliche Variablen werden an unterschiedlichen Stellen des Auswertungsprozesses generiert: Nach der Bereinigung des Datensatzes um offensichtliche Eingabefehler, dem Kodieren bzw. dem Ausschluss fehlender Werte und anderen Operationen der Datenaufbereitung wird man z. B. häufig Mehrfachantworten zusammenfassen oder mittels arithmetischer bzw. logischer Operationen neue Variablen berechnen, die in dieser Form nicht mit dem Fragebogen erhoben werden konnten. Neue Variablen werden aber oft auch als Ergebnisse komplexer Auswertungen berechnet, etwa wenn man Summenvariablen bildet, um die Ausprägungen einer Disposition festzuhalten, oder Extremgruppen vergleicht (vgl. z. B. Kapitel 14 in diesem Band). Die jeweils verwendeten Transformationsbefehle sind dabei die gleichen. Im Folgenden stelle ich die am häufigsten verwendeten Befehle zur Berechnung neuer Variablen vor: RECODE, COMPUTE, COUNT und IF.
Sabine Fromm
Kapitel 5. Tabellen und Grafiken mit SPSS für Windows gestalten
Auszug
Tabellen und Grafiken werden in Forschungsberichten verwendet, um die inhaltliche Argumentation mit empirischen Daten zu belegen. Bei der Gestaltung von Tabellen und Grafiken spielt der Verwendungskontext daher eine maßgebliche Rolle. So sollen nur diejenigen statistischen Daten präsentiert werden, auf die auch im Text Bezug genommen wird. Die optische Darstellung sollte auf das Layout abgestimmt sein, in dem der Bericht gehalten ist. Insgesamt sind inhaltliche und optische Klarheit, leichte Lesbarkeit und Übersichtlichkeit in der Präsentation der statistischen Daten die wichtigsten Leitlinien.
Simone Zdrojewski
Kapitel 6. Statistische Ergebnisse präsentieren
Auszug
Wer statistische Ergebnisse präsentieren will, sieht sich oft mit dem Problem konfrontiert, nur eine kleine Auswahl aus den gesamten Daten einer Studie treffen zu müssen und diese einem Publikum vorzufuhren, das über ein mehr oder weniger ausgeprägtes Vor-bzw. Fachwissen verfügt.
Jan D. Engelhardt
Kapitel 7. Arbeitserleichterungen für geübte Nutzer
Auszug
Die folgenden Tipps sollen dabei helfen, effizienter mit SPSS zu arbeiten. Dabei ist es wichtig, dass der Anwender bereits gut mit dem Programm vertraut ist. Es handelt sich um Hinweise zu jeweils unterschiedlichen Themenbereichen, so dass das Kapitel nicht chronologisch gelesen werden muss. Im einzelnen werden folgende Themen behandelt:
Abspeichern des Datensatzes in einer älteren SPSS-Dateiversion;
 
Veränderung der Grundeinstellungen für Tabellen und Output mit dem SET-Befehl;
 
Abkürzung der Syntax;
 
richtiges Kommentieren;
 
die Schlüsselwörter ANY und RANGE zur Vereinfachung der Datenselektion;
 
die Funktion MEAN beim COMPUTE-Befehl;
 
laufende Fallnummern mit der temporären Variable ŞCASENUM bilden
 
Leila Akremi
Kapitel 8. Einführung in die Skriptprogrammierung für SPSS am Beispiel der Entropie
Auszug
Dieses Kapitel erläutert interessierten, aber programmierunerfahrenen SPSS-Nutzern, was Skripte in SPSS sind, wozu sie nützlich sind und was beim Erstellen von einfachen Skripten beachtet werden muss. Es soll ein Einstieg in eine kreativere Verwendung von SPSS sein und dazu ermutigen, diese Möglichkeit für eigene Zwecke zu nutzen und die Technik des Programmierens in SPSS durch konkretes Üben weiterzuentwickeln, weil keine der bekannten Standard-einführungen in SPSS dieses Thema behandelt.
Leila Akremi
Kapitel 9. Nützliche Software und Fundorte für Daten
Auszug
Die statistischen Analysen in diesem Lehrbuch werden mit dem Programm SPSS durchgeführt, der wohl am weitesten verbreiteten Statistiksoftware in der sozialwissenschaftlichen Methodenausbildung und Forschungspraxis. Obwohl SPSS für viele Auswertungsprobleme sehr gut geeignet ist, birgt der Einsatz nur eines Programms stets die Gefahr, die eigene Arbeit durch die Auswertungsmöglichkeiten dieses Programms zu standardisieren und über Alternativen nicht mehr nachzudenken. Wir wollen in diesem Kapitel deshalb auf andere Statistiksoftware hinweisen, die zum Teil als Alternative, zum Teil als Ergänzung zum Einsatz von SPSS gesehen werden kann. Weiterhin verweisen wir auf Data Mining-Tools sowie auf Programme zur qualitativen Analyse. Für einige der genannten Programme sind Demoversionen als Freeware verfügbar und können von der jeweiligen Website herunter geladen werden.
Nina Baur, Sabine Fromm

Umsetzung statistischer Konzepte in SPSS

Frontmatter
Kapitel 10. Univariate Statistik
Auszug
Wenn Sie Datensätze analysieren, sollten Sie als erstes die eindimensionalen Häufigkeitsverteilungen untersuchen, d. h. Sie sollten jede Variable zunächst für sich analysieren. Insbesondere die Verteilung, Lage, Streuung und Schiefe jeder Variablen müssen untersucht werden. Die Ziele hierbei sind:
1)
Man bekommt ein Gefühl für die Daten. Dadurch kann man später leichter abschätzen, ob bestimmte Ergebnisse überhaupt richtig sein können. Wenn man z. B. den Datensatz einer Untersuchung analysiert, in der Jugendliche befragt wurden, kann es nachher nicht sein, dass eine Person bei der Variable „Alter“ den Wert „89 Jahre“ aufweist oder dass der Mittelwert der Variable „Alter“ bei „40 Jahren“ liegt. Solche Ergebnisse sind Hinweise auf Fehler im Datensatz oder falsche Syntaxen.
 
2)
Die Untersuchung der eindimensionalen Häufigkeitsverteilungen ergibt erste Hinweise, ob die Fragebögen richtig ausgefüllt wurden oder ob bei der Eingabe in den PC Fehler gemacht wurden. Ein typischer Fehler ist z. B., dass fehlende Werte nicht als solche definiert wurden. Auch kann es z. B. nicht sein, dass jemand ein negatives Alter hat usw. (siehe auch Kapitel 3 in diesem Band).
 
3)
Wenn Variablen zu schief verteilt sind, sind sie oft für die weitere Analyse wertlos. Beispiel: Man möchte den Unterschied zwischen Männern und Frauen untersuchen. Man hat einen Datensatz mit 100 Fällen. Von diesen 100 Befragten waren 98 männlich, 2 weiblich. Die Verteilung ist also extrem schief. Durch diese Schiefe kann man die Unterschiede zwischen Männern und Frauen nicht sinnvoll untersuchen. Es macht beispielsweise nicht viel Sinn, bei zwei Frauen das durchschnittliche Alter zu untersuchen.
 
4)
Man prüft die Voraussetzungen (sofern diese existieren) für die Verfahren, die man später anwenden will. Z. B. verlangen viele Verfahren zur Verarbeitung metrischer Variablen eine (approximative) Normalverteilung (vgl. hierzu Behnke und Behnke (2006), Benninghaus (2005), Jann (2002) oder Vogel (2000)). Wenn diese Voraussetzungen nicht erfüllt sind, darf man das entsprechende Verfahren nicht anwenden. Tut man es doch, besteht die Gefahr, dass man Datenartefakte produziert. Man kann sich nun überlegen, wie man damit umgeht: Entweder man wendet ein anderes Verfahren an, oder man transformiert die Daten (vgl. hierzu Vogel (2000)). In manchen Fällen ist die Anwendung eines Verfahrens unter Einschränkungen auch dann möglich, wenn bestimmte Voraussetzungen nicht erfüllt sind. Dies erfordert dann aber eine vorsichtige Interpretation. Näheres hierzu finden Sie — am Beispiel der Ordinalskalen-in Kapitel 12.
 
5)
Schließlich kann man alle absolut interpretierbaren Variablen mit Hilfe der eindimensionalen Häufigkeitsverteilungen interpretieren und so erste wertvolle Informationen erhalten.
 
Nina Baur
Kapitel 11. Kreuztabellen und Kontingenzanalyse
Auszug
Ziel der Kreuztabellierung und Kontingenzanalyse ist es, Zusammenhänge zwischen zwei nominalen Variablen zu entdecken. Des Weiteren können Zusammenhänge zwischen ordinalskalierten und metrischen Variablen oder zwischen Variablen mit verschiedenen Skalenniveaus untersucht werden. Voraussetzung ist, dass die Zahl der Ausprägungen nicht zu groß ist. Die Kreuztabellierung dient dazu, Ergebnisse einer Erhebung tabellarisch darzustellen und auf diese Art und Weise einen möglichen Zusammenhang zwischen Variablen zu erkennen. Das Erkenntnisinteresse bei der Analyse von Kreuztabellen ist fast immer kausalanalytisch.
Leila Akremi, Nina Baur
Kapitel 12. Das Ordinalskalenproblem
Auszug
Jedes statistische Verfahren setzt ein Mindestskalenniveau voraus. Ein Verfahren für nominale Daten kann also auch für höhere Skalenniveaus angewandt werden. Allerdings gehen dabei Informationen verloren. Bei nominalen und metrischen Variablen ist dies kein Problem: Für beide Skalenniveaus existieren zahlreiche leistungsfähige Verfahren. Das Problem stellen Daten auf ordinalem Skalenniveau dar — obwohl sie in den Sozialwissenschaften ein sehr häufiger Datentyp sind, existieren hierfür fast keine Verfahren.
Nina Baur
Kapitel 13. Kontrolle von Drittvariablen für bivariate Beziehungen
Auszug
Existiert ein statistischer Zusammenhang zwischen zwei Variablen X (z. B. „Bildungsgrad“) und Y („Wahrscheinlichkeit der Nichtwahl“), muss sichergestellt werden, dass keine dritte Variable Z (z. B. „Geschlecht“) die bivariate Beziehung verursacht, also ein Effekt einer dritten Variablen vorliegt. Drittvariablenkontrollen führt man durch, um ⋯
  • ... Stärke und Richtung einer gemessenen bivariaten Beziehung zwischen X und Y korrekt einzuschätzen.
  • ... Aufschluss über die kausale Anordnung der miteinander in Beziehung gesetzten Variablen zu erhalten.
Nina Baur
Kapitel 14. Faktorenanalyse
Auszug
Wenn wir jemanden als „leistungsorientiert“ bezeichnen, als „politisch interessiert“, „ausländerfeindlich“, „autoritär“, „risikofreudig“ oder „ängstlich“, konstatieren wir das Vorliegen von Dispositionen: konsistenten, situationsübergreifenden Reaktionstendenzen. Es geht also nicht um ein singuläres Verhalten in einer einzigen Situation, sondern um die Tendenz, auf ähnlich strukturierte Situationen in gleichförmiger Weise zu reagieren. Beispielweise werden wir jemanden nicht bereits dann als „sozial unsicher“ bezeichnen, wenn er in einer Situation schüchtern oder verlegen auftritt, sondern erst dann, wenn sich ein entsprechendes Verhaltensmuster in einer Vielzahl ähnlich gelagerter Situationen beobachten lässt. Dabei müssen die Verhaltensweisen nicht völlig identisch sein, es genügt eine tendenzielle Gleichgerichtetheit. Dispositionen lassen sich feststellen in Hinsicht auf:
  • Einstellungen (z. B. Ausländerfeindlichkeit, Rigidität, Schulangst, politisches Interesse, allgemeines Umweltbewusstsein)
  • Fähigkeiten (z. B. Belastbarkeit, mathematische Problemlösungskompetenz)
  • Verhalten (z. B. Durchsetzungsfähigkeit, Gewalttätigkeit)
Sabine Fromm
Kapitel 15. Multiple lineare Regressionsanalyse
Auszug
In soziologischen Untersuchungen geht es häufig um die Frage, ob und wie eine oder mehrere unabhängige Variablen auf eine abhängige Variable einwirken. Eine typische Fragestellung wäre etwa, von welchen Einflussgrößen die Höhe des Einkommens einer Person abhängt. In diesem Fall wäre das Einkommen die abhängige Variable, Größen wie das Alter, die berufliche Qualifikation, die Dauer der Berufstätigkeit, das Geschlecht usw. die unabhängigen Variablen.
Sabine Fromm
Backmatter
Metadaten
Titel
Datenanalyse mit SPSS für Fortgeschrittene
herausgegeben von
Dr. Nina Baur
Dr. Sabine Fromm
Copyright-Jahr
2008
Verlag
VS Verlag für Sozialwissenschaften
Electronic ISBN
978-3-531-91034-5
Print ISBN
978-3-531-34163-7
DOI
https://doi.org/10.1007/978-3-531-91034-5

Premium Partner