Skip to main content
main-content

Über dieses Buch

Regression, Faktorenanalyse, Qualitative Comparative Analysis oder auch Inhaltsanalyse – der Band gibt einen Überblick über wichtige Analyseverfahren, die häufig genutzt werden, um eine sozialwissenschaftliche Forschungsfrage zu bearbeiten. Dabei werden die einzelnen Verfahren nicht abstrakt dargestellt, sondern jeweils an konkreten sozialwissenschaftlichen Fragestellungen illustriert. Zudem werden die Voraussetzungen der Verfahren erläutert sowie Vor- und Nachteile diskutiert. Die Auseinandersetzung mit den unterschiedlichen Verfahren soll einerseits die passive Methodenkompetenz fördern und andererseits das Interesse wecken, sich intensiver mit den Verfahren zu beschäftigen.
Zusätzliche Fragen per App: Laden Sie die Springer Nature Flashcards-App kostenlos herunter und nutzen Sie exklusives Zusatzmaterial, um Ihr Wissen zu prüfen.

Inhaltsverzeichnis

Frontmatter

Einführung

Zusammenfassung
Regression, Faktorenanalyse, Qualitative Comparative Analysis oder auch Inhaltsanalyse – in den Sozialwissenschaften gibt es zahlreiche Analyseverfahren, um eine Forschungsfrage zu bearbeiten. Der vorliegende Band möchte mit wichtigen Analyseverfahren bzw. Forschungsmethoden der Sozialwissenschaften vertraut machen. Die einzelnen Beiträge stellen jeweils ein spezifisches Analyseverfahren bzw. eine Methode vor und diskutieren Voraussetzungen sowie Vor- und Nachteile. Dabei werden die einzelnen Verfahren nicht abstrakt dargestellt, sondern jeweils an konkreten sozialwissenschaftlichen Fragestellungen illustriert. Die Auseinandersetzung mit den unterschiedlichen Verfahren soll einerseits die passive Methodenkompetenz, also das grundlegende Verständnis des jeweiligen Verfahrens, fördern und andererseits das Interesse wecken, sich mit ausgewählten Verfahren intensiver zu beschäftigen.
Markus Tausendpfund

Lineare Regression

Zusammenfassung
Dieses Kapitel führt in die lineare Regressionsanalyse ein. Zunächst werden Grundlagen des Verfahrens dargestellt. Es folgen Veranschaulichungen im bivariaten Fall, und zwar mit fiktiven Daten und mit Umfragedaten, ehe auf das multivariate Regressionsmodell verallgemeinert wird. Im zweiten Teil des Kapitels werden zwei Aspekte vertieft behandelt: Interaktionseffekte und nicht lineare Zusammenhänge. Die Modellerweiterungen werden zunächst an der Schätzgleichung gezeigt, ehe mir fiktiven und realen Daten jeweils Beispiele vorgestellt und Interpretationen besprochen werden. Dabei kommen auch grafische Verfahren zum Einsatz, die die Interpretation heterogener Effekte erleichtern und die Fehleranfälligkeit reduzieren.
Gerrit Bauer

Analyse binärer abhängiger Variablen

Lineares Wahrscheinlichkeitsmodell und logistische Regression
Zusammenfassung
Viele sozialwissenschaftliche Fragestellungen beziehen sich auf binäre abhängige Variablen. Mit Hinblick auf die Analyse solcher Variablen stellt dieser Beitrag die Grundlagen eines der gängigsten nicht linearen Wahrscheinlichkeitsmodelle dar, der logistischen Regressionsanalyse. Er diskutiert sie im Kontrast zum linearen Wahrscheinlichkeitsmodell. Dabei bezieht sich die Einführung nicht auf die Schätzung und die mathematisch-statistischen Hintergründe, sondern auf die Anwendung in den Sozialwissenschaften. Besonderes Augenmerk liegt auf der Interpretation der Ergebnisse sowie auf den Herausforderungen hierin, die sich durch die nicht lineare Modellierung von Wahrscheinlichkeiten ergeben. Das Analyseverfahren wird exemplarisch dargestellt anhand einer Replikation einer veröffentlichten Studie zur Abhängigkeit der Wahlteilnahme von der subjektiven Gesundheit auf Basis der Deutschen Teilstichprobe des European Social Survey.
Felix Weiss

Aggregatdatenanalyse

Zusammenfassung
Dieses Kapitel führt in die Aggregatdatenanalyse ein – eine Methodik, die von manchen als „Königsweg“ und von anderen als „verrückte Methode“ bezeichnet wird. Egal welchem der beiden Lager man sich letztlich eher zuordnen möchte – Fakt ist: die Aggregatdatenanalyse ist die dominierende Analyseform in der sozialwissenschaftlichen Makroforschung. Deswegen kommen Studierende, die sich für Fragestellungen interessieren, die auf der Kollektivebene angesiedelt sind, praktisch nicht an ihr vorbei.
In dem Beitrag werden die Grundlagen der Aggregatdatenanalyse erläutert und die ihr zugrundeliegenden Daten thematisiert. Zudem wird die Anwendung der Aggregatdatenanalyse anhand eines Fallbeispiels aus der empirischen Demokratieforschung demonstriert. Des Weiteren werden häufige Anwendungsfehler besprochen und einige Hinweise zur praktischen Durchführung gegeben.
Sebastian Kuhn

Mehrebenenanalyse

Zusammenfassung
Die zentrale Annahme der Mehrebenenanalyse (Kontextanalyse) ist, dass Einstellungen und Verhalten nicht nur eine Folge von individuellen Merkmalen sind, sondern auch das Resultat des sozialen Umfelds. Bei der Mehrebenenanalyse handelt es sich um ein regressionsanalytisches Verfahren, bei dem die abhängige Variable auf der Mikroebene, die unabhängigen Variablen auf der Mikro- und Makroebene angesiedelt sind. Die Grundlage einer Mehrebenenanalyse ist damit eine hierarchische Datenstruktur, deren Elemente der unteren Ebene jeweils genau einem Element der höheren Ebene zugeordnet sind (z. B. Personen in Ländern). Der Beitrag bietet eine Einführung in die Logik und Vorgehensweise der Mehrebenenanalyse. Dabei werden die Voraussetzungen der Mehrebenenanalyse (z. B. Fallzahl) sowie typische Analyseschritte vorgestellt. Der Beitrag gibt auch einen knappen Überblick über Weiterentwicklungen (z. B. Drei-Ebenen-Modell).
Markus Tausendpfund

Fehlende Werte

Zusammenfassung
Ein weit verbreitetes Problem in Umfragen besteht darin, dass die erhobenen Daten nicht immer komplett vorliegen. Nimmt eine Person an einer Befragung teil, beantwortet dabei jedoch nicht alle Fragen mit einer substanziellen Antwort, so spricht man von Item Nonresponse oder schlicht von fehlenden Werten. Aussagen über das zu messende Untersuchungsobjekt sind dann nicht zweifelsfrei möglich. Die Analyse von Umfragedaten ohne die Berücksichtigung von fehlenden Werten kann zu systematischen Verzerrungen der untersuchten (Sub-)Stichprobe und somit zu verzerrten Ergebnissen führen. Bei der Datenanalyse sollten daher zunächst das Ausmaß sowie die Ursachen für fehlende Werte untersucht werden. Zudem sollten entsprechende Methoden (etwa Ersetzungsverfahren) angewendet werden, um möglichen Problemen angemessen zu begegnen. Der Beitrag stellt verschiedene Möglichkeiten vor, wie bei der Analyse von Befragungsdaten mit Item Nonresponse umgegangen werden kann, und diskutiert deren Vor- sowie Nachteile.
Michael Bergmann, Fabio Franzese

Explorative Faktorenanalyse und Skalenkonstruktion

Zusammenfassung
In der Praxis sozialwissenschaftlicher Forschung und insbesondere bei der Analyse sozialwissenschaftlicher Umfragedaten sehen sich Wissenschaftler und Wissenschaftlerinnen oftmals mit der Situation konfrontiert, dass für die empirische Erfassung eines theoretischen Konstrukts mehrere verschiedene Frageitems zur Verfügung stehen. Zur Beantwortung der Frage, ob verschiedene Items zur Messung ein und desselben theoretischen Konstrukts geeignet sind und zu einer gemeinsamen Skala zusammengefasst werden können, wird häufig auf das Verfahren der (explorativen) Faktorenanalyse zurückgegriffen. Der vorliegende Beitrag gibt eine allgemeine Einführung in die Grundlogik der Faktorenanalyse sowie deren wesentlicher Aspekte und Verfahrensschritte. Das Hauptaugenmerk des Beitrags liegt hierbei auf der Darstellung und Diskussion sämtlicher relevanter Überlegungen und Erwägungen, die bei der Frage nach einer möglichen Zusammenfassung mehrerer Frageitems zu einer gemeinsamen Skala zu beachten sind. Veranschaulicht werden die Faktorenanalyse und die Skalenkonstruktion hierbei am Beispiel sozialen und politischen Vertrauens auf Grundlage der Daten des European Social Surveys.
Christian Schnaudt

Qualitative Comparative Analysis

Mit einer Anwendung zur Asylbewerberunterbringung im Bundesländervergleich
Zusammenfassung
Die Qualitative Comparative Analysis (QCA) ist eine in den späten 1980er-Jahren zunächst von Charles Ragin entwickelte Methode, die sich in den letzten Jahren in den Sozialwissenschaften zunehmend etabliert hat. Zentrales Ziel der auf Mengentheorie basierenden Methode ist die Identifikation von notwendigen und hinreichenden Bedingungen für ein bestimmtes Outcome. Nach einer kurzen Einführung in die QCA wird im zweiten Abschnitt zunächst allgemein in die Methode eingeführt und zentrale Grundlagen und Konzepte der Methode dargelegt. Hierbei wird insbesondere auf die Differenzierung zwischen notwendigen und hinreichenden Bedingungen sowie INUS- und SUIN-Bedingungen, die Unterscheidung zwischen der fuzzy-set und der crisp-set Variante der QCA, die Kalibrierung der Bedingungen und des Outcomes sowie klassische Gütemaße der QCA wie Konsistenz und Abdeckung eingegangen. Anschließend wird im dritten Abschnitt die Vorgehensweise an dem Anwendungsbeispiel der Asylbewerberunterbringung im Bundesländervergleich illustriert, da die Methode QCA gerade im Bundesländervergleich zunehmend an Bedeutung gewinnt. Der vierte Abschnitt enthält praktische Tipps, schildert den idealtypischen Ablauf einer QCA und informiert über gängige Softwareprogramme und häufiger auftretende Anwendungsfehler beim Umsetzen einer QCA. Zudem wird kurz eine mögliche Kombination von QCA mit Fallstudien skizziert. Ein Fazit und ein Ausblick schließen diesen Beitrag ab.
Felix Hörisch, Matthias Heiken

Teilstandardisierte Experteninterviews

Zusammenfassung
Im Rahmen der qualitativen empirischen Sozialforschung stellen Interviews eine wichtige Methode der Datenerhebung dar. Es existieren zahlreiche unterschiedliche Arten bzw. Typen von Interviews. In diesem Beitrag werden teilstandardisierte Experteninterviews behandelt, die auf eine Hypothesenprüfung abzielen und mit Hilfe eines (teilstandardisierten) Interviewleitfadens durchgeführt werden. Der Beitrag ist in erster Linie als Leitfaden für Neulinge im Bereich der Interviewführung zu verstehen und kann insofern als eine Art „Kurzanleitung“ zur Durchführung von Experteninterviews betrachtet werden. Es handelt sich um einen ersten Überblick für Personen ohne Erfahrungen in der der Durchführung von teilstandardisierten Experteninterviews.
Benjamin von dem Berge

Inhaltsanalyse

Zusammenfassung
Die Inhaltsanalyse zählt seit jeher zu den gebräuchlichsten Verfahren in den sozialwissenschaftlichen Fächern. Durch die immer differenzierteren Möglichkeiten der Datenanalyse sowie die rasanten Veränderungen im Bereich der computergestützten Textanalyse, erfuhr diese Form der Datenanalyse zudem eine außerordentliche Verbreitung. Wie jede andere sozialwissenschaftliche Arbeitstechnik sollte jedoch auch die Inhaltsanalyse für andere Forscherinnen nachvollziehbar und replizierbar sein. Die gängigen Standards wissenschaftlicher Methoden wie Objektivität, Intersubjektivität, Reliabilität, Validität, Generalisierbarkeit und Replizierbarkeit gelten somit auch im Rahmen der Inhaltsanalyse. Vor diesem Hintergrund wird der vorliegenden Beitrag einen Überblick über alle wesentlichen Schritte und Merkmale einer (quantitativen) Inhaltsanalyse geben. Im Wesentlichen werden die Leserinnen und Leser Einblicke in zwei grundlegende Teilbereiche erlangen: die Methode der Datenerhebung im Rahmen inhaltsanalytischer Verfahren sowie der Datenanalyse anhand von inhaltsanalytisch aufbereiteten Daten. Beides wird anschaulich anhand von Daten des Euromanifesto-Projekts verdeutlicht. Außerdem werden einige praktische Hinweise und häufige Fehler in Hinblick auf Datenaufbereitung und Datennutzung gegeben.
Daniela Braun

Experimente

Zusammenfassung
Während traditionelle empirische Analysen in den Sozialwissenschaften meist auf Beobachtungsdaten basieren, greifen Forscher bei Experimenten gezielt in die Datenerhebung ein und manipulieren die sie interessierende unabhängige Variable. Mit Hilfe der Randomisierung der Versuchspersonen in Experimental- und Kontrollbedingungen lassen sich so kausale Zusammenhänge zwischen Variablen entdecken und überprüfen. Experimente sind damit ein wichtiger Baustein im Methoden-Mix der Sozialwissenschaften und eignen sich insbesondere zur Überprüfung spezifischer Theorien und Hypothesen. Der Beitrag bietet eine Einführung in die Logik sozialwissenschaftlicher Experimente, stellt die wichtigsten Begriffe vor, beschreibt unterschiedliche Formen von Experimenten und verdeutlicht an zwei Anwendungsbeispielen das Potential und die Herausforderungen von experimentellen Designs.
Sascha Huber

Big Data

Zusammenfassung
Das Kapitel bietet eine Einführung in die zentralen technischen Komponenten für die Analyse von Big Data in den Sozialwissenschaften. Im ersten Teil des Kapitels wird die automatische Sammlung von Daten aus dem Internet thematisiert. Dabei wird einerseits die Sammlung von Daten über Programmierschnittstellen angesprochen sowie andererseits das Auslesen von Informationen aus Webseiten (Web Scraping). Im zweiten Teil des Kapitels wird eine knappe Einführung in das Machine Learning für die automatische Textanalyse gegeben. Dabei werden sowohl Verfahren aus dem Bereich des Unsupervised Learning als auch aus dem Bereich des Supervised Learning angesprochen. Am Beispiel eines Beitrags aus der aktuellen Forschungsliteratur wird dargelegt, wie die automatische Webdatensammlung und die automatische Textanalyse die sozialwissenschaftliche Forschungspraxis bereichern können.
Dominic Nyhuis
Weitere Informationen