Skip to main content

2020 | Buch

Handbuch Methoden der Politikwissenschaft

herausgegeben von: Claudius Wagemann, Prof. Dr. Achim Goerres, Markus B. Siewert

Verlag: Springer Fachmedien Wiesbaden

insite
SUCHEN

Über dieses Buch

​Dieses Handbuch beinhaltet Beiträge zu Methodenforschung und -anwendung in der Politikwissenschaft, die von führenden Expertinnen und Experten im deutschsprachigen und internationalen Raum verfasst sind. Erstens wird dargestellt, welcher Erkenntnisgewinn mit der jeweiligen Methode möglich ist. Zweitens werden Grundprinzipien der jeweiligen Anwendung erläutert und der Leserschaft ein Einstieg in die Funktionsweise der Methode ermöglicht. Drittens befähigen die Beiträge, mit den beschriebenen Methoden und Techniken verfasste Veröffentlichungen kritisch zu lesen, die Vorgehensweise sowie Qualität der Methodenanwendung zu beurteilen und die Validität der erzielten Ergebnisse einzuschätzen. Und viertens skizzieren die Beiträge wichtige Anwendungsfelder der Methoden anhand von Beispielen politikwissenschaftlicher Veröffentlichungen.

Inhaltsverzeichnis

Frontmatter
Methoden in der Politikwissenschaft – eine pluralistische Annäherung

Was die Politikwissenschaft von der journalistischen, künstlerischen oder amateurhaften Beschäftigung mit Politik u. a. unterscheidet, ist das spezifisch wissenschaftliche Repertoire systematischer Methoden. Dieses Handbuch ist die umfangreichste deutschsprachige Darstellung aktueller Methoden der Politikwissenschaft am Ende des zweiten Jahrzehnts (2020). Die Herausgeber Claudius Wagemann, Achim Goerres und Markus B. Siewert haben dieses Projekt umgesetzt, weil sie die grundsätzliche Professionalisierung der Politikwissenschaft im Bereich Methoden unterstützen und eine Plattform schaffen wollen, auf der die Besten ihres Faches konzise und leicht zugängliche Beiträge zu einem methodischen Teilthema für Studierende und andere Wissenschaftlerinnen geben können. Die Lektüre eines Handbuchbeitrags erlaubt es den Leserinnen, sich zeiteffizient einen Überblick zu verschaffen, um sich danach entweder anhand der vorgeschlagenen weiterführenden Literatur weiter zu informieren oder einem anderen Methodeninstrumentarium zuzuwenden.

Claudius Wagemann, Achim Goerres, Markus B. Siewert

Grundlagen

Frontmatter
Epistemologische Grundlagen
Kausalität und Erklärung

Dieses Kapitel führt in einige zentrale wissenschaftstheoretische Begriffe ein und legt die epistemologischen Grundlagen für mögliche kausale Erklärungen in den Sozialwissenschaften und insbesondere in der Politikwissenschaft. Diese können auf naturalistischen, probabilistischen, konfigurationellen (mengentheoretischen) oder prozessanalytischen Ansätzen beruhen. Sie haben jeweils spezifische Stärken und Schwächen und erstrecken sich, je nach Fallzahl, auf unterschiedliche Anwendungsbereiche. Die jüngeren wissenschaftstheoretischen Debatten und Entwicklungen auf diesem Gebiet werden so verdeutlicht.

Dirk Berg-Schlosser
Konzepte und Konzeptformierung

Konzepte sind die zentralen analytischen Bausteine politikwissenschaftlicher Forschung. Der vorliegende Beitrag beschäftigt sich mit der Konzeptformierung aus zwei Perspektiven: Während empirisch-analytische Ansätze sich seit den Arbeiten von Sartori in den 1970er-Jahren etabliert und fortentwickelt haben, wenden sich in jüngerer Zeit verstärkt auch interpretative Ansätze Fragen der Konzeptformierung zu. Vor diesem Hintergrund beschäftigt sich der Beitrag mit ausgewählten ontologischen und epistemologischen Grundannahmen zur Natur von Konzepten und präsentiert die Vielfalt von Strategien der Konzeptformierung. Anhand von Beispielen aus der politikwissenschaftlichen Forschungspraxis bietet der Beitrag somit eine Anleitung zur vertieften Auseinandersetzung mit Konzepten.

Özgür Özvatan, Markus B. Siewert
Operationalisierung und Messung

Eine systematische Operationalisierung und Messung ist ein wichtiger Erfolgsfaktor in jeder empirischen Studie. Im Prozess der Operationalisierung und Messung werden theoretische Konzepte präzise definiert und anschließend mittels Indikatoren messbar gemacht. In diesem Prozess kommt den Gütekriterien Validität und Reliabilität besondere Bedeutung zu. Nur mit validen und reliablen Indikatoren können sinnvoll Skalen und Indizes gebildet werden und damit komplexere theoretische Konzepte empirisch erfasst werden. Der Beitrag diskutiert das Thema am Beispiel ausgewählter Konstrukte aus der politischen Psychologie und der Demokratieforschung.

Raffael Heiss, Jörg Matthes
Understanding and Implementing Research Data Management

Research Data Management is an integral part of good scientific practice. Its relevance increases as funders, journals, and other scientific outlets place it as a requirement in the context of sharing data and concepts on data harmonization. Consequently, it has become imperative that researchers know what research data management is, how it supports their research project and fosters satisfying funders’ requirements on sharing. This chapter introduces research data management, describes activities of data handling, and highlights legal issues. Based on this introduction, we discuss different objectives of research data management, such as ensuring replicability or sharing of research data generated in a research project as well as sharing concepts on data harmonizing and merging in secondary analysis.

Sebastian Netscher, Alexia Katsanidou

Typen von Forschungsdesigns

Frontmatter
Experimente und experimentelle Forschungsdesigns

Seit Mitte der 1990er-Jahre zeigt sich eine zunehmende Institutionalisierung und Etablierung eines eigenen experimentellen Forschungsstranges in der Politikwissenschaft, so dass die Anwendung experimenteller Untersuchungen fester Bestandteil in der Disziplin geworden ist. Das zentrale Ziel eines sozialwissenschaftlichen Experiments besteht darin, Aussagen über Ursache-Wirkungsbeziehungen zu erlangen und auf dieser Grundlage soziale Phänomene zu erklären. Es stellt eine Logik eines Forschungsdesigns dar und ist nicht als eine eigenständige, sondern eher ergänzende Methode zu verstehen, die der Generierung, Überprüfung und Verfeinerung von Theorien dient, vor allem aber zur Überprüfung zugrunde liegender Axiome geeignet ist. Experimente werden inzwischen in nahezu allen Forschungsfeldern der Politikwissenschaft angewandt und tragen so zur inhaltlichen, aber vor allem methodischen Weiterentwicklung des Fachs bei.

Ina Kubbe
Das Groß-N-Design

In diesem Beitrag werden die Logik und Anwendungsfelder von quantitativen Studien mit einer großen Fallzahl (Groß-N-Studien) in der Politikwissenschaft vorgestellt. Durch eine systematische Analyse mit möglichst vielen Fällen gilt es, ein Modell mit hoher Erklärungskraft, entweder für alle Variablenzusammenhänge oder für einen ausgewählten Teil der Variablen, zu finden. Dabei steht das Aufdecken und Verstehen der Gesamtheit der empirischen Muster in den vorliegenden Daten über alle Beobachtungen hinweg im Vordergrund, während die Analyse einzelner Fälle in den Hintergrund tritt. Nach einer Einführung in den Prozess und die Anwendung von Groß-N-Studien in der Politikwissenschaft werden den Leserinnen und Lesern die breiten Möglichkeiten sowie die Grenzen der Vorgehensweisen aufgezeigt.

Anne-Kathrin Fischer, Achim Goerres
Vergleichende Fallstudien und Einzelfalldesigns

Fallorientierte Forschungsdesigns haben eine lange Tradition in der Politikwissenschaft. Die verstärkte Beschäftigung mit diesen Ansätzen, die in den vergangenen Dekaden zu beobachten ist, hat dabei zu einer Verfeinerung aber auch Ausdifferenzierung des methodischen Instrumentariums geführt. Der vorliegende Beitrag bietet einen grundlegenden Überblick über die Bandbreite und Vielfalt fallorientierter Forschungsdesigns. Hierzu werden zentrale Merkmale und Charakteristika herausgearbeitet und aufgezeigt, wie sich diese auf unterschiedliche Arten in den verschiedenen Varianten der Fallstudientradition wiederfinden lassen. Illustriert werden die Forschungslogiken anhand von Beispielen aus diversen politikwissenschaftlichen Anwendungsfeldern.

Markus B. Siewert, Claudius Wagemann
Rekonstruktiv-interpretative Designs

Der Beitrag hat zentrale Eigenschaften rekonstruktiv-interpretativer Forschungsdesigns sowie deren handlungs-, sozial- und erkenntnistheoretische Prämissen zum Inhalt. Gemäß der für ein solches Design grundlegenden Philosophie und Gesellschaftstheorie des klassischen Pragmatismus wird das Soziale dabei als Welt der Zeichen eingeführt. Die Rekonstruktion der Bedeutung dieser Zeichen kommt ohne das Operationalisieren von Großtheorien und das Bilden messbarer Variablen aus. Mithilfe der gleichrangig konzipierten Schlussverfahren Deduktion, Induktion und Abduktion können ex ante behauptete Theorien über den Gegenstand überprüft und verfeinert sowie neue Hypothesen gebildet werden. Vor diesem Hintergrund wird schließlich eine rekonstruktiv-interpretative Position zu Gütekriterien wie Reliabilität, Validität und Repräsentativität formuliert, für die das Konzept der Muße zentral ist.

Ulrich Franke, Ulrich Roos
Mixed-Methods Designs

This chapter focuses on mixed-method designs, an increasingly popular approach to designing research in the social sciences that is used to combine the respective advantages of qualitative and quantitative analytical procedures and to strengthen the empirical analysis. After the introduction, two general principles of mixed designs are discussed, the principle of triangulation and the principle of integration. The former involves the concomitant application of different methods in order to cross-validate their findings. The latter entails the sequential combination of different methods to produce a unified causal inference, whereby one method is used to establish the final inference, and the other one is applied to prepare, test, qualify or refine the analysis generating this inference. Afterwards, the chapter proceeds by presenting three varieties of mixed-method studies: statistics-oriented, case-oriented and QCA-based mixed-methods designs. The last section before concluding discusses several advantages and limitations of mixed-method research.

Martino Maggetti

Auswahltechniken

Frontmatter
Auswahl von Untersuchungsobjekten
Stichprobe und Vollerhebung

In diesem Beitrag wird ausgehend von der Unterscheidung zwischen Vollerhebung und Stichprobe dargestellt, mit welchen Zielen und Verfahren in den Sozialwissenschaften Untersuchungsobjekte für die empirische Forschung ausgewählt werden. Als Untersuchungsobjekte werden dabei nicht nur Personen, sondern auch Organisationen, Texte etc. verstanden. Nach der Unterscheidung von bewussten und zufallsbasierten Auswahlmechanismen erfolgt zunächst eine knappe Darstellung von bewussten Auswahlverfahren. Den Schwerpunkt des Textes bilden zufallsbasierte Auswahlverfahren. Alle vorgestellten Verfahren werden mit Beispielen aus der Forschung illustriert.

Kai-Uwe Schnapp, Olaf Bock
Theoriegeleitete Fallauswahl

Diskussionen um und methodische Anleitungen für die Auswahl geeigneter Fälle für die Theorieentwicklung haben eine lange Tradition in der qualitativen, auf Fallstudien basierenden Politikwissenschaft. Dieses Kapitel fasst die logischen Grundlagen theoriegeleiteter Fallauswahl zusammen und stellt konkrete Auswahlmechanismen für vergleichende Fallstudien und within-case Analysen vor. Dabei stehen für beide Fallstudientypen je zwei theoretische Zielstellungen im Zentrum: Zum einen die Identifikation kausaler Beziehungen zwischen Erklärungsfaktoren (der unabhängigen Variable) und dem zu erklärenden Phänomen (der abhängigen Variable) sowie der Kontrolle von möglichen Drittvariablen. Zum anderen die Auswahl empirisch repräsentativer oder theoretisch relevanter Fälle, die eine Generalisierbarkeit der Fallstudien ermöglichen sollten. Das Kapitel schließt mit einer Diskussion der Möglichkeiten und Grenzen von Generalisierung von Fallstudienergebnissen auf Basis theoriegeleiteter Fallauswahl.

David Kuehn

Erhebungstechniken

Frontmatter
Experteninterviews
Anwendung, Durchführung und Auswertung in der Politikwissenschaft

Experteninterviews finden in der Politikwissenschaft auf vielfältige Art und Weise Verwendung. Sie dienen als Quelle zur Plausibilisierung von unerwarteten Phänomenen oder tragen zum Verständnis kausaler Mechanismen bei. In größer angelegten Studien sind sie häufig Datenquelle für qualitative und quantitative Analysen bei einer entsprechenden Anzahl von Interviews. Eine gute Vorbereitung ist für das Gelingen der Experteninterviews essenziell. Die Auswahl der Expertinnen und Experten sowie das Anschreiben wirkt sich entscheidend auf die Rücklaufquote aus. Bei der Durchführung sollten die Interviewenden darauf achten, dass das Interview fachlich und sprachlich auf Augenhöhe stattfindet. Zur Auswertung können gängige qualitative und quantitative Methoden genutzt werden. Experteninterviews eignen sich somit sowohl für kleinere Vorhaben wie Abschlussarbeiten als auch für groß angelegte Forschungsprojekte.

Felix Goldberg, Achim Hildebrandt
Offene Interviews – Von Semistrukturiert bis Narrativ

Die verschiedenen Formen von offenen Interviews haben für die qualitative Politikforschung eine wichtige Bedeutung als eine der wenigen zur Verfügung stehenden Methoden der Datenerhebung. Der vorliegende Beitrag diskutiert, warum neuere Untersuchungsperspektiven in der Politikwissenschaft die Bedeutung solcher Interviews gestärkt haben. Ferner werden unterschiedliche Typen der offenen Befragung vorgestellt und wesentliche Regeln der methodischen Vorgehensweise erläutert. Die Darstellung schließt mit einer kritischen Begutachtung der Möglichkeiten und Grenzen offener Interviews.

Robert Kaiser
Gruppendiskussionen und Fokusgruppeninterviews

Gruppendiskussionen sind eine Methode zur Erhebung qualitativer Daten, bei denen ein oder zwei Moderierende das Gespräch mehrerer Freiwilliger im Hinblick auf vorher festgelegte Themen initiieren und lenken. Die Gruppendiskussionen werden per Audio und/oder Video aufgezeichnet und die Inhalte für die Analyse transkribiert. In diesem Beitrag werden (1) Gruppendiskussionen als Methode eingeführt, (2) die Grundelemente der Planung und Durchführung erläutert, (3) ausgewählte politikwissenschaftliche Anwendungen von Gruppendiskussionen aus den Forschungsfeldern der methodologischen Bewertung von Survey-Items, der politischen Einstellungsforschung, sowie der qualitativen Wahlforschung vorgestellt, (4) Stärken sowie Grenzen und Herausforderungen von Gruppendiskussionen aufgezeigt und (5) nach einer Schlussbemerkung (6) kommentierte Literaturempfehlungen gegeben.

Katrin Prinzen
Ethnografie und Teilnehmende Beobachtung

Die Ethnografie fahndet nach Wegen und Methoden, um gelebte und praktizierte Sozialität sowie lokales Wissen empirisch zu untersuchen. Sowohl in der eigenen Gesellschaft als auch in fremdkulturellen Kontexten erforschen EthnografInnen Subkulturen, Organisationen oder Institutionen. Dieser Artikel führt in die Ethnografie als einen Forschungsansatz ein, der durch die Prinzipien der Iterativität, Gegenstandsangemessenheit und die Methode der teilnehmenden Beobachtung gekennzeichnet ist. Neben konkreten Hinweisen, wie ethnografische Forschung methodisch durchgeführt werden kann, geben wir einen Überblick zu theoretischen und methodologischen Strömungen der Ethnografie und ethnografischer Forschung in der Politikwissenschaft.

Sina Birkholz, Annett Bochmann, Jan Schank
Designing Survey Questions and Choosing Survey Formats

This chapter introduces readers to the rules of designing a survey questionnaire. It highlights the need for following these rules by outlining the importance of validity and reliability and by highlighting the pitfalls that may and do arise if the rules are neglected. Furthermore, the chapter outlines the four main modes currently used in fielding surveys: face-to-face, telephone, online, and mail surveys. Each format is shortly presented before strengths and weaknesses are discussed. Finally, the chapter presents an outlook on the future of survey research.

Bernd Schlipphak, Mujtaba Isani
Die Nutzung von Webdaten in den Sozialwissenschaften

Das Kapitel bietet einen Überblick der Webdatensammlung für die sozialwissenschaftliche Forschung. Zu diesem Zweck wird nach einem praktischen Beispiel eine Übersicht der grundlegenden Webtechnologien geboten, um in einem zweiten Schritt einen vertiefenden Blick auf das Web Scraping einerseits und Programmierschnittstellen andererseits zu werfen. Die praktische Umsetzung der Webdatensammlung wird mit Code-Beispielen in der Programmiersprache R illustriert. Nach der praktischen Einführung werden Potenziale und Herausforderungen der webbasierten Sozialwissenschaft am Beispiel ausgewählter Anwendungen aus der aktuellen Forschungsliteratur diskutiert. Abschließend werden verschiedene technische und konzeptionelle Problemstellungen der Webdatensammlung dargelegt und einige weiterführende Literaturhinweise für die vertiefte Auseinandersetzung mit den Themen des Kapitels geboten.

Simon Munzert, Dominic Nyhuis
Real-Time-Response-Messung

Das Kapitel führt in die rezeptionsbegleitende Erfassung von Zuschauerbewertungen mittels Real-Time-Response-Technik (RTR) ein. Es beleuchtet die Geschichte von RTR-Messungen, gibt einen Überblick über Messvarianten, diskutiert Fragen von Reliabilität und Validität der Methode und präsentiert Anwendungsfelder in der Politikwissenschaft. Am Beispiel des TV-Duells und des sogenannten Fünfkampfs im Vorfeld der Bundestagswahl 2017 werden verschiedene Messvarianten und Möglichkeiten im Umgang mit RTR-Daten verglichen. Es zeigt sich, dass verschiedene Verfahren und Operationalisierungen ähnliche Ergebnisse produzieren. Es wird aber auch deutlich, dass mittelwert- und differenzbasierte Operationalisierungen unterschiedliche Einblicke in die Verarbeitung und die Wirkung von Kandidatenaussagen liefern. Das Kapitel schließt mit Empfehlungen, welchen Themen sich die zukünftige Forschung auf diesem Feld widmen sollte.

Jürgen Maier, Thorsten Faas
Geodaten und deren Analyse in der Politikwissenschaft

Räumliche Daten und Phänomene spielen eine wachsende Rolle in der Politikwissenschaft. Durch die Entwicklung von Geografischen Informationssystemen (GIS) und Geodatensätzen werden Wissenschaftlern neue und mächtige Analysewerkzeuge an die Hand gegeben. In diesem Kapitel geben wir eine kurze Einführung in die Verwendung räumlicher Methoden für die politikwissenschaftliche Forschung. Wir beginnen mit grundlegenden Konzepten und diskutieren die Datentypen, die für die Speicherung räumlicher Daten verwendet werden. Anhand einiger Beispiele geben wir einen Einblick in verfügbare Datensätze, die in der Politikwissenschaft Verwendung gefunden haben. Wir beschreiben drei verschiedene Ansätze, wie GIS Werkzeuge und Daten eingesetzt werden können und diskutieren die Schwierigkeiten, die dabei auftreten können.

Nils B. Weidmann, Kristian Skrede Gleditsch

Auswertungstechniken

Frontmatter
Multiple Regressionen mit unabhängigen Beobachtungen

Die multiple Regression ist eines der am weitesten verbreiteten multivariaten Verfahren zur Analyse des Einflusses unabhängiger Variablen auf eine metrische abhängige Variable. Die unabhängigen Variablen dürfen hierbei jedes beliebige Skalenniveau besitzen. Dabei können Aussagen über die Stärke des Zusammenhangs zwischen einzelnen Variablen und die Anpassungsgüte des Modells insgesamt getroffen werden. Eine grundlegende Voraussetzung hierfür ist jedoch, dass die Annahmen des Modells halten, was empirisch überprüft werden muss. Die Regression ermöglicht zudem auch die Erstellung von Prognosen. In abgewandelter Form lässt sich die Methode auch auf diskrete abhängige Variablen oder komplexere Daten mit Messwiederholungen, hierarchischer Struktur oder räumlichen Abhängigkeiten anwenden.

Kilian Seng
Multiple Regression mit voneinander abhängigen Beobachtungen
Random-Effects und Fixed-Effects

Ein Großteil der in der empirisch-vergleichenden Politikwissenschaft verwendeten Datensätze ist räumlich und/oder zeitlich strukturiert. Räumliche und zeitliche Strukturen gehen in der Regel mit statistischen Abhängigkeiten einher, die bei der Datenanalyse mitberücksichtigt werden müssen. Dieser Beitrag stellt Random-Effects-Modelle (RE) und Fixed-Effects-Modelle (FE) als Analysemethoden für voneinander abhängige Beobachtungen vor. Dabei wird auf den Problemgegenstand eingegangen und die Anwendung von RE- und FE-Modellen erklärt. Darüber hinaus werden Entscheidungsheuristiken und Hinweise für die praktische Anwendung gegeben.

Conrad Ziller
Mehrebenenmodelle

Zur Erklärung sozialer Phänomene kann immer dann auf hierarchische Mehrebenenmodelle zurückgegriffen werden, wenn Kontexteffekte theoretisch abgeleitet werden oder wenn Daten aus komplexen Stichproben vorliegen. Der große Vorteil dieser Modelle besteht darin, die Strukturen unterschiedlicher Ebenen gleichzeitig schätzen zu können. Im vorliegenden Beitrag wird die Mehrebenenanalyse grundlegend eingeführt und eine weithin akzeptierte Strategie der Modell-entwicklung nach Hox (2010, Multilevel analysis. New York/Hove: Routledge) vorgestellt. Danach werden ausgewählte spezifische Themen im Zusammenhang mit der Anwendung von Mehrebenenmodellen diskutiert.

Manuela Pötschke
Strukturgleichungsmodelle

Dieser Beitrag gibt eine Einführung in die Analyse von Strukturgleichungsmodellen. Dieses Verfahren eignet sich zur Überprüfung von Pfadabhängigkeiten latenter Variablen. Zunächst wird der systematische Weg zu einem Strukturgleichungsmodell beschrieben, die schrittweise Modellspezifikation und -evaluation vorgestellt und mit der Mediationsanalyse eine typische Anwendung beschrieben. Daraufhin werden fortgeschrittene Modelle zur Analyse von Paneldaten und hierarchisch genesteten Datenstrukturen vorgestellt. Abschließend werden Literaturempfehlungen gegeben und Einführungswerke diskutiert.

Carl C. Berning
Event-History-Analysis

Dieses Kapitel führt in die Klasse der Event-History-Verfahren ein, die allgemein zur Analyse von Transitionsprozessen verwendet werden. Es werden die Grundlagen dieser Methode erläutert und zentrale Begriffe wie Hazard-Rate, Risk-Set oder Zensierung besprochen. Zudem werden verschiedene Arten von Event-History-Analysen unterschieden und insbesondere die drei Hauptverfahren, die nicht-parametrischen, die parametrischen sowie das semi-parametrische Cox-Modell ausführlich behandelt und deren jeweilige Vor- und Nachteile diskutiert. Des Weiteren bietet das Kapitel einen Einblick in Erweiterungen der klassischen Event-History-Verfahren wie die Analyse von Repeated Events oder Competing Risks.

Sebastian Jäckle
Netzwerkanalyse in der Politikwissenschaft

Die Netzwerkanalyse ist eine Sammlung von Methoden zur Analyse von Interaktionen oder Beziehungen zwischen Akteuren. In der Politikwissenschaft finden diese Methoden breite Anwendung, da Politik häufig in Gruppenkontexten mit potenzieller gegenseitiger Relevanz der Akteure abläuft, während konventionelle Nicht-Netzwerk-Methoden die Unabhängigkeit (oder höchstens triviale Abhängigkeit) der Akteure in diesen Kontexten annehmen. Netzwerkanalyse erlaubt die gleichzeitige Analyse von Akteuren und ihren Beziehungen als komplexes System. Es existieren Methoden zur Beschreibung und Visualisierung von Netzwerken sowie zur statistischen Modellierung von Netzwerken. Die statistischen Methoden lassen sich grob in statische Modelle für einen beobachteten Zeitpunkt und in temporale Netzwerkmodelle unterteilen sowie in Modelle für Netzwerke oder Dyaden als abhängige Variable und Modelle für in Netzwerken geschachtelte individuelle Beobachtungen. Das Kapitel gibt einen Überblick über diese verschiedenen Methoden und ihre Anwendung in der Politikwissenschaft und stellt den aktuellen Forschungsstand vor.

Philip Leifeld
Agentenbasierte Simulation in der Politikwissenschaft

Dieses Kapitel vermittelt einen Einblick in Methoden und politikwissenschaftliche Anwendungsfelder agentenbasierter Simulation. Hierfür wird zunächst die Methode der Simulation charakterisiert. Anschließend werden Grundprinzipien agentenbasierter Simulation und die besonderen Stärken dieser Forschungsmethode erläutert. Agentenbasierte Simulation ist insbesondere geeignet, um die Mikro-Makro Schnittstelle, sowie die Auswirkungen der Interaktionen sozial eingebundener Akteure zu untersuchen. Im Vergleich zu anderen Methoden lassen sich Heterogenität und begrenzte Rationalität von Akteuren mit dieser Methode abbilden. In einem nächsten Abschnitt wird ein Überblick über den Forschungsstand agentenbasierter Simulation in der Politikwissenschaft vermittelt. Exemplarisch für innenpolitische Anwendungen wird die Modellierung des Parteienwettbewerbs sowie der Dynamik öffentlicher Meinung diskutiert. Aus dem Bereich der internationalen Beziehungen werden Modelle zwischenstaatlicher Machtpolitik sowie der Konfliktforschung dargestellt.

Martin Neumann, Jan Lorenz
Datenvisualisierung für Exploration und Inferenz

Datenvisualisierung ist eine der effektivsten Methoden, um quantitative Information zu explorieren, zu beschreiben und zu kommunizieren. Dieser Beitrag diskutiert, welche Ziele Datenvisualisierung verfolgt und was sie zu einem analytischen Werkzeug macht. Zum einen wird Visualisierung für den wichtigen Schritt der Datenexploration beschrieben. Exemplarisch wird dabei vor allem auf table plots, parallel coordinate plots und small multiple designs eingegangen, die sich für die Visualisierung mehrdimensionaler Datenstrukturen eignen. Zum anderen werden visuelle Methoden der Inferenz in den Blick genommen: visuelle statistische Inferenz, in welcher Grafiken den Platz von Teststatistiken einnehmen, die Visualisierung inferentieller Unsicherheit und statistischer Modelle, sowie schließlich die Exploration von Modellunsicherheit.

Richard Traunmüller
Forecasting

Prognosen stellen in der Politikwissenschaft ein zwar noch kleines, aber stetig wachsendes Forschungsfeld dar, welches in verschiedenen Teilbereichen der Disziplin Anwendung findet. Gemeint sind hiermit statistische Modelle, mit denen explizit politikwissenschaftlich relevante Phänomene vor ihrem Eintreten vorhergesagt werden. Dabei folgen sie den wissenschaftlichen Leitlinien der intersubjektiven Nachvollziehbarkeit und Reproduzierbarkeit. Dieser Beitrag führt ein in die Grundlagen politikwissenschaftlicher Prognosen. Den Schwerpunkt der Darstellung bilden Wahlprognosen, insbesondere strukturelle Modelle, welche beispielhaft anhand eines kanonischen Wahlprognosemodells erläutert werden. Daneben werden synthetische Modelle, Aggregationsmodelle, „Wisdom of the crowd“-Ansätze und Prognosemärkte diskutiert.

Arndt Leininger
Bayesianische Inferenz als Alternative zur klassischen Statistik

Dieser Beitrag stellt die Grundzüge der bayesianischen Inferenz vor und argumentiert, dass es sich dabei um das ideale statistische Paradigma für die empirische Politikwissenschaft handelt. Die Politikwissenschaft ist in der Regel mit methodischen Herausforderungen und Daten konfrontiert, die mit den Vorstellungen der klassischen „frequentistischen“ Statistik nur unzureichend vereinbar sind. Bayesianische Methoden dagegen kombinieren Priori-Annahmen über interessierende Phänomene mit empirischer Evidenz, um dadurch zu informierten Wahrscheinlichkeitsaussagen zu gelangen. Darüber hinaus steht der moderne bayesianische Ansatz in enger Verbindung mit Markov Chain Monte Carlo (MCMC) Simulationsalgorithmen. Diese ermöglichen es, komplexere Modelle zu schätzen, als dies für herkömmliche Schätzverfahren der Fall ist. Schließlich überzeugt die bayesianische Herangehensweise durch die intuitive Form und Interpretierbarkeit der durch sie erzielten Ergebnisse. Wir demonstrieren die Nützlichkeit des bayesianischen Ansatzes anhand eines Beispiels aus der empirischen Demokratieforschung: der Frage, welchen Einfluss die staatliche Unterstützung von Religion für religiöses Sozialkapital im europäischen Vergleich besitzt.

Jeff Gill, Richard Traunmüller
Process Tracing Methods

Process tracing is a method that aims to trace causal mechanisms as they play out in real-world cases using in-depth case studies. The analytical focus is on understanding the processes whereby causes contribute to produce outcomes, opening up what is going on in the causal arrow in-between. Process tracing can be used to build or test theories of causal mechanisms. Used to test theories, engaging in process tracing first requires theorizing the causal process to some degree, either in more minimalist terms or unpacking the process into parts composed of entities engaging in activities, followed by the operationalization of expected observable manifestations of the operation of the mechanism in a case. Theory building involves a bottom-up search in the empirical record, using existing theories and case knowledge as inspiration, for systematic patterns in the empirical record that can be evidence of an underlying causal mechanism in operation. In order to generalize from the findings of single process tracing case studies, comparative methods are required.

Derek Beach
Qualitative Comparative Analysis

Der vorliegende Beitrag bietet eine Einführung in Qualitative Comparative Analysis, kurz QCA. Dabei werden sowohl die wesentlichen Aspekte von QCA als politikwissenschaftlicher Forschungsansatz behandelt, als auch die wichtigsten technischen Analyseschritte vorgestellt und kritisch diskutiert. Zu Beginn werden die zentralen Logiken von QCA als Ansatz des systematischen Fallvergleichs eingeführt, wobei die mengentheoretische Untersuchungsperspektive, die Diversitätsorientierung und Fallkonzentration im Mittelpunkt der Ausführungen stehen. Daran schließt sich eine ausführliche Diskussion eines rezeptartigen Ablaufs einer QCA an, der drei Analyseschritte umfasst: I) die Kalibrierung von Mengen, II) die Analyse notwendiger Bedingungen sowie III) die Suche nach hinreichenden Bedingungen. Ein weiterer Abschnitt stellt dann einige ausgewählte Software-Optionen zur Durchführung von QCA dar, bevor der Beitrag mit grundlegenden Bemerkungen abschließt.

Claudius Wagemann, Markus B. Siewert
Hauptkomponentenanalyse und explorative Faktorenanalyse

Der Beitrag führt in die Grundlagen der Hauptkomponentenanalyse (PCA) und explorativen Faktorenanalyse (EFA) ein. Gemeinsam ist diesen Verfahren eine Reduktion von einer Menge von korrelierten Variablen auf wenige Komponenten mit den Zielen der Vereinfachung, der leichteren Interpretation und zur Darstellung von zugrunde liegenden latenten Variablen. Zunächst werden die mathematischen Grundlagen der PCA erörtert, bevor Kriterien zur Bestimmung der idealen Anzahl der Komponenten und Rotationsverfahren zur Vereinfachung der Interpretation vorgestellt werden. Anschließend werden zwei Anwendungsbeispiele aus der Politikwissenschaft diskutiert. Darauf folgend wird die PCA von der EFA abgegrenzt sowie die EFA als induktives Datenmodellierungsverfahren eingeführt. Abschließend erfolgt eine kommentierte Darstellung von Einführungswerken und weiterführender Literatur.

Sabrina J. Mayer
Clusteranalysen

Das Kapitel gibt einen Überblick über wichtige generelle Schritte und Entscheidungen bei der Durchführung von Clusteranalysen und stellt drei zentrale Varianten vor: (1) die hierarchisch-agglomerative Clusteranalyse, (2) das K-Means-Verfahren und (3) die modellbasierte Gruppenbildung auf Basis angenommener Wahrscheinlichkeitsverteilungen. Im Zuge der Beschreibung der grundlegenden Funktionsweise dieser Verfahren wird auch auf Umsetzungsbeispiele in der politikwissenschaftlichen Forschung sowie auf verfügbare Softwarelösungen verwiesen. Außerdem verdeutlicht die Anwendung der Verfahren auf Beispieldaten, wie die behandelten Verfahren Strukturen in Daten auffinden, wie die Ergebnisse zu interpretieren sind und inwieweit die Varianten im direkten Vergleich zu ähnlichen Ergebnissen gelangen.

Pascal D. König
Computergestützte Textanalysen

Texte stellen eine der bedeutsamsten Datenquellen in der Politikwissenschaft dar. Mit der computergestützten Textanalyse steht Politikwissenschaftlern ein immer mächtigeres Werkzeug zur Verfügung, um alte und neue Fragen aus verschiedenen Subdisziplinen der Politikwissenschaft zu beantworten. Diese Methoden werden konstant weiterentwickelt und verfeinert, während gleichzeitig immer mehr Textdaten auch elektronisch zur Verfügung stehen. Der vorliegende Beitrag beschreibt die Annahmen und grundsätzlichen Vorgehensweisen und bietet einen Überblick über die wichtigsten computergestützten Textanalyseverfahren von der wörterbuchbasierten Analyse bis hin zu Textskalierung, Textklassifikation und Topic Models. Zudem wird auf geeignete Software verwiesen. Anschließend werden vier politikwissenschaftliche Anwendungsbereiche vorgestellt und mehrere methodische Herausforderungen diskutiert.

Sven-Oliver Proksch
Quantitative Inhaltsanalyse

Das Kapitel stellt die Grundzüge und Begrifflichkeiten der quantitativen Inhaltsanalyse als wichtige Erhebungstechnik der Politikwissenschaft vor. Der Beitrag fokussiert auf die Beschreibung zentraler Schritte der Datenerhebung: von der Definition relevanter Analyse- und Auswahleinheiten über den Codierprozess zu den Gütekriterien. Veranschaulicht wird die Methode der Inhaltsanalyse mittels Beispielen aus der politischen Protestforschung.

Swen Hutter
Historische Quellenanalyse

Der Beitrag stellt die Arbeitsweise des (Zeit-)Historikers als Methode vor, die grundsätzlich auch Politikwissenschaftlern offensteht. Dabei werden die allgemeinen Spezifika der historischen Perspektive in Abgrenzung zu sozialwissenschaftlichen Herangehensweisen skizziert. Da Quellen den archimedischen Punkt der historischen Methode darstellen, steht die Auseinandersetzung mit ihnen – von ihrer Klassifizierung bis zur kritischen Analyse – im Mittelpunkt des vorliegenden Beitrags.

Arvid Schors
Diskursanalyse

In diesem Kapitel werden zunächst wichtige theoretische und methodische Ansätze der linguistischen Diskursforschung vorgestellt. In einem zweiten Schritt fokussiere ich relevante Dimensionen der Kritischen Diskursforschung (KDF), da dieses Forschungsprogramm am ehesten sowohl Theorie wie Empirie in einer problemorientierten Untersuchung komplexer sozialer Phänomene vereint. Anhand der Anwendung des Diskurshistorischen Ansatzes (DHA) werden beispielhaft die wichtigsten Schritte einer problem-orientierten interdisziplinären KDF bei der qualitativen und quantitativen Analyse des hegemonialen österreichischen Migrationsdiskurses seit 2015 illustriert.

Ruth Wodak
Videografie

Der Beitrag bietet einen Überblick über die Videografie als Forschungsmethode in der Politikwissenschaft und der politikdidaktischen Unterrichtsforschung. Es werden Grundlagen der Erhebung und Auswertung von Videodaten mit qualitativen als auch quantitativen Methoden anhand von Beispielen erläutert. Die Videografie bedarf einer Kombination mit weiteren Auswertungsmethoden (Inhaltsanalyse) und kann in vielfältigen Untersuchungsdesigns Anwendung finden. Anknüpfungspunkte zur Medien-, Kommunikations- und Filmwissenschaft und zur Psychologie werden sichtbar. Neben dem Potenzial der Methode (Perspektivenvielfalt) werden auch Herausforderungen (Datenschutz) diskutiert.

Dorothee Gronostay, Sabine Manzel
Metadaten
Titel
Handbuch Methoden der Politikwissenschaft
herausgegeben von
Claudius Wagemann
Prof. Dr. Achim Goerres
Markus B. Siewert
Copyright-Jahr
2020
Electronic ISBN
978-3-658-16936-7
Print ISBN
978-3-658-16935-0
DOI
https://doi.org/10.1007/978-3-658-16936-7