Skip to main content

2022 | Buch

Handbuch Methoden der empirischen Sozialforschung

insite
SUCHEN

Über dieses Buch

Das Handbuch vergleicht systematisch Gemeinsamkeiten und Unterschiede hinsichtlich Problemen, Prinzipien, Vorgehensweisen, Standards und Gütekriterien für verschiedene qualitative und quantitative Methoden der Sozialforschung. Um diese Fragen zu beantworten, diskutieren ausgewiesene Experten in 122 Beiträgen den aktuellen Stand der Forschung und bieten Forschenden, Lehrenden und Studierenden einen detaillierten Überblick über die verschiedenen Methoden der empirischen Sozialforschung. Die Schwerpunkte liegen dabei auf der Datenerhebung, also auf digitalen Methoden, standardisierten und offenen Befragungen, sowie zahlreichen anderen aktuell verwendeten Datentypen.

Inhaltsverzeichnis

Frontmatter
1. Methoden der empirischen Sozialforschung
Ein Überblick

Die Sozialwissenschaften gelten als Wirklichkeitswissenschaften, d. h. theoretische Aussagen und Prognosen müssen der empirischen Überprüfung statthalten. Ohne die „Methoden der empirischen Sozialforschung“ kann nicht empirisch geforscht werden, da mit diesen die Regeln festgeschrieben werden, nach denen Daten erhoben, mit Theorien verknüpft und anschließend ausgewertet werden. Nicht umsonst sind daher die „Methoden der empirischen Sozialforschung“ unverzichtbarer Bestandteil der Ausbildung in vermutlich jedem sozialwissenschaftlichen Studiengang, sei es die Soziologie, die Politikwissenschaft oder die Erziehungswissenschaft, und auch in anderen Studiengängen wie der Psychologie, der Anthropogeographie, der Ökonomie, den Kommunikations- und Planungswissenschaften gehört die empirische Sozialforschung zum Standardrepertoire der Disziplin.

Nina Baur, Jörg Blasius

Der Forschungsprozess

Frontmatter
2. Forschungsfragen

Forschungsfragen spielen für die Gestaltung empirischer Sozialforschung eine Schlüsselrolle. Ihre Bedeutung findet über disziplinäre und methodologische Grenzen hinweg Anerkennung – und wird auch in zahlreichen Beiträgen dieses Handbuchs unterstrichen (z.B. Przyborski/Wohlrab-Sahr und Stein, Kapitel 7 und 8 in diesem Band). Denn wenn es einen Punkt gibt, „über den sich alle Forscher und Forscherinnen, egal welche Methoden sie bevorzugen, einig sind“, dann ist es dieser: „Die Auswahl der Methoden hängt von der Frage ab, auf welche die Forschung eine Antwort produzieren soll“ (Reichertz, Kapitel 4 in diesem Band).

Kenneth Horvath
3. Informationsquellen und Informationsaustausch

Bereits im Planungsstadium eines Forschungsvorhabens ist es wichtig, dass man den aktuellen Forschungsstand des untersuchten Gebiets kennt. Zum einen sollten bereits geklärte Fragestellungen nicht erneut aufgegriffen werden, andererseits muss, gerade in den Sozialwissenschaften, das bereits Erforschte oft in anderen zeitlichen und räumlichen Settings erneut abgesichert werden. Auch um Wissen zu produzieren, benötigt man selbst bereits Wissen, z.B. Theorien, Werkzeuge zur Auswertung von Daten und natürlich Informationen, Daten und Statistiken über soziale Phänomene.

H. Peter Ohly, Lena-Luise Stahn, Karsten Weber
4. Empirische Sozialforschung und soziologische Theorie

Der (Wieder-)Aufstieg der europäischen Wissenschaft im 17./18. Jahrhundert verdankt sich ganz wesentlich dem Abstieg der christlichen Religion. Galt die Wissenschaft der Religion zu Beginn der christlichen Zeitrechnung nicht wirklich als ernstzunehmende Konkurrenz, so wandelte sich dieses Verhältnis in der Aufklärung grundlegend: Die Kultur- und auch die Naturwissenschaft lösten mit Einsetzen der Aufklärung die Religion(en) in Bezug auf die Bereitstellung von Weltdeutungen und Theorien Schritt für Schritt ab, und dies gleich in zweifachem Sinne: Einerseits „erledigten“ sie die Religion, indem sie den Glauben an einen Gott und dessen Botschaft als vermeidbaren Irrtum bzw. als selbstgewollte oder böswillige Täuschung entlarvten, andererseits beerbten sie die Religion.

Jo Reichertz
5. Formen des Schließens und Erklärens

In der Forschungspraxis der empirischen Wissenschaften zählen die Formen des logischen Schließens und die methodologischen Strategien des Erklärens zum Standardinstrumentarium des wissenschaftlichen Arbeitens. Ihr Einsatz ermöglicht methodisch-kontrolliertes Folgern und hat direkte Auswirkungen auf die Validität und Reichweite der Forschungsresultate. Zudem hängen mit diesen Aspekten unmittelbar Fragen wie diejenigen der Wahl des Untersuchungsdesigns (Przyborski/Wohlrab-Sahr, Stein und Kelle, Kapitel 7 , 8 und 9 in diesem Band) oder der Auswertungsmöglichkeiten zusammen.

Rainer Diaz-Bone
6. Messen

In den Sozialwissenschaften werden die untersuchungsrelevanten Aspekte der sozialen Wirklichkeit nicht nur durch Sprache, sondern wesentlich auch durch Zahlen abgebildet. Es sind insbesondere die numerischen Formen der Repräsentation, die möglich machen, dass die Komplexität der sozialen Wirklichkeit sowie auch die schiere Anzahl von Beobachtungen in numerischer und grafischer Form dargestellt, verdichtet und modelliert werden können. Diese numerische Erfassung der sozialen Wirklichkeit anhand von Zahlen wird als Messen bezeichnet.

Rainer Diaz-Bone
7. Forschungsdesigns für die qualitative Sozialforschung

Bei der Verwendung qualitativer Methoden ist nicht immer klar, was die Durchführung qualitativer Forschung im Einzelnen bedeutet und welchen methodischen Grundlagen und Standards sie genügen muss. Das mag auch daran liegen, dass wir erst am Beginn einer systematischen Integration qualitativer Methoden in die Curricula human- und sozialwissenschaftlicher Studiengänge stehen, von der Besetzung entsprechender Professuren ganz abgesehen.

Aglaja Przyborski, Monika Wohlrab-Sahr
8. Forschungsdesigns für die quantitative Sozialforschung

Ein Forschungsvorhaben setzt sich aus einer Reihe von Entscheidungen zusammen. Dieser Vorgang wird als Forschungsprozess bezeichnet. Als Ergebnis der verschiedenen Entscheidungen entsteht ein spezifisches Forschungsdesign (auch Untersuchungsdesign oder Untersuchungsanordnung genannt).

Petra Stein
9. Mixed Methods

Unter „Mixed Methods“ wird üblicherweise die Kombination qualitativer und quantitativer Forschungsmethoden in einem Untersuchungsdesign verstanden. Es handelt sich um einen Begriff aus der anglo-amerikanischen Methodendebatte in den Sozial- und Erziehungswissenschaften, der seit dem Ende der 1990er-Jahre, konkret seit dem Erscheinen der Monographie „Mixed Methodology“ von Abbas Tashakkori und Charles Teddlie (1998) große Prominenz erlangt hat. Von den amerikanischen Erziehungswissenschaften ausgehend hat sich eine eigene Mixed Methods-Bewegung gebildet – mittlerweile existieren eine ganze Reihe von Lehrbüchern (etwa Creswell/Plano Clark 2007; Morse/Niehaus 2009; Kuckartz/Cresswell 2014), ein in zweiter Auflage erschienenes umfangreiches Handbuch (Tashakkori/Teddlie 2010), seit 2007 eine Zeitschrift mit Namen „Journal of Mixed Methods Research“ (JMMR) und eine internationale Fachgesellschaft unter dem Namen „Mixed Methods International Research Association“ (MMIRA).

Udo Kelle
10. Big Data

Big Data ist zunächst einmal ein großes Versprechen, eine Gelddruckmaschine, Waffe im Krieg gegen den Terror und im Kampf gegen Verbrechen, Reformator von Verwaltungen, diagnostisches Wunderkind der Medizin, Stein der Weisen empirischer Wissenschaft und der kleine Helfer im Alltag einer ubiquitär vernetzten Welt. Big Data ist aber auch ein riesiger Hype, Allmachtsfantasie, gläserner Bürger, Kunde, Patient, Feind der Privatheit – und möglicherweise auch das drohende Ende konventioneller Umfrageforschung. Die positive Erwartungshaltung der empirischen Sozialforschung, in Echtzeit Daten über alles und jedes zu haben und endlich Antworten auch auf schwer erfassbare Fragen zu erhalten, ist dabei von der Angst begleitet, dass große Teile ihres etablierten Instrumentariums obsolet werden.

Miriam Trübner, Andreas Mühlichen
11. Evaluationsforschung

Mit „Evaluationsforschung“, „wissenschaftlicher Evaluation“ oder kurz „Evaluation“ ist die Bewertung eines Gegenstandes mit Hilfe sozialwissenschaftlicher Methoden durch Evaluationsfachleute gemeint (Widmer/De Rocchi 2012: 11). Die Evaluationsforschung ist ein boomendes interdisziplinäres Forschungsfeld, in dem sowohl qualitative als auch quantitative Methoden der empirischen Sozialforschung zum Einsatz kommen (Döring 2022). In zahlreichen Bereichen des öffentlichen Lebens werden Evaluationsmaßnahmen inzwischen rechtlich vorgeschrieben.

Nicola Döring
12. Marktforschung

Kommt man im Alltag mit empirischer Sozialforschung in Kontakt, so steckt meistens ein Institut der Markt-, Meinungs- oder Sozialforschung hinter der jeweiligen Studie. Es gibt wohl niemanden, der nicht als aktiver Teilnehmer oder passiver Konsument von Studienergebnissen (etwa in Zeitungen) in irgendeiner Form mit dieser Art der praktischen empirischen Sozialforschung in Berührung gekommen ist.

Markus Ziegler
13. Experiment

Das Experiment ist keine besondere Form der Datenerhebung, sondern eine besondere Form der Anordnung und des Ablaufs einer empirischen Untersuchung. Das Ziel des Experiments besteht darin, Erkenntnisse über Ursache-Wirkungs-Beziehungen zu gewinnen und auf dieser Grundlage soziale Phänomene zu erklären. Die Besonderheit des Experiments besteht in der Anwendung des Prinzips der aktiven Erfahrung: Die zu untersuchenden Vorgänge werden vom Forscher mit Absicht hergestellt, damit bestimmte Phänomene eindeutig als Wirkungen bestimmter Ursachen betrachtet werden können.

Stefanie Eifler, Heinz Leitgöb
14. Simulation

In der empirischen Sozialforschung befasst man sich mit gesellschaftlichen Phänomenen. Es geht darum, wie soziale Akteure durch ihren gesellschaftlichen Kontext beeinflusst werden und wie die Gesellschaft durch das interdependente, individuelle Handeln ihrer Mitglieder geformt wird. Einerseits wirken also gesellschaftliche Strukturen und Institutionen auf die Deutungen und Handlungsweisen der Gesellschaftsmitglieder, andererseits ergeben sich gesellschaftliche Tatbestände letztlich immer aus dem Zusammenspiel der Handlungen von Individuen.

Ben Jann, Debra Hevenstone
15. Prognosen, Projektionen und Szenarien

Gesellschaft, Politik und Wirtschaft müssen für die Zukunftsplanung und -gestaltung versuchen, künftige Entwicklungen vorherzusehen. Dabei erwarten sie insbesondere wissenschaftlich begründete, d. h. theoretisch, empirisch fundierte und nachvollziehbare Vorhersagen, denn erst diese ermöglichen den Diskurs über die Gegenwart, über mögliche Alternativen und somit auch eine Verständigung über zukünftige Planungen.

Robert Helmrich, Gerd Zika
16. Qualitative Daten für die Sekundäranalyse

Während die Sekundäranalyse auch Dank einer positiven Archiventwicklung zum Synonym für die erneute Nutzung statistischer (insbesondere Umfrage-)Daten (Mochmann, Kapitel 17 in diesem Band) geworden ist, zeigt sich nunmehr auch eine internationale und aktuell voranschreitende Entwicklung von Archiven, die interessierten Forschenden einen organisierten Zugang zu qualitativen Daten schaffen.

Irena Medjedović
17. Quantitative Daten für die Sekundäranalyse

Die Entwicklung der empirischen Sozialforschung ist untrennbar mit dem Fortschritt ihrer Datenbasis verbunden. Obwohl die ersten Untersuchungen bereits im 19. Jahrhundert durchgeführt wurden, waren über lange Zeit die Forschungsmöglichkeiten durch eine karge Datenlage geprägt. Dieses intensiv wahrgenommene Defizit wurde bald zum Motor der Bemühungen, die Datenlage systematisch zu verbessern.

Ekkehard Mochmann
18. Ergebnispräsentation in der qualitativen Forschung

Wissenschaftliche Erkenntnisse, die in der Sozialforschung gewonnen werden, können in Vorträgen, Berichten und wissenschaftlichen Texten auf sehr unterschiedliche Weise dargestellt werden. Dieser Aufsatz beschreibt und diskutiert verschiedene solcher Darstellungsformen und ihre theoretischen Begründungen in der qualitativen Forschung.

Christian Meyer, Christian Meier zu Verl
19. Ergebnispräsentation in der quantitativen Forschung

Mit Hilfe von Veröffentlichungen werden Forschungsergebnisse der Scientific Community und/oder einer breiteren Öffentlichkeit zugänglich gemacht und tragen so zum wissenschaftlichen Erkenntnisfortschritt und zum öffentlichen Diskurs bei. Dies kann über verschiedenste Publikationsformate erfolgen. Die optimale Ergebnispräsentation richtet sich dabei vorrangig nach der Zielgruppe, sowie der Art und Weise, wie bzw. wo die Ergebnisse veröffentlicht werden sollen.

Jürgen Friedrichs, Felix Leßke

Ethische und rechtliche Fragen

Frontmatter
20. Teilen von Daten

Häufigeres Teilen von Daten („Data Sharing“), mehr Open Data (Forschungsdaten zeitnah, entgeltfrei und in offenen Formate bereitstellen) und ein besseres Forschungsdatenmanagement wird seit einigen Jahren vermehrt von den Forschenden erwartet. Viele Förderorganisationen haben diese Erwartungen mittlerweile in Pflichten überführt. So sollen die Forschenden die von ihnen erzeugten Forschungsdaten in öffentlich zugängliche Repositorien (Orte, wo Daten für einen größeren Nutzerkreis aufbewahrt werden) einstellen, um sie der weiteren Forschung zur Verfügung zu stellen. Ein wichtiges Argument in diesem Zusammenhang ist, dass es sich um mit öffentlichen Mitteln (Steuermitteln) finanzierte Forschung handelt, weshalb die gewonnenen Forschungsdaten öffentlich zugänglich gemacht werden sole.

Eva Barlösius
21. Forschungsethik

Ethische Probleme treten vor allem bei der Befragung, dem Experiment und der teilnehmenden Beobachtung auf. Grundsätzliche Regelungen für derartige Probleme enthalten die nationalen und Landes-Datenschutzgesetze und die Ethik-Codes wissenschaftlicher Standesorganisationen. Dennoch bleibt ein nicht unerheblicher Spielraum für die einzelnen Forscher/innen.

Jürgen Friedrichs
22. Sensitive und heikle Themen

Heikle oder sensitive Themen sind solche, bei denen z.B. wegen möglicher Verletzungen der Privatsphäre oder durch soziale Erwünschtheit (Hlawatsch/Krickl, Kapitel 63 in diesem Band) davon ausgegangen werden muss, dass die Erforschung und/oder Erhebung der Daten nicht ohne Probleme abläuft, was wiederum die Qualität der Ergebnisse negativ beeinflusst. Dies betrifft sowohl die quantitative als auch die qualitative Forschung. Sensitiv für Fehlschlüsse ist z.B. das Thema Kriminalität: Weil die Kriminalitätsstatistik des Bundeskriminalamtes eine Dunkelziffer enthält (also begangene Straftaten, die nie zur Anzeige gebracht oder anderweitig registriert werden), versucht man, in sog.

Felix Wolter
23. Informationelle Selbstbestimmung

Im Jahre 1983 begab es sich, dass in ganz (West-)Deutschland das Volk gezählt werden sollte – doch dazu sollte es erst vier Jahre später kommen: Anstatt sich brav zählen zu lassen, probten die Bürger den Aufstand und Boykottaufrufe durchzogen das Land. Die politisch sensible Stimmung der Zeit, Angst vor dem gläsernen Bürger, Sorge, die Uhr ticken zu hören bis zum drohenden, nahenden „1984“ eines orwellschen, dystopischen Überwachungsstaates, führte zu Klagen vor dem Bundesverfassungsgericht. Auch wenn die Volkszählung dann 1987 trotzdem durchgeführt wurde – immer noch unter Protest und Boykottaufrufen, aber wenigstens mit verändertem Fragebogen und besserem (und trotzdem unzureichendem) Schutz vor einer De-Anonymisierung –, so wurde sie doch 1983 erst einmal gestoppt und in Folge des politischen Debakels, als wohl wichtigstes Ergebnis der Affäre, das sogenannte „Volkszählungsurteil“ von höchstrichterlicher Stelle gefällt. Um Zensusdaten ärmer, war die Bundesrepublik nun um das „Grundrecht auf informationelle Selbstbestimmung“ reicher – und um die Erkenntnis, dass es „unter den Bedingungen der automatischen Datenverarbeitung kein ‚belangloses‘ Datum mehr“ (BVerfG 1983: 45) gibt. Spätestens seit diesem Zeitpunkt sind in Deutschland der Datenschutz und die empirische Sozialforschung untrennbar miteinander verbunden.

Andreas Mühlichen
24. Fälschungen von Daten

Seit einigen Jahren werden auch in der Öffentlichkeit zunehmend Fälschungen von Daten diskutiert. Im wissenschaftlichen Bereich beginnt dies bei Dissertationen, bei denen es sich zu großen Teilen um Plagiate handelte, die eigene Leistung nur vorgetäuscht wurde. Am bekanntesten dürfte die Arbeit des ehemaligen deutschen Verteidigungsministers, Karl-Theodor von Guttenberg, sein, der nach Bekanntwerden seines Plagiats im März 2011 von allen Ämtern zurücktrat.

Jörg Blasius
25. Rechtliche Grundlagen beim Publizieren

„Publish or perish!“ – Mit dieser berühmt berüchtigten Phrase, die wohl erstmals 1927 von dem Soziologen Clarence Marsh Case (1927: 325) schriftlich erwähnt wurde, sieht sich jeder Sozialwissenschaftler konfrontiert, der sich dafür entschieden hat, eine akademische Laufbahn einzuschlagen. Man kann diese Phrase treffend mit „Publiziere oder gehe unter!“ übersetzen und damit auf den enormen Publikationsdruck hinweisen, unter dem Wissenschaftler, zumindest zu Beginn ihrer wissenschaftlichen Karriere, stehen. Neben der eigentlichen Forschung als Haupttätigkeit eines Wissenschaftlers, sei sie primär empirisch oder theoretisch begründet, stellt die wissenschaftliche Publikation eine der wichtigsten Plattformen für einen Wissenschaftler dar, um Forschungsergebnisse öffentlich und damit der Diskussion und Kritik zugänglich zu machen.

Volker Dreier

Stichproben, Datenaufbereitung und Güte

Frontmatter
26. Stichprobenziehung in der qualitativen Sozialforschung

Empirische Sozialforschung bedeutet, dass zur Gewinnung von Erkenntnissen über den jeweiligen Forschungsgegenstand immer Erfahrungen gesammelt werden müssen, die in Form von Datenmaterial nach wissenschaftlichen Gesichtspunkten ausgewertet und verallgemeinert werden können. Diese Daten werden aus einer unendlichen Fülle von möglichen Daten mehr oder weniger gezielt gewonnen. Das Thema „Stichprobenziehung“ oder „Sampling“ begleitet dabei den gesamten, in der qualitativen Forschung zumeist zyklisch verlaufenden, Forschungsprozess von der Forschungsfrage bis hin zur Präsentation von Forschungsergebnissen.

Leila Akremi
27. Stichprobenziehung in der quantitativen Sozialforschung

Eine wichtige Entscheidung im Rahmen der Designentwicklung bei einer quantitativen Erhebung betrifft die Frage, ob nur ein Teil der Elemente untersucht werden soll oder ob alle Elemente der Grundgesamtheit einzubeziehen sind. Bei der Grundgesamtheit handelt es sich um all jene Elemente, die aufgrund von bestimmten Eigenschaften für den Forscher von Interesse sind. So kann beispielsweise bei einer Wahlstudie die Grundgesamtheit bestimmt werden als die Menge an Personen, die in einem Land zu einem bestimmten Stichtag wahlberechtigt sind. Bei den Personen handelt es sich um die Elemente der Grundgesamtheit, deren gemeinsame Eigenschaft die Wahlberechtigung zu einem bestimmten Stichtag ist.

Michael Häder, Sabine Häder
28. Pretests

Als Pretests werden Verfahren bezeichnet, mit denen Datenerhebungen vor ihrer eigentlichen Durchführung optimiert werden. Dies ist besonders in der quantitativen Sozialforschung von Relevanz, weil hier Abläufe oder Instrumente im Forschungsverlauf nicht einfach geändert oder adaptiert werden können, ohne die Standardisierung und damit die Vergleichbarkeit der erhobenen Daten zu gefährden. Aber auch in der qualitativen Sozialforschung braucht es eine gute Vorbereitung der Erhebungsphase, wozu auch hier bereits im Vorhinein Verfahren zu deren Optimierung eingesetzt werden können.

Martin Weichbold
29. Unit- und Item-Nonresponse

Wenn Stichproben nach dem Zufallsprinzip (Häder/Häder, Kapitel 27 in diesem Band) generiert werden, kommt es regelmäßig vor, dass in die Stichprobe gezogene Personen von vornherein nicht teilnehmen, den Fragebogen nur teilweise beantworten oder aus unterschiedlichen Gründen nicht erreicht werden können (Engel et al. 2004: 43). Von Unit-Nonresponse (Totalausfall, Komplettausfall) ist dabei die Rede, wenn in die Stichprobe gezogene Personen die Teilnahme an einer Befragung verweigern oder aus Gründen der Nichterreichbarkeit oder z.B. bedingt durch Sprachoder Verständigungsprobleme keine gültigen Aussagen vorliegen (Engel/Schmidt 2015: 256).

Uwe Engel, Björn Oliver Schmidt
30. Gewichtung

Ziel einer Analyse quantitativer Daten ist die Verallgemeinerung der Stichprobenergebnisse auf die interessierende Grundgesamtheit (Häder/Häder, Kapitel 27 in diesem Band). Tatsächlich unterscheiden sich Stichproben in bestimmter Hinsicht aber fast immer von der Grundgesamtheit; sei es durch ein geplantes „Oversampling“ einer bestimmten Teilpopulation (die Genauigkeit einer Schätzung wird im Wesentlichen von der Fallzahl in der Stichprobe bestimmt, weshalb seltene Teilpopulationen, für die valide Schätzungen möglich sein sollen, mit einem größeren Auswahlsatz in die Erhebung aufgenommen werden) oder durch selektiven Nonresponse (Engel/Schmidt, Kapitel 29 in diesem Band). Viele Befragungen weisen etwa einen so genannten „Mittelschichtsbias“ auf; Personen mit mittlerem bis gehobenem Bildungsniveau (gemessen durch den höchsten Schulabschluss) zeigen sich am öftesten bereit, an Umfragen teilzunehmen, sie sind in den Erhebungsdaten daher überrepräsentiert.

Hans Kiesl
31. Data Fusion und Record Linkage

Besteht Interesse an der Analyse der gemeinsamen Verteilung mehrerer Variablen, z. B. bezüglich deren Assoziation oder Interaktionseffekten, werden üblicherweise alle Merkmale bei jedem Element einer Stichprobe (Häder/Häder, Kap. 27 in diesem Band) erhoben. Prinzipiell lassen sich solche multivariaten Verteilungen (Blasius/ Baur, Kap. 45 in diesem Band) untersuchen, wenn die Ausprägungen für sämtliche Variablen bei allen Untersuchungseinheiten vollständig vorliegen. Begrenzte Ressourcen schränken jedoch in der Forschungspraxis oft sowohl die Stichprobenumfänge, als auch die Anzahl der Variablen in Umfragen ein.

Julia Cielebak, Susanne Rässler
32. Datenaufbereitung und Datenbereinigung in der qualitativen Sozialforschung

Charakteristisch für qualitative Daten ist ihre große Vielfalt, die von Antworten auf offene Fragen in Bevölkerungsumfragen (Züll/Menold, Kapitel. 75 in diesem Band) über transkribierte narrative Interviews (Küsters, Kapitel. 56 in diesem Band) und Gruppendiskussionen (Vogl, Kapitel 58 in diesem Band) bis hin zu visuellen Daten wie Fotos (Hoggenmüller/Raab, Kapitel 110 in diesem Band), Videos (Tuma/Schnettler und Traue/Schünzel, Kapitel 111 und 93 in diesem Band) und Social-Media-Daten (Schrape/Siri, Kapitel 92 in diesem Band) reicht. Dabei spielen qualitative Daten nicht nur im Rahmen qualitativer Forschung eine Rolle, auch in der quantitativ orientierten Forschung, etwa im Bereich der Surveyforschung (Stein, Reinecke, Kapitel 8 und 62 in diesem Band) sind qualitative Daten sehr häufig anzutreffen. Dies gilt erst recht für Mixed-Methods-Ansätze (Kelle, Kapitel 9 in diesem Band), die in unterschiedlicher Art und Weise qualitative und quantitative Daten miteinander kombinieren und integrieren (Baur et al. 2017).

Udo Kuckartz, Stefan Rädiker
33. Datenaufbereitung und Datenbereinigung in der quantitativen Sozialforschun

Eine erfolgreiche Analyse von Daten setzt neben einer intelligenten und gewissenhaften Datenerhebung auch die sorgfältige und gründliche Bereinigung und Aufbereitung der Daten voraus. Dieser Schritt mag trivial erscheinen. Doch er ist technisch durchaus anspruchsvoll und hält Fehlerquellen bereit.

Detlev Lück, Uta Landrock
34. Gütekriterien qualitativer Sozialforschung

Die Frage, wie sich die Qualität qualitativer Sozialforschung bestimmen lässt, ist seit der Wiederentdeckung der qualitativen Forschung in den 1960er-Jahren virulent. In diesem Beitrag kann die relativ diversifizierte Diskussion um die Qualität(-skriterien) qualitativer Forschung nur in Auszügen wiedergegeben werden. Das liegt auch daran, dass es – anders als in der quantitativen Forschung (Krebs/Menold, Kapitel 35 in diesem Band) – keine einheitliche Diskussion über einen allgemein akzeptierten Kriteriensatz gibt.

Uwe Flick
35. Gütekriterien quantitativer Sozialforschung

Für alle Schritte der Datenerhebung und -auswertung in der quantitativen Sozialforschung (Stein, Kapitel 8 in diesem Band) gibt es Gütekriterien, die es zu beachten gilt, damit die Daten möglichst fehlerfrei erhoben und die erzielten Resultate angemessen interpretiert werden können. Dabei wird zwischen Gütekriterien für Messinstrumente (deren Zuverlässigkeit und Gültigkeit) und Gütekriterien für das gesamte Forschungsdesign (die Generalisierbarkeit und Eindeutigkeit der Ergebnisse) unterschieden. Qualitätskriterien empirischer (Sozial-)Forschung sind dem Prinzip der Wertfreiheit verpflichtet.

Dagmar Krebs, Natalja Menold
36. Total Survey Error

Von zentraler Bedeutung für die Durchführung von Umfragen (Reinecke, Kapitel 62 in diesem Band) sind die Umfragequalität (z. B. Biemer/Lyberg 2003) und deren Sicherung. Die Qualität von Umfragen steht auch im Mittelpunkt des Konzepts des totalen Umfragefehlers (Total Survey Error, TSE). Thematisiert werden in diesem Konzept die Fehlerquellen, die während der Vorbereitung und Durchführung der Datenerhebung die Umfragedaten und ihre Interpretation verzerren können.

Frank Faulbaum

Analysestrategien in der qualitativen Sozialforschung

Frontmatter
37. Grounded Theory und Theoretical Sampling

Der Forschungsstil der Grounded Theory (im Folgenden: GT) wurde in den 1960er Jahren von Barney Glaser und Anselm Strauss entwickelt und 1967 in „The Discovery of Grounded Theory“ (1998 [1967]) erstmals publiziert. Veröffentlicht in einer Zeit des intellektuellen und politischen Aufbruchs und gezielt an die junge Generation revoltierender, nach neuen Wegen suchender Sozialforscher adressiert, wurde das Buch zu einem Klassiker der empirischen Sozialforschung. Obwohl es bis heute gerne als Lehrbuch für die Methode der Grounded Theory verstanden und genutzt wird, handelt es sich tatsächlich eher um ein Skizzenbuch, in dem zentrale Verfahren der GT grob umrissen und in ihrer Funktion bestimmt, nicht aber systematisch und in sich konsistent dargelegt werden.

Jörg Strübing
38. Sozialwissenschaftliche Hermeneutik und hermeneutische Wissenssoziologie

Sozialwissenschaftliche Hermeneutik (heute auch häufig Hermeneutische Wissenssoziologie genannt) bezeichnet eine von Hans-Georg Soeffner und seiner Arbeitsgruppe in den 1980er Jahren entwickelte Methodologie und ein Set methodischer Verfahrensweisen zur Interpretation textförmiger Daten (Soeffner 1989). Mittlerweile wurden ihre Grundsätze auch auf die Interpretation von Bild- und Videodaten übertragen (Raab 2008, Kurt 2002, 2008, Herbrik 2011, Hoggenmüller/Raab, Tuma/Schnettler und Traue/Schünzel, Kapitel 110, 111 und 93 in diesem Band). Ziel des Verfahrens ist es, die gesellschaftliche Bedeutung von sozialen Handlungen, Interaktionen und Interaktionsprodukten in Form von Typenbildungen rekonstruktiv zu verstehen (Kurt 2004, Reichertz 2013, Herbrik 2018).

Ronald Kurt, Regine Herbrik
39. Diskursanalyse

Der Begriff „Diskurs“ bezeichnet in seiner allgemeinsten Bedeutung die Produktion sozialen Sinns, verstanden als die Darstellung, Vermittlung und Konstitution von bedeutungstragenden Objektivationen in kommunikativen Prozessen.

Boris Traue, Lisa Pfahl, Lena Schürmann
40. Biographieforschung

Der Begriff „Biographie“ (Griechisch: „Leben“ & „schreiben“) bezieht sich nicht nur auf Geschriebenes, sondern ebenso auf in Gesprächen mitgeteilte biographische Selbst- oder Fremdbeschreibungen. Biographische Beschreibungen werden sowohl in informellen Zusammenhängen, als auch in unterschiedlichen formal organisierten oder durch Institutionen regulierten Kontexten mündlich geäußert oder schriftlich verfasst.

Gabriele Rosenthal
41. Ethnographie

Ethnographie bezeichnet ein sozialwissenschaftliches Forschungsprogramm, bei dem mehr oder weniger unbekannte ethnische, kulturelle oder soziale Gruppen, Gemeinschaften, Institutionen oder andere soziale Einheiten und deren Handlungsweisen, Wissensformen und materiale Kulturen untersucht werden. Im Mittelpunkt steht dabei die teilnehmende Beobachtung (Thierbach/Petschick und Dangschat/Kogler, Kapitel 109 und 115 in diesem Band), doch umfasst die Ethnographie darüber hinaus auch andere qualitative und gelegentlich sogar quantitative Methoden der Datenerhebung, die zu sehr unterschiedlichen Datensorten führen und deswegen jeweils eigene Formen der Auswertung erfordern. Neben verschiedenen Formen der Beobachtung zählen dazu das Interview (Helfferich und Küsters, Kapitel 55 und 56 in diesem Band), die Dokumentenanalyse (Salheiser und Ernst, Kapitel 104 und 105 in diesem Band), audiovisuelle Aufzeichnungen (Tuma/Schnettler und Akremi, Kapitel 111 und 112 in diesem Band), Fotografien (Hoggenmüller/Raab, Kapitel 110 in diesem Band), Karten (Marguin, Kapitel 117 in diesem Band), Gebäude (Steets/ Schmidt-Lux, Kapitel 116 in diesem Band) und Artefakte (Schubert, Kapitel 113 in diesem Band).

Hubert Knoblauch, Theresa Vollmer
42. Einzelfallanalyse

Unter einem Fall kann Vielfältiges verstanden werden. Neben klassischen Gegenständen der Sozialforschung, wie Einzelpersonen, Personengruppen, Organisationen/Netzwerken, ganze Gesellschaften bzw. Kulturen oder anderen Formen sozialer Zusammenhänge, können Einzelfallanalysen auch soziale Prozesse, Episoden, einzelne Situationen oder Ähnliches betreffen (Baur/Lamnek 2005). Zudem gibt es eine Vielzahl von Anwendungsgebieten und sozialwissenschaftlichen Disziplinen, die mit Fallstudien arbeiten, z. B. im Bereich der Evaluations-, Stadt-, Biographie- oder auch Organisationsforschung.

Linda Hering, Robert Jungmann
43. Qualitative Inhaltsanalyse

Qualitative Inhaltsanalyse stellt eine Auswertungsmethode dar, die Texte bearbeitet, welche im Rahmen sozialwissenschaftlicher Forschungsprojekte in der Datenerhebung anfallen, z. B. Transkripte von offenen Interviews (Helfferich, Kapitel 55 in diesem Band) oder Fokusgruppen (Vogl, Kapitel 58 in diesem Band), offene Fragen aus standardisierten Befragungen (Züll/Menold, Kapitel. 59 in diesem Band), Beobachtungsprotokolle aus Feldstudien (Thierbach/Petschick, Kapitel 109 in diesem Band), Dokumente (Ernst, Kapitel 105 in diesem Band), Akten (Salheiser, Kapitel 104 in diesem Band), Zeitungsartikel (Taddicken und Klein, Kapitel 107 und 108 in diesem Band) und Internetmaterialien (Thimm et al., Kapitel 86 in diesem Band).

Philipp Mayring, Thomas Fenzl
44. Qualitative Comparative Analysis

Die „Qualitative Comparative Analysis“ (QCA) ist ein analytischer Ansatz, mit dem untersucht werden kann, wie soziale Ereignisse oder Phänomene zu Stande kommen bzw. wie sie sich verändern. Mit diesem von Charles Ragin (1987, 2008) entwickelten Ansatz kann insbesondere analysiert werden, wie bestimmte Faktoren als notwendige und hinreichende Bedingungen zusammenwirken, um zu einem Ereignis oder Phänomen zu führen. QCA erlaubt dabei, detaillierte Fallanalysen mit formalisierten, systematischen Fallvergleichen zu verbinden.

Nicolas Legewie

Analysestrategien in der quantitativen Sozialforschung

Frontmatter
45. Multivariate Datenstrukturen

In der quantitativen Sozialforschung (Stein, Kapitel 8 in diesem Band) liegen Daten entweder bereits in standardisierter Form vor – z. B. in Form von Daten der amtlichen Statistik (Hartmann/Lengerer, Kapitel 106 in diesem Band), als Logfiles (Schmitz/Yanenko, Kapitel 87 in diesem Band), usergenerierte Kommunikation (Mayerl/Faas, Kapitel 90 in diesem Band), Geodaten (Lakes und Kandt, Kapitel 118 und 119 in diesem Band) oder Kundendatenbanken (Meyermann/Gebel/Liebig, Kapitel 103 in diesem Band) – oder, sie werden im Rahmen von Primärerhebungen, z. B. in Form von Befragungen (Reinecke, Kapitel 62 in diesem Band) – standardisiert erhoben, oder schwach strukturierte Daten werden, z. B. mittels inhaltsanalytischer Verfahren, analysiert und kodiert (Mayring/Fenzl und Kuckartz/Rädiker, Kapitel 43 und 32 in diesem Band).

Jörg Blasius, Nina Baur
46. Kausalität

Kausalvorstellungen, also Vermutungen darüber, welche Wirkungen oder welche Effekte eine Ursache haben, spielen im Alltag wie auch in der Wissenschaft eine große Rolle. In den empirischen Wissenschaften ist es ein zentrales Ziel, kausale Zusammenhänge aufzudecken und tatsächlich bestehende, kausale Effekte von nur vermeintlichen Effekten (Scheinkausalitäten) zu unterscheiden. So gibt es einen positiven Zusammenhang zwischen der Größe eines Feuers und der Anzahl der Feuerwehrleute, die den Brand bekämpfen.

Steffen Kühnel, André Dingelstedt
47. Indikatoren

Oft sind im Rahmen der quantitativen empirischen Forschung Sachverhalte aus Forschungsfragen und Hypothesen so allgemein bzw. mehrdeutig formuliert, dass sie nicht direkt messbar sind (z. B. Sachverhalte wie „gesellschaftliche Teilhabe“ oder „Mobbing“). Sie müssen erst operationalisiert werden, das heißt, es sind genaue Angaben dazu erforderlich, wie ein Sachverhalt gemessen werden soll (vgl. auch Diaz- Bone, Kapitel 6 in diesem Band). Indikatoren, kurz gesagt sind dies Anzeiger für Sachverhalte, spielen hierbei eine zentrale Rolle.

Nicole Burzan
48. Messung von sozialer Ungleichheit

Unter sozialer Ungleichheit verstehen wir strukturell verankerte Disparitäten in den Lebens- und Handlungsbedingungen von Individuen, „die ihnen in unterschiedlichem Ausmaß erlauben, in der Gesellschaft allgemein anerkannte Lebensziele zu verwirklichen.“ (Huinink/Schröder 2019: 101). Man unterscheidet verschiedene Dimensionen sozialer Ungleichheit:

Johannes Huinink
49. Skalierungsverfahren

Unter Skalierung versteht man, wie ein oder mehrere Beobachtungsmerkmal(e) einem oder mehreren Skalenwert(en) zugeschrieben wird (werden). Dabei sind die Beobachtungsmerkmale manifest, sie werden direkt erhoben, z. B. indem sie in einer Umfrage abgefragt werden. Dies können z. B. Merkmale des christlichen Glaubens sein, wie die Fragen „Glauben Sie an Gott ?“, „Glauben Sie an die Hölle ?“ und „Glauben Sie an den Teufel ?“.

Jörg Blasius
50. Zeitreihenanalyse

Zeitreihenanalyse ist ein Sammelbegriff für statistische Verfahren zur Analyse von Zeitreihen. Unter einer Zeitreihe versteht man eine Serie von zeitlich geordneten Messergebnissen, die aus Erhebungen stammen, die relativ häufig (mindestens etwa 30 bis 40 Mal) in gleichbleibenden Abständen am gleichen Objekt zur gleichen Merkmalsdimension vorgenommen wurden.

Rainer Metz, Helmut Thome
51. Längsschnittanalyse

Längsschnittdaten liegen vor, wenn zu einer Befragungseinheit von Personen oder Haushalten, gelegentlich auch von Betrieben, Daten zur Verfügung stehen, die nicht nur die Situation zu einem einzigen Messzeitpunkt, sondern über einen längeren Zeitraum erfassen. Dies können Daten sein, die aus Befragungen, insbesondere aus Panel-Erhebungen entstehen, wie das Sozioökonomische Panel (Schupp, Kapitel 85 in diesem Band). Es kann sich aber auch um prozessproduzierte Daten handeln, die aus Verwaltungshandeln abgeleitet werden (Hartmann/Lengerer, Kapitel 106 in diesem Band), wie zum Beispiel aus den Daten der Sozialversicherung.

Tatjana Mika, Michael Stegmann
52. Verlaufsdatenanalyse

Verlaufsdaten beziehen sich auf Angaben über Ereignisse und Folgen von Ereignissen. Zu denken ist etwa an die Arbeitsmarktbeteiligung von Befragten, wobei Ereignisse Arbeitsplatzwechsel, Übergänge in die Arbeitslosigkeit oder aus der Arbeitslosigkeit, Übergänge in die Rente etc. sein können. Weitere Beispiele sind Heiraten, Schulwechsel und Schulabschlüsse, Beginn des Bezugs von Hartz-IV-Leistungen, berufliche Auf- oder Abstiege, Umzüge, Arztbesuche, Unfälle, Einkäufe bestimmter Waren, Insolvenzen oder Patentanmeldungen von Firmen etc. Die Verlaufsdatenanalyse beantwortet Fragen nach der Dauer bis zu bestimmten Ereignissen, der Häufigkeit von Folgen von Ereignissen, deren Abhängigkeit von Kovariablen sowie nach Abhängigkeiten zwischen Verläufen.

Ulrich Pötter, Gerald Prein
53. Mehrebenenanalyse

In der modernen Gesellschaft gewinnen Bildungskarrieren und Bildungsabschlüsse immer mehr an Bedeutung. Neben dem höheren Schulabschluss an sich spielt dabei die Abschlussnote als Indikator für die Leistungsqualität eine Rolle. Wovon hängen nun aber gute oder weniger gute Schulleistungen ab ? Naheliegend ist, beispielsweise besondere Talente, das Vorwissen, die Interessen der Schüler:innen oder die zur Verfügung stehende Lernzeit als Erklärungen heranzuziehen.

Manuela Pötschke
54. Meta-Analyse

Der Begriff „Meta-Analyse“ wurde im Jahr 1976 von Gene V. Glass eingeführt. Er verstand darunter die „Analyse von Analysen“ („analysis of analyses“) (Gene V. (1976), die neben Primär- und Sekundäranalysen einen dritten Forschungstyp darstellt. Im Gegensatz zu Primär- und Sekundäranalysen werden hier nicht Originaldaten erstmalig oder wiederholt ausgewertet.

Bernd Weiß, Michael Wagner

Offene Befragung

Frontmatter
55. Leitfaden- und Experteninterviews

Qualitative, leitfadengestützte Interviews sind eine verbreitete, ausdifferenzierte und methodologisch vergleichsweise gut ausgearbeitete Methode, qualitative Daten zu erzeugen. Leitfadeninterviews gestalten die Führung im Interview über einen vorbereiteten Leitfaden, Experteninterviews sind definiert über die spezielle Auswahl und den Status der Befragten.

Cornelia Helfferich
56. Narratives Interview

Das narrative Interview ist eine Interviewform, in der ein Befragter auf eine Eingangsfrage bzw. Erzählaufforderung ohne Unterbrechungen, ohne Vorgaben und in großer Ausführlichkeit antworten kann. Es dient der Erhebung von Handlungsprozessen, also Ereignisverkettungen (Mika/Stegmann, Pötter/Prein, Kap. 51 und 52 in diesem Band), an denen der Befragte selbst beteiligt war.

Ivonne Küsters
57. Paarinterview

Das Paarinterview ist eine kollektive Erhebungsform, in der mit beiden Beteiligten eines Paares – nachfolgend „Partner/Partnerin 1“ („P1“) und „Partner/Partnerin“ („P2“) genannt – gemeinsam ein Interview durchgeführt wird. Die Stärken des Paarinterviews kommen besonders zum Tragen, wenn das Paar als eigenständige Analyseeinheit und die Paarebene als solche im Zentrum des Forschungsinteresses stehen: Paarinterviews erlauben es, die Aushandlungen, Interaktionen im Paar und gemeinsam geteilte oder divergierende Wirklichkeitskonstruktionen und Deutungen von Paaren in situ erfahrbar zu machen. Auch können sie verschiedenste Paarperformances, Aushandlungs- und Herstellungsprozesse oder Macht- und Ungleichheitsverhältnisse (wie ungleiche Deutungshoheiten in Paarbeziehungen) erfassen.

Christine Wimbauer, Mona Motakef
58. Gruppendiskussion

Gruppendiskussionen (auch: Fokusgruppen, „focus groups“) sind geplante Diskussionen, um Einstellungen zu einem bestimmten, durch das Forschungsinteresse definierten Bereich in einer offenen, freundlichen Atmosphäre zu erheben. Dazu werden in einer Gruppe Kommunikationsprozesse initiiert, die einem alltäglichen Gespräch ähneln. Dabei geht es nicht (nur) um einen Austausch von Argumenten, sondern es wird auch erzählt, erinnert oder gegenseitig ergänzt.

Susanne Vogl
59. Delphi-Befragung

Im Jahr 1998 wurden verschiedene Experten danach gefragt, wie sie sich die Zukunft der Festnetztelefonie im Jahr 2005 vorstellen. Den Hintergrund für diese Studie bildete die Vermutung, dass sich immer mehr Personen dazu entschließen würden, ihren Festnetztelefonanschluss abzumelden und nur noch über den Mobilfunk zu telefonieren. Dies brächte aber weitreichende Folgen für die empirische Sozialforschung, die sich häufig telefonischer Befragungen bedient, mit sich.

Michael Häder, Sabine Häder
60. Journalistisches Interview

Das journalistische Interview ist wie das wissenschaftliche Interview durch eine asymmetrische Kommunikation gekennzeichnet: Interviewer fragen, Befragte antworten. Der wesentliche Unterschied zwischen diesen beiden Interviewformen besteht darin, dass das journalistische Interview für Dritte – die Empfänger – geführt, manchmal geradezu inszeniert wird. Insbesondere bei politischen Interviews tritt dieser Aufführungs-Charakter in den Vordergrund.

Jürgen Friedrichs, Ulrich Schwinges
61. Qualitative Panelbefragungen

Handeln beinhaltet Regelmäßigkeiten, aber Handeln kann sich auch ändern. Mit Hilfe von Längsschnittstudien kann Wandel (oder Stabilität) über die Zeit untersucht werden, dito die dahinterliegenden Prozesse und Dynamiken. „Wandel“ ist dabei sehr weit gefasst: sozialer Wandel, Transformationen, individuelle Entwicklungen, das Wechselspiel aus individuellem und gesellschaftlichem Wandel im Zeitverlauf etc.

Susanne Vogl

Standardisierte Befragung

Frontmatter
62. Grundlagen der standardisierten Befragung

Die Befragung kann als ein klassisches Instrument der Datenerhebung für die empirisch orientierten Disziplinen der Sozial- und Wirtschaftswissenschaften bezeichnet werden. Insbesondere durch den Einsatz von Befragungen in der Markt- und Meinungsforschung (Ziegler, Kap. 12 in diesem Band) hat ihre Bedeutung stark zugenommen. Auch wenn sich die Befragungsformen in den letzten 40 Jahren weiterentwickelt und diversifiziert haben, ist die von Scheuch (1973: 70) aufgestellte Definition der Befragung als Interview auch heute noch zutreffend: „Unter Interview als Forschungsinstrument sei hier verstanden ein planmäßiges Vorgehen mit wissenschaftlicher Zielsetzung, bei dem die Versuchsperson durch eine Reihe gezielter Fragen oder mitgeteilter Stimuli zu verbalen Informationen veranlasst werden soll.“

Jost Reinecke
63. Einstellungen zu Befragungen

Die Identifizierung von Einstellungen (Latcheva/Davidov, Kapitel 78 in diesem Band) zu bestimmten Inhalten oder Produkten steht im Fokus von Befragungen (Reinecke und Helfferich, Kapitel 62 und 55 in diesem Band). Doch hinter diesem vordergrundigen Ziel einer Befragung steht immer auch die Einstellung zu Befragungen an sich. Der Einfluss dieser Einstellung auf die Datenqualitat (Krebs/Menold, Engel/Schmidt und Faulbaum, Kapitel 35, 29 und 36 in diesem Band) wird dabei oft unterschatzt.

Anja Hlawatsch, Tino Krickl
64. Kognitive Strukturen bei der Beantwortung von Fragen

In standardisierten Befragungen (Reinecke, Kapitel 62 in diesem Band) wird von den Befragten verlangt, Auskunft über sich selbst zu geben. Dabei stehen sie vor einer komplexen Aufgabe: Sie müssen den Sinn einer Frage adäquat erfassen, über die notwendigen Informationen zur Beantwortung verfügen und diese passend zur Fragestellung kommunizieren. Dieser Antwortprozess wird in Anlehnung an kognitionspsychologische Erkenntnisse häufig als Phasenmodell dargestellt (Tourangeau et al. 2000).

Alice Barth
65. Interviewereffekte

Interviewer nehmen eine zentrale, aber oft unterschätze Rolle in der Umfrageforschung ein (Reinecke, Kapitel 62 in diesem Band). Blickt man jedoch genauer hin, dann übernehmen sie eine Reihe sehr wichtiger Aufgaben bei persönlichen (Stocké, Kapitel 67 in diesem Band) und telefonischen Umfragen (Hüfken, Kapitel 68 in diesem Band), die nachhaltige Auswirkungen auf die Qualität der erhobenen Umfragedaten haben können: Interviewer stellen meistens den ersten Kontakt mit den Befragten her und überzeugen sie, an der Umfrage teilzunehmen (Engel/Schmidt, Kapitel 29 in diesem Band). Während des Interviews administrieren sie oftmals komplexe Fragebögen, klären gegebenenfalls die Bedeutung von Fragen und zeichnen die Antworten der Befragten auf.

Alexander Jedinger, Tobias Michael
66. Mode-Effekte

Unter Mode-Effekten werden zufällige und/oder systematische Verzerrungen in den Antworten von Befragten verstanden, die auf die Form der Administration der Befragung zurückzuführen sind. Mit „Administration“ sind die Art und Weise der Präsentation der Fragen und der Aufzeichnung der Antworten der Befragten gemeint. Beispielsweise werden in Face-to-Face-Interviews (Stocké, Kapitel 67 in diesem Band) die Fragen in der Regel von Interviewern in einer mündlichen Situation vorgelesen.

Marek Fuchs
67. Persönlich-mündliche Befragung

In der Bundesrepublik wurden 2019 23 % aller standardisierten Interviews der Mitgliedsinstitute des Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e. V. (ADM) mithilfe eines persönlich-mündlichen Befragungsmodus durchgeführt. Obwohl die Verwendung dieser Befragungsart seit den 1990er Jahren stark rückläufig ist, stellt sie somit immer noch eine der wichtigsten Arten der Erfassung von Befragungsdaten dar (Reinecke, Kapitel 62 in diesem Band). Der vorliegende Beitrag beschreibt die Besonderheiten dieses Datenerhebungsmodus und diskutiert die hieraus erwachsenden Vor- und Nachteile hinsichtlich der Datenqualität, d. h. er befasst sich konkret mit den Befragungsmodi PAPI („Paper and Pencil Interviewing“, auch: Interviewer-administrierte Befragung) und CAPI („Computer-Assisted Personal-Interviewing“, auch: computergestützte Interviewer-Administration), die nachfolgend auch als „face-to-face“ (FTF)-Befragungen bezeichnet werden (für eine ausführliche Darstellung der FTF-Methode: Biemer/Lyberg 2003: 149 ff., Groves et al. 2004: 134 ff., Lyberg/Kasprzyk 1991, Schnell 2012: 187 ff., Tourangeau et al. 2000: 289 ff.).

Volker Stocké
68. Telefonische Befragung

Telefonumfragen werden bereits seit etwa 100 Jahren angewendet. Damals wie heute kommt den Medien in diesem Zusammenhang eine besondere Bedeutung zu. Der Wettbewerb, insbesondere um eine zeitnahe Berichterstattung gesellschaftlicher oder politischer Ereignisse, begünstigt dabei den Einsatz der Telefonumfrage.

Volker Hüfken
69. Schriftlich-postalische Befragung

Die schriftlich-postalische Befragung ist eine Variante der standardisierten Befragung (Reinecke, Kapitel 62 in diesem Band), bei der sowohl bei der Kontaktaufnahme als auch bei der Rückgabe eine postalische Zustellung gewählt wird. In manchen Fällen schriftlicher Befragung beschränkt sich der postalische Teil auf die Rücksendung, und der Erstkontakt erfolgt in anderer Weise – z. B. über eine Verteilung des Fragebogens statt Zusendung. In diesen Fällen ist es hilfreich, sich ebenfalls an den grundlegenden Prinzipien postalischer Befragungen zu orientieren.

Karl-Heinz Reuband
70. Online-Befragung

Online-Befragungen platzieren ihre Fragebögen auf dem Server eines Forschungsinstituts oder eines Providers, wo sie von den Befragungsteilnehmern online ausgefüllt werden. Von anderen Befragungsmodi der standardisierten Befragung (Reinecke, Kapitel 62 in diesem Band) unterscheiden sich Online-Befragungen also durch das von ihnen genutzte Medium: das Internet.

Pia Wagner-Schelewsky, Linda Hering
71. Mobile Befragungen

Mobile Befragungen (auch: „Web Surveys for Mobile Devices“) sind ein Spezialfall von webbasierten Befragungen bzw. Online-Befragungen (Wagner-Schelewsky/Hering, Kapitel 70 in diesem Band). Die Besonderheit besteht darin, dass die Teilnahme an einer derartigen Befragung durch mit dem Internet verbundene Mobilgeräte („Mobile Devices“) wie etwa Tablets und Smartphones erfolgt, also Computern, die sich neben ihrer Portabilität vor allem durch ihren vergleichsweisen großen und berührungssensitiven Bildschirm auszeichnen, eher selten ist eine extra Tastatur vorhanden.

Bernd Weiß, Henning Silber, Bella Struminskaya, Gabriele Durrant
72. Gesamtgestaltung des Fragebogens

Der Fragebogen ist ein Messinstrument – ebenso wie eine Waage oder ein Mikroskop. Hätten wir unterschiedlich austarierte Waagen, so würden Gegenstände gleichen Gewichts dennoch zu unterschiedlichen Anzeigen des Gewichts führen. Hätten sie zudem verschiedene Gewichte, so könnten wir zunächst nicht entscheiden, welchen „Anteil“ an dem gemessenen Gewicht auf die unterschiedliche Tarierung der Waagen und welcher auf die unterschiedlichen Gewichte der Gegenstände zurückzuführen ist. Der Fragebogen sollte demnach z. B. so konstruiert sein, dass er Interviewereffekte (Jedinger/Michael, Kapitel 65 in diesem Band) minimiert und durch die Frageformulierung (Porst, Kapitel 73 in diesem Band) auch unterschiedliche semantische Interpretationen der Fragen durch die Befragten ausschließt.

Jennifer Fietz, Jürgen Friedrichs
73. Frageformulierung

Ungeachtet dieser selbst formulierten Einschränkung legt Stanley L. Payne mit seinem 1951 erschienenen Buch „The Art of Asking Questions“ erstmals eine systematische Darstellung und Diskussion von Regeln vor, die bei der Formulierung von Fragebogen-Fragen hilfreich und deshalb zu berücksichtigen wären. Waren bis zu diesem Zeitpunkt ausschließlich einzelne Kapitel in Büchern (Rugg/Cantril 1944) oder Beiträge in Fachzeitschriften (Rugg 1941, Hubbard 1950) erschienen, wird hier zum ersten Mal ein komplettes „Frageformulierungs-Buch“ vorgelegt. Alle späteren Versuche, Regeln für die Formulierung von Fragebogenfragen zusammenzustellen, gehen explizit oder implizit auf Payne (1951) zurück, die meisten davon wieder „nur“ als Einzelbeiträge in Handbüchern, in Büchern zu „Methoden der empirischen Sozialforschung“ oder sonstigen methodischen Abhandlungen (Converse/Presser 1986, Porst 2000, Groves et al. 2004, Diekmann 2007, Porst 2014, Hollenberg 2016, Häder 2019).

Rolf Porst
74. Antwortskalen in standardisierten Befragungen

Jeder, der eine standardisierte Befragung plant, muss sich früher oder später überlegen, welche Fragen gestellt werden sollen, wie die Fragen formuliert sein sollen und wie die Antwortkategorien zu gestalten sind. Die Antworten auf diese drei Fragen sind nicht unabhängig, sondern hängen eng miteinander zusammen. In der Regel ist es sinnvoll in der genannten Reihenfolge vorzugehen, also sich erst mit den Inhalten und der Formulierung von Fragen zu beschäftigen und danach die Konstruktion der Antwortskalen vorzunehmen. Forschende sind aber gut beraten, schon bei der Formulierung der Fragen an die spätere Datenauswertung zu denken, und spätestens bei der Festlegung der Antwortkategorien stehen Überlegungen zum Skalenniveau und den statistischen Analysemöglichkeiten im Vordergrund.

Axel Franzen
75. Offene Fragen

Lange Zeit standen offene Fragen in standardisierten Interviews eher im Hintergrund, da die Erhebung und insbesondere die Analyse als sehr aufwändig im Vergleich zum Zugewinn an Information galten. Mit dem Aufkommen von Online-Umfragen wird die Erhebung von offenen Fragen aber deutlich erleichtert, denn diese können hier kostengünstiger erhoben werden und stehen unmittelbar danach für die Auswertung zur Verfügung.

Cornelia Züll, Natalja Menold
76. Vignetten

Beim faktoriellen Survey (Vignettenanalyse) handelt es sich um ein experimentelles Design (Eifler/Leitgöb, Kapitel 13 in diesem Band), bei dem der Forscher variierende Situations- oder Personenbeschreibungen, die sogenannten Vignetten, zu einem Thema erstellt und unter einem bestimmten Gesichtspunkt beurteilen lässt. Die vom Forscher festgelegten Situations- oder Personenbeschreibungen, wie etwa das Geschlecht, die Hautfarbe, die Deutschkenntnisse, die Konfession und die Erwerbstätigkeit einer fiktiven Person bilden die unabhängigen Variablen (X-Variablen, experimentelle Einwirkungen) für das zu erklärende Urteilsverhalten (Y-Variable, Messung), also etwa dafür, wie sehr ein Befragter der jeweils beschriebenen Vignettenperson vertrauen würde. Beurteilt jeder Befragte mehr Vignetten als es X-Variablen für die Vignetten gibt, dann lässt sich für jeden einzelnen Befragten die Wichtigkeit, die er oder sie den entsprechenden Vignettenmerkmalen bei der Beurteilung der Vignetten beimisst, mit Hilfe der Regressionsanalyse schätzen.

Hermann Dülmer
77. Nationale soziodemographische Standards und international harmonisierte soziodemographische Hintergrundvariablen

Soziodemographische Variablen stellen Hintergrundmerkmale der Bevölkerung dar, über die die Population einer Stichprobe oder einer Zielgruppe eines Forschungsprojektes beschrieben werden kann. Die soziodemographischen Merkmale unterteilen sich einerseits in demographische Merkmale wie Kohortenzugehörigkeit, Geschlecht, ethnische Zugehörigkeit und Familien- und Verwandtschaftsordnungen bzw. Haushaltszusammensetzung, und andererseits in soziale Ungleichheit beschreibende sozioökonomische Merkmale wie Bildung, Ausbildung, Erwerbsstatus, berufliche Tätigkeit und Einkommen.

Jürgen H. P. Hoffmeyer-Zlotnik, Uwe Warner
78. Skalen und Indizes

In der sozialwissenschaftlichen Literatur existiert keine einheitliche Definition, was unter Index oder Indexbildung subsumiert werden kann und ob und wie sich Indexbildung von Skalierungsverfahren abgrenzt. Diese fehlende definitorische Eindeutigkeit entspringt nicht zuletzt der Frage, ob Indizes auch als Instrumente zur Messung sozialwissenschaftlicher Konzepte bezeichnet werden dürfen (Diekmann 2009: 230 ff.).

Rossalina Latcheva, Eldad Davidov
79. Interkulturell vergleichende Umfragen

Die interkulturell vergleichende Umfrageforschung hat in den Sozialwissenschaften in den letzten Jahrzehnten stark an Bedeutung gewonnen. Dies betrifft zum einen die Verfügbarkeit von international vergleichbaren Umfragedaten und die auf ihnen basierenden substanzwissenschaftlichen Untersuchungen, zum anderen die Beschäftigung mit methodologischen Fragestellungen. Für interkulturelle Umfragen sind nicht nur die Probleme, die für alle Umfragen allgemein gelten, zu berücksichtigen.

Michael Braun
80. Mitarbeiterbefragungen

Eine Mitarbeiterbefragung (MAB) fragt Mitarbeiter (aus allen oder ausgewählten Ebenen bzw. Bereichen einer Organisation) nach ihren Meinungen und Einstellungen zu arbeitsbezogenen Themen mit der Absicht, mit der Befragung selbst, ihren Messwerten und ihrer Aufarbeitung das Erreichen der Ziele der Organisation zu fördern. Man kann einige gängige MAB-Typen unterscheiden, auch wenn diese in der Praxis meist als Mix realisiert werden:

Ingwer Borg
81. Befragungen von Kindern und Jugendlichen

In der Geschichte der empirischen Sozial - und Marktforschung hat sich hinsichtlich der Befragung von Kindern und Jugendlichen ein Einstellungswandel vollzogen: Wurden Heranwachsende zunächst für den relativ komplexen Frage-Antwort-Prozess als unzureichend kompetent eingeschätzt, gelten sie spätestens seit Mitte der 1980er-Jahre als ernstzunehmende Interviewpartner (France 2004: 177). Die Gründe für diese Einstellungsänderung sind vielfältig. Zum einen haben sich Heranwachsende zu einer wichtigen Zielgruppe in der Markt - und Medienforschung entwickelt, was sicherlich zu einer Verbreitung von Befragungen im Kindersegment beigetragen hat (Lipski 2000: 77).

Julia Nachtsheim, Susanne König
82. Befragungen von älteren und alten Menschen

Der demografische Wandel ist eine der großen aktuellen gesellschaftlichen Herausforderungen. Niedrige Fertilität, zunehmende Migration und die Verlängerung der Lebensspanne verändern die Gesellschaft. Die Lebenserwartung hat im 20. Jahrhundert stetig um zwei bis drei Jahre pro Jahrzehnt zugenommen und steigt weiter. Das lange Leben bringt gesellschaftliche und individuelle Entwicklungschancen mit sich, geht aber zugleich mit bisher unbekannten Herausforderungen einher.

Andreas Motel-Klingebiel, Daniela Klaus, Julia Simonson
83. Befragung von Migranten

Über Befragungen der Allgemeinbevölkerung hinaus sind repräsentative Umfragen von Bevölkerungsminderheiten für viele Fragestellungen zentral. So leben in Deutschland viele Arbeitsmigranten, insbesondere aus der Türkei, Italien und andersen südeuropäischen Ländern, mittlerweile auch in der zweiten und dritten Generation – und durch Familiennachzug oder Bildungsmigration immigrieren auch stetig Neuzuwanderer aus diesen Ländern. Nach dem Fall der Mauer 1989 und mit Aufhebung der EU−Binnengrenzen kamen zunehmend Migranten aus anderen Ländern nach Deutschland, zunächst hauptsächlich aus den ehemaligen GUS-Staaten und zunehmend auch aus den Staaten des Nahen und Mittleren Ostens.

Yasemin El-Menouar
84. Befragung von speziellen Populationen

Spezielle Populationen sind Gruppen, die gemeinsame, teilweise auch seltene Eigenschaften bzw. Interessen teilen oder sich in einer gemeinsamen Situation befinden. Das können alleinerziehende Väter genauso sein wie Homosexuelle, Drogenabhängige oder Demonstrationsteilnehmer.

Miriam Trübner, Tobias Schmies
85. Quantitative Paneldaten

Unter Paneldaten versteht man im Bereich der empirischen Sozialforschung Daten auf Basis einer Untersuchungsanlage, bei der gleichzeitig drei Merkmale erfüllt sind. Es werden bei denselben Untersuchungseinheiten dieselben oder zumindest die gleichen Inhalte erhoben und die Daten werden mehrfach, also mindestens zweimal ermittelt.

Jürgen Schupp

Digitale Methoden

Frontmatter
86. Digitale Methoden im Überblick

Wie nur wenige technische Errungenschaften hat die Digitalisierung soziale, politische, wirtschaftliche und kulturelle Kommunikations- und Handlungsformen verändert. Sichtbar wird dies nicht nur an den Schlagworten wie Web 2.0 oder Industrie 4.0, sondern besonders an der großen Menge an digitalen Plattformen, die sich in den letzten zehn Jahren herausgebildet haben. Computer, Smartphones, Tausende von Apps und neue digitale Endgeräte wie Smart Speaker strukturieren nicht mehr nur unseren beruflichen, sondern unseren gesamten sozialen, persönlichen und intimen Alltag.

Caja Thimm, Patrick Nehls, Yannik Peters
87. Web Server Logs und Logfiles

Mit Logfiles werden automatisch erstellte digitale Dateien (Thimm/Nehls/Peters, Kapitel 86 in diesem Band) bezeichnet, in denen bestimmte Ereignisse elektronisch aufgezeichnet werden. Im sogenannten Web Usage Mining (Srivastava et al. 2000) sind vor allem Web Server Logs von Interesse und werden daher oft synonym zum Begriff „Logfiles“ verwendet. Diese dokumentieren die Zugriffe auf Webseiten, um darauf basierend Webseitenstatistiken erstellen und auswerten zu können.

Andreas Schmitz, Olga Yanenko
88. Websites

Als „Website“ wird ein zusammenhängendes, in der Regel ästhetisch vereinheitlichtes Ensemble von Webseiten verstanden, dessen Daten auf einem Server bzw. Host- Rechner physisch lokalisiert sind.

Anja Schünzel, Boris Traue
89. Blogs

„Weblogs“ (in Kurzform auch: „Blogs“), sind regelmäßig aktualisierte Webseiten, die bestimmte Inhalte (zumeist Texte beliebiger Länge, aber auch Bilder oder andere multimediale Inhalte) in umgekehrt chronologischer Reihenfolge darstellen. Die Beiträge sind einzeln über URLs adressierbar und bieten in der Regel die Möglichkeit, Kommentare zu hinterlassen. Durch Querverweise in Beiträgen und Kommentaren (Nam, Kapitel 91 in diesem Band) sowie durch empfehlende Links auf andere Blogs – die „Blogroll“ – sind die meisten Blogs Teil eines Geflechts von Webseiten (Schünzel/ Traue, Kapitel 88 in diesem Band).

Jan-Hinrik Schmidt
90. Quantitative Analyse von Twitter und anderer usergenerierter Kommunikation

Die Nutzung von sozialen Medien („Social Media“) ist ein wichtiger Bestandteil der alltäglichen Kommunikation von Millionen von Menschen. Mitunter werden Beiträge in diesen Medien selbst zu tagespolitischen Ereignissen. Letzteres galt in besonderem Maße für die Reichweite und das Echo auf die täglichen Tweets des US-amerikanischen Präsidenten Donald Trump.

Jochen Mayerl, Thorsten Faas
91. Qualitative Analyse von Chats und anderer usergenerierter Kommunikation

Mit der fortschreitenden Verbreitung des Web 2.0 wächst auch die Möglichkeit für Internetnutzer, eigene Beiträge auf Webseiten mit unterschiedlichsten Kommunikationsgeräten (PC, Tablet PC, Mobiltelefon etc.) zu publizieren und über diese Beiträge miteinander in Austausch zu treten. Weblogs und YouTube (Schmidt, Kapitel 89 in diesem Band), Facebook (Schrape/Siri, Kapitel 92 in diesem Band) oder Online-Foren sind Beispiele für Internetplattformen, die kollektiv produzierte Informationen, einzelne Berichte und Kommentare oder Diskussionsbeiträge von Nutzern enthalten. Mit dem Ausbau von Instant-Messaging-Diensten über Mobiltelefone breitet sich zudem seit einiger Zeit rasch eine annähernd synchrone Chat-Kommunikation unter den Nutzern aus, vergleichbar mit gängigen Formen des „Plauderns“ oder „Schwatzens“ im Alltag.

Sang-Hui Nam
92. Facebook und andere soziale Medien

Social Media, im deutschen Sprachraum auch als „soziale Medien“ bezeichnet, sind digitale Medien, die der Bereitstellung und Unterstützung menschlicher Kommunikation auf algorithmisch vermittelten Social-Networking-Plattformen im Internet dienen. Gemeinsam haben diese Plattformen zunächst nur die Genese im Digitalen. Es erscheint aus sozialwissenschaftlicher Sicht daher nicht dienlich, von „dem Internet“ oder „den sozialen Medien“ insgesamt zu sprechen. Vielmehr bildet jedes soziale Medium durch seine Programmierung, seinen unternehmerischen Zweck und die damit verbundene Vorstellung des Zielpublikums spezifische Regeln und Formen der Kommunikation aus.

Jan-Felix Schrape, Jasmin Siri
93. YouTube und andere Webvideos

Webvideos sind digitale audiovisuelle Objekte, die über das Internet verbreitet werden. Sie haben meist seriellen Charakter, d. h. es handelt sich im Allgemeinen um kurze Sequenzen, die sich – anders als Filme (Akremi, Kapitel 112 in diesem Band) und andere audiovisuelle Werke (z.B. Werbung) – oft auf aktuelle öffentliche oder biographische Ereignisse oder Medienereignisse beziehen. Webvideos werden mit Videokameras oder anderen mobilen Aufzeichnungsgeräten mit Kamerafunktion (Mobiltelefone, Computerkameras, Tablets etc.) von Einzelpersonen, Gruppierungen oder institutionellen Akteuren aufgezeichnet und für einen definierten oder undefinierten Kreis von Personen zugänglich gemacht.

Boris Traue, Anja Schünzel
94. Digitale Selbstvermessung

Das „quantifizierte Selbst“ („quantified self “), oder mit begrifflich variierender Konnotation das „numerische Selbst“ („numerical self “), basiert vielfach auf bio-sensitiven Technologien aber auch anderweitig generierten Daten und ist Ausdruck einer Entwicklung, welche ein datenzentriertes Paradigma des Selbst- und Fremdverständnisses des Menschen anlegt (Nafus 2016). Varianten dieser Entwicklung sind.

Gertraud Koch
95. Digitale Spiele

Spätestens seit der flächendeckenden Verbreitung des Internets und internetfähiger mobiler Geräte (wie Smartphones und Tablets) sind in nahezu allen gesellschaftlichen Teilbereichen digitale Spiele anzutreffen, sei es als Freizeitbeschäftigung, als Lernspiele, als Planspiele innerhalb von Organisationen oder als Hilfsmittel bei der naturwissenschaftlichen Forschung. Tatsächlich weisen nur wenige andere Kulturphänomene einen solchen sozioökonomischen Erfolg im Sinne der Diffusion und Eingriffstiefe in die Lebenswelt des Alltags auf wie digitale Spiele. Dies zeigt sich hinsichtlich des globalen Absatzmarktes, der 2020 mit 177,8 Milliarden US-Dollar ungefähr den dreifachen Wert des weltweiten Kinoumsatzes ausmacht (Newzoo 2021).

Matthias Bottel, Heiko Kirschner

Weitere Datentypen

Frontmatter
96. Zeitverwendungsdaten

Die Analyse zeitlicher Strukturen ermöglicht Einblicke in das alltägliche Leben der Bevölkerung und verspricht menschliches Handeln zu verstehen. Da Zeitverwendungsdaten je nach Datenerhebungsmethode nicht nur die Dauer und den Zeitpunkt bestimmter Aktivitäten erfassen können, sondern auch den Situationskontext und Emotionen, die während einer Tätigkeit empfunden werden, versprechen diese Daten aufgrund der Dichte an Informationen Analysemöglichkeiten, die in den unterschiedlichsten Forschungsbereichen Anwendung finden können.

Miriam Trübner
97. Dyadische Daten

Während Individualdaten sich aus Informationen über einzelne Akteure zusammensetzen, versteht man unter dyadischen Daten Informationen, deren Einheit die Zweierbeziehung – die Dyade – ist. Einen dyadischen Zusammenhang erkennt man daran, dass soziale Phänomene nicht (alleinig) auf individuellen Handlungen basieren, sondern als Ergebnis zwischenmenschlicher Beziehung erschlossen werden können. So ist etwa die Partnerwahl keine einseitige, sondern das Ergebnis eines wechselseitigen Prozesses; auch Prozesse der partnerschaftlichen Arbeitssteilung im Haushalt basieren nicht auf Einheiten (Monaden), sondern Zweiheiten (Dyaden).

Andreas Schmitz
98. Qualitative Netzwerkdaten

Mit der Weiterentwicklung ihrer mathematischen Grundlagen hat sich die Netzwerkforschung in den 1970er Jahren als eigenes Paradigma zur Analyse von Sozialbeziehungen etabliert. Mittlerweile umfasst die soziale Netzwerkanalyse („Social Network Analysis“, SNA) ein umfangreiches Instrumentarium an vornehmlich standardisierten Datenerhebungsverfahren, diverse Maßzahlen zur Beschreibung von Netzwerkstrukturen, wie Dichte- und Zentralitätsmaße, und avancierte, in schneller Weiterentwicklung begriffene Verfahren zur Analyse von Netzwerkstrukturen (Baur, Kapitel 99 in diesem Band). Zentrales Kennzeichen ist ihr relationaler Zugang zu empirischen Phänomenen.

Betina Hollstein
99. Quantitative Netzwerkdaten

In der herkömmlichen Datenerhebung – etwa bei standardisierten Befragungen (Reinecke, Kapitel 62 in diesem Band) – erhebt man Daten über ein einziges Individuum, z.B. eine einzelne Person oder Organisation. So erheben etwa Lang und Neyer (2004) in einer Studie über Karrierewege in der Wissenschaft bei einer Stichprobe von 579 Psychologen Merkmale wie das Geschlecht, das Promotionsjahr und (als Indikator für die wissenschaftliche Produktivität) die Zahl der Publikationen, die in Einzel- bzw. als Ko-Autorenschaft verfasst wurden. Im Gegensatz zu diesen sogenannten absoluten Variablen erfassen sogenannte relationale Variablen die Beziehungen der Individuen zueinander.

Nina Baur
100. Paradaten

Bei allen Umfragen (Reinecke, Kapitel 62 in diesem Band) entstehen neben den eigentlichen Umfragedaten auch Daten durch den Erhebungsprozess. Dazu gehören z.B. bei computergestützten Erhebungen Zeitmarken bei der Eingabe von Antworten, mit der die Dauer für die Beantwortung einer Frage bestimmt werden kann, oder automatisch aufgenommene Maus-Bewegungen in einem Websurvey. In einem Vortrag auf dem Joint Statistical Meeting der Amerikanischen Statistischen Gesellschaft 1998 in Dallas prägte Mick Couper für diese Art von Daten den Begriff Paradaten (Couper 1998).

Barbara Felderer, Alexandra Birg, Frauke Kreuter
101. Metadaten

Die Digitalisierung der Wissenschaften (Thimm/Nehls/Peters, Kapitel 86 in diesem Band) hat es mit sich gebracht, dass im gesamten Forschungszyklus (Stein und Przyborski/Wohlrab-Sahr, Kapitel 8 und 7 in diesem Band) die Rolle von strukturierten Informationen, mit denen einzelne Elemente in diesem Zyklus beschrieben werden können, ständig zunimmt. Für diese Struktur entwickeln sich zunehmend Standards, auf denen (Web-)Dienste aufbauen, die in wissenschaftlichen Prozessen eine wichtige Rolle übernehmen können, in dem sie nicht nur Informationen liefern, sondern auch unmittelbar zur Steuerung der Prozesse beitragen.

Knut Wenzig
102. Aggregatdaten

Als Aggregatdatenanalysen bezeichnet man Studien, deren Daten aus aggregierten Einheiten bestehen, die dann mit Hilfe statistischer Verfahren ausgewertet werden. Aggregate, also die meistens nach mathematischen oder statistischen Regeln angefertigten Zusammenfassungen von Daten, beziehen sich beispielsweise auf Organisationen, Regionen oder Nationen. Entsprechend stehen bei Aggregatdatenanalysen Fragestellungen über Zusammenhänge und Wirkungen von Länder- oder Gesellschaftscharakteristika im Vordergrund.

Peter Graef
103. Organisationsdaten

In den Sozial- und Wirtschaftswissenschaften setzt sich mehr und mehr die Erkenntnis durch, dass die Ebene der einzelnen Organisation für das Verständnis einer Reihe von Forschungsgegenständen entscheidend ist. Neben der Makroebene (Staat und Gesellschaft) und der Mikroebene (Individuum) steht zunehmend die Organisation als Analyseeinheit zur Erklärung sozialer Phänomene im Fokus der Sozialwissenschaften (z.B. Coleman 1986, Jäger/Schimank 2005). Damit einhergehend hat die Nachfrage nach Organisationsdaten in den letzten Jahrzehnten stark zugenommen (Liebig et al. 2017).

Alexia Meyermann, Tobias Gebel, Stefan Liebig
104. Natürliche Daten: Dokumente

Unter Dokumenten sollen in diesem Kapitel natürliche Daten verstanden werden, die in schriftlicher Form als Texte vorliegen. Dokumente sind insofern natürliche Daten, als dass sie nicht zu Forschungszwecken und ohne die Beteiligung oder Intervention der Forschenden entstanden sind. Für die Sozialwissenschaft sind folgende Dokumententypen relevant.

Axel Salheiser
105. Literarische Quellen und persönliche Dokumente

Zumeist verwendet die Soziologie Interviews (Helfferich und Küsters, Kapitel 55 und 56 in diesem Band), Beobachtungen (Thierbach/Petschick, Kapitel 109 in diesem Band) oder Gruppendiskussionen (Vogl, Kapitel 58 in diesem Band), um zu untersuchen, wie Menschen bestimmte Lebensbedingungen oder Herausforderungen bewältigen. Die gesellschaftliche Wirklichkeit bietet aber noch eine weitere spezifische Quelle unmittelbarer Art an: literarische Quellen auf der einen und persönliche Dokumente auf der anderen Seite. Beide Materialsorten bieten einmalige Einblicke in die habituelle, emotionale und psychische Dimension von Lebenspraxis, die sich in kurz-, mittel- und langfristiger Perspektive ausdrückt.

Stefanie Ernst
106. Verwaltungsdaten und Daten der amtlichen Statistik

Ämter und Behörden erfüllen Aufgaben der öffentlichen Verwaltung und erbringen Dienstleitungen für die Bürger. Dabei entstehen Daten. Einerseits entstehen Verwaltungsdaten, weil Behörden diese auf individueller oder Firmenebene benötigen, um Entscheidungen über Rechte und Pflichten dieser Einheiten zu treffen. Diese Daten gelten als prozessproduziert. Sie werden nicht für Zwecke der Statistik erhoben, können aber trotzdem dafür genutzt werden.

Peter H. Hartmann, Andrea Lengerer
107. Analyse von Zeitungsartikeln und Online-Nachrichten

Eine häufig verwendete Quelle für die Analyse und Beantwortung sozialwissenschaftlicher Fragen sind Zeitungsartikel und Online-Nachrichten. Zeitungsartikel können Medieninhalte einer traditionellen gedruckten Zeitung sein oder in digitaler Form vorliegen, z.B. als Online-Artikel oder auch in Form einer pdf-Datei. Manche Artikel werden mehrfach verwertet und sowohl online als auch in einer Printausgabe publiziert. Mit Online-Nachrichten sind hier weitere journalistische Inhalte gemeint, die „nur“ im Internet verfügbar sind bzw. speziell für die Online-Umgebung konzipiert sind. Darunter fallen Inhalte von Nachrichtenportalen wie z.B. das Schweizer Angebot Watson.

Monika Taddicken
108. Quantitative Analyse von Zeitungsartikeln und Online-Nachrichten

Während Befragungen (Helfferich und Reinecke, Kapitel 55 und 62 in diesem Band) in den Sozialwissenschaften in jedem Methodenbuch umfangreich abgehandelt werden, gilt dies nicht für die Verfahren, mit denen Texte analysiert werden. In diesem Beitrag geht es darum, Artikel aus Online- und Printmedien (d. h. Zeitungen und Zeitschriften) als Datenmaterial für die quantitative Sozialforschung zu erschließen (zur qualitativen Analyse dieser Daten, Taddicken, Kapitel 107 in diesem Band).

Harald Klein
109. Beobachtung

Bei der Beobachtung handelt es sich um eine Datenerhebungsmethode, bei der Ereignisse, Verhaltensweisen oder Merkmale durch Forschende erfasst, dokumentiert und ausgewertet werden (Döring/Bortz 2016: 324). Im Gegensatz zu Alltagsbeobachtungen ist die wissenschaftliche Beobachtung nicht willkürlich. Sie wird vorab (bei Anwendung einer quantitativen Forschungslogik) oder im Verlauf des Forschungsprozesses (bei Anwendung einer qualitativen Forschungslogik) systematisch geplant und durchgeführt, ist an einer Forschungsfrage ausgerichtet und kann in unterschiedliche Forschungsdesigns eingebettet werden.

Cornelia Thierbach, Grit Petschick
110. Bilder

Die ältesten uns zugänglichen Dokumente menschlicher Zeichenkonstitution und Zeichenverwendung – die gravierten Hölzer, Steine und Knochen, die Skulpturen, Felszeichnungen und Höhlenmalereien des späten Paläolithikums – führen uns zumindest zwei anthropologische Momente menschlichen Daseins und Zusammenlebens vor Augen. Sie rufen in Erinnerung, dass der Mensch das „animal symbolicum“ (Ernst Cassirer) und das menschliche Zusammenleben in sozialer Ordnung unhintergehbar ein Leben in Symbolen ist, und sie machen aufmerksam auf den Menschen als „homo pictor“ (Hans Jonas), für dessen Interpretation und kommunikative Konstruktion von gesellschaftlicher Wirklichkeit Bilder unvermeidlich sind. Vornehmlich in jüdisch-christlicher Tradition geprägte Kulturen und Gesellschaften verhalten sich bildlichen Darstellungen gegenüber jedoch ambivalent.

Sebastian W. Hoggenmüller, Jürgen Raab
111. Videographie

Videoanalyse bezeichnet eine Reihe von methodischen Verfahren, bei denen audiovisuelle Daten für sozialwissenschaftliche Untersuchungen verwendet werden. Videographien basieren in der Regel auf Aufzeichnungen, die von den Forschenden selbst zum Zwecke wissenschaftlicher Analyse angefertigt werden. Technische und methodische Entwicklungen haben in jüngerer Zeit solchen Verfahren Aufschwung verliehen und mit der Verbreitung erschwinglicher digitaler Kameratechnik ist der Weg zu ihrer intensiveren Verwendung in der sozialwissenschaftlichen Forschung geebnet worden.

René Tuma, Bernt Schnettler
112. Filme

Wenn Sozialwissenschaftler sich entscheiden, Filme als Datenquelle zu benutzen, kann dies folgende Gründe haben.

Leila Akremi
113. Gebrauchsgegenstände und technische Artefakte

Gesellschaftliches Handeln produziert in großem Maße Zahlen, Buchstaben und Bilder. Aber es produziert auch Gebrauchsgegenstände, künstlerische und technische Artefakte. Unter letzteren werden im Folgenden alle Dinge, Gegenstände und Gerätschaften verstanden, die als Sachtechnik von Menschen produziert und genutzt werden, etwa Werkzeuge, Kleidung, Transport- oder Kommunikationsmittel, gemeinhin also die Gegenstände des täglichen Gebrauchs.

Cornelius Schubert
114. Architektur und Gebäude

Im Zuge eines allgemeinen Material Turn in den Sozial- und Kulturwissenschaften rückten in den letzten Jahren verstärkt Gebrauchsgegenstände und technische Artefakte (Schubert, Kapitel 113 in diesem Band), aber auch Gebäude und architektonische Ensembles ins Blickfeld der Soziologie. Allerdings stellt sich die Frage, wie diese als sozialwissenschaftliche Datenquellen erschlossen werden können, und was geeignete empirische Methoden sind, um der Eigenlogik dieser Datenquellen gerecht zu werden. Wir schlagen vor, Gebäude als materielle Objektivationen (Steets 2015: 164ff.) zu betrachten. Sie lassen sich dann in drei unterschiedlichen Dimensionen von Architektur und Gebäuden untersuchen.

Silke Steets, Thomas Schmidt-Lux
115. Qualitative Raum- und Quartiersbeobachtung

Der Unterschied zwischen quantitativen räumlichen Daten (Lakes, Kandt, Manderscheid, Graeff und Blasius/Barth, Kapitel 118, 119, 120, 102 und 116, alle in diesem Band) und den hier diskutierten qualitativen räumlichen Daten wird am besten dabei deutlich, wenn man „subjektive Karten“ (‚cognitive maps‘ in der Psychologie, ‚mental maps‘ in der Geographie) neben Stadtpläne legt. Stadtpläne geben Entfernungen und Richtungen eindeutig wieder und verorten öffentliche Gebäude und andere Einrichtungen an dem jeweils „richtigen“ Ort, während gedankliche Landkarten genau dieses nicht erfüllen, weil sie auf subjektiven Erinnerungen, selektiven Wahrnehmungen und Präferenzen beruhen.

Jens S. Dangschat, Raphaela Kogler
116. Quantitative Raum- und Quartiersbeobachtung

Während bei qualitativen Raum- und Quartiersbeobachtungen (Dangschat/Kogler, Kapitel 115 in diesem Band) meist der wahrgenommene und erlebte Raum im Zentrum der Betrachtung steht und überwiegend Raumwahrnehmungen einzelner Personen erfasst und analysiert werden, werden mit quantitativen räumlichen Daten Einstellungen zum sowie das Handeln und Verhalten vieler Personen im physischen Raum beschrieben. Relevant für den physischen Raum sind etwa Gebäude (Streets/Schmidt-Lux, Kapitel 114 in diesem Band), Verkehrswege, Einrichtungen (Geschäfte, Ärzte, …), Grünflächen und andere Gegebenheiten. Anwendungsbereiche der quantitativen Raum- und Quartiersbeobachtung sind zum einen Zustände und Veränderungen des physischen Raums selbst und zum anderen Nutzungen von physischen Räumen.

Jörg Blasius, Alice Barth
117. Karten und Mappings

Eine „Karte“ (bzw. „Map“) ist eine vereinfachte, orientierte und reduzierte, planare geometrische Darstellung der gesamten oder eines Teils der Erdoberfläche. In diesem Sinne ist sie eine Repräsentation konkreter oder abstrakter Phänomene, die im Raum verortet werden können. In der klassischen kartografischen Literatur werden zwei große Kartentypen unterschieden.

Séverine Marguin
118. Geodaten

Schätzungsweise 80% aller weltweiten qualitativen und quantitativen Daten weisen einen Raumbezug auf. Die zunehmende Verfügbarkeit von regionalisierten Datensätzen einerseits und von frei verfügbaren computergestützten Tools und GPS (Globale Positionierungssysteme)-gestützten Kommunikationsinstrumenten ermöglichen einen zunehmend einfacheren Zugang zu Geodaten und deren Verwendung. Im Kontext von Diskussionen um den Zensus (Hartmann/Lengerer, Kapitel 106 in diesem Band) und den Datenschutz (Mühlichen, Kapitel 23 in diesem Band) ist auch ein gesteigertes Interesse am Raumbezug in soziologischen Studien zu verzeichnen.

Tobia Lakes
119. Geotracking

Geotracking umfasst eine Gruppe von Methoden, welche mit sehr hoher Präzision die geographische Position von Subjekten zu genauen Zeitpunkten erfassen. Das Hauptinteresse dabei ist, soziale Phänomene in ihren räumlichen und zeitlichen Zusammenhängen zu untersuchen. Dieses Interesse kann unter anderem auf Hägerstrands (1970) Zeitgeographie-Ansatz zurückgeführt werden, wonach individuelle Erfahrungen anhand von biographischen „Raum-Zeit-Pfaden“ betrachtet werden können.

Jens Kandt
120. Mobile Methods

Die unter dem Begriff „Mobile Methods“ zusammengefassten Methoden der Mobilitätsforschung sind dem noch relativ jungen sozialwissenschaftlichen „Mobilitätsparadigma“ („Mobilities Paradigm“) zuzuordnen, das seit Mitte der 2000er Jahre von Sozialforschenden auch als „Mobilitätswende“ („Mobilities Turn“) verhandelt wird. Dieses auf verschiedenen sozialwissenschaftlichen Theoriesträngen fußende Paradigma geht von räumlicher Mobilität als gesellschaftlicher Normalität aus. Mobilität und Bewegung werden also, anders als in der traditionellen sozialwissenschaftlichen Sicht (vgl. Abschnitt 120.2), nicht als Abweichung vom Normalzustand oder sogar Bedrohung einer territorial begrenzten sesshaften (nationalen) Gesellschaft, sondern vielmehr als deren Basis und Voraussetzung gedacht (Sheller/Urry 2006).

Katharina Manderscheid
121. Text Mining

Der Begriff „Text Mining“ bezeichnet ein Bündel von computergestützten und algorithmus-basierten Auswertungsverfahren, mit denen Informationen aus großen digitalen Textbeständen gewonnen werden (Puchinger 2016: 119). Text Mining beinhaltet statistische, lexikalische und linguistische Methoden, mit denen Kerninformationen des Materials herausgearbeitet werden. Die Verfahren des Text Mining gewinnen in den letzten Jahren in der empirischen Sozialforschung zunehmend an Bedeutung, da immer mehr Texte – Bücher (Ernst, Kapitel 105 in diesem Band), Zeitschriften und Zeitungen (Klein, Taddicken, Kapitel 108 und 107 in diesem Band) sowie verschiedene Dokumente (Salheiser, Kapitel 104 in diesem Band), aber auch Websiten und Social Media-Beiträge (Schünzel/Traue, Schmidt, Nam, Schrape/Siri, Kapitel 88, 89, 91 und 92 in diesem Band) – in digitalisierter Form vorliegen.

Katharina Manderscheid
122. Data Mining und maschinelles Lernen

Die Analyse prozessgenerierter Daten (Salheiser und Thimm/Nehls/Peters, Kapitel 104 und 86, beide in diesem Band) und der dadurch erhoffte Einblick in die zugrundeliegenden Prozesse beflügelt die Fantasie der technischen Wissenschaften ebenso wie die der Sozialwissenschaften. Bevor „Data Science“ in aller Munde war, war es „Big Data“ (Trübner/Mühlichen, Kapitel 10 in diesem Band) und lange davor war die Rede vom „Data Mining“. All diesen Begriffen ist gemeinsam, dass sie prozessgenerierte Daten in den Vordergrund stellen und dass damit nicht die standardisierten Datensätze der Surveyforschung (Reinecke, Kapitel 62 in diesem Band) gemeint sind.

Jan R. Riebling
Metadaten
Titel
Handbuch Methoden der empirischen Sozialforschung
herausgegeben von
Nina Baur
Jörg Blasius
Copyright-Jahr
2022
Electronic ISBN
978-3-658-37985-8
Print ISBN
978-3-658-37984-1
DOI
https://doi.org/10.1007/978-3-658-37985-8