Skip to main content
main-content

Über dieses Buch

Das Handbuch ist das erste im deutschen Sprachraum, in dem qualitative und quantitative Methoden gleichberechtigt dargestellt werden und in dem systematisch nach Gemeinsamkeiten und Unterschieden hinsichtlich Problemen, Prinzipien, Vorgehensweisen, Standards und Gütekriterien für beide Forschungstraditionen gefragt wird. Um diese Fragen zu beantworten, diskutieren ausgewiesene Experten in 112 Beiträgen den aktuellen Stand der Forschung und bieten Forschenden, Lehrenden und Studierenden einen detaillierten Überblick über die verschiedenen Methoden der empirischen Sozialforschung. Die Schwerpunkte liegen dabei auf der Datenerhebung, also auf standardisierten und offenen Befragungen, sowie auf den digitalen Methoden. Des Weiteren werden auch zahlreiche andere aktuell verwendete Datentypen ausführlich vorgestellt.

Inhaltsverzeichnis

Frontmatter

Kapitel 1. Methoden der empirischen Sozialforschung – Ein Überblick

Die Sozialwissenschaften gelten als Wirklichkeitswissenschaften, d.h. theoretische Aussagen und Prognosen müssen der Überprüfung an der Empirie statthalten. Ohne die „Methoden der empirischen Sozialforschung“ kann nicht empirisch geforscht werden, da diese die Regeln festschreiben, nach denen Daten erhoben, mit Theorien verknüpft und anschließend ausgewertet werden. Nicht umsonst sind daher die „Methoden der empirischen Sozialforschung“ unverzichtbarer Bestandteil der Ausbildung in vermutlich jedem sozialwissenschaftlichen Studiengang, sei es die Soziologie, die Politikwissenschaft oder die Erziehungswissenschaft, und auch in anderen Studiengängen wie der Psychologie, der Anthropogeographie, der Ökonomie oder den Kommunikations- und Planungswissenschaften gehört die empirische Sozialforschung zum Standardrepertoire der Disziplin.

Nina Baur, Jörg Blasius

Grundlagen der empirischen Sozialforschung

Frontmatter

Kapitel 2. Empirische Sozialforschung und soziologische Theorie

Der (Wieder-)Aufstieg der europäischen Wissenschaft im 17./18. Jahrhundert verdankt sich ganz wesentlich dem Abstieg der christlichen Religion. Galt die Wissenschaft der Religion zu Beginn der christlichen Zeitrechnung nicht wirklich als ernstzunehmende Konkurrenz, so wandelte sich dieses Verhältnis in der Aufklärung grundlegend: Die Kultur- und auch die Naturwissenschaft lösten mit Einsetzen der Aufklärung die Religion(en) in Bezug auf die Bereitstellung von Weltdeutungen und Theorien Schritt für Schritt ab, und dies gleich in zweifachem Sinne: Einerseits „erledigten“ sie die Religion, indem sie den Glauben an einen Gott und dessen Botschaft als vermeidbaren Irrtum bzw. als selbstgewollte oder böswillige Täuschung entlarvten, andererseits beerbten sie die Religion. Dem Wissenschaftler oblag demnach die Pflicht, das Wahre, das Vernünftige zu suchen und von ihm in Theorien zu künden – wissenschaftliche Theorien sind mithin Ausdruck einer innerweltlichen Religion, welche die Welt ohne das Wirken Gottes erklärt, und der Wissenschaftler dient als Priester dieser Vernunft der Diesseitigkeit.

Jo Reichertz

Kapitel 3. Formen des Schließens und Erklärens

In der Forschungspraxis der empirischen Wissenschaften zählen die Formen des logischen Schließens und die methodologischen Strategien des Erklärens zum Standardinstrumentarium des wissenschaftlichen Arbeitens. Ihr Einsatz ermöglicht methodisch-kontrolliertes Folgern und hat direkte Auswirkungen auf die Validität und Reichweite der Forschungsresultate. Zudem hängen mit diesen Aspekten unmittelbar Fragen wie diejenigen der Wahl des Untersuchungsdesigns (Przyborski/Wohlrab-Sahr, Stein und Kelle, Kapitel 7, 8 und 10 in diesem Band) oder der Auswertungsmöglichkeiten zusammen.

Rainer Diaz-Bone

Kapitel 4. Forschungsethik

Ethische Probleme treten vor allem bei der Befragung, dem Experiment und der teilnehmenden Beobachtung auf. Grundsätzliche Regelungen für derartige Probleme enthalten die nationalen und Landes-Datenschutzgesetze und die Ethik-Codes wissenschaftlicher Standesorganisationen. Dennoch bleibt ein nicht unerheblicher Spielraum für die einzelnen Forscher/innen. Ich beschränke mich im Folgenden weitgehend auf die Befragung, weil diese Methode am häufigsten verwendet wird.

Jürgen Friedrichs

Kapitel 5. Informationelle Selbstbestimmung

Im Jahre 1983 begab es sich, dass in ganz (West-)Deutschland das Volk gezählt werden sollte – doch dazu sollte es erst vier Jahre später kommen: Anstatt sich brav zählen zu lassen, probten die Bürger den Aufstand und Boykottaufrufe durchzogen das Land. Die politisch sensible Stimmung der Zeit, Angst vor dem gläsernen Bürger, Sorge, die Uhr ticken zu hören bis zum drohenden, nahenden „1984“ eines orwellschen, dystopischen Überwachungsstaates, führte zu Klagen vor dem Bundesverfassungsgericht. Auch wenn die Volkszählung dann 1987 trotzdem durchgeführt wurde – immer noch unter Protest und Boykottaufrufen, aber wenigstens mit verändertem Fragebogen und besserem (und trotzdem unzureichendem) Schutz vor einer De-Anonymisierung –, so wurde sie doch 1983 erst einmal gestoppt und in Folge des politischen Debakels, als wohl wichtigstes Ergebnis der Affäre, das sogenannte „Volkszählungsurteil“ von höchstrichterlicher Stelle gefällt.

Andreas Mühlichen

Kapitel 6. Informationsquellen und Informationsaustausch

Bereits im Planungsstadium eines Forschungsvorhabens ist es wichtig, dass man den aktuellen Forschungsstand des untersuchten Gebiets kennt. Zum einen sollten bereits geklärte Fragestellungen nicht erneut aufgegriffen werden, andererseits muss, gerade in den Sozialwissenschaften, das bereits Erforschte oft in anderen zeitlichen und räumlichen Settings erneut abgesichert werden. Auch um Wissen zu produzieren, benötigt man selbst bereits Wissen, z.B. Theorien, Werkzeuge zur Auswertung von Daten und natürlich Informationen, Daten und Statistiken über soziale Phänomene.

H. Peter Ohly, Karsten Weber

Kapitel 7. Forschungsdesigns für die qualitative Sozialforschung

Bei der Verwendung qualitativer Methoden ist nicht immer klar, was die Durchführung qualitativer Forschung im Einzelnen bedeutet und welchen methodischen Grundlagen und Standards sie genügen muss. Das mag auch daran liegen, dass wir erst am Beginn einer systematischen Integration qualitativer Methoden in die Curricula human- und sozialwissenschaftlicher Studiengänge stehen, von der Besetzung entsprechender Professuren ganz abgesehen.

Aglaja Przyborski, Monika Wohlrab-Sahr

Kapitel 8. Forschungsdesigns für die quantitative Sozialforschung

Ein Forschungsvorhaben setzt sich aus einer Reihe von Entscheidungen zusammen. Dieser Vorgang wird als Forschungsprozess bezeichnet. Als Ergebnis der verschiedenen Entscheidungen entsteht ein spezifisches Forschungsdesign (auch Untersuchungsdesign oder Untersuchungsanordnung genannt). Dieses bildet die Grundlage einer sozialwissenschaftlichen Untersuchung.

Petra Stein

Kapitel 9. Big Data

Big Data ist zunächst einmal ein großes Versprechen, eine Gelddruckmaschine, Waffe im Krieg gegen den Terror und im Kampf gegen Verbrechen, Reformator von Verwaltungen, diagnostisches Wunderkind der Medizin, Stein der Weisen empirischer Wissenschaft und der kleine Helfer im Alltag einer ubiquitär vernetzten Welt. Big Data ist aber auch ein riesiger Hype, Allmachtsfantasie, gläserner Bürger, Kunde, Patient, Feind der Privatheit – und möglicherweise auch das drohende Ende konventioneller Umfrageforschung. Die positive Erwartungshaltung der empirischen Sozialforschung, in Echtzeit Daten über alles und jedes zu haben und endlich Antworten auch auf schwer erfassbare Fragen zu erhalten, ist dabei von der Angst begleitet, dass große Teile ihres etablierten Instrumentariums obsolet werden.

Miriam Trübner, Andreas Mühlichen

Kapitel 10. Mixed Methods

Unter „Mixed Methods“ wird üblicherweise die Kombination qualitativer und quantitativer Forschungsmethoden in einem Untersuchungsdesign verstanden. Es handelt sich um einen Begriff aus der anglo-amerikanischen Methodendebatte in den Sozial- und Erziehungswissenschaften, der seit dem Ende der 1990er-Jahre, konkret seit dem Erscheinen der Monographie „Mixed Methodology“ von Abbas Tashakkori und Charles Teddlie (1998) große Prominenz erlangt hat. Von den amerikanischen Erziehungswissenschaften ausgehend hat sich eine eigene Mixed Methods-Bewegung gebildet – mittlerweile existieren eine ganze Reihe von Lehrbüchern (etwa Creswell/Plano Clark 2007; Morse/Niehaus 2009; Kuckartz/Cresswell 2014), ein in zweiter Auflage erschienenes umfangreiches Handbuch (Tashakkori/Teddlie 2010), seit 2007 eine Zeitschrift mit Namen „Journal of Mixed Methods Research“ (JMMR) und eine internationale Fachgesellschaft unter dem Namen „Mixed Methods International Research Association“ (MMIRA).

Udo Kelle

Kapitel 11. Evaluationsforschung

Mit „Evaluationsforschung“, „wissenschaftlicher Evaluation“ oder kurz „Evaluation“ ist die Bewertung eines Gegenstandes mit Hilfe sozialwissenschaftlicher Methoden durch Evaluationsfachleute gemeint (Widmer/De Rocchi 2012: 11). Die Evaluationsforschung ist ein boomendes interdisziplinäres Forschungsfeld, in dem sowohl qualitative als auch quantitative Methoden der empirischen Sozialforschung zum Einsatz kommen (Döring/Bortz 2016). In zahlreichen Bereichen des öffentlichen Lebens werden Evaluationsmaßnahmen inzwischen rechtlich vorgeschrieben.

Nicola Döring

Kapitel 12. Marktforschung

Kommt man im Alltag mit empirischer Sozialforschung in Kontakt, so steckt im Normalfall ein Institut der Markt-, Meinungs- oder Sozialforschung hinter der jeweiligen Studie. Es gibt wohl niemanden, der nicht als aktiver Teilnehmer oder passiver Konsument von Studienergebnissen (etwa in Zeitungen) in irgendeiner Form mit dieser Art der praktischen empirischen Sozialforschung in Berührung gekommen ist.

Markus Ziegler

Kapitel 13. Experiment

Das Experiment ist keine besondere Form der Datenerhebung, sondern eine besondere Form der Anordnung und des Ablaufs einer empirischen Untersuchung. Das Ziel des Experiments besteht darin, Erkenntnisse über Ursache-Wirkungs-Beziehungen zu gewinnen und auf dieser Grundlage soziale Phänomene zu erklären. Die Besonderheit des Experiments besteht in der Anwendung des Prinzips der aktiven Erfahrung: Die zu untersuchenden Vorgänge werden vom Forscher mit Absicht hergestellt, damit bestimmte Phänomene eindeutig als Wirkungen bestimmter Ursachen betrachtet werden können. In diesem Zusammenhang kommt der Kontrolle von Faktoren, die über die zu untersuchenden Ursachen hinaus weitere kausale Einflüsse haben können, eine zentrale Bedeutung zu: Nur, wenn Einflüsse einer vermuteten Ursache nachgewiesen und zugleich andere Faktoren als potentielle Ursachen ausgeschlossen werden können, ist es möglich, Erklärungen für soziale Phänomene zuungunsten von Alternativerklärungen zu finden.

Stefanie Eifler, Heinz Leitgöb

Kapitel 14. Simulation

In der empirischen Sozialforschung befasst man sich mit gesellschaftlichen Phänomenen. Es geht darum, wie soziale Akteure durch ihren gesellschaftlichen Kontext beeinflusst werden und wie die Gesellschaft durch das interdependente, individuelle Handeln ihrer Mitglieder geformt wird. Einerseits wirken also gesellschaftliche Strukturen und Institutionen auf die Deutungen und Handlungsweisen der Gesellschaftsmitglieder, andererseits ergeben sich gesellschaftliche Tatbestände letztlich immer aus dem Zusammenspiel der Handlungen von Individuen. Ein einfaches Beispiel ist etwa eine Reform der Regulierung von Kinderbetreuungsmöglichkeiten, die sich auf das Fertilitätsverhalten der Gesellschaftsmitglieder auswirkt, was Folgen für die demographische Entwicklung der Gesellschaft hat und unter Umständen den Kreis durch weiteren Reformbedarf von Kinderbetreuungsmöglichkeiten schließt. Insgesamt erscheinen Gesellschaften somit als komplexe, dynamische Systeme, in denen die Merkmale und Akteure unterschiedlicher konzeptioneller Ebenen in Wechselbeziehung zueinanderstehen, was die Erklärung und Vorhersage gesellschaftlicher Prozesse und Entwicklungen vor große Herausforderungen stellt.

Ben Jann, Debra Hevenstone

Kapitel 15. Prognosen, Projektionen und Szenarien

Gesellschaft, Politik und Wirtschaft müssen für die Zukunftsplanung und -gestaltung versuchen, künftige Entwicklungen vorauszuschauen. Dabei erwarten sie insbesondere wissenschaftlich begründete, d.h. theoretisch, empirisch fundierte und nachvollziehbare Vorhersagen, denn erst diese ermöglichen den Diskurs über die Gegenwart, über mögliche Alternativen und somit auch eine Verständigung über zukünftige Planungen.

Robert Helmrich, Gerd Zika

Kapitel 16. Qualitative Daten für die Sekundäranalyse

Während die Sekundäranalyse auch Dank einer positiven Archiventwicklung zum Synonym für die erneute Nutzung statistischer (insbesondere Umfrage-)Daten (Mochmann, Kapitel 17 in diesem Band) geworden ist, zeigt sich nunmehr auch eine internationale und aktuell voranschreitende Entwicklung von Archiven, die interessierten Forschenden einen organisierten Zugang zu qualitativen Daten schaffen.

Irena Medjedović

Kapitel 17. Quantitative Daten für die Sekundäranalyse

Die Entwicklung der empirischen Sozialforschung ist untrennbar mit dem Fortschritt ihrer Datenbasis verbunden. Obwohl die ersten Untersuchungen bereits im 19. Jahrhundert durchgeführt wurden, waren über lange Zeit die Forschungsmöglichkeiten durch eine karge Datenlage geprägt. Dieses intensiv wahrgenommene Defizit wurde bald zum Motor der Bemühungen, die Datenlage systematisch zu verbessern. Dies gilt nicht nur für die Menge der verfügbaren Daten, sondern auch für ihre Qualität und Vergleichbarkeit. Der Zugang zu bereits vorliegenden Forschungsdaten erlaubte die Auswertung auch unter neuen Forschungsfragen (Sekundäranalyse) und erschloss neben weiteren Querschnittsanalysen zugleich eine Datenbasis mit Potential für die Analyse gesellschaftlichen Wandels.

Ekkehard Mochmann

Kapitel 18. Ergebnispräsentation in der qualitativen Forschung

Wissenschaftliche Erkenntnisse, die in der Sozialforschung gewonnen werden, können in Vorträgen, Berichten und wissenschaftlichen Texten auf sehr unterschiedliche Weise dargestellt werden. Dieser Aufsatz beschreibt und diskutiert verschiedene solcher Darstellungsformen und ihre theoretischen Begründungen in der qualitativen Forschung.

Christian Meyer, Christian Meier zu Verl

Kapitel 19. Ergebnispräsentation in der quantitativen Forschung

Wissenschaftler haben ein großes Interesse daran, ihre Forschungsergebnisse zu veröffentlichen. Sie tragen damit zum Erkenntnisfortschritt auf ihren jeweiligen Gebieten bei; zudem erhöht es ihr Ansehen. Gleichzeitig dient die Veröffentlichung auch dazu, kritisiert und korrigiert zu werden – also die Ergebnisse und deren Interpretation durch die Scientific Community kontrollieren zu lassen.

Jürgen Friedrichs

Kapitel 20. Rechtliche Grundlagen beim Publizieren

„Publish or perish!“ – Mit dieser berühmt berüchtigten Phrase, die wohl erstmals 1927 von dem Soziologen Clarence Marsh Case (1927: 325) schriftlich erwähnt wurde, sieht sich jeder Sozialwissenschaftler konfrontiert, der sich dafür entschieden hat, eine akademische Laufbahn einzuschlagen. Man kann diese Phrase treffend mit „Publiziere oder gehe unter!“ übersetzen und damit auf den enormen Publikationsdruck hinweisen, unter dem Wissenschaftler, zumindest zu Beginn ihrer wissenschaftlichen Karriere, stehen. Neben der eigentlichen Forschung als Haupttätigkeit eines Wissenschaftlers, sei sie primär empirisch oder theoretisch begründet, stellt die wissenschaftliche Publikation eine der wichtigsten Plattformen für einen Wissenschaftler dar, um Forschungsergebnisse öffentlich und damit der Diskussion und Kritik zugänglich zu machen. Wissenschaftliche Publikationen tragen deshalb innerhalb des Wissenschaftssystems mit ihren vielfältigen Disziplinen nicht nur primär zum „wissenschaftlichen Fortschritt“ bei, sondern auch in sozialer Hinsicht zur akademischen Karriere und ihrer damit verbundenen sozialen Reputation.

Volker Dreier

Stichproben, Datenaufbereitung und Güte

Frontmatter

Kapitel 21. Stichprobenziehung in der qualitativen Sozialforschung

Empirische Sozialforschung bedeutet, dass zur Gewinnung von Erkenntnissen über den jeweiligen Forschungsgegenstand immer Erfahrungen gesammelt werden müssen, die in Form von Datenmaterial nach wissenschaftlichen Gesichtspunkten ausgewertet und verallgemeinert werden können. Diese Daten werden aus einer unendlichen Fülle von möglichen Daten mehr oder weniger gezielt gewonnen. Das Thema „Stichprobenziehung“ oder „Sampling“ begleitet dabei den gesamten, in der qualitativen Forschung zumeist zyklisch verlaufenden, Forschungsprozess von der Forschungsfrage bis hin zur Präsentation von Forschungsergebnissen.

Leila Akremi

Kapitel 22. Stichprobenziehung in der quantitativen Sozialforschung

Eine wichtige Entscheidung im Rahmen der Designentwicklung bei einer quantitativen Erhebung betrifft die Frage, ob nur ein Teil der Elemente untersucht werden soll oder ob alle Elemente der Grundgesamtheit einzubeziehen sind. Bei der Grundgesamtheit handelt es sich um all jene Elemente, die aufgrund von bestimmten Eigenschaften für den Forscher von Interesse sind. So kann beispielsweise bei einer Wahlstudie die Grundgesamtheit bestimmt werden als die Menge an Personen, die in einem Land zu einem bestimmten Stichtag wahlberechtigt sind.

Michael Häder, Sabine Häder

Kapitel 23. Pretest

Es ist in der empirischen Sozialforschung und insbesondere der Umfrageforschung Common Sense, vor der eigentlichen Datenerhebung Pretests durchzuführen. Deren Ziel ist es, die Datenerhebung ex ante, d.h. vor ihrem eigentlichen Beginn zu optimieren. Dabei versteht man Pretests nicht als punktuelle Verfahren oder einmalig durchzuführende Methode (typischerweise kurz bevor ein Fragebogen ins Feld geht), sondern als eine Menge von Verfahren zur Qualitätssicherung des Erhebungsinstruments, ja des gesamten Erhebungsdesigns, die im Zuge der Fragebogenerstellung und Erhebungsplanung Anwendung finden.

Martin Weichbold

Kapitel 24. Einstellungen zu Befragungen

Die Identifizierung von Einstellungen (Latcheva/Davidov, Kapitel 62 in diesem Band) zu bestimmten Inhalten oder Produkten steht im Fokus von Befragungen (Reinecke und Helfferich, Kapitel 49 und 44 in diesem Band). Doch hinter diesem vordergründigen Ziel einer Befragung steht immer auch die Einstellung zu Befragungen an sich. Der Einfluss dieser Einstellung auf die Datenqualität (Krebs/Menold, Engel/Schmidt und Faulbaum, Kapitel 34, 27 und 35 in diesem Band) wird dabei oft unterschätzt.

Anja Hlawatsch, Tino Krickl

Kapitel 25. Interviewereffekte

Interviewer nehmen eine zentrale, aber oft unterschätze Rolle in der Umfrageforschung ein (Reinecke, Kapitel 49 in diesem Band). Blickt man jedoch genauer hin, dann übernehmen sie eine Reihe sehr wichtiger Aufgaben bei persönlichen (Stocké, Kapitel 51 in diesem Band) und telefonischen Umfragen (Hüfken, Kapitel 52 in diesem Band), die nachhaltige Auswirkungen auf die Qualität der erhobenen Umfragedaten haben können: Interviewer stellen meistens den ersten Kontakt mit den Befragten her und überzeugen sie, an der Umfrage teilzunehmen (Engel/Schmidt, Kapitel 27 in diesem Band). Während des Interviews administrieren sie oftmals komplexe Fragebögen, klären gegebenenfalls die Bedeutung von Fragen und zeichnen die Antworten der Befragten auf.

Alexander Jedinger, Tobias Michael

Kapitel 26. Fälschungen von Interviews

Es gibt viele Einführungen in die empirische Sozialforschung und eine Vielzahl von sozialwissenschaftlichen Fachzeitschriften mit Hunderten von Artikeln, in denen die Bedeutung von Interviewern in Face-to-Face-Situationen beschrieben wird (Hlawatsch/Krickl, Jedinger/Michael und Stocké, Kapitel 24, 25 und 51 in diesem Band), aber es gibt nur relativ wenige Studien, in denen das Problem von gefälschten Interviews diskutiert wird. Nach Empfehlung der American Association of Public Opinion Research (AAPOR 2003: 7) sollten 5 bis 15 Prozent der Interviews von den Markt- und Meinungsforschungsinstituten (Ziegler, Kapitel 12 in diesem Band) kontrolliert werden, um die Qualität der erhobenen Daten zu sichern und um zu gewährleisten, dass die Daten nicht gefälscht sind. Diese Art der Kontrolle scheint auch die Praxis zu sein, zumindest, wenn man den Angaben der Datenerhebungsinstitute folgt.

Jörg Blasius

Kapitel 27. Unit- und Item-Nonresponse

Wenn Stichproben nach dem Zufallsprinzip (Häder/Häder, Kapitel 22 in diesem Band) generiert werden, kommt es regelmäßig vor, dass in die Stichprobe gezogene Personen von vornherein nicht teilnehmen, den Fragebogen nur teilweise beantworten oder aus unterschiedlichen Gründen nicht erreicht werden können (Engel et al. 2004: 43). Von Unit-Nonresponse (Totalausfall, Komplettausfall) ist dabei die Rede, wenn in die Stichprobe gezogene Personen die Teilnahme an einer Befragung verweigern oder aus Gründen der Nichterreichbarkeit oder z.B. bedingt durch Sprach- oder Verständigungsprobleme keine gültigen Aussagen vorliegen (Engel/Schmidt 2015: 256).

Uwe Engel, Björn Oliver Schmidt

Kapitel 28. Gewichtung

Ziel einer Analyse quantitativer Daten ist die Verallgemeinerung der Stichprobenergebnisse auf die interessierende Grundgesamtheit (Häder/Häder, Kapitel 22 in diesem Band). Tatsächlich unterscheiden sich Stichproben in bestimmter Hinsicht aber fast immer von der Grundgesamtheit; sei es durch ein geplantes „Oversampling“ einer bestimmten Teilpopulation (die Genauigkeit einer Schätzung wird im Wesentlichen von der Fallzahl in der Stichprobe bestimmt, weshalb seltene Teilpopulationen, für die valide Schätzungen möglich sein sollen, mit einem größeren Auswahlsatz in die Erhebung aufgenommen werden) oder durch selektiven Nonresponse (Engel/Schmidt, Kapitel 27 in diesem Band). Viele Befragungen weisen etwa einen so genannten „Mittelschichtsbias“ auf; Personen mit mittlerem bis gehobenem Bildungsniveau (gemessen durch den höchsten Schulabschluss) zeigen sich am öftesten bereit, an Umfragen teilzunehmen, sie sind in den Erhebungsdaten daher überrepräsentiert.

Hans Kiesl

Kapitel 29. Paradaten

Bei allen Umfragen (Reinecke, Kapitel 49 in diesem Band) entstehen neben den eigentlichen Umfragedaten auch Daten durch den Erhebungsprozess. Dazu gehören z.B. bei computergestützten Erhebungen Zeitmarken bei der Eingabe von Antworten, mit der die Dauer für die Beantwortung einer Frage bestimmt werden kann, oder automatisch aufgenommene Maus-Bewegungen in einem Websurvey. In einem Vortrag auf dem Joint Statistical Meeting der Amerikanischen Statistischen Gesellschaft 1998 in Dallas prägte Mick Couper für diese Art von Daten den Begriff Paradaten (Couper 1998).

Barbara Felderer, Alexandra Birg, Frauke Kreuter

Kapitel 30. Data Fusion, Record Linkage und Data Mining

Besteht Interesse an der Analyse der gemeinsamen Verteilung mehrerer Variablen, z.B. bezüglich deren Assoziation oder Interaktionseffekten, werden üblicherweise alle Merkmale bei jedem Element einer Stichprobe (Häder/Häder, Kapitel 22 in diesem Band) erhoben. Prinzipiell lassen sich solche multivariaten Verteilungen (Blasius/Baur, Kapitel 103 in diesem Band) untersuchen, wenn die Ausprägungen für sämtliche Variablen bei allen Untersuchungseinheiten vollständig vorliegen. Begrenzte Ressourcen schränken jedoch in der Forschungspraxis oft sowohl die Stichprobenumfänge, als auch die Anzahl der Variablen in Umfragen ein.

Julia Cielebak, Susanne Rässler

Kapitel 31. Datenaufbereitung und Datenbereinigung in der qualitativen Sozialforschung

Charakteristisch für qualitative Daten ist ihre große Vielfalt, die von Antworten auf offene Fragen in Bevölkerungsumfragen (Züll/Menold, Kapitel 59 in diesem Band) über transkribierte narrative Interviews (Küstrers, Kapitel 45 in diesem Band) und Gruppendiskussionen (Vogl, Kapitel 46 in diesem Band) bis hin zu visuellen Daten wie Fotos (Bohnsack, Kapitel 85 in diesem Band), Videos (Tuma/Schnettler, Kapitel 86 in diesem Band) und Social-Media-Daten reicht. Dabei spielen qualitative Daten nicht nur im Rahmen qualitativer Forschung eine Rolle, auch in der quantitativ orientierten Forschung, etwa im Bereich der Surveyforschung (Stein, Reinecke, Kapitel 8 und 49 in diesem Band) sind qualitative Daten sehr häufig anzutreffen. Dies gilt erst recht für Mixed-Methods-Ansätze (Kelle, Kapitel 10 in diesem Band), die in unterschiedlicher Art und Weise qualitative und quantitative Daten miteinander kombinieren und integrieren (Baur et al. 2017).

Udo Kuckartz, Stefan Rädiker

Kapitel 32. Datenaufbereitung und Datenbereinigung in der quantitativen Sozialforschung

Eine erfolgreiche Analyse von Daten setzt neben einer intelligenten und gewissenhaften Datenerhebung auch die sorgfältige und gründliche Bereinigung und Aufbereitung der Daten voraus. Dieser Schritt mag trivial erscheinen. Doch er ist technisch durchaus anspruchsvoll und hält Fehlerquellen bereit. Er sollte in seiner Bedeutung und in seinem Arbeitsaufwand schon deswegen nicht unterschätzt werden, weil Fehler und Nachlässigkeiten in der Datenaufbereitung und Datenbereinigung dazu führen können, dass alle Befunde verfälscht werden, die je mit den entsprechenden Daten generiert werden.

Detlev Lück, Uta Landrock

Kapitel 33. Gütekriterien qualitativer Sozialforschung

Die Frage, wie sich die Qualität qualitativer Sozialforschung bestimmen lässt, ist seit der Wiederentdeckung der qualitativen Forschung in den 1960er-Jahren virulent. In diesem Beitrag kann die relativ diversifizierte Diskussion um die Qualität(-skriterien) qualitativer Forschung nur in Auszügen wiedergegeben werden. Das liegt auch daran, dass es – anders als in der quantitativen Forschung (Krebs/Menold, Kapitel 34 in diesem Band) – keine einheitliche Diskussion über einen allgemein akzeptierten Kriteriensatz gibt.

Uwe Flick

Kapitel 34. Gütekriterien quantitativer Sozialforschung

Für alle Schritte der Datenerhebung und -auswertung in der quantitativen Sozialforschung (Stein, Kapitel 8 in diesem Band) gibt es Gütekriterien, die es zu beachten gilt, damit die Daten möglichst fehlerfrei erhoben und die erzielten Resultate angemessen interpretiert werden können. Dabei wird zwischen Gütekriterien für Messinstrumente (deren Zuverlässigkeit und Gültigkeit) und Gütekriterien für das gesamte Forschungsdesign (die Generalisierbarkeit und Eindeutigkeit der Ergebnisse) unterschieden. Qualitätskriterien empirischer (Sozial-)Forschung sind dem Prinzip der Wertfreiheit verpflichtet.

Dagmar Krebs, Natalja Menold

Kapitel 35. Total Survey Error

Von zentraler Bedeutung für die Durchführung von Umfragen (Reinecke, Kapitel 49 in diesem Band) ist die Umfragequalität (z.B. Biemer/Lyberg 2003) und deren Sicherung. Die Qualität von Umfragen steht auch im Mittelpunkt des Konzepts des totalen Umfragefehlers (Total Survey Error, TSE). Thematisiert werden in diesem Konzept die Fehlerquellen, die während der Vorbereitung und Durchführung der Datenerhebung die Umfragedaten und ihre Interpretation verzerren können.

Frank Faulbaum

Forschungsparadigmen in der qualitativen Sozialforschung

Frontmatter

Kapitel 36. Grounded Theory und Theoretical Sampling

Der Forschungsstil der Grounded Theory (im Folgenden: GT) wurde in den 1960er Jahren von Barney Glaser und Anselm Strauss entwickelt und 1967 in „The Discovery of Grounded Theory“ (1998 [1967]) erstmals publiziert. Veröffentlicht in einer Zeit des intellektuellen und politischen Aufbruchs und gezielt an die junge Generation revoltierender, nach neuen Wegen suchender Sozialforscher adressiert, wurde das Buch zu einem Klassiker der empirischen Sozialforschung. Obwohl es bis heute gerne als Lehrbuch für die Methode der Grounded Theory verstanden und genutzt, wird, handelt es sich tatsächlich eher um ein Skizzenbuch, in dem zentrale Verfahren der GT grob umrissen und in ihrer Funktion bestimmt, nicht aber systematisch und in sich konsistent dargelegt werden.

Jörg Strübing

Kapitel 37. Sozialwissenschaftliche Hermeneutik und hermeneutische Wissenssoziologie

Sozialwissenschaftliche Hermeneutik (heute auch häufig Hermeneutische Wissenssoziologie genannt) bezeichnet eine von Hans-Georg Soeffner und seiner Arbeitsgruppe in den 1980er Jahren entwickelte Methodologie und ein Set methodischer Verfahrensweisen zur Interpretation textförmiger Daten (Soeffner 1989). Mittlerweile wurden ihre Grundsätze auch auf die Interpretation von Bild- und Videodaten übertragen (Raab 2008, Kurt 2002, 2008, Herbrik 2011, Tuma/Schnettler, Kapitel 86 in diesem Band).

Ronald Kurt, Regine Herbrik

Kapitel 38. Diskursanalyse

Der Begriff „Diskurs“ bezeichnet in seiner allgemeinsten Bedeutung die Produktion sozialen Sinns, verstanden als die Darstellung, Vermittlung und Konstitution von bedeutungstragenden Objektivationen in kommunikativen Prozessen.

Boris Traue, Lisa Pfahl, Lena Schürmann

Kapitel 39. Biographieforschung

Der Begriff „Biographie“ (Griechisch: „Leben“ & „schreiben“) bezieht sich nicht nur auf Geschriebenes, sondern ebenso auf in Gesprächen mitgeteilte biographische Selbst- oder Fremdbeschreibungen. Biographische Beschreibungen werden sowohl in informellen Zusammenhängen, als auch in unterschiedlichen formal organisierten oder durch Institutionen regulierten Kontexten mündlich geäußert oder schriftlich verfasst.

Gabriele Rosenthal

Kapitel 40. Ethnographie

Ethnographie bezeichnet ein sozialwissenschaftliches Forschungsprogramm, bei dem mehr oder weniger unbekannte ethnische, kulturelle oder soziale Gruppen, Gemeinschaften, Institutionen oder andere soziale Einheiten und deren Handlungsweisen, Wissensformen und materiale Kulturen untersucht werden. Im Mittelpunkt steht dabei die teilnehmende Beobachtung (Thierbach/Petschick und Dangschat/Kogler, Kapitel 84 und 98 in diesem Band), doch umfasst die Ethnographie darüber hinaus auch andere qualitative und gelegentlich sogar quantitative Methoden der Datenerhebung, die zu sehr unterschiedlichen Datensorten führen und deswegen jeweils eigene Formen der Auswertung erfordern. Neben verschiedenen Formen der Beobachtung zählen dazu das Interview (Helfferich und Küsters, Kapitel 44 und 45 in diesem Band), die Dokumentenanalyse (Salheiser und Ernst, Kapitel 80 und 81 in diesem Band), audiovisuelle Aufzeichnungen (Tuma/Schnettler und Akremi, Kapitel 86 und 87 in diesem Band), Fotografien (Bohnsack, Kapitel 85 in diesem Band) und Artefakte (Schubert, Kapitel 88 in diesem Band).

Hubert Knoblauch, Theresa Vollmer

Kapitel 41. Einzelfallanalyse

Unter einem Fall kann Vielfältiges verstanden werden. Neben klassischen Gegenständen der Sozialforschung, wie Einzelpersonen, Personengruppen, Organisationen/Netzwerken, ganze Gesellschaften bzw. Kulturen oder anderen Formen sozialer Zusammenhänge, können Einzelfallanalysen auch soziale Prozesse, Episoden, einzelne Situationen oder Ähnliches betreffen (Baur/Lamnek 2005). Zudem gibt es eine Vielzahl von Anwendungsgebieten und sozialwissenschaftlichen Disziplinen, die mit Fallstudien arbeiten, z.B. im Bereich der Evaluations-, Stadt-, Biographie- oder auch Organisationsforschung.

Linda Hering, Robert Jungmann

Kapitel 42. Qualitative Inhaltsanalyse

Qualitative Inhaltsanalyse stellt eine Auswertungsmethode dar, die Texte bearbeitet, welche im Rahmen sozialwissenschaftlicher Forschungsprojekte in der Datenerhebung anfallen, z.B. Transkripte von offenen Interviews (Helfferich, Kapitel 44 in diesem Band) oder Fokusgruppen (Vogl, Kapitel 46 in diesem Band), offene Fragen aus standardisierten Befragungen (Züll/Menold, Kapitel 59 in diesem Band), Beobachtungsprotokolle aus Feldstudien (Thierbach/Petschick, Kapitel 84 in diesem Band), Dokumente (Ernst, Kapitel 81 in diesem Band), Akten (Salheiser, Kapitel 80 in diesem Band), Zeitungsartikel (Klein, Kapitel 82 in diesem Band) und Internetmaterialien.

Philipp Mayring, Thomas Fenzl

Kapitel 43. Qualitative Comparative Analysis

Die „Qualitative Comparative Analysis“ (QCA) ist ein analytischer Ansatz, mit dem untersucht werden kann, wie soziale Ereignisse oder Phänomene zu Stande kommen bzw. wie sie sich verändern. Mit diesem von Charles Ragin (1987, 2008) entwickelten Ansatz kann insbesondere analysiert werden, wie bestimmte Faktoren als notwendige und hinreichende Bedingungen zusammenwirken, um zu einem Ereignis oder Phänomen zu führen. QCA erlaubt dabei, detaillierte Fallanalysen mit formalisierten, systematischen Fallvergleichen zu verbinden.

Nicolas Legewie

Offene Befragung

Frontmatter

Kapitel 44. Leitfaden- und Experteninterviews

Qualitative, leitfadengestützte Interviews sind eine verbreitete, ausdifferenzierte und methodologisch vergleichsweise gut ausgearbeitete Methode, qualitative Daten zu erzeugen. Leitfadeninterviews gestalten die Führung im Interview über einen vorbereiteten Leitfaden, Experteninterviews sind definiert über die spezielle Auswahl und den Status der Befragten.

Cornelia Helfferich

Kapitel 45. Narratives Interview

Das narrative Interview ist eine Interviewform, in der ein Befragter auf eine Eingangsfrage bzw. Erzählaufforderung ohne Unterbrechungen, ohne Vorgaben und in großer Ausführlichkeit antworten kann. Es dient der Erhebung von Handlungsprozessen, also Ereignisverkettungen (Mika/Stegmann, Pötter/Prein, Kapitel 110 und 111 in diesem Band), an denen der Befragte selbst beteiligt war.

Ivonne Küsters

Kapitel 46. Gruppendiskussion

Gruppendiskussionen (auch: Fokusgruppen, „focus groups“) sind geplante Diskussionen, um Einstellungen zu einem bestimmten, durch das Forschungsinteresse definierten Bereich in einer offenen, freundlichen Atmosphäre zu erheben. Dazu werden in einer Gruppe Kommunikationsprozesse initiiert, die einem alltäglichen Gespräch ähneln. Dabei geht es nicht (nur) um einen Austausch von Argumenten, sondern es wird auch erzählt, erinnert oder gegenseitig ergänzt.

Susanne Vogl

Kapitel 47. DELPHI-Befragung

Im Jahr 1998 wurden verschiedene Experten danach gefragt, wie sie sich die Zukunft der Festnetztelefonie im Jahr 2005 vorstellen. Den Hintergrund für diese Studie bildete die Vermutung, dass sich immer mehr Personen dazu entschließen würden, ihren Festnetztelefonanschluss abzumelden und nur noch über den Mobilfunk zu telefonieren. Dies brächte aber weitreichende Folgen für die empirische Sozialforschung, die sich häufig telefonischer Befragungen bedient, mit sich.

Michael Häder, Sabine Häder

Kapitel 48. Journalistisches Interview

Das journalistische Interview ist wie das wissenschaftliche durch eine asymmetrische Kommunikation gekennzeichnet: Der Interviewer fragt, der/die Befragte antwortet. Der wesentliche Unterschied zwischen diesen beiden Interviewformen besteht darin, dass das journalistische Interview für Dritte – die Empfänger – geführt, manchmal geradezu inszeniert wird. Leser/innen, Hörer/innen oder Zuschauer/innen sollen über einen Sachverhalt oder die Meinung, Einschätzung, Bewertung der oder des Befragten informiert werden. Hingegen wird das wissenschaftliche Interview für die fragenden Forscher geführt.

Jürgen Friedrichs, Ulrich Schwinges

Standardisierte Befragung

Frontmatter

Kapitel 49. Grundlagen der standardisierten Befragung

Die Befragung kann als ein klassisches Instrument der Datenerhebung für die empirisch orientierten Disziplinen der Sozial- und Wirtschaftswissenschaften bezeichnet werden. Insbesondere durch den Einsatz von Befragungen in der Markt- und Meinungsforschung (Ziegler, Kapitel 12 in diesem Band) hat ihre Bedeutung stark zugenommen. Auch wenn sich die Befragungsformen in den letzten 40 Jahren weiterentwickelt und diversifiziert haben, ist die von Scheuch (1973: 70) aufgestellte Definition der Befragung als Interview auch heute noch zutreffend: „Unter Interview als Forschungsinstrument sei hier verstanden ein planmäßiges Vorgehen mit wissenschaftlicher Zielsetzung, bei dem die Versuchsperson durch eine Reihe gezielter Fragen oder mitgeteilter Stimuli zu verbalen Informationen veranlasst werden soll.“

Jost Reinecke

Kapitel 50. Mode-Effekte

Unter Mode-Effekten werden zufällige und/oder systematische Verzerrungen in den Antworten von Befragten verstanden, die auf die Form der Administration der Befragung zurückzuführen sind. Mit „Administration“ ist die Art und Weise der Präsentation der Fragen und die Aufzeichnung der Antworten der Befragten gemeint. Beispielsweise werden in Face-to-Face-Interviews (Stocké, Kapitel 51 in diesem Band) die Fragen in der Regel von Interviewern in einer mündlichen Situation vorgelesen.

Marek Fuchs

Kapitel 51. Persönlich-mündliche Befragung

In der Bundesrepublik wurden 2017 28% aller standardisierten Befragungen (ADM 2018) in den Sozialwissenschaften und der Marktforschung mithilfe eines persönlich-mündlichen Befragungsmodus durchgeführt. Obwohl die Verwendung dieser Befragungsart in den vergangenen Jahren rückläufig ist, stellt sie somit immer noch eine der wichtigsten Arten der Erfassung von Befragungsdaten dar (Reinecke, Kapitel 49 in diesem Band). Der vorliegende Beitrag beschreibt die Besonderheiten dieses Datenerhebungsmodus und diskutiert die hieraus erwachsenden Vor- und Nachteile hinsichtlich der resultierenden Datenqualität, d.h. er befasst sich konkret mit den Befragungsmodi PAPI („Paper and Pencil Interviewing“, auch: interviewer-administrierte Befragung) und CAPI („Computer-Assisted Personal-Interviewing“, auch: computergestützte Interviewer-Administration), die nachfolgend auch als „face-to-face“ (FTF)-Befragungen bezeichnet werden (für eine ausführliche Darstellung der FTF-Methode: Biemer/Lyberg 2003: 149ff., Groves et al. 2004: 134ff., Lyberg/Kasprzyk 1991, Schnell 2012: 187ff., Tourangeau et al. 2000: 289ff.).

Volker Stocké

Kapitel 52. Telefonische Befragung

Telefonumfragen werden bereits seit mehr als 90 Jahren angewendet. Damals wie heute kommt den Medien in diesem Zusammenhang eine besondere Bedeutung zu. Der Wettbewerb, insbesondere um eine zeitnahe Berichterstattung gesellschaftlicher oder politischer Ereignisse, begünstigt dabei den Einsatz der Telefonumfrage. So wurden in Chicago bereits in den 1920er-Jahren die ersten Wahlumfragen mittels Telefon durchgeführt (Chicago Tribune 1923, zitiert nach Frankovic 2012). Ende der 1920er-Jahre, mit der Verbreitung der Radionutzung, gewinnt auch das Bedürfnis nach gezielteren Angaben über die Hörgewohnheiten in der Bevölkerung an Bedeutung.

Volker Hüfken

Kapitel 53. Schriftlich-postalische Befragung

Die schriftlich-postalische Befragung ist eine Variante der standardisierten Befragung (Reinecke, Kapitel 49 in diesem Band), bei der sowohl bei der Kontaktaufnahme als auch bei der Rückgabe eine postalische Zustellung gewählt wird. In manchen Fällen schriftlicher Befragung beschränkt sich der postalische Teil auf die Rücksendung, und der Erstkontakt erfolgt in anderer Weise – z.B. über eine Verteilung des Fragebogens statt Zusendung. In diesen Fällen ist es hilfreich, sich ebenfalls an den grundlegenden Prinzipien postalischer Befragungen zu orientieren.

Karl-Heinz Reuband

Kapitel 54. Online-Befragung

Online-Befragungen platzieren ihre Fragebögen auf dem Server eines Forschungsinstituts oder eines Providers, wo sie von den Befragungsteilnehmern online ausgefüllt werden. Von anderen Befragungsmodi der standardisierten Befragung (Reinecke, Kapitel 49 in diesem Band) unterscheiden sich Online-Befragungen also durch das von ihnen genutzte Medium: das Internet.

Pia Wagner-Schelewsky, Linda Hering

Kapitel 55. Mobile Befragungen

Mobile Befragungen (auch: „Web Surveys for Mobile Devices“) sind ein Spezialfall von webbasierten Befragungen bzw. Online-Befragungen (Wagner-Schelewsky/Hering, Kapitel 54 in diesem Band). Die Besonderheit besteht darin, dass die Teilnahme an einer derartigen Befragung durch mit dem Internet verbundene Mobilgeräte („Mobile Devices“) wie etwa Tablets und Smartphones erfolgt, also Computern, die sich neben ihrer Portabilität vor allem durch ihren vergleichsweise großen und berührungssensitiven Bildschirm auszeichnen, eher selten ist eine extra Tastatur vorhanden.

Bernd Weiß, Henning Silber, Bella Struminskaya, Gabriele Durrant

Kapitel 56. Gesamtgestaltung des Fragebogens

Der Fragebogen ist ein Messinstrument – ebenso wie eine Waage oder ein Mikroskop. Hätten wir unterschiedlich austarierte Waagen, so würden Gegenstände gleichen Gewichts dennoch zu unterschiedlichen Anzeigen des Gewichts führen. Hätten sie zudem verschiedene Gewichte, so könnten wir zunächst nicht entscheiden, welchen „Anteil“ an dem gemessenen Gewicht auf die unterschiedliche Tarierung der Waagen und welcher auf die unterschiedlichen Gewichte der Gegenstände zurückzuführen ist. Der Fragebogen sollte demnach z.B. so konstruiert sein, dass er Interviewereffekte (Jedinger/Michael, Kapitel 25 in diesem Band) minimiert und durch die Frageformulierung (Porst, Kapitel 57 in diesem Band) auch unterschiedliche semantische Interpretationen der Fragen durch die Befragten ausschließt. Das gilt für alle Formen der Befragung: face-to-face, postalisch, telefonisch oder online, ungeachtet dessen, ob der Fragebogen schriftlich oder elektronisch vorliegt.

Jennifer Fietz, Jürgen Friedrichs

Kapitel 57. Frageformulierung

Ungeachtet dieser selbst formulierten Einschränkung legt Stanley L. Payne mit seinem 1951 erschienenen Buch „The Art of Asking Questions“ erstmals eine systematische Darstellung und Diskussion von Regeln vor, die bei der Formulierung von Fragebogen- Fragen hilfreich und deshalb zu berücksichtigen wären. Waren bis zu diesem Zeitpunkt ausschließlich einzelne Kapitel in Büchern (Rugg/Cantril 1944) oder Beiträge in Fachzeitschriften (Rugg 1941, Hubbard 1950) erschienen, wird hier zum ersten Mal ein komplettes „Frageformulierungs-Buch“ vorgelegt. Alle späteren Versuche, Regeln für die Formulierung von Fragebogenfragen zusammenzustellen, gehen explizit oder implizit auf Payne (1951) zurück, die meisten davon wieder „nur“ als Einzelbeiträge in Handbüchern, in Büchern zu „Methoden der empirischen Sozialforschung“ oder sonstigen methodischen Abhandlungen (Converse/Presser 1986, Porst 2000, Groves et al. 2004, Diekmann 2007, Porst 2014, Häder 2015, Hollenberg 2016).

Rolf Porst

Kapitel 58. Antwortskalen in standardisierten Befragungen

Jeder, der eine standardisierte Befragung plant, muss sich früher oder später überlegen, welche Fragen gestellt werden sollen, wie die Fragen formuliert sein sollen und wie die Antwortkategorien zu gestalten sind. Die Antworten auf diese drei Fragen sind nicht unabhängig, sondern hängen eng miteinander zusammen. In der Regel ist es sinnvoll in der genannten Reihenfolge vorzugehen, also sich erst mit den Inhalten und der Formulierung von Fragen zu beschäftigen und danach die Konstruktion der Antwortskalen vorzunehmen.

Axel Franzen

Kapitel 59. Offene Fragen

Lange Zeit standen offene Fragen in standardisierten Interviews eher im Hintergrund, da die Erhebung und insbesondere die Analyse als sehr aufwändig im Vergleich zum Zugewinn an Information galten. Mit dem Aufkommen von Online-Umfragen wird die Erhebung von offenen Fragen aber deutlich erleichtert, denn diese können hier kostengünstiger erhoben werden und stehen unmittelbar danach für die Auswertung zur Verfügung.

Cornelia Züll, Natalja Menold

Kapitel 60. Vignetten

Beim faktoriellen Survey (Vignettenanalyse) handelt es sich um ein experimentelles Design (Eifler/Leitgöb, Kapitel 13 in diesem Band), bei dem der Forscher variierende Situationsoder Personenbeschreibungen, die sogenannten Vignetten, zu einem Thema erstellt und unter einem bestimmten Gesichtspunkt beurteilen lässt. Die vom Forscher festgelegten Situations- oder Personenbeschreibungen, wie etwa das Geschlecht, die Hautfarbe, die Deutschkenntnisse, die Konfession und die Erwerbstätigkeit einer fiktiven Person bilden die unabhängigen Variablen (X-Variablen, experimentelle Einwirkungen) für das zu erklärende Urteilsverhalten (Y-Variable, Messung), also etwa dafür, wie sehr ein Befragter der jeweils beschriebenen Vignettenperson vertrauen würde. Beurteilt jeder Befragte mehr Vignetten als es X-Variablen für die Vignetten gibt, dann lässt sich für jeden einzelnen Befragten die Wichtigkeit, die er oder sie den entsprechenden Vignettenmerkmalen bei der Beurteilung der Vignetten beimisst, mit Hilfe der Regressionsanalyse schätzen.

Hermann Dülmer

Kapitel 61. Nationale soziodemographische Standards und international harmonisierte soziodemographische Hintergrundvariablen

Soziodemographische Variablen stellen Hintergrundmerkmale der Bevölkerung dar, über die die Population einer Stichprobe oder einer Zielgruppe eines Forschungsprojektes beschrieben werden kann. Die soziodemographischen Merkmale unterteilen sich einerseits in demographische Merkmale wie Kohortenzugehörigkeit, Geschlecht, ethnische Zugehörigkeit und Familien- und Verwandtschaftsordnungen bzw. Haushaltszusammensetzung, und andererseits in soziale Ungleichheit beschreibende sozioökonomische Merkmale wie Bildung, Ausbildung, Erwerbsstatus, berufliche Tätigkeit und Einkommen.

Jürgen H.P. Hoffmeyer-Zlotnik, Uwe Warner

Kapitel 62. Skalen und Indizes

In der sozialwissenschaftlichen Literatur existiert keine einheitliche Definition, was unter Index oder Indexbildung subsumiert werden kann und ob und wie sich Indexbildung von Skalierungsverfahren abgrenzt. Diese fehlende definitorische Eindeutigkeit entspringt nicht zuletzt der Frage, ob Indizes auch als Instrumente zur Messung sozialwissenschaftlicher Konzepte bezeichnet werden dürfen (Diekmann 2009: 230ff.).

Rossalina Latcheva, Eldad Davidov

Kapitel 63. Interkulturell vergleichende Umfragen

Die interkulturell vergleichende Umfrageforschung hat in den Sozialwissenschaften in den letzten Jahrzehnten stark an Bedeutung gewonnen. Dies betrifft zum einen die Verfügbarkeit von international vergleichbaren Umfragedaten und die auf ihnen basierenden substanzwissenschaftlichen Untersuchungen, zum anderen die Beschäftigung mit methodologischen Fragestellungen. Für interkulturelle Umfragen sind nicht nur die Probleme, die für alle Umfragen allgemein gelten, zu berücksichtigen.

Michael Braun

Kapitel 64. Mitarbeiterbefragungen

Eine Mitarbeiterbefragung (MAB) fragt Mitarbeiter (aus allen oder ausgewählten Ebenen bzw. Bereichen einer Organisation) nach ihren Meinungen und Einstellungen zu arbeitsbezogenen Themen mit der Absicht, mit der Befragung selbst, ihren Messwerten und ihrer Aufarbeitung das Erreichen der Ziele der Organisation zu fördern. Man kann einige gängige MAB-Typen unterscheiden, auch wenn diese in der Praxis meist als Mix realisiert werden.

Ingwer Borg

Kapitel 65. Befragungen von Kindern und Jugendlichen

In der Geschichte der empirischen Sozial- und Marktforschung hat sich hinsichtlich der Befragung von Kindern und Jugendlichen ein Einstellungswandel vollzogen: Wurden Heranwachsende zunächst für den relativ komplexen Frage-Antwort-Prozess als unzureichend kompetent eingeschätzt, gelten sie spätestens seit Mitte der 1980er-Jahre als ernstzunehmende Interviewpartner (France 2004: 177). Die Gründe für diese Einstellungsänderung sind vielfältig. Zum einen haben sich Heranwachsende zu einer wichtigen Zielgruppe in der Markt- und Medienforschung entwickelt, was sicherlich zu einer Verbreitung von Befragungen im Kindersegment beigetragen hat (Lipski 2000: 77).

Julia Nachtsheim, Susanne König

Kapitel 66. Befragungen von älteren und alten Menschen

Der demografische Wandel ist eine der großen aktuellen gesellschaftlichen Herausforderungen. Niedrige Fertilität, zunehmende Migration und die Verlängerung der Lebensspanne verändern die Gesellschaft. Die Lebenserwartung hat im 20. Jahrhundert stetig um zwei bis drei Jahre pro Jahrzehnt zugenommen und steigt weiter.

Andreas Motel-Klingebiel, Daniela Klaus, Julia Simonson

Kapitel 67. Befragung von Migranten

Über Befragungen der Allgemeinbevölkerung hinaus sind repräsentative Umfragen von Bevölkerungsminderheiten für viele Fragestellungen zentral. So leben in Deutschland viele Arbeitsmigranten, insbesondere aus der Türkei, Italien und anderen südeuropäischen Ländern, mittlerweile auch in der zweiten und dritten Generation – und durch Familiennachzug oder Bildungsmigration immigrieren auch stetig Neuzuwanderer aus diesen Ländern. Nach dem Fall der Mauer 1989 und mit Aufhebung der EU-Binnengrenzen kamen zunehmend Migranten aus anderen Ländern nach Deutschland, zunächst hauptsächlich aus den ehemaligen GUS-Staaten und zunehmend auch aus den Staaten des Nahen und Mittleren Ostens.

Yasemin El-Menouar

Kapitel 68. Befragung von speziellen Populationen

Spezielle Populationen sind Gruppen, die gemeinsame, teilweise auch seltene Eigenschaften, bzw. Interessen teilen oder sich in einer gemeinsamen Situation befinden. Das können alleinerziehende Väter genauso sein wie Homosexuelle, Drogenabhängige oder Demonstrationsteilnehmer.

Miriam Trübner, Tobias Schmies

Digitale Methoden

Frontmatter

Kapitel 69. Digitale Methoden im Überblick

Wie nur wenige technische Errungenschaften hat die Digitalisierung soziale, politische, wirtschaftliche und kulturelle Kommunikations- und Handlungsformen verändert. Sichtbar wird dies nicht nur an den Schlagworten wie, „Web2.0“ oder „Industrie 4.0“, sondern besonders an der großen Menge an digitalen Plattformen, die sich in den letzten zehn Jahren herausgebildet haben. Computer, Handys, Tausende von Apps und neue digitale Endgeräte wie Alexa, Cortana oder die iWatch strukturieren nicht mehr nur unseren beruflichen, sondern unseren gesamten sozialen, persönlichen und intimen Alltag.

Caja Thimm, Patrick Nehls

Kapitel 70. Web Server Logs und Logfiles

Mit Logfiles werden automatisch erstellte digitale Dateien (Thimm/Nehls, Kapitel 69 in diesem Band) bezeichnet, in denen bestimmte Ereignisse elektronisch aufgezeichnet werden. Im sogenannten Web Usage Mining (Srivastava et al. 2000) sind vor allem Web Server Logs von Interesse und werden daher oft synonym zum Begriff „Logfiles“ verwendet. Diese dokumentieren die Zugriffe auf Webseiten, um darauf basierend Webseitenstatistiken erstellen und auswerten zu können.

Andreas Schmitz, Olga Yanenko

Kapitel 71. Websites

Als „Website“ wird ein zusammenhängendes, in der Regel ästhetisch vereinheitlichtes Ensemble von Webseiten verstanden, dessen Daten auf einem Server bzw. Host-Rechner physisch lokalisiert sind.

Anja Schünzel, Boris Traue

Kapitel 72. Blogs

„Weblogs“ (in Kurzform auch: „Blogs“), sind regelmäßig aktualisierte Webseiten, die bestimmte Inhalte (zumeist Texte beliebiger Länge, aber auch Bilder oder andere multimediale Inhalte) in umgekehrt chronologischer Reihenfolge darstellen. Die Beiträge sind einzeln über URLs adressierbar und bieten in der Regel die Möglichkeit, Kommentare zu hinterlassen. Durch Querverweise in Beiträgen und Kommentaren (Nam, Kapitel 74 in diesem Band) sowie durch empfehlende Links auf andere Blogs – die „Blogroll“ – sind die meisten Blogs Teil eines Geflechts von Webseiten (Schünzel/Traue, Kapitel 71 in diesem Band). Die Gesamtheit aller Blogs wird auch als „Blogosphäre“ bezeichnet.

Jan-Hinrik Schmidt

Kapitel 73. Quantitative Analyse von Twitter und anderer usergenerierter Kommunikation

Die Nutzung von sozialen Medien („Social Media“) ist ein wichtiger Bestandteil der alltäglichen Kommunikation von Millionen von Menschen sowie ihrerseits zu tagespolitischen Ereignissen geworden. Letzteres war und ist nicht zuletzt an der Reichweite und dem Echo auf die täglichen Tweets des US-amerikanischen Präsidenten Donald Trump zu erkennen. Unter Schlagworten wie „Web 2.0“ und „Social Media“ firmiert ein potentieller Datenpool für die empirische Sozialforschung geradezu immensen Ausmaßes.

Jochen Mayerl, Thorsten Faas

Kapitel 74. Qualitative Analyse von Chats und anderer usergenerierter Kommunikation

Mit der fortschreitenden Verbreitung des Web 2.0 wächst auch die Möglichkeit für Internetnutzer, eigene Beiträge auf Webseiten mit unterschiedlichsten Kommunikationsgeräten (PC, Tablet PC, Mobiltelefon etc.) zu publizieren und über diese Beiträge miteinander in Austausch zu treten. Weblogs und YouTube (Schmidt, Kapitel 72 in diesem Band), Facebook (Schrape/Siri, Kapitel 75 in diesem Band) oder Online-Foren sind Beispiele für Internetplattformen, die kollektiv produzierte Informationen, einzelne Berichte und Kommentare oder Diskussionsbeiträge von Nutzern enthalten. Mit dem Ausbau von Instant-Messaging- Diensten über Mobiltelefone breitet sich zudem seit einiger Zeit rasch eine annähernd synchrone Chat-Kommunikation unter den Nutzern aus, vergleichbar mit gängigen Formen des „Plauderns“ oder „Schwatzens“ im Alltag.

Sang-Hui Nam

Kapitel 75. Facebook und andere soziale Medien

Social Media, im deutschen Sprachraum auch als „soziale Medien“ bezeichnet, sind digitale Medien, die der Bereitstellung und Unterstützung menschlicher Kommunikation auf algorithmisch vermittelten Social-Networking-Plattformen im Internet dienen. Gemeinsam haben diese Plattformen zunächst nur die Genese im Digitalen. Es erscheint aus sozialwissenschaftlicher Sicht daher nicht dienlich, von „dem Internet“ oder „den sozialen Medien“ insgesamt zu sprechen. Vielmehr bildet jedes soziale Medium durch seine Programmierung, seinen unternehmerischen Zweck und die damit verbundene Vorstellung des Zielpublikums spezifische Regeln und Formen der Kommunikation aus.

Jan-Felix Schrape, Jasmin Siri

Kapitel 76. YouTube und andere Webvideos

Webvideos sind digitale audiovisuelle Objekte, die über das Internet verbreitet werden. Sie haben meist seriellen Charakter, d.h. es handelt sich im Allgemeinen um relativ kurze Sequenzen (im Extremfall wenige Sekunden, meist zwischen zwei und zehn Minuten), die sich – anders als Filme (Akremi, Kapitel 87 in diesem Band) und andere audiovisuelle Werke (z.B. Werbung) – oft auf aktuelle öffentliche oder biographische Ereignisse oder andere Medienerzeugnisse beziehen. Webvideos werden mit Videokameras oder anderen mobilen Aufzeichnungsgeräten mit Kamerafunktion (Mobiltelefone, Computerkameras, Tablets etc.) von Einzelpersonen, Gruppierungen oder institutionellen Akteuren aufgezeichnet und für einen definierten oder undefinierten Kreis von Personen zugänglich gemacht. („hochladen“; engl. upload)

Boris Traue, Anja Schünzel

Kapitel 77. Digitale Selbstvermessung

Das „quantifizierte Selbst“ („quantified self “), oder mit begrifflich variierender Konnotation das „numerische Selbst“ („numerical self ”), basiert vielfach auf bio-sensitiven Technologien aber auch anderweitig generierten Daten und ist Ausdruck einer Entwicklung, welche ein datenzentriertes Paradigma des Selbst- und Fremdverständnisses des Menschen anlegt (Nafus 2016). Varianten dieser Entwicklung sind

Gertraud Koch

Kapitel 78. Digitale Spiele

Spätestens seit der flächendeckenden Verbreitung des Internets und internetfähiger mobiler Geräte (wie Smartphones und Tablets) sind in nahezu allen gesellschaftlichen Teilbereichen digitale Spiele anzutreffen, sei es als Freizeitbeschäftigung, als Lernspiele, als Planspiele innerhalb von Organisationen oder als Hilfsmittel bei der naturwissenschaftlichen Forschung. Tatsächlich weisen nur wenige andere Kulturphänomene einen solchen sozioökonomischen Erfolg im Sinne der Diffusion und Eingriffstiefe in die Lebenswelt des Alltags auf wie digitale Spiele. Dies zeigt sich hinsichtlich des globalen Absatzmarktes, der 2016 mit 101,1 Milliarden US-Dollar ungefähr den dreifachen Wert des weltweiten Kinoumsatzes ausmacht (McDonald 2017).

Matthias Bottel, Heiko Kirschner

Kapitel 79. Text Mining

Der Begriff „Text Mining“ bezeichnet ein Bündel von computergestützten und algorithmus-basierten Auswertungsverfahren, mit denen Informationen aus un- oder schwachstrukturierten Textdatenbeständen gewonnen werden (Puchinger 2016: 119). Die Verfahren des Text Mining gewinnen in den letzten Jahren in der empirischen Sozialforschung an Bedeutung, da immer mehr Texte – Bücher (Ernst, Kapitel 81 in diesem Band), Zeitschriften und Zeitungen (Klein, Taddicken, Kapitel 82 und 83 in diesem Band) sowie verschiedene Dokumente (Salheiser, Kapitel 80 in diesem Band), aber auch Social Media-Beiträge (Schünzel/Traue, Schmidt, Nam, Schrape/Siri, Kapitel 71, 72, 74 und 75 in diesem Band) – in digitalisierter Form vorliegen. Während die frühen Anwendungen von Text Mining meist auf die Auszählung von Wortvorkommen beschränkt waren, werden in neueren Arbeiten häufig verschiedene Werkzeuge eingesetzt, die auf die Herausarbeitung von Argumentationsstrukturen und Sinnzusammenhänge zielen; des Weiteren werden zunehmend komplexere Auswertungsstrategien entwickelt (Puchinger 2016: 129f.).

Katharina Manderscheid

Weitere Datentypen

Frontmatter

Kapitel 80. Natürliche Daten: Dokumente

Unter Dokumenten sollen in diesem Kapitel natürliche Daten verstanden werden, die in schriftlicher Form als Texte vorliegen. Dokumente sind insofern natürliche Daten, als dass sie nicht zu Forschungszwecken und ohne die Beteiligung oder Intervention der Forschenden entstanden sind.

Axel Salheiser

Kapitel 81. Literarische Quellen und persönliche Dokumente

Zumeist verwendet die Soziologie Interviews (Helfferich und Küsters, Kapitel 44 und 45 in diesem Band), Beobachtungen (Thierbach/Petschick, Kapitel 84 in diesem Band) oder Gruppendiskussionen (Vogl, Kapitel 46 in diesem Band), um zu untersuchen, wie Menschen bestimmte Lebensbedingungen oder Herausforderungen bewältigen. Die gesellschaftliche Wirklichkeit bietet aber noch eine weitere spezifische Quelle unmittelbarer Art an: literarische Quellen auf der einen und persönliche Dokumente auf der anderen Seite. Beide Materialsorten bieten einmalige Einblicke in die habituelle, emotionale und psychische Dimension von Lebenspraxis, die sich in kurz-, mittel- und langfristiger Perspektive ausdrückt.

Stefanie Ernst

Kapitel 82. Quantitative Analyse von Zeitungsartikeln und Online-Nachrichten

Während die Befragungen (Helfferich und Reinecke, Kapitel 44 und 49 in diesem Band) in den Sozialwissenschaften in jedem Methodenbuch umfangreich abgehandelt werden, gilt dies nicht für die Verfahren, die Texte analysieren. In diesem Beitrag geht es darum, Artikel aus Online- und Printmedien (d.h. Zeitungen und Zeitschriften) als Datenmaterial für die quantitative Sozialforschung zu erschließen (zur qualitativen Analyse dieser Daten siehe Taddicken, Kapitel 83 in diesem Band).

Harald Klein

Kapitel 83. Analyse von Zeitungsartikeln und Online-Nachrichten

Eine vielversprechende Quelle für die Beantwortung und Analyse sozialwissenschaftlicher Fragen sind Zeitungsartikel und Online-Nachrichten. Zeitungsartikel können Medieninhalte einer traditionellen gedruckten Zeitung sein, aber auch in digitaler Form vorliegen. Mit Online-Nachrichten sind hier journalistische Inhalte gemeint, die den Artikeln der Printzeitungen vergleichbar, aber „nur“ im Internet verfügbar sind. Manche Artikel werden auch mehrfach verwertet und sowohl online als auch in einer Printausgabe publiziert. Diese können sowohl dem einen als auch dem anderen zugerechnet werden, werden hier jedoch unter Zeitungsartikel subsumiert.

Monika Taddicken

Kapitel 84. Beobachtung

Bei der Beobachtung handelt es sich um eine Datenerhebungsmethode, bei der Ereignisse, Verhaltensweisen oder Merkmale durch Forschende erfasst, dokumentiert und ausgewertet werden (Döring/Bortz 2016: 324). Im Gegensatz zu Alltagsbeobachtungen ist die wissenschaftliche Beobachtung nicht willkürlich. Sie wird vorab (bei Anwendung einer quantitativen Forschungslogik) oder im Verlauf des Forschungsprozesses (bei Anwendung einer qualitativen Forschungslogik) systematisch geplant und durchgeführt, ist an einer Forschungsfrage ausgerichtet und kann in unterschiedliche Forschungsdesigns eingebettet werden.

Cornelia Thierbach, Grit Petschick

Kapitel 85. Unbewegte Bilder: Fotografien und Kunstgegenstände

Die sozialwissenschaftlich-empirische Bildanalyse ist eine Domäne qualitativer Sozialforschung (Przyborski/Wohlrab-Sahr, Kapitel 7 in diesem Band). Letztere sieht sich allerdings vor das Problem gestellt, dass die wesentlichen Fortschritte qualitativer Methoden seit Ende der 1970er Jahre zunächst eng mit der Entwicklung der Verfahren der Textinterpretation verbunden waren, welche wiederum im Zusammenhang mit dem sogenannten linguistic turn (verbunden mit Namen wie Richard Rorty, Paul Ricoeur und Jürgen Habermas), also der sprachwissenschaftlichen Wende in den Geistes- und Sozialwissenschaften, zu sehen ist. Dies hat in den qualitativen Methoden zu enormen Fortschritten der Interpretationsverfahren geführt.

Ralf Bohnsack

Kapitel 86. Videographie

Videoanalyse bezeichnet eine Reihe von methodischen Verfahren, bei denen audiovisuelle Daten für sozialwissenschaftliche Untersuchungen verwendet werden. Videographien basieren in der Regel auf Aufzeichnungen, die von den Forschenden selbst zum Zwecke wissenschaftlicher Analyse angefertigt werden. Technische und methodische Entwicklungen haben in jüngerer Zeit solchen Verfahren Aufschwung verliehen und mit der Verbreitung erschwinglicher digitaler Kameratechnik ist der Weg zu ihrer intensiveren Verwendung in der sozialwissenschaftlichen Forschung geebnet worden.

René Tuma, Bernt Schnettler

Kapitel 87. Filme

Prinzipiell muss bei der Verwendung von Filmen (und anderen Massenmedien) zwischen der (1) Produktion, (2) dem Produkt, (3) der Distribution und (4) der Konsumption bzw. Rezeption unterschieden werden. Alle vier Ebenen dieses Prozesses können einzeln oder verbunden von Interesse sein. Wirtschafts- oder organisationssoziologische Fragestellungen fokussieren dabei eher auf Produktion und Distribution, z.B. auf die nationale und internationale Verflechtung der Filmindustrie (Thiermeyer 1994) oder auf die projektförmige Arbeitsorganisation bei der Produktion von Fernsehsendungen (Windeler et al. 2001).

Leila Akremi

Kapitel 88. Gebrauchsgegenstände und technische Artefakte

Gesellschaftliches Handeln produziert in großem Maße Zahlen, Buchstaben und auch Bilder. Aber es produziert auch Gebrauchsgegenstände, künstlerische und technische Artefakte. Unter letzteren werden im Folgenden alle Dinge, Gegenstände und Gerätschaften verstanden, die als Sachtechnik von Menschen produziert und genutzt werden, etwa Werkzeuge, Kleidung, Transport- oder Kommunikationsmittel, gemeinhin also die Gegenstände des täglichen Gebrauchs.

Cornelius Schubert

Kapitel 89. Verwaltungsdaten und Daten der amtlichen Statistik

Ämter und Behörden erfüllen Aufgaben der öffentlichen Verwaltung und erbringen Dienstleitungen für die Bürger. Dabei entstehen Daten. Einerseits entstehen Verwaltungsdaten, weil Behörden diese auf individueller oder Firmenebene benötigen, um Entscheidungen über Rechte und Pflichten dieser Einheiten zu treffen. Diese Daten gelten als prozessproduziert. Sie werden nicht für Zwecke der Statistik erhoben, können aber trotzdem dafür genutzt werden.

Peter H. Hartmann, Andrea Lengerer

Kapitel 90. Zeitverwendungsdaten

Die Analyse zeitlicher Strukturen ermöglicht Einblicke in das alltägliche Leben der Bevölkerung und verspricht menschliches Handeln zu verstehen. Da Zeitverwendungsdaten je nach Datenerhebungsmethode nicht nur die Dauer und den Zeitpunkt bestimmter Aktivitäten erfassen können, sondern auch den Situationskontext und Emotionen, die während einer Tätigkeit empfunden werden, versprechen diese Daten aufgrund der Dichte an Informationen Analysemöglichkeiten, die in den unterschiedlichsten Forschungsbereichen Anwendung finden können.

Miriam Trübner

Kapitel 91. Aggregatdaten

Als Aggregatdatenanalysen bezeichnet man Studien, deren Daten aus aggregierten Einheiten bestehen, die dann mit Hilfe statistischer Verfahren ausgewertet werden. Aggregate, also die meistens nach mathematischen oder statistischen Regeln angefertigten Zusammenfassungen von Daten, beziehen sich beispielsweise auf Organisationen, Regionen oder Nationen. Entsprechend stehen bei Aggregatdatenanalysen Fragestellungen über Zusammenhänge und Wirkungen von Länder- oder Gesellschaftscharakteristika im Vordergrund.

Peter Graeff

Kapitel 92. Metadaten

Die Digitalisierung der Wissenschaften (Thimm/Nehls, Kapitel 69 in diesem Band) hat es mit sich gebracht, dass im gesamten Forschungszyklus (Stein und Przyborski/Wolrab-Sahr, Kapitel 7 und 8 in diesem Band) die Rolle von strukturierten Informationen, mit denen einzelne Elemente in diesem Zyklus beschrieben werden können, ständig zunimmt. Für diese Struktur entwickeln sich zunehmend Standards, auf denen (Web-)Dienste aufbauen, die in wissenschaftlichen Prozessen eine wichtige Rolle übernehmen können, in dem sie nicht nur Informationen liefern, sondern auch unmittelbar zur Steuerung der Prozesse beitragen.

Knut Wenzig

Kapitel 93. Paneldaten für die Sozialforschung

Unter Paneldaten versteht man im Bereich der empirischen Sozialforschung Daten auf Basis einer Untersuchungsanlage, bei der gleichzeitig drei Merkmale erfüllt sind. Es werden bei denselben Untersuchungseinheiten dieselben oder zumindest die gleichen Inhalte erhoben und die Daten werden mehrfach, also mindestens zweimal ermittelt.

Jürgen Schupp

Kapitel 94. Quantitative Netzwerkdaten

In der herkömmlichen Datenerhebung – etwa bei standardisierten Befragungen (Reinecke, Kapitel 49 in diesem Band) – erhebt man Daten über ein einziges Individuum, z.B. eine einzelne Person oder Organisation. So erheben etwa Lang und Neyer (2004) in einer Studie über Karrierewege in der Wissenschaft bei einer Stichprobe von 579 Psychologen Merkmale wie das Geschlecht, das Promotionsjahr und (als Indikator für die wissenschaftliche Produktivität) die Zahl der Publikationen, die in Einzel- bzw. als Ko-Autorenschaft verfasst wurden.

Nina Baur

Kapitel 95. Qualitative Netzwerkdaten

Mit der Weiterentwicklung ihrer mathematischen Grundlagen hat sich die Netzwerkforschung in den 1970er Jahren als eigenes Paradigma zur Analyse von Sozialbeziehungen etabliert. Mittlerweile umfasst die soziale Netzwerkanalyse („Social Network Analysis“, SNA) ein umfangreiches Instrumentarium an vornehmlich standardisierten Datenerhebungsverfahren, diverse Maßzahlen zur Beschreibung von Netzwerkstrukturen, wie Dichte- und Zentralitätsmaße, und avancierte, in schneller Weiterentwicklung begriffene Verfahren zur Analyse von Netzwerkstrukturen (Baur, Kapitel 94 in diesem Band). Zentrales Kennzeichen ist ihr relationaler Zugang zu empirischen Phänomenen.

Betina Hollstein

Kapitel 96. Dyadische Daten

Während Individualdaten sich aus Informationen über einzelne Akteure zusammensetzen, versteht man unter dyadischen Daten Informationen, deren Einheit die Zweierbeziehung – die Dyade – ist. Einen dyadischen Zusammenhang erkennt man daran, dass soziale Phänomene nicht (alleinig) auf individuellen Handlungen basieren, sondern als Ergebnis zwischenmenschlicher Beziehung erschlossen werden können. So ist etwa die Partnerwahl keine einseitige, sondern das Ergebnis eines wechselseitigen Prozesses; auch Prozesse der partnerschaftlichen Arbeitssteilung im Haushalt basieren nicht auf Einheiten (Monaden), sondern Zweiheiten (Dyaden). Diese Sicht ist nicht auf familiensoziologische Anwendungen beschränkt: Auch zahlreiche andere soziale Phänomene wie etwa ökonomischer Tausch, Kooperation oder internationale Konflikte zwischen Staaten können als dyadische Phänomene rekonstruiert und analysiert werden.

Andreas Schmitz

Kapitel 97. Organisationsdaten

In den Sozial- und Wirtschaftswissenschaften setzt sich mehr und mehr die Erkenntnis durch, dass die Ebene der einzelnen Organisation für das Verständnis einer Reihe von Forschungsgegenständen entscheidend ist. Neben der Makroebene (Staat und Gesellschaft) und der Mikroebene (Individuum) steht zunehmend die Organisation als Analyseeinheit zur Erklärung sozialer Phänomene im Fokus der Sozialwissenschaften (z.B. Coleman 1986, Jäger/Schimank 2005). Damit einhergehend hat die Nachfrage nach Organisationsdaten in den letzten Jahrzehnten stark zugenommen (Liebig et al. 2017).

Alexia Meyermann, Tobias Gebel, Stefan Liebig

Kapitel 98. Qualitative räumliche Daten

Der Unterschied zwischen quantitativen räumlichen Daten (Lakes, Kandt, Manderscheid, Graeff, Braun, Kapitel 99, 100, 101, 91 und 63, alle in diesem Band) und den hier diskutierten qualitativen räumlichen Daten wird am besten dadurch deutlich, wenn man „subjektive Karten“ (‚cognitive maps‘ in der Psychologie, ‚mental maps‘ in der Geographie) neben Stadtpläne legt. Stadtpläne geben Entfernungen und Richtungen eindeutig wieder und verorten öffentliche Gebäude und andere Einrichtungen an dem jeweils „richtigen“ Ort, während gedankliche Landkarten genau dieses nicht erfüllen, weil sie auf subjektiven Erinnerungen, selektiven Wahrnehmungen und Präferenzen beruhen.

Jens S. Dangschat, Raphaela Kogler

Kapitel 99. Geodaten

Schätzungsweise 80% aller weltweiten qualitativen und quantitativen Daten weisen einen Raumbezug auf. Die zunehmende Verfügbarkeit von regionalisierten Datensätzen einerseits und von frei verfügbaren computergestützten Tools und GPS-gestützten Kommunikationsinstrumenten andererseits, lassen im Kontext von Diskussionen um den Zensus (Hartmann/Lengerer, Kapitel 89 in diesem Band) und den Datenschutz (Mühlichen, Kapitel 5 in diesem Band) ein gesteigertes Interesse am Raumbezug in soziologischen Studien verzeichnen.

Tobia Lakes

Kapitel 100. Geotracking

Geotracking umfasst eine Gruppe von Methoden, welche mit sehr hoher Präzision die geographische Position von Subjekten zu genauen Zeitpunkten erfassen. Das Hauptinteresse dabei ist, soziale Phänomene in ihren räumlichen und zeitlichen Zusammenhängen zu untersuchen. Dieses Interesse kann unter anderem auf Hägerstrands (1970) Zeitgeographie-Ansatz zurückgeführt werden, wonach individuelle Erfahrungen anhand von biographischen „Raum-Zeit-Pfaden“ betrachtet werden können.

Jens Kandt

Kapitel 101. Mobile Methods

Die unter dem Begriff „Mobile Methods“ zusammengefassten Methoden der Mobilitätsforschung sind dem noch relativ jungen sozialwissenschaftlichen „Mobilitätsparadigma“ („Mobilities Paradigm“) zuzuordnen, das seit Mitte der 2000er Jahre von Sozialforschenden auch als „Mobilitätswende“ („Mobilities Turn“) verhandelt wird. Dieses auf verschiedenen sozialwissenschaftlichen Theoriesträngen fußende Paradigma geht von räumlicher Mobilität als gesellschaftlicher Normalität aus. Mobilität und Bewegung werden also, anders als in der traditionellen sozialwissenschaftlichen Sicht (vgl. Abschnitt 101.2), nicht als Abweichung vom Normalzustand oder sogar Bedrohung einer territorial begrenzten sesshaften (nationalen) Gesellschaft, sondern vielmehr als deren Basis und Voraussetzung gedacht (Sheller/Urry 2006). Mobilität wird dabei nicht nur als Bewegung von Menschen im geographischen Raum (Kandt, Kapitel 100 in diesem Band), sondern auch im virtuellen Raum (Thimm/Nehls, Kapitel 69 in diesem Band) verstanden, wobei der Fokus zusätzlich auf die Mobilität von Gütern, Dingen und Symbolen erweitert wird.

Katharina Manderscheid

Kapitel 102. Neurowissenschaftliche Daten

Neurowissenschaftliche Methoden (Pritzel et al. 2009; Pritzel 2006) versuchen, mittels noninvasiver Verfahren und durch eine möglichst engmaschige räumlich-zeitliche Auflösung bestimmte als relevant angesehene Veränderungen im Gehirn in Relation zum zeitlichen Verlauf bestimmter Verhaltensweisen (z.B. zwischen Reizbeginn und Antwort) abzubilden. Dadurch sollen Aussagen möglich werden, wie das Gehirn Reize verarbeitet, Verhalten vorbereitet und steuert, Informationen einspeichert und abruft, Emotionen, Motivationen und Bewusstsein erzeugt.

Monika Pritzel, Hans J. Markowitsch

Analysestrategien und Datenstrukturen in der quantitativen Sozialforschung

Frontmatter

Kapitel 103. Multivariate Datenstrukturen

In der quantitativen Sozialforschung (Stein, Kapitel 8 in diesem Band) liegen Daten entweder bereits in standardisierter Form vor – z.B. in Form von Daten der amtlichen Statistik (Hartmann/Lengerer, Kapitel 89 in diesem Band), als Logfiles (Schmitz/Yanenko, Kapitel 70 in diesem Band), usergenerierte Kommunikation (Mayerl/Faas, Kapitel 73 in diesem Band), Geodaten (Lakes und Kanndt, Kapitel 99 und 100 in diesem Band) oder Kundendatenbanken (Meyermann et al., Kapitel 97 in diesem Band) –, oder sie werden im Rahmen von Primärerhebungen, z.B. in Form von Befragungen (Reinecke, Kapitel 49 in diesem Band) – standardisiert erhoben, oder schwach strukturierte Daten werden z.B. mittels inhaltsanalytischer Verfahren analysiert und kodiert (Mayring/Fenzl, Kuckartz/Rädiker, Kapitel 42 und 31 in diesem Band).

Jörg Blasius, Nina Baur

Kapitel 104. Kausalität

Kausalvorstellungen, also Vermutungen darüber, welche Wirkungen oder welche Effekte eine Ursache hat, spielen im Alltag wie auch in der Wissenschaft eine große Rolle. In den empirischen Wissenschaften ist es ein zentrales Ziel, kausale Zusammenhänge aufzudecken und tatsächlich bestehende, kausale Effekte von nur vermeintlichen Effekten (Scheinkausalitäten) zu unterscheiden. So gibt es einen positiven Zusammenhang zwischen der Größe eines Feuers und der Anzahl der Feuerwehrleute, die den Brand bekämpfen. Zudem ist damit zu rechnen, dass die Höhe des durch ein Feuer verursachten Schadens mit der Größe des Feuers ansteigt. Daraus folgt, dass empirisch auch ein positiver Zusammenhang zwischen der Zahl der Feuerwehrleute und der Größe des Schadens besteht: Je mehr Feuerwehrleute eingesetzt werden, desto größer ist der Schaden. Diese positive Beziehung ist aber keine kausale Beziehung, sondern eine Scheinkausalität. Die Konsequenz, möglichst wenige Feuerwehrleute bei einem Feuer einzusetzen, um dadurch den Brandschaden zu reduzieren, wäre ausgesprochen kontraproduktiv.

Steffen Kühnel, André Dingelstedt

Kapitel 105. Indikatoren

Oft sind im Rahmen der quantitativen empirischen Forschung Sachverhalte aus Forschungsfragen und Hypothesen so allgemein bzw. mehrdeutig, dass sie nicht direkt messbar sind (z.B. Sachverhalte wie „gesellschaftliche Teilhabe“ oder „Mobbing“). Sie müssen erst operationalisiert werden, das heißt, es sind genaue Angaben dazu erforderlich, wie ein Sachverhalt gemessen werden soll. Indikatoren, kurz gesagt sind dies Anzeiger für Sachverhalte, spielen hierbei eine zentrale Rolle. Dies soll zunächst an einem Beispiel gezeigt werden, bevor zentrale Begriffe erläutert und die Einordnung in den Forschungsprozess sowie methodische Herausforderungen systematisiert werden.

Nicole Burzan

Kapitel 106. Messung von sozialer Ungleichheit

Unter sozialer Ungleichheit verstehen wir strukturell verankerte Disparitäten in den Lebens- und Handlungsbedingungen von Individuen, „die ihnen in unterschiedlichem Ausmaß erlauben, in der Gesellschaft allgemein anerkannte Lebensziele zu verwirklichen.“ (Huinink/Schröder 2008: 99). Man unterscheidet verschiedene Dimensionen sozialer Ungleichheit.

Johannes Huinink

Kapitel 107. Skalierungsverfahren

Unter Skalierung versteht man, wie ein oder mehrere Beobachtungsmerkmal(e) einem oder mehreren Skalenwert(en) zugeschrieben wird (werden). Dabei sind die Beobachtungsmerkmale manifest, sie werden direkt erhoben, z.B. indem sie in einer Umfrage abgefragt werden. Dies können z.B. Merkmale des christlichen Glaubens sein, wie die Fragen „Glauben Sie an Gott?“, „Glauben Sie an die Hölle?“ und „Glauben Sie an den Teufel?“. Mit Hilfe eines Skalierungsverfahrens werden diese Merkmale für jeden Befragten zu einem individuellen Skalenwert zusammengefasst, sie werden skaliert. Diese resultierende Skala ist eine latente Variable, die meistens als Dimension oder als Faktor bezeichnet wird und die inhaltlich interpretiert werden kann; in dem genannten Beispiel als „christliche Religiosität“. Der Faktor ist metrisch skaliert (Blasius/Baur, Kapitel 103 in diesem Band) und meistens standardisiert, üblicherweise mit dem Mittelwert „Null“ und der Standardabweichung „Eins“. Die Interpretation dieser Skala wäre dann: „je positiver der Wert ist, desto religiöser ist die entsprechende Person“.

Jörg Blasius

Kapitel 108. Zeitreihenanalyse

Zeitreihenanalyse ist ein Sammelbegriff für statistische Verfahren zur Analyse von Zeitreihen. Unter einer Zeitreihe versteht man eine Serie von zeitlich geordneten Messergebnissen, die aus Erhebungen stammen, die relativ häufig (mindestens etwa 30 bis 40 Mal) in gleichbleibenden Abständen am gleichen Objekt zur gleichen Merkmalsdimension vorgenommen wurden.

Rainer Metz, Helmut Thome

Kapitel 109. Längsschnittanalyse

Längsschnittdaten liegen vor, wenn zu einer Befragungseinheit von Personen oder Haushalten, gelegentlich auch von Betrieben, Daten zur Verfügung stehen, die nicht nur die Situation zu einem einzigen Messzeitpunkt, sondern über einen längeren Zeitraum erfassen. Dies können Daten sein, die aus Befragungen, insbesondere aus Panel-Erhebungen entstehen, wie das Sozioökonomische Panel (Schupp, Kapitel 93 in diesem Band). Es kann sich aber auch um Daten handeln, die aus Verwaltungsprozessen abgeleitet werden (Hartmann/ Lengerer, Kapitel 89 in diesem Band), wie zum Beispiel aus den Daten der Sozialversicherung. Die Länge dieses Zeitraums sowie die Engmaschigkeit der Beobachtungen innerhalb des Gesamtzeitraums hängen von der Forschungsfrage ab, es kann sich um einzelne Tage, um einzelne Wochen oder auch um Monate handeln. Längsschnittdaten ermöglichen die tatsächliche Beobachtung von sozial bedeutsamen Veränderungen wie etwa dem Absinken der Arbeitslosigkeit durch erfolgreiche Arbeitsuche vormals Arbeitsloser, während mehrere unabhängige Messungen nur Veränderungen im Aggregat messen können, z.B. das Absinken und Steigen der Arbeitslosenquote im Zeitverlauf.

Tatjana Mika, Michael Stegmann

Kapitel 110. Verlaufsdatenanalyse

Verlaufsdaten beziehen sich auf Angaben über Ereignisse und Folgen von Ereignissen. Zu denken ist etwa an die Arbeitsmarktbeteiligung von Befragten, wobei Ereignisse Arbeitsplatzwechsel, Übergänge in die Arbeitslosigkeit oder aus der Arbeitslosigkeit, Übergänge in die Rente etc. sein können. Weitere Beispiele sind Heiraten, Schulwechsel und Schulabschlüsse, Beginn des Bezugs von Hartz-IV-Leistungen, berufliche Auf- oder Abstiege, Umzüge, Arztbesuche, Unfälle, Einkäufe bestimmter Waren, Insolvenzen oder Patentanmeldungen von Firmen etc. Die Verlaufsdatenanalyse beantwortet Fragen nach der Dauer bis zu bestimmten Ereignissen, der Häufigkeit von Folgen von Ereignissen, deren Abhängigkeit von Kovariablen sowie nach Abhängigkeiten zwischen Verläufen.

Ulrich Pötter, Gerald Prein

Kapitel 111. Mehrebenenanalyse

In der modernen Gesellschaft gewinnen Bildungskarrieren und Bildungsabschlüsse immer mehr an Bedeutung. Neben dem höheren Schulabschluss an sich spielt dabei die Abschlussnote als Indikator für die Leistungsqualität eine Rolle. Wovon hängen nun aber gute oder weniger gute Schulleistungen ab? Naheliegend ist, beispielsweise besondere Talente, das Vorwissen, die Interessen der Schüler oder die zur Verfügung stehende Lernzeit als Erklärungen heranzuziehen. Seitdem die Ergebnisse ländervergleichender Schulstudien wie PISA oder TIMSS veröffentlicht wurden, wird darüber hinaus auch das Lernumfeld als Einflussfaktor breit diskutiert und z.B. die Wirkung der sozialen Herkunft oder von Klasseneigenschaften empirisch gezeigt (Neumann et al. 2010). Erste Erfahrungen mit entsprechenden Analysestrategien gehen auf Coleman et al. (1966, 1982) zurück, die die Schulleistungen von Schülern in Abhängigkeit von der sozialen Zusammensetzung der Schülerschaft einer Schule (Coleman et al. 1966) bzw. des Schultyps (Coleman et al. 1982) betrachteten.

Manuela Pötschke

Kapitel 112. Meta-Analyse

Der Begriff „Meta-Analyse“ wurde im Jahr 1976 von Gene V. Glass eingeführt. Er verstand darunter die „Analyse von Analysen“ („analysis of analyses“) (Glass 1976), die neben Primär- und Sekundäranalysen einen dritten Forschungstyp darstellt. Im Gegensatz zu Primär- und Sekundäranalysen werden hier nicht die Originaldaten erstmalig oder wiederholt ausgewertet. Vielmehr richtet sich die Meta-Analyse in der von Glass vorgeschlagenen Form auf die statistische Zusammenfassung publizierter empirischer („aggregierter“) Befunde aus möglichst allen für die jeweilige Fragestellung relevanten Studien.

Bernd Weiß, Michael Wagner
Weitere Informationen