Skip to main content
main-content

Über dieses Buch

Das Handbuch ist das erste im deutschen Sprachraum, in dem qualitative und quantitative Methoden gleichberechtigt dargestellt werden und in dem systematisch nach Gemeinsamkeiten und Unterschieden hinsichtlich Problemen, Prinzipien, Vorgehensweisen, Standards und Gütekriterien für beide Forschungstraditionen gefragt wird. Um diese Fragen zu beantworten, diskutieren ausgewiesene Experten in 88 Beiträgen den aktuellen Stand der Forschung und bieten Forschenden, Lehrenden und Studierenden einen detaillierten Überblick über die verschiedenen Methoden der empirischen Sozialforschung. Ein besonderer Schwerpunkt liegt dabei auf der Datenerhebung, also auf standardisierten und offenen Befragungen, aber es werden auch viele weitere aktuell verwendete Datentypen vorgestellt.

Inhaltsverzeichnis

Frontmatter

1. Methoden der empirischen Sozialforschung

Ein Überblick

Die Sozialwissenschaften gelten als Wirklichkeitswissenschaften, d.h. theoretische Aussagen und Prognosen müssen der Überprüfung an der Empirie statthalten. Ohne die „Methoden der empirischen Sozialforschung“ kann nicht empirisch geforscht werden, da diese die Regeln festschreiben, nach denen Daten erhoben, mit Theorien verknüpft und anschließend ausgewertet werden. Nicht umsonst sind daher die „Methoden der empirischen Sozialforschung“ unverzichtbarer Bestandteil der Ausbildung in vermutlich jedem sozialwissenschaftlichen Studiengang, sei es die Soziologie, die Politikwissenschaft oder die Erziehungswissenschaft. Und auch in anderen Studiengängen wie der Psychologie, der Anthropogeographie, der Ökonomie, den Kommunikations- und Planungswissenschaften gehört die empirische Sozialforschung zum Standardrepertoire der Disziplin.

Nina Baur, Jörg Blasius

Grundlagen der empirischen Sozialforschung

Frontmatter

2. Empirische Sozialforschung und soziologische Theorie

Der (Wieder-)Aufstieg der europäischen Wissenschaft im 17./18. Jahrhundert verdankt sich ganz wesentlich dem Abstieg der christlichen Religion. Galt die Wissenschaft der Religion zu Beginn der

christlichen

Zeitrechnung nicht wirklich als ernstzunehmende Konkurrenz, so wandelte sich dieses Verhältnis in der Aufklärung grundlegend: Die Kultur- und auch die Naturwissenschaft lösten mit Einsetzen der Aufklärung die Religion(en) in Bezug auf die Bereitstellung von Weltdeutungen und Theorien Schritt für Schritt ab, und dies gleich in zweifachem Sinne: Einerseits „erledigten“ sie die Religion, indem sie den Glauben an einen Gott und dessen Botschaft als vermeidbaren Irrtum bzw.

Jo Reichertz

3. Forschungsethik

Ethische Probleme treten vor allem bei der Befragung, dem Experiment und der teilnehmenden Beobachtung auf. Ich beschränke mich im Folgenden weitgehend auf die Befragung, weil sie am häufigsten verwendet wird.

Jürgen Friedrichs

4. Informationelle Selbstbestimmung

Im Jahre 1983 begab es sich, dass in ganz (West-)Deutschland das Volk gezählt werden sollte – doch dazu sollte es erst vier Jahre später kommen: Anstatt sich brav zählen zu lassen, probten die Bürger den Aufstand und Boykottaufrufe durchzogen das Land. Die politisch sensible Stimmung der Zeit, Angst vor dem gläsernen Bürger, Sorge, die Uhr ticken zu hören bis zum drohenden, nahenden „1984“ eines Orwellschen, dystopischen Überwachungsstaates, führte zu Klagen vor dem Bundesverfassungsgericht. Auch wenn die Volkszählung dann 1987 trotzdem durchgeführt wurde – immer noch unter Protest und Boykottaufrufen, aber wenigstens mit verändertem Fragebogen und besserem (und trotzdem unzureichendem) Schutz vor einer Deanonymisierung–, so wurde sie doch 1983 erst einmal gestoppt und in Folge des politischen Debakels, als wohl wichtigstes Ergebnis der Affäre, das sogenannte „Volkszählungsurteil“ von höchstrichterlicher Stelle gefällt.

Andreas Mühlichen

5. Informationsquellen und Informationsaustausch

Bereits im Planungsstadium eines Forschungsvorhabens ist es wichtig, dass man die Forschungsergebnisse auf dem untersuchten Gebiet kennt. Zum einen sollten bereits geklärte Fragestellungen nicht erneut aufgegriffen werden, andererseits muss, gerade in den Sozialwissenschaften, das bereits Erforschte oft in anderen zeitlichen und räumlichen Settings erneut abgesichert werden. Auch um Wissen zu produzieren, benötigt man selbst bereits Wissen, z.B. Theorien, Werkzeuge zur Auswertung von Daten und natürlich Informationen, Daten und Statistiken über soziale Phänomene. Mit der zunehmenden internationalen und interdisziplinären Ausrichtung der Forschung ist eine professionelle Recherche in und die Zulieferung zu fachlichen Informationsdatenbanken unabdingbar (siehe Abb. 5.1; Kaminsky 1977, Kuhlen 1989).

H. Peter Ohly, Karsten Weber

6. Forschungsdesigns für die qualitative Sozialforschung

Bei der Verwendung qualitativer Methoden ist nicht immer klar, was die Durchführung qualitativer Forschung im Einzelnen bedeutet und welchen methodischen Grundlagen und Standards sie genügen muss. Das mag auch daran liegen, dass wir erst am Beginn einer systematischen Integration qualitativer Methoden in die Curricula human- und sozialwissenschaftlicher Studiengänge stehen, von der Besetzung entsprechender Professuren ganz abgesehen.

Aglaja Przyborski, Monika Wohlrab-Sahr

7. Forschungsdesigns für die quantitative Sozialforschung

Ein Forschungsvorhaben setzt sich aus einer Reihe von Entscheidungen zusammen. Dieser Vorgang wird als Forschungsprozess bezeichnet. Als Ergebnis der verschiedenen Entscheidungen entsteht ein spezifisches

Forschungsdesign

(auch

Untersuchungsdesign

oder

Untersuchungsanordnung

genannt). Dieses bildet die Grundlage einer sozialwissenschaftlichen Untersuchung. Das Forschungsdesign ist für die Aussagekraft der erzielten Ergebnisse von entscheidender Bedeutung, da es festlegt, wie eine theoretische Forschungsfrage konkret in eine empirische Untersuchung umgesetzt werden soll.

Petra Stein

8. Mixed Methods

Unter „Mixed Methods“ wird üblicherweise die Kombination qualitativer und quantitativer Forschungsmethoden in einem Untersuchungsdesign verstanden. Es handelt sich um einen Begriff aus der anglo-amerikanischen Methodendebatte in den Sozial- und Erziehungswissenschaften, der seit dem Ende der 1990er-Jahre, konkret seit dem Erscheinen der Monographie „Mixed Methodology“ von Abbas Tashakkori und Charles Teddlie (1998) große Prominenz erlangt hat. Von den amerikanischen Erziehungswissenschaften ausgehend hat sich eine eigene Mixed Methods-Bewegung gebildet – mittlerweile existieren eine ganze Reihe von Lehrbüchern (etwa Creswell/Plano Clark 2007; Morse/Niehaus 2009; Kuckartz/Cresswell 2014), ein in zweiter Auflage erschienenes umfangreiches Handbuch (Tashakkori/Teddlie 2010), seit 2007 eine Zeitschrift mit Namen „Journal of Mixed Methods Research“ (JMMR) und eine internationale Fachgesellschaft unter dem Namen „Mixed Methods International Research Association“ (MMIRA).

Udo Kelle

9. Evaluationsforschung

Mit „Evaluationsforschung“, „wissenschaftlicher Evaluation“ oder kurz „Evaluation“ ist die Bewertung eines Gegenstandes mit Hilfe sozialwissenschaftlicher Methoden durch Evaluationsfachleute gemeint (Widmer/De Rocchi 2012: 11). Die Evaluationsforschung ist ein boomendes interdisziplinäres Forschungsfeld, in dem sowohl qualitative als auch quantitative Methoden der empirischen Sozialforschung zum Einsatz kommen (Döring/Bortz 2014). In zahlreichen Bereichen des öffentlichen Lebens werden Evaluationsmaßnahmen inzwischen rechtlich vorgeschrieben. So verlangt beispielsweise das Hochschulgesetz vieler Bundesländer die Evaluation von Lehrveranstaltungen und Studiengängen. Mit eigenen Fachgesellschaften und Fachzeitschriften hat sich die Evaluationsforschung wissenschaftlich fest etabliert.

Nicola Döring

10. Marktforschung

Kommt man im Alltag mit empirischer Sozialforschung in Kontakt, so steckt im Normalfall ein Institut der Markt-, Meinungs- oder Sozialforschung hinter der jeweiligen Studie. Es gibt wohl niemanden, der nicht als aktiver Teilnehmer oder passiver Konsument von Studienergebnissen (etwa in Zeitungen) in irgendeiner Form mit dieser Art der praktischen empirischen Sozialforschung in Berührung gekommen ist.

Markus Ziegler

11. Experiment

Das Experiment ist keine besondere Form der Datenerhebung, sondern eine besondere Form der Anordnung und des Ablaufs einer empirischen Untersuchung. Das Ziel des Experiments besteht darin, Erkenntnisse über Ursache-Wirkungs-Beziehungen zu gewinnen und auf dieser Grundlage soziale Phänomene zu erklären. Die Besonderheit des Experiments besteht in der Anwendung des

Prinzips der aktiven Erfahrung

: Die zu untersuchenden Vorgänge werden vom Forscher mit Absicht hergestellt, damit bestimmte Phänomene eindeutig als Wirkungen einer bestimmten Ursache betrachtet werden können. In diesem Zusammenhang kommt der

Kontrolle

von Faktoren, die möglicherweise auch als Ursachen wirken können, eine zentrale Bedeutung zu: Nur wenn Einflüsse einer vermuteten Ursache nachgewiesen und zugleich andere Faktoren als potentielle Ursachen ausgeschlossen werden können, ist es möglich, Erklärungen für soziale Phänomene zuungunsten von Alternativerklärungen zu finden.

Stefanie Eifler

12. Simulation

In der empirischen Sozialforschung befasst man sich mit gesellschaftlichen Phänomenen. Es geht darum, wie soziale Akteure durch ihren gesellschaftlichen Kontext beeinflusst werden und wie die Gesellschaft durch das interdependente, individuelle Handeln ihrer Mitglieder geformt wird. Einerseits wirken also gesellschaftliche Strukturen und Institutionen auf die Deutungen und Handlungsweisen der Gesellschaftsmitglieder, andererseits ergeben sich gesellschaftliche Tatbestände letztlich immer aus dem Zusammenspiel der Handlungen von Individuen. Ein einfaches Beispiel ist etwa eine Reform der Regulierung von Kinderbetreuungsmöglichkeiten, die sich auf das Fertilitätsverhalten der Gesellschaftsmitglieder auswirkt, was Folgen für die demographische Entwicklung der Gesellschaft hat und unter Umständen den Kreis durch weiteren Reformbedarf von Kinderbetreuungsmöglichkeiten schließt. Insgesamt erscheinen Gesellschaften somit als komplexe, dynamische Systeme, in denen die Merkmale und Akteure unterschiedlicher konzeptioneller Ebenen in Wechselbeziehung zueinander stehen, was die Erklärung und Vorhersage gesellschaftlicher Prozesse und Entwicklungen vor große Herausforderungen stellt.

Ben Jann, Debra Hevenstone

13. Qualitative Daten für die Sekundäranalyse

Während die Sekundäranalyse auch Dank einer positiven Archiventwicklung zum Synonym für die erneute Nutzung statistischer (insbesondere Umfrage-)Daten (Mochmann, Kapitel 14 in diesem Band) geworden ist, zeigt sich nunmehr auch eine internationale und aktuell voranschreitende Entwicklung von Archiven, die interessierten Forschenden einen organisierten Zugang zu qualitativen Daten schaffen.

Irena Medjedović

14. Quantitative Daten für die Sekundäranalyse

Die Entwicklung der empirischen Sozialforschung ist untrennbar mit dem Fortschritt ihrer Datenbasis verbunden. Obwohl die ersten Untersuchungen bereits im 19. Jahrhundert durchgeführt wurden, waren über lange Zeit die Forschungsmöglichkeiten durch eine karge Datenlage geprägt. Dieses intensiv wahrgenommene Defizit wurde bald zum Motor der Bemühungen, die Datenlage systematisch zu verbessern. Dies gilt nicht nur für die Menge der verfügbaren Daten sondern auch für ihre Qualität und Vergleichbarkeit. Der Zugang zu bereits vorliegenden Forschungsdaten erlaubte die Auswertung auch unter neuen Forschungsfragen (Sekundäranalyse) und erschloss neben weiteren Querschnittsanalysen zugleich eine Datenbasis mit Potential für die Analyse gesellschaftlichen Wandels.

Ekkehard Mochmann

15. Ergebnispräsentation in der qualitativen Forschung

Wissenschaftliche Erkenntnisse, die in der Sozialforschung gewonnen werden, können in Vorträgen, Berichten und wissenschaftlichen Texten auf sehr unterschiedliche Weise dargestellt werden. Dieser Aufsatz beschreibt und diskutiert verschiedene solcher Darstellungsformen und ihre theoretischen Begründungen in der qualitativen Forschung.

Christian Meyer, Christian Meier zu Verl

16. Ergebnispräsentation in der quantitativen Forschung

Wissenschaftler/innen haben ein großes Interesse daran, ihre Forschungsergebnisse zu veröffentlichen. Sie tragen damit zum Erkenntnisfortschritt auf ihren jeweiligen Gebieten bei Gleichzeitig dient die Veröffentlichung auch dazu, kritisiert und korrigiert zu werden – also die Ergebnisse und deren Interpretation durch die scientific community kontrollieren zu lassen.

Jürgen Friedrichs

Stichproben, Datenaufbereitung und Güte

Frontmatter

17. Stichprobenziehung in der qualitativen Sozialforschung

Empirische Sozialforschung bedeutet, dass zur Gewinnung von Erkenntnissen über den jeweiligen Forschungsgegenstand immer Erfahrungen gesammelt werden müssen, die in Form von Datenmaterial nach wissenschaftlichen Gesichtspunkten ausgewertet und verallgemeinert werden können. Diese Daten werden aus einer unendlichen Fülle von möglichen Daten mehr oder weniger gezielt gewonnen. Das Thema „Stichprobenziehung“ oder „Sampling“ begleitet dabei den gesamten, in der qualitativen Forschung zumeist zyklisch verlaufenden, Forschungsprozess von der Forschungsfrage bis hin zur Präsentation von Forschungsergebnissen.

Leila Akremi

18. Stichprobenziehung in der quantitativen Sozialforschung

Eine wichtige Entscheidung im Rahmen der Designentwicklung bei einer quantitativen Erhebung betrifft die Frage, ob nur ein Teil der Elemente untersucht werden soll oder ob alle Elemente der Grundgesamtheit einzubeziehen sind. Bei der

Grundgesamtheit

handelt es sich um all jene Elemente, die aufgrund von bestimmten Eigenschaften für den Forscher von Interesse sind. So kann beispielsweise bei einer Wahlstudie die Grundgesamtheit bestimmt werden als die Menge an Personen, die in einem Land zu einem bestimmten Stichtag wahlberechtigt sind. Bei den Personen handelt es sich um die Elemente der Grundgesamtheit, deren gemeinsame Eigenschaft die Wahlberechtigung zu einem bestimmten Stichtag ist.

Michael Häder, Sabine Häder

19. Pretest

Es ist in der empirischen Sozialforschung und insbesondere der Umfrageforschung heute Common Sense, vor der eigentlichen Datenerhebung Pretests durchzuführen. Ziel ist es, die Datenerhebung ex ante, d.h. vor ihrem eigentlichen Beginn zu optimieren. Aus heutiger Sicht versteht man Pretests nicht als punktuelle Verfahren oder einmalig durchzuführende Methode (typischerweise kurz bevor ein Fragebogen ins Feld geht), sondern als eine Menge von Verfahren zur Qualitätssicherung des Erhebungsinstruments, ja des gesamten Erhebungsdesigns, die im Zuge der Fragebogenerstellung und Erhebungsplanung Anwendung finden. Je nach angewendeten Verfahren wird dabei unterschiedlichen Qualitätsdimensionen der Befragung Aufmerksamkeit geschenkt. Pretests betreffen meist das Erhebungsinstrument (Formulierung der einzelnen Fragen bzw.

Martin Weichbold

20. Einstellungen zu Befragungen

Die Identifizierung von Einstellungen (Latcheva/Davidov, Kapitel 55 in diesem Band) zu bestimmten Inhalten oder Produkten steht im Fokus von Befragungen (Reinecke und Helfferich, Kapitel 44 und 30 in diesem Band). Doch hinter diesem vordergründigen Ziel einer Befragung steht immer auch die Einstellung zu Befragungen an sich. Der Einfluss dieser Einstellung auf die Datenqualität (Krebs/Menold, Engel/Schmidt und Faulbaum, Kapitel 30, 23 und 31 in diesem Band) wird dabei oft unterschätzt.

Anja Hlawatsch, Tino Krickl

21. Interviewereffekte

Interviewer nehmen eine zentrale, aber oft unterschätze Rolle in der Umfrageforschung ein (Reinecke, Kapitel 44 in diesem Band). Blickt man jedoch genauer hin, dann übernehmen sie eine Reihe sehr wichtiger Aufgaben bei persönlichen (Stocké, Kapitel 45 in diesem Band) und telefonischen Umfragen (Hüfken, Kapitel 46 in diesem Band), die nachhaltige Auswirkungen auf die Qualität der erhobenen Umfragedaten haben können: Interviewer stellen meistens den ersten Kontakt mit den Befragten her und überzeugen sie, an der Umfrage teilzunehmen (Engel/Schmidt, Kapitel 23 in diesem Band). Während des Interviews administrieren sie oftmals komplexe Fragebögen, klären gegebenenfalls die Bedeutung von Fragen und zeichnen die Antworten der Befragten auf.

Alexander Glantz, Tobias Michael

22. Fälschungen von Interviews

Es gibt viele Einführungen in die empirische Sozialforschung und eine Vielzahl von sozialwissenschaftlichen Fachzeitschriften mit Hunderten von Artikeln, in denen die Bedeutung von Interviewern in Face-to-Face-Situationen beschrieben wird (Stocké, Hlawatsch/Krickl, Glantz/Michael, Kapitel 45, 20 und 21in diesem Band), aber es gibt nur wenige Studien, in denen das Problem von gefälschten Interviews diskutiert wird. Nach Empfehlung der American Association of Public Opinion Research (AAPOR 2003: 7) sollten 5 bis 15 Prozent der Interviews von den Markt- und Meinungsforschungsinstituten (Ziegler, Kapitel 10 in diesem Band) kontrolliert werden, um die Qualität der erhobenen Daten zu sichern und um zu gewährleisten, dass die Daten nicht gefälscht sind.

Jörg Blasius

23. Unit- und Item-Nonresponse

Wenn Stichproben nach dem Zufallsprinzip (Häder/Häder, Kapitel 18 in diesem Band) generiert werden, kommt es regelmäßig vor, dass in die Stichprobe gezogene Personen von vornherein nicht teilnehmen, den Fragebogen nur teilweise beantworten oder aus unterschiedlichen Gründen nicht erreicht werden können (Engel et al. 2004: 43). Von Unit-Nonresponse

(Totalausfall, Komplettausfall)

ist dabei die Rede, wenn in die Stichprobe gezogene Personen die Teilnahme an einer Befragung verweigern oder aus Gründen der Nichterreichbarkeit oder z.B. bedingt durch Sprach- oder Verständigungsprobleme keine gültigen Aussagen vorliegen (Bartsch 2012: 48).

Uwe Engel, Björn Oliver Schmidt

24. Gewichtung

Ziel einer Analyse quantitativer Daten ist die Verallgemeinerung der Stichprobenergebnisse auf die interessierende Grundgesamtheit (Häder/Häder, Kapitel 18 in diesem Band). Tatsächlich unterscheiden sich Stichproben in bestimmter Hinsicht aber fast immer von der Grundgesamtheit; sei es durch ein geplantes „Oversampling“ einer bestimmten Teilpopulation (die Genauigkeit einer Schätzung wird im Wesentlichen von der Fallzahl in der Stichprobe bestimmt, weshalb seltene Teilpopulationen, für die valide Schätzungen möglich sein sollen, mit einem größeren Auswahlsatz in die Erhebung aufgenommen werden) oder durch selektiven Nonresponse (Engel/Schmidt, Kapitel 23 in diesem Band). Viele Befragungen weisen etwa einen so genannten „Mittelschichtsbias“ auf; Personen mit mittlerem bis gehobenem Bildungsniveau (gemessen durch den höchsten Schulabschluss) zeigen sich am öftesten bereit, an Umfragen teilzunehmen, sie sind in den Erhebungsdaten daher überrepräsentiert.

Hans Kiesl

25. Paradaten

Bei allen Umfragen (Reinecke, Kapitel 44 in diesem Band) entstehen neben den eigentlichen Umfragedaten auch Daten durch den Erhebungsprozess. Dazu gehören z.B. bei computergestützten Erhebungen Zeitmarken bei der Eingabe von Antworten, mit der die Dauer für die Beantwortung einer Frage bestimmt werden kann, oder automatisch aufgenommene Maus-Bewegungen in einem Websurvey. In einem Vortrag auf dem Joint Statistical Meeting der Amerikanischen Statistischen Gesellschaft 1998 in Dallas prägte Mick Couper für diese Art von Daten den Begriff

Paradaten

(Couper 1998). Solche Paradaten erlauben eine Prozess- und Qualitätskontrolle für die Durchführung von Befragungen (Weichbold, Krebs/Menold, Faulbaum, Engel/Schmidt, Kapitel 19, 30, 25 und 23 in diesem Band).

Barbara Felderer, Alexandra Birg, Frauke Kreuter

26. Data Fusion, Record Linkage und Data Mining

Besteht Interesse an der Analyse der gemeinsamen Verteilung mehrerer Variablen, z.B. bezüglich deren Assoziation oder Interaktionseffekten, werden üblicherweise alle Merkmale bei jedem Element einer Stichprobe (Häder/Häder, Kapitel 18 in diesem Band) erhoben. Prinzipiell lassen sich solche multivariaten Verteilungen (Blasius/Baur, Kapitel 79 in diesem Band) untersuchen, wenn die Ausprägungen für sämtliche Variablen bei allen Untersuchungseinheiten vollständig vorliegen. Begrenzte Ressourcen schränken jedoch in der Forschungspraxis oft sowohl die Stichprobenumfänge, als auch die Anzahl der Variablen in Umfragen ein. Ein weiterer Gesichtspunkt sind die Probleme bei Sekundäranalysen bereits vorliegender Daten, die ursprünglich auf die Ansprüche der Primärforscher zugeschnitten wurden und die interessierenden Variablen möglicherweise nicht vollständig enthalten (Mochmann, Schupp, Kapitel 14 und 73 in diesem Band).

Julia Cielebak, Susanne Rässler

27. Datenaufbereitung und Datenbereinigung in der qualitativen Sozialforschung

Charakteristisch für qualitative Daten ist ihre große Vielfalt, die von Antworten auf offene Fragen in Bevölkerungsumfragen (Züll/Menold, Kapitel 52 in diesem Band) über transkribierte narrative Interviews (Küstrers, Kapitel 40 in diesem Band) und Gruppendiskussionen (Kapitel 41 in diesem Band) bis hin zu visuellen Daten wie Fotographien (Bohnsack, Kapitel 67 in diesem Band) und Videos (Tuma/Schettler, Kapitel 68 in diesem Band) reicht. Dabei spielen qualitative Daten nicht nur im Rahmen qualitativer Forschung eine Rolle, auch in der quantitativ orientierten Forschung, etwa im Bereich der Surveyforschung (Stein, Reinecke, Kapitel 7 und 44 in diesem Band) sind qualitative Daten sehr häufig anzutreffen. Dies gilt erst recht für Mixed-Methods Ansätze (Kapitel 8 in diesem Band), die zunehmend auf Interesse stoßen und die in unterschiedlicher Art und Weise qualitative und quantitative Daten in ihren Designs kombinieren und integrieren.

Udo Kuckartz, Stefan Rädiker

28. Datenaufbereitung und Datenbereinigung in der quantitativen Sozialforschung

Eine erfolgreiche Analyse von Daten setzt neben einer intelligenten und gewissenhaften Datenerhebung auch die sorgfältige und gründliche Bereinigung und Aufbereitung der Daten voraus. Dieser Schritt mag trivial erscheinen. Doch er ist technisch durchaus anspruchsvoll und hält Fehlerquellen bereit. Er sollte in seiner Bedeutung und in seinem Arbeitsaufwand schon deswegen nicht unterschätzt werden, weil Fehler in der Datenaufbereitung und Datenbereinigung in der Lage sind, alle Befunde zu verfälschen, die je mit den entsprechenden Daten generiert werden.

Detlev Lück, Uta Landrock

29. Gütekriterien qualitativer Sozialforschung

Die Frage, wie sich die Qualität qualitativer Sozialforschung bestimmen lässt, ist seit der Wiederentdeckung der qualitativen Forschung in den 1960er-Jahren virulent. In diesem Beitrag kann die relative diversifizierte Diskussion um die Qualität(-skriterien) qualitativer Forschung nur in Auszügen wiedergegeben werden.

Uwe Flick

30. Gütekriterien quantitativer Sozialforschung

Für alle Schritte der Datenerhebung und -auswertung in der quantitativen Sozialforschung (Stein, Kapitel 7 in diesem Band) gibt es Gütekriterien, die es zu beachten gilt, damit die Daten möglichst fehlerfrei erhoben und die erzielten Resultate angemessen interpretiert werden können. Dabei wird zwischen

Gütekriterien für Messinstrumente

(deren

Zuverlässigkeit

und

Gültigkeit

) und

Gütekriterien für das gesamte Forschungsdesign

(die

Generalisierbarkeit

und

Eindeutigkeit der Ergebnisse

) unterschieden. Qualitätskriterien empirischer (Sozial-)Forschung sind dem Prinzip der

Wertfreiheit

verpflichtet.

Dagmar Krebs, Natalja Menold

31. Total Survey Error

Von zentraler Bedeutung für die Durchführung von Umfragen (Reinecke, Kapitel 44 in diesem Band) ist die

Umfragequalität

(z.B. Biemer/Lyberg, 2003) und deren Sicherung. Die Qualität von Umfragen steht auch im Mittelpunkt des Konzepts des

totalen Umfragefehlers (Total Survey Error, TSE)

. Thematisiert werden in diesem Konzept die Fehlerquellen, die während der Daten

erhebung

von der Stichprobenauswahl (Häder/Häder, Kapitel 18 in diesem Band) bis zum vorliegenden, bereinigten Datensatz die Schätzung der Populationsparameter verzerren könnten.

Frank Faulbaum

Forschungsparadigmen in der qualitativen Sozialforschung

Frontmatter

32. Grounded Theory und Theoretical Sampling

Der Forschungsstil der Grounded Theory (im folgenden: GT) wurde in den 1960er Jahren von Barney Glaser und Anselm Strauss entwickelt und 1967 in „The Discovery of Grounded Theory“ (1967/1998) erstmals publiziert. Veröffentlicht in einer Zeit des intellektuellen und politischen Aufbruchs und gezielt an die junge Generation revoltierender, nach neuen Wegen suchender Sozialforscher adressiert, wurde das Buch zu einem Klassiker der empirischen Sozialforschung. Obwohl es bis heute gerne als Lehrbuch für die Methode der Grounded Theory verstanden und genutzt, wird, handelt es sich tatsächlich eher um ein Skizzenbuch, in dem zentrale Verfahren der GT grob umrissen und in ihrer Funktion bestimmt, nicht aber systematisch und in sich konsistent dargelegt werden.

Jörg Strübing

33. Sozialwissenschaftliche Hermeneutik und hermeneutische Wissenssoziologie

Sozialwissenschaftliche Hermeneutik

(heute auch häufig

Hermeneutische Wissenssoziologie

genannt) bezeichnet eine von Hans-Georg Soeffner und seiner Arbeitsgruppe in den 1980er Jahren entwickelte Methodologie und ein Set methodischer Verfahrensweisen zur Interpretation textförmiger Daten (Soeffner 1989). Mittlerweile wurden ihre Grundsätze auch auf die Interpretation von Bild- und Videodaten übertragen (Raab 2008, Kurt 2002, 2008, Herbrik 2011, Tuma/Schnettler, Kapitel 68 in diesem Band).

Ziel des Verfahrens ist es, die gesellschaftliche Bedeutung von sozialen Handlungen, Interaktionen und Interaktionsprodukten in Form von Typenbildungen rekonstruktiv zu verstehen

(Kurt 2004, Reichertz 2013). Als angewandte verstehende Soziologie ist die sozialwissenschaftliche Hermeneutik ein Mittel zur

Ex-Post-Analyse empirischer Einzelfälle

.

Ronald Kurt, Regine Herbrik

34. Diskursanalyse

Der Begriff „Diskurs“ bezeichnet in seiner allgemeinsten Bedeutung die Produktion sozialen Sinns, verstanden als die symbolische (d.h. sprachliche, visuelle, auditive) Darstellung, Vermittlung und Konstitution von Gegenständen in kommunikativen Prozessen.

Boris Traue, Lisa Pfahl, Lena Schürmann

35. Biographieforschung

Der Begriff „

Biographie

“ (Griechisch: „Leben“ & „schreiben“) bezieht sich nicht nur auf Geschriebenes, sondern ebenso auf in Gesprächen mitgeteilte biographische Selbst- oder Fremdbeschreibungen. Biographische Beschreibungen werden sowohl in informellen Zusammenhängen, als auch in unterschiedlichen formal organisierten oder durch Institutionen regulierten Kontexten mündlich geäußert oder schriftlich verfasst.

Gabriele Rosenthal

36. Ethnographie

Ethnographie bezeichnet wörtlich die „Beschreibung“ des „Volkes“. Genauer handelt es sich um eine sozialwissenschaftliche Forschungsstrategie, bei der mehr oder weniger unbekannte ethnische Gruppen, Gemeinschaften oder andere soziale Einheiten und deren Handlungsweisen, Wissensformen und materiale Kulturen untersucht werden. Als ausformuliertes Konzept geht die Ethnographie auf Bronislaw Malinowski (1923) zurück und bezeichnet die Art der ethnologischen Feldforschung durch eigene systematische teilnehmende Beobachtung. Der Begriff der teilnehmenden Beobachtung wurde erstmals 1924 von Lindemann verwendet, der damit zunächst die soziologische Forschung im Rahmen der Chicagoer Schule charakterisierte (Lindner 1990).

Hubert Knoblauch

37. Einzelfallanalyse

Unter einem

Fall

kann Vielfältiges verstanden werden. Neben klassischen Gegenständen der Sozialforschung, wie Einzelpersonen, Personengruppen, Organisationen/Netzwerken, ganzen Gesellschaften bzw. Kulturen oder anderen Formen sozialer Zusammenhänge, können Einzelfallanalysen auch soziale Prozesse, Episoden, einzelne Situationen oder Ähnliches betreffen (Baur/Lamnek 2005). Zudem gibt es eine Vielzahl von Anwendungsgebieten und sozialwissenschaftlichen Disziplinen, die mit Fallstudien arbeiten, z.B. im Bereich der Evaluations-, Stadt-, Biographie- oder auch Organisationsforschung.

Linda Hering, Robert J. Schmidt

38. Qualitative Inhaltsanalyse

Qualitative Inhaltsanalyse stellt eine

Auswertungsmethode dar, die Texte bearbeitet

, welche im Rahmen sozialwissenschaftlicher Forschungsprojekte in der Datenerhebung anfallen, z.B. Transkripte von offenen Interviews (Helfferich, Kapitel 39 in diesem Band) oder Fokusgruppen (Vogl, Kapitel 41 in diesem Band), offene Fragen aus standardisierten Befragungen (Züll/Menold, Kapitel 52 in diesem Band), Beobachtungsprotokolle aus Feldstudien (Thierbach/Petschick, Kapitel 66 in diesem Band), Dokumente (Ernst, Kapitel 63 in diesem Band), Akten (Salheiser, Kapitel 62 in diesem Band), Zeitungsartikel (Klein, Kapitel 64 in diesem Band) und Internetmaterialien.

Philipp Mayring, Thomas Fenzl

Offene Befragung

Frontmatter

39. Leitfaden- und Experteninterviews

Qualitative, leitfadengestützte Interviews sind eine verbreitete, ausdifferenzierte und methodologisch vergleichsweise gut ausgearbeitete Methode, qualitative Daten zu erzeugen.

Leitfadeninterviews

gestalten die Führung im Interview über einen vorbereiteten Leitfaden,

Experteninterviews

sind definiert über die spezielle Auswahl und den Status der Befragten.

Cornelia Helfferich

40. Narratives Interview

Das narrative Interview ist eine Interviewform, in der ein Befragter auf eine Eingangsfrage bzw. Erzählaufforderung ohne Unterbrechungen, ohne Vorgaben und in großer Ausführlichkeit antworten kann. Es dient der

Erhebung von Handlungsprozessen

, also Ereignisverkettungen (Mika/Stegmann, Pötter/Prein, Kapitel 86 und 87 in diesem Band), an denen der Befragte selbst beteiligt war.

Ivonne Küsters

41. Gruppendiskussion

Gruppendiskussionen (auch: Fokusgruppen, „focus groups“) sind geplante Diskussionen, um Einstellungen zu einem bestimmten, durch das Forschungsinteresse definierten Bereich in einer offenen, freundlichen Atmosphäre zu erheben. Dazu werden in einer Gruppe Kommunikationsprozesse initiiert, die einem alltäglichen Gespräch ähneln. Dabei geht es nicht (nur) um einen Austausch von Argumenten, sondern es wird auch erzählt, erinnert oder gegenseitig ergänzt. Entscheidend ist die Interaktion der Gruppenmitglieder, wodurch die Methode über die gleichzeitige Befragung (Helfferich, Kapitel 39 in diesem Band) mehrerer Personen hinausgeht.

Susanne Vogl

42. DELPHI-Befragung

Im Jahr 1998 wurden verschiedene Experten danach gefragt, wie sie sich die Zukunft der Festnetztelefonie im Jahr 2005 vorstellen. Den Hintergrund für diese Studie bildete die Vermutung, dass sich immer mehr Personen dazu entschließen würden, ihren Festnetztelefonanschluss abzumelden und nur noch über den Mobilfunk zu telefonieren. Dies brächte aber weitreichende Folgen für die empirische Sozialforschung, die sich häufig telefonischer Befragungen bedient, mit sich. Neben zahlreichen anderen Einschätzungen wurde auch nach dem für 2005 vermuteten Anteil an Haushalten mit Festnetzanschlüssen in Deutschland gefragt. Den Teilnehmern an der Delphi-Befragung wurde der Mittelwert aller Schätzungen dann rückgemeldet.

Michael Häder, Sabine Häder

43. Journalistisches Interview

Das journalistische Interview ist wie das wissenschaftliche durch eine asymmetrische Kommunikation gekennzeichnet: Der Interviewer fragt, der/die Befragte antwortet. Der wesentliche Unterschied zwischen diesen beiden Interviewformen besteht darin, dass das journalistische Interview für Dritte – die Empfänger – geführt, manchmal geradezu inszeniert wird. Leser/innen, Hörer/innen oder Zuschauer/innen sollen über einen Sachverhalt oder die Meinung, Einschätzung, Bewertung der oder des Befragten informiert werden. Hingegen wird das wissenschaftliche Interview für die fragenden Forscher geführt.

Jürgen Friedrichs, Ulrich Schwinges

Standardisierte Befragung

Frontmatter

44. Grundlagen der standardisierten Befragung

Die Befragung kann als ein klassisches Instrument der Datenerhebung für die empirisch orientierten Disziplinen der Sozial- und Wirtschaftswissenschaften bezeichnet werden. Insbesondere durch den Einsatz von Befragungen in der Markt- und Meinungsforschung (Ziegler, Kapitel 10 in diesem Band) hat ihre Bedeutung stark zugenommen. Auch wenn sich die Befragungsformen in den letzten 40 Jahren weiterentwickelt und diversifiziert haben, ist die von Scheuch (1973: 70) aufgestellte Definition der Befragung als Interview auch heute noch zutreffend: „Unter Interview als Forschungsinstrument sei hier verstanden ein planmäßiges Vorgehen mit wissenschaftlicher Zielsetzung, bei dem die Versuchsperson durch eine Reihe gezielter Fragen oder mitgeteilter Stimuli zu verbalen Informationen veranlasst werden soll.“

Jost Reinecke

45. Persönlich-mündliche Befragung

In der Bundesrepublik wurden 2012 21% aller standardisierten Befragungen (ADM 2013, https://www.adm-ev.de/zahlen/#c245, Zugriff vom 20. Oktober 2013) in den Sozialwissenschaften und der Marktforschung mithilfe eines persönlich-mündlichen Befragungsmodus durchgeführt. Obwohl die Verwendung dieser Befragungsart in den vergangenen Jahren rückläufig ist, stellt sie somit immer noch eine der wichtigsten Arten der Erfassung von Befragungsdaten dar (Reinecke, Kapitel 44 in diesem Band).

Volker Stocké

46. Telefonische Befragung

Telefonumfragen werden bereits seit mehr als 90 Jahren angewendet. Damals wie heute kommt den Medien in diesem Zusammenhang eine besondere Bedeutung zu. Der Wettbewerb, insbesondere um eine zeitnahe Berichterstattung gesellschaftlicher oder politischer Ereignisse, begünstigt dabei den Einsatz der Telefonumfrage. So wurden in Chicago bereits in den 1920er-Jahren die ersten Wahlumfragen mittels Telefon durchgeführt (Chicago Tribune 1923, zitiert nach Frankovic 2012). Ende der 1920er-Jahre, mit der Verbreitung der Radionutzung, gewinnt auch das Bedürfnis nach gezielteren Angaben über die Hörgewohnheiten in der Bevölkerung an Bedeutung. Nicht nur in den amerikanischen, auch in den europäischen Rundfunkanstalten wie z.B. in England, Deutschland und Österreich gab es ein entsprechend großes Interesse. Dies geht mit einem enormen Anstieg postalischer (Reuband, Kapitel 47 in diesem Band), persönlich-mündlicher (Stocké, Kapitel 45 in diesem Band) und telefonischer Umfragen einher, wobei der Einsatz von Telefonumfragen lediglich für die Vereinigten Staaten berichtet wird (Bessler 1980).

Volker Hüfken

47. Schriftlich-postalische Befragung

Die schriftlich-postalische Befragung ist eine Variante der standardisierten Befragung (Reinecke, Kapitel 44 in diesem Band), bei der sowohl bei der Kontaktaufnahme als auch bei der Rückgabe eine postalische Zustellung gewählt wird. In manchen Fällen schriftlicher Befragung beschränkt sich der postalische Teil auf die Rücksendung, und der Erstkontakt erfolgt in anderer Weise – z.B. über eine Verteilung des Fragebogens statt Zusendung. In diesen Fällen ist es hilfreich, sich ebenfalls an den grundlegenden Prinzipien postalischer Befragungen zu orientieren.

Karl-Heinz Reuband

48. Online-Befragung

Online-Befragungen platzieren ihre Fragebögen auf dem Server eines Forschungsinstituts oder eines Providers, wo sie von den Befragungsteilnehmern online ausgefüllt werden. Von anderen Befragungsmodi der standardisierten Befragung (Reinecke, Kapitel 44 in diesem Band) unterscheiden sich Online-Befragungen also durch das von ihnen genutzte Medium: das Internet.

Pia Wagner, Linda Hering

49. Gesamtgestaltung des Fragebogens

Der Fragebogen ist ein Instrument – ebenso wie eine Waage oder ein Mikroskop. Hätten wir unterschiedliche austarierte Waagen, so würden Gegenstände gleichen Gewichts dennoch zu unterschiedlichen Anzeigen des Gewichts führen. Hätten sie zudem verschiedene Gewichte, so könnten wir zunächst nicht entscheiden, welchen „Anteil“ an dem gemessenen Gewicht auf die unterschiedliche Tarierung der Waagen und welcher auf die unterschiedlichen Gewichte der Gegenstände zurückzuführen ist. Der Fragebogen sollte demnach so konstruiert sein, dass er Interviewereffekte (Glantz/Michael, Kapitel 21 in diesem Band) minimiert und durch die Frageformulierung (Porst, Kapitel 50 in diesem Band) auch unterschiedliche semantische Interpretationen der Fragen durch die Befragten ausschließt. Das gilt für alle Formen der Befragung: face-to-face, schriftlich, telefonisch oder online. Und ebenso, ob der Fragebogen schriftlich oder elektronisch vorliegt.

Jennifer Klöckner, Jürgen Friedrichs

50. Frageformulierung

Ungeachtet dieser selbst formulierten Einschränkung legt Stanley L. Payne mit seinem 1951 erschienenen Buch „The Art of Asking Questions“ erstmals eine systematische Darstellung und Diskussion von Regeln vor, die bei der Formulierung von Fragebogen-Fragen hilfreich und deshalb zu berücksichtigen wären. Waren bis zu diesem Zeitpunkt ausschließlich einzelne Kapitel in Büchern (Rugg/Cantril 1944) oder Beiträge in Fachzeitschriften (Rugg 1941; Hubbard 1950) erschienen, wird hier zum ersten Mal ein komplettes „Frageformulierungs-Buch“ vorgelegt. Alle späteren Versuche, Regeln für die Formulierung von Fragebogenfragen zusammenzustellen, gehen explizit oder implizit auf Payne (1951) zurück, die meisten davon wieder „nur“ als Einzelbeiträge in Handbüchern, in Büchern zu „Methoden der empirischen Sozialforschung“ oder sonstigen methodischen Abhandlungen (Converse/Presser 1986; Porst 2000; Groves et al. 2004; Diekmann 2007; Häder 1010; Porst 2014).

Rolf Porst

51. Antwortskalen in standardisierten Befragungen

Jeder, der eine standardisierte Befragung plant, muss sich früher oder später überlegen, welche Fragen gestellt werden sollen, wie die Fragen formuliert sein sollen und wie die Antwortkategorien zu gestalten sind. Die Antworten auf diese drei Fragen sind nicht unabhängig, sondern hängen eng miteinander zusammen. In der Regel ist es sinnvoll in der genannten Reihenfolge vorzugehen, also sich erst mit den Inhalten und der Formulierung von Fragen zu beschäftigen und danach die Konstruktion der Antwortskalen vorzunehmen. Ein Forscher ist aber gut beraten, schon bei der Formulierung der Fragen an die spätere Datenauswertung zu denken, und spätestens bei der Festlegung der Antwortkategorien stehen Überlegungen zum Skalenniveau und den statistischen Analysemöglichkeiten im Vordergrund.

Axel Franzen

52. Offene Fragen

Lange Zeit standen offene Fragen in standardisierten Interviews eher im Hintergrund, da die Analyse als sehr aufwändig im Vergleich zum Zugewinn an Information galt. Mit dem Aufkommen von Online-Umfragen wird die Erhebung von offenen Fragen aber deutlich erleichtert, denn diese können hier kostengünstiger erhoben werden und stehen unmittelbar danach für die Auswertung zur Verfügung.

Cornelia Züll, Natalja Menold

53. Vignetten

Beim faktoriellen Survey (Vignettenanalyse) handelt es sich um ein experimentelles Design (Eifler, Kapitel 11 in diesem Band), bei dem der Forscher variierende Situationsoder Personenbeschreibungen, die sogenannten Vignetten, zu einem Thema erstellt und unter einem bestimmten Gesichtspunkt beurteilen lässt.

Hermann Dülmer

54. Soziodemographische Standards

Soziodemographische Variablen stellen Hintergrundmerkmale der Bevölkerung dar, über die die Population einer Stichprobe oder einer Zielgruppe eines Forschungsprojektes beschrieben werden kann. Die soziodemographischen Merkmale unterteilen sich einerseits in demographische Merkmale wie Kohortenzugehörigkeit, Geschlecht, ethnische Zugehörigkeit und Familien- und Verwandtschaftsordnungen bzw.

Jürgen H.P. Hoffmeyer-Zlotnik, Uwe Warner

55. Skalen und Indizes

In der sozialwissenschaftlichen Literatur existiert keine einheitliche Definition, was unter Index oder Indexbildung subsumiert werden kann und ob und wie sich Indexbildung von Skalierungsverfahren abgrenzt. Diese fehlende definitorische Eindeutigkeit entspringt nicht zuletzt der Frage, ob Indizes auch als Instrumente zur Messung sozialwissenschaftlicher Konzepte bezeichnet werden dürfen (Diekmann 2009: 230ff.).

Rossalina Latcheva, Eldad Davidov

56. Interkulturell vergleichende Umfragen

Die interkulturell vergleichende Umfrageforschung hat in den Sozialwissenschaften in den letzten Jahrzehnten stark an Bedeutung gewonnen. Dies betrifft zum einen die Verfügbarkeit von international vergleichbaren Umfragedaten und die auf ihnen basierenden substanzwissenschaftlichen Untersuchungen, zum anderen die Beschäftigung mit methodologischen Fragestellungen. Für interkulturelle Umfragen sind nicht nur die Probleme, die für alle Umfragen allgemein gelten, zu berücksichtigen.

Michael Braun

57. Mitarbeiterbefragungen

Eine Mitarbeiterbefragung (MAB) fragt Mitarbeiter (aus allen oder ausgewählten Ebenen bzw. Bereichen einer Organisation) nach ihren Meinungen und Einstellungen zu arbeitsbezogenen Themen mit der Absicht, mit der Befragung selbst, ihren Messwerten und ihrer Aufarbeitung das Erreichen der Ziele der Organisation zu fördern.

Ingwer Borg

58. Befragungen von Kindern und Jugendlichen

In der Geschichte der empirischen Sozial- und Marktforschung hat sich hinsichtlich der Befragung von Kindern und Jugendlichen ein Einstellungswandel vollzogen: Wurden Heranwachsende zunächst für den relativ komplexen Frage-Antwort-Prozess als unzureichend kompetent eingeschätzt, gelten sie spätestens seit Mitte der 1980er-Jahre als ernstzunehmende Interviewpartner (France 2004: 177).

Julia Heinen, Susanne König

59. Befragungen von älteren und alten Menschen

Der demografische Wandel ist eine der großen aktuellen gesellschaftlichen Herausforderungen. Niedrige Fertilität, zunehmende Migration und die Verlängerung der Lebensspanne verändern die Gesellschaft. Die Lebenserwartung hat im 20. Jahrhundert stetig um zwei bis drei Jahre pro Jahrzehnt zugenommen und steigt weiter. Das lange Leben bringt gesellschaftliche und individuelle Entwicklungschancen mit sich, geht aber zugleich mit bisher unbekannten Herausforderungen einher.

Andreas Motel-Klingebiel, Daniela Klaus, Julia Simonson

60. Befragung von Migranten

Über Befragungen der Allgemeinbevölkerung hinaus sind repräsentative Umfragen von Bevölkerungsminderheiten für viele Fragestellungen zentral. So leben in Deutschland viele Arbeitsmigranten, insbesondere aus der Türkei, Italien und anderen südeuropäischen Ländern, mittlerweile auch in der zweiten und dritten Generation – und durch Familiennachzug oder Bildungsmigration immigrieren auch stetig Neuzuwanderer aus diesen Ländern.

Yasemin El-Menouar

61. Befragung von speziellen Populationen

Häufig möchte man in der empirischen Sozialwissenschaft Personen aus speziellen oder seltenen Bevölkerungsgruppen befragen. Speziell ist eine Subgruppe aufgrund einer gemeinsamen, teilweise auch seltenen Eigenschaft, gemeinsamer Interessen, einer Situation, in der sich alle Mitglieder dieser Gruppe befinden oder aufgrund ihres ähnlichen sozioökonomischen Status. Das können alleinerziehende Väter genauso sein wie Homosexuelle oder Drogenabhängige.

Miriam Schütte, Tobias Schmies

Weitere Datentypen

Frontmatter

62. Natürliche Daten: Dokumente

Unter

Dokumenten

sollen in diesem Kapitel

natürliche Daten

verstanden werden, die in schriftlicher Form als Texte vorliegen. Dokumente sind insofern natürliche Daten, als dass sie nicht zu Forschungszwecken und ohne die Beteiligung oder Intervention der Forschenden entstanden sind.

Axel Salheiser

63. Literarische Quellen und persönliche Dokumente

Zumeist verwendet die Soziologie Interviews (Helfferich und Küsters, Kapitel 39 und 40 in diesem Band), Beobachtungen (Thierbach/Petschick, Kapitel 66 in diesem Band) oder Gruppendiskussionen (Vogl, Kapitel 41 in diesem Band), um zu untersuchen, wie Menschen bestimmte Lebensbedingungen oder Herausforderungen bewältigen. Die gesellschaftliche Wirklichkeit bietet aber noch eine weitere spezifische Quelle unmittelbarer Art an: literarische Quellen auf der einen und persönliche Dokumente auf der anderen Seite.

Stefanie Ernst

64. Zeitungsartikel

Während die Umfrageforschung in den Sozialwissenschaften in jedem Methodenbuch umfangreich abgehandelt wird, gilt dies nicht für die Verfahren, die Texte analysieren. In diesem Beitrag geht es darum, Artikel aus Printmedien – Zeitungen und Zeitschriften – als Datenmaterial für die sozialwissenschaftliche Forschung zu erschließen.

Harald Klein

65. Web Server Logs und Logfiles

Mit Logfiles werden automatisch erstellte Dateien bezeichnet, in denen bestimmte Ereignisse elektronisch aufgezeichnet werden. Im sogenannten

Web Usage Mining

(Srivastava et al. 2000) sind vor allem

Web Server Logs

von Interesse und werden daher oft synonym zum Begriff „Logfiles“ verwendet. Diese dokumentieren die Zugriffe auf Webseiten, um darauf basierend Webseitenstatistiken erstellen und auswerten zu können.

Andreas Schmitz, Olga Yanenko

66. Beobachtung

Mittels wissenschaftlicher Beobachtung können viele Themenfelder erforscht werden. Typisch sind Beobachtungen von Menschen im öffentlichen Raum wie etwa in Stadtquartieren, von Randgruppen (wie z.B. Obdachlosen oder Prostituierten), von Experten (wie z.B. Wissenschaftlern), von Abläufen in Unternehmen, oder auch des Geschehens bei Events.

Cornelia Thierbach, Grit Petschick

67. Unbewegte Bilder: Fotografien und Kunstgegenstände

Die sozialwissenschaftlich-empirische Bildanalyse ist eine Domäne qualitativer Sozialforschung (Przyborski/Wohlrab-Sahr, Kapitel 6 in diesem Band). Letztere sieht sich allerdings vor das Problem gestellt, dass die wesentlichen Fortschritte qualitativer Methoden seit Ende der 1970er Jahre zunächst eng mit der Entwicklung der Verfahren der Textinterpretation verbunden waren, welche wiederum im Zusammenhang mit dem sogenannten

linguistic turn

(verbunden mit Namen wie Richard Rorty, Paul Ricoeur und Jürgen Habermas), also der sprachwissenschaftlichen Wende in den Geistes- und Sozialwissenschaften, zu sehen ist. Dies hat in den qualitativen Methoden zu enormen Fortschritten der Interpretationsverfahren geführt.

Ralf Bohnsack

68. Videographie

Video

analyse

bezeichnet eine Reihe von methodischen Verfahren, bei denen audiovisuelle Daten für sozialwissenschaftliche Untersuchungen verwendet werden. Video

graphien

basieren in der Regel auf Aufzeichnungen, die von den Forschenden selbst zum Zwecke wissenschaftlicher Analyse angefertigt werden. Technische und methodische Entwicklungen haben in jüngerer Zeit solchen Verfahren Aufschwung verliehen und mit der Verbreitung erschwinglicher digitaler Kameratechnik ist der Weg zu ihrer intensiveren Verwendung in der sozialwissenschaftlichen Forschung geebnet worden.

René Tuma, Bernt Schnettler

69. Filme

Wenn Sozialwissenschaftler sich entscheiden, Filme als Datenquelle zu benutzen, kann dies folgende Gründe haben:

1.

Die Fragestellung bezieht sich auf längerfristigen sozialen Wandel und für bestimmte weiter zurückliegende Jahrzehnte lassen sich keine aussagekräftigeren Daten als die filmische Darstellung der Gesellschaft finden.

Leila Akremi

70. Gebrauchsgegenstände und technische Artefakte

Gesellschaftliches Handeln produziert in großem Maße Zahlen, Buchstaben und auch Bilder. Aber es produziert auch Gebrauchsgegenstände, künstlerische und technische Artefakte. Unter letzteren werden im Folgenden alle Dinge, Gegenstände und Gerätschaften verstanden, die als Sachtechnik von Menschen produziert und genutzt werden, etwa Werkzeuge, Kleidung, Transport- oder Kommunikationsmittel, gemeinhin also die Gegenstände des täglichen Gebrauchs. Während die Analyse von Zahlen (Reinecke, Hartmann/ Lengerer und Schmitz/Yanenko, Kapitel 44, 71 und 65 in diesem Band), Texten (Salheiser, Ernst und Klein, Kapitel 62, 63 und 64 in diesem Band) und Bildern (Bohnsack, Schnettler/Tuma und Akremi, Kapitel 67, 68 und 69 in diesem Band) zum Standardrepertoire sozialwissenschaftlicher Methoden gehört, bleiben die Gegenstände des täglichen Gebrauchs meist außen vor.

Cornelius Schubert

71. Verwaltungsdaten und Daten der amtlichen Statistik

Ämter und Behörden erfüllen Aufgaben der öffentlichen Verwaltung und erbringen Dienstleitungen für die Bürger. Bei dieser Tätigkeit entstehen Daten. Einerseits entstehen Daten, weil Behörden diese auf individueller oder Firmenebene benötigen, um Entscheidungen über Rechte und Pflichten dieser Einheiten zu treffen. Diese Daten gelten als

prozessproduziert

. Sie werden nicht für Zwecke der Statistik erhoben, können aber trotzdem dafür genutzt werden.

Peter H. Hartmann, Andrea Lengerer

72. Aggregatdaten

Als

Aggregatdatenanalysen

bezeichnet man Studien, deren Daten aus aggregierten Einheiten bestehen, die dann mit Hilfe statistischer Verfahren ausgewertet werden.

Aggregate

, also die meistens nach mathematischen oder statistischen Regeln angefertigten Zusammenfassungen von Daten, beziehen sich beispielsweise auf Organisationen, Regionen oder Nationen. Entsprechend stehen bei Aggregatdatenanalysen Fragestellungen über Zusammenhänge und Wirkungen von Länder- oder Gesellschaftscharakteristika im Vordergrund.

Peter Graeff

73. Paneldaten für die Sozialforschung

Unter Paneldaten versteht man im Bereich der empirischen Sozialforschung Daten auf Basis einer Untersuchungsanlage, bei der gleichzeitig drei Merkmale erfüllt sind. Es werden bei

denselben Untersuchungseinheiten

dieselben oder zumindest

die gleichen Inhalte

erhoben und die Daten werden

mehrfach

, also mindestens zweimal ermittelt.

Jürgen Schupp

74. Netzwerkdaten

In der herkömmlichen Datenerhebung – etwa bei standardisierten Befragungen (Reinecke, Kapitel 44 in diesem Band) – erhebt man Daten über ein einziges Individuum, z.B. eine einzelne Person oder Organisation. So erheben etwa Lang und Neyer (2004) in einer Studie über Karrierewege in der Wissenschaft bei einer Stichprobe von 579 Psychologen Merkmale wie das Geschlecht, das Promotionsjahr und (als Indikator für die wissenschaftliche Produktivität) die Zahl der Publikationen, die in Einzel- bzw.

Nina Baur

75. Organisationsdaten

In den Sozial- und Wirtschaftswissenschaften setzt sich mehr und mehr die Erkenntnis durch, dass die Ebene der einzelnen Organisation für das Verständnis einer Reihe von Forschungsgegenständen entscheidend ist. Neben der Makroebene (Staat und Gesellschaft) und der Mikroebene (Individuum) steht zunehmend die Organisation als Analyseeinheit zur Erklärung sozialer Phänomene im Fokus der Sozialwissenschaften (z.B. Coleman 1986, Jäger/Schimank 2005).

Alexia Meyermann, Tobias Gebel, Stefan Liebig

76. Räumliche Daten

Der Unterschied zwischen quantitativen räumlichen Daten (Lakes, Graeff, Braun, Kapitel 77, 72 und 56 in diesem Band) und den hier diskutierten qualitativen räumlichen Daten wird am besten deutlich, wenn man „gedankliche Karten“ (mental maps) neben Stadtpläne legt.

Jens S. Dangschat

77. Geodaten

Schätzungsweise 80% aller weltweiten qualitativen und quantitativen Daten weisen einen Raumbezug auf. Die zunehmende Verfügbarkeit von regionalisierten Datensätzen einerseits und von frei verfügbaren computergestützten Tools und GPS-gestützten Kommunikationsinstrumenten andererseits, lassen im Kontext von Diskussionen um den Zensus (Hartmann/ Lengerer, Kapitel 71 in diesem Band) und den Datenschutz (Mühlichen, Kapitel 4 in diesem Band) ein gesteigertes Interesse am Raumbezug in soziologischen Studien verzeichnen.

Tobia Lakes

78. Neurowissenschaftliche Daten

Neurowissenschaftliche Methoden (Pritzel et al. 2009; Pritzel 2006) versuchen, mittels noninvasiver Verfahren und durch eine möglichst engmaschige räumlich-zeitliche Auflösung bestimmte als relevant angesehene Veränderungen im Gehirn in Relation zum zeitlichen Verlauf bestimmter Verhaltensweisen (z.B. zwischen Reizbeginn und Antwort) abzubilden. Dadurch sollen Aussagen möglich werden, wie das Gehirn Reize verarbeitet, Verhalten vorbereitet und steuert, Informationen einspeichert und abruft, Emotionen, Motivationen und Bewusstsein erzeugt.

Monika Pritzel, Hans J. Markowitsch

Datenauswertung in der quantitativen Sozialforschung

Frontmatter

79. Multivariate Datenanalyse

In der quantitativen Sozialforschung (Stein, Kapitel 7 in diesem Band) liegen

Daten

entweder bereits in standardisierter Form vor – z.B. in Form von Daten der amtlichen Statistik (Hartmann/Lengerer, Kapitel 71 in diesem Band), als Logfiles (Schmitz/Yanenko, Kapitel 65 in diesem Band) oder Kundendatenbanken (Liebig/Meyermann/Gebel, Kapitel 75 in diesem Band) –, oder sie werden im Rahmen von Primärerhebungen – z.B. in Form von Befragungen (Reinecke, Kapitel 44 in diesem Band) – standardisiert erhoben, oder schwach strukturierte Daten werden z.B. mittels inhaltsanalytischer Verfahren analysiert und kodiert (Mayring/Fenzl, Kuckartz/Rädiker, Kapitel 38 und 27 in diesem Band).

Jörg Blasius, Nina Baur

80. Kausalität

Kausalvorstellungen, also Vermutungen darüber, welche Wirkungen oder welche Effekte eine Ursache hat, spielen im Alltag wie auch in der Wissenschaft eine große Rolle. In den empirischen Wissenschaften ist es ein zentrales Ziel, kausale Zusammenhänge aufzudecken und tatsächlich bestehende,

kausale Effekte

von nur vermeintlichen Effekten (

Scheinkausalitäten

) zu unterscheiden.

Steffen Kühnel, André Dingelstedt

81. Indikatoren

Oft sind im Rahmen der quantitativen empirischen Forschung Sachverhalte aus Forschungsfragen und Hypothesen so allgemein bzw. mehrdeutig, dass sie nicht direkt messbar sind (z.B. Sachverhalte wie „gesellschaftliche Teilhabe“ oder „Mobbing“). Sie müssen erst operationalisiert werden, das heißt, es sind genaue Angaben dazu erforderlich, wie ein Sachverhalt gemessen werden soll.

Nicole Burzan

82. Messung von sozialer Ungleichheit

Unter sozialer Ungleichheit verstehen wir strukturell verankerte Disparitäten in den Lebens- und Handlungsbedingungen von Individuen, „die ihnen in unterschiedlichem Ausmaß erlauben, in der Gesellschaft allgemein anerkannte Lebensziele zu verwirklichen.“ (Huinink/ Schröder 2008: 99).

Johannes Huinink

83. Skalierungsverfahren

Unter Skalierung versteht man, wie ein oder mehrere Beobachtungsmerkmal(e) einem oder mehreren Skalenwert(en) zugeschrieben wird (werden). Dabei sind die Beobachtungsmerkmale

manifest

, sie werden direkt erhoben, z.B. indem sie in einer Umfrage abgefragt werden. Dies können z.B. Merkmale des christlichen Glaubens sein, wie die Fragen „Glauben Sie an Gott?“, „Glauben Sie an die Hölle?“ und „Glauben Sie an den Teufel?“. Mit Hilfe eines

Skalierungsverfahrens

werden diese Merkmale für jeden Befragten zu einem individuellen Skalenwert zusammengefasst, sie werden

skaliert

. Diese resultierende

Skala

ist eine

latente Variable

, sie wird auch als

Dimension

oder als

Faktor

bezeichnet; in dem genannten Beispiel kann sie als „christliche Religiosität“ interpretiert werden.

Jörg Blasius

84. Zeitreihenanalyse

Zeitreihenanalyse

ist ein Sammelbegriff für statistische Verfahren zur Analyse von Zeitreihen. Unter einer

Zeitreihe

versteht man eine Serie von zeitlich geordneten Messergebnissen, die aus Erhebungen stammen, die relativ häufig (mindestens etwa 30 bis 40 Mal) in gleichbleibenden Abständen am gleichen Objekt zur gleichen Merkmalsdimension vorgenommen wurden.

Rainer Metz, Helmut Thome

85. Längsschnittanalyse

Längsschnittdaten liegen vor, wenn zu einer Befragungseinheit von Personen oder Haushalten, gelegentlich auch von Betrieben, Daten zur Verfügung stehen, die nicht nur die Situation zu einem einzigen Messzeitpunkt, sondern über einen längeren Zeitraum erfassen. Dies können Daten sein, die aus Befragungen, insbesondere aus Panel-Erhebungen entstehen, wie das Sozioökonomische Panel (Schupp, Kapitel 73 in diesem Band).

Tatjana Mika, Michael Stegmann

86. Verlaufsdatenanalyse

Verlaufsdaten beziehen sich auf Angaben über Ereignisse und Folgen von Ereignissen. Zu denken ist etwa an die Arbeitsmarktbeteiligung von Befragten, wobei Ereignisse Arbeitsplatzwechsel, Übergänge in die Arbeitslosigkeit oder aus der Arbeitslosigkeit, Übergänge in die Rente etc. sein können. Weitere Beispiele sind Heiraten, Schulwechsel und Schulabschlüsse, Beginn des Bezugs von Hartz-IV-Leistungen, berufliche Auf- oder Abstiege, Umzüge, Arztbesuche, Unfälle, Einkäufe bestimmter Waren, Insolvenzen oder Patentanmeldungen von Firmen etc.

Ulrich Pötter, Gerald Prein

87. Mehrebenenanalyse

In der modernen Gesellschaft gewinnen Bildungskarrieren und Bildungsabschlüsse immer mehr an Bedeutung. Neben dem höheren Schulabschluss an sich spielt dabei die Abschlussnote als Indikator für die Leistungsqualität eine Rolle. Wovon hängen nun aber gute oder weniger gute Schulleistungen ab? Naheliegend ist, beispielsweise besondere Talente, das Vorwissen, die Interessen der Schüler oder die zur Verfügung stehende Lernzeit als Erklärungen heranzuziehen.

Manuela Pötschke

88. Meta-Analyse

Der Begriff „Meta-Analyse“ wurde im Jahr 1976 von Gene V. Glass eingeführt. Er verstand darunter die „analysis of analyses“ (Glass 1976), die neben Primär- und Sekundäranalysen einen dritten Forschungstyp darstellt. Im Gegensatz zu Primär- und Sekundäranalysen werden hier nicht die Originaldaten erstmalig oder wiederholt ausgewertet.

Michael Wagner, Bernd Weiß
Weitere Informationen