Skip to main content
Erschienen in:
Buchtitelbild

Open Access 2019 | OriginalPaper | Buchkapitel

2. Perspektiven auf Survey-Qualität

verfasst von : Raphael Vogel

Erschienen in: Survey-Welten

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Dieses Kapitel bezweckt die Spezifikation und Darstellung der durch die vorliegende Arbeit adressierten Forschungslücke. Während der ersten Interviews mit Survey-Praktikern zeichnete sich eine Lücke in der weitläufigen Literatur der Survey-Methodologie im Hinblick auf die Abdeckung und die Theoretisierung verschiedener Herausforderungen der praktischen Survey-Koordination ab. Begründet durch eine nicht vorhandene staatliche Befragungsinfrastruktur stellt die praktische Koordination zwischen Survey-Firmen einerseits und staatlichen und akademischen Auftraggebern andererseits eine Herausforderung für beide Seiten dar.
Dieses Kapitel bezweckt die Spezifikation und Darstellung der durch die vorliegende Arbeit adressierten Forschungslücke. Während der ersten Interviews mit Survey-Praktikern zeichnete sich eine Lücke in der weitläufigen Literatur der Survey-Methodologie im Hinblick auf die Abdeckung und die Theoretisierung verschiedener Herausforderungen der praktischen Survey-Koordination ab. Begründet durch eine nicht vorhandene staatliche Befragungsinfrastruktur stellt die praktische Koordination zwischen Survey-Firmen einerseits und staatlichen und akademischen Auftraggebern andererseits eine Herausforderung für beide Seiten dar. Wie sich während der weiteren Forschung herausstellte, sind es jedoch nicht nur diese beiden Arten von Survey-Projekten, welche eine koordinative Herausforderung für Survey-Firmen und Auftraggeber darstellen. Vielmehr ist diese Schnittstelle auch in privatwirtschaftlichen Survey-Projekten eine Herausforderung.
Wie sich in den verschiedenen Gesprächen mit Survey-Praktikern1 im Bereich der öffentlichen Statistik, der akademischen Survey-Forschung und mit privatwirtschaftlich organisierten Auftragnehmern und Auftraggebern gezeigt hat, existieren verschiedene Anforderungen an in der Survey-Praxis, welche kaum durch Publikationen der Survey-Methodologie aufgenommen werden. Die folgenden drei Erkenntnisse aus den ersten Gesprächen mit den verschiedenen Survey-Praktikern stellen die Grundlage für die vorliegende Forschung und die Wahl des in Kap. 3 dargestellten theoretischen Rahmens dar:2
  • Unterschiedliche Auftraggeber haben (systematisch) unterschiedliche Ansprüche an Survey-Firmen und verfolgen unterschiedliche Ziele mit der Durchführung von Surveys. Wie in der vorliegenden Arbeit gezeigt werden soll, erschöpfen sich diese unterschiedlichen Ansprüche und Ziele jedoch nicht in der Trennung zwischen einer öffentlich-rechtlichen oder privatwirtschaftlichen Ausrichtung von Survey-Projekten, wie sie in der Survey-Praxis oft vorgenommen wird. Vielmehr kann von grundlegend unterschiedlichen Qualitäten von survey-basierten Daten gesprochen werden. Dabei zeigen sich sowohl unterschiedliche Qualitätsauffassungen innerhalb der privatwirtschaftlich orientierten und oft als „Marktforschung“ bezeichneten Survey-Forschung, als auch innerhalb der öffentlich-rechtlichen Survey-Forschung, d. h. zwischen der akademischen Survey-Forschung und der öffentlichen Statistik.
  • Die durch die verschiedenen Auftraggeber nachgefragten unterschiedlichen Qualitäten betreffen jedoch nicht alleine die produzierten Daten. Vielmehr gehen mit den unterschiedlichen nachgefragten Qualitäten und Zielen von Survey-Projekten unterschiedliche Koordinationsformen im Hinblick auf verschiedene Dimensionen von Survey-Projekten einher. Durch die beauftragten Survey-Firmen sind folglich nicht lediglich unterschiedliche Anforderungen im Hinblick auf die Daten zu beachten, sondern es muss auch auf unterschiedliche Ansprüche an die Budget-Planung, das Reporting, die Kompetenzen von Projektleitern etc. eingegangen werden. Es ist diese Verknüpfung zwischen unterschiedlichen Qualitätsauffassungen in der Survey-Praxis und damit zusammenhängenden unterschiedlichen Koordinationsformen, welche in den folgenden Ausführungen das Konzept der Survey-Welten begründet.
  • Die unterschiedlichen Qualitätslogiken und Koordinationsformen in Survey-Projekten stellen jedoch nicht exklusive Koordinationsrahmen für ein Survey-Projekt dar. Wie in den ersten Gesprächen und insbesondere in den darauf folgenden ersten Beobachtungen deutlich wurde, stellen Survey-Projekte vielmehr typischerweise einen Kompromiss zwischen verschiedenen Qualitätsauffassungen und Koordinationsformen dar. Survey-Praktiker sind folglich nicht alleine durch die Existenz einer Pluralität von Qualitätslogiken und Koordinationsformen gefordert, sondern insbesondere auch durch die Kombination und Kompromissschließung zwischen verschiedenen Qualitätsauffassungen und Koordinationsformen.
Um die vorgeschlagene Perspektive der Survey-Welten auf unterschiedliche Qualitäts- und Koordinationslogiken für die Survey-Methodologie anschließbar zu machen, wird in diesem Kapitel ein Überblick über die Qualitätsdiskussion in der Survey-Methodologie erarbeitet. Um den spezifischen Beitrag dieser Perspektive auf Survey-Qualität zu untermauern, erscheint eine Kategorisierung der bisherigen Diskussion zu Survey-Qualität sinnvoll. Beiträge zur Qualitätsdiskussion mit Bezug auf die Survey-Forschung werden deshalb den Kategorien einer Daten- und einer Prozessperspektive zugeordnet. Diese Kategorisierung ist nicht trennscharf und es lassen sich deshalb auch Ansätze in der Diskussion um Survey-Qualität finden, welche zwischen den Kategorien liegen. Nichtsdestotrotz ist diese Kategorisierung hilfreich bei der Darstellung unterschiedlicher Perspektiven und Startpunkte der Konzeptualisierung von „Survey-Qualität“. Die unterschiedlichen Fokusse der beiden Perspektiven können in einer ersten Annäherung wie folgt beschrieben werden:
1.
Die Datenperspektive fokussiert auf die Erhebungssituation als maßgeblicher Station im Produktionsprozess von Surveys, in welcher die Qualität von Surveys hergestellt wird. Dies zeigt sich darin, dass hier der maßgebliche „Qualitätsfokus“ darauf gelegt wird, eine möglichst geringe Abweichung zwischen den erhobenen Daten und einem True-Value bei der Erhebung zu erhalten (Hansen et al. 1951). Deutlich wird durch den Fokus auf die Abweichung von einem True-Value bei der Forschung auch, dass es sich bei der Datenperspektive eigentlich um eine Fehlertheorie handelt, da die Qualität von Survey-Daten hier lediglich negativ durch die Abweichung von einem True-Value bewertet wird (Diaz-Bone 2018a). Die aktuell am weitesten verbreitete Fehlermethodologie stellt der Total-Survey-Error dar (Groves und Lyberg 2011; Weisberg 2005).3 Die Datenperspektive bleibt bis heute der zentrale Fokus innerhalb der Diskussion der Survey-Methodologie, welche sich in Form von Qualitätskriterien durch die klassische Trias von Objektivität, Reliabilität und Validität zeigt (Diekmann 2007, S. 247 ff.).
 
2.
Die Prozessperspektive kritisiert den einseitigen Fokus der Datenperspektive auf die Erhebungssituation und führt als weitere Station im Produktionsprozess von Survey-Daten, in welcher Survey-Qualität „entsteht“, die Anwendungssituation von Survey-Daten ein, d. h. sie verweist auf den situativen Gebrauch und die situative Produktion von Survey-Daten. Entscheidend ist aus der Prozessperspektive folglich nicht lediglich eine möglichst starke Annäherung von Daten an einen True-Value, sondern eben auch Aspekte des situativen Gebrauchs von Daten, welcher zusätzliche Qualitätserfordernisse an survey-basierte Daten stellt. Der situative Gebrauch von Daten muss bei der Survey-Produktion miteinbezogen werden, sodass die Qualitätskriterien der Prozessperspektive als Kriterien für eine über verschiedene Situationen verteilte Produktion von surveybasiertem Wissen zu verstehen sind (Lyberg und Biemer 2008, S. 424 f.). Zudem werden in der Marktforschung Survey-Projekte oft durch die Zusammenarbeit zwischen dem Auftraggeber und der Survey-Firma festgelegt. Entsprechend stellt die Qualität der Zusammenarbeit einen wichtigen Faktor für die Survey-Qualität dar (Zaltman und Moorman 1988). Die Prozessperspektive wird folglich sowohl in Publikationen der akademischen Survey-Forschung und der öffentlichen Statistik (Eurostat 2000; Lyberg und Biemer 2008), wie auch der Marktforschung vertreten (Zaltman und Moorman 1988; Moorman et al. 1993).
 
In diesem Kapitel werden zuerst die beiden bereits kurz eingeführten Qualitätsperspektiven auf die Survey-Forschung umfassender dargestellt. Zunächst wird die Datenperspektive vorgestellt. Ein hoher Stellenwert kommt hierbei in einem ersten Kapitel der Diskussion der klassischen Trias der Gütekriterien Objektivität, Reliabilität und Validität zu. In einem zweiten Kapitel wird der Total-Survey-Error als umfassendes Fehlerkonzept der Survey-Forschung dargestellt. Im nächsten Kapitel werden sozialwissenschaftliche Perspektiven auf die Erhebungssituation vorgestellt, welche einen Beitrag zur Theoretisierung der Erhebungssituation und damit wichtige Einflüsse für das Verständnis der Survey-Produktion darstellen. Danach werden verschiedene Perspektiven auf Survey-Qualität vorgestellt, welche der Prozessperspektive zugerechnet werden können, wobei hier auf Ansätze der öffentlichen Statistik und der Marktforschung gleichermaßen eingegangen wird. Die beiden Perspektiven werden im Anschluss an ihre Vorstellung im Hinblick auf die oben genannten Eigenheiten und Herausforderungen der praktischen Koordination in Survey-Projekten kritisch diskutiert. Zur kritischen Diskussion hinzugezogen wird dabei die durch Aaron Cicourel artikulierte Kritik an der Messpraxis der Sozialwissenschaften (Cicourel 1974), die Perspektive der Social Life of Methods-Perspektive (Savage 2013) wie auch die Perspektive der EC auf die Produktion von statistischen Daten (Diaz-Bone 2018, S. 45 ff.; 331 ff.). Anschließend wird argumentiert, dass auch diese sozialwissenschaftlichen Perspektiven auf die sozialwissenschaftliche Messpraxis und die Survey-Forschung nicht in der Lage sind, die durch Survey-Praktiker monierte Pluralität der praktischen Survey-Koordination aufzugreifen und zu theoretisieren. Argumentiert wird darum, dass eine umfassende Qualitätsperspektive auf die Survey-Forschung notwendig ist, welche die dargestellten Eigenheiten der praktischen Survey-Koordination theoretisieren und die durch Survey-Praktiker identifizierten unterschiedlichen Qualitätsauffassungen als Qualitätsfaktoren für die (plurale) Surveypraxis explizieren kann. Abschließend wird in Anlehnung an Karin Knorr-Cetina (Knorr Cetina 2002a, b) und auf Basis einer pragmatischen Epistemologie (Dewey 2008) das für die Arbeit forschungsleitende Konzept im Hinblick auf Survey-Qualität, die sog. „Survey-Pragmatik“, eingeführt.

2.1 Die klassische Trias der Qualitätskriterien in der Survey-Forschung: Objektivität, Reliabilität und Validität

Die klassische Survey-Methodologie stellt die Präzision der Messung ins Zentrum der Qualitätsdiskussion von Surveys. Im Zentrum steht hier das Konzept des True-Values, bzw. des wahren Werts. Ein True-Value ist dabei als ein vor der Befragung existierender Sachverhalt (Einstellungen, objektive Kriterien etc.) gedacht, welcher mittels Befragungstechniken möglichst genau gemessen werden soll (Diekmann 2007, S. 261 ff.; Hansen et al. 1951, S. 149 ff.). Die Qualität der Erhebung misst sich folglich daran, wie präzise dieser Wert durch eine Befragung erhoben wird. Messung stellt aus dieser Perspektive die „Zuordnung von Zahlen zu Objekten“ dar (Stevens 1951, S. 1). Der Input zur Messung sind dadurch zu messende Objekte und die zwischen den Messobjekten bestehende Beziehungen, der Output der Messung ist dann die Abbildung dieser Objekte in Zahlen (Diekmann 2007, S. 279). In der Survey-Methodologie werden Messinstrumente anhand der klassischen Trias von Qualitätskriterien im Hinblick auf ihre Fähigkeit bewertet, möglichst exakt den True-Value zu messen. Das Kriterium der Objektivität bezeichnet die Unabhängigkeit von Messinstrumenten von der das Messinstrument verwendenden Person (Diekmann 2007, S. 249). Messinstrumente weisen folglich eine hohe Objektivität auf, wenn auch beim Gebrauch durch verschiedene Personen die verschiedenen Messungen zu einem vergleichbaren Resultat kommen. Eine vollständige Objektivität liegt dann vor, wenn die Messung auch bei verschiedenen Personen exakt zum selben Verhältnis kommt. Mit Bezug auf Lienert und Raatz (1998) unterscheidet Diekmann zudem die Durchführungs- von der Auswertungsobjektivität. Eine hohe Durchführungsobjektivität besteht dann, wenn unterschiedliche Personen keinen Einfluss auf die Durchführung der Messung haben. Bezogen auf die Survey-Forschung kommt hierbei den interviewenden Personen ein hoher Stellenwert zu. Produzieren unterschiedliche Interviewende ähnliche Resultate bei derselben befragten Person, kann von einer hohen Durchführungsobjektivität gesprochen werden. Eine hohe Auswertungsobjektivität besteht dann, wenn unterschiedliche Personen die Ergebnisse der Auswertung nicht beeinflussen (Diekmann 2007, S. 249). Das Kriterium der Reliabilität bezeichnet die Reproduzierbarkeit von Messergebnissen über mehrere Messungen hinweg. Messinstrumente sind folglich dann reliabel, wenn sie konstante Messergebnisse produzieren. Diekmann verwendet hier als Beispiel die Temperaturmessung durch Thermometer. Diese sind reliabel, wenn sie bei gleichbleibenden Temperaturen konstant dieselben Werte anzeigen (Diekmann 2007, S. 250). Das gemäß Diekmann zentrale Qualitätskriterium der klassischen Qualitätstrias stellt die Validität dar. Denn eine objektive und reliable Messung bringt schlussendlich nichts, wenn nicht auch gemessen wird, was gemessen werden soll. Diekmann verweist dabei auf das Beispiel eines konstanten Lügners. Obwohl eine Befragung dieser Person sowohl objektiv wie auch reliabel sein kann – die Person lügt schließlich konstant – sind die gemessenen Antworten doch nie valide (Diekmann 2007, S. 256). Messinstrumente sind folglich valide, wenn sie auch messen, was inhaltlich gemessen werden soll. Thermometer sollen beispielsweise die Temperatur messen und nicht etwa die Luftfeuchtigkeit wiedergeben. Die klassische Trias der Qualitätskriterien bewertet anhand dreier Kriterien die Abweichung von Messungen von einem True-Value. Wie bereits dargestellt, bedingt dies die Existenz von der Messung unabhängiger Messobjekte und Beziehungen zwischen diesen Messobjekten. Diese Perspektive auf die Qualität der Survey-Produktion kann als Datenperspektive bezeichnet werden.

2.2 Der Total-Survey-Error

Eine der prominentesten Beiträge zur Diskussion von Survey-Qualität stellt der Total-Survey-Error dar. Dieser ist ein Ansatz für die Konzeptualisierung des Gesamtfehlers eines Surveys. Der zentrale Orientierungspunkt im Ansatz des Total-Survey-Errors ist somit auch der wahre Wert, wobei der Gesamtfehler der Befragung das Maß der Abweichung vom wahren Wert beziffern soll. Der Ursprung dieses Ansatzes, wie er sich heute darstellt, lässt sich nicht einfach identifizieren, da er einer stetigen Weiterentwicklung durch verschiedene Survey-Methodologen unterworfen war (Groves und Lyberg 2011, S. 850). Eine umfassende Ausarbeitung dieses Ansatzes der Fehlerkonzeptualisierung von Survey-Erhebungen stammt von Herbert Weisberg aus dem Jahr 2005 (Weisberg 2005). Zentral ist im Total-Survey-Error-Ansatz die Konzeptualisierung von verschiedenen während des Prozesses der Survey-Produktion auftretenden statistischen Fehlern. Unterschieden werden dabei insgesamt sieben verschiedene Fehlertypen: Coverage-Error, Sampling-Error, Nonresponse-Error, Measurement-Error, Postsurvey-Error und zusätzlich Mode-Effects und Comparability-Effects (Weisberg 2005, S. 18 f.). Der Coverage-Error entsteht dann, wenn die Liste, aus welcher die zu befragenden Personen für das Sample gezogen wird, nicht mit den Personen der anvisierten Grundgesamtheit korrespondiert. Die Konsequenz ist in einem solchen Fall, dass nicht alle Personen der Grundgesamtheit eine Chance haben, befragt zu werden. Der Sampling-Error bezeichnet die Differenz der Merkmalsausprägungen zwischen dem Sample (der Stichprobe) und der Grundgesamtheit. Das Ziel einer jeden Sampling-Methode muss es sein, in der Stichprobe möglichst eine Abbildung der Merkmalsausprägungen der Grundgesamtheit darzustellen. Das Ziel ist es folglich, dass in der Stichprobe die Verteilungen und die statistischen Beziehungen zwischen Variablen gleich sind wie in der Grundgesamtheit (Diaz-Bone 2006, S. 132). Nur dadurch ist es möglich, bei der folgenden Befragung auch eine äquivalente Abbildung von Merkmalsausprägungen der Grundgesamtheit zu erhalten, was schlussendlich ermöglicht, mithilfe einer kleinen Stichprobe Aussagen über eine viel größere Grundgesamtheit zu treffen. Der nächste im Total-Survey-Error-Ansatz behandelte Fehler stellt der Nonresponse-Error dar. Hierbei wird zwischen einem Fehler unterschieden, welcher durch ein Unit-Nonresponse oder durch ein Item-Nonresponse entsteht. Der Unit-Nonresponse-Error stellt dabei denjenigen Fehler dar, welcher durch das komplette Nichtbeantworten eines Fragebogens entsteht, während der Item-Nonresponse-Error durch das Nichtbeantworten lediglich einzelner Fragen entsteht. Die nächste Fehlerquelle stellt der Measurement-Error dar. Der Measurement-Error entsteht durch Abweichungen von einem wahren Wert während der Befragung. Beispiele hierfür können sein, dass der Befragte die ihm gestellte Frage falsch versteht, dass er bewusst falsche Antworten gibt oder dass die Frage vom Befrager falsch gestellt wird. Der Postsurvey-Error stellt denjenigen Fehler dar, welcher während der Aufbereitung und Auswertung der Daten entsteht. Beispiele hierfür können vertauschte Zeilen oder Spalten sein oder die unabsichtliche Rundung von Werten etc. Zusätzlich beschreibt Weisberg auch Mode-Effects.4 Dieser Fehler misst den Einfluss der jeweiligen Befragungsmethode auf das Antwortverhalten der Befragten. Auch hier liegt dem Total-Survey-Error-Ansatz die Idee zugrunde, wonach die verschiedenen Modes einen Einfluss auf das Befragtenverhalten haben können, was dazu führt, dass eine Abweichung zwischen dem wahren, vor der Befragung vorliegenden Wert und dem tatsächlich gemessenen Wert vorliegt. Comparability-Effects schlussendlich bezeichnen die Abweichung zwischen verschiedenen Erhebungen (welche beispielsweise durch unterschiedliche Survey-Firmen oder in unterschiedlichen Ländern durchgeführt wurden), welche sich nicht auf Unterschiede im Sample zurückführen lassen, sondern auf Unterschiede in der Survey-Administration (Weisberg 2005, S. 297 ff.).
Gemäß Robert Groves und Lars Lyberg stellt der Total-Survey-Error-Ansatz aktuell die zentrale Fehlerkonzeption der Survey-Forschung dar (2011, S. 849 f.). Dies ist wohl nicht zuletzt deswegen der Fall, da er durch verschiedene prominente Survey-Methodologen über die Zeit konstant weiterentwickelt wurde (Groves und Lyberg 2011, S. 851 ff.). Dennoch wurde dieser Ansatz auch kritisiert. Groves und Lyberg formulieren drei Kritiken daran. Zunächst kritisieren sie, dass der Total-Survey-Error-Ansatz zwar eine umfassende Perspektive für Identifikation verschiedener Fehlerquellen bietet. Problematisch sei jedoch, dass dies in der Survey-Praxis kaum systematisch gemacht werde und dass diese Perspektive bis jetzt nicht systematisch ins Qualitätsmanagement von Survey-Projekten eingebaut wurde (Groves und Lyberg 2011, S. 865). Die zweite Kritik wird aus der Warte einer Prozessperspektive auf die Survey-Qualität formuliert. Kritisiert wird der fehlende Miteinbezug von Qualitätsmassen jenseits der Statistik. Insbesondere fehlt gemäß Groves und Lyberg der Miteinbezug einer Anwenderperspektive Groves und Lyberg 2011, S. 861 ff.). Zudem sehen sie im Total Survey-Error-Ansatz einen Fokus auf Fehlerquellen bei der Erstellung von univariaten Statistiken. Groves und Lyberg kritisieren deswegen die fehlende Berücksichtigung bei der Erstellung von multivariaten Statistiken (Groves und Lyberg 2011, S. 867).
Deutlich wird damit insgesamt, dass auch der Total-Survey-Error der Datenperspektive zuzurechnen ist.5 Denn Survey-Qualität wird hier definiert als Minimieren des Survey-Errors während der Produktion von surveybasierten Daten. Survey-Qualität wird damit negativ definiert als das Abweichen von einem wahren Wert und als Eigenschaft, welche lediglich in den Daten selbst vorliegt. Dadurch wird auch deutlich, dass der Total-Survey-Error eigentlich über keine (positive) Messtheorie verfügt, da Survey-Qualität lediglich negativ über das Fehlen von Messfehlern konzipiert wird (Diaz-Bone 2018a).

2.3 Sozialwissenschaftliche Perspektiven auf das standardisierte Interview und den Survey-Error

In der Survey-Methodologie nahmen und nehmen Diskussionen zur Erreichung der klassischen Qualitäts-Trias von Objektivität, Reliabilität und Validität einen hohen Stellenwert ein. Frühe Konzepte der Befragung orientierten sich an einer möglichst hohen Standardisierung des Inputs. Als beispielhaft für eine strenge Standardisierung gelten in der Survey-Literatur die Arbeiten von Floyd Fowler und Thomas Mangione (1990).6 Ein früher Vorläufer für diese Forderung einer starken Standardisierung der Befragung und dabei insbesondere des Befragenden-Verhaltens stellt „Interviewing in social research“ von Herbert Hyman dar (Hyman 1962). Das Ziel einer starken Standardisierung bei der Befragung liegt dabei im Erreichen einer hohen Durchführungsobjektivität (Diekmann 2007, S. 249). Denn durch die Standardisierung soll der Einfluss der Person auf die Messung verringert und dadurch eine Interviewerabhängigkeit der Messung verhindert werden. Etwas erstaunt kann man deswegen sein, wenn man die Diagnose von Herbert Weisberg zur Kenntnis nimmt, wonach die Survey-Methodologie bis in die 1990er Jahre weitgehend a-theoretisch blieb (2005, S. 12).7 Die umfassende Standardisierung der Befragung, so Weisberg, liegt demnach nicht in einer strengen sozialwissenschaftlichen Messtheorie begründet, sondern eher in der Hoffnung, dass eine generelle Standardisierung per se vergleichbarere Resultate hervorbringe.8 Gemäß Weisberg waren es ab den 1990er Jahren9 Theorien aus angrenzenden sozialwissenschaftlichen Disziplinen, welche die Survey-Forschung und ihre Methodologie um verschiedene theoretische Konzepte ergänzten (Weisberg 2005, S. 11 ff.). Die Befruchtung durch sozialwissenschaftliche Theorien lässt sich unschwer an aktuellen Lehrbüchern der Survey-Forschung ablesen. Nebst Fragen zur Stichprobenziehung, Non-Response, statistischen Prozeduren etc., finden sich in aktuellen Publikationen zur Survey-Methodologie Kapitel zur Befragungssituation, zur Interviewerschulung, zum Design von Fragebögen, der Frageformulierung und zum Management der Befragtenbeziehung (vgl. hierzu Groves et al. 2009; Schnell 2012; Dillman et al. 2014), bzw. existieren auch ganz auf diese Subfelder spezialisierte Publikationen (Tourangeau und Bradburn 2010; Porst 2000). In den folgenden Absätzen werden sozialwissenschaftliche Perspektiven auf die Befragung dargestellt, welche einen nachhaltigen Einfluss auf die Survey-Methodologie hatten. Gemeinsam ist ihnen, dass sie theoriebasierte Perspektiven auf die Erhebungssituation darstellen. Der Zweck dieser Arbeiten ist es dabei meist, die Validität der Erhebung zu steigern und so eine höhere Datenqualität zu erzielen.
Eine der ersten sozialwissenschaftlichen Theorien, welche durch die Survey-Forschung prominent rezipiert wurde, ist die psychologische Kognitionstheorie. Roger Tourangeau und Norman Bradburn identifizieren als Vorläufer der Verwendung der psychologischen Kognitionstheorie in der Survey-Forschung die bereits 1976 erschienene Studie „Response Effects in Surveys“ von Seymor Sudman und Norman Bradburn (Sudman und Bradburn 1976). Diese habe den Fokus der Survey-Forschung auf die Befragung als eigene Herausforderung der Survey-Produktion gelegt (Tourangeau und Bradburn 2010, S. 316 ff.). Das zentrale Moment des Bezugs der Kognitionstheorie auf Herausforderungen der Survey-Forschung stellte jedoch das im Jahr 1983 abgehaltene Seminar „Advanced Research Seminar on Cognitive Aspects of Survey Methodology“ dar. Hier wurden zentrale Perspektiven der Kognitionstheorie begründet und in folgenden Kongressen weiter ausdifferenziert. So wurde insbesondere die zentrale Heuristik für die Konzeptualisierung des kognitiven Ablaufs der Fragebeantwortung hier begründet (Tourangeau und Bradburn 2010, S. 316). Der Beantwortungsprozess wird hier in vier unterschiedliche Schritte: Das Verstehen, das Abrufen von Informationen, das Bewerten der Frage, bzw. Einschätzen der Antwort und die Beantwortung der Fragen unterteilt (Tourangeau und Bradburn 2010, S. 317). Diese erste Zusammenkunft und die Entwicklung der Beantwortungs-Heuristik führte im Endeffekt zu einer Sichtbarmachung und Akzeptanz dieser neuen Forschungsrichtung innerhalb der Survey-Methodologie (Tourangeau und Bradburn 2010, S. 316). Zentrale Monografien zur psychologischen Kognitionstheorie in der Survey-Forschung stammen von Norman Bradburn, Seymour Sink und Brian Wansink (2004), welche sich primär mit der Gestaltung von Fragebögen befassen und von Tourangeau et al. mit dem Werk „The psychology of survey response“ (2000).10 Der grundlegende Beitrag der Kognitionstheorie zur Survey-Methodologie liegt in der Problematisierung des Interpretations- und Beantwortungsprozesses von Survey-Fragen. Die Kognitionstheorie trug so maßgeblich zu einer verbesserten, weil verständlicheren Formulierung von Survey-Fragen und einem übersichtlicheren Design von Fragebögen bei (Tourangeau und Bradburn 2010; Sirken 1999).
Eine weitere Forschungsrichtung, welche sich für die Survey-Methodologie als fruchtbar erwiesen hat, ist die Ethnomethodologie.11 Kritisiert wird hier die auf individuelle Handlungen und Verständnisse fokussierte Perspektive einerseits generell der Survey-Forschung, andererseits aber auch der psychologischen Kognitionstheorie (Schaeffer und Maynard 1996, S. 83). Das Gründungsmoment der ethnomethodologischen Perspektive auf die Befragung lässt sich nicht ohne weiteres bestimmen.12 Eine frühe und prominente Kritik an standardisierten Interviews wurde von Aaron Cicourel artikuliert (1974), welche die Grundlage für weitere ethnomethodologisch fundierte Arbeiten darstellt. Cicourel betont den doppelten Charakter von Befragungen, welche ihm zufolge zugleich soziale und methodische Situationen darstellen. Methodische Fragestellungen können dadurch nicht von sozialen Verstehensprozessen getrennt werden (Cicourel 1974, S. 112). Deswegen ist es für Cicourel zentral, interpretative Verstehensprozesse in Befragungssituationen als ein zentrales Element für die Qualität der Befragung zu verstehen und zu einem Gegenstand empirischer Forschung zu machen (Cicourel 1974, S. 119 f.). Wie in Abschn. 2.5.1 aufgearbeitet wird, formuliert Cicourel darüber hinaus eine umfassende Kritik an der standardisierten Survey-Forschung. Für die folgend dargestellte ethnomethodologische Perspektive auf die Befragungssituation ist jedoch die Erkenntnis von Cicourel zentral, wonach die Befragungssituation gleichzeitig methodische und soziale Aspekte aufweist. Eine für die Survey-Methodologie wichtige empirische Umsetzung erfuhr diese Perspektive in der Arbeit von Lucy Suchman und Brigitte Jordan zu „Interactional Troubles in Face-to-Face Survey Interviews“ (1990). Zentrale Publikationen, in welchen die ethnomethodologische Perspektive auf die Survey-Forschung umfassend artikuliert wird, umfassen einerseits das von Douglas Maynard herausgegebene Sammelwerk „Standardization and tacit knowledge. Interaction and practice in the survey interview“ (2002) und die von Hanneke Houtkoop-Steenstra verfasste Monographie „Interaction and the standardized survey interview“ (2000). Aus der Sicht von Suchman und Jordan ist das Interview – wie bereits durch Cicourel beschrieben – sowohl ein methodisches, wie auch ein soziales Ereignis (1990, S. 232). Die Spezifität der Interviewsituation entsteht demnach gerade durch die ungelöste Spannung zwischen beiden Eigenheiten. Die weitgehende Standardisierung – welche die wissenschaftliche Messgenauigkeit gewährleisten soll – störe die Eigenschaft von Interviewsituationen als sozialem Ereignis, was im Endeffekt auf die Messgenauigkeit zurückwirkt. Denn insbesondere bei unklaren Fragen oder offensichtlich sinnlosen Antwortvorgaben verunmögliche eine strenge Standardisierung gesellschaftlich verankerte Reparaturmechanismen (Suchman und Jordan 1990, S. 232).13 Sie plädieren in der Folge für eine Form der Standardisierung, welche den Fragesinn und nicht die Frageformulierung standardisieren will, was eine höhere Datenqualität gewährleisten soll. Douglas Maynard und Nora Schaeffer schlagen zur Verbindung zwischen den methodischen und den sozialen Eigenschaften der Befragungssituation das Konzept der „Analytic Alternation“ vor. Dieses soll durch den ständigen Wechsel zwischen den Vorgaben für ein standardisiertes Interview und den Ethnomethoden kompetenter Gesellschaftsmitglieder eine Integration beider Aspekte bei der Befragung ermöglichen (Maynard und Schaeffer 2002). Michael Schober und Frederick Conrad weisen auf die grundsätzliche Unmöglichkeit einer neutralen Interviewposition hin, da auch ein Schweigen von einer interviewten Person als Hinweis gedeutet werden kann (2002). Houtkoop-Steenstra weist auf die problematische Annahme eines Stimulus- Response-Modells hin, wie es von Anhängern strikter Standardisierung vertreten wird, demgemäß der Sinngehalt einer Aussage direkt dem Wortlaut entspringe. Verschiedene interviewte Personen können eine dem Wortlaut nach identische Frage durch unterschiedliche persönliche Hintergründe jedoch anders interpretieren (Houtkoop-Steenstra 2000, S. 180 ff.).
Auf der theoretischen Grundlage des symbolischen Interaktionismus untersuchte Jean Peneff Interviewstrategien von INSEE14-Befragenden in Frankreich (Peneff 1988). Trotz des methodischen Hintergrundes ist die Interviewsituation für ihn zunächst eine soziale Situation, welche es durch die Befragenden zu bewältigen gilt. Den Befragenden kommt in seiner Perspektive die Aufgabe zu – analog zur Arbeit von Suchman und Jordan – die methodischen Ansprüche an die vorliegende soziale Situation zu vermitteln. Wie Peneff feststellt, ist dabei ein persönliches Passungsverhältnis zwischen den Mitarbeitenden des INSEE und den interviewten Personen ein wichtiger Aspekt der Vermittlung von methodischen Ansprüchen an die soziale Situation. Die formalen Vorgaben für das Durchführen von Surveys scheinen für die Mitarbeitenden im Feld jedoch oft unmöglich eins zu eins umsetzbar zu sein, da ihnen zufolge beispielsweise eine formale Anfrage für ein Interview kaum zum Erfolg führen würde. Neben dieser Überzeugungsarbeit durch die Mitarbeitenden, die zu interviewenden Personen auch zum Mitmachen zu bewegen, ist es für die Mitarbeitenden eine stete Herausforderung, die interviewten Personen darüber hinausgehend zu einer aktiven Gesprächsteilnahme zu bewegen. Es ist aber genau dieses Motivieren, welches in der formalen Aufgabenstellung nicht vorgesehen oder gar verboten ist (Peneff 1988, S. 526 ff.). Peneff hält weiter fest, dass diese Leistung der Mitarbeitenden durch die leitenden Personen am INSEE nicht wahrgenommen wird, auch weil die Feldarbeit für sie eben ein rein methodisches Problem ist und kein soziales. Diese vielfältigen sozialen Fähigkeiten seien jedoch eine Bedingung – und nicht etwa ein störender Faktor, wie dies Peneff in der klassischen Survey-Methodologie beschrieben sieht – für eine erfolgreiche Feldarbeit (Peneff 1988, S. 522).
Eine umfassende Perspektive auf den Antwortprozess schlagen Bachleitner et al. mit einer prozessorientierten Theorie der Umfrageforschung vor. Erstaunt stellen sie fest, dass trotz der für die Sozialforschung nach wie vor geltenden Beurteilung von Befragungen als Königsweg der Soziologie,15 bisher keine umfassende Theoretisierung der Befragung existiere (Bachleitner et al. 2010, S. 11 ff.). Sie verweisen in diesem Zusammenhang auf die enge Kopplung zwischen Methoden, Methodologie und Theorien bei qualitativen Ansätzen, welche in der Form noch kein Pendant in der quantitativen Sozialwissenschaft gefunden habe. Zudem sehen sie räumliche, zeitliche und emotionale Einflüsse auf die Befragung im Diskurs der Survey-Methodologie unterrepräsentiert (Bachleitner et al. 2010, S. 13 ff.). Aufbauend auf Hartmut Essers Frame-Selection-Theory sehen sie den Antwortprozess als Koordination folgender Elemente: Dem Modus der Befragung, der spezifischen Situation (charakterisiert durch räumliche, zeitliche und soziale Bedingungen), dem Fragebogen (spezifiziert durch das Befragungsthema und dessen Struktur) und schlussendlich des Befragten und dessen spezifischen Antwortverhaltens (Bachleitner et al. 2010, S. 139 ff.).
Eine umfassendere theoretische Einbettung der Beziehung von Befragenden zu Befragten führten Don Dillman, Jolene Smyth und Leah Melani Christian mit dem Bezug der Social-Exchange-Theory auf survey-methodologische Fragestellungen ein (Cook 2006; Dillman et al. 2014, S. 23 ff.). Diese Beziehung wird hier als soziale Austauschbeziehung verstanden, in welcher sich Vor- und Nachteile für den Befragten die Waagschale halten müssen, wobei dem Vertrauen eine zentrale Eigenschaft bei der Herstellung dieser Austauschbeziehung zukommt (Dillman et al. 2014, S. 21). Damit wollen Dillman et al. die Perspektive der Befragten auf Surveys zum zentralen Bezugspunkt der Beziehung zwischen Survey-Forschern, bzw. Befragenden und Befragten machen. Dillman et al. konstatieren dabei einen bisherigen Mangel an holistischen Theorien, welche die Erkenntnisse einzelner Arbeiten, beispielsweise zu spezifischen Eigenschaften von Modes16 oder zu Frageformulierungen, in ein gesamthaftes Design integrieren können (Dillman et al. 2014, S. 24). Einen zentralen Stellenwert sprechen Dillman et al. auf Basis der Social-Exchange-Theory dem Einsatz von unbedingten Incentives zu. Der Erhalt dieser unbedingten Incentives ist nicht an eine Survey-Teilnahme gebunden. Gemäß ihnen helfen diese, den sozialen Austauschcharakter von Surveys zu verdeutlichen und den Vertrauensaufbau zu unterstützen (Dillman et al. 2014, S. 30). Das Ziel der Theoretisierung der Beziehung zwischen Survey-Forschern und Befragten liegt im Unterschied zu bisher besprochenen Ansätzen weniger in einer Erhöhung der Validität der Befragung, sondern in der Erhöhung der Response- Rate (Dillman et al. 2014, S. 5). Im Hinblick auf den Total-Survey-Error liegt der Beitrag von Dillman et al. folglich im Aufzeigen von Methoden der Senkung des Nonresponse-Errors.
In den letzten Absätzen wurden verschiedene sozialwissenschaftliche Perspektiven auf das standardisierte Interview vorgestellt. Mit der Ausnahme von Dillman et al. fokussieren die verschiedenen Perspektiven auf das standardisierte Interviews primär auf die Validität des Erhebungsprozesses. Der Einbezug der Social-Exchange-Theory durch Dillman et al. dient der Senkung des Nonresponse-Errors. Sämtliche Perspektiven folgen damit einer Datenperspektive, da durch die verschiedenen Theoretisierungen und empirischen Studien eine Verbesserung von survey-basierten Daten im Hinblick auf die klassischen Qualitätskriterien Objektivität, Reliabilität und Validität angestrebt wird.

2.4 Die Prozessperspektive auf Survey-Qualität in der öffentlichen Statistik und der Marktforschung

Bereits in der ethnografischen Arbeit von Jean Peneff wird ein erweiterter Fokus auf Koordination und Qualität in Surveys im Vergleich zu den kognitionspsychologischen und ethnomethodologischen Arbeiten deutlich. Sein Fokus richtet sich nicht mehr nur auf die Erhebungssituation selbst, sondern auf die vor- und nachlaufenden Situationen der Kontaktaufnahme und der Verabschiedung (Peneff 1988). Trotz dieser Ergänzung thematisiert Peneff jedoch ausschließlich eine Erhöhung der Validität der Daten. Auch Dillman et al. fokussieren nicht alleine auf die Befragungssituation, sondern sehen den Aufbau von Vertrauen auch in den der Befragung vor- und nachlaufenden Situationen begründet (Dillman et al. 2014). Noch deutlicher wird ein erweiterter Qualitätsfokus in den Ausführungen von Giampetro Gobo und Sergio Mauceri. Diese betrachten Surveys als eine Übersetzungskette von qualitativen Bedeutungen mittels Zahlen. Ein zentrales Qualitätskriterium für Surveys sehen sie in der Folge in der Kapazität von Surveys, den subjektiv gemeinten Sinn bis zum Forscher transportieren zu können (Gobo und Mauceri 2014, S. 220). Klar wird so, dass eine auf den Kriterien Objektivität, Reliabilität und Validität aufbauende Qualitätsperspektive diesen Qualitätsaspekt nicht abzudecken vermag. Gobo und Mauceri entwickeln so eine Perspektive auf die Survey-Forschung, in welcher der gesamte Prozess der Produktion von survey-basiertem Wissen als Qualitätsfaktor von Survey-Qualität aufgefasst wird. Die klassische Trias der Gütekriterien stellt aus dieser Perspektive zwar auch ein wichtiges Qualitätskriterium dar, es ist jedoch unvollständig.
In einigen Publikationen der Survey-Methodologie werden auch praktische Koordinationsprobleme als Faktoren für eine hohe Survey-Qualität thematisiert, wenn auch am Rande. Dillman et al. verweisen auf Pretests von Fragebögen als guter Möglichkeit, die Koordination mit der beauftragten Survey-Firma mitzutesten (2014, S. 251). Dillman et al. betrachten folglich die interorganisationale Koordination als potentielle Herausforderung für die Survey-Praxis, theoretisieren diese jedoch nicht weiter. Die Verknüpfung zwischen der Durchführung eines Pretests des Fragebogens und einem Test der Koordination mit Survey-Firmen schlägt auch Rainer Schnell vor (2012, S. 155). Schnell geht aber noch weiter, in dem er die unterschiedlichen Funktionslogiken und Einbettungen der akademischen, der öffentlichen und der kommerziellen Survey-Forschung darstellt (Schnell 2012, S. 367 ff.). Er verweist auf strukturelle Reibungspunkte und Koordinationsschwierigkeiten in Survey-Projekten, welche durch die unterschiedlichen Einbettungen und Orientierungen begründet sind.17 Deutlich wird jedoch, dass zwar auf Koordinationsprobleme in Survey-Projekten jenseits der Erhebungssituation verwiesen wird, diese jedoch weder systematisiert noch mittels Qualitätskriterien für andere Survey-Projekte operationalisiert werden.
Eine explizite Erweiterung, insbesondere im Hinblick auf die Einführung zusätzlicher, neuer Qualitätskriterien, erfuhr die Datenperspektive ab den späten 1990er Jahren. Federführend waren dabei verschiedene Statistikagenturen, welche den alleinigen Fokus auf die Präzision der Datenerhebung als unzulänglich für eine Beschreibung des Wissensproduktionsprozesses durch Surveys empfanden (Brackstone 1999; Eurostat 2000; Statistics Canada 2009; Lyberg und Biemer 2008).18 Es wurden weitere Qualitätskriterien für die Survey-Erhebung eingeführt wie die Relevanz, Genauigkeit, Zeitlichkeit, Zugänglichkeit, Vergleichbarkeit, Kohärenz und Vollständigkeit von statistischen Daten (Eurostat 2000; Desrosières 2009a) sowie die Interpretierbarkeit (Brackstone 1999). Die Einführung dieser erweiterten Qualitätskriterien basiert auf der Feststellung, dass objektive, reliable und valide Daten alleine noch keine für den Verwendungszweck passenden Daten garantieren. In den verschiedenen Qualitätskriterien zeigt sich insbesondere das Anliegen der öffentlichen Statistik, eine breite Informationsgrundlage für die Öffentlichkeit bereitzustellen. Diese erweiterte Koordinations- und Qualitätsperspektive wurde durch Paul Biemer und Lars Lyberg aufgenommen und weiter ausgearbeitet.19 Eine zentrale Rolle nimmt für sie im Hinblick auf die Qualität der Survey-Produktion dabei das Qualitätsmanagement ein. Ein System für das Management von Survey-Qualität bedingt jedoch einer Einigkeit über die zu erreichende Qualität. Sie verweisen auf die unzulängliche Qualitätskonzeption alleine durch statistische Maße (Lyberg und Biemer 2008, S. 424 f.). Neben die Genauigkeit der statistischen Daten setzen sie in Anlehnung an verschiedene Statistikämter beispielsweise die Zeitlichkeit des Erhalts der Survey-Daten als Qualitätsfaktoren. Bereits am Beispiel dieser zwei Qualitätsdimensionen lasse sich zudem ein Zielkonflikt feststellen, da eine präzisere Datenerhebung in der Regel auch mehr Zeit beanspruche.20 Die Lösung für solche Zielkonflikte liegt für Biemer und Lyberg darin, Qualitätskriterien der Herstellung von Daten mit Blick auf die Anwendung der Daten zu bewerten.21 Die praktische Umsetzung eines solchen „fitness for use“ Qualitätskonzeptes (Juran und Gryna 1980), bzw. auch „fitness-for-the purpose“ (Collins und Sykes 1999, S. 57), ist jedoch in der Praxis gemäß Biemer und Lyberg nicht immer einfach. So ist gemäß ihnen beispielsweise das Verhältnis zwischen dem Survey-Error und den Survey-Kosten in der Praxis oft unklar.22 Einen zentralen Koordinations- und damit Qualitätsfaktor sehen sie außerdem in der Organisationskultur der beauftragten Survey-Firma. Denn diese bestimme, welche Methoden und Praktiken akzeptabel seien. Als Beispiele nennen sie hierbei die Involviertheit der Auftraggeber in den Survey-Prozess, die Konzeption akzeptabler Antwortraten, Methoden des Interviewertrainings und der Interviewerüberwachung sowie die Dokumentation der Datenqualität (Lyberg und Biemer 2008, S. 434).
Nicht nur in der öffentlichen Statistik wurden zusätzliche Situationen als Ursache von Koordinations- und Qualitätsproblemen identifiziert. Auch in der Marktforschung – bzw. noch grundlegender aus der Perspektive von privatwirtschaftlichen Survey-Firmen – wurden in Absetzung von der Datenperspektive erweiterte Qualitätskriterien für Survey-Projekte definiert. Gerhard Zaltman und Christine Moorman (1988) und Moorman et al. (1993) weisen auf die zentrale Rolle von Vertrauen für geschäftliche Beziehungen zwischen Auftraggebenden und Survey-Firmen hin und erwähnen verschiedene Eigenschaften der Survey-Projektleitung, welche Vertrauen generieren. Sie kommen dabei zum Schluss, dass der persönlichen Beziehung in der Herstellung von Vertrauen das größte Gewicht bei den vertrauensgenerierenden Faktoren zukommt (Moorman et al. 1993). Die Herausforderung der interorganisationalen Koordination in Survey-Projekten wird auch in Lehrbüchern zur Marktforschung angesprochen, etwa wenn die persönliche Chemie zwischen Auftraggebenden und Auftragnehmern als Kriterium für das Gelingen von Marktforschung dargestellt wird (Fankhauser und Wälty 2011, S. 115). Werner Wyss verweist auf die oft unklare Rollenverteilung bei Marktforschungsprojekten: „Die Unklarheit kommt daher, dass die meisten Marktforschungsfirmen gleichzeitig für die Planung und die Ausführung des Projekts zuständig sind, während die Auftraggeber sie oft als rein ausführende Instanz betrachten“ (Wyss 1991, S. 97).
Die Problematisierung und anschließende Konzeptualisierung der Anwendungssituation durch Biemer und Lyberg wie auch der Verweis auf die Rolle von Vertrauen und einer „persönlichen Chemie“ zwischen Auftraggeber und Survey-Firma durch Publikationen der Marktforschung zeigen auf, dass es nicht nur der Interaktionsprozess zwischen Antwortenden und Fragebogen ist, welcher methodische Probleme in survey-basierten Erhebungen verursachen kann. Mit der Prozessperspektive wird folglich das Survey-Management als zusätzlicher Qualitätsfaktor für survey-basierte Daten etabliert. Es findet folglich eine Ausweitung der Qualitätsperspektive auf Koordination in der Produktion von survey-basierten Daten statt, indem zusätzliche Situationen nebst der Erhebungssituation als Ursache von methodischen Problemen mit analysiert werden. Daten werden dadurch nicht mehr als a-temporale und a-situative Produkte verstanden, sondern deren Verwendungskontext wird als zentraler Qualitätsfaktor eingeführt. Dies wird direkt in den durch verschiedene Statistikämter eingeführten erweiterten Qualitätskriterien deutlich (Desrosières 2009a; Eurostat 2000; Statistics Canada 2009). Denn hier wird sichtbar, dass objektive, reliable und valide Daten alleine noch keinen guten Survey ausmachen. Die beschriebenen Kriterien der Relevanz, Genauigkeit, Zeitlichkeit, Zugänglichkeit, Vergleichbarkeit, Kohärenz und Vollständigkeit sind genauso zentral für eine hohe Survey-Qualität, da objektive, reliable und valide Daten nichts nützen, wenn die Erhebung nicht gleichzeitig auch eine hohe Relevanz, eine passende Zeitlichkeit etc. aufweist (Lyberg und Biemer 2008, S. 424). Dasselbe trifft auf die Perspektive der Marktforschung zu. Eine hohe Datenqualität gemäß der klassischen Trias der Survey-Forschung als einzige Qualität eines Surveys ist auch aus dieser Perspektive nicht in der Lage Survey-Qualität ausreichend abzubilden. Vertrauen als zentrale Qualität der Zusammenarbeit stellt hier ein Mittel dar, um eine erfolgreiche Zusammenarbeit sicherzustellen, welche auf die Bedürfnisse des Kunden zugeschnittene Daten garantieren soll. Auch hier wird ein Survey als Prozess betrachtet, in dem in verschiedenen Situationen Survey-Qualität produziert wird. Zentral ist dabei der Bezug dieses Prozesses auf die Anwendungssituation der Daten, da darin die notwendigen Kriterien definiert werden, welchen die Daten schlussendlich genügen müssen. Dies begründet auch die Nähe der dargestellten Ansätze zum Konzept des „fitness-for-use“ (Juran und Gryna 1980). Der Unterschied insbesondere zu den Qualitätsperspektiven der öffentlichen Statistik und Biemer und Lyberg besteht jedoch darin, dass in den letzteren explizit Kriterien definiert werden, welchen Survey-Daten genügen müssen. Die Prozessperspektive in der Marktforschung stützt sich hingegen stärker auf allgemeine Strategien für eine erfolgreiche Survey-Produktion. Zusätzlich werden von Biemer und Lyberg auch Wege aufgezeigt, wie beispielsweise mittels eines umfassenden Qualitätsmanagementsystems die dargestellten Qualitätskriterien auch erreicht werden können (Lyberg und Biemer 2008).
Die dargestellten Publikationen der öffentlichen Statistik sowie Biemer und Lyberg fokussieren stark auf die Perspektive der Datenanwender (Lyberg und Biemer 2008), während Publikationen zur Marktforschung stärker einen Fokus auf die Zusammenarbeit zwischen Survey-Firma und Auftraggeber bei der Survey-Produktion legen (Zaltman und Moorman 1988; Moorman et al. 1993). Bereits in diesem Vergleich lässt sich eine unterschiedliche Organisation der Statistik-Produktion identifizieren. Die Ausgangslage der Marktforschung besteht – den Qualitätskonzepten des Vertrauens und der persönlichen Chemie folgend – darin, gemeinsam mit dem Auftraggeber die Statistik-Produktion zu planen. Bei der öffentlichen Statistik besteht die Ausgangslage der Qualitätsdiskussion im Gegensatz darin, Statistikprodukte zu produzieren, welche später auch für die Statistik-Konsumenten als Endnutzer der produzierten Daten relevant, interpretierbar, vergleichbar etc. sind. In den unterschiedlichen Qualitätsstrategien der öffentlichen Statistik einerseits und der Marktforschung andererseits, spiegelt sich folglich eine unterschiedliche Ausrichtung der Statistikproduktion. Die Marktforschung bezieht sich auf ein Wissensbedürfnis des Auftraggebers, während sich die öffentliche Statistik an einem öffentlichen Informationsbedürfnis orientiert. Obwohl beide Perspektiven die Anwendungssituation als wichtigen Qualitätsfaktor gegenüber der Datenperspektive stark machen, werden zwischen der öffentlichen Statistik und der Marktforschung folglich unterschiedliche Lösungswege ersichtlich, wie die Ausrichtung an der Anwendungssituation von Daten bewältigt werden soll. Es zeigen sich folglich in den dargestellten Publikationen diejenigen Unterschiede zwischen den beiden unterschiedlichen Verwendungskontexten von Survey-Daten, welche sich auch in den in der Einleitung zu diesem Kapitel erwähnten ersten Ergebnisse von Interviews mit verschiedenen Survey-Praktikern gezeigt haben. In den erweiterten Qualitätskriterien werden folglich sowohl unterschiedliche Qualitätsvorstellungen, wie auch unterschiedliche Koordinationsformen zwischen der öffentlichen Statistik einerseits und der Marktforschung andererseits reflektiert.

2.5 Die Entwicklung einer pragmatischen Perspektive auf Survey-Qualität

Die durch verschiedene Statistikämter angestoßene und durch Biemer und Lyberg weiterentwickelte und prominent im Diskurs der Survey-Methodologie platzierte Qualitätsperspektive wurde als Prozessperspektive bezeichnet. Damit sollte deutlich gemacht werden, dass diese Perspektive auf die Qualität von Survey-Daten nicht nur die Daten selbst, sondern insbesondere auch den Anwendungskontext der Nutzung von survey-basierten Daten mit in die Bewertung von Survey-Qualität einbezieht. Der zentrale Beitrag der Prozessperspektive zur Qualitätsdiskussion in der Survey-Methodologie besteht folglich im Einbezug zusätzlicher Stationen der Survey-Produktion. Ebenfalls der Prozessperspektive zugerechnet wurden Publikationen zur Qualität der Zusammenarbeit zwischen Auftraggeber und -nehmer in der Marktforschung. Auch hier werden zusätzliche Stationen der Survey-Produktion als qualitätsrelevant für die produzierten Daten betrachtet. Obwohl beide Ansätze zusätzliche Stationen der Survey-Produktion als relevant für die Survey-Qualität betrachten, so unterscheiden sie sich doch voneinander in zentralen Punkten. Einerseits nehmen Biemer und Lyberg auf der Basis der Vorarbeit der verschiedenen Statistikämter eine starke Anwendungsperspektive. Sie benennen verschiedene Qualitätskriterien, welche die verschiedenen Ansprüche reflektieren, die sich durch die Nutzung von Daten ergeben (Lyberg und Biemer 2008). Damit artikulieren sie eine Anwendungsperspektive, welche im Diskurs der Marktforschung nicht auftaucht. Andererseits unterscheiden sich die Ansätze von Biemer und Lyberg und der Diskurs der Marktforschung in deren Perspektive auf die Qualität der Koordination zwischen Auftraggeber und Auftragnehmer bei der Produktion von Survey-Daten. Biemer und Lyberg verweisen auf unterschiedliche Organisationskulturen (Lyberg und Biemer 2008, S. 433 f.) und schlagen die Nutzung eines Qualitätsmanagements für das reflexive Monitoring der Arbeit der Survey-Firma vor (Lyberg und Biemer 2008, S. 435 ff.). Im Gegensatz dazu ist „Vertrauen“ zwischen Auftraggeber und Auftragnehmer das zentrale Qualitätskonzept im Diskurs der Marktforschung und entsprechend nehmen Strategien zum Vertrauensaufbau und -erhalt einen hohen Stellenwert ein (Moorman et al. 1993; Zaltman und Moorman 1988). Aus diesem kurzen Vergleich wird deutlich, dass sich die beiden Diskursstränge trotz der Einführung zusätzlicher qualitätsrelevanter Stationen der Survey-Produktion in deren Fokus und vorgeschlagenen Maßnahmen für eine hohe Survey-Qualität unterscheiden.
Hier wird argumentiert, dass diese Unterschiede zwischen den beiden Diskurssträngen der öffentlichen Survey-Forschung auf der einen Seite und derjenigen der Marktforschung auf der anderen Seite nicht lediglich unterschiedliche Perspektiven auf dasselbe Problem darstellen, sondern das Produkt einer unterschiedlichen Zielsetzung und Koordinationslogik in den beiden Bereichen der Survey-Forschung darstellen. Das zu Beginn dieses Kapitels artikulierte Ziel der vorliegenden Arbeit, eine Praxisperspektive auf die Survey-Koordination zu entwerfen, kommt deswegen nicht darum herum, diese unterschiedlichen Zielsetzungen und Koordinationslogiken systematisch zu untersuchen. Sichtbar wird dadurch, dass die Perspektivenerweiterung der Prozessperspektive auf verschiedene Stationen des Survey-Prozesses nicht ausreicht, um diese unterschiedlichen Zielsetzungen und Koordinationslogiken erfassen und analysieren zu können und als grundlegenden Beitrag zu einer hohen Survey-Qualität verstehen zu können. Denn wie im vorhergehenden Kapitel deutlich wurde, ist die durch die öffentliche Statistik, aber auch durch die Marktforschung vorgenommene Erweiterung der Datenperspektive selbst unterschiedlich ausgerichtet. Dies zeigte sich einerseits an unterschiedlichen Schwerpunksetzungen im Hinblick auf die Identifikation von neuralgischen Stationen der Produktion von Survey-Qualität, andererseits aber auch in einer unterschiedlichen Festlegung von Maßnahmen zur Erreichung von „Survey-Qualität“. In der Prozessperspektive lassen sich folglich unterschiedliche Paradigmen auf die Herstellung von „Survey-Qualität“ identifizieren. Die unterschiedlichen Qualitäts-Paradigmen der öffentlichen Statistik und der Marktforschung machen aber auch deutlich, dass eine Pluralität an Qualitätsrahmen für die Bewertung verschiedener Survey-Projekte notwendig ist, um den unterschiedlichen Zielsetzungen und Koordinationslogiken gerecht werden zu können.
Wie zu Beginn dieses Kapitels dargelegt wurde, ist es das Ziel dieser Arbeit, eine umfassende Perspektive auf Survey-Qualität zu entwerfen. Wie aber auch deutlich wurde, finden die durch verschiedene Survey-Praktiker beschriebenen unterschiedlichen „Kulturen“, bzw. Qualitätsrahmen der Survey-Forschung, keinen Gegenpart in der Survey-Methodologie. Die Datenperspektive fokussiert alleine auf Datenqualität und setzt diese mit Survey-Qualität gleich. Die Prozessperspektive konzipiert Survey-Qualität dagegen umfassender und zieht unterschiedliche Stationen der Survey-Produktion als Quellen von Survey-Qualität in ihre Qualitätskonzeption mit ein. Deutlich wurde dabei, dass die Prozessperspektive selbst unterschiedliche Qualitätsrahmen wiederspiegelt. Das Ziel der folgenden Unterkapitel ist es deshalb, das Konzept des Qualitätsrahmens, welches sowohl in der Survey-Praxis wie auch in der Prozessperspektive als Quelle von Survey-Qualität erscheint, konzeptionell zu fassen.
In den folgenden Absätzen wird zunächst die Kritik von Aaron Cicourel an der standardisierten Survey-Forschung aufgearbeitet. Ersichtlich wird hier, dass sich diese nicht auf die Erhebungssituation alleine bezieht und als methodologische Fundamentalkritik verstanden werden muss. Im nächsten Unterkapitel wird die Perspektive der Social Life of Methods eingeführt. Sozialwissenschaftliche Methoden haben aus dieser Perspektive einerseits Ursprünge im Sozialen und wirken auf das Soziale zurück. Daran anschließend wird die Perspektive der EC auf die Produktion von survey-basierten Daten eingeführt. Zentrale Beiträge stammen hier von Alain Desrosières, welcher in verschiedenen Arbeiten die sozialen Ursprünge von Messsystemen herausgearbeitet hat. Mit einem Verweis auf das Messkonzept von Bas van Fraassen wird daran anschließend eine pragmatische Perspektive auf die Qualität von Survey-Daten entwickelt. Mit Bezug auf die Arbeiten der EC und Aaron Cicourel wird dabei der Beitrag von Messsystemen zu Survey-Qualität hervorgehoben. Der wissenschaftstheoretische Beitrag von Karin Knorr-Cetina zur Wissenschaftspraxis und den Wissenspraktiken der Wissenschaft (2002a, b) und die pragmatische Epistemologie von Dewey (2008) werden schlussendlich als Grundlage genommen für die Erarbeitung des Konzepts der Survey-Pragmatik. Dieses stellt verdichtet die Perspektive auf die praktische Herstellung von Survey-Qualität in der empirischen Untersuchung dar.

2.5.1 Die Radikalkritik von Aaron Cicourel an der sozialwissenschaftlichen Messpraxis

Der Wissenschaftstheoretiker Bas Van Fraassen kritisiert die Auffassung von Messung als Darstellung von Realität anhand einer Messapparatur. Diese greift gemäß ihm zu kurz, da erst der Bezug der Resultate einer Messapparatur auf ein (soziales begründetes) Messsystem eine Messung darstellt. Denn das Ziel der Messung liegt in der Produktion von Information, welche mit der alleinigen Zuteilung von Zahlen zu Messobjekten noch nicht gegeben ist. Erst der Bezug von Messdaten auf ein Messsystem produziert folglich Information (van Fraassen 2008, S. 181). Ein Messsystem stellt dabei gemäß van Fraassen einen logischen Raum dar, auf welchen Messresultate, d. h. die Produkte von Messapparaturen, bezogen werden (van Fraassen 2008, S. 2). Messtheoretisch lassen sich so drei Dimensionen einer Messung unterscheiden: Die der sozialen Realität, die der Messapparatur und diejenige des Messsystems. Im Hinblick auf die Wissensgenerierung mittels Surveys bedeutet dies, dass es nicht die Zuteilung von Zahlen zu Antworten ist, welche Information produziert, sondern vielmehr der Bezug dieses Prozesses auf ein Messsystem.
Obwohl aus einer anderen Wissenschaftstradition kommend, teilt Aaron Cicourel die Auftrennung einer Messung in drei Dimensionen (1974, S. 18 ff.).23 Eine zentrale Eigenheit von Messsystemen ist gemäß ihm die Bildung von Äquivalenzklassen durch Messsysteme. Die Ausgangslage vor der Messung ist ein Sammelsurium an unterschiedlichen Messgegenständen. Erst durch den Bezug auf ein Messsystem werden Relationen zwischen den Messgegenständen und so Äquivalenzklassen gebildet (Cicourel 1974, S. 45 ff.). Eine Form von Messsystemen stellen folglich sozialwissenschaftliche Theorien dar, da diese zwischen verschiedenen Formen von Handlung unterscheiden und so Äquivalenzklassen bilden. Der Bezug auf explizite, ausformulierte Theorien ist jedoch keine zwingende Bedingung von Messung. Cicourel unterscheidet zwischen expliziten und impliziten Messsystemen (Cicourel 1974, S. 21 ff.). Während explizite Messsysteme ihre Bildung von Äquivalenzklassen explizieren und somit offenlegen, basiert die Kategorisierung von Messgegenständen bei impliziten Messsystemen auf impliziten Annahmen und ad-hoc-Entscheiden. Auf der Basis dieser Trennung nimmt er eine Radikalkritik der sozialwissenschaftlichen Messpraxis vor. Er kritisiert, dass sich die Sozialwissenschaften an einem naturwissenschaftlichen Messmodell orientieren, ohne über eine vergleichbare explizierte Theorie des Messens zu verfügen, d. h. ein expliziertes Messsystem. Dies führt gemäß Cicourel dazu, dass Sozialwissenschaftler während des Messprozesses teilweise auf Common Sense-Wissen zurückgreifen. Dadurch besteht aber die Problematik, dass der Messprozess in diesem Fall auf unexplizierten Annahmen basiert und so nicht einem strengen (naturwissenschaftlichen) Verständnis des Messprozesses entspricht. Der Messgegenstand (das Soziale) und das Messsystem sind durch den Bezug auf Common Sense-Wissen von Forschenden nicht klar getrennt, was eine Messung im strengen Sinn gemäß Cicourel verunmöglicht (Cicourel 1974, S. 28). Cicourel erwähnt in diesem Zusammenhang zwei Beispiele aus der quantitativen Sozialforschung. Einerseits verweist er mit Bezug auf Arbeiten von Paul Lazarsfeld auf das Problem des Umgangs mit Indikatoren.24 Cicourel kritisiert hier, dass in der von ihm zitierten Schrift von Lazarsfeld keine Theoretisierung der Auswahl von Indikatoren vorzufinden sei. Zudem werde zwar ausgeführt, wie verschiedene Indikatoren zusammengefasst werden können, Cicourel vermisst jedoch darüber hinaus eine Explikation des Zusammenwirkens der verschiedenen Indikatoren. Für Cicourel wird deswegen deutlich, dass die quantitative Sozialforschung die Bedeutung und das Zusammenspiel der verschiedenen Indikatoren nicht durch eine strenge Messtheorie fundiert, sondern durch den konstanten Rückgriff auf Common Sense-Wissen (Cicourel 1974, S. 36). Ein vergleichbares Problem sieht Cicourel auch in der Konzeption der Befragungs- als Messsituation. Als Diskussionsgegenstand wählt Cicourel hier wiederum ein Beispiel von Lazarsfeld, den Kauf von Kosmetika. In dessen Ausführungen wird ersichtlich, wie methodologische Fragestellungen der Klassifizierung dieses Prozesses wiederum durch den Rückgriff auf Common Sense-Wissen gelöst werden, was für Cicourel auf das Fehlen einer exakten Messtheorie hinweist (Cicourel 1974, S. 35 ff.).
Gemäß Cicourel ist die Problematik des Rückgriffs auf Common Sense-Wissen ein generelles Problem der verschiedenen, den Sozialwissenschaftlern zu Verfügung stehenden Forschungsmethoden. Mit Blick auf Interviews macht er deutlich, dass die Hybridität eine grundlegende Herausforderung von Interviewsituationen darstellt. Einerseits stellt sie eine Messsituation dar, in welcher standardisiert Daten erhoben werden. Andererseits stellt sie auch eine soziale Situation dar, indem in ihr ein Wissensaustausch auf der Basis von Sprache stattfindet (Cicourel 1974, S. 112). Für ein besseres Verständnis von deren Zusammenspiel fordert Cicourel verstärkte empirische Forschungen zur Interviewsituation (Cicourel 1974, S. 119 f.).
Im Hinblick auf die standardisierte schriftliche Befragung beschreibt Cicourel drei Anforderungen an einen guten Fragebogen: Dieser muss sowohl der Perspektive des Handelnden im täglichen Leben, wie auch der Perspektive des Interviewers entsprechen, aber auch den Regeln der Übertragung der getätigten Aussagen in theoretische Aussagen. Cicourel macht dadurch deutlich, dass das Erstellen von Fragebögen ohne ein detailliertes Common Sense-Verständnis der beforschten Gruppe nicht möglich ist (Cicourel 1974, S. 158 ff.).
Insgesamt sieht Cicourel die sozialwissenschaftliche Messung als ein sprachtheoretisches Problem an. Erst ein grundlegendes Sprachverständnis der Befragten ermöglicht folglich eine Messung in engerem Sinn. Cicourel kritisiert dabei ein Sprachbedeutung und Grammatik gleichsetzendes Sprachverständnis. Grammatikalisch korrekte Sätze erzeugen noch nicht per se auch sinnvolle Sätze. Und die Verwendung einer korrekten Grammatik – beispielsweise bei standardisierten schriftlichen Befragungen – bewirkt alleine noch kein einheitliches Verständnis der Fragen durch verschiedene Befragte (Cicourel 1974, S. 247). Zentral für die soziologische Messung ist für Cicourel folglich der sprach- und damit bedeutungssensitive Umgang mit Fragen und Antworten:
Der Soziologe kann es sich zum Beispiel beim Interviewen nicht leisten, seine eigene Sprache aus der Perspektive eines einheimischen Sprechers zu behandeln, sondern er muss die Position eines Geheimschriftanalytikers annehmen, der an eine fremde Sprache herantritt (Cicourel 1974, S. 248).
Für eine standardisierte Messung fehlt gemäß Cicourel insgesamt eine Theorie, welche die interpretativen Regeln des Befragten aufzeigt. Fehlt eine solche theoretische Grundlegung des Handelns wie auch der Beantwortung von Fragebögen, so ist die präzise Abbildung von Handeln durch Messen unmöglich, da die Kategorien des Handelns in einem solchen Fall inkompatibel mit den Kategorien der Messung sind (Cicourel 1974, S. 296). Zudem müsste eine umfassende Messung auch Irrationalitäten und Zufälligkeiten messen können (Cicourel 1974, S. 297). Fehlt die von Cicourel geforderte umfassende theoretische Grundlegung des soziologischen Messens, so diagnostiziert er der soziologischen Forschung zu einem „geschlossenen Unternehmen“ zu werden, welches sich um die eigenen Kategorien, anstatt um diejenigen des Forschungsgegenstandes dreht (Cicourel 1974, S. 317). Sichtbar wird dadurch, dass das von Cicourel dargestellte Messproblem der Sozialwissenschaften nicht lediglich ein technisches und damit methodisches Problem, sondern vielmehr ein grundlegendes erkenntnistheoretisches Problem darstellt (Eberle 2001, S. 83).

2.5.2 Der soziale Ursprung und die sozialen Folgen von sozialwissenschaftlichen Methoden

Ein neuer sozialwissenschaftlicher Ansatz, welcher eine reflexive Perspektive auf die soziale Einbettung von Methoden einnimmt, wurde von Mike Savage, Evelyn Ruppert und John Law unter dem Programm „Social Life of Methods“ angestoßen. Das Programm kann jedoch auch als Bezeichnung verstanden werden für verschiedene Ansätze, welche sich mit dem sozialen Ursprung und den sozialen Folgen von sozialwissenschaftlichen Methoden auseinandersetzen. Surveys stellen gemäß dieser Perspektive demzufolge nicht lediglich neutrale technische Messinstrumente dar, sondern sind selber sozial eingebettete und Soziales produzierende Instrumente. Diese können in der Folge als soziale Phänomene eigener Art untersucht werden.25
Savage, Ruppert und Law sprechen hierbei von einem doppelten sozialen Leben von Methoden: Einerseits sind Methoden sozial eingebettet, wie dies auch Science, Technology and Society-Studien (STS) gezeigt haben (Knorr Cetina 2002a; Latour und Woolgar 1986). Law et al. verweisen beispielsweise auf den Ursprung der Ethnographie in der Zeit des Kolonialismus, um die kolonialisierten Menschen qualitativ zu untersuchen. Ein Beispiel für die soziale Einbettung von Methoden stellt auch die Studie zu den Führungskräften (Den Kadern oder franz. „cadres“) von Luc Boltanski dar (1990). Boltanski untersuchte hier die Entstehung der Kategorie der Führungskräfte, welche mittlerweile eine etablierte Kategorie für Arbeitnehmer in Führungspositionen in Frankreich und auch der Schweiz darstellt. Er konnte nachweisen, dass die Kategorie der Führungskräfte, nicht lediglich das Produkt einer „neutralen“ Klassifikationspraxis von Sozialwissenschaftlern und Statistikern darstellt. Vielmehr ist sie das Ergebnis einer langjährigen Repräsentationsarbeit an dieser Kategorie durch Vertreter dieser Gruppe.
Andererseits wirken Methoden performativ zurück auf das Soziale, das sie eigentlich lediglich zu beschreiben vorgeben (Law et al. 2011, S. 4).26 Ein Beispiel hierfür stellt die Untersuchung „Identities and social change in Britain since 1940“ von Savage dar (2010). Dieser macht die Feststellung, dass durch die wiederholte Befragung der Bevölkerung durch Sozialwissenschaftler die sozialwissenschaftlichen Kategorien der Forscher von den Befragten zunehmend für die Selbstkategorisierung verwendet wurden. Dies zeigte sich bei folgenden Befragungen darin, dass Befragte selbst aktiv und reflexiv auf ihre Einteilung in sozialwissenschaftliche Kategorien Bezug nahmen. Die durch die Forscher ursprünglich verwendeten Kategorien stellten in der Folge nicht mehr lediglich sozialwissenschaftliche Beobachtungskategorien dar, sondern wurden durch einen performativen Effekt der Sozialwissenschaften zu öffentlichen Kategorien (Savage 2010, S. 240 ff.).27 Law et al. sprechen hier mit Bezug auf die Arbeiten von Annemarie Mol (2002, S. viii) von ontologischen Politiken von Methoden (2011, S. 12 f.). Savage et al. sehen im Forschungsprogramm des Social Life of Methods das Untersuchen der Verschiebung der Grenzen zwischen dem Impliziten und dem Expliziten (Savage 2013, S. 17). Geklärt werden soll folglich, welche impliziten Mechanismen Methoden durch das Explizieren von Daten mit sich bringen.
Law et al. plädieren deswegen dafür, Methoden nicht nur den „Technikern“ zu überlassen, da Methoden durch die Konstituierung von ontologischen Politiken eminent politische Anliegen betreffen (Law et al. 2011, S. 12 f.). Ontologische Politiken können dabei verstanden werden als Art, in welcher Probleme und Fragestellungen gerahmt werden. Methoden konstituieren folglich mit, wie über das Soziale gedacht wird und insbesondere auch, wie das Soziale kategorisiert wird. Deutlich wird durch das Forschungsprogramm der „Social life of methods“, dass es naiv wäre, methodische Fragestellungen als rein technische Fragen zu behandeln. Insbesondere Fragen der Kategorisierung haben untersuchbare soziale Ursprünge und wirken selbst performativ auf das Soziale zurück. Diese Prozesse können zum Gegenstand empirischer Forschung gemacht werden.

2.5.3 Die Perspektive der Economie des conventions auf die Produktion von statistischem Wissen

In den folgenden Absätzen wird die Perspektive der EC auf die Produktion von statistischem Wissen erarbeitet. Sichtbar wird dadurch, dass der EC eine doppelte Funktion für diese Arbeit zukommt. Einerseits stellt sie, wie in Kap. 3 ausführlich dargestellt wird, die grundlegende theoretische Perspektive dar. Zugleich stellt sie jedoch auch einen Bezugspunkt für die Spezifikation des Forschungsinteresses dar, da aus der EC selbst wichtige Beiträge zur Quantifizierung stammen.
Die EC entwickelte sich als Forschungsperspektive ab den späten 1970er Jahren im Raum Paris.28 Ein frühes Thema stellten dabei Studien zur Statistik und zur Statistikproduktion dar. Daraus entwickelte sich mit der Zeit eine eigenständige Forschungsperspektive (Diaz-Bone 2011a, S. 18 ff.).29 Wichtige Impulse erhielt die EC von dem französischen Statistiker und Soziologen Alain Desrosières. Eine wichtige und vielzierte Studie von Desrosières beschäftigt sich mit dem Zusammenhang zwischen verschiedenen Staatskonzeptionen und den dabei zur Anwendung gekommenen statistischen Kennzahlen und Methoden (Desrosières 2009b). Deutlich wird hier, dass verschiedene Staatskonzeptionen,30 wie beispielsweise der Wohlfahrtsstaat oder der neoliberale Staat, unterschiedliche Statistiken produzieren und nutzen. Der Wohlfahrtsstaat setzt beispielsweise auf die Darstellung von Arbeitsstatistiken, Löhnen, Arbeitslosigkeitsraten und Konsumpreisindexen. Der neoliberale Staat hingegen setzt maßgeblich auf den Vergleich zwischen unterschiedlichen Akteuren mittels Benchmarking. Zentral ist dabei gemäß Desrosières die Objektivierung, das heißt die Entpolitisierung der Erstellung von Statistiken.31 Statistiken werden so zu scheinbar objektiven, unhinterfragbaren Tatsachen. Wie Desrosières mit dieser Untersuchung aufzeigen konnte, sind Statistiken folglich keine neutralen Abbildungen einer objektiven Realität. Sie reflektieren in diesen Fällen vielmehr auch unterschiedliche Staatskonzeptionen, welche also die Messung mitformatieren. Statistiken sind folglich auf ihre Funktion und ihre Herkunft hin analysierbar (Desrosières 1979, S. 48), da zwischen ihnen und der zu messenden Realität kollektive Handlungslogiken die Messung organisieren. Desrosières bezeichnet diese kollektiven Handlungslogiken als Äquivalenzkonvention (Desrosières 2005, S. 263 ff.).32 Denn wie Desrosières deutlich macht, ermöglicht der Bezug auf Konventionen das Herstellen von Äquivalenzen zwischen vormals lediglich singulären Messobjekten. Es ist folglich der Bezug auf eine Konvention, welche eine Vergleichbarkeit zwischen den vorher unvergleichbaren Messobjekten einführt und so die Bildung von Äquivalenzen ermöglicht. Es lässt sich deswegen schlussfolgern, dass Messung Wissen erst durch den Bezug auf eine Konvention produziert (Diaz-Bone 2018, S. 335). Sichtbar wird dadurch, dass es auch der Bezug von Messobjekten auf ein Messsystem (eine Äquivalenzkonvention) ist, der eine wichtige Qualitätsebene für Statistik-Konsumenten darstellt.33 Die Qualität von Surveys wird aus einer solchen Perspektive nicht lediglich durch den Bezug von Antworten auf eine Befragungsapparatur bewertet, sondern insbesondere auch durch den Bezug der generierten Befragungsdaten auf eine spezifische Äquivalenzkonvention. Die Befragungsmethode muss folglich gewährleisten, Befragungsdaten zu produzieren, welche für das Messsystem verwertbar und somit relevant sind.34 Der Bezug auf eine Äquivalenzkonvention wird dabei an zwei Stellen besonders deutlich: Einerseits bei der Konzeption von Kategorisierungen, andererseits bei der praktischen Zuordnung dieser Kategorien zu Fällen, das heißt beispielsweise durch Kodieren (Desrosières 2001a, S. 116). Desrosières kritisiert deswegen die Vorstellung einer Abbildungsrealität, welche eine der Messung vorausgehende und von der Messung unabhängige Realität voraussetzt, auf welche durch die Messung „einfach“ zugegriffen wird (Desrosières 2001b, S. 341).
Gemäß Desrosières besteht das Ziel der statistischen Arbeit darin, „einen Zusammenhalt zwischen a priori singulären Dingen herzustellen und dadurch den Objekten eine komplexere und umfassendere Realität zu verleihen“ (Desrosières 2005, S. 263). Und es lässt sich nun feststellen, dass diese Organisationsleistung durch den Bezug auf eine Konvention zustande kommt.35 Desrosières kritisiert aus dieser Perspektive die Idee einer „einfachen“ Harmonisierung von national unterschiedlichen Statistiken (das heißt unterschiedlicher Kategorisierungen), wie diese beispielsweise durch die Europäische Union vorangetrieben werden (Desrosières 2000; Moulin 2010). Denn die Idee dieser problemlosen Angleichung verschiedener Statistiken basiere auf einer „realistischen“ Perspektive auf die Statistikproduktion, d. h. dass sich statistische Kategorien aus dem kategorisierten Gegenstand selbst ergeben. Dabei bleiben jedoch die unterschiedlichen Konventionen der Messung, d. h. der konventionelle Aspekt der Messung und damit die unterschiedlichen Kategoriensysteme der verschiedenen Länder, unbeachtet (Desrosières 2000, S. 185). Aus seiner Sicht liegt der Realitätsgehalt von Statistiken jedoch nicht in deren Abbildungsrealität des gemessenen Widerstandes, das heißt in der neutralen Abbildung des Untersuchungsgegenstandes, sondern im Bezug des gemessenen Widerstandes auf in der Öffentlichkeit breit etablierte statistische Kategorien, d. h. durch den Bezug auf Äquivalenzkonventionen mit einer hohen soziogeografischen Reichweite.36 Desrosières will deswegen auch nicht von der Objektivität von Statistiken sprechen, sondern von deren Objektivierung (Desrosières 2005, S. 13 f.). Desrosières betrachtet die Statistikproduktion als einen Ort der Transformation. An deren Beginn stehen kontingente Entscheidungen von Statistikern, denen die Kontingenz ihrer Entscheidungen durchaus bewusst ist. Diese reagieren auf die (öffentliche) Nachfrage nach „realistischen“ Statistiken. Am Ende des statistischen Prozesses stehen dann „reale“ statistische Daten, die ihren Realitätsgehalt durch den Bezug auf Äquivalenzkonventionen mit einer hohen öffentlichen Durchsetzungskraft erhalten (Desrosières 2009a, S. 320 f.). Dadurch besteht für die Statistiker eine konstante Spannung zwischen ihrem Bedürfnis, einerseits ihre Methoden und deren konventionelle Fundierung transparent zu gestalten und andererseits dem öffentlichen Bedürfnis nach realistischen Daten nachzukommen, welches jedoch der Transparenz entgegensteht. Statistische Daten sind somit gleichzeitig real, da die von ihnen beschriebenen Sachverhalte in der Interpretation der Daten als real angenommen und so auch reale Konsequenzen haben. Sie sind aber auch konventionell und anfänglich „konstruiert“, da sie einem kontingenten Ordnungsprozess durch Statistiker unterliegen. Mit Laura Centemeri lässt sich deswegen von einer hohen kognitiven Ambiguität bei der statistischen Produktion sprechen (Centemeri 2012, S. 21). Zwischen den Produzenten und den Konsumenten von Statistik besteht demnach eine große Differenz im Hinblick auf das Wissen um die Konstruiertheit, bzw. den „Realitätsgehalt“ von Statistiken. Die Umwandlung „konventioneller“ hin zu „realen“ Daten kann dabei in der täglichen Arbeit des Statistikers an vielen Stellen zu Reibungen führen (Desrosières 2000, S. 174). Desrosières weist zudem darauf hin, dass durch diese Ambiguität eine Arbeitsteilung im Hinblick auf die Bewältigung von Qualitätskriterien der Survey-Forschung einhergeht. Wie in Abschn. 2.4 dargestellt, führte ein Quality Movement ausgehend von der öffentlichen Statistik zur Entwicklung einer Prozessperspektive auf Survey-Qualität. Dies führte zu einer Ergänzung der klassischen Trias Objektivität, Validität und Reliabilität (Desrosières 2009a, S. 308 ff.). Desrosières weist daraufhin, dass beispielsweise das neu eingeführte Qualitätskriterium der Relevanz nicht wie die klassische Trias durch die (technischen) Statistiker verantwortet wird, sondern durch inhaltsorientierte Projektleitende von Statistikagenturen. Es findet folglich eine Aufgabenteilung im Hinblick auf die Bedienung von verschiedenen Qualitätskriterien durch die beiden Berufsgruppen statt (Desrosières 2009a, S. 311). Zugleich kritisiert Desrosières, dass die Survey-Methodologie den Sampling-Error umfassend theoretisiert habe, während der Non-Sampling-Error untertheoretisiert bleibe (Desrosières 2009a, S. 314 f.).
Die kontingente soziale Natur von Statistiken, das heißt der notwendige Bezug auf eine Äquivalenzkonvention, macht Ordnungsanstrengungen durch die verschiedenen bei der Statistikproduktion involvierten Akteure notwendig. Thévenot macht die Notwendigkeit des In-Form-bringens von Daten deutlich, um überhaupt als Information fungieren zu können: „Unsere Analysen führten uns weg von der Standardvorstellung, wie Daten erhoben und verbreitet werden37. Sie führte uns auch weg von der Vorstellung von verzerrten oder fehlenden Informationen. Denn das sind alles Fragen, die bereits eine angemessene Form der Information voraussetzen.“ (Thévenot 2011d, S. 261). Insbesondere auch Staaten müssen in die Ordnung von statistischen Erhebungen investieren.38 Denn die Staatenbildung ist aus der Perspektive der EC von einer Vielzahl an Ordnungsleistungen (Geld, Recht und eben auch Statistik) abhängig (Diaz-Bone 2018, S. 331 ff.). Staaten sind folglich von einheitlichen Statistiken abhängig, um gesamtgesellschaftliche, datengestützte Debatten zu ermöglichen und Steuerungen vornehmen zu können (Desrosières 2005, S. 361). Die Einheit von Statistiken wird dabei durch einen einheitlichen Bezug auf Äquivalenzkonventionen erreicht. Desrosières will damit deutlich machen, dass die Einheitlichkeit von Statistiken nicht als gegeben vorausgesetzt werden kann, sondern das Produkt eines (sozialen) Ordnungsprozesses darstellt. Dieser Prozess wird dabei maßgeblich durch staatliche Akteure, aber beispielsweise ebenfalls durch Berufsgruppen angeführt. Desrosières nimmt zudem eine Aufteilung verschiedener Wissenschaftsdisziplinen vor. Die Soziologie beschäftigt sich gemäß ihm intensiv mit der sozialen Konstruktion von Taxonomien, während beispielsweise in der Ökonomie die theoretischen Aspekte der Taxonomisierung kaum thematisiert würden. Dies lässt sich Desrosières folgend auf die Trennung in eine reine und eine angewandte Wissenschaft zurückführen (Desrosières 2005, S. 264).
Im Anschluss an die Studien zur Kodifizierung machten Boltanski und Thévenot im Jahr 1983 eine mittlerweile für die EC klassische experimentelle Studie zur Klassifikation von Berufen in Kategorien.39 Dazu trennten sie die sich für dieses Experiment zur Verfügung stellenden Probanden in mehrere Gruppen auf und baten sie, verschiedene Berufe in Gruppen aufzuteilen. Es zeigte sich, dass die Einteilung in die verschiedenen Gruppen eine reflexive Angelegenheit darstellte, da je nach Kriterium für die Einteilung der Berufe in Gruppen die Aufteilung unterschiedliche Resultate mit sich zog. Die Einteilung in Gruppen war demzufolge nicht eine habituelle Angelegenheit, in welcher präreflexive Handlungsmuster zur Anwendung kamen, sondern die Probanden verfügten im Gegenteil über ein Repertoire an verschiedenen Kategorisierungslogiken, die sie zur Anwendung bringen konnten. Die Kategorisierung selber stützte sich auf die verschiedenen Eigenschaften der Berufe, anhand derer in den Gruppen die zur Anwendung kommende Kategorisierungslogik kommunikativ bestimmt wurde. Sie war zudem oft angeleitet von „offiziellen“ Kategorien, wie sie Wissenschaftler und Statistiker definiert hatten (Boltanski und Thévenot 1983). Zusätzlich zeigte sich auch, dass gewisse Berufsgruppen als repräsentativer für eine umfassende Berufskategorie standen als andere. Hier wurde deutlich, dass ein eigenständiger kognitiver Raum besteht, in welchem verschiedene Berufsgruppen unterschiedliche kognitive Relevanzen innehaben. Die unterschiedlichen Relevanzen sind dabei durch eine unterschiedlich starke Investition der Berufsgruppen in die gesellschaftliche Sozio-Kognition begründet (Desrosières 2005; Diaz-Bone 2018, S. 67 ff.).
Desrosières und Thévenot führten zudem bereits früh das Konzept der statistischen Kette ein (Desrosières und Thévenot 2010; Thévenot 1983, S. 194). Damit bezeichnen sie die Serie von Formationen und Transformationen der statistischen Produktion über verschiedene Stationen und Situationen hinweg, die als Ergebnis statistische Daten produzieren und welche durch Kodierer, Statistiker, Befrager, Forscher, usw. organisiert werden (Thévenot 1992a, S. 131). Die Durchführung von Surveys kann so als komplexes Handlungsnetzwerk beschrieben werden. Folgt man den Stationen der Produktion von statistischen Daten, dann sind zunächst individuelle Interpretationen im Hinblick auf die Konzeptualisierung und die Codierung von statistischen Daten ersichtlich. Desrosières und Thévenot konnten jedoch aufzeigen, dass sich die individuellen Interpretationen auf kollektive Interpretationslogiken, d. h. Äquivalenzkonventionen, beziehen lassen. Statistikprojekte basieren folglich auf kollektiven Ordnungsleistungen, welche jedoch eine hohe Reichweite aufweisen müssen. Die Perspektive der EC auf Quantifizierung kann mittels zweier Punkte zusammengefasst werden:
1.
Zunächst wird deutlich, dass zuerst eine Äquivalenzkonvention eingeführt werden muss, bevor Messung möglich wird (Desrosières 2008b, S. 10). Statistiken stellen folglich keine direkte Abbildung von Realität dar, sondern sind das Produkt einer Ko-Konstruktion zwischen Äquivalenzkonventionen und Messgegenständen. Quantifizierung lässt sich deswegen nicht auf technische Vorgänge reduzieren, da die sozialwissenschaftliche Messung einen grundlegend sozialen Vorgang darstellt, der sich aus verschiedenen Ordnungsleistungen der Produzenten von statistischen Daten zusammensetzt. Die empirische Forschung zur Datenproduktion und -interpretation muss dieses Spannungsverhältnis zwischen einer realistischen und einer konventionellen Perspektive mit in die Analyse einbeziehen (Desrosières 2000, S. 185). Genau dies stellt den Zugriffspunkt einer soziologisch informierten Betrachtung der Produktion von Statistik dar, da hier der Konstruktionsprozess von Statistik untersucht werden kann.
 
2.
Deutlich wird zweitens auch, dass der Bezug auf eine Äquivalenzkonvention, bzw. der Bezug auf einen Kompromiss zwischen verschiedenen Äquivalenzkonventionen, einheitlich über den gesamten Produktionsprozess von Survey-Daten geleistet werden muss, um am Ende einheitliche Daten zu erhalten. Forscher und Codierer müssen folglich über ein gemeinsames soziales Wissen verfügen,40 um diesen einheitlichen Bezug gewährleisten zu können. Der Konstruktionsprozess von Survey-Daten findet folglich eingebettet in eine (auch materiell abgestützte) statistische Kette statt. Der Formationsprozess der Survey-Produktion muss folglich in seiner Einbettung über verschiedene Stationen und Situationen der Survey-Produktion nachgezeichnet werden, da der Formationsprozess nicht alleine durch die Planung der Messung vollzogen ist. Untersucht werden muss deshalb auch ein allfälliger Transformationsprozess der Messung, welcher dann stattfindet, wenn über die statistische Kette hinweg unterschiedliche Äquivalenzkonventionen als interpretative Grundlage verwendet werden. Zentral ist aus der Perspektive der statistischen Kette deshalb, dass die Kohärenz der Messung über die verschiedenen Stationen des statistischen Produktionsprozesses hinweg nicht vorausgesetzt werden kann.
 

2.5.4 Das Messsystem als Quelle von Survey-Qualität

Die Kritik von Cicourel an der standardisierten Survey-Forschung41 und die Perspektive der EC auf die Produktion von statistischen Daten lenken den Blick auf eine Qualitätsdimension jenseits der Daten- und der Prozessperspektive. Gemäß Cicourel verfügt die Soziologie zum Zeitpunkt seiner Kritik nicht über ein genügend fundiertes Wissen über die Voraussetzungen und den Wirkungsmechanismus der Befragung, um den Bedingungen einer echten Messung genügen zu können. Durch diesen Mangel an Wissen werde während des Messprozesses konstant auf Common Sense-Wissen zurückgegriffen, was zu einer fehlenden Trennung zwischen den Strukturen der Messobjekte und des Messsystems führe (Cicourel 1974, S. 28).
Die Arbeiten von Desrosières heben die konventionelle Fundierung von Messsystemen hervor. Messsysteme sind folglich nicht in den Messobjekten selbst verankert, sondern notwendigerweise durch Konventionen strukturiert und damit genuin sozial (Desrosières 2009b). Der Bezug von Messobjekten auf ein Messsystem stellt damit zwangsweise einen auf Konventionen gestützten interpretativen Prozess dar, wie dies Boltanski und Thévenot aufgezeigt haben (Boltanski und Thévenot 1983). Damit nimmt die EC den durch Cicourel beschriebenen Rückgriff auf Common Sense-Wissen auf, entwickelt jedoch eine eigene Perspektive darauf. Aus Sicht von Cicourel ist der Rückgriff auf Common Sense-Wissen problematisch, da er eine fehlende Systematik und damit eine Unwissenschaftlichkeit in die wissenschaftliche Messung einbringe. Messung stellt in einem solchen Fall aus seiner Perspektive eine spontane Ermessenssache dar. Die EC hat diese Radikalkritik an der quantitativen Sozialforschung in doppelter Weise aufgenommen. Zuerst konnte sie aufzeigen, dass der Rückgriff auf Common Sense-Wissen selbst zum Gegenstand empirischer Forschung gemacht werden kann (Didier 2014, S. 16). Genau dies haben die frühen Studien von Desrosières und Thévenot (1979), Boltanski und Thévenot (1983) und Thévenot (1983) gemacht. In diesen Studien hat sich gezeigt, dass der Rückgriff auf Common Sense-Wissen nicht zufällig und unsystematisch ist, sondern sich auf kollektive Wissenslogiken, d. h. Äquivalenzkonventionen, stützt (Thévenot 1992a). Die von Cicourel behauptete fehlende Systematik und Irrationalität des Rückgriffs auf Common Sense-Wissen ist damit aus der Perspektive der EC nicht gegeben. Die frühen Studien der EC stellten vielmehr einen konstanten Ordnungsprozess von statistischen Kategorien, d. h. dem Messsystem, fest, welcher auf der Basis von kollektiv geteilten Handlungslogiken, d. h. den Äquivalenzkonventionen, geschieht. Die Kollektivität dieses interpretativen Bezugs von Messung auf Konventionen wird durch die Arbeiten von Boltanski einerseits und von Savage andererseits untermauert. Sie konnte aufzeigen, dass es nicht nur die Forschenden sind, welche einen kollektiven Bezug auf durch Äquivalenzkonventionen fundierte Messsysteme leisten. Boltanski machte mit seiner Studie über Führungskräfte deutlich, dass (öffentliche) Kategorisierungen auch der Gegenstand einer symbolischen Repräsentationsarbeit von gesellschaftlichen Gruppen sind, wobei er im Detail die symbolische Arbeit von Führungskräften nachzeichnete (Boltanski 1990). Savage zeigte den performativen Effekt der Kategorisierung eines von ihm über verschiedene Erhebungswellen hinweg untersuchten Surveys auf. Die öffentliche Wirkung des von Savage untersuchten Surveys führte dazu, dass die die Befragung anleitende Kategorisierungslogik eine hohe Öffentlichkeitswirksamkeit entwickelte. Dies hatte einen reflexiven Bezug der Befragten auf das Kategoriensystem der Befragten bei späteren Befragungswellen zur Folge (Savage 2010, S. 240 ff.). Der kollektive Bezug auf ein durch Äquivalenzkonventionen strukturiertes Messsystem fand hier folglich sogar durch die Befragten selbst statt.
Klar wird insgesamt, dass ein zentraler Qualitätsfaktor von survey-basierten Erhebungen deren Bezug auf ein Messsystem ist. Wie die Arbeiten der EC aufgezeigt haben, ist dieses durch Äquivalenzkonventionen fundiert und bedarf dadurch der konstanten Ordnung während des Survey-Prozesses. Zudem wird deutlich, dass diese Ordnungsleistung von Survey-Praktikern selbst zum Gegenstand der Untersuchung gemacht werden kann (Desrosières und Thévenot 1979; Didier 2014). Damit eröffnet sich eine Perspektive für die Untersuchung der zu Beginn dieses Kapitels durch Survey-Praktiker geschilderten unterschiedlichen Forschungslogiken zwischen der öffentlichen Statistik und der akademischen Survey-Forschung auf der einen Seite und der Marktforschung auf der anderen Seite. Die Unterschiede zwischen beiden Survey-Praxen werden zwar durch die Prozessperspektive anhand unterschiedlicher Qualitätskonzepte wiedergegeben, es fehlt jedoch eine reflexive Perspektive auf die verschiedenen Einbettungen und „Kulturen“ der unterschiedlichen Survey-Praxis. Das Ziel der vorliegenden Forschung liegt folglich darin, unterschiedliche Qualitäts- und Koordinationslogiken der Survey-Praxis als den Bezug auf unterschiedliche kollektive Wissenslogiken, bzw. Äquivalenzkonventionen, zu rekonstruieren. Die Qualität von survey-basierten Daten wird demzufolge nicht lediglich in einer hohen Datenqualität gemäß der Kriterien der Objektivität, der Reliabilität und der Validität gesucht. Survey-Qualität erschöpft sich aus der hier eingenommenen Perspektive jedoch auch nicht im Miteinbezug von situativen Aspekten (Zeitlichkeit, Relevanz, Genauigkeit etc.) der Datennutzung und der situativen Aushandlung zwischen Auftraggebern und Auftragnehmern, welche durch die Prozessperspektive betont werden. Die survey-pragmatische Perspektive auf Survey-Qualität kritisiert folglich auch die Prozessperspektive im Hinblick auf deren Konzeption von Qualität von Survey-Erhebungen. Denn obwohl sie als Qualitätsmaßstab den Anwendungs- und Entstehenskontext von Daten benennt, ist sie nicht in der Lage, die Fundierung der situativen Kontexte und damit auch der vorgeschlagenen Qualitätskriterien und Koordinationslogiken in Äquivalenzkonventionen zu sehen. Aus der hier eingenommenen Perspektive der Survey-Welten wird deutlich, dass sich Survey-Qualität weder auf Datenqualität, noch auf unterschiedliche Anwendungs- und Entstehenskontexte reduzieren lässt. Vielmehr stellt aus dieser Perspektive auch der Bezug auf Äquivalenzkonventionen ein weiteres Element von Survey-Qualität dar.
Obwohl die Studien der EC zur Statistik theoretische Grundlagen für die vorliegende Arbeit bereitstellen, so sind sie doch nicht ausreichend, die unterschiedlichen Qualitäts- und Koordinationslogiken der Survey-Praxis einzubeziehen. Denn der Fokus der Studien liegt klar auf Surveys der öffentlichen Statistik (Desrosières 2001b, 2005, 2009a, b; Thévenot 1983, 2016). Dadurch ist es ihnen nicht möglich, die durch die verschiedenen Survey-Praktiker genannten unterschiedlichen Logiken der Survey-Praxis aufzunehmen. Sie sind dadurch nicht in der Lage, ein tieferes Verständnis der Survey-Praxis als Koordination verschiedener Koordinationslogiken zu liefern. Es ist deswegen das Ziel dieser Arbeit, die durch Survey-Praktiker dargestellten unterschiedlichen Qualitäts- und Koordinationslogiken empirisch zu erforschen. Damit wird eine Fortführung der EC-basierten Arbeiten zu Äquivalenzkonventionen als Grundlagen der Produktion von statistischen Daten angestrebt und auf unterschiedliche Logiken der Survey-Praxis bezogen, welche im Folgenden als „Survey-Welten“ bezeichnet werden.

2.5.5 Die Survey-Pragmatik als integratives Qualitätskonzept für die Survey-Forschung

In diesem Unterkapitel wird die Perspektive der vorliegenden Arbeit auf Survey-Koordination und Survey-Qualität als Praxisperspektive dargelegt. Dabei wird auf das Konzept des Labor-Opportunismus von Karin Knorr-Cetina (Knorr Cetina 2002a) und die pragmatische Theorie der Forschung von John Dewey und William James verwiesen. Auf diesen Konzepten aufbauend wird das Programm einer sog. „Survey-Pragmatik“ entworfen, welche den konzeptuellen Rahmen für die empirische Erforschung von unterschiedlichen Qualitäts- und Koordinationslogiken der Survey-Praxis darstellt.
In ihrer Arbeit „Die Fabrikation von Erkenntnis“ untersucht Knorr-Cetina die praktische Herstellung von wissenschaftlichen Tatsachen am Beispiel eines naturwissenschaftlichen Labors (Knorr Cetina 2002a).42 Knorr-Cetina zeigte die pragmatische Dimension bei der Hervorbringung naturwissenschaftlichen Wissens auf (Knorr Cetina 1991, S. 105). Mit dem Konzept des Labor-Opportunismus zeigte sie auf, wie naturwissenschaftliche Instrumente nicht zwingend rational, d. h. zielgerichtet und auf den kalkulierten Output hin orientiert, benutzt werden. Vielmehr beobachtete Knorr-Cetina oft einen experimentellen Einsatz von naturwissenschaftlichen Instrumenten. Diese werden also oft „einfach“ eingesetzt, weil sie da sind (Knorr Cetina 2002a, S. 63 ff.). Knorr-Cetina konnte zudem aufzeigen, wie auch Fragen der interpersonellen Zusammenarbeit eine konsequent unterschätzte Rolle bei der Produktion von wissenschaftlicher Erkenntnis einnehmen. So kann ein gutes Verhältnis zum Institutsdirektor durch dessen Verfügen über spezielle Instrumente darüber entscheiden, ob eine neuartige Erkenntnis produziert werden kann oder ob das Forschungsprojekt folgenlos bleibt (Knorr Cetina 2002a, S. 85 ff.).
In weiteren Arbeiten ging Knorr-Cetina noch einen Schritt weiter und verwies auf die den Forschungspraktiken zugrunde liegenden epistemischen Strukturen. Damit prägte sie den Begriff der naturwissenschaftlichen Wissenskulturen (Knorr-Cetina 2002b). Wie sie anhand eines Vergleichs zwischen der Hochenergiephysik und der Molekularbiologie aufzeigen kann, unterscheiden sich verschiedene Wissenschaftsdisziplinen im Hinblick auf ihre zugrunde liegenden epistemischen Strukturen. Als epistemisch versteht Knorr-Cetina dabei „diejenigen Strategien und Prinzipien, die auf die Erzeugung von „Wahrheit“ oder äquivalente Erkenntnisziele gerichtet sind“ (Knorr-Cetina 2002b, S. 11). Ein grundlegender Unterschied zwischen den beiden untersuchten Disziplinen besteht beispielsweise darin, dass die Hochenergiephysik stark kollektivistisch organisiert ist, während die Molekularbiologie viel stärker individualistisch organisiert ist (Knorr-Cetina 2002b, S. 14). Deutlich wird dadurch, „dass es nicht nur eine wissenschaftliche Methode, eine Art des Wissens und nur eine Wissenschaft gibt“ (Knorr-Cetina 2002b, S. 13).
Mit ihrer Arbeit zur Praxis der Wissenschaft machte Knorr-Cetina deutlich, dass auch die „rationale“ Wissenschaft über eine pragmatische Alltagspraxis verfügt. Wissenschaftliches Wissen wird folglich nicht nach rein rationalen Maßstäben, sondern in temporalen, sozialen und objektbesetzten Situationen produziert (Knorr Cetina 2002a, S. 63 ff.). Diese situative Pragmatik kann dabei selbst untersucht werden, um die Wissenschaft selbst und deren Dynamik besser verstehen zu können. Die Studie zu „Wissenskulturen“ von Knorr-Cetina zeigte zudem auf, dass Wissenschaft(-en) systematisch unterschiedlich organisiert sein können und so de-facto eine unterschiedliche Wissenschafts-Praxis vorliegt (Knorr-Cetina 2002b).
Die vorliegende Arbeit folgt Knorr-Cetina damit in doppelter Hinsicht. Einerseits sollen nicht alleine unterschiedliche Survey-Logiken untersucht werden, sondern gerade die Survey-Praxis. Andererseits sollen verschiedene sog. Survey-Welten und deren unterschiedliche Qualitäts- und Koordinationslogiken und Survey-Praxis nachgezeichnet werden. Die pragmatische Perspektive auf Survey-Qualität mit ihrem Verweis auf unterschiedliche Konventionen des Messens als zentralem Qualitätsfaktor der Survey-Forschung sieht sich nicht als neuen, alleinigen Qualitätsrahmen für die Survey-Methodologie, sondern vielmehr als Erweiterung zur Daten- und zur Prozessperspektive. Der an Knorr-Cetina angelehnte Begriff der Survey-Praxis bezeichnet daher gerade die Kompromissschließung zwischen unterschiedlichen Qualitätsfaktoren, welche durch die verschiedenen Qualitätsperspektiven eingeführt wurden.
Im Unterschied zu „Fabrikation von Erkenntnis“ im Speziellen und den Science Studies im Allgemeinen zielt die Survey-Welten-Perspektive jedoch nicht alleine auf eine Erforschung der praktischen Organisation von Forschung und folglich der praktischen Herstellung von Forschungsresultaten ab. Es ist vielmehr das Ziel, den systematischen Bezug auf Konventionen herauszuarbeiten, welche die Survey-Praxis anleiten und strukturieren. Hier zeigt sich der strukturalistische Einfluss der EC (Diaz-Bone, S. 380 ff.). Durch den Bezug auf kollektive Handlungslogiken (Konventionen) durch kompetente Akteure in der Survey-Praxis findet aus der Perspektive der EC stets eine Vereinheitlichung der Praxis statt, welche empirisch rekonstruiert werden kann. Im Gegensatz zu einer rein strukturalistischen Perspektive wird jedoch auch deutlich, dass die Strukturierung der Praxis durch den aktiven und kompetenten Bezug von Akteuren auf kollektive Handlungslogiken entsteht und situativ hergestellt werden muss.43 Die Survey-Welten-Perspektive weist dadurch in ihrer methodologischen Stossrichtung stärkere Ähnlichkeiten auf zu den Arbeiten von Knorr-Cetina zu unterschiedlichen „Wissenskulturen“ in verschiedenen Wissenschaftsdisziplinen. Denn auch hier wird eine enge Verbindung zwischen epistemischen Strukturen und der Organisation des Forschungsprozesses herausgearbeitet (Knorr-Cetina 2002b). Auch aus dieser Perspektive wird die Wissenschaftspraxis folglich grundlegend durch epistemische Strukturen organisiert. Im Gegensatz zu Knorr-Cetina besteht jedoch das Ziel der Survey-Welten-Perspektive nicht alleine im Aufzeigen unterschiedlicher epistemischer Strukturen der Survey-Forschung, sondern in einer systematischen Kartografierung. Zudem wird durch das Aufzeigen einer systematisch unterschiedlichen Survey-Praxis mit der Annahme einer einheitlichen Survey-Methodologie gebrochen und damit ein konkreter Beitrag zur Survey-Praxis selbst erbracht.
Zusammenfassend können die Studien von Knorr-Cetina als empirische Umsetzung einer pragmatischen Epistemologie verstanden werden. Denn die Logik von Forschung und Wissenschaft wird nicht als Gegenstand einer rein mentalen (vernunftbasierten) Reflexion betrachtet, sondern als Gegenstand empirischer Forschung. Wissenschaft wird folglich nicht alleine als Ausdruck einer spezifischen Rationalität verstanden, sondern auch als Praxisform. Die pragmatische (Praxis-)Perspektive auf Forschung und Wissenschaft wird in den folgenden Absätzen mit Bezug auf John Dewey und William James erarbeitet.
In seinem Werk „Logik. Die Theorie der Forschung“ (2008) entwickelt Dewey eine pragmatische Perspektive auf Wissenschaft und Forschung. Dewey kritisiert hier eine Rückführung von Methodologie auf eine formale und a priori gegebene Logik. Denn dies impliziert gemäß Dewey, dass methodologische Fragen eine Angelegenheit der (empirischen) Wissenschaft seien, die Logik hingegen von außerhalb der praktischen Forschung stamme. Demgegenüber sieht er die Logik der Forschung als Resultat vorangehender Forschungen (Dewey 2008, S. 17 ff.). Obwohl Forschung Logikansprüchen genügen müsse, so stammt Logik als Kriterium für gute Forschung dennoch nicht von außerhalb des Forschungsprozesses selbst und lässt sich folglich nicht auf eine a priori gegebene Logik zurückführen. Dabei wendet er sich einerseits gegen kontinentaleuropäisch-rationalistische Perspektiven auf Logik, andererseits auch gegen antike Logikkonzeptionen, hierbei insbesondere gegen diejenige von Aristoteles (Dewey 2008, S. 104 ff.). Dewey fasst seine Konzeption von Logik wie folgt zusammen:
1.
„Logik“ ist nicht abhängig von Subjektivität oder rein mentalen Prozessen.
 
2.
„Logik“ entspringt Erfahrungen und Erfahrungsmaterial.
 
3.
„Logik“ muss von dem Unbeobachtbaren, Transzendenten und Intuitiven befreit werden. (Dewey 2008, S. 129)
 
Dewey wendet sich mit dieser Definition zunächst gegen die Auffassung, wonach Logik etwas Subjektives oder rein Mentales sei wie Husserl in den Logischen Untersuchungen bereits 1900 argumentiert (Husserl 2010). Dewey macht vielmehr deutlich, dass die in der wissenschaftlichen Forschung zum Ausdruck kommende Logik eine kollektive Form des Denkens und Entschlüsselns ist, welche also durch verschiedene Forscher geteilt wird (Husserl 2010, S. 34 f.). Zudem lässt sich Logik auch nicht als reine Thematik des Geists, d. h. als mentalistischen Prozess auffassen. Logik entspringt vielmehr direkt Erfahrungen und Erfahrungsmaterial, d. h. sie entwickelt sich durch die Auseinandersetzung mit der Umwelt. Der Erfahrungsbegriff von Dewey entspricht dabei nicht einem simplen Positivismus. Denn Erfahrung lässt sich weder auf das direkt Beobachtete reduzieren (Husserl 2010, S. 55), noch sind damit nicht auch Einsichten gemeint, welche technikvermittelt, d. h. durch Mikroskope etc., zustande kommen (Husserl 2010, S. 63). Denn „Erfahrung“ bedeutet für Dewey immer auch die tätige Auseinandersetzung mit der Umwelt (Dewey 1998, S. 194). Dewey macht damit deutlich, dass sich Logik – wie er im dritten Punkt betont – nicht ein transzendentes a priori darstellt, sondern vielmehr ein Produkt der tätigen Auseinandersetzung mit der Umwelt. Hierbei steht er der Wissenschaft auch keinen speziellen erkenntnistheoretischen Standpunkt zu. „Forschung“ lässt sich vielmehr bereits bei alltäglichen Problemlösungsversuchen identifizieren und Dewey sieht hierbei ein Kontinuum zur akademisch orientierten Forschung. Er identifiziert lediglich unterschiedliche Erkenntnisziele zwischen der alltäglichen und der wissenschaftlichen Logik der Entdeckung. Denn während die alltägliche Logik der Entdeckung auf konkrete und spezifische Handlungsprobleme abzielt, orientiert sich die Wissenschaft an allgemeinen Problemen (Dewey 2008, S. 144).
Forschung und Wissenschaft sind in dieser Konzeption folglich nicht etwas, deren Realität und Normativität sich im Hinblick auf den Erkenntnisprozess formal und abstrakt jenseits aller Forschungspraxis bestimmen lassen. Die Logik der Forschung entwickelt sich vielmehr aus der konstanten Auseinandersetzung mit Forschungsproblemen. Dewey macht aber auch deutlich, dass dieser Prozess nicht alleine in der Auseinandersetzung zwischen Mensch und Objekt geschieht, sondern dass dabei auf kulturell überliefertes Wissen zurückgegriffen wird (Dewey 2008, S. 59). Forschung – und damit Logik – ist folglich in einen sozio-evolutionären Prozess eingebettet, deren Fortgang durch die konkrete Auseinandersetzung von Forschenden mit Forschungsproblemen bestimmt wird und nicht etwa durch die zunehmende Erkenntnis einer reinen und formalen Logik. Deutlich wird darüber hinaus auch, dass Dewey „Forschung“ nicht lediglich als Tätigkeit an Hochschulen und Universitäten identifiziert. Forschung kann mit Dewey vielmehr als diejenige Tätigkeit bezeichnet werden, welche Wissen generiert, sei dies in alltäglichen Situationen für die praktische Problemlösung oder in der akademischen Forschung im Sinne einer Grundlagenforschung:
Im Alltagsleben stellen die Menschen Forschungen an; sie drehen Dinge intellektuell um; sie schließen und urteilen ebenso „natürlich“ wie sie säen und ernten, Güter produzieren und austauschen. Als Verhaltensweise ist die Forschung einem objektiven Studium ebenso zugänglich wie diese anderen Verhaltensweisen (Dewey 2008, S. 128).
Forschung ist folglich für Dewey ein praktischer Prozess der Wissensproduktion, welcher – analog zu anderen Handlungen – einem empirischen Studium unterzogen werden kann. Die Arbeiten von Dewey zur Logik der Forschung lassen sich dabei auf eine grundlegende pragmatische Perspektive auf Wissen und Forschung beziehen. Denn auch William James kritisiert einen Rationalismus und macht darauf aufbauend die von ihm als „radikalen Empirismus“ benannte Perspektive deutlich:
Ich verleihe meiner Weltanschauung [dt. im Original] den Namen ›radikaler Empirismus‹. Empirismus gilt als das Gegenteil von Rationalismus. Der Rationalismus tendiert dahin, Allgemeinheiten hervorzuheben und das Ganze in der logischen wie auch ontologischen Ordnung als da dem Teil gegenüber Vorgängige auszuweisen. Der Empirismus dagegen legt in seiner Erläuterung die Betonung auf das Teil, das Element, das Einzelne, und sieht im Ganzen eine Ansammlung von etwas und im Allgemeinen eine Abstraktion. Entsprechend beginnt meine Beschreibung der Dinge mit den Teilen und behandelt das Ganze als ein Seiendes zweiter Ordnung. […] Um radikal zu sein, darf der Empirismus innerhalb seiner Deutungen weder ein nicht unmittelbar erfahrenes Element zulassen [sick!] noch ein unmittelbar erfahrenes daraus ausschließen. Für eine solche Philosophie müssen jene Beziehungen, durch die Erfahrungen miteinander verbunden sind, ihrerseits erfahrene Beziehungen sein, und jede Art von erfahrener Beziehung muß für genauso ›wirklich‹ wie alles andere im System auch erklärt werden (James 2006, S. 29).
Sichtbar wird – wie bereits bei Dewey – die Kritik des Pragmatismus am Startpunkt des „Rationalismus“ bei Allgemeinheiten. Der Startpunkt der Analyse muss gemäß James jedoch immer das Spezifische und das Einzelne sein, da erst daraus das Allgemeine als Struktur zweiter Ordnung entsteht. James macht zudem deutlich, dass alles Erfahrene real ist. Dabei verweist er jedoch nicht alleine auf die Dingwelt, d. h. die Forschungsobjekte, sondern auch auf die zwischen ihnen erfahrenen Beziehungen. Real – und folglich in die Analyse miteinzubeziehen – sind folglich nicht nur die Forschungsobjekte selbst, sondern auch die Perspektive darauf, d. h. die bei der Forschung zur Anwendung gekommene Forschungsperspektive selbst.
Die Erweiterung der Daten- und Prozessperspektive geht mit einer unterschiedlichen Sicht auf Fragen der Koordination und der Qualität von Surveys einher. In der Folge einer pragmatischen Epistemologie werden maßgeblich zwei Änderungen vorgenommen. Forschung wird zunächst nicht alleine auf die akademische Survey-Forschung bezogen. Forschung wird vielmehr generell als zielgerichteter Prozess der Wissensproduktion verstanden. Survey-Forschung findet folglich nicht lediglich an Hochschulen und Universitäten statt, sondern generell dort, wo Surveys für die Wissensproduktion verwendet werden. Der für die folgende Argumentation zentrale Beitrag der pragmatischen Epistemologie besteht in der Prämisse, wonach sich die Qualität von Survey-Forschung nur aus der Forschungspraxis heraus bewerten lässt. Eine dem Gegenstand angemessene Survey-Methodologie lässt sich folglich nur in Auseinandersetzung mit der Survey-Praxis selbst entwickeln. Eine Erweiterung der Daten- und Prozessperspektive ist folglich nicht möglich, ohne eine Identifikation und Analyse der Forschungspraxis, bzw. der Survey-Praxis selbst. Wie die Arbeiten der EC deutlich gemacht haben, ist dabei die Logik der Erstellung von Kategorien entscheidend, d. h. die Ordnungsleistung des Messgegenstandes durch ein auf Äquivalenzkonventionen aufbauendes Messsystem. Aus einer pragmatischen Perspektive wird sichtbar, dass der Prozess der Erstellung von Kategorien nicht unabhängig von der konkreten Forschungssituation gedacht werden kann. Die Bewertung von „Survey-Qualität“ muss folglich auf der Basis der jeweiligen Forschungslogik bewertet werden. Zentral ist bei der empirischen Untersuchung der Survey-Praxis zudem, sämtliche in der Survey-Praxis referenzierten Elemente für die Bewertung von Survey-Qualität miteinzubeziehen (James 2006, S. 29). Wie in den vorhergehenden Abschnitten deutlich gemacht wurde, können aus der Perspektive der Survey-Methodologie, den Science und Technology Studies und den Beiträgen der EC zur Survey-Forschung insgesamt drei Dimensionen der Survey-Praxis identifiziert werden, welche aneinander vermittelt werden müssen. Die Koordination zwischen den verschiedenen Dimensionen kann als Survey-Pragmatik bezeichnet werden, welche in der Abb. 2.1 graphisch dargestellt ist.
Die neu eingefügte Dimension als Element von Survey-Qualität stellt dabei das Wissensformat dar. Von „Wissensformat“ und nicht etwa von „Messsystem“ oder „Äquivalenzkonvention“ wird deswegen gesprochen, da die Pluralität an unterschiedlichen Survey-Welten untersucht wird, welche Wissen mit unterschiedlichen Eigenschaften produzieren. Dadurch wird ein starker Fokus auf das Endprodukt der survey-basierten Wissensproduktion gelegt. Die Produktion unterschiedlicher Wissensformate bedingt den Bezug auf unterschiedliche Äquivalenzkonventionen (und damit auf unterschiedliche Messsysteme). Das Messsystem ist dabei zunächst unterdefiniert. Denn wie Cicourel aufgezeigt hat, sind Messsysteme nicht per se hermetisch geschlossene Äquivalenzräume, sondern können sich aus verschiedenen Logiken zusammensetzen. Die in dieser Arbeit verfolgte Ebene des Messsystems stellen dabei nicht unterschiedliche sozialwissenschaftliche Theorien dar. Vielmehr wird mit dem Element des Wissensformats der Survey-Pragmatik auf diejenige Kategorisierungslogik des Empirischen fokussiert, welche sich aus den unterschiedlichen Anwendungskontexten von surveybasierten Daten ergeben. Deutlich wird damit, dass aus der Survey-Welten-Perspektive selbst dann unterschiedliche Wissensformate vorgefunden werden können, wenn dieselbe sozialwissenschaftliche Theorie als Grundlage der Befragung verwendet wird.
Die Survey-Pragmatik dient in einem ersten Schritt der Konzeptualisierung von „Survey-Praxis“. Dies kann folglich als Koordination und Kompromissbildung zwischen methodischen Entscheidungen, dem Survey-Management von Ressourcen und Akteuren und unterschiedlichen Wissensformaten verstanden werden. Die verschiedenen Dimensionen der Survey-Pragmatik lassen sich dabei wie folgt zusammenfassen:
  • Dimension des Wissensformats: Welche Form oder welche Art des Wissens soll mithilfe eines Surveys erreicht werden? Was ist das eigentliche Ziel der Quantifizierung (Desrosières 2009a, S. 312)? Dient ein Survey beispielsweise als Entscheidungsgrundlage in einem Unternehmen dazu, zu bestimmen, ob das Angebot ausgebaut werden soll oder nicht? Oder dient ein Survey als Informationsinstrument für eine Gesellschaft? In dieser Dimension wird folglich der Zweck eines Surveys festgelegt und entschieden, welchen Anwendungskriterien er genügen muss, bzw. welches Wissensformat am Ende erreicht werden soll. Unterschiedliche Wissensformate werden durch den Bezug auf unterschiedliche Äquivalenzkonventionen der Messung hergestellt, d. h. durch den Bezug auf unterschiedliche Messsysteme.
  • Dimension des Survey-Managements: Welche Möglichkeiten bestehen, einen Survey umzusetzen? Zentral sind hier die verwendbaren Ressourcen wie Zeit, Geld, verfügbares Personal usw. Von Bedeutung ist hier jedoch nicht nur die grundsätzliche Ausstattung mit Ressourcen, sondern auch deren pragmatische Handhabung: Kann Person X an Tag Y die Aufgabe Z durchführen? Ist es technisch möglich, einen Austausch zwischen zwei Software-Programmen herzustellen? Wann müssen Survey-Daten verfügbar sein? Welche Präzision etc. kann innerhalb des gegebenen Zeitraums mit dem vorhandenen Budgets erreicht werden? Die Dimension des Survey-Managements zielt folglich auf die Analyse der operativen und praktischen Umsetzung von Surveys ab. Auch die praktische Koordination zwischen Auftraggeber und Auftragnehmer in Survey-Projekten stellt einen Teil des Survey-Managements dar. Maßgebliche Beiträge hierfür stammen aus der Prozessperspektive auf Survey-Qualität.
  • Dimension der Methodik: Wie werden methodische Fragen beantwortet? Wie wird die Grundgesamtheit, die Stichprobengröße, der Befragungsmodus etc. festgelegt? Zentral ist in der Dimension der Methodik die Mobilisierung von methodischen Grundsätzen und Regeln der empirischen Sozialforschung. Anschaulich wird mit der Einbindung der Methodik in die Survey-Pragmatik, dass methodische Entscheide nur eine Dimension von Forschungsprojekten darstellen, welche in einen Kompromiss mit den restlichen zwei Dimensionen der Survey-Pragmatik gebracht werden. Maßgebliche Beiträge zu diesem Element der Survey-Pragmatik wurden durch die Datenperspektive entwickelt.
Die Survey-Pragmatik sieht sich nicht als Fundamentalkritik an der Survey-Forschung, vergleichbar zu derjenigen von Cicourel (1974), sondern als konzeptionelle Fundierung der Survey-Praxis und von Survey-Qualität. Die Datenperspektive legte ihren Fokus wie dargestellt auf methodische Entscheidungen. Die eigentliche Leistung der Prozessperspektive war es, zusätzlich zu methodischen Entscheidungen auf die Pragmatik zwischen methodischen Entscheidungen und dem Survey-Management in verschiedenen Situationen hinzuweisen. Zentral ist dabei, dass bereits in der Prozessperspektive die Hinzunahme einer zweiten Koordinationsdimension nicht lediglich additiv gedacht ist, sondern in einer Ko-Koordination mit der Methodik steht. Damit ist gemeint, dass das Survey-Management einen Einfluss auf methodische Entscheidungen haben kann. Dies wurde sichtbar im Verweis von Biemer und Lyberg auf die Konkurrenz zwischen verschiedenen (erweiterten) Qualitätsdimensionen, wie beispielsweise Zeitlichkeit und Genauigkeit (Lyberg und Biemer 2008, S. 424). Die Pragmatik der Datenerstellung hängt hier folglich direkt mit methodischen Entscheidungen zusammen. Analog stellt auch die Erweiterung der Konzeption von Survey-Praxis und Survey-Qualität durch die Einführung unterschiedlicher Wissensformate keine reine Addition dar, sondern steht in Interaktion mit der Methodik und dem Survey-Management. Deutlich wird damit, dass sich Survey-Qualität weder auf die Datenqualität, noch auf ein erfolgreiches Survey-Management, noch auf die Erreichung eines spezifischen Wissensformats alleine reduzieren lässt. Die eigentliche Qualitätsebene von Survey-Projekten stellt aus Sicht der Survey-Pragmatik die Koordination zwischen den drei unterschiedlichen Dimensionen dar. Die Survey-Pragmatik versteht sich deswegen als Praxisperspektive. Denn die Survey-Praxis ist der Ort, an dem die Koordination zwischen den drei Qualitätsdimensionen stattfindet.
Auf der Basis des Konzepts der Survey-Pragmatik kann das Forschungsinteresse nun spezifiziert werden:44
  • Welche unterschiedlichen Wissensformate existieren in der Survey-Praxis? Welche unterschiedlichen Qualitätsvorstellungen gehen im Hinblick auf die surveybasierte Produktion von Wissen damit einher?
  • Welche Auswirkungen haben die unterschiedlichen Wissensformate auf die restlichen Dimensionen der Survey-Pragmatik? Inwiefern gehen also unterschiedliche Wissensformate mit unterschiedlichen Koordinationsformen in der Survey-Praxis einher? Wie werden folglich unterschiedliche Wissensformate praktisch über verschiedene Stationen und Situationen hinweg produziert?
  • Wie wird in der Survey-Praxis ein Kompromiss zwischen den verschiedenen Dimensionen der Survey-Pragmatik erreicht? Wie wird „Survey-Qualität“ folglich praktisch zu erreichen versucht? Welche Anforderungen stellt dies an die verschiedenen, in eine statistische Kette involvierten Akteure, insbesondere aber an Projektleiter auf Seiten der Auftraggeber und Auftragnehmer in Survey-Projekten?
Im folgenden Kap. 3 werden die theoretischen Grundlagen ausführlich dargestellt, welche als grundlegende Perspektive bei der Umsetzung der genannten Forschungsinteressen dienen.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Fußnoten
1
Gemeint sind hier insbesondere Projektleiter, welche auf der Seite von Survey-Firmen und Auftraggebern die praktische Umsetzung von Survey-Projekten sicherstellen.
 
2
Tatsächlich muss hier erwähnt werden, dass die generelle Forschungsrichtung natürlich erst durch die dem Forschungsprojekt zu Grunde liegende theoretische Ausrichtung auf der Basis der EC möglich wurde. Die spezifische theoretische Ausgestaltung, bspw. die Entscheidung für das Konzept der Produktionswelten als theoretischen Rahmen für die Forschung wurde jedoch durch die Erkenntnisse aus den ersten Gesprächen mit den verschiedenen Survey-Praktikern getroffen.
 
3
Zu beachten ist hier, dass neuere Entwicklungen des Total-Survey-Errors wie beispielsweise das Konzept der Total-Survey-Quality von Paul Biemer bereits der Prozessperspektive zuzurechnen sind (Biemer 2011). Denn auch hier wird Survey-Qualität nicht mit Datenqualität gleichgesetzt und die Nutzungssituation von Survey-Daten in die Qualitätsbewertung miteinbezogen.
 
4
Ein „Mode“ bezeichnet in der Survey-Methodologie die Art der Befragung. Schnell unterscheidet zwischen persönlichen, postalischen, telefonischen und webbasierten Befragungen (Schnell 2012, S. 187 ff.).
 
5
Ausnahmen stellen neuere Entwicklungen wie beispielsweise ASPIRE von Statistics Sweden dar (Biemer 2016, S. 135).
 
6
In ihrem Überblick über die Geschichte der Standardisierungsdebatte in der Survey-Forschung verweisen beispielsweise Douglas Maynard und Cate Schaeffer auf Fowler und Mangione (2002).
 
7
Eine auffällige Untertheoretisierung des Antwortprozesses in Surveys im Vergleich zu den bereits seit längerem ausdifferenzierten statistischen Methoden diagnostizieren auch Tourangeau et al. (2000, S. 2).
 
8
Gobo (2006, S. 291) sieht die umfassende Standardisierung einem Einfluss des Behaviourismus geschuldet und verweist dabei auf Hamilton (1968) und Rice (1929).
 
9
Der Einzug der psychologischen Kognitionstheorie in die Survey-Methodologie lässt sich bereits früher datieren, wie später noch ausgeführt wird. Tourangeau und Bradburn datieren den Einzug kognitiver Konzepte in die Survey-Forschung auf den Beginn der 1980er Jahre (2010, S. 316).
 
10
Für einen Überblick zu weiteren zentralen Publikationen vgl. Schwarz (2007).
 
11
Eine eng an die Ethnomethodologie angelehnte Forschungsrichtung stellen die Workplace Studies dar. Diese werden ausführlicher in Abschn. 4.​2 vorgestellt.
 
12
Dies hängt nicht zuletzt damit zusammen, dass die Debatte um die Standardisierung in Surveys bereits auf eine mehre Jahrzehnte umfassende Geschichte zurückblicken kann (O'Muircheartaigh 1997).
 
13
David Riesman formuliert diese Spannung pointiert, wenn er die Aufgabe des Interviewers darin sieht, den standardisierten Fragebogen an den unstandardisierten Antwortenden anzupassen (Riesman 1958, S. 305).
 
14
Das INSEE (Institut National de la Statistique et des Etudes Economiques) ist das nationale Statistikamt in Frankreich (Peneff 1988, S. 522).
 
15
Vgl. hierzu König (1972, S. 27).
 
16
Ein „Mode“ bezeichnet die Art der Befragung. Schnell unterscheidet zwischen persönlichen, postalischen, telefonischen und webbasierten Befragungen (Schnell 2012, S. 187 ff.).
 
17
Als mögliche Lösung sieht Schnell die Einführung einer durch den Bund finanzierten zentralen Erhebungsstelle, um die genannten Koordinationsschwierigkeiten umgehen zu können (Schnell 2012, S. 192 f.).
 
18
Desrosières verweist darauf, dass die Einführung der erweiterten Qualitätskriterien notwendig wurde durch die zunehmende Auslagerungspraxis der Befragung an externe Survey-Firmen durch Statistikämter. Dadurch wurde eine Explizierung von Qualitätskriterien notwendig (Desrosières 2009a, S. 309 f.).
 
19
Daneben existieren weitere Ansätze, welche eine Prozessperspektive operationalisieren wollen. Collins und Sykes beispielsweise verweisen auf vier Qualitätsdimensionen: Ressourcen und Designqualität als Kernqualitäten, Prozessmanagement-Qualität, Service Standards und Beziehungsqualität als nachfolgende Qualitätsstufen (Collins und Sykes 1999).
 
20
Vgl. hierzu auch Brackstone (1999, S. 3).
 
21
Biemer und Lyberg schlagen weiter vor, die maximale Qualität aus einem gegebenen Survey-Budget herauszuholen durch eine an der Nutzung der Survey-Daten orientierten Qualitätsabwägung (Lyberg und Biemer 2008, S. 433). Hier kann jedoch kritisch nachgefragt werden, inwiefern Survey-Budgets in Survey-Projekten tatsächlich gegeben sind und ob diese nicht als Bestandteil eines zunächst offenen Koordinationsprozesses betrachtet werden müssen.
 
22
Vergleiche hierzu auch (Groves 2004). Biemer und Lyberg stellen weitere Qualitätskonflikte dar, etwa zwischen Genauigkeit und Relevanz oder Genauigkeit und Zeitlichkeit (Biemer und Lyberg 2003, S. 352 ff.).
 
23
Bas van Fraassen wird von Hacking als Vertreter des Positivismus bezeichnet (Hacking 1996, S. 76). Van Fraassen nennt die von ihm entworfene wissenschaftstheoretische Position „Konstruktiven Empirismus“ (van Fraassen 1980, S. 12). Im Gegensatz zu van Fraassen beziehen sich die Ausführungen von Aaron Cicourel ausdrücklich auf Messungen in der Soziologie. Cicourels Position entspricht einer phänomenologisch orientierten Ethnomethodologie, welche er selbst als „kognitive Soziologie“ bezeichnete (Eberle 2001).
 
24
Cicourel bezieht sich hier auf die beiden Arbeiten „Qualitative Measurement in the Social Sciences“ von Lazarsfeld und Barton (1951) und „Evidence and Inference“ von Lazarsfeld (1959). Lazarsfeld stellt einen wichtigen Begründer der empirischen Sozialforschung dar. Die wohl einflussreichste Studie von Lazarsfeld für die Entwicklung der empirischen Sozialforschung, ist die Arbeit zu den Arbeitslosen von Marienthal, welche er gemeinsam mit Marie Jahoda und Hans Zeisel durchgeführt hat (Jahoda et al. 1975).
 
25
Eine „archäologische“ Perspektive auf die Meinungsforschung nimmt Felix Keller ein (2001).
 
26
Mit dem engen Verhältnis zwischen Gesellschaft und Survey-Forschung befasst sich Claire Durand (2016).
 
27
Das Konzept der Performativität wurde von Michel Callon im Hinblick auf die gesellschaftliche Übernahme von Denkmustern und Konzepten der Wirtschaftswissenschaften eingeführt (Callon 1998). Vgl. zum Konzept der Performativität der Sozialforschung auch Diaz-Bone (2010b).
 
28
Die Entwicklung und Etablierung der EC als Forschungsprogramm wird ausführlicher in Kap. 3 dargestellt.
 
29
Für eine Übersicht zu den Beiträgen der EC zur Quantifizierung vgl. Diaz-Bone (2016, 2018, S. 331 ff.) und Diaz-Bone und Didier (2016b), sowie das dazugehörige Sonderheft von Historical Social Research (Diaz-Bone und Didier 2016a). Die folgende Einführung der Perspektive der EC auf Quantifizierung kann nur selektiv sein, da viele Arbeiten der EC hierzu eine stark politökonomische Perspektive einnehmen, welche für dieses Forschungsprojekt weniger zentral ist.
 
30
Mit Storper und Salais ließe sich hier von unterschiedlichen Staatskonventionen sprechen (Storper und Salais 1997, S. 210 ff.).
 
31
Dies ist generell ein zentrales Thema der EC-Studien zur Quantifizierung. Vgl. hierzu bspw. Thévenot (1997).
 
32
Das Konzept der Konvention wird in Abschn. 3.​1.​1 ausführlich eingeführt.
 
33
Dies lässt sich gut an der Darstellung von verschiedenen Epochen der öffentlichen Statistik durch Desrosières zeigen. Die Verwendung unterschiedlicher statistischer Methoden findet nicht zu Beginn der epistemologischen Veränderungen statt, sondern als deren Resultat. Der eigentliche Wechsel zwischen den Welten findet in der Folge einer Nachfrage nach anderen Wissensformaten auf epistemologischer Ebene statt (Desrosières 2009b). Die Aufgabe von Survey-Praktikern ist es dann, diese epistemologische Ebene mittels geeigneter (neuer) statistischer Techniken zu treffen und so methodisch zu organisieren.
 
34
Diese Idee findet sich auch bei van Fraassen. Dieser spricht von einer Theorieabhängigkeit der Relevanz einer Messung (2008, S. 166). Sie findet sich jedoch auch in der Wissenschaftstheorie von Gaston Bachelard. Gemäß ihm erstreckt sich der epistemologische Vektor von der Theorie zur Empirie hin (Bachelard 1988, S. 9 f.).
 
35
Desrosières spricht in Bezug auf die Statistik von Äquivalenzkonventionen (Desrosières 2005, S. 14).
 
36
Desrosières verweist auf eine eigentlich paradoxe Funktion von Statistiken: „We have presented statistics here in an apparently paradoxical way. Statistics both reflect and institute reality“ (Desrosières 2000, S. 186).
 
37
Das Konzept der Investition in Formen wurde von François Eymard-Duvernay und Laurent Thévenot entwickelt (1983b). Vgl. zu diesem Konzept Abschn. 3.​1.​3.
 
38
In der EC wird hierfür das Konzept der Forminvestition gebraucht (Thévenot 1984). Dies bezeichnet soziale Ordnungsprozesse, welche auch als Investition in eine soziale Ordnung betrachtet werden können. Dieses für die EC wichtige Konzept wird ausführlich in Abschn. 3.​1.​3 eingeführt.
 
39
Welche durch Lukas Neuhaus mit einer Anwendung auf Lehrpersonen wiederholt wurde (Neuhaus 2008a, 2008b). Allerdings fehlt hier der Bezug zur Economie des conventions im engeren Sinn. Vgl. zur Rezeption der Studie von Boltanski und Thévenot Penissat et al. (2016).
 
40
Zentral ist hierfür der reflexive Akteur der EC (Diaz-Bone 2011a, S. 12 f.).
 
41
Wobei sich die Kritik von Ciourel nicht auf die standardisierte Survey-Forschung beschränkt, sondern eine generelle Kritik an der Methodologie der Soziologie darstellt, da er diverse weitere Methoden der Sozialwissenschaften einer Kritik unterzieht, darunter auch qualitative Ansätze (Cicourel 1974).
 
42
Sie reiht sich damit in Arbeiten der sog. „Science and Technologie Studies“ (STS) ein. Das zentrale Forschungsinteresse liegt hier darin, die praktische Hervorbringung von (wissenschaftlichem) Wissen zu untersuchen. Eine für die STS insgesamt einflussreich gewordene Studie stellt das Werk „Laboratory Life. The construction of scientific facts“ von Bruno Latour und Steve Woolgar dar. Diese Studie stellte zugleich auch einen Startpunkt für die Entwicklung der ANT durch Bruno Latour dar (Latour 2007, S. 386).
 
43
Vgl. zum methodologischen Standpunkt der EC Diaz-Bone (2018, S. 367 ff.).
 
44
Die dargestellten Forschungsinteressen stellen eine erste Annäherung dar. Diese werden auf der Basis der forschungsleitenden Theorie in Abschn. 3.​4 weiter spezifiziert.
 
Metadaten
Titel
Perspektiven auf Survey-Qualität
verfasst von
Raphael Vogel
Copyright-Jahr
2019
DOI
https://doi.org/10.1007/978-3-658-25437-7_2