Zum Inhalt
Erschienen in:

Open Access 2025 | OriginalPaper | Buchkapitel

5. Forschungsstrategien – Auf der Spur der Cyberinfrastruktur

verfasst von : Konstantin Rink

Erschienen in: Digitale Werkstätten

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Das Kapitel untersucht die Komplexität von Cyberinfrastrukturen, die als netzförmige Diagramme heterogene Akteure miteinander verbinden und sich über diverse Räume erstrecken. Anstatt eines linearen Modells wird die Cyberinfrastruktur als tabulatorisches Netz beschrieben, das eine Vielzahl von Verbindungen und Anfangspunkten aufweist. Die qualitative Sozialforschung steht vor der Herausforderung, allgemeingültige Ordnungen aus dem Chaos zu gewinnen, was durch die Reflexivität und Perspektivität der Forschung gekennzeichnet ist. Die Technografie, eine Methode der Ethnografie, wird als Ansatz gewählt, um die Praktiken im Zusammenspiel mit der Cyberinfrastruktur sichtbar zu machen. Dabei wird eine Kombination aus teilnehmender Beobachtung, Artefaktanalysen und ethnografischen Interviews verwendet. Die Triangulation heterogener Datentypen soll eine Beobachtbarkeit der Cyberinfrastruktur herstellen. Das Kapitel beleuchtet die Herausforderungen und Möglichkeiten der Multi-Sited-Ethnografie und der Technografie, die sich gegen die Technikvergessenheit in der Sozialwissenschaft richtet. Es wird die Performativität der Methoden und die Frage der Triangulation diskutiert, um ein fraktales Bild der Cyberinfrastruktur zu zeichnen. Die Auswertungsstrategien, insbesondere die Grounded-Theory-Methodology und die Situationsanalyse, werden detailliert dargestellt, um die theoretische Sättigung und die empirische Sättigung zu erreichen. Das Kapitel bietet eine tiefgehende Analyse der Cyberinfrastruktur und deren Einbindung in soziale Praktiken, die für Fachleute in den Bereichen Informatik, Soziologie und Ethnologie von großem Interesse ist.
Cyberinfrastrukturen gleichen netzförmigen Diagrammen, die heterogene Akteure miteinander verbinden, ein Regime aus stabilen Grenzobjekten bilden und sich über diverse Räume erstrecken (Abschn. 4.​3.​2). Statt es mit einem linearen Modell zu tun zu haben, im Sinne einer Kausalität, wo A aus B folgt, wo also ein Weg für sich beanspruchen kann, der notwendige zu sein, sind Cyberinfrastrukturen tabulatorische Netze. „The field site in a study such as this is not a predetermined entity“ (Hine 2008: 54). Dementsprechend gibt es eine Multiplizität von Verbindungen und eine Vielzahl von möglichen Anfangspunkten. Serres (1993) beschreibt solche Phänomene als eine Gemengelage: „Der Zustand der Dinge ist ein Wirrwarr, ist verknäult wie eine Schnur, ein langes Kabel, ein Wollfaden“ (ebd.: 105).
Generell lässt sich die gegenwärtige Kultur als ein „enorm komplexes und gründlich verwickeltes Wirrwarr untereinander verknüpfter und voneinander abhängiger […] Praktiken“ beschreiben (Ang 2006: 71). Diesem Zustand des Wirrwarrs kann qualitative Sozialforschung nicht damit beikommen, allgemeingültige Ordnungen dem Chaos abzugewinnen. „Während Malinowski die Maxime ausgab, die Perspektive des Eingeborenen zu übernehmen, und die Repräsentation der Homogenität einer Kultur anstrebte“ (Winter 2002: 51), muss die Forschung heute wesentlich reflexiver auftreten und kann lediglich eine singuläre, situative und perspektivische Wahrheit für sich beanspruchen. Jede kulturelle Beschreibung ist „von provisorischer Natur, schafft eine diskursive ‚Objektivierung‘ und Sedimentation von ‚Kultur‘ durch das Aussondern und Hervorheben einer Reihe diskontinuierlicher Ereignisse aus einem fortlaufenden, niemals endenden Fluss, und greift daher schon durch die Definition immer bereits zu kurz“ (Ang 2006: 71). Doch das ist kein Mangel der Forschung, vielmehr ist es ein unhintergehbarer Sachverhalt, „der das Eingebundensein und die Verantwortung des Forschers/Schreibers als Produzent von Beschreibungen wiedergibt“ (ebd.).
Qualitative Forschung und allen voran die Ethnografie, die im Weiteren im Fokus stehen wird, produzieren keine allgemeinen Wahrheiten über den Zustand der Dinge. Im Gegensatz zu positivistischen oder post-positivistischen Positionen gibt es keineswegs einen ‚neutralen‘ oder ‚objektivierenden‘ Blick auf die Praktiken oder die Cyberinfrastruktur. In Anlehnung an Clifford (1986) halten Cyberinfrastrukturen und die mit ihnen verbundenen Praktiken für ihre Porträts nicht still, und alle Versuche, sie zum Stillhalten zu zwingen, bedeuten notwendig Reduktionismen (ebd.: 10). Ausgehend von der Writing-Culture-Debatte (Clifford/ Marcus 1986; Fuchs/Berg 1993) und deren Implikationen für die Ethnografie soll ein methodisches Vorgehen entworfen werden, mit dem die Praktiken im Zusammenspiel mit der Cyberinfrastruktur sichtbar gemacht werden können. Hierfür wurde eine Kombination aus teilnehmender Beobachtung, Artefaktanalysen und ethnografischen Interviews für die Studie gewählt. Mit Hilfe der Triangulation heterogener Datentypen soll anschließend an Scheffer (2002), keine „realistische Triangulation“ (ebd.: 362) errichtet werden. Die hier angewandte Triangulation unterscheidet sich von naturalistischen Forschungsansätzen. Naturalistische oder positivistische Forschungsansätze haben das Ziel, der unhintergehbaren Perspektivität zu entgehen und zu der Praxis selbst zu gelangen – was letzten Endes ein positivistischer Irrglaube ist. Weder teilnehmende Beobachtung noch Artefaktanalyse noch Interviews sind im Stande, zu den Dingen selbst zu gelangen oder eine Kultur bzw. Praxis in ihrer Gesamtheit zu beschreiben. An dessen Stelle soll die Triangulation eine Beobachtbarkeit (ebd.) herstellen. Durch die Triangulation von Feldprotokollen, Artefaktanalysen und Interviews sollen Eindrücke und Bilder gestiftet werden, „die es uns erlauben, das Leben anderer Leute wie auch das Unsrige besser zu verstehen“ (Ang 2002: 72). Keine der diffraktiven Lesarten kann für sich behaupten, die eine Geschichte um die Cyberinfrastruktur zu erzählen, sondern die Beschreibungen anhand heterogener Datentypen zielen „auf eine perspektivische Verschiebung ab, so dass Phänomene in anderem Licht erscheinen können [Hervorh. im Original]“ (Eickelmann 2017: 72). Das Zentrum dieser Studie bildet keine Personengruppe oder kein Kollektiv, sondern die Cyberinfrastruktur in situ. Daher handelt es sich bei der Untersuchung um eine Technografie.
Zunächst wird in Abschnitt 5.1 erläutert, was unter Technografie zu verstehen ist. Anschließend wird in Abschnitt 5.2 dargelegt, was der Gegenstand (Abschn. 5.2.1) und was das Feld (Abschn. 5.2.2) der technografischen Forschung ist. Anschließend werden die drei Methoden skizziert: teilnehmende Beobachtung (Abschn. 5.3.1), Artefaktanalysen (Abschn. 5.3.2) und ethnografische Interviews (Abschn. 5.3.3). Im letzten Teil dieses Kapitels (Abschn. 5.5) wird auf die Triangulation der Methoden eingegangen.

5.1 Anlage der Untersuchung: Technografie

Hinter dem Label Technografie verbirgt sich ein diverses Forschungsfeld, das ihre Wurzeln in zum Teil sehr unterschiedlichen Traditionen hat, zu nennen sind hier die Workplace Studies, die STS und die Fallstudien der ANT. Ungeachtet ihrer teils divergierenden Ausgangsstellungen eint technografische Studien die Intention, eine neue Perspektive zu fördern, die Technologie als Akteur des Sozialen in der qualitativen Forschung beschreibt (Kien 2008: 1106). Oder um es mit den Worten von Rammert (2019) zu sagen, ist das “Mitmachen der Technik beim Handeln” Gegenstand der technografischen Analyse (Rammert 2019: 347). Gemeinsam haben technografische Studien, dass sie sich gegen die Technikvergessenheit in der Sozialwissenschaft richten und materielle Bestandteile stärker betonen wollen. Durch ihren starken technischen Fokus bei gleichzeitiger soziologischer Provenienz besitzt die Technografie eine hybride Gestalt. Wie Braun-Thürmann (2006) es formuliert, wird die Technografie „SoziologInnen stören, weil sie übertrieben technisch ist, und IngenieurInnen, weil sie mit Bemerkungen über Symbole, Interaktionsformen und Praktiken beladen ist“ (Braun-Thürmann 2006: 202). Von beiden Seiten besteht die Gefahr missverstanden zu werden und dem wissenschaftlichen Anspruch beider Disziplinen nicht zu entsprechen. „Andererseits bietet dieses Zwischengebiet die Möglichkeit, einige maßgebliche Strukturen von technisierten Gesellschaften freizulegen“ (ebd.: 203).
Zurück geht der Begriff Technografie auf einen Report von Anderson aus dem Jahr 1996, welcher 1997 in der Encyclopedia of Microcomputers wiederabgedruckt vorliegt. In Auseinandersetzung mit Suchmans Studie „Plans and Situated Actions“ (1987) versucht Anderson, deren ethnografische Interventionen auf einen Begriff zu bringen. Er verortet drei Interventionen ihrer Arbeit:
There is the dependence upon fieldwork as an investigative technique and ethnography as its correlated analytic strategy. There is the concern to represent the user community of practice and users’ actual work practices in and through the examination of the minutiae of their working lives. Finally, there is a predisposition to see the structure and order that the pattern of such working lives display as ‚situated‘, ‚occasioned‘ and ‚co-produced‘ (Anderson 1997: 12).
Für Anderson spielt der Begriff weiterhin keine entscheidende Rolle, er dient ihm lediglich als Bündelung von Suchmans forschungsstrategischen Anliegen. Dennoch ist in dieser frühen Fassung vieles von dem enthalten, was spätere Studien, ohne je einen direkten Bezug zu Andersons Arbeit herzustellen, hervorheben. Technografie ist „[die Anwendung] ethnographischer Methoden auf den Gegenstandsbereich der Mensch-Technik-Beziehung“ (Rammert 2019: 348). Oder in komplett verknappter Form ausgedrückt, ist Technografie „Technology + Ethnography“ (Kein 2008). Kennzeichnend ist, dass sie auf die Methode der Ethnografie zurückgreift um das wechselseitige Verhältnis zu beschreiben. Für die Technografie sind technische Artefakte nicht von der Kultur loszulösen oder außerhalb des Sozialen zu verorten, vielmehr „ermöglichen sie eine Kultur, genauso wie sie in einer solchen hergestellt und nutzbar gemacht werden“ (Braun-Thürmann 2006: 218). Demnach ist die Technografie keine neue Methodologie, sondern eine „konzeptionelle Zuspitzung des ethnographischen Ansatzes auf die Technizität einer Kultur“ (ebd.). Von daher ist es sinnvoll, „Markenzeichen“ (Breidenstein et.al. 2020) ethnografischer Forschung im Lichte seiner technografischen Erweiterung im Weiteren zu analysieren.

5.2 Ethnografische Feldarbeit (nach der Writing Culture Debatte)

Im Zuge der Writing-Culture-Debatte innerhalb der Anthropologie gerieten viele der Gewissheiten der Ethnografie in die Kritik und ein neuer Kanon ethnografischer Literatur entstand (Marcus 2002, Lemke 2014). Die Debatte, die ihren Namen einer Aufsatzsammlung aus dem Jahr 1986 verdankte (Clifford/ Marcus 1986) und zunächst auf die „narrativen Strategien und rhetorischen Mittel ethnographischer Texte“ (Lemke 2014: 45) zielte, weitete sich später auch auf den Feldaufenthalt, auf den Gegenstand und die Reflexivität ethnografischer Forschung aus. Ein zentraler Kritikpunkt an den bis dato bestehenden Ethnografien war deren Realismus: „Ethnographic realism […] is a mode of writing that seeks to represent the reality of a whole world or form of life […] realist ethnographies are written to allude to a whole by means of parts or foci of analytical attention which constantly evoke a social and cultural totality“ (Marcus/Cushman 1982: 29). Ihre Autorität gewannen die Autor:innen traditioneller Ethnografien durch ihr Dabeisein, ihre Anwesenheit im Feld, auf deren Basis sie eine kulturelle Totalität textlich produzierten, so die Kritik im Zuge der Writing-Culture-Debatte. „Es gehört zu den Konventionen des Genres, die Autorität mit einer ‚arrival story‘ […] zu etablieren, um sodann die erste Person aus dem Text verschwinden zu lassen und sie durch einen auktorialen Erzähler zu ersetzen“ (Lemke 2014: 46). Weitere Elemente der traditionellen Ethnografie waren aus Sicht der Kritiker:innen Generalisierungen und Typisierungen, die von partikularen Handlungen absahen. „The particulars of whatever was being investigated (rituals, marriage practices, forms of political organization, etc) were seldom presented in their individuality, but rather were teased into a statement of typicality (a typical ritual, a typical marriage practice, a typical village council, etc)“ (Marcus/Cushmann 1982: 35).
Von den Merkmalen traditioneller Ethnografien setzen sich kritische Vertreter:innen der Writing-Culture-Debatte ab und entwickeln neue Forschungs- und Schreibtechniken. Aus der Debatte heraus sind neue Forschungslinien entstanden, unter die auch die Technografie subsumiert werden kann. Die Debatte bildet so etwas wie einen „Kristallationspunkt“ (Fuchs 2022: 170), indem sich die Ethnologie und ihre übergeordnete Disziplin (die Anthropologie) „ihrer Grundlagen neu vergewisserte und sich neu zu verankern suchte“ (ebd.). Im Zuge der Debatte haben einstige Grundüberzeugungen traditionelle Ethnografie fragwürdig werden lassen und einen Prozess in Gang gesetzt, neue, experimentellere Formen der Ethnografie zu erproben – beispielsweise Technografien. Bis in die 1980er Jahre hinein gehörte eine naturalistische Epistemologie und die Konvention einer holistischen Darstellung zu den Grundüberzeugungen (Knecht 2012), die in die Form der Monografien gegossen wurden. „The institutionalization of the monographic tradition in turn reinforced what I call the ethnographic trilogy: one observer, one time, one place“ (Trouillot 2002: 45). Seit dem Aufkeimen der Debatte sollte die Ethnografie nicht mehr dieselbe sein (Spencer 2001: 443).
Im Weiteren soll die Debatte mit ihren diversen Positionen weitgehend vernachlässigt werden. Stattdessen sollen zwei für die Ethnografie wesentliche Grundfragen, die Frage nach dem Gegenstand (Abschnitt 5.2.1) und die Frage nach der Feldkonstruktion (Abschnitt 5.2.2) vor dem Hintergrund der Fragestellung diskutiert werden. Ausgangspunkt ist dabei die Kritik, die mit der Writing-Culture-Debatte aufkam und die traditionellen ethnografischen Gewissheiten ins Wanken brachte. Sowohl die Frage nach dem Gegenstand als auch nach der Feldkonstruktion sind zentral für die hier vorliegende Technografie. Von daher werde ich in der Darstellung immer wieder auf meine eigene Konzeption der Feldforschung eingehen.

5.2.1 Gegenstand der ethnografischen Forschung

Traditionelle Ethnografie, für Marcus (2002) war das insbesondere die Arbeit von Malinowski, widmeten sich „autochthonen Minderheiten“ (Lemke 2014: 59), die es in ihrer isolierten Totalität zu erforschen galt. Ziel dieser Ethnografien war es, fremde Kulturen aus der Sicht der Einheimischen zu verstehen, sozusagen „from the point of view of the native“ (Geertz 1974). Ein Beispiel für einen solchen Versuch ist Geertzs „Deep Play“ (1972), in dem er den balinesischen Hahnenkampf beschreibt (Geertz 1972). Aus der Beschreibung des Hahnenkampfes heraus schließt Geertz auf das Ethos der balinesischen Kultur im Allgemeinen: „[W]e go to see Macbeth to learn what a man feels like after he has gained a kingdom and lost his soul, Balinese go to cockfights to find out what a man, usually composed, aloof, almost obsessively self-absorbed, a kind of moral autocosm “ (Geertz 1972: 27).
Durch das Zusammenspiel von dichter Beschreibung, die Geertz in dem Artikel praktisch vollführt und den abgeleiteten Thesen zur Kultur der Balinesen, ist „Deep Play“ (1972) zu einem Klassiker der Ethnografie geworden. Wegen seines Anspruches, Kulturen aus Sicht der Einheimischen zu verstehen, wurde der Artikel in der Writing-Culture-Debatte auch Gegenstand heftiger Kritik – so unter anderem von Crapanzano (1986):
„Geertz offers no specifiable evidence for his attributions of intention, his assertions of subjectivity, his declarations of experience. His constructions of constructions of constructions appear to be little more than projections, or at least blurrings, of his point of view, his subjectivity, with that of the native, or, more accurately, of the constructed native“ (ebd.: 74)
Die Writing-Culture-Debatte, postkoloniale Kritik und eine verstärkte globalisierte Welt haben dazu beigetragen, dass Ethnografien der ‚Wilden‘, die sich in den Tropen verorten, langsam im Feld der Anthropologie abnahmen und neue Forschungsgegenstände Einzug hielten. An ihre Stelle traten Ethnografien der eigenen Kultur, welche sich auf der einen Seite eine kritische Distanz zur eigenen Kultur mittels Befremdung des Allzuvertrauten bewahrten (Hirschauer/Amann 1997: 13) und auf der anderen Seite „die Ränder, die Brüche oder das Jenseits der Rationalität“ (Latour 1995: 134) studierten. Doch „[s]olange die westlichen Ethnologen sich auf die Peripherie beschränken, bleiben sie asymmetrisch“ (Latour 1995: 135). Latour (1995), Marcus (2002) oder Haraway (1988) verbindet die Einsicht, dass das Studium der Randbereiche, „bei dem der Ethnograph [sic] als Sprachrohr unterdrückter Minderheiten agiert, einem komplexeren Unterfangen weichen müsse und dem ‚Aufbrechen‘ ethnographischer Objekte und Subjekte Rechnung getragen werden sollte“ (Lemke 2014: 60).
Eine Ethnografie nach der Writing-Culture-Debatte muss ihre Perspektive auf die Ausgeschlossenen und die ‚Anderen‘ als homogenen Gegenstand verlieren (Marcus 2002: 101). In diesem Sinne heben Marcus oder Haraway die Mobilität der Gegenstände hervor: „A commitment to mobile positioning and to passionate detachment is dependent on the impossibility of entertaining innocent ‘identity’ politics and epistemologies as strategies for seeing from the standpoints of the subjugated in order to see well“ (Haraway 1988: 585). Gemäß Marcus (2002) müssen Ethnografien eine komparative Dimension besitzen, da die Untersuchungsgegenstände mobil und vielfach situiert sind. Diese Dezentralität und Multidemsionalität sollen nach Marcus (2002) durch die Nebeneinanderstellung von Phänomenen, die konventionell als getrennte Welten erschienen (oder begrifflich auseinandergehalten wurden), integraler Bestandteil jeder Ethnografie sein (ebd.: 102). Insbesondere die Forschungen in den STS haben die distributiven, vernetzten und delokalisierten Elemente moderner Untersuchungsgegenständen herausgearbeitet; zu nennen wäre hier die großartige Arbeit „Two Bits“ (2008) von Kelty zum Phänomen der Open-Source-Software (siehe auch: Rabinow/Dan-Cohen 2005, Knorr-Cetina 2012).
Der in dieser Arbeit im Zentrum stehende Forschungsgegenstand – die Cyberinfrastruktur – kann vor diesem Hintergrund als eine „juxtaposition, assemblage, or networks“ (Marcus 2011: 28) treffend bestimmt werden. Der Untersuchungsgegenstand ist hierbei weder singulär noch stabil. „[I]nfrastructures that are […] rather wildly incoherent and only partially materialized, and that continue to pull in different directions. It is uncertain whether there is, in fact, a biography to describe in such cases, or whether instead there are multiple competing versions of infrastructural ‚identity‘“ (Jensen/Winthereik 2013: 13). Allerdings ist der Forschungsgegenstand nicht die Technologie an sich, sondern ihre Einbindung in soziale Praktiken. „[S]uch tools and technologies are never independent of the actors and organizations that promote, maintain, and use them“ (ebd.). Mit der Fokussierung auf soziale Praktiken im Zusammenspiel mit der Cyberinfrastruktur interessiert sich die nachfolgende Technografie für das genaue ‚Wie‘ des Organisationsvollzugs (Hirschauer 2004: 73). Die vorliegende Technografie untersucht die ungewisse und komplexe Interaktion von Cyberinfrastruktur, Mensch und anderen materiell-räumlichen Arrangements. Es wird erforscht, wie die Cyberinfrastruktur fortwährend performativ hervorgebracht wird, und wie sie vielfältig eingebunden ist.
Wenn der Gegenstand der Untersuchung auf Praktiken abstellt, dann wird das „Gemacht-Sein von Prozessen und Ordnungen“ (Knecht 2012: 258) ins Zentrum gerückt. Im Gegensatz zu traditionellen Ethnografien gelangen im Rahmen technografischer Forschungssettings, die soziale Praktiken als Gegenstand haben, nicht eine einzelne Akteursgruppe in den Blick. Vielmehr sind sie an ein prozessuales Zustandekommen von Ordnungen gerichtet, an denen ganz verschiedene Akteure partizipieren, die miteinander in Beziehung stehen (Knecht 2012: 259). Zwei Besonderheiten von praxistheoretisch orientierten Technografien betont Knecht (2012): Einerseits geht es darum, nicht nur menschliche Partizipanten zu erforschen, „sondern auch einen methodischen Zugang zu den nicht-menschlichen Partizipanten von Netzwerken zu erschließen, zu Artefakten und Objekten“ (ebd.). Zum anderen interessiert sich eine Ethnografie sozialer Praktiken dafür, „wie unterschiedliche Praktiken miteinander verbunden sind und in welche Konstellationen sie miteinander eingehen“ (Knecht 2012: 260). Angesichts des Einsatzes der Cyberinfrastruktur ist dieser Aspekt besonders relevant, denn das Forschungsinteresse rückt neben den konkreten Praktiken auch ihre Orchestrierung in den Mittelpunkt.

5.2.2 Feldkonstruktion

Wo sich traditionelle ethnografische Forschungen durch eine langfristige Ortsbindung ausgezeichnet haben, ist im Zuge der Writing-Culture-Debatte und der ihr nachfolgenden Ethnografie das Gütekriterium eines „deep hanging out“ (Jager/Nieswand 2022: 478) radikal in Frage gestellt worden. An die Stelle der exotischen Inseln traten Alltagskulturen der eigenen Gesellschaft, die in vielen Fällen mit den Lebens- oder Arbeitswelten der Ethnograf:innen verflochten sein können (Knecht 2013: 90). Selbst all die Orte, die scheinbar weit entfernt anmuten, können unmittelbarer erscheinen als das, was direkt vor einem selbst liegt (Simpson 2009). Das liegt nicht unbedingt an denjenigen, denen die Ethnograf:innen im Feld begegnen, sondern in den Veränderungen in den Kapazitäten, den Modalitäten und der schieren Geschwindigkeit, mit der das Feld den Forschenden entgegentritt (Simpson 2009: 2). In zugespitzter Weise formulierte es Marcus: „In contemporary settings, what is shared is the perception that local realities are produced elsewhere through dispersed relations and agencies, generating a multi-sited“ (Marcus 2011: 20). Aus Sicht von Marcus (2011) und anderen Ethnograf:innen (Amit 2000, Strathern 1991) löst sich das, was als lokalisierbares Feld galt, durch die sich beschleunigenden Globalisierungsprozesse immer weiter auf. Das Forschungsfeld scheint keine Grenzen mehr zu besitzen, und es gibt keinen Ort mehr, der in sich selbst existiert und autarke Kulturen beherbergt. Amit (2000) weist ebenfalls auf den kontingenten Charakter hin.
„Yet in a world of infinite interconnections and overlapping contexts, the ethnographic field cannot simply exist, awaiting discovery. It has to be laboriously constructed, prised apart from all the other possibilities for contextualization to which is constituent relationships and connections could also be referred“ (ebd.: 6).
Herausforderung ist, wie „im Rahmen einer Methode, die großen Wert auf sozial-räumliche Kopräsenz mit dem Forschungsgegenstand legt, nicht lokal präsentes, aber relevantes Geschehen ethnografisch eingeholt werden kann“ (Jaeger/Nieswand 2022: 480). Wo und wie sollen die Schnitte entsprechend angesetzt werden, um in einer nahtlosen Realität einen kleinen Ausschnitt auszumachen, der untersuchbar wird? Wie gelingt die Herstellung eines Feldes, „deren Interdepenzzusammenhänge eine globale Reichweite haben“ (Breidenstein et al. 2020: 56)?
Nach Marcus (2007) sind Ethnografien, die sich von der Lokalisierung verabschieden und sich stattdessen auf das Following einlassen, nicht mehr als ‚barock‘ zu bezeichnen. „Multi-sited research is designed around chains, paths, threads, conjunctions, or juxtapositions of locations“ (Marcus 1995: 105). Anstatt sich auf eine lokal verortete Ethnografie zu beschränken, empfehlen Marcus (1995) und auch Latour (1987), die Verbindungen zwischen heterogenen Orten zu suchen und den Akteuren, Objekten, Metaphern, Biografien, Konflikten usw. zu folgen. Eine Ethnografie, die sich nicht auf lokale Stätten beschränkt, sieht sich jedoch gleich mehreren Vorwürfen ausgesetzt, auf die kurz eingegangen werden soll, da sich dadurch die der Arbeit zugrundeliegende Perspektive und Vorgehensweise erschließt.
Einerseits ist es für die ethnografische Praxis bedeutend, dass sie sowohl unmittelbar den sozialen Praktiken begegnet, Informationen aus erster Hand gewinnt (Breidenstein et al. 2020: 38), als auch an den Praktiken partizipiert. „Verglichen mit anderen qualitativen Forschungsstrategien betreibt die Ethnographie für die Gewinnung empirischen Wissens einen enormen zeitlichen Aufwand“ (ebd.). In der längerfristigen und anhaltenden Kopräsenz im Feld wird der „Modus Vivendi der Feldforschung“ gesehen (ebd.: 45). „Die Kopräsenz der Ethnografin bezieht sich auf ihre Gleichörtlichkeit und Gleichzeitigkeit, also auf eine zeit-räumliche Synchronisierung der Performanz lokaler Praktiken und ihrer Beobachtung, eine Synchronisierung, die eine (temporäre) Teilnahme einschließen kann.“ (Kalthoff 2003, S. 75). Mit den multiplen Standorten eröffnen sich translokale Verbindungen und durch die zahlreichen Anschlüsse, die sich bei einem längeren Aufenthalt ergeben, steigt schnell die Anzahl der Orte, die für eine Untersuchung von Interesse sein könnten. Wenn die:der Ethnograf:in allen heterogenen Verbindungen nachgehen würde, könnte die hohe Mobilität dazu führen, dass die „synchrone Begleitung lokaler Praktiken“ (Breidenstein et al. 2020: 47) gesprengt und untergraben wird. Spöttisch bemerkte Wacquant (2009) dazu, dass die Multi-sited-Ethnografie ein fadenscheiniger Deckmantel für eine Praxis ist, die eher dem Kulturtourismus als einer Feldforschung ähnelt, die diesen Namen auch verdient (Wacquant 2009: 115).
Andererseits ist es auch bei einer Multi-Sited-Ethnografie notwendig, das Forschungsfeld abzugrenzen. Trotz der Verfolgung zahlreicher Verbindungen müssen einige Orte aus pragmatischen Gründen als blinde Flecken bestehen bleiben. „Vor dem Hintergrund der sich mit jeder site potenzierenden Anzahl weiterer translokaler Verbindungen, denen gefolgt werden könnte, scheinen die wenigen, die dann de facto ausgewählt oder ermöglicht werden, in hohem Maße willkürlich“ (Jaeger/ Nieswand 2022: 484). In der traditionellen Ethnografie wird dieses Problem dadurch gelöst, dass sie auf einem naturalistischen Feldverständnis aufbaut, das Felder beobachtungsunabhängig konzipiert. Multi-sited-Ethnografien entkommen einem naturalistischen Feldverständnis jedoch nicht vollständig und fallen stellenweise in eine ähnliche Argumentationsweise zurück. „[M]ulti-sitedness highlights the construction and contingency of sites in a seamless world; on the other, the desire to leave ‘siting’ to others, and to study ‘their’ sites, seems to revive earlier notions of a site as a really existing entity out there, something to be discovered [Hervorh. Im Original]“ (Candea 2007: 172). In dem latour´schen Aufruf, den Verbindungen zu folgen (following), liegt das Verständnis implizit zugrunde, dass die translokalen Verbindungen auch ohne die:der Ethnograf:in bestünden. Anstelle eines lokalen Holismus tritt in der Multi-sited-Ethnografie ein globaler Holismus: „What we have in mind is a text that takes as its subject not a concentrated group of people in a community, affected in one way or another by political-economic forces, but ‚the system‘ itself“ (Marcus/Fischer 1986: 91). Durch das Aufspüren von Verbindungen zwischen heterogenen Stätten und deren Zusammenführung zu einem Ganzen versucht die Multi-sited-Ethnografie, die aus ihrer Sicht unvollständige Darstellung eines einzelnen, partiellen Ortes zu entgehen und ihr Feld zu skalieren, was am Ende einen impliziten Hollismus beinhaltet, wenn auch unter anderen Vorzeichen. Denn der Holismus der Multi-sited-Ethnografie ist anderer Art, da über Fragmente versucht wird, ein Gesamtbild disparater Elemente zu erzeugen. Doch damit bleibt die Herausforderung der Einschnitte von Forschungsfeldern bestehen, wenn nicht sogar noch gesteigert. „The realization that wholeness is rhetoric itself is relentlessly exemplified in collage, or collections that do not collect but display the intractability of the disparate elements. Yet such techniques of showing that things do not add up paradoxically often include not less cutting but more“ (Strathern 1991: 110).
Wie also umgehen mit den Irritationen durch die Multi-sited-Ethnografie und zugleich mit deren Problemen, die sie mit sich führt? Was ist das Feld und wo endet es? Theoretisch lassen sich diese Fragen nicht a priori beantworten. Die Cyberinfrastruktur und die Praktiken, an denen sie teilhat, sind keine Einheiten von klar bestimmbarer Größe und lassen sich demnach nicht vollständig vermessen. Das Forschungsfeld ist als relationales Gefüge zu beschreiben, welches keinen einheitlichen Ursprung hat, noch ein inhärentes Telos zugeschrieben werden kann (Eickelmann 2017: 71). Daraus folgt, dass ein following der unzähligen Verzweigungen allein forschungspragmatisch scheitern muss, da es die Ressourcen des Forschenden notwendig übersteigt. Zudem würde man so den einzelnen Stätten kaum gerecht werden.
Die vorliegende Untersuchung versuchte einen Zwischenweg. Auf der einen Seite wurde versucht, über eine einzelne Stätte hinauszugelangen und den Vernetzungen der Cyberinfrastruktur zu folgen. Dabei mussten einzelne Phänomene abgeschnitten werden, worin jedoch keine Schwäche der Technografie liegt. „The decision to bound off a site for the study of ‘something else’, with all the blind-spots and limitations which this implies, is a productive form of methodological asceticism“ (Candea 2007: 180). Die Beschränkung auf vermeintlich willkürliche Orte mag als Makel erscheinen, aber sie zeigt die Unvollständigkeit und Kontingenz, der jede Techngrafie respektive Ethnografie ausgesetzt ist. Als Forschender traf ich auf verstreute und mobile Personengruppen, die in komplizierten Kombinationen von Online- und Offline-Aktivitäten tätig waren (Karasti/Blomberg 2018: 242). Im Gegensatz zu simplen Dokumentationstools, die an einem festen Standort oder in einer Einrichtung genutzt werden, ist die Cyberinfrastruktur „neither singular, nor singularly attached to any one site“ (Jensen 2010: 20). Aber auch die Addition der Stätten ergibt kein vollständiges Bild der Cyberinfrastruktur. Je mehr Lücken geschlossen werden, desto mehr neue tauchen auf.
Auf der anderen Seite wurde versucht, den einzelnen Stätten Zeit einzuräumen. Erst nachdem der Eindruck entstand, die Abläufe der einzelnen Stätten zu verstehen und mittels Feldprotokollen eingefangen zu haben, wurde sich weiter im Feld bewegt. Der Fokus lag dabei auf der Einbindung der digitalen Grenzobjekte. Den digitalen Grenzobjekten wurde gefolgt, was mit sich brachte, dass ich in unterschiedliche Einrichtungen gelangte und verschiedene Akteure traf. Die Vernetzungen, die mit der Cyberinfrastruktur einhergingen, waren sicherlich zahlreicher als die von mir untersuchten. Aber um einem Kulturtourismus zu entgehen, entschied ich mich bewusst für eine kleinere Anzahl von Stätten.
Das Bild, das im Laufe der Analyse von der Cyberinfrastruktur entstehen wird, lässt sich als fraktal beschreiben. „This imagery is fractal because it pictures the complexity of infrastructure as scale invariant, with complexity replicating across scales“ (ebd.). Fraktal bedeutet, die Ganzheit zu verleugnen und sie dennoch als Illusion und Anspielung auf eine konstituierende Abwesenheit wie Unvollständigkeit zu bewahren (Cooper 1998: 115). Die Cyberinfrastruktur ist weder Singular noch Plural, weder Teil noch Summe, sondern eine Vermittlung, die sich immer zwischen Objekten bewegt und nie in ihnen ruht. Das following the cyberinfrastructure hat mich in der Forschung an verschiedenen Stätten geführt, die immer neue Verbindungen aufgezeigt haben. Von der Last befreit, alle Lücken schließen zu wollen, nahm ich mir häufig die Zeit, um einzelne Stätten und Personen zu begleiten, ohne gleich wieder zur nächsten zu reisen. Letzten Endes ist meine Forschung also ein Da-Zwischen zwischen einer Single-site-Technografie und einer Multi-site-Technografie und zwischen den digitalen Grenzobjekten – mit all ihren blinden Flecken. Ein Mittel, um dennoch der Fraktalität der Cyberinfrastruktur beizukommen, liegt meiner Sicht nach in der Kombination verschiedener methodischer Vorgehensweisen. Mit der Hilfe von heterogenen Perspektiven lässt sich eine Beobachtbarkeit der Cyberinfrastruktur herstellen.

5.3 Methodenpluralismus

Im Gegensatz zu anderen sozialwissenschaftlichen Verfahren zeichnet sich das technografische – wie auch das ihr zugrundeliegende ethnografische – Forschen durch eine weitgehende „methodische Freiheit“ (Amann/Hirschauer 1997: 17) aus. Der entscheidende methodologische Schritt besteht nach Amann & Hirschauer (1997) in Bezug auf die Ethnografie im Allgemeinen in der „Befreiung von Methodenzwängen, die den unmittelbaren, persönlichen Kontakt zu sozialem Geschehen behindern“ (ebd.). Anstelle eines kontrollierten Instrumentes „erzeugen Forscherpersonen ihre Selektionsbedingungen und Selektionen in Eigenarbeit und in Abhängigkeit von ihren Erfahrungen“ (ebd.) innerhalb des Untersuchungsfeldes. Die Technografie ist damit in gewisser Weise keine Methode als solche, sondern als ein integrierter Forschungsansatz zu verstehen, der „Beobachtungen mit Interviews, technischen Mitschnitten und Dokumenten aller Art [kombiniert]“ (Breidenstein et al. 2013: 33).
Von einer kritischen Perspektive aus betrachtet, haftet der Ethnografie „der Ruch des Unwissenschaftlichen“ an (Amann/Hirschauer 1997: 18), weil die Datenerhebung etwas mit individuellen Fähigkeiten zu tun hat. Dennoch handelt es sich nicht um ein willkürliches Vorgehen, je nach persönlicher Façon des Forschenden. Das Forschungsfeld ist in sich selbst ein „methodisch generierendes und strukturierendes Phänomen“ (ebd.: 19), so dass ein Methodenzwang vor allem vom Feld ausgeht. Die Gewinnung von Daten kann a priori nicht konzeptionell festgelegt werden, da die Felddynamik selbst den Forschungsprozess maßgeblich gestaltet. Der Normalfall der Ethnografie ist dabei die Kombination aus verschiedenen Datentypen wie Protokollen, Tagebüchern, Interviewtranskripten oder Konversationsmitschnitten (Breidenstein et.al. 2020: 39). „Hier bewährt es sich, keine Integration der Datentypen anzustreben, sondern sie so zu arrangieren, dass sie sich wechselseitig kommentieren und ergänzen können“ (ebd.: 39). Es geht darum, durch eine methodische Assemblage die Komplexität des Untersuchungsgegenstandes sichtbar zu machen und ein fraktales Bild zu zeichnen. „This triangulation of methods (i.e. interviews, observation and document analysis) […] can contribute to rendering aspects of infrastructure that are invisible to some actors or difficult to ‚see‘ using certain methods more discernible“ (Karasti/Blomberg 2018: 251).
In den nachfolgenden Kapiteln werde ich die für die Studie leitenden methodischen Verfahren vorstellen, beginnend mit der teilnehmenden Beobachtung, die einerseits am geeignetesten zur Rekonstruktion von Praktiken ist und andererseits die primäre Datenquelle dieser Studie bildet (Abschn. 5.3.1). Im Anschluss skizziere ich die Artefaktanalyse, die neben der teilnehmenden Beobachtung das zweite, relevante Datenerhebungsverfahren darstellt und die einzelnen digitalen Grenzobjekte in ihren materiellen Eigenschaften beleuchtet (Abschn. 5.3.2). Im Anschluss erläutere ich das ethnografische Interview (Abschn. 5.3.3), welches als ergänzende Methode eingesetzt wurde, mit denen Meinungen, Argumentationen und erzählende Rekonstruktionen einzelner Begebenheiten erhoben wurden. Interviews sind keine Repräsentation der Praxis, sondern eine eigene Praxis sui generis. Durch das Gesagte hindurch kann nicht auf Praktiken rückgeschlossen werden, vielmehr bringen sie eine ganz eigene Wirklichkeit hervor; was für alle drei Typen von Daten gilt. Nachdem in Abschnitt 5.3.4 der gesamte Datenkorpus dargestellt wird, soll am Ende auf die Performativität der Methoden eingegangen werden (Abschn. 5.4). In der theoretischen Darstellung der Methoden werde ich auch auf mein eigenes Vorgehen in der Studie eingehen.

5.3.1 Teilnehmende Beobachtung

Die teilnehmende Beobachtung gilt als die Kernmethode ethnografischer – und damit auch technografischer – Erhebungen. Unter Beobachtung im Sinne der teilnehmenden Beobachtung können alle „Formen der Sinneswahrnehmung unter Bedingungen der Co-Präsenz“ (Scheffer 2002: 353) verstanden werden. Damit unterscheidet sich die teilnehmende Beobachtung von Beobachtungen in experimentellen Settings, die standardisiert und kontrolliert durchgeführt werden (Kelle 2018: 224). Im Gegensatz zur Videografie oder zu Interviews sind die Ethnograf:innen selbst die Instrumente, das heißt sie sind „personale Aufzeichnungsapparate [Hervorh. im Original]“ (Amann/Hirschauer 1997: 25). Die teilnehmende Beobachtung bezieht sich darauf, dass sich die Beobachter:innen an das Geschehen anpassen, an dem sie teilnehmen. Spradley (1980) unterscheidet vier verschiedene Typen der Teilhabe, die von vollständiger Involviertheit über aktive und moderate bis hin zur passiven Partizipation reichen (ebd.: 58 ff.). Während bei passiver Teilnahme der Fokus auf der Produktion von Beobachtungsdaten liegt, stehen bei involvierter Teilnahme die Erfahrungen der Ethnograf:in im Feld im Zentrum.
In meiner eigenen Forschung entschied ich mich zu Beginn für eine passive Beobachterrolle, die im Laufe der Untersuchung sukzessive ausgeweitet wurde, so dass ich stellenweise moderat oder gar aktiv tätig war. Die von mir übernommenen Aktivitäten standen im Zusammenhang mit den Adressat:innen. Dazu gehörte das Unterstützen beim Mittagessen oder der Transport von Gegenständen von A nach B. Es handelte sich dabei um einfache Hilfstätigkeiten im Feld. Durch stetige Begleitung und Gewöhnung an meine Anwesenheit konnte ich im Laufe der Zeit auch an Praktiken passiv teilnehmen, die für die betreffenden Personen sensibler waren. Ein Beispiel hierfür sind Entwicklungsgespräche mit Adressat:innen.
In engem Zusammenhang mit der Teilnahme steht der Feldzugang. Je nachdem, ob es sich um eine offene, halb verdeckte oder verdeckte Beobachtung handelt (Fine 1988), ergeben sich unterschiedliche Optionen für die Formen der Teilnahme (Kelle 2018: 276). Verdeckte und halbverdeckte Beobachtungen müssen aus forschungsethischen Gründen weitgehend abgelehnt werden. Aufgrund meiner Einführung in die Organisation (Abschn. 6.​2) handelte es sich bei meiner Forschung um eine offene Beobachtung. Alle Teilnehmer:innen waren über den Zweck meiner Anwesenheit und die Form der Datenerhebung informiert. Regelmäßig erinnerte ich die beteiligten Akteure im Feld daran, dass ich zu spezifischen Themen forsche und die Abläufe in Form von Feldprotokollen festhalte.
Besondere Herausforderung teilnehmender Beobachtung ist „die hohe Frequenz und Geschwindigkeit, mit der Meinungen, Positionen, Entscheidungen und Informationen auftauchen und zirkulieren“ (Scheffer 2002: 357). Um dieser Herausforderung zu begegnen, schlägt Scheffer (2002) vier Strategien vor: Wiederholung, Mobilisierung, Fokussierung und Perspektivenwechsel (ebd.: 357 ff.). Da alle Strategien bei mir zum Einsatz kamen, möchte ich kurz auf sie eingehen. Teilnehmende Beobachtung als ein Verfahren, bei dem Menschen als Forschungsinstrumente eingesetzt werden und die mit einer begrenzten Aufnahmekapazität ausgestattet sind, trifft notwendig auf ein komplexes, praktisches Geschehen. Um diesem Problem zu begegnen, kann das gleiche Geschehen mehrmals begleitet werden, um Wissenslücken zu schließen, weitere Varianten zu entdecken, fehlende Details zu ermitteln oder den gesamten Ablauf zu vervollständigen (ebd.: 357). Durch Wiederholungen kann man von individuellen Elementen absehen und stattdessen auf „realtypische Muster“ (Breidenstein et al. 2020: 89) oder „formal-strukturelle Regelmäßigkeiten“ (Scheffer 2002: 357) zielen. Aus diesem Grund habe ich tägliche Routinen wie Mittagessen, Teammeetings und Protokollpraktiken mehrfach beobachtet. Einige Praktiken konnte ich aus forschungspragmatischen Gründen leider nur einmal begleiten, beispielsweise die Entgelteinstufung.
Um eine Situation in ihrer Heterogenität zu beobachten, greifen Ethnograf:innen auf eine Praxis zurück, die von Breidenstein et al. (2020) als Mobilisierung beschrieben wird. Die Mobilisierung ist der eigentliche Modus Operandi meiner Forschung. Ohne den following wäre es mir kaum gelungen, die Cyberinfrastruktur in ihrer Eingebundenheit und im Zusammenspiel mit weiteren räumlich-materiellen Arrangements einzufangen. Um das komplexe Netzwerk aus Praktiken zu präzisieren, bin ich den Verbindungen soweit gefolgt, wie es mir meine Position erlaubte. Im Rahmen einer beginnenden stationären Beobachtung habe ich weitere Gruppen verschiedener WfbM des Wohlfahrtsverbandes aufgesucht. Zudem habe ich mich an die Sozialarbeiter:innen gewandt, das Küchenpersonal in ihrem Tun begleitet und auch mit der Leitung der Einrichtung konnte ich Tageweise verbringen. Auf diese Weise können die verschiedenen Akteure und ihre Praktiken besser verstanden werden. Es geht darum, Zusammenhänge zu erkennen, zu verstehen, was woran anschließt, was worauf aufbaut und wie alles miteinander in Beziehung steht (Scheffer 2002: 359).
Während der teilnehmenden Beobachtung ist es notwendig, die Wahrnehmung auf spezifische Aspekte des Geschehens zu richten, wobei es erforderlich ist, dies reflexiv einzuholen. Die Fokussierung „liegt auf der Linie der Organisation des gesamten Forschungsprozesses, da dieser ja […] mit einer weiteten Perspektive beginnt“ (Breidenstein et al. 2020: 90) und sich – auch im Sinne der GTM – weiter auf einzelne Phänomene zuspitzt. Im Rahmen meiner Untersuchung habe ich eine thematische, räumliche und personelle Fokussierung vorgenommen. In einer ersten, explorativen Phase war der thematische Rahmen weit gefasst und ich habe verschiedene Einrichtungen besucht. Diese erste Phase der Feldforschung kann somit als eine Phase des Mäanderns bezeichnet werden. Es glich einem sich-treiben-lassen und dem Aufnehmen von Einblicken, wo sie sich ergaben. Mein Interesse galt zunächst jeder Form der technischen Durchdringung der Organisation. Diese Phase erstreckte sich über einige Monate und fand vor allem im Frühjahr/Sommer 2021 statt. Im Zuge der Analyse erster Feldprotokolle und im Sinne eines iterativen Prozesses habe ich das Thema auf Cyberinfrastrukturen fokussiert. Die Feldphase, die von Herbst 2021 bis Frühjahr 2022 durchgeführt wurde, konzentrierte sich auf alle Praktiken, an denen die digitalen Grenzobjekte beteiligt waren. Dadurch konnte ich besser entscheiden, welche Situationen ich genauer betrachten sollte und welche ich nur als Hintergrundinformationen beobachtete. Diese thematische Fokussierung führte zu entsprechenden personellen und räumlichen Fokussierungen. Vor dem Hintergrund der thematischen und personellen Fokussierung wurde ich im Rahmen der Untersuchung mit „divergierenden parteilichen Wahrnehmungsweisen konfrontiert“ (Breidenstein et al. 2020: 92). Im Zuge meiner Beobachtung konnte ich die Sichtweisen von Sozialdienstmitarbeiter:innen, Gruppenmitarbeiter:innen, Verwaltungskräfte, Leitungskräfte usw. kennenlernen und damit die Praktiken aus unterschiedlichen Perspektiven heraus verstehen.
Die bis hierin beschriebene Methode der teilnehmenden Beobachtung impliziert eine spezifische Form der Verschriftlichung. Beobachtungen müssen notwendig als Texte vorliegen, um sie für eine nachvollziehbare Analyse zugänglich zu machen (Soeffner 2004: 80 f.). Im Feld fertigte ich regelmäßig Stichpunkte über meine Beobachtungen an. Unter Stichpunkten verstehe ich das, was Emerson et al. (2007) als „jottings“ (ebd.: 19) oder später als „jotted notes“ (Emerson et al. 2010: 356) bezeichnet haben. Jottings sind kleine Stichpunkte, die Anhaltspunkte über das beobachtete Geschehen beinhalten. „Sie schaffen Erinnerungsstützen und Merkposten zusätzlich zu den Gedächtnisleistungen des Beobachters“ (Breidenstein et al. 2020: 100). Dabei können verschiedene Aspekte notiert werden, je nachdem in welchen Bereichen das eigene Gedächtnis kompensatorisch ergänzt werden muss (ebd.).
In meinem Fall waren es vor allem sinnliche Eindrücke, aktive Verben und sprachliche Ausdrücke, die – meist unbemerkt, um die Situation nicht zu stören – von mir aufgeschrieben wurden und die mir die nachfolgende Verschriftlichung erleichterten. Die Stichpunkte dienten als Gedächtnisstütze für das Schreiben von Beobachtungsprotokollen – den „fieldnotes“ (Emerson et al. 2007: 39). Die Beobachtungsprotokolle wurden im Sinne von Emerson et al. (2007) oder Breidenstein et al. (2020) direkt im Anschluss an den Feldaufenthalt erstellt. Bei der Erstellung der Protokolle habe ich mich an den Prinzipien von Spradley (1980) und Emerson et al. (2007) orientiert. Diese beinhalten unter anderem, dass Protokolle möglichst in der Sprache des jeweiligen Feldes verfasst werden sollen, einschließlich der Dokumentation feldspezifischer Ausdrücke (Spradley 1980: 67).
Eines der wichtigsten Prinzipien, das Emerson et al. (2007) besonders hervorheben, ist die Detailgenauigkeit und Konkretheit der Verschriftlichung (Emerson et al. 2007: 58 ff.). Es soll vermieden werden, pauschalisierende oder charakterisierende Ausdrücke zu verwenden, stattdessen soll ein möglichst genaues Bild der Praxis, Personen oder Orte gezeichnet werden. „Write [your fieldnotes] as lushly as you can, as loosely as you can, as long as you put yourself into it, where you say, ‘I felt that’“ (Goffman 1989: 131). Dazu gehören auch Dialoge oder Gespräche, die möglichst wortgetreu notiert werden sollen. Zu diesem Zweck setzte ich wortwörtlich notierte Ausdrücke oder Phrasen der Akteure in den Beobachtungsprotokollen unter Anführungszeichen. Aussagen, die ich sinngemäß notiert hatte, schrieb ich ebenfalls in direkter Rede auf. Aufgrund fehlender Anführungszeichen wird in den Beobachtungsprotokollen sichtbar, dass es sich um eine sinngemäße Verschriftlichung handelt. Dabei wurde darauf geachtet, die Sprache der Personen nicht zu verfälschen. Auch eigene Interaktionen wurden in die Protokolle mit aufgenommen.
Ein weiteres Prinzip bildete die Episodisierung (ebd.: 77 f.). „In an episode, a writer constructs a brief incident as a more or less unified depiction of one continuous action or Interaction“ (ebd.). Nicht jede Episode muss eine Klimax beinhalten, viele der Episoden berichten von alltäglichen und unbedeutenden Vorgängen. „Ethnographers often write episodic rather than more extended entries because they cannot track a sequence of actions and learn all the outcomes within one day“ (ebd.: 79). Durch die Zusammenstellung heterogener Episoden und ihrer Verknüpfung entsteht ein fraktales Gesamtbild.
Diese methodischen Anhaltspunkte sollen nicht darüber hinwegtäuschen, dass das Schreiben von Beobachtungsprotokollen Schwächen aufweist. Die Dokumentationsleistung ist angesichts der Vergesslichkeit menschlicher Beobachter:innen und der Komplexität der Praktiken bescheiden. Die zweite Schwäche besteht in der sogenannten „unheilbaren Hybridisierung von Darstellungsebenen“, wie von Hirschauer (2001: 433) beschrieben. Das heißt, die Daten sind notwendig mit der interpretativen Analyse angereichert, das heißt das Verschriftliche muss immer schon als Effekt theoretischer Annahmen betrachtet werden. „Schon bei der primitiven Akkumulation ethnografischen Wissens findet sich anstelle einer scheinbar ‚nackten‘ audiovisuell-reproduktiven Verdoppelung [in Form von Interviews] sozialer Phänomene Hinzufügungen, Auslassungen, Akzentuierungen, Wendungen, kurz: Darstellung“ (ebd.). Von der Idee eines „sozialen Originals“ (ebd.: 435) auszugehen, das durch Beobachtungsprotokolle verzerrt oder zumindest durch interpretative Analyse kontaminiert wird, wäre gleichwohl ein Trugschluss. Der Anspruch von Beobachtungsprotokollen besteht nicht darin, „möglichst neutrale Abschriften sozialer Prozesse“ anzufertigen (ebd.: 436), was eine sprachliche Verfasstheit des Sozialen voraussetzen würde. Stattdessen liegt die spezifische Leistung „vor der Schriftlichkeit transkribierter Aufzeichnungen und erst recht vor der Rhetorik publizierter Texte: in der Versprachlichung des Sozialen“ (ebd.).
Die Mittel, die dem Forschenden bei der Versprachlichung des Sozialen zur Verfügung stehen, sind laut Hirschauer (2001) kärglich, gleichsam beschämend: Wo bei Interviews die Autorisierung durch die Aussagen Anderer steht und zur Darstellung verwendet werden können, ist der Forschende nur mit den „Mitteln der Alltagssprache gewappnet“ (ebd.: 437). „Das primäre Bezugsproblem ethnografischen Schreibens zwingt dazu, eine beschämend private Sache, wie persönliche Sinneswahrnehmungen es sind, in die öffentliche Angelegenheit wissenschaftlicher Kommunikation überführen zu müssen“ (ebd.). Die Versprachlichung des Schweigsamen geht mit einer Transformation des Phänomens einher, da zwischen der wissenschaftlichen Sprache des Forschenden und dem Gegenstand1 immer eine Lücke klafft. Die Beschreibung in Form der Protokolle ist niemals eine naturalistische Repräsentation einer ‚Wirklichkeit‘, sondern vielmehr eine „sprachliche Landgewinnung“ (ebd.: 447). In diesem Umstand ist aber auch die besondere Stärke der ethnografischen Versprachlichung begründet.
„Eine Ethnografie, die sich darauf beschränkt, beredtes Zeugnis vom exotischen Leben und Reden anderer Leute abzugeben, wird, sobald diese ihr reflexives Wissen selbst öffentlich artikulieren, geschwätzig. Auf sie trifft der oft gegen die Ethnografie erhobene Vorwurf zu, dass eine soziologische Reportage, die ihren forschungsstrategischen Wert primär in der Neuheit des Gegenstands sucht, nur die Realität verdoppelt. Wenn jede Beschreibung Hinzufügung, Weglassung, Akzentuierung, Wendung, Darstellung ist, nach den Gütekriterien der Aufzeichnung ‚Verzerrung‘, dann leiden viele Ethnografien unter einem Verzerrungsmanko [Hervorh. im Original](ebd.: 449).
In diesem Sinne sind die Beobachtungsprotokolle als Verzerrungen, die ein „Feld in prononcierter Differenz zu den Teilnehmern“ (ebd.) erscheinen lässt, als Ziel der Verbalisierung zu verstehen. Eine vollumfängliche Darstellung von WfbM in ihrer organisationalen Form war nicht Ziel meiner Beobachtungsprotokolle, sondern nur bestimmte Aspekte wurden akzentuiert: Im Kern standen organisatorische Praktiken unter den Bedingungen der Cyberinfrastruktur. Von außen können mir gegenüber daher durchaus zu Recht Verzerrungen vorgeworfen werden, doch letztendlich sollen meine Beobachtungsprotokolle etwas sichtbar machen, was noch nicht begrifflich erfasst ist.
Zur Erweiterung der körperlichen Sensorik im Feld und der Fraktalität der Cyberinfrastruktur wurden weitere Erhebungsstrategien (Abschn. 5.3.2 und 5.3.3) eingesetzt. Mit Hilfe weiterer Datenerhebungen ging es mir nicht darum, dem Konstruktionscharakter ethnografischer Arbeiten zu entkommen und „per Datenabgleich der (unhintergehbaren) Perspektivität ‚ein Schnippchen zu schlagen‘“ (Scheffer 2002: 362), sondern um die Herstellung von Beobachtbarkeit. Auf den Aspekt der Triangulation der unterschiedlichen Methoden werde ich in Abschnitt 5.4 näher eingehen.

5.3.2 Artefaktanalyse

Artefakte schaffen als „wirkendes Gegenüber“ (Kalthoff et al. 206: 12) eine präformierte Welt und können demnach nicht als vorsoziale, gegebene oder stabile Elemente betrachtet, sondern müssen unter dem Gesichtspunkt ihrer performatorischen Dimensionen verstanden werden (Rabenstein 2018: 20 ff.). Sie besitzen eine potenzielle Mehrdeutigkeit, da ihre soziale Bedeutung erst im Kontext des praktischen Vollzugs, im Moment ihres Gebrauches sowie im Zusammenspiel mit anderen Elementen kontinuierlich hervorgebracht und transformiert wird. Dies impliziert, dass die Affordanzen, die in den Artefakten angeregt werden, nicht im Voraus festgelegt sind, sondern empirisch untersucht werden müssen (Bollig et al. 2012: 224).
Wenn davon auszugehen ist, dass bestimmte Affordanzen sich in situativen Ereignissen manifestieren, dann darf das Materielle nicht aus der Analyse ausgeklammert werden. Diese Sichtweise wird unter anderem von den Software Studies (Fuller 2008) oder den STS (Hutchby 2001, Knappett/Malafouris 2008) vertreten, die eine analytische Verlagerung fordern: „[W]e need to pay more attention to the material substratum, which underpins the very possibility of different courses of action in relation to an artefact; an which frames the practices, through which technologies come to be involved in the weave of ordinary conduct“ (Hutchby 2001: 450). In den aktuellen Diskussionen über Materialität und Handlungsfähigkeit technischer Artefakte steht primär das Konzeptionelle im Vordergrund, nicht die konkreten Materialien. Selbst in der ANT werden die Dinge „nicht als Wesensheiten nach eigenem Recht behandelt, sondern nur insofern sie in menschliche Projekte integriert sind“ (Ingold et al. 2016: 88). Mit Ingold (2007) teilt die vorliegende Studie die Kritik, dass viele Forschungen sich in die Abstraktion zurückziehen und auf die Materialität von Artefakten referieren, statt auf die konkreten Materialien und ihre Eigenschaften zu fokussieren (Ingold et al. 2016). „In urging that we take a step back from the materiality of objects to the properties of materials, I propose that we lift the carpet, to reveal beneath its surface a tangled web of meandrine complexity [Hervorh. im Original]“ (Ingold 2007: 9).
Neben dem analytischen Fokus auf soziale Praktiken wurde in der Erhebung auch der Fokus auf die Materialien der digitalen Grenzobjekte mittels Artefaktanalyse gelegt. Mit Hilfe der Artefaktanalyse von digitalen Grenzobjekten im Zusammenhang der Cyberinfrastruktur konnte herausgearbeitet werden, „welche Interpretationen sie den Akteuren im Feld durch ihre Beschaffenheit nahelegen“ (Kelle 2007: 204). Dem Anspruch „take materials seriously [Hervorh. im Original]“ (Ingold 2007: 14) folgend, vollzog sich die Artefaktanalyse einzelner Grenzobjekte und deren Eigenschaften immer in Relationierung zu den Praktiken. „Thus the properties of materials, regarded as constituents of an environment, cannot be identified as fixed, essential attributes of things, but are rather processual and relational“ (ebd.). Der analytische Zugriff auf die Cyberinfrastruktur und deren Regime digitaler Grenzobjekte erfolgte vornehmlich in situ und in actu, aber eben auch über Analysen der materiellen Eigenschaften.
Im Vergleich zu anderen Artefakten bergen die Interpretationen und Deskriptionen eines digitalen Artefakts und seiner Materialien besondere Schwierigkeiten. Digitale Artefakte sind im Vergleich zu anderen Artefakten auf der einen Seite stärker vernetzt. Bei Technologien handelt es sich meist um ganze Technikensembles. Das gilt insbesondere für Cyberinfrastrukturen, da sie, wie oben beschrieben, aus einem stabilen Regime von digitalen Grenzobjekten bestehen und durch ihre Fraktalität gekennzeichnet sind. Die einzelnen Artefakte sind untereinander verbunden, was die Interpretation eines Einzelnen erschwert, da es immer im Zusammenhang mit anderen steht. Auf der anderen Seite birgt die Zusammensetzung digitaler Artefakte eine deutliche Herausforderung. Während sich beispielsweise eine Geige mit ihrem weichen Holz, ihrem Lack und ihren Darmseiten beschreiben lässt (Ingold et al. 2016), fehlen haptische, akustische oder olfaktorische Eindrücke bei digitalen Artefakten. Eine besondere Rolle bei digitalen Artefakten spielt das Visuelle. Das grafisch-visuelle Erscheinungsbild digitaler Artefakte lässt sich in eine inhaltlich-sachliche Ebene (textliche Performativität) und eine formal-ästhetische Ebene (grafisch-visuelle Performativität) unterteilen (Wein 2020, Pauliks/Ruchatz 2020). Auf der ästhetischen Ebene werden die Darstellungsmodalitäten thematisch, das heißt es wird die grafische Bearbeitungsfläche betont. Der Bildschirm, auf dem das Dokument zu sehen ist, imitiert hier das „Blatt Papier; er macht Linien, Striche und Punkte sichtbar“ (Wein 2020: 25). „Bereits der ‚Text‘ des Bildes, die Anordnung seiner visuellen Zeichen oder sein Motiv […] muss als performative Hervorbringung gewertet werden“ (Burri 2008: 73). Die einzelnen Bild-, Text- oder Formelemente fügen sich zu einem Ganzen, wobei die Elemente ganz unterschiedlich zueinander in Verbindung stehen können: „Sie können einander bekräftigen, ironisieren, dementieren oder widersprechen“ (Reichertz/ Marth 2004: 10). In ihrer Performativität geht das Graphisch-Ästhetische in die Praktiken ein, ist aber „weder als alleinige Ursache noch – evidenterweise – als einzige Resultante der Kontingenz sozialer Praxis“ (Burri 2008: 76) zu behandeln.
Neben der textlichen und ästhetischen Performativität, die beide auf der Surface-Ebene liegen, spielen zwei weitere Ebenen in der digitalen Materialität eine Rolle (Abschn. 4.​3.​4). Während die forensische Materialität (Kirschenbaum 2008) kaum in die Analyse integriert werden konnte, spielt die formale Materialität, also die Subface-Ebene mit ihren Codes, Algorithmen usw., punktuell eine Rolle bei der Analyse digitaler Artefakte. Eine Herausforderung der materiellen Performativität auf der Subface-Ebene besteht darin, dass sie unsichtbar arbeitet. „Obwohl produzierte und programmierte Maschinen arbeiten solche Computer in einer Weise, die für Bewußtsein und für Kommunikation intransparent bleibt […], [s]ie sind streng genommen unsichtbare Maschinen“ (Luhmann 1997: 117). Die formale Materialität kann nicht gleichzeitig mit der Oberfläche beschrieben werden. Es ist jedoch möglich, den Code oder Algorithmus nachträglich zu rekonstruieren. Dies erfordert jedoch spezielles Wissen und Vorgehen, das in vielen Fällen nicht vorhanden war.
Ich habe mich bei der Analyse dieses komplexen Gefüges aus verschiedenen Ebenen an der Artefaktanalyse nach Lueger und Froschauer (2018) orientiert. Im Speziellen griff ich in der Analyse auf die Artefaktanalyse nach Froschauer (2009) zurück, die den organisationalen Kontext explizit mitberücksichtigt. Da es sich bei der Artefaktanalyse um eine sehr allgemeine Vorgehensweise handelt, muss sie an die jeweils konkreten Materialien angepasst werden (Lueger 2009: 329).
Bevor die eigentliche Analyse begann, mussten im Rahmen des Forschungsprozesses Artefakte ausgewählt werden. Zunächst wurden Artefakte gesammelt, die für mein Forschungsthema relevant waren und die – in einem kategorisierenden Akt – zur Cyberinfrastruktur zusammengefasst wurden. Insofern wurden jene Artefakte für die Analyse ausgewählt, in denen sich die Cyberinfrastruktur materialisierte. Insgesamt kamen so rund 30 Artefakte zusammen. Zur Entscheidung für bestimmte Artefakte wurde ein methodologisches Kriterium herangezogen: Es wurden vorzugsweise Artefakte analysiert, die eine bedeutende Rolle im organisationalen Alltag sowie in Kommunikations- und Entscheidungsprozessen spielten. Beispielsweise wurden Artefakte wie das digitale Telefonbuch oder die digitale Unfallmeldung aus dem Sampling ausgeschlossen, obwohl sie sich in der Analyse als Grenzobjekte zeigten. Nach der Auswahl der entsprechenden Artefakte folgte die Analyse.
Die Analyse der Artefakte nahm ihren Ausgangspunkt in anonymisierten grafischen Rekonstruktionen der jeweiligen Artefakte, die dann in Dossiers – ungefähr 10-seitige, ausführliche Profile –, die einer festgelegten Struktur folgen, nach den Ebenen der Artefaktanalyse verschriftlicht wurden. Die Struktur der Analyse orientiert sich grundsätzlich an Froschauer und Luegers Abfolge, die sie für die Artefaktanalyse (2018) vorschlagen (Abb. 5.1).
Abbildung 5.1
Ebenen der Artefaktanalyse nach Lueger und Froschauer.
(Quelle: Lueger/ Froschauer 2018: 65)
Die Analyse von Artefakten beginnt mit einer Kontextualisierung des Forschungsvorhabens und der Klärung der Existenzbedingungen der Artefakte. Es geht darum, zu klären, warum es das Artefakt in einem bestimmten Auffindungskontext überhaupt gibt (Lueger/ Froschauer 2018: 69). Es ist schwierig, die Frage nach der Existenz für jedes einzelne Artefakt der Cyberinfrastruktur zu beantworten, da es nur wenige Personen gab, die darüber hätten Auskunft geben hätten können. Stattdessen wird versucht, diese Frage im Kapitel zur Genese der Cyberinfrastruktur (Abschn. 6.​3) für das gesamte Regime der digitalen Grenzobjekte zu beantworten.
Nach der Klärung der Existenzgründe folgt eine deskriptive Analyse (Abb. 5.1), bei der das Artefakt auch explizit auf sein Material hin untersucht wird (Lueger/ Froschauer 2018: 71 f.). In dieser Phase werden der Aufbau, die räumliche Verortung, die Eigenschaften und die materielle Struktur des Artefakts beschrieben. Digitale Artefakte sind besonders, da sie Momentaufnahmen darstellen, da Software ständig weiterentwickelt, angepasst und verändert wird. Ziel der deskriptiven Analyse besteht „in der Verortung des untersuchten Gegenstandes in der sozialen Welt und bildet eine erste Rekonstruktion des Artefakts anhand seiner äußeren Merkmale“ (ebd.).
Es folgt die „alltagskontextuelle Sinneinbettung“ (Lueger/ Froschauer 2018: 74 ff.). Hierbei werden die Grenzziehung, beteiligte Akteure und allgemeine Bedeutungen in den Mittelpunkt gerückt. Aufgrund der sozialtheoretischen Grundlegung dieser Arbeit wird an den gegebenen Stellen auf die Sinneinbettung verzichtet, da sich dies in den Praktiken zeigt.
Nach diesen Phasen, die von Froschauer (2009) auch als dekonstruktive Bedeutungsrekonstruktion bezeichnet werden, folgt die distanzierend-integrative Rekonstruktion (Abb. 5.1). „Diese Rekonstruktion soll letztlich zum Verständnis der organisationalen Dynamik beitragen und somit die Ergebnisse argumentativ integrieren“ (Froschauer 2009: 333). Die distanzierend-integrative Rekonstruktion beinhaltet die Frage nach der Produktion, dem Umgang und den Wirkungen sowie den Funktionen. Wie schon bei dem Schritt der Sinneinbettung zeigt sich der Gebrauch in der Praxis, weshalb auf diesen Schritt in den Artefakt-Dossiers verzichtet wird. Beschlossen wird die Artefaktanalyse durch eine komparative Analyse (Lueger/Froschauer 2018: 77) und eine Rückführung auf die Forschungsfrage.

5.3.3 Ethnografische Interviews

Neben der teilnehmenden Beobachtung und der Artefaktanalyse wurden ethnografische Interviews durchgeführt. Im Rahmen meiner Forschung habe ich mit Schlüsselpersonen über bestimmte Phänomene rund um die Cyberinfrastruktur gesprochen, die mir während meiner Feldaufenthalte begegnet sind. Ich führte insgesamt 12 ethnografische Interviews durch, die im Durchschnitt 60 Minuten dauerten und im Anschluss transkribiert wurden.
Das ethnografische Interview ist ein halbstrukturiertes Verfahren, das nahezu ausschließlich in Kombination mit der teilnehmenden Beobachtung angewendet wird und sich kaum davon trennen lässt. Es teilt viele Merkmale mit einer freundlichen Unterhaltung und umfasst Erzählungen im Feld, bei denen Forschende als Interessierte mit einbezogen werden (Flick 2002: 141 ff.; Girtler 2001: 147 ff.). In der Regel entstehen Interviews aus den Feldkontakten, die im Zuge der teilnehmenden Beobachtung geknüpft wurden. Sie erfolgen teilweise spontan, können jedoch auch terminiert werden (Spradley 1979: 60). Ein Unterschied zu konventionellen Interviews besteht in der Vertrautheit: „[W]ährend andere Interviews als punktuelle Kontakte zwischen einander fremden Personen angelegt sind, finden ethnografische Interviewgespräche auf der Basis des bereits etablierten Feldzuganges als Teil einer umfänglichen und länger andauernden Vor-Ort-Forschung statt“ (Strübing 2013: 100). Das Interesse zielt auf „den sinnverstehenden Nachvollzug […] (sub-)kultureller, alltäglicher Handlungspraktiken, mit denen die Untersuchungssubjekte ihren Alltag führen, organisieren und bewerkstelligen“ (Kruse 2015: 158). Zentral ist, dass der Forschende als Lernender dem Gesprächspartner gegenübertritt und sich weitgehend leiten lässt. Die Fragen des Forschenden sind dabei nicht von vornherein festgelegt, sondern ergeben sich aus der jeweiligen Situation. Ähnlich einem freundlichen Gespräch bedarf es beim Forschenden eines gewissen Gespürs, um beispielsweise den Gesprächspartner nicht durch vorschnelle Fragen zu verschrecken oder den Fluss zu unterbrechen. Im Unterschied zu einem Alltagsgespräch beinhaltet das ethnografische Interview nach Spradley (1979) drei ethnografische Elemente: einen ausdrücklichen Zweck, ethnografische Erklärungen und ethnografische Fragen (ebd.: 83 f.).
Gemäß Spradley (1979) handelt es sich bei einem ethnografischen Interview um ein Setting, das sowohl von dem:der Ethnograf:in als auch von dem:der Informant:in als solches erkannt wird und dessen sich beide bewusst sind (ebd.: 59). Der Forschende gibt dem Gespräch eine Richtung und lenkt es auf spezifische Themen, die in den Beobachtungen auftauchen können, sich aber möglicherweise der konkreten Beobachtung entziehen. In meinem Fall handelt es sich beispielsweise um regelmäßig stattfindende Audits, zu denen mir kein direkter Zugang gewährt wurde. Außerdem konnte ich durch die Interviews die Entwicklungsgeschichte der Cyberinfrastruktur retrospektiv erfassen, was mir durch die Beobachtung nicht möglich gewesen wäre.
Ethnografisches Fragen zielt wiederum auf die Beschreibung und Strukturierung von Phänomenen, die während der Beobachtung wahrgenommen wurden. Im Vergleich zu konventionellen Interviews stellt Spradley (1979) fest, dass beim ethnografischen Interview sowohl Fragen als auch Antworten von den Informanten entdeckt werden müssen (Spradley 1979: 83). Die Interviewten – die zugleich auch die Beobachteten sind – erklären ihren Bezugsrahmen des Redens und Handelns oft nicht umfassend, da sie sich in ihrem gewohnten Umfeld befinden (Strübing 2013: 101). Daher ist es laut Spadley (1979: 83) wichtig, neben den Antworten auch die Fragen der Interviewten zu erfahren, die die Personen in ihrem Alltag bewegen und zu welchem Problem sie einen Beitrag leisten möchten. Hierdurch soll implizites Wissen – practical understanding (Schatzki 2001) – explizit gemacht werden (Spradley 1979: 59). Spradley listet verschiedene Formen des Fragens auf (Spradley 1979: 83 ff.), um dieses Ziel zu erreichen. Dazu gehören deskriptive Fragen, bei denen der Befragte aufgefordert wird, Geschichten zu erzählen und Beispiele zu geben. Außerdem gibt es Erfahrungsfragen, die auf die individuellen Erfahrungen in bestimmten Situationen abzielen. Daneben gibt es strukturelle Fragen, die zeigen sollen, wie die Interviewten ihr Wissen über den Gegenstand organisieren, sowie kontrastive Fragen, die die Bedeutungsdimensionen von Gegenständen beleuchten sollen (Spradley 1979: 59 f.).
Der notwendige, ethnografische und längere Feldaufenthalt hat eine limitierende Wirkung auf die erzählende Rekonstruktion einzelner Begebenheiten, die in den Interviews produziert werden. Die befragten Personen sind in der Regel Schlüsselpersonen, die den Zugang zum Feld eröffnet haben und zu denen ein besonderes Verhältnis aufgebaut wurde. „So steht ethnographische Interviewarbeit immer in der Gefahr, die spezifische Sicht dieser zentralen Informantinnen zu reproduzieren“ (Strübing 2013: 102). Die transkribierten Interviews fließen an einigen Stellen in die Analyse mit ein, jedoch liegt der Schwerpunkt auf den Feldprotokollen und den Artefaktanalysen.

5.3.4 Datenkorpus

Die verschiedenen Phasen der technografischen Forschung sowie die Erhebungsstrategien wurden in der folgenden Tabelle zusammengefasst (Tab. 5.1). Die Erhebung orientierte sich am theoretical sampling (Strauss 1998). Das bedeutet, dass auf analytischer Basis entschieden wurde, welche Daten als nächstes erhoben werden sollten. „Demzufolge wird dieser Prozeß [sic] der Datenerhebung durch die sich entwickelnde Theorie kontrolliert“ (Strauss 1998: 70). Vor dem Hintergrund des theoretical samplings erstreckte sich der Erhebungszeitraum über mehrere Jahre und beinhaltet unterschiedliche Einrichtungen, primär allerdings WfbM. Die von mir beforschten WfbM gehören alle zu einem der sechs Spitzenverbände der Freien Wohlfahrtspflege in Deutschland.
Tabelle 5.1
Zusammenfassung aller Erhebungen mit Analysen nach Zeiträumen geordnet. (Quelle: Eigene Darstellung)
Forschungsphase
Zeitraum
Inhalt
Kontaktaufbau, Kennenlernbesuche und Ankommen im Feld, Rolle des Forschers „App-Entwickler“
Oktober – Dezember 2019
Erste Orientierung im Feld durch Gespräche mit Leitungskräften und Fachkräften. Vorstellungsgespräche (im Rahmen des Projektes) in Gremien wie Werkstattrat oder Mitarbeitervertretung.
Weiterer Kontaktaufbau; Erste Interviews mit Fachkräften und ExpertInnen der Organisationen
Januar – März 2020
6 Interviews mit Fachkräften aus den Gruppendiensten und mit Leitungskräften der Organisation
Erste Zwischenanalysen
(von nun an fortlaufend); Erhebungspause aufgrund der Corona-Pandemie
April 2020 – Januar 2021
Eigene Analysen zu projektspezifischen Fragen von Mobilität und Technik;
Vorstellung des Materials in
einer Auswertungsgruppe
Weitere Interviews mit Fachkräften und ExpertInnen der Organisation; Vorbereitung auf Teilnehmende Beobachtung im Feld
Januar – Mai 2021
3 Interviews (digital) mit Fachkräften aus der Organisation
Allgemeine Beobachtung im Feld (Follow the actor: Gruppenfachkräfte und Verwaltungsfachkräfte)
Artefaktsammlung
Mai – September 2021
20 Beobachtungstage im Feld (ein Beobachtungstag entspricht rund 4 Stunden Beobachtungszeit); Feldprotokolle von Teamsitzungen, Kleinteamsitzungen etc. Daneben wurden Artefakte gesammelt, dazu gehören Listen, Graphiken, Formulare, Tabellen
Weitere Zwischenanalyse
September – Oktober 2021
Vorstellung und Analyse des Materials (eigenständig und in Interpretationswerkstätten); Theoretische Vertiefung
Fokussierte Beobachtung im Feld (Follow the actor: Gruppenfachkraft, Leitungskraft, Sozialdienst und Küchenkräfte)
Artefaktsammlung
Oktober 2021 – März 2022
15 Beobachtungstage im Feld; Artefaktsammlung von Listen, Tabellen, Protokollen, Dokumentationsvorlagen etc.
Weitere Zwischenanalyse
Januar – Mai 2022
Analyse des Materials (eigenständig und in Interpretationswerkstätten); Theoretische Vertiefung
Weitere Interviews mit Sozialdient und IT-Abteilung
April – Juni 2022
3 Interviews mit IT und Sozialdienst
Analyse
Ab Juni 2022
Systematische Artefaktanalyse; Auswertung der Interviews und der Feldprotokolle
Nacherhebungen (Beobachtungen & Artefaktsammlung)
Mai – Juli 2023
2 Beobachtungstage im Feld; Sammlung von Artefakten

5.4 Performativität der Methoden und die Frage der Triangulation

„The researcher also takes account of the possibility that his observations may give him evidence of different kinds on the point under consideration. Just as he is more convinced if he has many items of evidence than if he has a few, so he is more convinced of a conclusion’s validity if he has many kinds of evidence“ (Becker 1958: 657).
Was Becker (1958) in dem vorangestellten Zitat empfiehlt, wird heute unter dem Begriff der Triangulation verhandelt. Ursprünglich stammt der Begriff aus der Navigation und meint dort die Berechnung eines Ortes mittels mehrerer Punkte (Kalthoff 2010). Beckers (1958) Konzept verschiedener Arten von Evidenz („many kinds of evidence“) bezieht sich auf ein Wirklichkeitsverständnis, in dem der Forschungsgegenstand ein stabiles und festes Objekt ist, das letztlich von verschiedenen Punkten aus beobachtet werden kann. Dieses Konzept der Triangulation geht davon aus, dass die einzelnen Methoden und ihre Perspektiven durch die Annäherung an das ontische Objekt, also den Untersuchungsgegenstand an sich, aufgehoben werden können (Kalthoff 2010: 362). Unter den Vorzeichen der Writing-Culture-Debatte, aber auch einem performative turn (Volbers 2013) oder practice turn (Schatzki 2002), wurde diese Vorstellung als naturalistisch kritisiert und verworfen und ein neuer Triangulationsbegriff etabliert, welcher die Performativität von Forschungsmethoden berücksichtigt. Ein performativer Triangulationsbegriff konzipiert Forschungsgegenstände als „fluide Gestalten“ (Kalthoff 2010: 356) und hebt eine spezifische Hervorbringungsleistung von Forschungsmethoden hervor. „Mit anderen Worten: Methoden beziehen sich nicht auf dasselbe Phänomen, sondern das Phänomen ergibt sich durch die Methoden, die ihrerseits analoge Phänomenbereiche deutlicher (oder weniger deutlich) hervortreten lassen“ (ebd.). Eine Vielfalt an Datenerhebungsstrategien und Datenmaterialien fördert die empirische Sättigung (Strübing et al. 2018: 89). Im Kontext der Gütekriterien qualitativer Sozialforschung hängt die empirische Sättigung als Kriterium davon ab, dass „zugrundeliegende Strukturen in einer Fülle verschiedener beobachtbarer Ausprägungen und Elemente demonstriert“ (ebd.) werden. Es geht darum, „Beobachtbarkeit“ (Scheffer 2002) herzustellen, indem verschiedene Beobachtungsweisen performativ den Gegenstand auf eigene Weise hervorbringen und darstellen und miteinander in den Dialog gebracht werden.
Multiperspektivität reduziert Komplexität nicht, sondern erhöht sie aus der Perspektive eines performativen Forschungsverständnisses.
„Steigerung der Komplexität heißt, dass die Methoden nicht ein und dasselbe Phänomen behandeln und darstellen, sondern analoge Phänomenenbereiche deutlicher zutage treten lassen. Mit anderen Worten: Gegenstände gliedern sich nicht einfach in Aspekte auf, die sich dann linear zusammenfügen lassen, sondern die Aspekthaftigkeit von Phänomenen stellen sich im Lichte ihrer methodischen Erzeugung jeweils anders dar“ (Kalthoff 2010: 362).
Ethnografische Interviews dienen der Erhebung von Konzepten, Meinungen, Argumentationen oder erzählenden Rekonstruktionen von Phänomenen, die – wie in meiner Untersuchung – die Cyberinfrastruktur auf spezifische Weise hervorbringen. Interviews können Auskunft über Praktiken geben, die post-situ sind (Ley 2021: 313 ff.), was jedoch nicht mit den Praktiken selbst gleichzusetzen ist. Die teilnehmende Beobachtung kann als „synchrone Begleitung lokaler Praktiken“ (Breidenstein et al. 2020: 47) dazu dienen, implizites Wissen zu erschließen, das in die Praxis und die Routinen eingebettet ist (Kelle 2018: 224). Die Artefaktanalyse kann wiederum die materielle Beschaffenheit der in der Praxis verwendeten Artefakte ante-situ beschreiben und sichtbar machen (Ley 2021: 313 ff.). Eine Artefaktanalyse vor der Praxisanalyse kann dazu beitragen, erstens eine ethnografische Befremdung hervorzubringen, zweitens einer analytischen Überbetonung der Rolle menschlicher Partizipanten entgegenzuwirken und drittens den Blick von der Verwendung eines bestimmten Verfahrens über den lokalen Kontext hinaus zu erweitern (Ley 2021: 324). Doch welche Konsequenzen ergeben sich, wenn diese drei Erhebungsverfahren nebeneinander stehen? Und wie ist das Verhältnis der Methoden zueinander zu denken?
Die Methodentriangulation soll nicht, wie etwa bei Flick (2004), als Strategie der wechselseitigen Validierung dienen (Kelle 2006). Vor dem Hintergrund der Performativität der Methoden kann es nicht darum gehen, Differenzen zwischen den Methoden zu reduzieren und eine integrierte Aussage über einen Gegenstand zu erwirken (Kalthoff 2010: 363). „Der Anspruch der Methodenkombination richtet sich vielmehr darauf, die Stärken der je einzelnen Verfahren zu kultivieren, indem die spezifischen Formen des Datenmaterials zunächst immanent analysiert werden“ (Kelle 2006: 277). Im Sinne Kalthoffs (2010) gibt es insgesamt drei Modelle, wie die einzelnen Erhebungsverfahren und ihre Performativität kultiviert werden können.
Abbildung 5.2
Drei Modelle der Triangulation von Erhebungsverfahren.
(Quelle: Kalthoff 2010: 363)
Aufgrund der Performativität der Methoden ist das Modell der ‚Reduzierung von Differenz‘ (Abb. 5.2) abzulehnen. Die Unterschiede zwischen den Verfahren würden durch ein solches Vorgehen verwischt werden. Das Modell der ‚Inkorporierung von Differenz‘ entspricht dem Ansatz von (u. a.) Kelle (2006), das heißt die Methoden werden reflexiv eingesetzt und ihre unterschiedliche Performativität berücksichtigt. „Gleichwohl bleibt die Forschung durch das disziplinar motivierte Erkenntnisinteresse gerahmt; das Ziel und das Ergebnis sind dann eine Master-Erzählung“ (Kalthoff 2010: 363). Im Modell der ‚Betonung der Differenz‘ (Abb. 5.2) fehlt eine übergeordnete Erzählung. Das Modell ermöglicht es, Widersprüche und Lücken, die durch die heterogenen Verfahren entstehen, beizubehalten. Es produziert Fragmente.
Die vorliegende Arbeit orientiert sich am Modell der Inkorporierung. Die verschiedenen Verfahren werden von einer übergeordneten Erzählung gerahmt. Es soll ein Bild von der Cyberinfrastruktur entstehen, jedoch ist dieses Bild notwendigerweise fraktal. Mit Kelle (2006) soll die „Anwendung unterschiedlicher theoretischer Perspektiven und methodischer Verfahren“ als „eine prinzipiell unabschließbare, wechselseitige Kontextuierung der Forschungsgegenstände verstanden werden; im Sinne einer analytischen Verdichtung wird auf diese Weise das Potential zu einer theoretischen Differenzierung der Ergebnisse genutzt“ (ebd.: 227) begriffen werden. Die Logik der Inkorporierung stellt eine Perspektive dar, welche das Durch-einander-hindurch-Lesen heterogener Datentypen miteinander zu konfrontieren und zu synthetisieren sucht, ohne jedoch auf ein ganzheitliches Bild zielen zu wollen.
Nachdem die Erhebungsverfahren soweit dargestellt wurden, geht es im folgenden Kapitel um die Auswertungsstrategien, die zum Einsatz kamen (Abschn. 5.6). Zunächst soll dabei die Grounded-Theory-Methodology erläutert werden (Abschn. 5.6), um dann deren Erweiterung durch Clarke in Form der Situationsanalyse darzustellen (Abschn. 5.7)

5.5 Auswertungsstrategie I: Grounded Theory

Die Grounded-Theory-Methodology (GTM) hat seit ihrer Entstehung in den 1960er Jahren einen Siegeszug erlebt und konnte eine zentrale Stellung innerhalb des Feldes der qualitativen Sozialforschung erlangen. Ursprünglich als Gegenentwurf zu den damals vorherrschenden „Verkrustungen des universitären Betriebes“ (Strübing 2014: 1) und des quantitativ-deduktiven Forschungsdesigns entwickelten Glaser und Strauss (1998 [1967]) in ihrem wegweisenden Buch „The Discovery of Grounded Theory“ eine Methodologie, die sich dezidiert als offene und empirisch-gesättigte Theoriebildung verstand. Bei dem als Gründungsdokument gefeierten Buch handelt es sich nicht um eine einführende Schrift mit Definitionen zentraler Termini oder Verfahrensanleitungen, vielmehr ist es ein Skizzenbuch mit einer Sammlung von Vorschlägen. Es sollte auch Jahre dauern, bis aus der ersten Skizzierung des Vorgehens eine konkrete Ausgestaltung wurde. Mit zunehmender Spezifizierung traten jedoch divergierende Standpunkte und Auseinandersetzungen unter den Begründern der Methodologie zutage.
Spätestens mit Glasers „Theoretical Sensitivity“ (1978) gibt es zwei Varianten der GTM: „Die eine von Anselm Strauss geprägte pragmatisch inspirierte, die er, teilweise gemeinsam mit Juliet Corbin, in ihren praktischen Dimensionen näher ausgearbeitet hat, sowie eine – wie ich es nennen würde – empiristische Variante von Barney Glaser [Hervorh. im Original]“ (Strübing 2014: 6). Die Komplexität hat sich in den letzten Jahren sogar noch weiter gesteigert, da mittlerweile eine second generation (Morse et al. 2009) ihre eigenen Ausrichtungen der GTM erarbeitet hat.
Was Grounded Theory bedeutet, erklärt sich weniger durch den Begriff selbst. „Die naheliegende Übersetzung als ‘begründete Theorie’ ist zwar nicht falsch, verfehlt aber das Spezifische: Letztlich sollte jede Theorie in irgendeiner Weise ‚begründet‘ sein“ (Strübing 2014: 9). Andere deutsche Übersetzungen betonen demgegenüber, dass Grounded Theory „gegenstandsnah“ oder „datenbasiert“ (ebd.) sei. Strauss selbst beschreibt die Grounded Theory als eine dichte Theorie, welche das Ergebnis eines induktiv angelegten Forschungsprozesses ist (Strauss 1991: 25). Es lässt sich festhalten, dass der erste Zugang zur GTM in der Idee eines offenen Prozesses besteht, der schließlich in einer reichhaltigen und vielfältigen Theorie resultiert.
Wie bereits Star (1991) herausgearbeitet hat, fehlt es jedoch selbst an dieser Stelle an einem entscheidenden Element: Dem Ringen (oder im englischen: to wrestle). In Worten von Star (1991) ist die GTM „a method is a way of wrestling with that which joins the visible ground with the invisible abstraction“ (ebd.: 270). Die Aussage von Star stellt nicht nur heraus, dass die GTM eine Theorie (eine Abstraktion) in Verbindung mit den Daten gewinnen will, sondern sie verweist darauf, dass der Forschungsprozess als eine praktische, interaktive und teilweise mühevolle Tätigkeit verstanden werden muss. Die Grounded Theory erfordert, dass die „Arbeit organisiert wird; das bedeutet, daß [sic] Aufgaben koordiniert werden“ (Strauss 1991: 34). In einem fortlaufenden Arbeitsprozess, in dem sich Handeln und Reflexion immer wieder abwechseln (Strauss 1991: 11), verändern sich alle beteiligten Akteure sowie der Forschungsgegenstand.
Um Missverständnissen vorzubeugen, bezieht sich die vorliegende Studie in den allgemeinen Ausführungen zur GTM ausschließlich auf die Variante von Strauss. Die Gründe dafür sind, dass die Strauss-Variante der GTM in Zusammenarbeit mit Corbin einerseits deutlich strukturierter, systematisierter und reflektierter ausgearbeitet wurde als die von Glaser (Strübing 2014). Andererseits dient diese Variante der GTM Clarke, die für die vorliegende Studie als zentrale Referenz dient, als allgemeiner Bezugsrahmen ihrer eigenen Bemühungen. „Sie [Clarke] hat dabei sozialtheoretische, methodologische und methodische Anregungen [von Strauss] aufgegriffen und in einem eigenständigen Werk weiterentwickelt“ (Offenberger 2019: 5). Aus diesem Grund ist es notwendig, zuerst die Grundhaltung der GTM nach Strauss kurz zu umreißen (Abschn. 5.5.1) bevor ich auf die konkreten Arbeitsschritte eingehe, die meine Analyse leiteten (Abschn. 5.5.2).

5.5.1 Forschungshaltung

Die Abduktion bzw. die abduktive Haltung kann als eines der zentralen Elemente der GTM bezeichnet werden. Zwar finden sich im Werk von Strauss nur selten explizite Bezugnahmen, doch an einigen Stellen wird die Relevanz der Abduktion für die GTM sichtbar. In einer Fußnote in Strauss’ Werk über die „Grundlagen der qualitativen Sozialforschung(1991) heißt es, dass „dessen [Peirce] Konzept von Abduktion die entscheidende Rolle hervorhebt, die die Erfahrung in der ersten Phase von Forschungsarbeiten spielt“ (Strauss 1991: 38/Fn. 2). Andere Verweise auf die Abduktion bleiben im Impliziten. Ungeachtet der wenigen Hinweise kann die Frage, „ob die GTM (in der Variante von Strauss und Corbin) einer abduktiven Forschungslogik aufruht, […] mit einem klaren ‚Ja‘ beantwortet werden“ (Reichertz 2011: 293). Doch worum handelt es sich nun bei dieser Schlussart?
Die Abduktion reklamiert für sich, eine dritte Form des Schlussfolgerns zu sein – neben den beiden gebräuchlichsten, der Induktion und der Deduktion. In ihrem Status befindet sie sich zwischen Logik und Kreativität. „Ist sie doch einerseits als logischer Schluss vernünftig und wissenschaftlich, andererseits reicht sie in die Sphäre tieferer Einsicht und ermöglicht so neue Erkenntnis“ (Reichertz 2011: 282). Abduktion ist ein Hybrid jenseits der beiden anderen Erkenntnisweisen, welches sogar über die beiden bekannten Schlussarten noch hinausgehen soll. Im strengen Sinne handelt es sich bei der Abduktion jedoch nicht um einen logischen Schluss. Was der Abduktion fehlt, und was sie von den Verfahren der Induktion und Deduktion unterscheidet, ist ihre Regelhaftigkeit. Die Abduktion soll es den Forschenden zwar ermöglichen, Neues zu erkennen, gleichwohl geht sie dabei nicht logisch vor, sondern viel eher „waghalsig“ (Reichertz 2011: 286). „Eine solche Prozedur ist weder durch genaue methodische Anleitungen vorfixiert noch liefert sie Erkenntnissicherheit“ (Breuer 2010: 54). Am Beispiel von Datenauswertungen wird ersichtlich, was darunter zu verstehen ist.
Bei der Auswertung von qualitativ erhobenen Daten begegnet den Forschenden im ersten Moment eine Heterogenität an disparaten Themen und eine Diversität an Anknüpfungspunkten. Um Ordnung in das Datenchaos zu bringen, stehen verschiedene Vorgehensweisen zur Auswahl: Subsumtion, Generalisierungen oder eben die Abduktion. Die Subsumtion findet teilweise in der qualitativen Inhaltsanalyse Anwendung und geht von bestehenden Ordnungen aus, mit deren Hilfe sie das Material deduktiv sortiert (Reichertz 2011: 284). Ein zweiter Typ der Auswertung ist die Generalisierung. „Die logische Form dieser gedanklichen Operation ist die der Induktion“ (ebd.), wobei zwischen einer quantitativen und einer qualitativen Variante unterschieden werden muss. Die quantitative Induktion beschreibt die Transformation einer Merkmalsausprägung vom individuellen Fall auf die gesamte Gesamtheit. Demgegenüber steht die sogenannte qualitative Induktion, bei der von der Existenz spezifischer Merkmale auf die Präsenz benachbarter Merkmale geschlossen wird. Oder anders ausgedrückt: Die qualitative Induktion ergänzt „die wahrgenommenen Merkmale einer Stichprobe mit anderen, nicht wahrgenommenen“ (ebd.). Allen subsumierenden oder generalisierenden Formen ist gemein, dass sie ein Bekanntes expansiv ausdehnen.
Ziel der Abduktion ist es im Gegensatz dazu, neue Erklärungen für das Datenmaterial zu entwickeln. Existierendes Wissen reicht dann nicht mehr aus, um eine entsprechende Ordnung zu finden. „Eine Ordnung, eine Regel, ist bei diesem Verfahren also erst noch zu (er-)finden – und zwar mithilfe einer geistigen Anstrengung“ (Reichertz 2011: 285). Um einer neuartigen Ordnung näher zu kommen, sollten die Forschenden laut Strübing (2014) oder Reichertz (1999) eine Situation der Kontemplation, der Ruhe und der Muße schaffen. „Dieses geistige Spiel ohne Regeln nennt Peirce musement ein Spiel der Versenkung – Tagträumerei“ (Reichertz 1999: 56). Darunter ist zu verstehen, dass sich die Forschenden von allem Handlungsdruck befreien.
Im strikten methodischen Sinne handelt es sich bei der Abduktion nicht um eine logische Schlussart, sondern um eine Haltung. Die Forschenden sollen eine offene und kritisch-reflektierte Haltung gegenüber den Daten einnehmen. Die Daten sollen ernst genommen werden und alles bisher Bekannte soll, wenn möglich, ausgeklammert werden. All das ist auf das Finden „einer Ordnung, die zu den überraschenden ‚Tatsachen‘ passt oder genauer: die handlungspraktischen Probleme, die sich aus dem Überraschenden ergeben, löst“ (ebd.: 60). Sobald eine neue Ordnung gefunden wurde, mit deren Hilfe die überraschenden Daten im Hinblick auf die Zukunft in eine sinnstiftende Regel überführt werden können, beginnen die Schritte der Deduktion und Induktion. Im zweiten Schritt werden Hypothesen gebildet und im nächsten Schritt werden Fakten gesucht, die die Hypothesen stützen sollen. Sollte die gefundene Ordnung falsifiziert werden können, muss eine neue Ordnung abduktiv entwickelt werden. Der Durchgang beginnt dann von Neuem (Abb. 9). Bei der Abduktion geht es nicht nur um das Finden neuer Ordnungen für das Forschungsmaterial, sondern auch um ein kreativ-logisches Vorgehen. Die iterativ-zyklische Forschungslogik ist das Herzstück der GTM.
Abbildung 5.3
Iterative und zyklische Forschungslogik der GTM als Prozessmodell.
(Quelle: Strübing 2014: 49)
Zu diesem iterativ-zyklischen Prozess (Abb. 5.3) gehört auch das „theoretical sampling“ (Strauss 1991). „Theoretisches Sampling meint den auf die Generierung von Theorie zielenden Prozeß [sic] der Datenerhebung, währenddessen der Forscher [sic] seine Daten parallel erhebt, kodiert und analysiert sowie darüber entscheidet, welche Daten als nächste erhoben werden sollen“ (Glaser/Strauss 1998: 53). Ziel des theoretical samplings ist es, die Erkenntnisse und die Theorie sukzessive auszuarbeiten. Das Sampling ist dann beendet, wenn eine theoretische Sättigung erreicht ist, das heißt wenn keine neuen Einsichten mehr im Auswertungsprozess erfolgen. Am Ende des Prozesses aus Auswertung, Erhebung und Verdichtung steht eine gesättigte Theorie, die durch das Wechselspiel aus abduktivem, induktivem und deduktivem Schließen entstanden ist. „Es muss also nicht immer alles neu sein, sondern mithilfe der qualitativen Induktion wird das sichtbar, das so ist, wie wir es kennen“ (Reichertz 2011: 293).

5.5.2 Praktisches Vorgehen

Vor dem Hintergrund der iterativen Forschungslogik in der GTM ist die Auswertung von Daten ein kontinuierlicher Prozess, an dessen Ende eine gesättigte Theorie stehen soll. Wie der Weg hin zu einer solchen Theorie aussieht, ist den Gründer:innen der GTM zufolge wenig festgelegt. Strauss wehrt sich sogar in seinem Werk „Grundlagen der qualitativen Forschung“ (1998) gegen eine exakte, präzise und klare Forschungsschrittfolge (Strauss 1998: 32). Empirische Sozialforschung wird als ein offenes und individuell höchst unterschiedliches Geschehen konzipiert, wobei der:die Wissenschaftler:in mit Hilfe von Orientierungshilfen durch die GTM das Chaos formen kann.
„Unsere Leitlinien, nach denen eine Theorie entwickelt werden kann, sind jedoch nicht nur eine Aufzählung von Vorschlägen. Sie sind mehr als das, weil aus ihnen hervorgeht, dass bestimmte Operationen ausgeführt werden müssen. Kodieren muß sein, im Allgemeinen schon bald nach Beginn der Forschungsarbeit und kontinuierlich bis zum Ende. Analytische Memos müssen in Verbindung mit dem Kodieren auch schon frühzeitig und kontinuierlich geschrieben werden“ (ebd.: 33).
Abgesehen von den grundlegenden Arbeitsschritten, auf die in der Folge näher eingegangen wird, kam im Rahmen der Forschung das Verfahren des Mappings zum Einsatz. Kodieren, Memos schreiben, Maps anlegen und das ständige Vergleichen waren ständige Begleiter während des gesamten Forschungsprozesses. Dieses Set an Arbeitstechniken bildete für mich die Grundlage, um eine GTM-geleitete Forschung durchzuführen. Zunächst erläutere ich den Kodierprozess, bevor ich auf das Schreiben von Memos und das Mapping zu sprechen komme.
Kodieren
Das Kodieren kann als eines der zentralen Elemente der GTM betrachtet werden. Allerdings sollten, wie Breuer (2010) hervorhebt, die Kodierprozeduren nicht vom Rest der Methodologie gelöst und ausschließlich das Kodieren in die eigene Arbeit integriert werden (ebd.: 69). „Die Prozeduren des Kodierens entfalten ihren Sinn erst und ihre Potenzen erst im Rahmen der ausgebauten konsekutiv-iterativen-rekursiven Strategie des Hin und Her […] zwischen Datenerhebung, Konzeptbildung, Modellentwurf und Modellprüfung sowie der Reflektion des Erkenntnisweges“ (ebd.). Zeitgleich ist das Kodieren keine exklusive Tätigkeit der GTM. Von dokumentarischer Methode über objektive Hermeneutik bis hin zur qualitativen Inhaltsanalyse, sie alle legen ein bestimmtes Kodieverfahren ihrer Methodologie zugrunde. Was unterscheidet das Kodieren in der GTM demnach von anderen sozialwissenschaftlichen Auswertungsverfahren? Die Charakteristik zeigt sich in den verschiedenen Formen.
Beim offenen Kodieren handelt es sich um eine mikrologische Analyse von Daten. Ziel des offenen Kodierens ist, die Daten regelrecht ‚aufzubrechen‘, indem passende Oberbegriffe – sogenannte Kodes2 – für Wörter, Zeilen oder Abschnitte entwickelt werden. „Die Rede vom ,Aufbrechen‘ des Materials als Funktion des offenen Kodierens mag zunächst etwas martialisch klingen, sie ergibt aber einen Sinn, wenn wir uns das Bild jener ,geschlossenen Oberflächen‘ vergegenwärtigen, als die uns unser Material zunächst entgegen tritt“ (Strübing 2014: 17). Das vorhandene Material folgt einer eigenen Spezifik, die es sukzessiv gilt zu rekonstruieren. Im Gegensatz dazu stehen deduktive Verfahren, in denen vorgefertigte Kategorien den Daten quasi übergestülpt werden. Wie auch bei anderen qualitativen Methoden geht es beim offenen Kodieren um ein Sich-Anschmiegen an die Logik der Daten. „Gerade die Kodierarbeit – und hier insbesondere das offene Kodieren – macht den Kern dessen aus, was Strauss für die Grounded Theory von einer ,Kunstlehre‘ sprechen lässt“ (ebd.: 19). Es gilt sich tentativ der Perspektive der Akteure, deren Handlungen, Meinungen, Wissen anzunähern und damit einhergehend um die theoretische Öffnung eines Raumes potentieller Bedeutungen (Breuer 2010: 80). Einzelne Phänomene und dazu passende Eigenschaften sollen durch das offene Kodieren herauspräpariert werden. Aber wie genau das Herauspräparieren vonstattengehen soll, dazu geben Strauss (und Corbin) nur lose Hinweise. Drei Techniken wurden von mir aufgegriffen und zur Analyse der Daten angewandt: a) Generative Fragen, b) Anstellen von Vergleichen und c) Dimensionalisieren.
In ihrem stark als Lehrbuch konzipierten Werk „Grounded Theory. Grundlagen qualitativer Sozialforschung“ (1996) geben Strauss und Corbin deutlich vor, was sie unter generativen Fragen verstehen. „Es gibt bestimmte allgemeine Fragen, die gleichsam automatisch an die Daten gestellt werden können. Diese grundlegenden Fragen lauten: Wer? Wann? Wo? Was? Wie? Wieviel? Und warum?“ (Strauss/ Corbin 1996: 58). In meiner eigenen Analyse erschien mir dieser Weg zu starr und gleichsam zu aufgepfropft auf das Datenmaterial. Daher entschied ich mich dazu, spezifische Fragen an die einzelnen Transkriptsegmente zu stellen. Einige Fragen sind durchaus vergleichbar mit dem Schema, das Strauss und Corbin vorgeben, gleichwohl gehen andere auf den spezifischen Kontext ein und somit über die Leitlinien der Autor:innen hinaus.
Neben den kontextspezifischen Fragen habe ich mich des Vergleichens in der Kodierarbeit bedient. Im Grunde genommen ist der Vergleich oder das Bilden von Kontrasten eine Kerntätigkeit von vielen qualitativen Auswertungsmethoden. Bei der GTM könnte allerdings von einem permanenten Vergleich von „Fällen, Ereignissen, Zeitpunkten, Personen, Gruppen, Situationen und Kontexten“ (Breuer 2010: 82) gesprochen werden. Während des Kodierprozesses kann – und soll – regelrecht alles mit allem verglichen werden. Das berühmtgewordene Beispiel des Priesters, welcher in seiner Tätigkeit mit einer Sexarbeiter:in verglichen wird, ist dabei nur ein besonders eindrückliches Beispiel dieser Technik (ebd.). „Gegenüberstellungen dieser Art sind geeignet, die Augen einer Forscherin für die Strukturen, Eigenheiten und Dynamiken des Gegenstandsgebiets zu öffnen, dabei neue Konzepte zu entdecken […] die theoretische Sensibilität zu verbessern, den Erstreckungsbereich einer Theorie auszuloten, die Theoriestrukturen anzureichern und zu verdichten“ (Breuer 2010: 82).
Als letzte Technik kam das Dimensionalisieren zum Einsatz. Beim Dimensionalisieren handelt es sich „um ein grundlegendes Verfahren, um Unterscheidungen zu treffen, dessen Ergebnisse Dimensionen und Subdimensionen [Hervorh. im Original] heißen“ (Strauss 1998: 49). Phänomene können so auf einem Kontinuum angeordnet werden, das zwischen bipolaren Kategorien aufgespannt ist. „Im Arbeitsschritt des Dimensionalisierens wird also die Spezifik eines einzelnen Vorkommnisses in den Daten als Summe von ‚Merkmalsausprägungen‘ beschrieben, die im Wege systematischen Vergleichens gewonnen wurden“ (Strübing 2014: 24). Mit Hilfe des Dimensionalisierens sollen einerseits Merkmalsausprägungen einzelner Vorkommnisse sichtbar werden. Andererseits soll durch einen kontinuierlichen Vergleich von unterschiedlichen Konzepten zu Kategorien ‚aufgestiegen‘ werden. „Das Nachdenken über bzw. das Suchen nach Kategorien-Eigenschaften und deren Dimensionen dient der Ausdifferenzierung eines konzeptuellen Raums für die Modell- bzw. Theorieentwicklung“ (Breuer et al. 2019: 274).
Wo das offene Kodieren das Material aufgebrochen hat und einen noch weitgehend unsystematischen Zugang zu den Daten schafft, zielt das axiale Kodieren auf Zusammenhänge (Strübing 2014: 17). „Wurden Daten beim offenen Kodieren noch mehr in ihrer Standing-alone- oder Listen-Charakteristik betrachtet, so geht es nun darum, ihre Relationen in den Blick zu nehmen“ (Breuer et al. 2019: 281). Im Modus des ständigen Vergleichens sollen theoretische Konzepte herausgearbeitet werden. Es geht bei diesem Auswertungsschritt um die Entwicklung einer Systematik, wobei diese noch vorläufig oder auch gedankenexperimentell sein kann (Breuer et al. 2019). Beide Kodierverfahren, sowohl offenes als auch axiales, gehen Hand-in-Hand. Im Sinne von Strauss und Corbin (1996) ist axiales Kodieren durch folgende Schritte gekennzeichnet:
a)
„das hypothetische In-Beziehung-Setzen von Subkategorien zu einer Kategorie […].
 
b)
das Verifizieren dieser Hypothesen anhand der tatsächlichen Daten;
 
c)
die fortgesetzte Suche nach Eigenschaften der Kategorien und Subkategorien und nach der dimensionalen Einordnung der Daten […], auf die sie verweisen;
 
d)
die beginnende Untersuchung der Variation von Phänomenen“ (ebd.: 86)
 
Zu a) Es erfolgte eine Selektion identifizierbarer Kategorien, die für die Forschungsfrage und das angestrebte Erkenntnisinteresse von Relevanz waren. In der Analyse des eigenen Materials wurde beispielsweise die Kategorie ‚Mobilität der Adressat:innen‘ nicht in das axiale Kodieren einbezogen. Beim In-Beziehung-Setzen geht es weder um konkrete Phänomene noch um bestimmte Ereignisse, stattdessen sollen Fragen gestellt werden „die eine Form von Beziehung“ (Strauss/Corbin 1996: 86) und explizit Kategorien miteinander in Beziehung setzen.
Zu b) Nach Auswahl potenzieller Kategorien ist eine erneute Analyse des Materials erforderlich, um bereits kodierte Stellen zu überprüfen. Vorschlag von Strauss und Corbin (1996) ist: „Wir nehmen uns jedes Interview, Dokumente und so weiter vor und überprüfen“ (ebd.: 87), ob die entwickelten Fragen bestätigt werden können oder sich als unhaltbar erweisen. In meinem Material war eine solche Kategorie beispielsweise ‚Listen‘ mit den entsprechenden Unterkategorien. Erst im Laufe der Auswertung bzw. der parallel dazu stattfindenden Erhebung hat sich diese Kategorie als für die Forschungsfrage relevant herauskristallisiert. Im Sinne des theoretical samplings wurde währenddessen Material mit Fokus auf das Phänomen ‚Listen‘ erhoben und weiter ausgewertet.
Zu c). Bei der erneuten Sichtung der Daten und der Suche nach Beziehungen sollen die Forschenden, so Strauss und Corbin (1996), weitere Eigenschaften der Kategorien und dimensionale Ausprägungen erforschen. „Die Idee besteht darin, eine Theorie anzustreben, die konzeptuell dicht ist, Spezifität besitzt und genug theoretische Variation beinhaltet, um auf viele verschiedene Beispiele eines jeden gegebenen Phänomens anwendbar zu sein“ (ebd.: 88). Die weitere Verfeinerung durch Spezifikation von Unterschieden ist eines der Herzstücke der GTM. Von daher war es wichtig, im Rahmen der Kategorie ‚Listen‘ – um das Beispiel aus der eigenen Forschung ein weiteres Mal zu bemühen – und dessen Subkategorien mit Eigenschaften sowie Dimensionen anzureichern.
Zu d). Der im Zentrum des selektiven Kodierens stehende Verknüpfungsprozess, welcher das Ziel verfolgt, am Ende zu einer gesättigten Theorie mittlerer Reichweite zu führen, nimmt seinen Ausgangspunkt im axialen Kodieren. Während bei c) für Kategorien und deren Subkategorien neue Dimensionen entdeckt werden sollen, ist es das Ziel, in d) Kategorien auf der dimensionalen Ebene miteinander zu verbinden.
Bedeutsam für das axiale Kodieren ist, dass das Denken zwischen Induktion, Deduktion und Abduktion pendelt (ebd.: 89). Wo das offene Kodieren auf das Aufbrechen der Daten setzt und induktiv – natürlich unter der Rahmung von theoretischen Vorannahmen, ohne die sich eine Analyse von Daten gar nicht bewerkstelligen lässt – sowie abduktiv vorgeht, wechselt der Modus Operandi hin zu einer Verdichtung von Kategorien und deren deduktive Falsifikation an den Daten. „Es ist ein konstantes Wechselspiel zwischen Anstellen und Überprüfen. Diese Rückwärts- und Vorwärts-Bewegung ist es, die unsere Theorie gegenstandsverankert macht!“ (ebd.). Das bedeutet auch, wie es Strauss und Corbin (1996) hervorheben, dass erst, wenn sich genügend Nachweise für die Kategorien und die Relationen finden lassen, also eine Sättigung eintritt, wirklich von einer Grounded Theory gesprochen werden kann (ebd.: 89 f.).
Das selektive Kodieren schließt daran an und gilt als finaler Schritt. Das Ziel besteht darin, eine vollständige Integration aller Kategorien zu erreichen und sie zu einer übergeordneten Kategorie zusammenzufassen. In dem als Lehrbuch angelegten Werk von Strauss und Corbin (1996) wird das selektive Kodieren mit der Überlegung abgeschlossen, dass der letzte Schritt des Integrierens selbst erfahrene Forscher:innen vor Herausforderungen stellt und wohl zu den schwierigsten Schritten überhaupt zählt. Dieser Einschätzung lässt sich im Rückblick auf den eigenen Forschungsprozess uneingeschränkt zustimmen. Die Integration sämtlicher Kategorien zu einer übergeordneten Kategorie erweist sich in der Regel als anspruchsvolle Aufgabe. Da sich meine Daten zusätzlich durch ihre Heterogenität und ihre spezifische Performativität (Feldprotokolle, Interviewtranskripte und Artefaktanalysen) auszeichneten, schien mir eine einheitliche Integration lange außer Reichweite. Anstatt sich auf ein einheitliches Modell zu fixieren, bediente ich mich im Rahmen meiner Arbeit über einen längeren Zeitraum der Denkfigur des Rhizoms, um ein zusammenhängendes Bild meiner finalen Theorie zu erlangen. Doch wie Serres (2008) treffend in einem Gespräch mit Latour bemerkt, ist der Hang zum Fragmentarischen und Unverbundenen eine theoretische Zuflucht3. Bleibt die Untersuchung beim Arbeitsschritt axiales Kodieren stehen, fehlt der Gesamtzusammenhang, fehlt die Synthese. Ergebnis wären dann „Modell-Miniaturen“, die lediglich auf „lokale Kategorien-Beziehungen“ fokussieren (Breuer et al. 2019: 284). Um selbst nicht beim axialen Kodieren stehenzubleiben und über die zusammenhangslosen Kategorien hinauszugehen, folgte ich den von Strauss und Corbin (1996) vorgeschlagenen Strategien4: a) Offenlegen eines roten Fadens, b) das Verbinden der Kategorie auf der dimensionalen Ebene, c) dem Validieren dieser Beziehungen durch Daten und d) das Auffüllen der Kategorien (ebd.: 96). Es mag zunächst banal klingen, doch das Identifizieren einer Geschichte (a) stellt die Forschenden vor enorme Herausforderungen. Bei einer detaillierten Analyse der Daten scheint eine Vielzahl an Aspekten von Relevanz zu sein. Das „Loslassen von Theorie-Komponenten kann [..] eine schmerzhafte Angelegenheit sein“ (Breuer et al. 2019: 285). Nichtsdestotrotz sollte die Ebene der „lokalen Fokussierung“ (ebd.) verlassen werden, um eine fragile Synthese im Sinne Serres zu produzieren. „Beim Selektiven Kodieren geht es [..] ums Ganze [Hervorh. im Original](Breuer et al. 2019: 284). Das Ziel besteht folglich darin, ein Hauptproblem oder, in den Worten von Strauss und Corbin, eine Kernkategorie zu identifizieren.
Folgende Fragen können zum Auffinden der Kernkategorie hilfreich sein: „Was ist in diesem Untersuchungsbereich am auffallendsten? Was halte ich für das Hauptproblem“ (Strauss/Corbin 1996: 97). Die Präsentation der eigenen Forschungsgeschichte sollte in einer kurzen, prägnant formulierten Darstellung erfolgen. Ist die Hauptgeschichte einmal zu Papier gebracht, braucht sie zwei weitere Dinge: Einerseits einen Namen. „Das bedeutet – wie beim offenen und axialen Kodieren – daß [sic] dem zentralen Phänomen ein Name gegeben werden muß“ (Strauss/Corbin 1996: 98); das ist der Name der Kernkategorie. Andererseits muss die Geschichte in ihrer vollen Breite und Vielfalt erzählt werden. Hierauf zielen die Strategien b) bis e). Sie dienen dazu, Verbindungen herzustellen, sie in den Daten zu validieren und die Kategorien aufzufüllen. Es ist erneut ein ständiges „Vor- und Rückwärtsbewegen in den Datensätzen“ (Berg/Milmeister 2011:325). Anders als das axiale Kodieren steht das selektive Kodieren ganz „wesentlich im Dienst der „Er-Findung“ der story line“ (ebd.). Die Art und Weise der Erzählung von Geschichten ist dabei abhängig von verschiedenen Faktoren, darunter die Erzählperson, das Publikum und die theoretischen Hintergrundannahmen. Zu Beginn der eigenen Forschung hätte meine Geschichte noch andere Abzweigungen, andere Wendung und andere Hauptpersonen ins Zentrum stellen können, als es letztlich der Fall war. Am Ende stand die Kernkategorie fest: ‚Die cyberinfrastrukturelle Ordnung‘ und mit ihr die weiteren Kategorien, die sich im weiteren Verlauf der Arbeit entfalten werden. Unter der Kernkategorie versammeln sich fünf Kategorien: Fallbearbeitung, Genealogie, Überwachung, Klassifikation und Inskription. Zu den jeweiligen Kategorien gibt es – in unterschiedlicher Anzahl – Unterkategorien, unter denen sich wiederum weitere Konzepte befinden.
Memos
Ein anderes Instrument, das in meinem Auswertungsprozess zum Einsatz kam, waren die GTM-spezifischen Memos. „Weil theorierelevante Entscheidungen bereits von Beginn der Analyse getroffen und dann sukzessive weiterentwickelt werden, ist es unerlässlich, diese Entscheidungsprozesse fortgesetzt zu dokumentieren“ (Strübing 2014: 34). Ihr Stellenwert innerhalb der GTM ist vergleichbar mit dem speziellen Kodierverfahren. Die analytische Arbeit und das Kodieren sollen durch einen kontinuierlichen Schreibprozess flankiert werden. Im Prozess des Kodierens vollziehen die Forschenden eine intensive Analyse der Daten, wobei das Memo-Schreiben bei der Transition von der Datenorientierung hin zu einem abstrakten Denkprozess assistieren kann. (Strauss/ Corbin 1996: 170).
Unter Memos verstehen Strauss und Corbin schriftliche Formen unserer abstrakten Gedanken über die Daten (ebd.). Die ersten Memos zeichnen sich häufig durch eine ungeordnete Struktur aus, lassen sich keinem spezifischen Memotypus zuordnen und versuchen noch, den Gegenstand der Forschung zu erfassen. Ein Beispiel ist das Folgende aus meiner Forschung (es handelt sich um ganz frühes Memo):

                    Memo: Komplexes System aus Listen
                    Es kommt teilweise zu der paradoxen Situation, dass die Listen digital vorliegen, dann ausgedruckt werden und in einem nächsten Schritt wieder eingetippt werden. Ein Beispiel hierfür ist das Essen. In der Software gibt es eine gesonderte Liste mit den Essensbestellungen. Allerdings erhalten die Mitarbeiterinnen das potenzielle Essen plus deren Bilder per Mail, also nicht über das Programm. Dann drucken sie sich die Listen und das Menü aus, gehen ringsum, tragen die Personen und deren Essenswünsche ein und tippen es erneut in ihre digitale Liste. Hier stellen sich für mich die Fragen: Wann wird das Doku-System genutzt? Wann nicht? Wieso wird das Dokumentationssystem eigentlich nicht genutzt? Was spricht dagegen? Was sind wohl die Vorteile einer handschriftlichen Dokumentation gegenüber der digitalen? Nach welcher Logik werden Listen oder Dokumentationen ausgedruckt, und wann nicht? Was ist für die Beteiligten der Vorteil der ausgedruckten Listen? Welchen Sinn hat das Ganze?
                  
Aus dem Memo geht hervor, dass zum damaligen Zeitpunkt noch keine Kategorisierung der Gegenstandsbestimmung vorgenommen wurde und sowohl eine empirische als auch theoretische Fokussierung auf sachlicher Ebene nicht stattgefunden hat. Zunächst wurden rudimentäre Konzepte entwickelt, die im Laufe des Forschungsprozesses sukzessive zu Kategorien angereichert wurden. In dem Memo wurden alle möglichen Phänomene miteinander verhandelt, sowohl verschiedenste Listen als auch Dokumentationsformen.
Obwohl Memos in der Regel nicht zielführend sind, da sie erste analytische Fragen formulieren und erste Kategorien erahnen lassen, sind sie dennoch als Forschungsdokumentation zu empfehlen. In meiner Arbeit habe ich das Memoschreiben nicht nach den von Strauss und Corbin vorgeschlagenen Typen von Memos strukturiert. Sie differenzieren Kode-Notizen, theoretische Notizen und Planungs-Notizen (Strauss/Corbin 1996: 176 ff.). Stattdessen habe ich die Memos den jeweiligen Bedürfnissen angepasst, was durchaus mit der Sichtweise von Strauss und Corbin vereinbar ist; immerhin verweisen beide selbst auf die kreative Aneignung (ebd.). Neben den Memos spielen in meiner Arbeit vor allem Maps eine zentrale Rolle. Um ihre Pragmatik zu beschreiben, sollen zunächst ihre allgemeine Ausrichtung (Abschn. 5.6), dann der zentrale Situationsbegriff (Abschn. 5.6.1) und im Verlauf die verschiedenen Typen von Maps (Abschn. 5.6.2 bis 5.6.4) erläutert werden.

5.6 Auswertungsstrategie II: Situationsanalyse im Zeichen von Infrastrukturen

Obwohl die GTM mit Strauss und Glaser antrat, um dem hegemonialen Positivismus ihrer Zeit etwas entgegenzuhalten, trug die Methodologie positivistische Altlasten mit sich, von denen es sich aus Sicht der second generation (Morse et al. 2009) zu befreien gilt. Diese Auffassung vertreten insbesondere Charmaz und Clarke, die sich seit mehreren Jahren der Weiterentwicklung der GTM widmen. Während Charmaz in dem gegebenen Rahmen Verschiebungen und bestimmte Schwerpunktsetzungen vornimmt, verfolgt Clarke einen genuinen Ausbau der GTM. Grundlage für ihren Ausbau findet Clarke in der Tradition des Symbolischen Interaktionismus, welcher in ihren Augen „immer schon postmodern“ (Clarke 2012: 29) angelegt war. Clarke (2012) ergänzt die bestehenden Kodierverfahren, Memos, Diagramme oder andere Schaubilder, die von den Gründungsfiguren der GTM bereits als fester Bestandteil etabliert worden sind, um ein zusätzliches Set aus kartographischen Techniken, die sogenannten Maps5. Bei der graphischen Darstellung schließen die Maps „an den sozialökologisch-kartographischen Praktiken der Chicago School an, wo Ernest Burgess und Robert E. Park eine Technik entwickelt haben, um Ereignisse und Daten auf Zeitreihen von ‚Chicago Base Maps‘ abzutragen“ (Strübing 2018: 694). Als „analytische Übung“ (Clarke 2012:121) sollen die Maps den Forschenden zu tiefergehenden Analysen stimulieren und mögliche „analytische Lähmungen“ (ebd.) – das sind Starrezustände in der Konfrontation mit Datenfluten – lösen. „Gemein haben […] diese Karten, dass sie immer nur als analytische Schnappschüsse verstanden werden“ (Both 2015, 202). In diesem Sinne ist das Mapping von Beginn an durchzuführen, um neue Aspekte sichtbar zu machen und „Orte des Schweigens“ (Clarke 2012: 123) zu artikulieren. „Situationsanalysen bewirken eine Art soziale Inversion – unsichtbare, unbestimmte Merkmale einer sozialen Situation werden sichtbar gemacht“ (Kondratjuk 2018: 294).
Das Mapping kennt keine Begrenzung, was die Datentypen und die integrierten Elemente anbelangt. Clarke et al. (2018) weisen darauf hin, dass die Maps nicht-menschliche Elemente als aktive sowie ko-konstitutive mit aufnehmen können (ebd.: 17). Maps sollen dazu beitragen, das zu erfassen, was als eine Situation bezeichnet wird. Ziel der Situationsanalyse ist es, analog zur „dichten Beschreibung“ bei Geertz, „dichte Analysen“ (Fosket 2002: 40, zit.n. Clarke 2012: 25) zu ermöglichen, die die „volle Bandbreite der in der Situation enthaltenen Elemente“ berücksichtigen und deren „wechselseitige Beziehungen“ zueinander erläutern (Clarke 2012: 25). Die Situationsanalyse knüpft neben der interaktionistisch-pragmatischen Tradition an die ANT und einen neuen Materialismus (Haraway 1991) an. Ihr Anspruch, und dadurch wird sie für diese Untersuchung von Relevanz, ist: „[T]aking the nonhuman explicity into account“ (Clarke et al. 2018: 2). Beeinflusst von Arbeiten aus den STS und den CSCW markiert Clarke die Berücksichtigung nicht-menschlicher Akteure als eine der neuen Wurzeln der GTM zweiter Generation. „Nonhuman actants structurally condition the interactions within the situation through their specific material properties and requirements and through our engagements with them. Their agency is everywhere“ (Clarke et al. 2018: 91). Die Situationsanalyse stellt ein geeignetes Instrument zur Analyse von Cyberinfrastrukturen dar. Mithilfe dieses Analyseverfahrens können digitale Artefakte als Handlungsträger in den Vordergrund gerückt werden. Zudem lassen sich die Relationierungen zu anderen menschlichen sowie nicht-menschlichen Partizipanten sichtbar machen. Auf diese Weise kann die konstitutive Rolle dieser Partizipanten bei der Konstruktion der Wirklichkeit analysiert werden (Couldry/Hepp 2023).
Im Zuge meines gesamten Analyseprozesses kamen die Maps zum Einsatz. Im Folgenden wird zunächst kurz das Situationsverständnis (Abschn. 5.6.1) der Situationsanalyse dargelegt. Im Anschluss wird das konkrete Mapping (Abschn. 5.6.2 bis 5.6.4) beschrieben. Daran anschließend wird das Verhältnis von Situationsanalyse und Praxistheorie beleuchtet (Abschn. 5.6.5).

5.6.1 Definition der Situation

Was unter einer Situation gefasst werden kann, ruft deutliche Schwierigkeiten hervor, die auch mit der Vielzahl an divergierenden, soziologischen Definitionen zusammenhängt. Eine der im Diskurs um die Situativität am wirkmächtigsten Positionen stammt von Goffmann (1964). Für ihn sind soziale Situationen
„an environment of mutual monitoring possibilities, anywhere within which an individual will find himself accessible to the naked senses of all others who are “present,” and similarly find them accessible to him. According to this definition, a social situation arises whenever two or more individuals find themselves in one another’s immediate presence, and it lasts until the next-to-last person leaves“ (ebd.: 135)
Goffmann betont in diesem Zusammenhang die unmittelbare Präsenz, die er im Original mit „immediate presence“ (ebd.) bezeichnet. Dies impliziert, dass er die soziale Situation als ein räumlich, zeitlich und sozial abgegrenztes Setting begreift. „Card Games, ball-room couplings, surgical teams in operation, and fist fights“ (ebd.) sind Beispiele für die Art und Weise, wie Goffmann soziale Situation verstanden wissen will. Eine körperliche Präsenz der teilnehmenden Individuen ist eine Bedingung der Möglichkeit sozialer Situationen.
Für Clarke (2012) ist dieser ‚präsentische‘ Blick auf Situationen zunächst der zentrale Ausgangspunkt ihrer Auseinandersetzung mit dem Situationsbegriff. In der ersten Auflage ihrer Situationsanalyse (2012) greift sie auf Goffmanns Perspektive zurück und fasst unter einer Situation „ein zu konfrontierendes Objekt als auch ein kontinuierlicher Prozess im Anschluss an die Konfrontation“ (ebd.: 65). Situationen weisen einen „laufbahnartigen Charakter [auf] und sind auf verschiedene Weise […] mit anderen Situationen verknüpft“ (ebd.). Spätestens mit der zweiten Auflage setzen sich Clarke et al. (2018) von Goffmanns Verständnis einer Hier-und-Jetzt Situation ab und weiten den Begriff. In ihrer neuerlichen Begriffsbestimmung nähern sich Clarke et al. Deweys (1938) pragmatistischem Situationsverständnis, das den „verkürzenden Blick auf ein ‚gegebenes‘ oder ‚offensichtliches‘ Ereignissetting“ (Keller 2020: 541) überwinden will6. In der zweiten Ausgabe ist die Situation „not merely a moment in time, a narrow spatial or temporal unit or a brief encounter or event“ (Clarke et al. 2018: 17). Hervorgehoben wird eine „connection with a contextual whole“ (Dewey nach Clarke et al. 2018, S. 47) der zu untersuchenden Objekte. Denn im Sinne Deweys gibt es keine Erfahrung eines isolierten, hier-und-jetzt Momentum, vielmehr ist die Erfahrung immer ein Aspekt einer sie umgebenden Erfahrungswelt – einer Situation (Dewey 1938: 73). „Die Bedingungen der Situation sind in der Situation enthalten. Die bedingten Elemente der Situation müssen in der Analyse der Situation selbst spezifiziert werden, da sie für diese konstitutiv sind und sie nicht etwa nur umgeben, umrahmen oder etwas zur Situation beitragen [Hervorh. im Original]“ (Clarke 2012: 112). Clarke entwirft in Anlehnung an Dewey ein „irreduktionistisches Programm“ (Both 2015), indem alle relevanten Elemente Bestandteile der Situationen darstellen. „[E]very situation, when it is analyzed, is extensive containing within itself diverse distinctions and relations which, in spite of their diversity, form a unified qualitative whole“ (Dewey 1938: 125).
Die Konzeption einer Situation sowie die Struktur, welche diese definiert, sind als ein äußerst flexibles Konstrukt zu betrachten, welches an die Empirie geknüpft ist. Das brachte dem Situationsverständnis von Dewey heftige Kritik ein. Eine frühe und zugleich einflussreiche Kritik stammt von Russell. „As Russell says: ‚I do not see how... a ‘situation’ can embrace less than the whole universe. It would seem to follow that all inquiry, strictly speaking, is an attempt to analyze the universe‘“ (Russell 1939, 139–40 nach Brown 2012: 268). Obwohl die Kritik deutlich überzeichnet, was Dewey zu sagen versucht, adressiert sie eine Schwierigkeit, die viele aktuelle Forschungen im Rahmen der Situationsanalyse vor Herausforderungen stellt. Eine Untersuchung der von Clark (2012) vorgelegten Ausarbeitung zur Situationsanalyse ergibt keine hinreichende Klärung des Situationsbegriffs. Eine Analyse der Originalquellen hingegen ermöglicht eine substanzielle Präzisierung bestehender Unklarheiten. Dewey schreibt in einem Brief:
“Situation stands for something inclusive of a large number of diverse elements existing across wide areas of space and long periods of time, but which, nevertheless, have their own unity. This discussion which we are here and now carrying on is precisely part of a situation. Your letter to me and what I am writing in response are evidently parts of that to which I have given the name “situation”; while these items are conspicuous features of the situation they are far from being the only or even the chief ones. In each case there is prolonged prior study* into this study have entered teachers, books, articles, and all the contacts which have shaped the views that now find themselves in disagreement with each other” (Dewey/ Bentley 1949: 315)
Letztlich zeigt sich in der plastischen Darstellung Deweys, dass die Situation ein andauerndes Arrangement von Beziehungen umfasst, das üblicherweise Ereignisse über zumindest kürzere Zeiträume und damit ebenso über lang andauernde Perioden beinhalten kann (Clarke et al. 2018: 17). Das Briefschreiben wie die Vorstudien sind für Dewey Teil einer Situation, die in etwa mit ‚Verfassen eines Werkes‘ paraphrasiert werden kann. Es wird ersichtlich, dass nicht sämtliche Sachverhalte dieser Konstellation zugeordnet werden können, wie das Zitat und dessen Aufzählung verdeutlichen.
Die „Abgrenzungsfrage“ (Strübing 2018, S. 687) löst sich aber selbst vor dem Hintergrund der Erläuterungen nicht einfach auf. Die „Situationsanalyse ist dann vor allem ein Projekt der reflexiven Gestaltung des Forschungsprozesses selbst“ (Keller 2020: 534). In meiner eigenen Forschung umfasst die Situation die Cyberinfrastruktur im Kontext von WfbM mit all ihren dazugehörigen menschlichen und nicht-menschlichen Elementen. Diese Situation hat sich unter Zuhilfenahme des Mappings herauskristallisiert, wobei primär Situationsmaps und Maps sozialer Welten zum Einsatz kamen, auf die ich kurz eingehen werde – vollständigkeitshalber komme ich auch auf die Positionsmap zu sprechen.

5.6.2 Situationsmaps

Der analytische Fokus der Situationsmap besteht darin, eine Situation in ihrer gesamten Bandbreite zu erfassen. „The core goal is to descriptively lay out all the human and nun-human elements in the situation of inquiry“ (Clarke et al. 2017: 127). Die Schlüsselfragen sollten lauten: „What nonhuman things really matter in this situation of inquiry? To whom or what do they matter“ (ebd.: 129). Zu ergänzen wäre, dass symbolische, diskursive oder konzeptionelle Elemente ebenso Teil der Map sein können wie Ideen, Debatten, Gesetze oder anderer kultureller „Stuff“ (ebd.). Nahezu alles7 – auch sogenannte implizite Akteure (Clarke 2012: 86) – kann in die Situationsmaps fließen, Hauptsache es spielt für den Analysten und für die Beteiligten eine Rolle. Es empfiehlt sich, auch die eigene Person zu verorten, da diese, insbesondere im Kontext der teilnehmenden Beobachtung, ein integraler Bestandteil der Situation ist. Clarke unterscheidet drei Entwurfsstadien der Situationsmap: messy Maps, geordnete Maps und relationale Maps (ebd.). Für messy Maps ist charakteristisch, dass einfach alles, was in der Auswertung als relevantes Element auftaucht, ungeordnet einfließt. Als analytischer Schnappschuss bleibt die messy Map flexibel und anpassungsfähig, was zu einer kontinuierlichen Überarbeitung in meinem Projekt geführt hat. Das heißt, die messy Map wuchs bis zum Ende der Analyse sukzessiv, da sich immer wieder neue, relevante Elemente in der Analyse zeigten.
In einem zweiten Schritt empfehlen Clarke et al. (2018) die messy Maps zu ordnen. „This map is made using the messy map as Data“ (ebd.: 130). Grundlegende Kategorien können sein: Menschliches, Nicht-menschliches, Politisches, Räumliches, Zeitliches, Diskursives, Implizites, Symbolisches und viele weitere mehr. Die Liste lässt sich – je nach Forschungsinteresse und Material – kontinuierlich erweitern. Ziel einer geordneten Situationsmap ist nicht, möglichst viele Kategorien aufzustellen und alle leeren Spalten zu füllen, sondern die Situation in Grundzügen zu systematisieren. Hierdurch wurden in meiner Analyse vor allem die heterogenen, digitalen Grenzobjekte sichtbar.
Die Erstellung der relationalen Map stellt den letzten Arbeitsschritt dar. Sobald eine Situationsmap mit Elementen gefüllt ist, kann im nächsten Schritt damit begonnen werden, die Relationen zwischen den Elementen zu fokussieren. Zunächst werden einfache Linien zwischen einem zentral gesetzten Element und allen damit zusammenhängenden Elementen gezogen. Um in die Analyse zu gelangen, wird die Art der Beziehung erläutert, indem die Eigenschaften der Verbindung beschrieben werden (Clarke 2012: 140 f.) (Abb. 5.4).
Abbildung 5.4
Relationale Situationsmap ohne konkrete Inhalte, erweitert um Praktiken.
(Eigene Darstellung in Anlehnung an Clarke 2012: 142)
Clarke lässt in ihren Beiträgen weitgehend offen, wie und in welcher Form die Beschreibung der Eigenschaften stattfinden soll. Hierin liegt eine Schwachstelle, da eine relationale Map ohne die Konkretisierung der Verbindungslinie auffallend deskriptiv bleibt. Die relationalen Maps dienten mir in meiner Analyse als erster Zugang zu den Praktiken und den damit verbundenen Elementen.

5.6.3 Maps Sozialer Welten

Im Gegensatz zu den Situationsmaps, in die nicht-menschliche, symbolische, politische und weitere Elemente erst ungeordnet, dann geordnet eingehen, tauchen nicht-menschliche Elemente in den Maps sozialer Welten/Arenen nicht mehr explizit auf. Dies zeichnet sich bereits mit der sozialtheoretischen Grundlage der Social-Worlds-Perspective (Strauss 1978) der Situationsanalyse ab. In Abgrenzung zu stratifikatorischen Modellen von Handlung und Struktur fokussiert die Situationsanalyse mit ihren Wurzeln im Pragmatismus und Symbolischen Interaktionismus das Soziale als Produkt einer kontinuierlichen Aushandlung zwischen kollektiven Akteuren. Das Soziale ist keine Ebene von Individuen, „sondern der Ort, wo Individuen wieder und wieder zu sozialen Wesen werden – durch Akte der Verpflichtung gegenüber sozialen Welten sowie ihre Teilnahme an Aktivitäten dieser Welten“ (Clarke 2012: 148). An dieser Stelle ist es wichtig, auf den Aspekt der sozialen Welten kurz einzugehen, da hier der Schlüssel zum Verständnis dieser Mapping-Strategie liegt.
Bei der Theorie sozialer Welten handelt es sich um eine US-amerikanische Entwicklung, die ihre Wurzeln in den Arbeiten von Strauss hat und auch hier, wie schon bei dem Verständnis der Situation, eng mit dem Interaktionismus verknüpft ist. Strauss fasst unter sozialen Welten Gruppen, die durch mindestens eine „primary activity“ (Strauss 1978: 122) gekennzeichnet sind. Soziale Welten zeichnen sich im Gegensatz zu Organisationen durch vielfältige Formen von Mitgliedschaft aus (Strauss 1993: 213). Strauss wie auch Clarke greifen auf Beckers Weiterentwicklung der commitments (Verpfichtungen) zurück. Solche Verpflichtungen sind durch die eine oder mehrere „consistent lines of activity“ (Becker 1960: 33) gekennzeichnet, in welche unterschiedliche „side bets“ (ebd.), sprich Interessen und Aktivitäten der Personen, mit einfließen. Neben den Aktivitäten teilen die Mitglieder Ressourcen verschiedenster Art, um ihre Ziele zu erreichen (Clarke 1991: 131). Dadurch können sich soziale Welten in ihrer Größe, ihrer Geschichte, ihrer Veränderungrate, ihrer Ressourcen oder auch ihrem Verhältnis zu Technologien sowie Artefakten voneinander unterscheiden (Strauss 1993: 213). „Some worlds are quite local, others regional or national, while an increasing number are international in scope of activities and membership“ (ebd.). Soziale Welten können Teil einer Organisation sein, genauso wie mehrere Organisationen sich unter ihnen subsumieren oder wie mehrere Welten sich an mehreren Organisationen beteiligen können. Außerdem besitzen die Welten teils mannigfaltige Subwelten, welche sich aus den „side bets“ (Becker 1960) ergeben und die durchaus in Konflikt miteinander treten können. „Social worlds and their segments have their internal issues, around which their members or organizations debate, maneuver, negotiate, attempt to persuade, or coerce“ (Strauss 1993: 226). Eine weitere Eigenschaft sozialer Welten ist, dass sie fluide Grenzen besitzen. „It is a universe where fragmentation, splintering, and disappearance are the mirror images of appearance, emergence, and coalescence. This is a universe where nothing is strictly determined“ (Strauss 1978: 123). Aus zwei konkurrierenden Welten kann eine neue Welt entstehen. Eine Welt kann in viele kleine Segmente zerfallen oder eine Welt verschwindet ganz von der Oberfläche (Clarke 1991: 133).
Soziale Welten können gemäß Strauss (1993) nur durch eine intensive Betrachtung von Orten der Aushandlung, sogenannten Arenen, verstanden werden. In den Arenen werden von den Vertreter:innen verschiedene Themen debattiert, verhandelt oder ausgefochten (Strauss 1978: 124). Die Aushandlungen wirken zurück in die Welten, Subwelten und Organisationen, was zu ihrer Stabilisierung oder Transformation führt. Arenen als Kontaktzonen sozialer Welten, Subwelten und Organisationen können ganz unterschiedlich skaliert werden.
Die Soziale-Welten-Perspektive fokussiert sich auf der Ebene kollektiver Akteure und betrachtet digitale Artefakte somit lediglich als Technologien, die von diesen genutzt werden. Das macht die nachfolgende Abbildung einer Soziale-Welten-Map deutlich (Abb. 5.5).
Abbildung 5.5
Soziale-Welten-Map ohne konkrete Inhalte mit sozialen Welten, Organisationen und Arenen.
(Quelle: Clarke/ Charmaz 2019)
In den vorliegenden sozialen Welten manifestieren sich einzelne Artefakte, wie beispielsweise Computer oder digitale Anwendungen, nicht explizit, vielmehr gehen sie in den Welten auf. Ihr Stellenwert darüber hinaus, der deren Eigentätigkeit und -dynamik berücksichtigt, bleibt in der Theorie sozialer Welten/Arenen weitgehend unterbestimmt. Soll auch in der Soziale-Welten-Perspektive dem Stellenwert von (digitaler) Materialität Rechnung getragen werden, ist es sinnvoll, das Theorie-Methoden-Paket der Situationsanalyse in einen Dialog mit anderen Methodologien zu bringen und sie zu erweitern (Fujii et al. 2023). An gegebener Stelle (Abschn. 11.​3) komme ich darauf zurück.

5.6.4 Positions-Maps

Positions-Maps konzentrieren sich auf die Darstellung von Diskursen und bilden in Ergänzung zum Mapping sozialer Welten/Arenen das Spektrum an Diskurspositionen ab (Clarke 2021). Die Positionen sind demnach nicht als Repräsentationen von Einzelpersonen, Gruppen oder Institutionen zu verstehen oder auf diese zurückzuführen, sondern als Repräsentationen von heterogenen Diskursen. Ziel von Positions-Maps ist, die Heterogenität und Konflikte innerhalb eines Diskurses zu verdeutlichen und die konträren Perspektiven der Beteiligten zu systematisieren (Wolf/ Wegmann 2020).
In dem Versuch der Situationsanalyse, die Diskursanalyse in die GTM zu integrieren, kann ein wertvoller Vorschlag gesehen werden, um Dimensionen wie Macht und Diskursivität zu berücksichtigen (Diaz-Bone 2012). Ob und in welchem Verhältnis Diskursivität und Materialität zueinanderstehen, reflektieren Clarke et al. (2018) allerdings nicht, womit eine theoretische Leerstelle entsteht. Wie Diaz-Bone (2012) analysiert, liegt das daran, „weil hier Diskurse nicht praktisch analysiert werden als Praktiken, die eine konstruktive Leistung erzielen – nämlich die sozialen Welten bzw. sozialen Arenen selbst zu generieren“ (ebd.: 19). Die konstruktive Leistung von Diskursen wird einfach als vorausgesetzt angenommen, ohne sie systematisch herzuleiten oder in irgendeiner Form mittels Mapping darzustellen. „Es fehlt nicht nur eine Klärung, was Clarke faktisch unter ‚Diskurs‘ versteht. Auch das Machtkonzept bei Foucault wird vereinfacht“ (ebd.).
Was durch die fehlende Bestimmung des Diskursbegriffes ausbleibt, ist die Verflechtung von Materialität und Semiotizität auszubuchstabieren. Das gilt für die Maps sozialer Welten/Arenen, aber allen voran für die Positions-Maps, in denen Materialität zugunsten der Diskursivität sowie deren Positionierungen verschwindet. Welche Beteiligung digitale Artefakte an der Diskursivität der Praxis einnehmen und wie sich eine möglicherweise in die Materialität eingeschriebene Diskursivität performativ entfaltet, lässt sich über die Maps nicht darstellen und ist mit diesen auch gar nicht vorgesehen. Aufgrund des methodologischen Zuschnitts habe ich während des Forschungsprozesses auf die Erstellung von Positions-Maps verzichtet.

5.6.5 Verhältnis Praxistheorie und Soziale-Welten-Perspektive

Eine Schwierigkeit, die sich aus der sozialtheoretischen Grundlegung und des methodologischen Zuschnittes der vorliegenden Forschung eröffnet, ist die theoretische Relationierung von Praxistheorie und Situationsanalyse. In den letzten Jahren sind einzelne Beiträge entstanden, die die Passungsfähigkeit zwischen Praxistheorien und Situationsanalyse zueinander theoretisch diskutieren und/oder miteinander verbindend auf einen empirischen Gegenstand hin anwenden (z. B. Both 2015; Strübing 2017; Weißgerber 2017; Pohlmann 2020). Diesen Beiträgen folgend besteht in der Situationsanalyse ein passungsfähiger methodologischer Zuschnitt, „um Verhältnisse zwischen Strukturen, Akteur*innen und Artefakten zu visualisieren und in ihrer institutionell verorteten Strukturiertheit zu verstehen“ (Helbig et al. 2021: 447). Folglich erkennen Autor:innen wie Pohlmann (2020) eine Reihe von Verbindungslinien zwischen den beiden Ansätzen. Beide Ansätze betrachten Kontingenz, Machtverhältnisse, Situiertheit, Materialität und Komplexität als grundlegend relevant für die Entstehung des Sozialen. Beiden geht es um die Dezentrierung des Subjektes und die Betonung nicht-menschlicher Agency (vgl. Clarke 2015b: 224 f.; Strübing 2018: 690). Beide ebnen das Soziale ein, das heißt, sie kritisieren die Differenzierung in gesellschaftliche Ebenen (Both 2015: 211; Strübing 2018: 690); wobei die Situationsanalyse die ‚Verflachung‘ des Sozialen nicht so konsequent verfolgt wie praxistheoretische Ansätze. Entgegen dieses konstatierten Passungsverhältnisses bleibt über den bisherigen Beiträgen bisweilen noch unterbestimmt, wie praxistheoretische Daten situationsanalytisch analysiert werden können. Es ergeben sich somit folgende Fragestellungen: Inwiefern und in welchem Verhältnis stehen Praktiken zu Clarkes Situationsverständnis? Des Weiteren gilt es zu untersuchen, inwiefern Clarkes Maps als passungsfähig und relevant für eine praxistheoretische Konzeption des Sozialen zu erachten sind.
Welchen Stellenwert Praktiken in Situationen einnehmen, wird bislang unterschiedlich ausgehandelt und ist voraussichtlich auf die überaus unterschiedlichen Konzeptionen von Praktiken zurückzuführen. So ergibt sich für Strübing (2017) die Möglichkeit, anhand von Situationen als empirischem Zugang zu Sozialität Praktiken zu rekonstruieren und deren situative Realisation vergleichend zu untersuchen (ebd.: 59). Praktiken stellen demnach als „einen Fall von“ (Strübing 2017: 59) umfassende Realisationen von Situationen dar und sind mehr als bloßes Element dieser. Praktiken können als „situationsübergreifend“ (ebd.) betrachtet werden. Die Zurechnung der Praktiken des Überwachens zur Situation ‚Cyberinfrastruktur in Aktion‘ oder zu einer alternativen, empirisch-reflexiv bestimmten Situation hat keine Auswirkungen auf die Praktik selbst. Zugleich realisiert sich die Situation durch diese Praktiken.
Strübing (2017) schlägt damit eine kohärente Lösung für die Integration von Praktiken und Situationen vor, auf die sich die vorliegende Arbeit bezieht. Vor allem in Situationsmaps sieht Strübing eine geeignete Möglichkeit, um Praktiken in die Situationsanalyse zu integrieren. „Die in Situations-Maps entwickelten prozessualen Bezüge zwischen unterschiedlichen Entitäten unterstützen die systematische Analyse situierter Praktiken samt der in ihnen enthaltenen synchronen und diachronen Verweisungszusammenhänge“ (ebd.: 61). Maps sozialer Welten zielen wiederum auf Repräsentationsverhältnisse und auf kollektive Akteure. Hierin liegt eine der größten Differenzen: Soziale Welten entsprechen kollektiven Akteuren, die vor den Praktiken liegen. Aus diesem Grund soll an Stelle von sozialen Welten von Praktiker:innengemeinschaften (communities of practitioners) gesprochen werden. Dieses Konzept von Nicolini (2013) grenzt sich nicht nur von sozialen Welten, sondern auch von den „communities of practices“ (Bowker/ Star 1999) ab, welche sich – vergleichbar zu sozialen Welten – um „activities“ und einem spezifischen „knowledge“ sowie „skills“ gruppieren (Gheradi/ Nicolini 2000: 10). Problematisch daran ist, dass eine Einheitlichkeit in Wissen und Aktivitäten vor aller Praxis proklamiert wird, was dem praxistheoretischen Denken und dessen Performativitätsverständnis diametral zuwiderläuft. Anstatt also von „communities of practice“ etwa bei Bowker und Star (1999) zu sprechen, ist es im Sinne der Praxistheorien konsequent, von Communitys of Practitioners auszugehen.
„[C]ommunities of practitioners are constantly busy positioning themselves within the ongoing practice. Practitioners […] do not need to share the same occupational background, the same interests, or some kind of feeling of unisonance in order to be part of the community of practice. It is the practice itself that provides the common background […] In this sense, the practice which brings practitioners together also divides them, as all practices have by definition a plurality of positions and voices. As much as sharing some inexistent substance, knowing how to be a good practitioner implies knowing how to interact with different ‘knowings’ and the power positions that go with them“ (Nicolini 2013: 94).
Obwohl es wie ein minimaler Unterschied aussieht, geht es bei den beiden Schreibweisen (of practices und of practitioners) ums sprichwörtliche Ganze: Die „communities of pracitices(Bowker/ Star 1999) implizieren eine ontologische Priorisierung des kollektiven Subjekts als Quelle des Handelns und des Wissens, während die Betonung der Praktiken und der Praktiker:innen das Werden aus den Handlungszusammenhängen im Zusammenspiel zwischen menschlichen und nicht-menschlichen Partizipanten heraus konzipieren (Gheradi 2009). Um eine Passung zwischen Situationsanalyse und Praxistheorien herstellen zu können, muss das Konzept der sozialen Welten durch communities of practitioners (Praktiker:innengemeinschaften) ersetzt werden. Aus Soziale-Welten-Maps werden dann Communities-of-practitioners-Maps8.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Fußnoten
1
Hier sei nochmal darauf verwiesen, dass der Gegenstand kein Ding an sich, unabhängig jeglicher Anschauungen, ist.
 
2
Hier wird zwischen den sogenannten In-Vivo-Kodes und den theoretischen Kodes unterschieden. In-vivo bedeutet, dass die Kodes den Daten entlehnt bzw. entnommen sind. Theoretische Kodes sind Erfindungen oder sprachliche Neuschöpfungen, das heißt aspektbezogene Abstraktionsleistungen (Breuer 2010: 78).
 
3
Bei Serres heißt es dazu: „Wenn Sie Fragmentarisches produzieren, suchen Sie folglich Zuflucht an Orten, an Lokalitäten, die sehr viel widerstandsfähiger sind als die umfassende Konstruktion. […] Die Philosophie des Fragments ist also übervorsichtig, sie ist das Resultat der überzogenen Kritik, der Polemik, der Schlacht und des Hasses. Sie produziert das, was der stärksten Aggression am stärksten widersteht. […] Umgekehrt: groß zu konstruieren bringt einen dazu, in Richtung Fragilität zu gehen, sie zu akzeptieren, sie zu riskieren. Zum Fragment greifen läuft darauf hinaus, sich zu schützen […] Im Großen zu konstruieren verlangt, in Richtung auf das Schwächste zu gehen; die Synthese erfordert daher Mut, die Kühnheit des Feingliedrigen“ (Serres 2008: 179 f.)
 
4
Die Strategien werden zu einer analytischen Betrachtung getrennt, eigentlich überlappen sie sich und lassen sich nicht klar voneinander trennen.
 
5
In der ersten Auflage ihres Buches beruft sich Clarke explizit auf das Kodieren und das Memoschreiben als grundlegende Techniken der Datenerschließung, die von den Maps ergänzt werden. Im Vergleich dazu heißt es in der zweiten Auflage, dass beide zwar „beautiful together“ (Clarke et al. 2018: 108), aber komplementär zueinander gedacht werden sollen: „One at the time, not blended together“ (ebd.). Das not blended together deckt sich mit dem eigenen Forschungsprozess. Beide Verfahren ergänzen sich, sollten aber getrennt voneinander durchgeführt werden.
 
6
Vergleichbare Kritiken stammen (u. a.) von Knorr-Cetina (2009), die sich ebenfalls gegen ein face-to-face Setting und gegen ein präsentisches Gegebenes wendet. Aber dazu später mehr, wenn es um die Frage von Intersituativität geht.
 
7
An dieser Stelle noch ein kurzer Einschub zu dem, was Situationsmaps nicht sind und was sie möglicherweise sein können: „They are not intended to conceptual or analytical maps based on GT Codes. In fact, analytic codes should not even be on these data maps unless they are ‚in vivo‘ codes used by participants in your situation. Nor are these maps GT analytical diagrams“ (Clarke et.al. 2017: 132).
 
8
Um eine Integration von Positionsmaps konzeptionell zu erarbeiten, fehlt hier der Raum. Da ich auf deren Anwendung auch verzichtet habe, gibt es für mich keine Notwendigkeit, eine konzeptionelle Erweiterung zu erarbeiten.
 
Metadaten
Titel
Forschungsstrategien – Auf der Spur der Cyberinfrastruktur
verfasst von
Konstantin Rink
Copyright-Jahr
2025
DOI
https://doi.org/10.1007/978-3-658-47994-7_5

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.