Skip to main content
main-content

Tipp

Weitere Kapitel dieses Buchs durch Wischen aufrufen

Erschienen in:
Buchtitelbild

Open Access 2022 | OriginalPaper | Buchkapitel

10. Studie 2 – Die Auswirkungen der Überzeugungen des Glaubens an Big Data – Erkenntnisse aus vier empirischen Erhebungen

verfasst von: Marco Lünich

Erschienen in: Der Glaube an Big Data

Verlag: Springer Fachmedien Wiesbaden

insite
INHALT
download
DOWNLOAD
share
TEILEN
print
DRUCKEN
insite
SUCHEN

Zusammenfassung

Im Nachgang zu Skalenkonstruktion und -validierung wurde die BDGS-Skala zwischen Januar und Oktober 2019 in vier weiteren empirischen Forschungszusammenhängen eingesetzt und wurden Daten für die Ausprägung des BDGS in den vier jeweiligen Stichproben erhoben. Diese werden nachfolgend entsprechend Erhebung 2.1 EU und KI, Erhebung 2.2 KI-Bedrohung, Erhebung 2.3 Krankenversicherung und Erhebung 2.4 KI und Hochschule benannt. In den nachfolgenden Abschnitten werden die vier empirischen Forschungszusammenhänge mit dem jeweiligen Erkenntnisinteresse besprochen und wird das empirische Vorgehen so knapp und dennoch so nachvollziehbar wie möglich dokumentiert.
Im Nachgang zu Skalenkonstruktion und -validierung wurde die BDGS-Skala zwischen Januar und Oktober 2019 in vier weiteren empirischen Forschungszusammenhängen eingesetzt und wurden Daten für die Ausprägung des BDGS in den vier jeweiligen Stichproben erhoben. Diese werden nachfolgend entsprechend Erhebung 2.1 EU und KI, Erhebung 2.2 KI-Bedrohung, Erhebung 2.3 Krankenversicherung und Erhebung 2.4 KI und Hochschule benannt. In den nachfolgenden Abschnitten werden die vier empirischen Forschungszusammenhänge mit dem jeweiligen Erkenntnisinteresse besprochen und wird das empirische Vorgehen so knapp und dennoch so nachvollziehbar wie möglich dokumentiert. Ziel der Erhebungen, die zur zweiten Studie dieser Arbeit gehören, war es, die dritte aufgeworfene Forschungsfrage zu beantworten, die danach fragt, welche Auswirkung die Überzeugungen des Glaubens an große digitale Datenbestände auf Einstellungen zum Einsatz von KI-Anwendungen haben (siehe Kapitel  7). Hierzu wurde die BDGS-Skala im Rahmen unterschiedlicher Anwendungsfälle als unabhängige Variable modelliert und ihre vermutete Erklärungskraft in unterschiedlichen Forschungszusammenhängen gesellschaftlicher Datensammlung und -verwertung geprüft. Den untersuchten Forschungskontexten ist dabei gemein, dass sie sich auf datenbasierte KI-Anwendungen beziehen, denen derzeit eine hohe Aufmerksamkeit zukommt und für die sich immer besonders hohe Ansprüche an die Qualität und den Umfang der Preisgabe digitaler Daten stellen. Die Erhebungen folgen dabei einer aufeinander aufbauenden Logik: Am Beispiel von Modellanwendungen der KI, die derzeit in unterschiedlichen Lebensbereichen implementiert werden oder deren Implementierung in naher Zukunft angedacht ist, wird der erwartete Einfluss des BDGS auf kognitive, affektive sowie konative Komponenten der Einstellungen der Bürger*innen zu diesen Anwendungen untersucht (Maio et al., 2018).

10.1 Erkenntnisinteresse BDGS

Zunächst einmal wird basierend auf den Vorerfahrungen mit den drei Erhebungen aus Studie 1 davon ausgegangen, dass sich bei einer weitreichenden Verbreitung des BDGS, also der Grundannahme der vorliegenden Arbeit, auch bei den Befragten der Erhebungen in Studie 2 die festgestellte Struktur der Ausprägung des BDGS und seiner Dimensionen feststellen lassen müsste. Das BDGS sollte sich als insgesamt stabiles Wahrnehmungsmuster bei den Bürger*innen vorfinden lassen, wobei jedoch je nach Befragtengruppe dennoch eine unterschiedlich hohe Ausprägung der einzelnen Glaubensüberzeugungen beobachtet werden kann. Die Dimensionen Genauigkeit, individueller Nutzen sowie gesellschaftlicher Nutzen sollten dabei im Aggregat eine variable, weitgehend ausgeglichene Zustimmung erfahren. Mit Blick auf den Wissensgewinn wird davon ausgegangen, dass die besondere Stellung des Wissens vor dem Hintergrund von Erkenntnisgewinnen auf Grundlage der digitalisierungsgetriebenen Quantifizierung des Sozialen und gesellschaftlicher Diskurse rund um die Wissensgesellschaft sowie den Mythos Big Data zu einer insgesamt positiven Ausprägung führt. Zudem wird bezüglich der Struktur des Wahrnehmungsmusters davon ausgegangen, dass bei einer hohen Zustimmung zu den Glaubenssätzen einer Dimension des BDGS auch den Glaubenssätzen der anderen Dimensionen zugestimmt wird. Der Glaube an den Erkenntnisgewinn durch digitale Daten geht einher mit Überzeugungen an einen hieraus resultierenden Nutzen. Hierzu werden daher vor der Datenerhebung folgende Hypothesen aufgestellt:
  • H1a: Die Dimension ‚Wissensgewinn‘ des BDGS ist positiv ausgeprägt. 1
  • H1b: Die vier erhobenen Dimensionen des BDGS kovariieren positiv miteinander. 2
Weiterhin wird angenommen, dass die Kognitionen des Wahrnehmungsmusters des BDGS einen Einfluss auf die kognitiven, affektiven sowie konativen Komponenten der Einstellungsbildung haben. In Situationen, in denen Personen auf datenbasierte KI-Anwendungen treffen, werden bei ihnen die persönlichen Überzeugungen bezüglich der Eigenschaften und Konsequenzen digitaler Daten aktiviert. Die generelle Annahme ist dann, dass Personen mit hoch ausgeprägtem BDGS durch dessen Aktivierung dann positivere Vorstellungen und emotionale Bezüge sowie eine erhöhte Verhaltensneigung zur Nutzung dieser digitalen Innovationen in unterschiedlichen Lebensbereichen zeigen. Daher wird an dieser Stelle ganz allgemein folgende Hypothese aufgestellt, die im Rahmen der Studie 2 dieser Arbeit geprüft wird:
  • H2: Je ausgeprägter das BDGS, desto positiver die kognitiven, affektiven und konativen Komponenten der Einstellung gegenüber datenbasierten KI-Anwendungen.
Dieser Einfluss des BDGS wurde im Rahmen von Studien in unterschiedlichen Forschungszusammenhängen geprüft und die aufgestellten Annahmen werden abgeleitet von H2 nachfolgend an den entsprechenden Anwendungsfall der Erhebungen angepasst.

10.2 Anmerkungen zur Durchführung der empirischen Arbeit und der Reichweite der Befunde

Bevor jedoch über den Einsatz in der empirischen Forschung und die hierdurch gewonnenen Erkenntnisse über Struktur und Einfluss des BDGS berichtet wird, sind zur Einordnung dieser Erkenntnisse zunächst ein paar allgemeine Anmerkungen zum Rahmen der empirischen Forschungsarbeit und der Reichweite der Befunde notwendig. An einigen Stellen bei der Datenerhebung und Datenauswertung weichen die tatsächlich zu realisierenden Möglichkeiten vom Ideal des Forschungsprozesses ab, was vorweg transparent zu machen ist.
Ausprägung und Einflüsse des BDGS als sekundäres Erkenntnisinteresse
Dabei ist zur Einordnung der Studiendurchführung und ihrer Befunde an dieser Stelle darauf hinzuweisen, dass der Einsatz und die Prüfung des besagten Einflusses der Dimensionen des BDGS bei keiner der Erhebungen das primäre Erkenntnisinteresse darstellten. Das hat zum einen etwaige Konsequenzen für die Datenerhebung, zum anderen jedoch insbesondere auch für die Datenauswertung und muss als Limitation der Forschung reflektiert werden. Für die Datenerhebung müssen Ausstrahlungs- und Reihenfolgeeffekte beachtet werden, die nachfolgend an den entsprechenden Stellen diskutiert werden. Zwar wurde die BDGS-Skala immer im identischen Format verwendet, allerdings an unterschiedlichen Stellen in den jeweiligen Fragebögen. Es stand daher die Beantwortung der eigentlichen Forschungsfragen des jeweiligen Untersuchungszusammenhangs im Vordergrund. Diese bedingte somit maßgeblich den Ablauf der Befragung sowie den Aufbau des Instruments. Es kann folglich vorkommen, dass die BDGS-Skala erst auf einer der hinteren Fragebogenseiten zu finden war, teilweise gar nach Variablen, die als abhängige endogene Variablen modelliert wurden. Da im Rahmen von Querschnittsstudien, insbesondere ohne experimentelles Design kaum valide Kausalaussagen zulässig sind (Pearl et al., 2016; Steinhage & Blossfeld, 1999), wird auf die entsprechende Problematik an den entscheidenden Stellen der einzelnen Forschungszusammenhänge hingewiesen, muss jedoch als eine generelle Limitation der vorliegenden Forschungsbemühungen reflektiert werden.
Forschungsökonomische Restriktionen bezüglich Stichprobengröße, statistischer Power und zu erwartender Effektstärken
Bei der Datenauswertung muss ebenfalls berücksichtigt werden, dass die Rekrutierung der jeweiligen Stichprobe und speziell deren finale Größe durch das dominierende Erkenntnisinteresse beeinflusst war. Das bedeutet auch, dass sich vorherige Berechnungen der notwendigen Stichprobengröße für die Trennschärfe der statistischen Auswertung („statistische Power“; Fahrmeir et al., 2016, S. 393) zwar durchführen ließen, allerdings keinen Einfluss auf die Realisierung einer geforderten Mindestanzahl an Befragten für die Prüfung der erwarteten Zusammenhänge hatten. Zudem ist die Powerberechnung für komplexere Modelle meist schwierig und ist mit gängigen Werkzeugen zur Powerberechnung wie etwa G*Power nur eingeschränkt oder gar nicht möglich. 3 Die vorherige Durchführung von Simulationen erzeugt zusätzlichen Aufwand und war im Forschungszusammenhang ebenso nur eingeschränkt möglich. Zudem müssen hierfür jedoch auch erst einmal Vorannahmen über die erwarteten Zusammenhänge bestehen oder formuliert werden. So gehen einige Forschende dazu über, vorher festgelegte kleinste bedeutungsvolle Effektstärken (‚Smallest Effect Sizes of Interest‘) zu formulieren (Lakens, 2014, 2017). Mit Blick auf die Tragweite der Einführung und Diffusion von KI-Anwendungen in kritischen Lebensbereichen könnten auch kleine Effekte von Glaubensauffassungen wie solchen des BDGS mitunter weitreichende Konsequenzen haben. Allerdings existierten zu geringe Vorerfahrungen mit dem Einsatz der BDGS-Skala, als dass vorab konkrete Erwartungen für deren Einflussstärke gemacht werden können. Es gab mithin nur unzureichende Annahmen, die einer ersten Einschätzung der zu erwartenden Stärke von Zusammenhängen zuträglich wären. Daher orientieren sich Bericht und Interpretation des Vorgehens und der Ergebnisse an den geltenden Konventionen der empirischen Sozialforschung, selbst wenn diese, wie an den entsprechenden Stellen deutlich wird, voraussetzungsreich sind, notwendige und hinreichende Bedingungen einem fortlaufenden Wandel unterliegen und zudem aus forschungsökonomischen Gründen (sprich: zeitlichen und materiellen Ressourcen) nicht alle Wünsche im Rahmen der Datenerhebung auch immer erfüllt werden können.
Konsequenzen der Datenstruktur im Rahmen der Auswertungsstrategie
Zuletzt bestehen mit Blick auf die Struktur des BDGS und der hierzu gesammelten Daten Herausforderungen für die Auswertung. Hier ist u. a. auf die hohe Inter-Korrelation der BDGS-Dimensionen einzugehen, welche in den voraussetzungsreicheren Strukturregressionsmodellen gepaart mit kleinen Stichprobengrößen, einer geringen Anzahl von Indikatoren, der hierdurch bedingten geringen dimensionalen Verschiedenheit sowie hoher Multikollinearität zu Problemen bei der Modellschätzung und Ergebnisinterpretation führen kann (Grewal et al., 2004; Jagpal, 1982; Marsh et al., 2004). Wie zuvor in Abschnitt  9.​2.​2 dokumentiert, ist den Modellen mit korrelierten Faktoren (CFM) der Vorzug vor Modellen mit einem Faktor zweiter Ordnung (SOFM) zu geben. Dennoch bestehen bedingt durch die hohen Inter-Korrelationen häufig Zweifel bezüglich der tatsächlichen Unterschiedlichkeit der Effekte, wenn sich bei einem von zwei hochkorrelierten Faktoren ein signifikanter und ein nicht-signifikanter Einfluss auf eine abhängige Variable zeigen. Diese Unterschiedlichkeit kann durch entsprechende Identitätsrestriktionen (in vorliegendem Fall durch Gleichheitsrestriktionen) im Modell entsprechend geprüft werden und wird folglich an den entsprechenden Stellen thematisiert. Es ist jedoch bereits an dieser Stelle notwendig, darauf hinzuweisen, dass bei zukünftigen Studien vorher genau darauf abgestellt werden sollte, welche Dimensionen des BDGS von Interesse sind, insbesondere mit Blick auf die erwartete Stärke der Zusammenhänge und damit zusammenhängenden Anforderungen an die statistische Power und die zu realisierende Stichprobengröße.

10.3 Erhebungskontexte

10.3.1 Erhebung 2.1 – Big Data, KI und europäische Politikentscheidungen

Erhebung 2.1 EU und KI und auch Erhebung 2.3 Krankenversicherung (siehe Abschnitt  10.3.3) wurden im Rahmen zweier Studien eines Lehrforschungsprojekts im Bachelor Sozialwissenschaften im Wintersemester 2018/19 an der Heinrich-Heine-Universität (HHU) Düsseldorf durchgeführt. In beiden Erhebungen wurde auch die BDGS-Skala erhoben, deren Ergebnisse nachfolgend berichtet werden.
Das Erkenntnisinteresse der Studie, in deren Rahmen Erhebung 2.1 EU und KI durchgeführt wurde, betraf den Anwendungsbereich von KI im Rahmen der Vorbereitung und Festlegung von politischen Entscheidungen auf Ebene der Europäischen Union (EU). Genauer ging es um die wahrgenommene politische Legitimität dieser als Algorithmic Decision-Making ( ADM) bezeichneten Entscheidungsfindung bei den Bürger*innen, wobei mit Legitimität hier zunächst eine kognitive Komponente der Einstellung in den Fokus rückt. Ausführliche Informationen dieser Studie finden sich bei Starke und Lünich (2020).
Die Legitimität politischer Entscheidungen der EU
Um effektive Politikentscheidungen zu treffen und aktuellen Herausforderungen zu begegnen, ist die EU auf politische Legitimität angewiesen. Hierfür ist die EU insbesondere auf das Wohlwollen und die Unterstützung ihrer politischen Subjekte, also der Bürger*innen angewiesen: “Governance can be considered legitimate in so far as its subjects regard it as proper and deserving of support” (Gurr, 1971, S. 185). Dabei wurde von Scharpf (1999) zunächst zwischen der Legitimität des Inputs und des Outputs unterschieden. Gemäß V. A. Schmidt (2013) wird Input-Legitimität wie folgt beschrieben: “Responsiveness to citizen concerns as a result of participation by the people” (V. A. Schmidt, 2013, S. 2, Hervorh. im Orig.). Sie ist mithin abhängig von freien und fairen Wahlen, hoher Wahlbeteiligung und einem lebhaften politischen Diskurs der Öffentlichkeit (Scharpf, 1999). Output-Legitimität meint hingegen Folgendes: “The effectiveness of the EU’s policy outcomes for the people” (V. A. Schmidt, 2013, S. 2). Dies betrifft die tatsächliche Fähigkeit der EU, durch ihr politisches Wirken Herausforderungen wie die Sicherung von Frieden, Umweltschutz und wirtschaftlichem Wohlstand zu erreichen (Føllesdal, 2006). Schließlich wird auch noch die Throughput-Legitimität ergänzt, die auf die Rechenschaftspflicht, Wirksamkeit und Transparenz der politischen Entscheidungstragenden im Entscheidungsprozess abstellt (V. A. Schmidt, 2013; V. A. Schmidt & Wood, 2019; Steffek, 2019). Diese Legitimitätsdimension stellt mithin folgende Anforderung an den Entscheidungsprozess: “Inclusiveness and openness to consultation with the people” (V. A. Schmidt, 2013, S. 2, Hervorh. im Orig.).
Mit Blick auf den europäischen Integrationsprozess wurde vielfach über die mangelnde politische Legitimität der EU und ihrer politischen Entscheidungen diskutiert, wobei demokratische Defizite sowie das Fehlen einer europäischen Identität und einer gesamt-europäischen Öffentlichkeit als Gründe für eine Legitimitätskrise der EU angeführt wurden (Føllesdal & Hix, 2006; Habermas, 2009).
Datengetriebene evidenzbasierte Politikgestaltung als Antwort auf mangelnde Legitimität der EU
Vor dem Hintergrund dieser Legitimitätskrise der EU gibt es Bestrebungen innerhalb der EU-Institutionen, dem wahrgenommenen Legitimitätsdefizit durch das sogenannte ‚Evidence-based Policy-Making‘ zu begegnen, was sich mit evidenzbasierter Politikgestaltung übersetzen lässt. “Against the backdrop of multiple crises, policymakers seem ever more inclined to legitimize specific ways of action by referring to ‘hard’ scientific evidence suggesting that a particular initiative will eventually yield the desired outcomes” (Rieder & Simon, 2016, S. 1). Politische Entscheidungen und Programme werden hierbei also auf Grundlage wissenschaftlicher Erkenntnis begründet. Dies geht einher mit der in dieser Arbeit diskutierten Durchdringung der Gesellschaft mit digitaler Computertechnologie, bei der Unmengen von digitalen Daten erzeugt und gespeichert werden. Zur Erinnerung: Diesen als Big Data bezeichneten digitalen Daten werden große Potentiale für einen Erkenntnisgewinn zugeschrieben, der eben auch jenem in dieser Arbeit thematisierten Glauben an Big Data zugrunde liegt und der auch mit Blick auf die evidenzbasierte Politikgestaltung zum Tragen kommt. Es liegt daher nahe, diese Big Data auch aus Sicht der EU als ein wichtiges Gut im Rahmen evidenzbasierter Politikgestaltung zu begreifen, die nunmehr datenbasiert getroffen werden können (Esty & Rushing, 2007; Giest, 2017; Poel et al., 2018). So hat bspw. die Europäische Kommission die Initiative Data4Policy mit folgender Überzeugung ins Leben gerufen: “Data technologies are amongst the valuable tools that policymakers have at hand for informing the policy process, from identifying issues, to designing their intervention and monitoring results” (Europäische Kommission, 2017a, § 1).
Zusammen mit dem gerade aufkommenden öffentlichen Interesse und den großen Erwartungen an Anwendungen von KI geraten auch diese aktuellen Vorstöße zu datengetriebener evidenzbasierter Politikgestaltung und der diesbezüglichen Verwertung der großen digitalen Datenbestände in den Fokus der politischen Entscheidungstragenden. Rieder und Simon (2016) sehen die skizzierten Entwicklungen und das Vertrauen auf Grundlage datenbasierter Verfahren – der bei ihnen sogenannte ‚Datatrust‘ – bei der Politikgestaltung insbesondere auch im Lichte der Legitimitätskrise der EU. So kommen van Veenstra und Kotterink (2017) zu dem Ergebnis: “Data-driven policy making is not only expected to result in better policies, but also aims to create legitimacy” (S. 101).
Erwartungen und Herausforderungen mit Bezug auf Anwendungen von Automated Decision-Making im Rahmen der datengetriebenen evidenzbasierten Politikgestaltung
Dabei werden automatisierte Anwendungen der Entscheidungsfindung auf Grundlage fortlaufender computerisierter Datenauswertung u. a. dafür eingesetzt, öffentliche Dienstleistungen zu erbringen, den Verkehrsfluss zu optimieren oder Sozialbetrug aufzudecken (AlgorithmWatch, 2019; Bansak et al., 2018; Poel et al., 2018). Mithin können Anwendungen des ADM potenziell zu einer Erhöhung der Legitimität in allen drei Dimensionen beitragen: Auf Seiten des Inputs, indem sie neue Formen demokratischer Beteiligung ermöglichen und neue Datenquellen und Eingabeformate erschließen, die zuvor keinen Eingang in den Entscheidungsprozess fanden. Bezüglich des Throughputs, indem sie den politischen Prozess standardisieren und so weniger anfällig für bestimmte menschliche Fehler machen, wobei auch auf eine verbesserte Transparenz automatisierter Prozesse hingewirkt wird (Fine Licht & Fine Licht, 2020). Letztlich mit Blick auf den Output, indem sie die Qualität politischer Programme und Entscheidungen sowie deren Ergebnisse verbessern sollen (B. W. Wirtz et al., 2018).
Gleichzeitig finden sich in der Literatur jedoch auch immer wieder Beispiele, die auf die Nachteile von automatisierten Systemen hindeuten, bei denen KI-Anwendungen zum Einsatz kommen (Richardson, Schultz & Southerland, 2019). Situationen, in denen Bürger*innen durch ADM fälschlicherweise des Betrugs beschuldigt werden, sie irrtümlich von Nahrungsmittelhilfeprogrammen ausgeschlossen oder ihre Sozialleistungen gekürzt werden, führen nicht nur zu folgenschweren Nachteilen bei den Betroffenen und verfehlen somit das Ziel, qualitativ hochwertige Ergebnisse zu produzieren. Sie führen zudem auch nicht zu effizienterer Entscheidungsfindung, wenn diese Fehlentscheidungen zu Klagewellen durch die Betroffenen führen. Letztlich sind hierdurch jedoch auch und insbesondere negative Effekte auf die wahrgenommene Legitimität der ADM-Anwendungen zu erwarten. Es bestehen allgemein im Hinblick auf die drei Dimensionen der Legitimität bei den Bürger*innen wichtige Herausforderungen, die jene ADM-Anwendungen mit sich bringen: Auf Seiten des Inputs haben die Betroffenen möglicherweise mangelnden Einblick und Einfluss auf die Kriterien oder Datenbanken, die Algorithmen zur Entscheidungsfindung nutzen. In Hinsicht auf den Throughput sind sie möglicherweise nicht in der Lage, die komplexe und oft undurchschaubare Logik zu verstehen, die den algorithmischen Vorhersagen, Empfehlungen oder Entscheidungen zugrunde liegt. So haben die Betroffenen in Bezug auf den Output möglicherweise grundlegende Zweifel, ob ADM-Anwendungen tatsächlich zu einer effizienteren Politik beitragen.
Es ist folglich fraglich, ob und inwieweit ADM-Anwendungen im Rahmen der datengetriebenen evidenzbasierten Politikgestaltung als positiv oder negativ wahrgenommen werden und ob sie die erhoffte Steigerung politischer Legitimität der EU herbeiführen können. Wie üblich hängen hierbei Erfolg und Misserfolg des weitläufigen Einsatzes von ADM-Anwendungen auch von der öffentlichen Bewertung und Akzeptanz ab (Bauer, 1995b). Eine aktuelle Befragung von Rubio und Lastra (2019) liefert diesbezüglich folgendes Indiz: Rund ein Viertel aller Europäer sei derzeit eher oder voll und ganz dafür, KI wichtige Entscheidungen über die Geschicke des eigenen Landes anzuvertrauen. Das primäre Erkenntnisinteresse der vorliegenden Studie war es nun, zu untersuchen, inwieweit ADM auf Ebene der EU zu einer erhöhten Wahrnehmung politischer Input-, Throughput- und Output- Legitimität führt.
Der Einfluss des BDGS auf die Wahrnehmung der Legitimität von ADM für Politikentscheidungen auf Ebene der EU
Im Rahmen dieser Untersuchung, die auf unterschiedliche Verfahren bei der Erstellung und Verabschiedung des EU-Budgets als Anwendungsbeispiel abstellt, gerät auch ein möglicher Einfluss des BDGS in den Blick. KI-Anwendungen, die auf der Sammlung und Auswertung von digitalen Daten basieren und als Grundlage von Politikentscheidungen auf Ebene der EU dienen, verbinden die vermeintlichen Vorzüge digitaler Daten mit einer Ausschaltung menschlicher Einflüsse auf die Entscheidungsfindung, wie etwa politische oder soziale Zwänge und menschliche Fehlwahrnehmungen. Personen, die einen ausgeprägten Glauben an das Potential digitaler Daten haben, sollten diese herausgestellten Vorzüge entsprechend wahrnehmen und mit Hilfe von ADM getroffenen Entscheidungen auch eine höhere Legitimität zusprechen. Ein ausgeprägter Glaube an den Erkenntnis- und Nutzengewinn großer digitaler Datenbestände sollte demnach einen positiven Einfluss auf die wahrgenommene Legitimität mit Hilfe von ADM getroffener Entscheidungen haben. Es wird folgende Hypothese aufgestellt:
  • H2.1a : Je ausgeprägter das BDGS, desto höher die Wahrnehmung der Legitimität von ADM für Politikentscheidungen auf Ebene der EU.
Um die Hypothese zu beantworten, wurde im Rahmen der experimentellen Befragungsstudie auch die BDGS-Skala eingesetzt, deren Einfluss auf die jeweiligen Legitimitätsdimensionen eingesetzter ADM-Anwendungen nachfolgend geprüft und berichtet wird. Dabei muss zur Prüfung der Einschätzung der Legitimität auch ein Szenario mit dem Status quo aufgenommen und durch die Befragten bewertet werden. In diesem werden politische Entscheidungen, wie es aktuell der Fall ist, von EU-Politiker*innen getroffen. In einer experimentellen Logik kann hier auch von der Kontrollgruppe gesprochen werden.
Allerdings ist solch ein Anwendungsfall des ADM, in dem jegliche Entscheidungsfindung vollständig an eine KI-Anwendung ausgelagert wird, als Extremszenario zu sehen. Es ist unwahrscheinlich, dass demokratisch legitimierte politische Handlungsfreiheit direkt außer Kraft gesetzt und durch ein technisches System abgelöst wird. Vielmehr sollen Systeme der KI als unterstützende Anwendungen herangezogen werden, die eine Entscheidungsfindung befördern und vorbereiten. Es stellt sich mithin die Frage, inwieweit ADM akzeptiert wird, jedoch aus Sicht der Bürger*innen menschliche Aufsicht und Interventionsfähigkeit bewahrt bleiben sollten, also eine Form hybrider Entscheidungsfindung begrüßt wird. Auch in diesem Rahmen wird erwartet, dass Personen mit einem hohen Glauben an die Wirkmächtigkeit digitaler Daten einem solchen Anwendungsfall datenbasierter KI-Anwendungen eine höhere Legitimität zusprechen. Entsprechend wird folgende Hypothese aufgestellt:
  • H2.1b : Je ausgeprägter das BDGS, desto höher die Wahrnehmung der Legitimität von hybrider Entscheidungsfindung für Politikentscheidungen auf Ebene der EU.
Um diese Hypothese zu prüfen, wurde zusätzlich ein weiteres Szenario hybrider Entscheidungsfindung evaluiert, das eine Art Zwischenstufe zwischen dem Status quo und einer rein datenbasierten KI-Anwendung darstellte. Die Hypothesen und spezifizierten Zusammenhänge wurden mit Hilfe einer Befragung mit experimentellem Design geprüft, wofür für das in Abbildung  10.1 spezifizierte Modell geschätzt wurde.

10.3.2 Erhebung 2.2 – Die Bedrohungswahrnehmung von Künstlicher Intelligenz

Zwischen Ende September und Anfang Oktober 2019 wurde zusammen mit Kimon Kieslich und Prof. Dr. Frank Marcinkowski am Lehrstuhl KMW I eine weitere Befragungsstudie mit dem Kurztitel TAI ( Threat perceptions of AI) durchgeführt, in deren Rahmen Erhebung 2.2 KI-Bedrohung stattfand. Diese hatte eine Skalenkonstruktion für eine standardisierte funktions- und anwendungsorientierte Messung der Bedrohungswahrnehmung durch KI zum Ziel. Weitere Informationen finden sich bei Kieslich et al. (2021). Im Rahmen dieser Befragungsstudie kam erneut die BDGS-Skala zum Einsatz. Aufgrund des explorativen Charakters der Studie und der sich mehrfach bestätigten Struktur des BDGS und der Ausprägung seiner Dimensionen wurde keine Präregistrierung durchgeführt.
Im Vordergrund des Erkenntnisinteresses stand hier eine differenzierte Messung der Bedrohungswahrnehmung durch KI in Abhängigkeit von den Funktionen sowie den Einsatzgebieten der KI. Ausgangspunkt ist also die Analyse einer affektiven Komponente der Einstellung gegenüber datenverarbeitender KI (Maio et al., 2018). Geht es im Rahmen der Mensch-Maschine-Interaktion um Affekte, so wird häufig auf eine Bedrohungswahrnehmung und hierauf begründete Ängste Bezug genommen: So untersucht bspw. auch die Technikakzeptanzforschung Bedrohungspotentiale und durch sie ausgelöste Ängste nicht nur im Hinblick auf Großtechnologien wie Atomkraft, Nano- oder Biotechnologie, sondern insbesondere auch auf Computertechnik (Bauer, 1995a). 4 Mit Blick auf KI hat dabei unlängst die Arbeit von Liang und Lee (2017) die Ängste der US- Bürger*innen vor autonomen Robotern und KI untersucht. Sie kommen zu der Einschätzung, dass rund ein Viertel der Befragten in der repräsentativen Stichprobe aus dem Mai 2015 Angst vor KI äußert. Auch für Deutschland zeigen aktuelle Zahlen von Bitkom (2018b), dass neben überwiegender positiver Erwartungen an KI bei manchen Menschen in Deutschland auch etwaige Befürchtungen mit KI verbunden sind und ein Drittel der Befragten KI als Gefahr sieht.
Es zeigt sich, dass etliche Bürger*innen eine Bedrohung durch KI und autonome Roboter äußern, also affektive Reaktionen durchaus relevant für Einstellungsbildung gegenüber KI sein können. Es ist daher notwendig, die Konsequenzen des BDGS auch und insbesondere in Verbindung mit den affektiven Wahrnehmungskomponenten von datenbasierter KI zu beleuchten. Es ist anzunehmen, dass die Prädisposition des BDGS je nach Ausprägung zu einer unterschiedlichen Bedrohungswahrnehmung führen könnte. Personen mit ausgeprägtem Glauben an die Potentiale von digitaler Datensammlung und -auswertung mögen auch hierauf aufbauende Computertechnik als weniger bedrohlich empfinden. Zunächst gilt es jedoch genauer herauszuarbeiten, warum und in welchem Zusammenhang genau Computertechnik im Form von KI und autonomen Robotern als Bedrohung empfunden werden könnte.
Die Bedrohungswahrnehmung durch Computertechnik
Bauer (1995a) äußert im Rahmen der Forschung zu Computerphobie (die selbstverständlich weiter gefasst ist als bloße Angstgefühle) folgende Skepsis, die auch für die vorliegende Studie zur Skalenkonstruktion der Angstmessung zunächst in Betracht gezogen werden muss:
Most empirical research works with operational definitions of computer phobia [ sic] using self-report rating scales. (…) However, a test score is an insufficient criterion for real ‘cyberphobia’; it can at best efficiently reproduce a pre-existing expert judgement, which, as it seems, is more suggested by popular expectations, than by insisting on phenomenological evidence. (S. 102–105)
Bauer verweist darauf, dass die meisten Phobien eine Prävalenzrate von bis 8 % für ein Jahr und 13 % über den Lebenszeitraum haben (1995a). Angstgefühle sind ein Symptom von Phobien und eine Diagnose daher nicht so voraussetzungsvoll wie bei Letzterer. Dennoch sollte im Lichte mangelnder Validität der Messung von Angst durch Selbstauskunft eine Pathologisierung der Befragten und eine Sensationalisierung der Ergebnisse vermieden werden. Das bedeutet nicht, dass Bedrohung und Angstwahrnehmung nicht vorhanden sind, sondern ist als Auftrag zu verstehen, einen differenzierteren Messansatz zu verfolgen, der (a) auf weiterführende Vergleiche mit zusätzlichen Messansätzen und Datenpunkten (bspw. physiologischen Messungen) zurückgreift und (b) über die Selbstauskunft einer allgemein wahrgenommenen Bedrohung hinausgeht und die wahrgenommene Bedrohung zusätzlich in Bezug zum Bedrohungsobjekt und seiner angstauslösenden Eigenschaften setzt. Die vorliegende Untersuchung stellt dabei insbesondere auf letztere Anforderung an den Forschungszusammenhang des Bedrohungs- und Angstempfindens ab.
Generell ist die Messung von Angst durch Selbstauskunft zwar möglich, jedoch grob und nicht unproblematisch (Hersen, 1973; Kogan & Edelstein, 2004; Lanyon & Manosevitz, 1966; Scherer, 2005). Angst äußert sich insbesondere durch ein körperliches Erleben, welches physiologische Reaktionen beinhaltet, die wie angemerkt nur eingeschränkt durch Selbstauskunft erhoben werden können. Zudem sollte sorgfältig zwischen Bedrohungsobjekt und seinem Bedrohungspotential, wahrgenommener Bedrohung und hierdurch bedingter Angst unterschieden werden (Freeman & Freeman, 2012; Scherer, 2005). Nicht jede Bedrohungswahrnehmung löst auch zwingend Angst als emotionale Reaktion aus (Witte, 1992, 1994). Neben Fragen zur theoretischen Unterscheidung zwischen Bedrohung und Angst sowie der reliablen und validen Erhebung von empfundener Angst gibt es jedoch eine weitere mögliche Einschränkung der Reichweite der Befunde. Die durchaus hoch ausgeprägte Bedrohungswahrnehmung durch KI überrascht, hängt jedoch auch mit der vorliegenden Messung von Angst im Rahmen des Chapman Survey of American Fears zusammen (Liang & Lee, 2017). Das Erhebungsinstrument legt seinen Schwerpunkt nur teilweise auf eine allgemeine Bedrohungswahrnehmung durch KI-Systeme: Einer der vier Indikatoren der Messung zielte explizit auf Roboter ab, die menschliche Arbeitsplätze ersetzen, und ein zweiter Indikator stellte auf das Vertrauen von anderen Personen in die Arbeit von KI ab. 5 Gerade in diesem Bereich werden wiederholt mögliche Zukunftsszenarien diskutiert, bei denen es mittelfristig zum Verlust einer großen Anzahl an Arbeitsplätzen und generell Konsequenzen für die Zukunft der Arbeit kommt (Bonin et al., 2015; Dengler & Matthes, 2015; Ford, 2015; Frey & Osborne, 2017; Hirsch-Kreinsen, 2015). Diese weitreichenden Prognosen finden anschließend Eingang in die Medienberichterstattung sowie die politische Debatte und können Ängste auslösen (Brynjolfsson & McAfee, 2015; Grass & Weber, 2016; Pellegrino, 2015). So äußerten bereits 2016 9 % der Berufstätigen in Deutschland Sorgen um ihren Arbeitsplatz (INSM, 2016). Die Verbreitung von Robotern in unterschiedlichen Branchen, gepaart mit einer zunehmenden medialen Aufmerksamkeit, wirft hier zum einen Fragen nach einer möglichen Veränderung der allgemeinen öffentlichen Wahrnehmung von künstlicher Intelligenz und autonomen Robotern auf (Gnambs & Appel, 2018). Sie bedarf zum anderen jedoch weiterführender Ansätze, die eine differenziertere Analyse eben jener wahrgenommenen Bedrohungspotentiale ermöglicht und hierbei zwischen Anwendungen und Anwendungsgebieten unterscheidet. Diese Fragen drehen sich dann nicht immer um den Einfluss von Computertechnik auf menschliche Arbeit, sondern ganz allgemein um die Konsequenzen des Vordringens datenverarbeitender KI-Systeme auf Individuum und Gesellschaft in allen möglichen Lebensbereichen.
Die Bedrohungswahrnehmung ausgehend von unterschiedlichen Funktionen von KI
Es ist zu vermuten, dass es einen Unterschied macht, in welchem Rahmen und wofür KI eingesetzt wird. Dabei ist zum einen der Anwendungsbereich der KI gemeint, der im folgenden Abschnitt besprochen wird. Zum anderen ist es die Reichweite bzw. das Ausmaß, mit dem die Computertechnik in einer Situation eingesetzt wird und einen Einfluss auf das Bedrohungsempfinden nehmen kann. So unterscheidet das von Bitkom (2018a) herausgegebene Periodensystem der KI auf Basis der Vorarbeit von Hammond (2016) zwischen den Fähigkeiten Assess, Infer und Respond, welche grob übersetzt werden können in Beurteilen, Schlussfolgern und Reagieren. Diese Fähigkeiten von KI lassen sich im Rahmen verschiedener Funktionen nutzen (P. Hofmann et al., 2020). Mit Blick auf den tatsächlichen Anwendungsfall dürfen die Funktionen der KI allerdings nicht zu feinteilig unterschieden werden, da ein Grundverständnis, aber auch die Fähigkeit der Unterscheidung auf den Seiten des Laien möglich sein muss. Es ist fraglich, ob bspw. das Reagieren der KI-Systeme tatsächlich wie von P. Hofmann et al. (2020) vorgeschlagen von technisch unversierten Befragten wie folgt unterteilt werden kann:
  • “Decision-making, i. e., choosing between known, discrete alternatives
  • Generating, i. e., producing or creating something
  • Acting, i. e., executing goal-oriented actions (e.g., movement, navigate, control)” (P. Hofmann et al., 2020, S. 9).
Dem Produzieren und der Bewegung liegen ja bspw. mitunter bereits getroffene Entscheidungen durch KI-Systeme zugrunde. Mit Blick auf den vorliegenden Untersuchungszusammenhang der Bedrohungswahrnehmung von KI-Systemen wurde daher zunächst vereinfacht unterschieden in die Erkennung/Identifikation von Mustern in den Daten und hierauf aufbauenden Vorhersagen für die Zukunft. Weiterhin besteht die Möglichkeit, dass die KI auf Basis der Mustererkennung und Vorhersage direkt eine Entscheidungsempfehlung abgibt oder gar die Entscheidung im Rahmen des ADM direkt selbst trifft (Burton et al., 2019; Lepri et al., 2018; Packin, 2019). Es wird davon ausgegangen, dass die unterschiedliche Reichweite und Konsequenz der Funktionen und die Autonomie des jeweiligen KI-Systems zu einer unterschiedlich hoch ausgeprägten Bedrohungswahrnehmung führen. Mit Blick auf die gebotene Sparsamkeit der Modellierung und der Erwartung, dass insbesondere die weitreichenden und konsequenzbehafteten Ergebnisse des Einsatzes der KI zu einer stärker ausgeprägten Bedrohungswahrnehmung führen, beschränkt sich die nachfolgende Analyse auf Empfehlungen und Entscheidungen durch KI. Erste Ergebnisse aus den Pre-Tests indizierten, dass die erhobenen Indikatoren bei diesen beiden Funktionen bessere Verteilungswerte aufwiesen, während bei den weniger weitreichenden Funktionen geringere und einseitig ausgeprägte Verteilungswerte der jeweiligen Indikatoren zu beobachten waren – die Bedrohungseinschätzung war zu gering und fast alle Befragten waren dieser Ansicht, so dass sich schiefe Verteilungen mit Boden- und Deckeneffekten abbildeten (Ho & Yu, 2015). Im Folgenden werden daher nur die beiden Funktionen der Empfehlung und der autonomen Entscheidung (ADM) durch die KI in den Blick genommen, da hier die größte Bedrohungswahrnehmung sowie ausreichende Varianz zwischen den Befragten vermutet werden.
Die Bedrohungswahrnehmung ausgehend von unterschiedlichen Anwendungsbereichen von KI
In Hinsicht auf die Bedrohungswahrnehmung von KI und autonomen Robotern ist auch zwischen den Anwendungsbereichen zu unterscheiden, in denen KI-Systeme eingesetzt werden. Hier lässt sich an das eingangs erwähnte Arbeitsmarkt-Beispiel anknüpfen. So spielen KI-Systeme mit Bezug auf die Ökonomie und wirtschaftliche Entwicklungen in der öffentlichen Diskussion eine große Rolle. Brennen et al. (2018) finden in einer Medieninhaltsanalyse der Berichterstattung in Großbritannien, dass fast 60 % aller Berichte auf kommerzielle KI-Anwendungen aus der Industrie abstellen. Diese werden dabei nicht immer als nur positiv diskutiert. Zwar werden in vielen Wirtschaftsbereichen mittel- und langfristig Nutzengewinne erwartet (Brynjolfsson et al., 2017). Jedoch lassen sich wie bereits angedeutet in einigen Branchen negative Konsequenzen gerade für die Beschäftigten in Niedriglohnstufen erwarten (Furman & Seamans, 2019). Doch auch in anderen ökonomischen Zusammenhängen, beispielweise für Bürger*innen in ihrer Rolle als Kund*innen, zeigen sich mitunter bereits Problemlagen ab: Etwa wenn die KI-Systeme auf Datengrundlage individuell nachteilige Entscheidungen treffen, wie bei der Kreditvergabe oder Bewerbung um einen Studien- oder Arbeitsplatz (siehe auch Erhebung 2.4 KI und Hochschule in Abschnitt  10.3.4). Ganz gleich, ob diese Entscheidungen objektiv haltbar und ohne Bias sind oder nicht und ob die Betroffenen dies entsprechend bewerten oder überhaupt einschätzen können: Der zunehmende Einsatz von KI und autonomen Robotern in der Wirtschaft bringt vermeintlich großen individuellen und gesellschaftlichen Nutzen gepaart mit potentiell negativen Konsequenzen. Je nach Szenario und individueller Perspektive ist hier mitunter ein hohes Bedrohungspotential vorhanden, da auf weitreichende nachteilige Veränderungen in einem zentralen Lebensbereich abgestellt wird. So fällt dann auch möglicherweise die wahrgenommene Bedrohung durch KI innerhalb eines Anwendungsbereichs je nach konkreter Anwendung höher oder gar niedriger aus. Das Bedrohungspotential von KI-Systemen ist mithin kontextabhängig und unterscheidet sich mutmaßlich auch in der Bedrohungswahrnehmung im Vergleich mit Anwendungsbereichen, die ebenso existentiell für den Menschen sind wie bspw. die Medizin. Wie im Hinblick auf die individualisierte Krankenversicherung in Erhebung 2.3 Krankenversicherung noch thematisiert wird (siehe Abschnitt  10.3.3), verbinden sich mit dem Einsatz von KI-Systemen in der medizinischen Forschung und Gesundheitsversorgung ebenfalls durchaus große Hoffnungen. Gleichsam kommt es auch hier zu Problemen, etwa in Hinsicht auf das Vertrauen in therapeutische Entscheidungen im Arzt-Maschine-Patientenverhältnis (Topol, 2019).
Diese Diskussion neuer Problemlagen im Rahmen der Einführung von KI-Systemen in unterschiedlichen Lebensbereichen macht deutlich, dass eine Analyse des wahrgenommenen Bedrohungspotentials auf Seiten der Bürger*innen immer einen jeweils spezifischen Zuschnitt haben muss und folglich auch standardisierte Erhebungsinstrumente flexibel an das jeweilige Forschungsinteresse anpassbar sein müssen. Deshalb wurde die Skalenentwicklung auch vorangetrieben, um eine verbesserte standardisierte Messung der Bedrohungswahrnehmung zu produzieren, die auf möglichst viele Kontexte angewandt werden kann. Getestet wurde die Skalenentwicklung für die drei aktuellen und relevanten Anwendungsbereiche des KI-Einsatzes in Medizin, Personalwesen und im Bankensektor.
Der Einfluss der Prädisposition des BDGS auf die Bedrohungswahrnehmung durch KI
Im Rahmen dieser Arbeit wird das BDGS als eine prädispositive Kognition der Bürger*innen behandelt, deren Ausprägung einen Einfluss auf Einstellungen und Verhalten in allen Bereichen hat, in denen digitale Technologien wie bspw. die KI im Entstehungs- und Verwertungskontext von digitalen Daten Anwendung finden. So ist auch mit Blick auf die Untersuchung der Bedrohungswahrnehmung der Funktionen von KI und deren Einsatz in unterschiedlichen Anwendungsbereichen zu vermuten, dass das BDGS einen Einfluss auf die affektive Komponente von Einstellungen nimmt und mithin die Einschätzung der Bedrohung durch KI beeinflusst. Allerdings gibt es keine genauen Annahmen und Hinweise, die zu einer Hypothesenbildung führen, dass eine spezifische Dimension des BDGS (wie bspw. der erwartete individuelle Nutzen) sich stark auf die Bedrohungswahrnehmung auswirkt. Zumal auch hier mit Blick auf die Kontextunterscheidung Unterschiede zu erwarten wären. Konkrete Annahmen würden daher lediglich einer intuitiven Erwartung an einen möglichen Zusammenhang entspringen und wären nicht deduktiv aus der theoretischen Beschreibung etwaiger zugrunde liegender Mechanismen abgeleitet. Mithin wird für den untersuchten Einfluss des BDGS als Prädisposition auf Seiten der Befragten auf deren Bedrohungswahrnehmung der KI folgende Hypothese aufgestellt:
  • H2.2 : Je ausgeprägter das BDGS, desto geringer die Bedrohungswahrnehmung des Einsatzes von Künstlicher Intelligenz.
Um die Hypothese zu beantworten, wurde im Rahmen der Befragungsstudie der Skalenentwicklung auch die BDGS-Skala eingesetzt, deren Ergebnisse nachfolgend berichtet werden. Die aufgestellte Hypothese wurde mit Hilfe einer Befragung geprüft und hierfür das in Abbildung  10.2 dargestellte Modell geschätzt.

10.3.3 Erhebung 2.3 – Big Data im Krankenversicherungssystem

Wie Erhebung 2.1 EU und KI wurde auch Erhebung 2.3 Krankenversicherung im Rahmen eines Lehrforschungsprojekts im Bachelorstudiengang Sozialwissenschaften im Wintersemester 2018/19 an der HHU Düsseldorf durchgeführt. Dabei besteht Erhebung 2.3 Krankenversicherung aus zwei Teilerhebungen, die nachfolgend als Teilerhebungen 2.3a und 2.3b ausgewiesen werden. Weitere Informationen zu dieser derzeit noch nicht veröffentlichten Studie sind als Publikation in Vorbereitung (Lünich & Starke, 2020).
Individualdatenbasierte Krankenversicherungstarife
Das Erkenntnisinteresse betraf den Anwendungsbereich datenintensiver KI-Anwendungen im Gesundheitswesen. Mit der Sammlung und Auswertung von Big Data sind insbesondere im Gesundheitswesen große Hoffnungen verbunden (Aitken et al., 2018; Bitkom Research, 2019). Nicht nur, dass ganz allgemein die medizinische Forschung von weitreichender Datensammlung und deren Auswertung profitiert. Auch die personalisierte, auf das Individuum abgestimmte Medizin ist auf dem Vormarsch (Eberbach, 2017). Gleichzeitig weckt die Sammlung großer digitaler Datenbestände Begehrlichkeiten der Versicherungsbranche (Braun & Nürnberg, 2015). Es besteht die Erwartung, dass Versicherungstarife, die bislang nach dem Prinzip kollektiver Risikoübernahme funktionieren, noch feiner für die einzelnen Versicherten ausgesteuert oder gar Personen mit hohen Risiken gar nicht erst in einen Tarif aufgenommen werden. Während es in vielen Versicherungsklassen (wie z. B. in der Automobilversicherung) bereits weit fortgeschrittene Versicherungsmodelle gibt, bei denen laufend digitale Daten über die Versicherten erhoben werden (Arisov et al., 2019), experimentieren in Deutschland auch aufgrund strenger Datenschutzbestimmungen erst einige wenige Krankenkassen mit der Datensammlung, etwa mit verhaltensbasierten Versicherungstarifen zur Verhaltenssteuerung durch Bonussysteme (Braun & Nürnberg, 2015; Weichert, 2014). Versicherte werden für die Teilnahme an Programmen belohnt, bei denen sie sich verpflichten, der Krankenversicherung ihre Daten bereitzustellen oder zumindest sich selbst zu beobachten, bspw. durch die Nutzung eines Fitnessarmbands, das laufend Daten über Vitalparameter erhebt, oder durch die manuelle Eingabe dieser Daten in eine Smartphone-App.
Dies führt laut einer Stellungnahme des Deutschen Ethikrats (2017) zu der
Sorge, dass die Annahme einer allen gemeinsamen Vulnerabilität gegenüber Krankheitsrisiken, die nicht sicher zu antizipieren sind, als Grundlage der Solidargemeinschaft in der gesetzlichen Krankenversicherung und der fairen Vertragsgestaltung in der privaten Krankenversicherung infrage gestellt werden könnte. Dann könnten Niedrigrisikogruppen verstärkt die Solidargemeinschaft verlassen, wodurch für Letztere erhebliche Mehrbelastungen entstünden. (S. 34)
Die angesprochenen Niedrigrisikogruppen wären – so die Annahme – eher geneigt, auf die neuen individualisierten Krankenversicherungstarife umzusteigen, da sie hiervon überproportional profitieren würden. Der Gedanke folgt dabei einer einfachen Kosten-Nutzen-Kalkulation im Sinne der Rational-Choice-Logik (Diekmann & Voß, 2004a; Kunz, 2004), bei der „Akteure in Entscheidungssituationen unter Restriktionen versuchen, ihre Präferenzen möglichst gut zu realisieren“ (Diekmann & Voß, 2004b, S. 15). Personen, die einen Nutzen aus den neuen Versicherungstarifen ziehen, etwa indem sie Geld sparen, könnten eher geneigt sein, in individualisierte Krankenversicherungsangebote zu wechseln.
Herausforderungen für den Datenschutz durch die Sammlung persönlicher Daten
Gleichzeitig geht das Ausmaß der Datensammlung und -auswertung von personenbezogenen Daten (seien es nun Daten über Vitalparameter o. ä.) mit großen Herausforderungen an den Datenschutz einher (Weichert, 2014). Zwar geben laut einer Untersuchung des Branchenverbands Bitkom (2019) aus dem Frühjahr 2019 zwei Drittel der Smartphone-Nutzer*innen an, Gesundheits-Apps auf dem Handy zu nutzen. Dennoch zeigt sich mit Blick auf die Ergebnisse der gleichen Umfrage, dass bspw. für die Befürworter*innen der elektronischen Patientenakte Datenhoheit und -sicherheit zu den wichtigsten Anforderungen zählen oder dass 71 % der Befragten bei sogenannten E-Rezepten Risiken beim Datenschutz und Datensicherheit sehen. Der Einfluss solcher Privatheitsbedenken auf die Datenpreisgabe und Selbstoffenbarung von Privatpersonen gibt daher immer wieder Anlass für dezidierte Forschung (Acquisti et al., 2015; Barth & Jong, 2017; Baruh et al., 2017; Kokolakis, 2017). Auch hier spielen Kosten-Nutzen-Abwägungen eine Rolle, wobei mögliche oder bereits realisierte Nachteile bei Datensicherheit und Verletzungen der Privatsphäre sich auf der Kostenseite verbuchen lassen (Bol et al., 2018). Als vorrangiges Erkenntnisinteresse der Studie wurde daher der Einfluss des individuellen Profits und der Notwendigkeit der Preisgabe persönlicher Daten auf die Wechselbereitschaft in einen individualisierten datenbasierten Krankenversicherungstarif mittels eines Experimentaldesigns untersucht. Damit rückt in der vorliegenden Erhebung mit der Verhaltensintention der Wechselbereitschaft eine konative Komponente der Einstellung in den Fokus, deren Beeinflussung durch das BDGS fraglich ist.
Der Einfluss des BDGS auf die Wechselbereitschaft in einen individualisierten Krankenversicherungstarif
Mit Blick auf das BDGS ist zu prüfen, ob und inwieweit die individuelle Ausprägung der Dimensionen des BDGS einen Einfluss auf die Verhaltensintentionen seiner Merkmalsträger hat, der über situative Einflussfaktoren hinausgeht. Während also der realisierte Nutzen und die Notwendigkeit der Datenpreisgabe im Anwendungsbeispiel selbst variiert werden, wird das BDGS als verhältnismäßig stabiles Wahrnehmungsmuster behandelt, das eben unabhängig der zuvor genannten Faktoren einen Einfluss auf die Bereitschaft zu einem Wechsel in eine individualisierte Krankenversicherung hat. Es steht zu erwarten, dass Personen mit einem ausgeprägtem Glauben an die Potentiale von Big Data dem Ansatz eines auf Individualdaten basierenden Krankenversicherungstarifs offener gegenüberstehen und daher eher gewillt sind, in einen solchen Tarif zu wechseln. Es wird daher mit Blick auf die Dimensionen des BDGS folgende Hypothese formuliert:
  • H2.3: Je ausgeprägter das BDGS, desto höher ist die Wechselbereitschaft.
Die Ausprägungen der BDGS-Dimensionen sind hierbei explizit nicht als Moderationsvariablen zu betrachten und werden dementsprechend als eigenständige exogene Variablen modelliert. Es wird davon ausgegangen, dass die Dimensionen des BDGS einen jeweils eigenständigen Einfluss zeitigen. Die aufgestellten Hypothesen werden nachfolgend mittels einer Befragung mit experimentellem Design geprüft und hierfür wird das in Abbildung  10.3 dargestellte Modell geschätzt.

10.3.4 Erhebung 2.4 – Big Data und KI im Hochschulbereich

Im Juni 2019 wurde im Rahmen eines MA-Seminars mit dem Titel ‚Sozialwissenschaftliche Aspekte Künstlicher Intelligenz‘ unter der Leitung von Prof. Dr. Marcinkowski eine Befragungsstudie unter Studierenden der HHU Düsseldorf zur Wahrnehmung des Einsatzes von KI-Anwendungen an der Hochschule durchgeführt. Ziel der Studie war es, zum einen herauszufinden, in welchen Bereichen der Universität (bspw. Lehre oder Verwaltung) der Einsatz von KI-Anwendungen befürwortet oder abgelehnt wird und welche der befürworteten Anwendungen als besonders nützlich erachtet werden. In dieser Studie, die im Befragungslabor des Lehrstuhls KMW I durchgeführt wurde, wurde u. a. auch die BDGS-Skala erhoben. Weitere Informationen zur Studie finden sich in Kieslich et al. (2019) sowie Marcinkowski et al. (2020).
Das Hauptaugenmerk der Studie, in deren Rahmen Erhebung 2.4 KI und Hochschule durchgeführt wurde, bestand dann erneut in der Wahrnehmung von datenbasierten KI-Anwendungen und nimmt nach dem Einfluss des BDGS im medizinischen Kontext und der Politik die Akzeptanz von KI-Anwendungen in einem weiteren zentralen und für viele, gerade jüngere Menschen lebensweisenden Bereich in Augenschein: der höheren Bildung im tertiären Bildungsbereich an den deutschen Hochschulen. Es geht wiederum um die Bewertung des Einflusses von KI-Anwendungen, wobei dieses Mal keine direkt individual-ökonomischen oder gesellschaftspolitischen Konsequenzen die Bewertung beeinflussen. Die Konsequenz ist in der vorliegenden Studie breiter gelagert und betrifft die individuelle (Entscheidungs-)Freiheit. Es geht genauer um die KI-basierte Vergabe von Studienplätzen.
Die Einführung von KI-Anwendungen an der Hochschule am Beispiel des Studienzulassungsverfahrens
Im Zuge des Aufkommens von KI-Systemen geraten gerade auch solche Anwendungen in den Blick, die im Bildungssektor erfolgversprechend eingesetzt werden können (Attaran et al., 2018; Daniel, 2015; Eynon, 2013). Die vorliegende Studie sollte ganz allgemein ergründen, inwieweit in der Studierendenschaft Akzeptanz für KI-basierte Zulassungsverfahren für Studiengänge besteht und welche Reaktionen mit der Einführung eines solchen Systems verbunden sind.
Aufgrund limitierter Ressourcen und großem Andrang der Bewerber*innen auf eine unzureichende Anzahl an Studienplätzen in einigen Fächern sind hierzulande seit jeher viele Studiengänge zulassungsbeschränkt und es muss in Bereichen wie etwa der Medizin oder Psychologie ein Studienzulassungsverfahren durchlaufen werden. Je nach Fach ist dieses Zulassungsverfahren bundesweit geregelt oder wird direkt von der jeweiligen Hochschule selbst festgelegt. Aktuell gibt es hierbei vorher festgelegte Kriterien (bspw. die Abiturnote im Rahmen des Numerus Clausus), die je nach Zulassungsverfahren um eignungsdiagnostische Elemente ergänzt werden können, die unterschiedliche ‚harte‘ und ‚weiche‘ Kriterien (bspw. Wissenstests sowie Motivationsschreiben oder unstrukturierte Interviews) umfassen (Klusmann et al., 2011; Stemmler, 2005). 6 Dabei sind die entsprechenden Verfahren zeit- und ressourcenintensiv und gehen häufig zu Lasten des Forschungs- und Hochschulverwaltungspersonals. Denn die Einschätzung der Studieneignung wird bei letzterem Verfahren in der Gesamtschau vom Menschen abgegeben, der Bewerbungen überblicken und bewerten muss. Eine Automatisierung der Eignungseinschätzungen könnte dabei nicht nur aus Gründen des Bearbeitungsaufwandes von Vorteil sein. Denn die Eignung für ein Studium, die auf einer persönlicher Einschätzung der Bewerber*innen basiert, ist anfällig für Vorwürfe mangelnder Objektivität und kognitiver Verzerrungen im Rahmen der Bewertung (Dawes, 1971). Es wird mithin die Validität und Vorhersagekraft dieser Verfahren bemängelt und kontrovers diskutiert (Hell et al., 2007). 7
Gleichzeitig gibt es jedoch auch Hinweise darauf, dass die Durchführung von Interviews neben Studierfähigkeitstests von Seite der Studieninteressierten durchaus positiv bewertet wird (Hell & Schuler, 2005). Kritisiert wird hier von Studierenden der mangelnde Informationsgehalt von Schulnoten und Leistungstests, welcher hingegen persönlichen Interviews zugeschrieben wird. Gleichzeitig haben Letztere jedoch eine negative affektive Wirkung, da Bewerbungsgespräche als „vergleichsweise wenig beruhigend und überdurchschnittlich unangenehm sowie als wenig durchschaubar eingeschätzt werden“ (Hell & Schuler, 2005, S. 370). Im Endeffekt bedeutet der derzeitige Zulassungsprozess viel Aufwand und Unsicherheit für die beteiligten Parteien, bei fraglichen Ergebnissen. Mithin wird hier oft diskutiert und erprobt Datenanalysesoftware einzusetzen (Maltz et al., 2007; Walczak & Sincich, 1999).
Dabei sollen neuerdings Machine-Learning-Anwendungen auf einer breitgefächerten Datengrundlage die vielversprechendsten Studienbewerber*innen identifizieren. Insgesamt, so die Hoffnung, soll dieser Computereinsatz den Zulassungsprozess effektiver und nicht zuletzt fairer gestalten. Es wird davon ausgegangen, dass für die Akzeptanz solcher Verfahren durch die betroffenen Studienbewerber*innen insbesondere die wahrgenommene Fairness ausschlaggebend ist (Marcinkowski & Starke, 2019), die daher mit Blick auf die Fairnessperzeptionen der Studiereden auch im Fokus der vorliegenden Untersuchung stand (Marcinkowski et al., 2020). Neben allgemeinen Fairnessperzeptionen gegenüber dem Verfahren stellt dabei auch das Vertrauen in die Richtigkeit der Entscheidung eine Grundvoraussetzung für die positive Evaluation eines solchen Zulassungssystems dar. Hier ist davon auszugehen, dass die Voreinstellungen gegenüber technologischen Innovationen einen Einfluss auf die Erwartungshaltung haben, die technische Anwendung könne die gemachten Versprechen auch tatsächlich einlösen. In der Argumentationslinie dieser Arbeit bedeutet dies, dass bezüglich der datenbasierten KI-Anwendungen, die im Rahmen der Studienzulassung an der Hochschule zum Einsatz kommen können, die Bewertung dieses Einsatzes womöglich auch durch die generelle Wahrnehmung und Erwartungen an das Potential der Sammlung und Auswertung digitaler Daten beeinflusst ist.
Vertrauen in die Richtigkeit der Entscheidung
Wenn sich die Richtigkeit der getroffenen Auswahlentscheidung nicht direkt prüfen lässt und eine Bewertung des Verfahrens mit Unsicherheit und gar dem Risiko behaftet ist, fälschlich nicht angenommen zu werden, bedarf es nach Mayer et al. (1995) Vertrauen in die Richtigkeit der von der Hochschule getroffenen Entscheidungen: “The definition of trust (…) is the willingness of a party to be vulnerable to the actions of another party based on the expectation that the other will perform a particular action important to the trustor, irrespective of the ability to monitor or control that other party” (S. 712). Werden Studierende mit einem KI-basierten Eignungsfeststellungsverfahren konfrontiert, dessen Entscheidung sie unterworfen sind und dessen konkreten Auswertungsprozess sie nicht unmittelbar einsehen und hinterfragen können, wird erwartet, dass diejenigen Personen mit ausgeprägtem Glauben an digitale Daten im Sinne dieser Arbeit auch ein höheres Vertrauen in die Richtigkeit der Entscheidung einer KI über Annahme oder Ablehnung für einen Studienplatz zeigen. Daher wird folgende Hypothese formuliert: 8
  • H2.4a: Je ausgeprägter das BDGS, desto höher das Vertrauen in die Richtigkeit der KI-basierten Auswahlentscheidung.
Erwartungen an die Genauigkeit digitaler Daten sind dabei eine zentrale Überzeugung innerhalb des BDGS. Sie äußern sich in einem Glauben an die Objektivität und Exaktheit der Daten. Es muss daher davon ausgegangen werden, dass es eben diese Überzeugung von der Genauigkeit digitaler Daten ist, die in besonderem Maße zur angenommenen Richtigkeit der zu treffenden Auswahlentscheidung führt. Der erwartete Erklärungsbeitrag dieser Überzeugung könnte sich daher von den anderen Dimensionen des BDGS unterscheiden. Es wird daher folgende Frage aufgeworfen:
  • FF2.4: Unterscheidet sich der Einfluss der Überzeugungen von der Genauigkeit der Daten auf das Vertrauen in die Richtigkeit der Zulassungsentscheidung von denen anderen Dimensionen des BDGS?
Ausgehend vom Vertrauen in die Richtigkeit der getroffenen Zulassungsentscheidung interessiert nun aus Sicht der Hochschulen, die gedenken, ein KI-basiertes Zulassungsverfahren einzuführen, dessen Konsequenzen. Dabei rücken zwei Variablen in den Blick: die Reputation der Hochschule und die Reaktionen der Studierenden.
Die Reputation der Hochschule
Die Reputation der Hochschule in der Öffentlichkeit und insbesondere bei Studienbewerber*innen ist ein wichtiges Gut im Wettbewerb der Universitäten um den akademischen Nachwuchs. Ein guter Ruf lockt geeignete Kandidat*innen (Bowman & Bastedo, 2009; Comm & LaBay, 1997; Theus, 1993). Mit hohen Bewerbungszahlen gehen die Möglichkeit der Selektivität der besten Köpfe und die universitätsinterne Daseinsrechtfertigung von Studiengängen einher. Von der Ausschöpfung der Lehrkapazitäten hängen zugewiesene Stellenprozente und Mittelzuwendungen ab. Ein gutes Image bei den Bewerber*innen ist mithin ein gewichtiger Kredit, den die Universitäten und ihre Fakultäten nicht verspielen und möglichst erhöhen wollen (Habicht, 2009; Probst, 2008).
Ein Vertrauen in die Richtigkeit der Entscheidung sollte dahingehend die Bewertung der Reputation der Hochschule besser ausfallen lassen bzw. sollte eine geringe Vertrauensneigung dazu führen, dass die Reputation der Hochschule sinkt. Nach Hosmer (1995) ist Reputation insbesondere die Konsequenz vertrauenswürdigen Verhaltens. Zusammen mit dem BDGS wird hier ein Einfluss auf die Reputation vermutet, wenn etwa Studierende, die einen ausgeprägten Glauben an die digitalen Daten haben, auch die Einführung datenbasierter Anwendungen zur Studienplatzvergabe gutheißen. Die Hochschule sollte bei diesen Studierenden durch die Einführung dieser innovativen KI-Anwendung an Reputation gewinnen. Daher wird die folgende Hypothese aufgestellt:
  • H2.4b: Je ausgeprägter das BDGS, desto höher die Reputation der Hochschule, die eine KI-basierte Auswahlentscheidung einführt.
Protestneigung der Studierenden gegen die KI-basierte Auswahlentscheidung
Auch die Reaktion der Studierenden ist für die Hochschulen von Interesse. Evoziert der Einsatz automatisierter Auswahlentscheidungen Kritik und Einwände in der Studierendenschaft? In diesem Zusammenhang sollte sich dabei ebenso ein Einfluss des BDGS feststellen lassen. Da Studierende mit ausgeprägtem Glauben an die digitalen Daten, auch die vermeintlichen Vorteile datenbasierter KI-Anwendungen zur Studienplatzvergabe wahrnehmen, sollten sie eine geringere Protestneigung zeigen. In diesem Zusammenhang wird auch der Einfluss des Vertrauens von Personen auf ihr Protestverhalten untersucht (Camaj, 2014; Moy et al., 2005; Moy & Pfau, 2000). Dabei zeigt sich, dass sich hohes Vertrauen negativ auf die Protestneigung auswirkt (Moy et al., 2005; Nilson & Nilson, 1980). Unter der Annahme, dass abhängig von der Ausprägung des BDGS und des Vertrauens in die Richtigkeit der Entscheidung Akzeptanz des KI-basierten Auswahlverfahrens besteht, ist letztlich zu erwarten, dass dies eine geringere Absicht des Protests gegen den Einsatz des KI-basierten Auswahlverfahrens durch die Hochschule nach sich zieht. Es wird mithin folgende Hypothese aufgestellt:
  • H2.4c: Je ausgeprägter das BDGS, desto geringer die Protestneigung gegen eine KI-basierte Auswahlentscheidung.
Es ist darüber hinaus fraglich, inwieweit die Reputation der Hochschule und die Neigung zum Protest gegen die Auswahlentscheidung zusammenhängen. Es kann durchaus erwartet werden, dass es hier einen möglichen Zusammenhang gibt, allerdings ist dessen Richtung fraglich und wird im Rahmen des vorliegenden Forschungsinteresses nicht näher untersucht.
Die zu testenden Zusammenhänge finden sich in einem in Abbildung  10.4 dargestellten und nachfolgend spezifizierten und geschätzten Modell, welches mit Hilfe einer Befragungsstudie geprüft wurde.

10.4 Präregistrierung

Mit Blick auf die durchgeführten Studien wurden im Rahmen des Dissertationsprojekts erste Erfahrungen mit der Präregistrierung von empirischer Forschung gesammelt. Im Zuge der sogenannten Replikationskrise in den Sozialwissenschaften etabliert sich nach und nach die Präregistrierung von empirischen Studien (Dienlin et al., 2020; Humphreys et al., 2013; Simmons et al., 2011). Da viele Zusammenhänge bei der Wiederholung von Studien nicht erneut beobachtbar sind (Ioannidis, 2005), soll die Präregistrierung sicherstellen, dass das empirische Vorgehen, die Hypothesen sowie die Datenauswertung, die die Hypothesen prüft, im Voraus festgelegt werden. Dieses Vorgehen soll verhindern, dass Datensätze, Variablen und Konstrukte beliebig angepasst werden, bis sich erwartete, insbesondere positive Ergebnisse zeigen (Fanelli, 2010; Wagenmakers et al., 2012).
Die jeweilige Untersuchungsanlage der Studien, in deren Rahmen Erhebung 2.1 EU und KI sowie die Erhebung 2.3 Krankenversicherung (hier Teilerhebung 2.3b) durchgeführt wurden, wurde vor der Datenerhebung einzeln präregistriert. Dabei wurden das Studiendesign samt Hypothesen, die erhobenen Variablen sowie das Vorgehen bei der Datenauswertung festgelegt. Nähere Informationen hierzu finden sich in den jeweils untenstehenden Quellenverweisen für die Studien.
Darüber hinaus wurde speziell für die vorliegende Arbeit eine gemeinsame zusätzliche Präregistrierung von Erhebung 2.1 EU und KI und Erhebung 2.3 Krankenversicherung auf der Plattform der Open Science Foundation (OSF) durchgeführt, wobei zunächst lediglich zwei Hypothesen mit Blick auf die Ausprägung des BDGS formuliert wurden, die im nachfolgenden Abschnitt besprochen werden. Die Präregistrierung wurde am 23. April 2019 durchgeführt. 9 Zu diesem Zeitpunkt waren die Daten von Erhebung 2.1 EU und KI zwar bereits erhoben, es wurde jedoch noch von niemandem auf den Datensatz zugegriffen. Es fand also noch keine Datenbereinigung oder sonstige Datenanalyse statt. Die Daten von Teilerhebung 2.3b Krankenversicherung waren zu diesem Zeitpunkt noch nicht erhoben.
Das Studiendesign samt Hypothesen für Erhebung 2.4 KI und Hochschule, die dort erhobenen Variablen und das Vorgehen bei der Datenauswertung wurden am 15. Juni 2019 bei OSF präregistriert. 10 Die Hypothesen bezüglich des BDGS wurde analog zu den Erhebungen 2.1 und 2.3 aufgestellt. Zudem wurde das finale Auswertungsmodell festgelegt, das nachfolgend beschrieben wird. Die Datenauswertung, die über die präregistrierten Hypothesen hinausgeht, ist nach strenger Auslegung als explorativ zu betrachten, folgt allerdings konsistent der Grundannahme der vorliegenden Arbeit, dass sich ein ausgeprägter Glaube positiv auf kognitive, affektive und konative Komponenten der Einstellungen auswirkt.

10.5 Feldphasen, Sample und Fragebogenaufbau

10.5.1 Erhebung 2.1 EU und KI

Die Befragung mit Experimentaldesign für Erhebung 2.1 EU und KI wurde als Online-Befragung konzipiert und Befragte wurden über das SoSci-Panel rekrutiert (D. J. Leiner, 2016). Die Feldphase der Untersuchung lief vom 8. April bis zum 22. April 2019. Es wurden insgesamt 2954 Einladungen an Personen aus dem SoSci-Panel versendet. Insgesamt wurde der Fragebogen 807-mal aufgerufen und 729 Personen begannen mit der Befragung. Davon füllten 612 Teilnehmer*innen den Fragebogen vollständig aus, was einer Beantwortungsrate von 20,7 % entspricht. Zur Qualitätskontrolle der Daten aus dem experimentellen Design wurde eine gründliche Datenbereinigung durchgeführt. Es wurden Befragte ausgeschlossen, die eine Aufmerksamkeitsprüfung nicht erfolgreich beantwortet haben, bei der ein eingebauter Attention Check nach dem Thema des Stimulus fragte ( n = 14). Zudem wurden Befragte von der Analyse ausgeschlossen, die sich zu schnell durch den Fragebogen geklickt haben. Hierfür wurde die von SoSci Survey bereitgestellte Variable DEG_Time herangezogen, die für alle Teilnehmer*innen automatisch im Datensatz gespeichert wurde. 11 Es werden für zu schnelles Beantworten der Fragen und Durchklicken der Fragebogenseiten hierbei Maluspunkte vergeben, die bei einem konservativ festgelegten Wert von 50 zum Ausschluss führen ( n = 26). Mit diesem Filterverfahren bestand die Stichprobe aus n = 572 Befragten.
Die BDGS-Skala fand sich auf Seite 5 von 22 Fragebogenseiten (siehe Fragebogen im Anhang 3.4 im elektronischen Zusatzmaterial). Direkt im Anschluss folgte eine Überleitung zum experimentalen Stimulus, der im Abschnitt 10.6.1 beschrieben wird. Die Befragten wurden randomisiert einer von drei Konditionen zugewiesen, in denen ein unterschiedlicher Budgetierungsprozess auf EU-Ebene dargestellt wurde. Anschließend gaben sie ihre Einschätzung zur Legitimität des Prozesses ab und beantworteten Fragen zum Stimulus im Rahmen einer Manipulationsprüfung.

10.5.2 Erhebung 2.2 KI-Bedrohung

Die Feldphase lief vom 30. September bis zum 14. Oktober 2019. Rekrutiert wurden die Befragten auch in dieser Studie über das SoSci-Panel (D. J. Leiner, 2016). Die Befragten aus dem Panel-Pool wurden von den SoSci-Administratoren zur Befragung eingeladen, wobei 4919 Einladungen erfolgreich versendet werden konnten. Es gab keine Incentivierung oder Vergütung für die Teilnahme an der Studie. Insgesamt wurde der Fragebogen 1046-mal aufgerufen und 1026 Personen begannen mit der Befragung. Davon füllten 917 Teilnehmer*innen den Fragebogen vollständig aus, was einer Beantwortungsrate von 18,6 % entspricht. Davon wurden n = 26 Fälle von der Auswertung ausgeschlossen, da sie auch hier entweder mehr als 50 Maluspunkte für extrem schnelles Ausfüllen des Fragebogens erhielten oder den Fragebogen in weniger als fünf Minuten beantworteten. Dieses Zeitkriterium wurde durch Prüfung im Rahmen des Pre-Tests des Fragebogens als Mindestwert festgesetzt, der erreicht werden musste, um von sinnhafter Beantwortung ausgehen zu können. Letztendlich gingen n = 891 Fälle in die Auswertung ein. Die Geschlechtsverteilung ist mit 50.0 % Frauen, 49.2 % Männer sowie 0.8 % Befragten, die sich der diversen Geschlechtskategorie zuordnen, im Gesamtsample und auch in den einzelnen Gruppen ausgeglichen. Das Durchschnittsalter betrug 46 Jahre ( SD = 15.66). Aufgrund der demografischen Struktur des Online-Access-Panels von SoSci haben 82 % der Befragten mindestens den Bildungsabschluss Abitur.
Die Befragten wurden per Zufall einer von drei Anwendungsbereichen von KI (Medizin, Personalwesen oder im Bankensektor) zugelost und bekamen dementsprechend angepasste Items zur Beantwortung vorgelegt (siehe Abschnitt  10.6.2, der Fragebogen findet sich in Anhang 3.5 im elektronischen Zusatzmaterial). Von den n = 891 Fällen fanden sich 301 Befragte in der Gruppe ‚Medizin‘, 294 in der Gruppe ‚Personalwesen‘ und 296 in der Gruppe ‚Bankensektor‘. Die Platzierung auf der sechsten Fragebogenseite und die Formulierungen BDGS-Skala waren in den drei Konditionen gleich, lediglich die zwölf Items der Skala wurden zufällig in der präsentierten Reihenfolge rotiert.

10.5.3 Erhebung 2.3 Krankenversicherung

Zu Beginn des Jahres 2019 erfolgte in Teilerhebung 2.3a Krankenversicherung eine Befragung im Labor, bei der Studierende der HHU unter Laborbedingungen an der Befragung mit Experimentaldesign teilnahmen. Im April begann dann für Teilerhebung 2.3b Krankenversicherung eine zweite Befragung mit Experimentaldesign, die als Online-Befragung konzipiert war und für die wie in Erhebung 2.1 EU und KI und Erhebung 2.3 Krankenversicherung Befragte über das SoSci-Panel rekrutiert wurden (D. J. Leiner, 2016).
Laboruntersuchung Teilerhebung 2.3a Krankenversicherung
Die Feldphase der Teilerhebung 2.3a Krankenversicherung lief vom 9. Januar bis zum 21. Januar 2019. Rekrutiert wurden die Befragten auf dem Campus der HHU durch direkte Ansprache und das Verteilen von Werbeflyern. Für die Teilnahme an der Studie erhielten alle Probanden nach Abschluss der Befragung fünf Euro. Die Teilnahme erfolgte im Labor, so dass zeitgleich bis zu vier Probanden an einem jeweils gleich aufgebauten Computerterminal teilnehmen konnten. Insgesamt nahmen n = 164 Personen erfolgreich an der Laborbefragung teil und es wurden keine Fälle aus dem Datensatz vor der Auswertung entfernt.
Online-Befragung Teilerhebung 2.3b Krankenversicherung
Die Feldphase der Teilerhebung 2.3b Krankenversicherung lief vom 24. April bis zum 24. Juni 2019. Rekrutiert wurden die Befragten über das SoSci-Panel (D. J. Leiner, 2016). Die Befragten aus dem Panel-Pool wurden von den SoSci-Administratoren zur Befragung eingeladen. Es gab keine Incentivierung oder Vergütung für die Teilnahme an der Studie. Insgesamt wurde der Fragebogen 928-mal aufgerufen. Es begannen 614 Personen mit der Beantwortung, wobei n = 455 Personen den Fragebogen vollständig beantworteten. Davon wurden n = 22 Fälle von der Auswertung ausgeschlossen, da sie mehr als 50 Maluspunkte für extrem schnelles Ausfüllen des Fragebogens erhielten. Letztendlich gingen n = 433 Fälle in die Auswertung ein.
Der Fragebogen war in beiden Teilerhebungen nahezu identisch aufgebaut (siehe Fragebogen im Anhang 3.6 im elektronischen Zusatzmaterial). Da in Teilerhebung 2.3a Krankenversicherung die Darstellung auf den PCs im Labor feinjustiert werden konnte, wurden die Skalen in Teilerhebung 2.3b Krankenversicherung anders auf die Seiten verteilt, um mögliche Darstellungsprobleme auf den eventuell kleineren Bildschirmen von Privatgeräten der Befragten zu vermeiden. Es wurde in der Panelbefragung explizit dazu aufgefordert, den Fragebogen nicht an einem Smartphone oder einem Tablet auszufüllen, da dort Darstellungsprobleme mit Blick auf die dynamischen Elemente erwartet wurden. Es wurde von der Fragebogensoftware registriert, mit welchem Gerät auf den Fragebogen zugegriffen wurde. Wurde als Gerät ein Smartphone oder ein Tablet erkannt, war eine Beantwortung in diesem Fall nicht möglich und die Probanden bekamen eine Aufforderung, den Link am Desktop-Computer zu öffnen. Die Reihenfolge der Skalen wurde beibehalten. Der Fragebogenaufbau war in beiden Studien annähernd gleich. Zu Beginn der Befragung wurde den Befragten ein Text vorgelegt, in dem zunächst ganz allgemein auf Entstehung und Verwertung digitaler Daten im Rahmen der Digitalisierung eingegangen wurde (der vollständige Text findet sich im Anhang 3.6 im elektronischen Zusatzmaterial).
Nach dieser Erklärung erfolgte eine Einführung in die Bedeutung dieser digitalen Datensammlung für die Krankenversicherung und die Möglichkeit einer hieraus entstehenden Individualisierung von Versicherungstarifen. Ziel war es, alle Befragten allgemein über die Möglichkeiten der Datenverwertung in der Krankenversicherung aufzuklären. Anschließend begann die eigentliche Befragung, wobei im Rahmen des experimentellen Designs zunächst auf ein vorgebliches Modellprojekt namens INDIVIDUA hingewiesen wurde. Für dieses Modellprojekt sollten die im Rahmen des ersten Teils der Befragung gemachten Angaben der Befragten zur Berechnung eines individualisierten Krankenkassenbeitrags ausgewertet werden. Es folgten mithin zunächst Fragen zur Person bestehend aus soziodemografischen Angaben, Versicherungsstatus, Gesundheitsstatus, Gesundheitsverhalten (Sportaktivität, Alkohol- und Zigarettenkonsum) sowie Einstellungsfragen. In diesem Block fand sich u. a. auch die BDGS-Skala. Diese wurde in Erhebung 2.3a auf Seite 11 und in Erhebung 2.3b auf Seite 13 von 26 Fragebogenseiten gezeigt. Da sich vor der Beantwortung der BDGS-Skala nur Fragen zur Person der Befragten fanden, bezog sich lediglich eine Frage zur Häufigkeit der Computerspielnutzung auf die Nutzung digitaler Technik. Es sind daher keine besonderen Befragungseffekte auf die BDGS-Skala zu erwarten.
Anschließend wurde auf Basis dieser Angaben eine Berechnung des individualisierten Krankenversicherungstarifs der INDIVIDUA simuliert. Als Ergebnis dieser vermeintlichen Berechnung wurde dann, nach einer voreingestellten Zeit von zehn Sekunden, die vermeintlich für die Berechnung des Tarifs nötig war, die eigentliche Manipulation (unabhängige Variable) ausgespielt. Abschließend folgten Fragen zur Wechselbereitschaft (abhängige Variable, siehe Variablen in Abschnitt  10.6.3) und Fragen zur Bewertung des deutschen Krankenversicherungssystems, allgemeine Einstellungsfragen zur Gesundheitsversorgung sowie eine Manipulationsprüfung. Am Ende wurden die Befragten über den experimentellen Charakter der Befragung in einem ausführlichen De-Briefing aufgeklärt und wurde sich dankend von ihnen verabschiedet.

10.5.4 Erhebung 2.4 KI und Hochschule

Die Feldphase der Befragung lief vom 17. bis zum 28. Juni 2019. Die Rekrutierung der Befragten erfolgte durch Aushänge und direkte Ansprache von Studierenden auf dem Universitätscampus der HHU Düsseldorf durch Studierende aus dem Masterseminar. Ziel war es, Studierende aller Fachrichtungen zu erreichen. Die Teilnahme wurde mit fünf Euro pro Person vergütet. Insgesamt haben n = 305 Studierende an der Laborbefragung teilgenommen. Lediglich ein Fall musste von der Analyse ausgeschlossen werden, da die Bearbeitungszeit unrealistisch kurz war, so dass n = 304 Fälle in die Auswertung eingingen (Kieslich et al., 2019).
Die BDGS-Skala fand sich auf Seite 14 von 20 Fragebogenseiten (siehe Fragebogen im Anhang 3.7 im elektronischen Zusatzmaterial). Bevor die Befragten die Frageitems der BDGS-Skala beantworteten, wurden u. a. Fragen zum Einsatz von KI an der Hochschule gestellt, insbesondere die Bewertung solcher Anwendungen und die wahrgenommene Fairness der KI-gestützten Verfahrensweise, die im vorrangigen Erkenntnisinteresse der Studie standen. Es wurde hier darauf hingewiesen, dass KI Muster in den digitalen Daten erkennen, hieraus Schlüsse ziehen und Vorhersagen treffen, die im vorliegenden Fall wiederum eine unmittelbare Auswirkung für die Studierenden hätten. Es könnte mithin davon ausgegangen werden, dass diese Ordnung einen Ausstrahlungseffekt auf die Beantwortung der BDGS-Skala hatte, da die Befragung zuvor auf KI-Verfahren abstellte. Mit dem vorliegenden Untersuchungsdesign lässt sich diese experimentell zu klärende Frage zwar nicht prüfen. Sie ist aufgrund der angenommenen Stabilität der Kognitionen des BDGS jedoch an dieser Stelle zu vernachlässigen.

10.6 Operationalisierung der untersuchten Konstrukte

10.6.1 Erhebung 2.1 EU und KI

Unabhängige Variablen – die Manipulation des zu bewertenden Budgetierungsprozesses auf EU-Ebene
Als Stimulus erhielten die Befragten randomisiert einen von drei Texten, der den Budgetierungsprozess des EU-Haushalts beschrieb und in dem (a) in der Kondition der Kontrollgruppe nur Politiker*innen über den Haushalt berieten und diesen letztendlich verabschiedeten ( Human Decision-Making, HDM), (b) ein KI-System ohne das Zutun von Politiker*innen den Haushalt aufstellte und dieser unverändert verabschiedet wurde ( ADM) und (c) ein KI-System ohne das Zutun von Politiker*innen den Haushalt aufstellte, die EU- Politiker*innen diesen dann jedoch noch einmal verhandelten und anpassen konnten, mithin also ein hybrides Modell der Politikgestaltung. Dabei basierte der Text auf einer Original-Vorlage von der offiziellen Webseite der EU (Europäische Union, 2019). Der Einführungstext, der in allen drei Konditionen gleich lautete, las sich wie folgt:
Der Haushalt der Europäischen Union
Der jährliche EU-Haushalt beläuft sich auf 160 Mrd. € (Stand: 2018). Dies ist absolut gesehen eine große Summe, macht jedoch nur 1,02 % der jährlichen Wirtschaftsleistung der EU aus. Das Geld aus dem EU-Haushalt wird in Bereichen eingesetzt, in denen es sinnvoll ist, zum Nutzen Europas als Ganzes Ressourcen zu bündeln. Beispiele hierfür sind:
  • der Ausbau der Verkehrswege, Energienetze und Kommunikationsverbindungen zwischen den EU-Ländern,
  • der Schutz der Umwelt in ganz Europa,
  • die Erhöhung der weltweiten Wettbewerbsfähigkeit der europäischen Wirtschaft,
  • die Förderung grenzüberschreitender Zusammenschlüsse europäischer Wissenschaftler und Forscher.
Diesem Text folgte dann in jeder Kondition ein weiterer Textabschnitt, dessen unterschiedlicher Informationsgehalt die eigentliche Manipulation darstellte.
Kondition 1: Status quo – Human Decision-Making durch EU-Politiker*innen (HDM)
Für die Kondition des Status quo, in der die Politiker*innen alleine entschieden (Kondition HDM nachfolgend abgekürzt als kond HDM), wurde folgender Textbaustein angeschlossen:
Wer entscheidet über die Verwendung der Mittel?
Die Entscheidung über den Haushalt eines jeden Jahres erfolgt in zwei wesentlichen Schritten:
1.
In einem ersten Verfahren erarbeitet die Europäische Kommission einen Haushaltsentwurf und legt diesen den Regierungen der Mitgliedsländer – vertreten im Rat der EU – und dem demokratisch gewählten Europäischen Parlament vor.
 
2.
Im Anschluss wird der Haushaltsvorschlag der Kommission im Europäischen Rat und im Europäischen Parlament debattiert, verhandelt und ggf. angepasst. Sobald der Vorschlag von allen beteiligten Institutionen angenommen wurde, steht der Haushalt des nachfolgenden Jahres.
 
Kondition 2: Algorithmic Decision-Making durch KI-System (ADM)
Für die Kondition, in der ein KI-System alleine den Haushalt aufstellte (Kondition ADM nachfolgend abgekürzt als kond ADM), wurde folgender Textbaustein angeschlossen:
Wer entscheidet über die Verwendung der Mittel?
Die Entscheidung über den Haushalt eines jeden Jahres erfolgt in zwei wesentlichen Schritten:
1.
In einem ersten Verfahren führen Hochleistungscomputer des Europäischen Rechnungshofs alle auf EU-Ebene verfügbaren Daten zusammen. Beispiele hierfür sind verfügbare Struktur- und Verwaltungsdaten aus der EU und den einzelnen Mitgliedsländern, wirtschaftliche und soziale Prognosemodelle und weitere Daten aus Wirtschaft und Wissenschaft. Auf Grundlage der großen Datenbestände berechnet eine „Künstliche Intelligenz“ mit Hilfe von sogenannten Machine-Learning-Anwendungen innerhalb weniger Stunden den optimalen Verteilungsschlüssel der Ressourcen für die einzelnen Bereiche des EU-Haushalts.
 
2.
Im Anschluss wird das vom Rechnungshof geprüfte Modell dem Präsidenten der Europäischen Kommission sowie dem Kommissar für Finanzplanung und Haushalt zur Unterzeichnung vorgelegt. Somit steht der EU-Haushalt für das kommende Jahr fest.
 
Kondition 3: Hybride Entscheidungsfindung durch KI-Systeme und EU-Politiker*innen
Für die Kondition, in der die Politiker*innen den vom KI-System aufgestellten Haushaltsentwurf noch verhandelten und ggf. anpassen konnten (Kondition hybrider Entscheidungsfindung nachfolgend abgekürzt als kond Hybrid), wurde folgender Textbaustein angeschlossen:
Wer entscheidet über die Verwendung der Mittel?
Die Entscheidung über den Haushalt eines jeden Jahres erfolgt in zwei wesentlichen Schritten:
1.
In einem ersten Verfahren führen Hochleistungscomputer des Europäischen Rechnungshofs alle auf EU-Ebene verfügbaren Daten zusammen. Beispiele hierfür sind verfügbare Struktur- und Verwaltungsdaten aus der EU und den einzelnen Mitgliedsländern, wirtschaftliche und soziale Prognosemodelle und weitere Daten aus Wirtschaft und Wissenschaft. Auf Grundlage der großen Datenbestände berechnet eine „Künstliche Intelligenz“ mit Hilfe von sogenannten Machine-Learning-Anwendungen innerhalb weniger Stunden den optimalen Verteilungsschlüssel der Ressourcen für die einzelnen Bereiche des EU-Haushalts.
 
2.
Im Anschluss wird der Haushaltsvorschlag in der Europäischen Kommission, im Europäischen Rat und im Europäischen Parlament debattiert, verhandelt und ggf. angepasst. Sobald der Vorschlag von allen beteiligten Institutionen angenommen wurde, steht der Haushalt des nachfolgenden Jahres.
 
Als Abschluss fand sich in allen drei Konditionen auf der jeweiligen Stimulusseite ein Diagramm, das die Aufteilung des Budgets von 160 Milliarden Euro 2018 nach Haushaltsrubriken aufteilte (siehe Fragebogen im Anhang 3.4 im elektronischen Zusatzmaterial).
Durch die Randomisierung fanden sich letztendlich n = 182 Befragte in der Gruppe kond HDM, n = 204 Befragte in der Gruppe kond ADM sowie n = 186 Befragte in der Gruppe kond Hybrid.
Manipulationsprüfung
Alle Befragten beantworteten zwei Fragen, die als Manipulationsprüfung dienten, um zu prüfen, dass die manipulierten Unterschiede zwischen den Konditionen auch wahrgenommen wurden. Zum einen wurde die wahrgenommene Reichweite der technischen Automatisierung des Entscheidungsprozesses mittels der folgenden Frage bewertet: „Wie technisch automatisiert lief der Entscheidungsprozess ab?“ (Antwortoptionen auf der 5-stufigen Likert-Skala von 1 „überhaupt nicht technisch automatisiert“ zu 5 „sehr technisch automatisiert“). Die Ergebnisse zeigen einen signifikanten Unterschied zwischen den Konditionen ( F(2, 524) = 389.71, p < .001). Mit Hilfe eines Games-Howell Post-Hoc-Tests zeigte sich, dass die Befragten die unterschiedliche Reichweite der technischen Automatisierung wahrnahmen, kond HDM ( M = 2.11; SD = .97), kond ADM ( M = 4.52;  SD = .77) und kond Hybrid ( M = 4.16;  SD = .80).
Zum anderen wurde der Einfluss der menschlichen politischen Akteure im dargestellten Prozess erfragt: „Welche Rolle spielten Politiker oder politische Institutionen in dem Entscheidungsprozess?“ (Antwortoptionen auf der 5-stufigen Likert-Skala von 1 „überhaupt keine Rolle“ zu 5 „eine sehr große Rolle“). Erneut fanden sich signifikante Unterschiede zwischen den drei Konditionen ( F(2, 548) = 161.98,  p < .001). Mit Hilfe eines Games-Howell Post-Hoc-Tests zeigte sich, dass die Befragten die unterschiedliche Reichweite des menschlichen Einflusses der politischen Akteure und Institutionen wahrnahmen, kond HDM (M = 4.45;  SD = .88), kond ADM ( M = 2.63;  SD = .99) und kond Hybrid ( M = 3.41;  SD = 1.04).
Unabhängige Variablen – die Dimensionen des BDGS
Die BDGS-Skala ging wie üblich mit allen vier Dimensionen in den Fragebogen mit ein und diese wurden als unabhängige Variablen herangezogen. Am Aufbau und an der Aufmachung der Skala wurde im Vergleich zu den vorangegangenen Studien nichts geändert.
Abhängige Variablen – Die Input-, Throughput- und Output-Legitimität
Die drei Dimensionen der Input-, der Throughput- und der Output-Legitimität wurden als abhängige Variablen modelliert und wie folgt gemessen:
Die Input-Legitimität wurde auf Grundlage relevanter Vorarbeiten (Colquitt & Rodell, 2015; Lindgren & Persson, 2010; Persson et al., 2013) aus dem Englischen adaptiert. Die Probanden gaben Auskunft zu den folgenden drei Frageitems:
  • Menschen wie ich konnten den Entscheidungsprozess beeinflussen. (Item-ID IL1, Referenzindikator)
  • Menschen wie ich konnten im Entscheidungsprozess ihre Meinung äußern. (Item-ID IL2)
  • Alle BürgerInnen hatten die Möglichkeit am Entscheidungsprozess teilzunehmen. ( Item-ID IL3)
Diese Fragen wurden auf einer 5-stufigen Likert-Skala erhoben, bei der die Extrema mit „ stimme nicht zu“ (zugewiesener Wert 1) und „ stimme zu“ (zugewiesener Wert 5) beschriftet waren. Zudem gab es die Möglichkeit einer „weiß nicht“-Option. Die drei Items hatten eine hohe interne Konsistenz (α = .772; DEV = .542). Bis auf Item IL2 zeigen sich bei der Modellierung eines latenten Faktors, der auf die drei Indikatoren lädt, ausreichend hohe Faktorladungen (λ IL1 = .706, λ IL2 = .642, λ IL3 = .846). 12 Trotzdem wird Item IL2 mit in die Datenanalyse aufgenommen, da die Faktorladung zwar etwas gering ausfällt, der Indikator dennoch ausreichend Information bereitstellt.
Die Throughput-Legitimität wurde auf Grundlage von Werner und Marien (2018) aus dem Englischen adaptiert und angepasst. Die Probanden bewerteten die Eigenschaften des Entscheidungsprozesses wie folgt:
Der beschriebene Entscheidungsprozess war ...
  • fair. (Item ID TL1, Referenzindikator)
  • zufriedenstellend. (Item ID TL2)
  • angemessen. (Item ID TL3)
Diese Fragen wurden auf einer 5-stufigen Likert-Skala erhoben, bei der die Extrema mit „ stimme nicht zu“ (zugewiesener Wert 1) und „ stimme zu“ (zugewiesener Wert 5) beschriftet waren. Zudem gab es die Möglichkeit einer „weiß nicht“-Option. Die drei Items hatten eine hohe interne Konsistenz (α = .881; DEV = .715). Bei der Modellierung eines latenten Faktors, der auf die drei Indikatoren lädt, zeigten sich ausreichend hohe Faktorladungen (λ TL1 = .822, λ TL2 = .833, λ TL3 = .880). 13
Mit Blick auf die Output-Legitimität unterscheidet die Literatur zum einen, inwieweit die vorgegebenen Ziele von politischen Entscheidungen erreicht werden (Lindgren & Persson, 2010) und ob die Entscheidungen von den Bürger*innen auch begrüßt und für vorteilhaft befunden werden (Esaiasson et al., 2012; Werner & Marien, 2018), wobei ein Zusammenhang zwischen beiden Elementen bestehen kann, aber nicht bestehen muss. Daher wird bei der Messung von Output-Legitimität zwischen der bewerteten Zielerreichung und der Akzeptanz der Entscheidung unterschieden.
Für die Zielerreichung wurden die Probanden gefragt, inwieweit die getroffenen Entscheidungen in den jeweiligen Konditionen dazu geeignet waren, die im Stimulustext hervorgehobenen Ziele zu erreichen. Die Frage wurde wie folgt eingeleitet:
„Nun geht es um Ihre persönliche Einschätzung, ob der Entscheidungsprozess, den Sie gerade gelesen haben, dazu geeignet ist, die übergeordneten Ziele der EU zu erreichen. Inwiefern stimmen Sie den folgenden Aussagen zu?“
  • Der beschriebene Entscheidungsprozess führt zu …
  • einem Ausbau der Verkehrswege, Energienetze und Kommunikationsverbindungen zwischen den EU-Ländern. (Item ID ZE1)
  • einem verbesserten Schutz der Umwelt in ganz Europa. (Item ID ZE2)
  • einer Erhöhung der weltweiten Wettbewerbsfähigkeit der europäischen Wirtschaft. (Item ID ZE3)
  • einer Förderung grenzüberschreitender Zusammenschlüsse europäischer Wissenschaftler und Forscher. (Item ID ZE4)
Diese Fragen wurden auf einer 5-stufigen Likert-Skala erhoben, bei der die Extrema mit „stimme nicht zu“ (zugewiesener Wert 1) und „ stimme zu“ (zugewiesener Wert 5) beschriftet waren. Zudem gab es die Möglichkeit einer „weiß nicht“-Option. Die vier Indikatoren hatten zwar eine hohe interne Konsistenz (α = .834). Da die vier Items jedoch auch unabhängig voneinander erreicht werden können und streng genommen kein reflektives uni-dimensionales Konstrukt abbildeten, wurde für die Analyse der Variablen ein Mittelwert-Index gebildet.
Die Akzeptanz der Entscheidung wurde auf Grundlage von Werner und Marien (2018) aus dem Englischen adaptiert und erweitert. 14 Die Frage wurde wie folgt eingeleitet:
„Im Folgenden interessiert uns Ihre persönliche Meinung zum Ergebnis des Entscheidungsprozesses, über den Sie gerade gelesen haben. Inwiefern stimmen Sie den Aussagen zu?“
  • Ich akzeptiere die Entscheidung. (Item ID OL1)
  • Ich bin mit der Entscheidung einverstanden. (Item ID OL2, Referenzindikator) 15
  • Die Entscheidung stellt mich zufrieden. (Item ID OL3)
Diese Fragen wurden auf einer 5-stufigen Likert-Skala erhoben, bei der die Extrema mit „stimme nicht zu“ (zugewiesener Wert 1) und „ stimme zu“ (zugewiesener Wert 5) beschriftet waren. Zudem gab es die Möglichkeit einer „weiß nicht“-Option. Die drei Items hatten eine hohe interne Konsistenz (α = .875; DEV = .726). Bei der Modellierung eines latenten Faktors, der auf die drei Indikatoren lädt, zeigen sich ausreichend hohe Faktorladungen (λ OL1 = .678, λ OL2 = .993, λ OL3 = .856). 16
Prüfung der Messäquivalenz
Im vorliegenden Fall muss aufgrund der separaten Messung der Variablen in den drei Experimentalgruppen zunächst im Rahmen einer Mehrgruppen-Kausalanalyse (MGKA) die Messäquivalenz geprüft werden. Die MGKA erlaubt die „die simultane Schätzung eines Kausalmodells über mehrere Gruppen hinweg“ (Weiber & Mühlhaus, 2014, S. 287, Hervorh. im Orig.). Für die Dimensionen des BDGS wird dies nachfolgend in Abschnitt  10.7 geprüft. An dieser Stelle soll daher lediglich auf die Prüfung der Messäquivalenz der als latente Faktoren abgebildeten Legitimitäts-Dimensionen eingegangen werden (siehe Tabelle  2.D im Anhang im elektronischen Zusatzmaterial).
Hier zeigt die Prüfung der Messäquivalenz, dass die Voraussetzung der metrischen und skalaren Invarianz verletzt ist. Die Prüfung der Indikatoren offenbart, dass Item IL02 und OL1 nicht messinvariant sind. Daher wurden Identitätsrestriktionen für das Regressionsgewicht und die Regressionskonstante des Indikators freigegeben. Ein Chi-Quadrat-Differenztest zwischen dem unrestringierten Modell M1 und dem Modell mit partieller Messäquivalenz M4 zeigt, dass die Restriktionen nicht signifikant zu einer Verschlechterung der Anpassungsgüte führen (ΔΧ 2 = 21.715, Δdf = 16;  p = .153). Mithin besteht für die Messung der Input-Legitimität sowie der Output-Legitimität lediglich partielle Messinvarianz, was in den nachfolgend geprüften Modellen berücksichtigt wird.

10.6.2 Erhebung 2.2 KI-Bedrohung

Unabhängige Variablen – die Dimensionen des BDGS
Die BDGS-Skala wurde in unveränderter Form in den Fragebogen aufgenommen.
Abhängige Variablen – Operationalisierung des Konstruktes der Bedrohungswahrnehmung durch KI
Da die Messung der Bedrohungswahrnehmung durch KI zwar standardisiert durchgeführt werden sollte, allerdings an den jeweiligen Untersuchungskontext angepasst werden musste, wurde die Ausarbeitung teil-standardisiert und mit Platzhaltern gearbeitet (Kieslich et al., 2021).
Zunächst sollte wie auch bei der BDGS-Skala ein Grundverständnis für KI und deren Einsatzmöglichkeiten hergestellt werden. Daher bekamen die Befragten zunächst einen Einführungstext ins Thema in Form einer Vignette zu lesen. Die Vignette lautete wie folgt:
Derzeit wird in der Öffentlichkeit viel über ‚Künstliche Intelligenz‘ (KI) gesprochen. Gemeint sind hier Computeranwendungen, die automatisiert digitale Daten auswerten. Diese Auswertung großer Datenmengen stellt für eine KI einen Lernprozess dar, aus dem sie laufend neue Informationen verarbeitet und so im Zeitverlauf immer präzisere Muster erkennt. Auf Grundlage dieser Analyse können Sachverhalte festgestellt sowie zukünftige Entwicklungen prognostiziert werden. Resultierend kann eine KI dem Menschen Handlungsempfehlungen vorschlagen oder autonom Entscheidungen treffen und diese zum Teil auch direkt ausführen.
Da die Studie zur Skalenkonstruktion unterschiedliche Anwendungsgebiete von KI in den Blick nehmen sollte, wurde die Vignette nach der allgemeinen Erklärung von KI auf die drei Anwendungsbereiche (a) Krankheitserkennung und -Therapie (Medizin), (b) Recruiting im Personalwesen und (c) Kreditzuteilung im Bankensektor zugeschnitten. Der anschließende Text, der direkt unter dem ersten Textteil der Vignette zu finden war, las sich in den drei Bereichen wie folgt:
Medizin
Auch im medizinischen Bereich ist der Einsatz von KI auf dem Vormarsch. KI-basierte Anwendungen werden inzwischen zur automatisierten Erkennung von Krankheiten genutzt – so können KI-Systeme bspw. Erb- und Stoffwechselkrankheiten oder Krebs identifizieren. Die KI kann auf dieser Datengrundlage eigenständig Therapiemaßnahmen ausarbeiten.
Personalwesen
Im Personalwesen ist der Einsatz von KI auf dem Vormarsch. KI-basierte Anwendungen werden inzwischen zur automatisierten Erkennung der Eignung von Bewerber*innen auf einen Arbeitsplatz eingesetzt – so können KI-Systeme die Arbeitsleistung der Bewerber*innen vorhersagen. Die KI kann auf dieser Datengrundlage geeignete Stellenbewerber*innen von ungeeigneten Bewerber*innen unterscheiden.
Bankensektor
Im Bankensektor ist der Einsatz von KI auf dem Vormarsch. KI-basierte Anwendungen werden inzwischen zur automatisierten Erkennung der Kreditwürdigkeit von Antragsteller*innen genutzt – so können KI-Systeme bspw. die Ausfallwahrscheinlichkeit von Krediten vorhersagen. Die KI kann auf dieser Datengrundlage eigenständig Entscheidungen über Annahme oder Ablehnung von Kreditanträgen ausarbeiten.
Im direkten Anschluss zum Text der Vignette wurden die vier zuvor genannten Funktionen der KI unterschieden und es fanden sich für jede der Funktionen drei Frageitems als Indikatoren. In Tabelle  10.1 findet sich die Formulierung der Items samt den Platzhaltern für den jeweiligen Anwendungsbereich.
Tabelle 10.1
Aufbau und Indikatorformulierungen der Bedrohungswahrnehmung von KI mit Platzhaltern – Erhebung 2.2 KI-Bedrohung
Item
Dimension
Wenn Sie nun an den Einsatz von KI im Bereich [ANWENDUNGSBEREICH] denken, für wie bedrohlich halten Sie Computersysteme mit Künstlicher Intelligenz, die…
Recognition – Erkennung/Identifikation
[OBJEKT] erkennen.
[OBJEKT] erfassen.
[OBJEKT] identifizieren.
Prediction – Vorhersage
Entwicklungen von [OBJEKT] vorhersagen.
die Entwicklung von [OBJEKT] prognostizieren.
die Entwicklung von [OBJEKT] berechnet.
Recommendation – Entscheidungsempfehlung
[HANDLUNG] empfehlen.
[HANDLUNG] vorschlagen.
[HANDLUNG] nahelegen.
Decision-Making – Entscheidung
über [HANDLUNG] entscheiden.
[HANDLUNG] festlegen.
[HANDLUNG] vorgeben.
Für den Einsatz von KI-Systemen im medizinischen Bereich wurde folglich für die Erkennung das Objekt ‚Krankheit‘ eingefügt, die ‚Entwicklung von Krankheiten‘ vorhergesagt und eine ‚medizinische Behandlung‘ empfohlen oder bereits entschieden und festgelegt.
Für den Einsatz von KI-Systemen im Personalwesen wurde die Bewerbungssituation auf einen Arbeitsplatz als Beispiel gewählt. Folglich wurde für die Erkennung das Objekt ‚Eignung von Bewerber*innen‘ eingefügt, die ‚Arbeitsleistung von Bewerber*innen‘ vorhergesagt und eine ‚Einstellung von Bewerber*innen‘ empfohlen oder bereits entschieden und festgelegt.
Für den Einsatz von KI-Systemen im Bankensektor wurde die KI-basierte Vergabe von Krediten durch Bankinstitute als Beispiel gewählt. Folglich wurde für die Erkennung das Objekt ‚Kreditwürdigkeit von Kunden‘ eingefügt, die ‚Ausfallwahrscheinlichkeit von Krediten‘ vorhergesagt und eine ‚Entscheidung über die Kreditvergabe‘ empfohlen oder die ‚Kreditvergabe‘ bereits direkt entschieden und festgelegt. Der finale Fragebogen mit der Umsetzung der Vorlage und des Zuschnitts auf den jeweiligen Anwendungsbereich findet sich in Anhang 3.5 im elektronischen Zusatzmaterial. Für die nachfolgende Analyse wurde, wie in Abschnitt  10.3.2 diskutiert, lediglich auf die letztgenannten Dimensionen der Entscheidungsempfehlung und der tatsächlichen Entscheidung durch die KI-Systeme abgestellt.

10.6.3 Erhebung 2.3 Krankenversicherung

Unabhängige Variablen – die Manipulation des zu erwartenden Profits und der Notwendigkeit der Datenabgabe
Als Ergebnis der vorgeblichen Berechnung eines individualisierten Tarifs wurde nach der zehn Sekunden langen simulierten Berechnung randomisiert eine Seite ausgespielt, die das jeweilige experimentelle Treatment enthielt.
Zum einen wurde der zu erwartende finanzielle Vorteil variiert, der nachfolgend als der individuelle Profit bezeichnet wird. Entweder wurde den Befragten mitgeteilt, dass auf Grundlage ihrer Angaben eine Ersparnis von 19,74 % (Faktorstufe ‚Profit‘) möglich sei, oder 1,03 % (Faktorstufe ‚Kein Profit‘). 17 Die Nennung der Prozentzahl erfolgt einmal prominent in einem Kasten mittig auf der Fragebogenseite und einmal im nebenstehenden Erläuterungstext. Zudem wurde den Befragten in einer entsprechenden Beispielrechnung anhand eines durchschnittlichen Brutto-Einkommens von 2500 € konkret genannt, wie viel Euro im Monat bei Wahl des Versicherungstarifs gespart werden könnten. In der Kondition ‚Kein Profit‘ waren dies monatlich 1,88 € und jährlich entsprechend 22,56 €. In der Kondition ‚Profit‘ waren dies monatlich 36,03 € und jährlich entsprechend 432,36 €.
Des Weiteren wurde die Notwendigkeit der Datenabgabe für die Inanspruchnahme des jeweiligen Tarifs manipuliert. In der Kondition ‚Ohne Datenabgabe‘ bekamen die Befragten lediglich den Hinweis auf die jeweilige Ersparnis und es wurde der Wunsch ausgesprochen, die Befragten bald als Mitglieder der Krankenversicherung begrüßen zu dürfen. In der Kondition ‚Mit Datenabgabe‘ wurde den Befragten zusätzlich zum Hinweis auf die Ersparnis folgender Text präsentiert:
Ihre Daten – Ihre Gesundheit
Diese innovative Versicherung kann nur erfolgreich funktionieren, wenn wir als Krankenversicherung auf eine breite Datengrundlage unserer Versicherungsnehmer zugreifen können. Die Datenübermittlung erfolgt mit Ihrer Einverständniserklärung kostenfrei und automatisch.
Die dadurch erhobenen Daten werden ausschließlich zur zukünftigen Berechnung Ihres individuellen Beitrages benutzt. Die INDIVIDUA erfüllt hierbei alle gesetzlichen Bestimmungen zum Datenschutz gemäß Europäischen Datenschutzgrundverordnung (DSGVO). Durch Ihre Zustimmung zur Datenerfassung gehen Sie mit uns den entscheidenden Schritt in Richtung Zukunft.
Die jeweiligen Faktorstufen wurden mit 0 (‚Kein Profit‘ und ‚Keine Datenabgabe‘) oder 1 (‚Profit‘ und ‚Datenabgabe‘) in zwei entsprechenden Variablen im Datensatz dummy-codiert.
Manipulationsprüfung
Es wurde eine Manipulationsprüfung durchgeführt, um zu prüfen, ob das Stimulusmaterial von den Befragten wahrgenommen und der Inhalt verstanden wurde. Wird bspw. der Nutzen variiert, sollte für Personen in der Kondition mit hohem Nutzen die Nutzenwahrnehmung auch entsprechend höher ausfallen als in der Kondition mit geringfügigem Nutzen. Allerdings ist hiermit noch nicht verifiziert, dass es tatsächlich zu einer Variation auf Seiten der unabhängigen Variable gekommen ist. Es ist lediglich die Voraussetzung geprüft, dass im Falle des Ausbleibens dieser beobachteten Variation zumindest ausgeschlossen werden kann, dass dies nicht an einer schwachen oder unverständlichen Manipulation liegt. Hierzu beantworteten die Befragten nach der Manipulation Fragen bezüglich des jeweils präsentierten Stimulusmaterials. Zum einen sollten die Probanden also den individuellen Nutzen bewerten („Ich würde finanziell stark von dem für mich berechneten individualisierten Tarif profitieren“). 18 Zum anderen wurde die Notwendigkeit der Datenabgabe erfragt („Ich wurde im Text explizit darauf hingewiesen, dass ich in Zukunft meine persönlichen Daten abgeben müsste“). 19 In Teilerhebung 2.3a Krankenversicherung nahmen die Befragten, denen ein hoher Nutzen ausgegeben wurde, diesen auch eher wahr ( M = 3.53, SD = 1.03, n = 72) als die Befragten, denen eine geringfügiger Nutzen angezeigt wurde ( M = 2.44, SD = 1.03, n = 77; t(147) = ‒6.372; p < .001). Auch in Teilerhebung 2.3b Krankenversicherung war die Manipulation erfolgreich. Hier nahmen die Befragten, denen ein hoher Nutzen ausgegeben wurde, diesen auch eher wahr ( M = 3.16, SD = 1.26, n = 203) als die Befragten, denen ein geringfügiger Nutzen angezeigt wurde ( M = 1.98, SD = 1.12, n = 205; t(406) = ‒9.956; p < .001). Für die Notwendigkeit der Datenabgabe zeigte sich, dass in Teilerhebung 2.3a Krankenversicherung die Befragten, denen in Verbindung mit dem Tarifangebot explizit die Datenabgabe auferlegt wurde, diese Notwendigkeit auch eher wahrgenommen haben ( M = 3.22, SD = 1.30, n = 64) als die Befragten, die hierzu nicht explizit aufgefordert wurden ( M = 2.88, SD = 1.31, n = 68). Allerdings ist dieser Unterschied hier statistisch nicht signifikant, t(130) = ‒1.478; p = .142. Um auszuschließen, dass dieser Umstand durch die Frageformulierung begründet ist, wurde diese noch einmal konkretisiert.71 In Teilerhebung 2.3b Krankenversicherung wurde die Notwendigkeit letztlich von den Befragten, die hierzu aufgefordert waren, eher wahrgenommen ( M = 3.55, SD = 1.57, n = 183) als von den Befragten, die hierzu nicht explizit aufgefordert wurden ( M = 2.31, SD = 1.49, n = 177). Der Unterschied ist signifikant, t(438) = ‒7.692; p < .001).
Unabhängige Variablen – die Dimensionen des BDGS
Zusätzlich zu den Manipulationen wurde die BDGS-Skala in unveränderter Form in den Fragebogen aufgenommen.
Abhängige Variable – die Bereitschaft zum Wechsel in eine digitale individualisierte Krankenversicherung
Mittels der folgenden Frage wurde die Bereitschaft zum Wechsel in die vorgestellte individualisierte Krankenversicherung erhoben: „Wären Sie bereit, auf Grundlage des gezeigten Angebots und seiner Konditionen, zur INDIVIDUA-Krankenversicherung zu wechseln?“ Die Antwort erfolgte auf einer 5-stufigen Antwortskala, die wie folgt codiert wurde: 1 – „Ja, auf jeden Fall“, 2 – „Eher ja“, 3 – „Unentschieden“, 4 – „Eher nein“, sowie 5 – „Nein, auf keinen Fall“. Für die Datenauswertung wurde die Variable anschließend invertiert, so dass hohe Werte eine hohe Wechselbereitschaft bedeuten ( Erhebung 2.3a: M = 2.26, SD = 1.05; Erhebung 2.3b: M = 1.61, SD = .87).

10.6.4 Erhebung 2.4 KI und Hochschule

Unabhängige Variablen – die Dimensionen des BDGS
Die BDGS-Skala wurde in unveränderter Form in den Fragebogen aufgenommen.
Abhängige Variablen – Vertrauen in die Richtigkeit der KI-basierten Entscheidung, Reputation der Hochschule und Protest gegen die Auswahlentscheidung
Die Variable Vertrauen in die Richtigkeit der KI-basierten Entscheidung wurde ausgehend von der Arbeit von Lee (2018) übersetzt und mittels der folgenden Single-Item-Frage erhoben: ‚Wie sehr vertrauen Sie darauf, dass ein KI-basiertes Zulassungsverfahren die richtige Entscheidung trifft?‘. Die Skalierung war 7-stufig und die Extrema der Skala waren mit ‚überhaupt kein Vertrauen‘ (zugewiesener Wert 1) und ‚ vollstes Vertrauen‘ (zugewiesener Wert 7) beschriftet. Der Mittelwert des Items lag bei 4.09 (SD = 1.50).
Die abhängige Variable zur wahrgenommenen Reputation der Hochschule wurde auf Grundlage einer Studie zur Reputation von Unternehmen von Ponzi et al. (2011) aus dem Englischen übersetzt. Die auf dieser RepTrak TM-Skala basierende Itembatterie wurde mit folgendem Fragetext eingeleitet:
Bitte stellen Sie sich vor, die Universität, an der Sie sich um einen Studienplatz bewerben, setzt ein Computersystem mit Künstlicher Intelligenz ein, um über die Zulassung zu entscheiden. Inwieweit stimmen Sie den folgenden Aussagen zu oder stimmen ihnen nicht zu?
Daraufhin beantworteten die Probanden die folgenden vier Frageitems:
  • Es ist eine Universität, bei der ich ein gutes Gefühl habe. (Item-ID Rep1, Referenzindikator)
  • Es ist eine Universität, der ich vertrauen kann. (Item-ID Rep2)
  • Es ist eine Universität, die ich bewundere und respektiere. (Item-ID Rep3)
  • Die Universität hat insgesamt einen guten Ruf. (Item ID-Rep4)
Diese Fragen wurden auf einer 5-stufigen Likert-Skala erhoben, bei der die Extrema mit ‚stimme überhaupt nicht zu‘ (zugewiesener Wert 1) und ‚ stimme voll und ganz zu‘ (zugewiesener Wert 5) beschriftet waren. Die vier Items hatte eine hohe interne Konsistenz (α = .872; DEV = .636). Eine CFA, bei der ein latenter Faktor auf die vier Items lud, zeigte eine hohe Anpassungsgüte (Χ 2(12) = 5.047, p = .08; RMSEA = .071 [.000, .151]; TLI = .985). Bis auf Item Rep4 zeigen sich ausreichend hohe Faktorladungen (λ Rep1 = .862, λ Rep2 = .858, λ Rep3 = .783, λ Rep4 = .671). Trotzdem wird Item Rep4 mit in die Datenanalyse aufgenommen, da die Faktorladung zwar etwas gering ausfällt, der Indikator dennoch zusätzliche Information bereitstellt.
Zudem wurde erhoben, inwieweit die Befragten bereit wären, gegen die von der KI getroffene Auswahlentscheidung zu protestieren. Die abhängige Variable Protest gegen die KI-basierte Auswahlentscheidung wird dabei als Handlungsintention im Sinne politischer Mitsprache betrachtet. Ähnlich dem Konzept Political Voice, das in der politikwissenschaftlichen Literatur als eine Kategorie von Handlungsmacht begriffen wird (Hirschman, 1970), zielt das Konstrukt darauf ab, inwieweit eine aktive Missbilligung durch die Probanden geäußert wird. Hierfür wurden die folgenden vier Fragen eigenständig formuliert:
  • Ich würde mich aktiv gegen das Auswahlverfahren einsetzen. (Item-ID Prot1; Referenzindikator)
  • An einer Demonstration gegen das Auswahlverfahren würde ich teilnehmen. (Item-ID Prot2)
  • Ich würde eine Petition gegen das Auswahlverfahren unterschreiben. (Item-ID Prot3)
  • Ich würde einen Protest gegen das Auswahlverfahren unterstützen. (Item-ID Prot4)
Diese Fragen wurden ebenfalls auf einer 5-stufigen Likert-Skala erhoben, bei der die Extrema mit ‚stimme überhaupt nicht zu‘ (zugewiesener Wert 1) und ‚ stimme voll und ganz zu‘ (zugewiesener Wert 5) beschriftet waren und es die Option gab mit ‚weiß nicht‘ zu antworten. Die vier Items hatte eine hohe interne Konsistenz (α = .915; DEV = .717). Eine CFA, bei der ein latenter Faktor auf die vier Items lud, zeigte eine hohe Anpassungsgüte (Χ 2(12) = 2.420, p = .298; RMSEA = .026 [.000, .120]; TLI = .997). Für alle vier Items zeigen sich ausreichend hohe Faktorladungen (λ Prot1 = .816, λ Prot2 = .879, λ Prot3 = 781, λ Prot4 = .906).

10.7 Datenauswertung für das ‚Big-Data-Glaubenssystem‘ in den Erhebungen 2.1 bis 2.4

Für jede Erhebung in Studie 2 wurde im Rahmen einer CFA ein Modell spezifiziert und geprüft, bei der die jeweils drei Indikatoren jeder Dimension auf einen latenten Faktor laden. Dabei werden die beiden Teilerhebungen 2.3a und 2.3b getrennt betrachtet. Für Erhebung 2.1 EU und KI und 2.4 wurde jeweils ein Modell spezifiziert und geprüft.
In Erhebung 2.1 EU und KI wurde die BDGS-Skala dabei vor der randomisierten Zuweisung zu den Experimentalkonditionen und somit vor der Manipulation beantwortet. Es sind daher mit Blick auf die Ausprägung des BDGS bei den Befragten zum einen keine systematischen Unterschiede zwischen den Gruppen und zum anderen keine Ausstrahlungs- und Befragungseffekte durch den Fragebogenaufbau zu erwarten und auch nicht zu beobachten. 20 In Erhebung 2.2 KI-Bedrohung wurde das Modell für drei Gruppen der unterschiedlichen Anwendungskontexte spezifiziert (siehe Abschnitt  10.6.2). Da die Bedrohungswahrnehmung durch KI in den einzelnen Anwendungsbereichen im Fragebogen vor der Erhebung der BDGS-Skala erfragt wurde, ist neben der allgemeinen Modellspezifikation auch wie für Erhebung 2.3 Krankenversicherung auf Messäquivalenz zwischen den einzelnen Gruppen zu prüfen, um einen Befragungseffekt auf die BDGS-Skala auszuschließen. Da es anders als in Erhebung 2.3 jedoch nicht um eine identische Befragung mit einer anderen Stichprobe ging, sondern nachfolgend ja insbesondere Unterschiede der Pfadkoeffizienten zwischen BDGS und KI-Bedrohungswahrnehmung geprüft werden sollen, beschränkt sich die Prüfung der Messäquivalenz nur auf die BDGS-Skala. Es wird mithin getestet, ob die vermutete Beziehungsstruktur des BDGS in beiden Stichproben äquivalent ist. Die zu prüfenden Modelle wurden gemäß der Konfiguration in Abbildung  2 spezifiziert und mit den entsprechenden Gleichheitsrestriktionen für die jeweilige Stufe der Messinvarianz versehen (Weiber & Mühlhaus, 2014). Der Modellvergleich der geschätzten Modelle in Tabelle  10.2 zeigt, dass nachfolgend lediglich die Voraussetzungen der Messfehlervarianz (auch strikte faktorielle Messinvarianz genannt) nicht erfüllt sind.
Die Werte für die Anpassungsgüte der Modelle finden sich in Tabelle  10.3. Mit Blick auf den strengen Chi-Quadrat-Test zeigt sich für die Erhebungen 2.1, 2.2, 2.3a und 2.4 eine unzureichende Anpassungsgüte. Nur in Teilerhebung 2.3b Krankenversicherung ist diese zufriedenstellend. Auch aufgrund der Fallzahlen kommt es in den einzelnen Erhebungen zu geteilter Varianz der einzelnen BDGS-Indikatoren, die jedoch über alle Erhebungen hinweg keiner Systematik folgen. Die inkrementellen Fit-Maße indizieren insgesamt jedoch eine ausreichende ( Teilerhebung 2.3a Krankenversicherung) bis zufriedenstellende Passung des jeweils spezifizierten Modells.
In Tabelle  10.4 finden sich die jeweiligen Angaben zum Cronbachschen α und der DEV der jeweiligen Dimensionen in den einzelnen Erhebungen. Die jeweiligen Werte indizieren für das Modell in den Erhebungen über alle vier Dimensionen hinweg eine hohe interne Konsistenz der Indikatoren.
Tabelle 10.2
Modellvergleich zur Prüfung der Modelläquivalenz in den Anwendungsbereichen Medizin, Personalwesen und Bankensektor der Erhebung 2.2 KI-Bedrohung
Modell
Χ 2
df
p
TLI
RMSEA
Vergleich mit
Δ Χ 2 (Δdf)
ΔTLI
ΔRMSEA
M1: Unrestringiertes Modell
(konfigurale Messinvarianz)
187.378
144
.009
.993
.018 (.010; .025)
     
M2: Invarianz der Regressionsgewichte
der latenten Faktoren
214.780
160
.003
.992
.020 (.012; .026)
M1
27.402* (16)
.001
.002
M3: Invarianz der Regressionskonstanten
241.761
184
.003
.993
.019 (.011; .025)
M2
26.981 (24)
.001
.001
M4: Invarianz der Kovarianzen
274.942
204
.001
.992
.020 (.013; .026)
M3
33.181* (20)
.001
.001
M5: Messfehlerinvarianz
344.903
228
 < .001
.988
.024 (.019; .029)
M4
69.961*** (24)
.004
.004
Notizen. * p < .05, ** p < .01, *** p < .001
Tabelle 10.3
Vergleich der Modellgüte des BDGS für die Erhebungen in Studie 2
Model
Χ 2
df
p
TLI
RMSEA
Erhebung 2.1 EU und KI
95.803
48
 < .001
.986
.042 [.029, .054]
Erhebung 2.2 KI-Bedrohung a
274.942
204
.001
.992
.020 [.013; .026]
Erhebung 2.3a Krankenversicherung – Laboruntersuchung
75.735
48
.007
.965
.060 [.032, .084]
Erhebung 2.3b Krankenversicherung – Online-
Befragung
43.315
48
.665
1.000
.000 [.000, .026]
Erhebung 2.4 KI und Hochschule
92.291
48
 < .001
.970
.055 [.038, .072]
Notizen. a Im Model wurden zwischen den Kontexten 2.2a – Medizin, 2.2b – Personalwesen sowie 2.2c – Bankensektor unterschieden, Fit-Maße für das Modell mit starker faktorieller Messinvarianz (siehe M4 in Tabelle  10.2).
Tabelle 10.4
Kennwerte Dimensionen BDGS-Modell – Erhebungen der Studie 2
Dimension
Erhebung
2.1
2.2a –
Medizin
2.2b –
Personalwesen
2.2c –
Bankensektor
2.3a –
Laboruntersuchung
2.3b –
Online-Befragung
2.4
 
Cronbachsche α (standardisiert)
Genauigkeit
.859
.886
.852
.917
.836
.842
.795
Wissensgewinn
.825
.802
.834
.842
.825
.814
.811
Individueller Nutzen
.904
.912
.909
.938
.829
.886
.875
Gesellschaftlicher Nutzen
.907
.893
.909
.905
.870
.901
.886
 
Durchschnittlich extrahierte Varianz (DEV) a
Genauigkeit
.660
.731
.668
.786
.636
.648
.566
Wissensgewinn
.616
.583
.633
.672
.616
.614
.609
Individueller Nutzen
.761
.777
.773
.837
.620
.722
.720
Gesellschaftlicher Nutzen
.757
.736
.770
.763
.696
.754
.701
Notizen. a Die DEV wurde auf Grundlage der standardisierten Regressionswerte (Faktorladungen) im Gesamtmodell berechnet.
Darüber hinaus finden sich in Tabelle  10.5, Tabelle  10.6, Tabelle  10.7 und Tabelle  10.8 die geschätzten Regressionskonstanten und -gewichte sowie die Faktorladungen der einzelnen Indikatoren samt deren Dimensionszugehörigkeit innerhalb des BDGS. Um zu prüfen, ob sich die Werte der Regressionskonstanten signifikant vom Skalenmittelpunkt unterscheiden, wurde in allen Modellen zusätzlich ein Bootstrapping in AMOS für ‚Bias-corrected confidence intervals‘ nach (Efron, 1987) mit insgesamt 500 Stichproben durchgeführt.
Die Faktorladungen sind in allen Modellen weitgehend als gut zu bewerten. Es zeigt sich mit Blick auf Erhebung 2.1 EU und KI, dass die Faktorladung von Item W2 („Digitale Daten führen zu neuen Fakten“) mit einem Wert von (λ 2.1_w2 = .667) als nicht zufriedenstellend gewertet wird. Auch in den drei Anwendungskontexten der Erhebung 2.2 KI-Bedrohung2.2_W2_Medizin = .661, λ 2.2_W2_Personalwesen = .658, λ 2.2_W2_Bankensektor = .643), in Erhebung 2.3b Krankenversicherung2.3b_w2 = .606) sowie in Erhebung 2.4 KI und Hochschule2.4_W2 = .627) weist W2 erneut eine eher unzureichende Faktorladung auf. Lediglich in Erhebung 2.3a Krankenversicherung hat das gleiche Item mit einem Wert von λ 2.3a_w2 = .704 eine gerade noch zufriedenstellende Faktorladung. Dies ist als weiteres Indiz für die problematische Formulierung zu werten, die auf ‚neue Fakten‘ abstellt, die aus den Daten gewonnen werden können (siehe Abschnitt  9.​3.​1).
Mit Blick auf die Regressionskonstanten fällt auf, dass bei den Items der Dimension Genauigkeit die Regressionskonstanten in den Erhebungen um den Skalenmittelpunkt oder leicht darunterliegen, was eine differenzierte Einschätzung dieser Dimension indiziert. Gleiches gilt für die Dimensionen des individuellen Nutzens sowie des gesellschaftlichen Nutzens, deren Regressionskonstanten ebenfalls um den Skalenmittelpunkt liegen. Allerdings ist der individuelle Nutzen im Verhältnis fast durchgängig geringer ausgeprägt als der gesellschaftliche Nutzen. Besonders hoch ausgeprägt sind in den vorliegenden Erhebungen hingegen erneut die Indikatoren der Dimension des Wissensgewinns: In allen Erhebungen ist diese Dimension mit Blick auf die Regressionskonstanten der einzelnen Indikatoren stark positiv ausgeprägt, weshalb die entsprechend formulierte Hypothese 1a angenommen wird.
In Tabelle  10.9 finden sich die Inter-Korrelationen der vier Dimensionen des BDGS, die wie in Studie 1 auch in allen Erhebungen der Studie 2 erneut hoch miteinander korrelieren. Hohe Ausprägungen einer Dimension gehen für gewöhnlich mit hohen Ausprägungen der anderen Dimensionen einher. Die Hypothese 1b, die besagt, dass die Dimensionen des BDGS positiv miteinander kovariieren, wird mithin angenommen.
Tabelle 10.5
Kennwerte Dimensionen und Indikatoren – Erhebung 2.1 EU und KI: Modell BDGS
Item-ID
Itemformulierung „Digitale Daten …“
B ( SE)
95 % CI [ LL; UL]
ß ( SE)
λ
Genauigkeit
GE1
… ermöglichen ein genaues Verständnis der Welt.
3.883 (.061)
[3.762; 3.997]
1 a
.858
GE2
… ermöglichen ein exaktes Verständnis der Welt.
3.542 (.061)
[3.410; 3.661]
.948*** (.043)
.810
GE3
… ermöglichen ein objektives Verständnis der Wirklichkeit.
3.577 (.062)
[3.441; 3.697]
.912*** (.047)
.767
Wissensgewinn
W1
… verhelfen zu neuem Wissen.
5.061 (.057)
[4.946; 5.177]
1 a
.871
W2
… führen zu neuen Fakten.
4.638 (.063)
[4.521; 4.759]
.852*** (.051)
.667
W3
… verhelfen zu neuen Erkenntnissen.
5.063 (.054)
[4.952; 5.170]
.884*** (.042)
.802
Individueller Nutzen
IN1
… erzeugen für mich persönlich einen Mehrwert.
3.612 (.064)
[3.488; 3.758]
1 a
.875
IN2
… führen für mich zu Vorteilen.
3.759 (.060)
[3.630; 3.874]
.917*** (.033)
.865
IN3
… haben für mich persönlich positive Auswirkungen.
3.701 (.061)
[3.577; 3.826]
.947*** (.034)
.877
Gesellschaftlicher Nutzen
GN1
… erzeugen einen Mehrwert für die Gesellschaft.
3.976 (.058)
[3.824; 4.086]
1 a
.895
GN2
… führen zu gesellschaftlichen Vorteilen.
3.778 (.057)
[3.661; 3.899]
.918*** (.033)
.847
GN3
… sind ein gesellschaftlicher Gewinn.
3.850 (.059)
[3.703; 3.962]
.985*** (.034)
.868
Notizen. CI = Konfidenzintervall; LL = Untere Grenze; UL = Obere Grenze. a Referenzindikator; * p < .05, ** p < .01, *** p < .001
Tabelle 10.6
Kennwerte Dimensionen und Indikatoren – Erhebung 2.2 KI-Bedrohung: Modell BDGS
Item-ID
Itemformulierung
„Digitale Daten …“
B b ( SE)
95 % CI [ LL; UL]
ß ( SE)
Medizin
Personalwesen
Bankensektor
λ
λ
λ
Genauigkeit
GE1
… ermöglichen ein genaues Verständnis der Welt.
3.931 (.056)
[3.802; 4.032]
1 a
.881
.896
.882
GE2
… ermöglichen ein exaktes Verständnis der Welt.
3.572 (.055)
[3.465; 3.678]
.967*** (.028)
.863
.828
.893
GE3
… ermöglichen ein objektives Verständnis der Wirklichkeit.
3.697 (.055)
[3.585; 3.806]
.921*** (.030)
.804
.801
.850
Wissen
W1
… verhelfen zu neuem Wissen.
5.125 (.048)
[5.026; 5.215]
1 a
.856
.885
.888
W2
… führen zu neuen Fakten.
4.784 (.050)
[4.657; 4.876]
.782*** (.037)
.661
.658
.643
W3
… verhelfen zu neuen Erkenntnissen.
5.171 (.045)
[5.071; 5.250]
.911*** (.032)
.849
.830
.838
Individueller Nutzen
IN1
… erzeugen für mich persönlich einen Mehrwert.
3.655 (.057)
[3.549; 3.771]
1 a
.910
.913
.930
IN2
… führen für mich zu Vorteilen.
3.799 (.053)
[3.688; 3.904]
.859*** (.023)
.853
.845
.856
IN3
… haben für mich persönlich positive Auswirkungen.
3.680 (.054)
[3.566; 3.785]
.934*** (.021)
.883
.900
.941
Gesellschaftlicher Nutzen
GN1
… erzeugen einen Mehrwert für die Gesellschaft.
3.971 (.051)
[3.876; 4.077]
1 a
.874
.870
.890
GN2
… führen zu gesellschaftlichen Vorteilen.
3.784 (.050)
[3.697; 3.883]
.927*** (.028)
.816
.865
.834
GN3
… sind ein gesellschaftlicher Gewinn.
3.813 (.051)
[3.713; 3.919]
1.020*** (.028)
.881
.908
.884
Notizen. a Referenzindikator, b Aufgrund der Identitätsrestriktion für die Achsenabschnitte ist der jeweilige Wert für die Regressionskonstante über die Anwendungsbereiche identisch; * p < .05, ** p < .01, *** p < .001
Tabelle 10.7
Kennwerte Dimensionen und Indikatoren BDGS – Erhebungen 2.3a und 2.3b Krankenversicherung
Item-ID
Itemformulierung
„Digitale Daten …“
Erhebung 2.3a Krankenversicherung – Laboruntersuchung
Erhebung 2.3b Krankenversicherung – Online-Befragung
   
B ( SE)
95 % CI [ LL; UL]
ß ( SE)
λ
B ( SE)
95 % CI [ LL; UL]
ß ( SE)
λ
Genauigkeit
GE1
… ermöglichen ein genaues Verständnis der Welt.
4.232 (.114)
[3.970; 4.465]
1 a
.829
3.921 (.075)
[3.785; 4.073]
1 a
.830
GE2
… ermöglichen ein exaktes Verständnis der Welt.
3.604 (.121)
[3.382; 3.854]
1.063*** (.099)
.832
3.508 (.076)
[3.358; 3.645]
1.039*** (.055)
.849
GE3
… ermöglichen ein objektives Verständnis der Wirklichkeit.
3.829 (.113)
[3.604; 4.049]
.871*** (.092)
.726
3.497 (.072)
[3.353; 3.633]
.849*** (.054)
.730
Wissensgewinn
W1
… verhelfen zu neuem Wissen.
5.518 (.081)
[5.359; 5.671]
1 a
.805
5.256 (.064)
[5.136; 5.379]
1 a
.843
W2
… führen zu neuen Fakten.
5.220 (.091)
[5.043; 5.402]
.979*** (.109)
.704
4.797 (.070)
[4.658; 4.940]
.784*** (.061)
.606
W3
… verhelfen zu neuen Erkenntnissen.
5.439 (.087)
[5.244; 5.617]
1.120*** (.107)
.839
5.203 (.063)
[5.085; 5.326]
1.017*** (.055)
.874
Individueller Nutzen
IN1
… erzeugen für mich persönlich einen Mehrwert.
3.933 (.113)
[3.695; 4.146]
1 a
.784
3.658 (.075)
[3.515; 3.797]
1 a
.889
IN2
… führen für mich zu Vorteilen.
4.152 (.112)
[3.921; 4.355]
1.076*** (.093)
.848
3.716 (.071)
[3.567; 3.838]
.884*** (.040)
.831
IN3
… haben für mich persönlich positive Auswirkungen.
4.152 (.109)
[3.902; 4.339]
1.070*** (.090)
.869
3.774 (.072)
[3.619; 3.924]
.961*** (.039)
.883
Gesellschaftlicher Nutzen
GN1
… erzeugen einen Mehrwert für die Gesellschaft.
4.348 (.095)
[4.123; 4.518]
1 a
.772
3.926 (.067)
[3.804; 4.051]
1 a
.883
GN2
… führen zu gesellschaftlichen Vorteilen.
4.244 (.097)
[4.023; 4.439]
1.066*** (.101)
.808
3.769 (.063)
[3.646; 3.902]
.884*** (.041)
.822
GN3
… sind ein gesellschaftlicher Gewinn.
4.220 (.096)
[4.040; 4.409]
1.023*** (.100)
.782
3.707 (.064)
[3.596; 3.833]
.918*** (.041)
.843
Notizen. CI = Konfidenzintervall; LL = Untere Grenze; UL = Obere Grenze. a Referenzindikator, b Die DEV wurde auf Grundlage der standardisierten Regressionswerte (Faktorladungen) im Gesamtmodell berechnet; * p < .05, ** p < .01, *** p < .001.
Tabelle 10.8
Kennwerte Dimensionen und Indikatoren – Erhebung 2.4 KI und Hochschule: Modell BDGS
Item-ID
Itemformulierung „Digitale Daten …“
B ( SE)
95 % CI [ LL; UL]
ß ( SE)
λ
Genauigkeit
GE1
… ermöglichen ein genaues Verständnis der Welt.
4.566 (.085)
[4.395; 4.707]
1 a
.776
GE2
… ermöglichen ein exaktes Verständnis der Welt.
3.964 (.092)
[3.769; 4.138]
1.067*** (.088)
.763
GE3
… ermöglichen ein objektives Verständnis der Wirklichkeit.
4.151 (.090)
[3.960; 4.312]
.986*** (.089)
.717
Wissen
W1
… verhelfen zu neuem Wissen.
5.727 (.066)
[5.587; 5.862]
1 a
.814
W2
… führen zu neuen Fakten.
5.388 (.072)
[5.253; 5.527]
.838*** (.077)
.627
W3
… verhelfen zu neuen Erkenntnissen.
5.638 (.065)
[5.501; 5.757]
1.071*** (.070)
.879
Individueller Nutzen
IN1
… erzeugen für mich persönlich einen Mehrwert.
4.273 (.090)
[4.075; 4.441]
1 a
.884
IN2
… führen für mich zu Vorteilen.
4.405 (.083)
[4.252; 4.579]
.881*** (.049)
.838
IN3
… haben für mich persönlich positive Auswirkungen.
4.382 (.079)
[4.228; 4.543]
.825*** (.047)
.823
Gesellschaftlicher Nutzen
GN1
… erzeugen einen Mehrwert für die Gesellschaft.
4.523 (.078)
[4.378; 4.658]
1 a
.878
GN2
… führen zu gesellschaftlichen Vorteilen.
4.242 (.076)
[4.274; 4.566]
.874*** (.054)
.784
GN3
… sind ein gesellschaftlicher Gewinn.
4.306 (.081)
[4.151; 4.464]
1.001*** (.056)
.847
Notizen. CI = Konfidenzintervall; LL = Untere Grenze; UL = Obere Grenze. a Referenzindikator; * p < .05, ** p < .01, *** p < .001
Tabelle 10.9
Korrelationsmatrix – Erhebungen der Studie 2: Finales Modell BDGS
 
Genauigkeit
Wissensgewinn
Individueller
Nutzen
Gesellschaftlicher Nutzen
Genauigkeit
Erhebung 2.1 EU und KI
1
.685***
.617***
.663***
2.2a – Medizin
1
.716***
.643***
.759***
2.2b – Personalwesen
1
.713***
.625***
.685***
2.2c – Bankensektor
1
.719***
.657***
.797***
2.3a – Laboruntersuchung
1
.585***
.528***
.604***
2.3b – Online-Befragung
1
.629***
.530***
.648***
2.4
1
.665***
.466***
.627***
Wissensgewinn
Erhebung 2.1 EU und KI
 
1
.633***
.680***
2.2a – Medizin
 
1
.661***
.741***
2.2b – Personalwesen
 
1
.664***
.740***
2.2c – Bankensektor
 
1
.533***
.694***
2.3a – Laboruntersuchung
 
1
.518***
.702***
2.3b – Online-Befragung
 
1
.515***
.594***
2.4
 
1
.549***
.613***
Individueller Nutzen
Erhebung 2.1 EU und KI
   
1
.869***
2.2a – Medizin
   
1
.883***
2.2b – Personalwesen
   
1
.875***
2.2c – Bankensektor
   
1
.847***
2.3a – Laboruntersuchung
   
1
.870***
2.3b – Online-Befragung
   
1
.806***
2.4
   
1
.758***
Notizen. * p < .05, ** p < .01, *** p < .001
Prüfung auf Messinvarianz
Auch für die vier Erhebungen 2.1 bis 2.4 in Studie 2 wurde eine Prüfung auf Messinvarianz durchgeführt. Die Ergebnisse in Tabelle  10.10 zeigen, dass mit Blick auf den Chi-Quadrat-Differenztest die Modelle mit metrischer und skalarer Invarianz eine signifikant schlechtere Anpassungsgüte zeigen. Allerdings müssen erneut die Stichprobengröße ( n = 2364) sowie die Anzahl der verglichenen Gruppen sowie die Größe des geschätzten Modells berücksichtigt werden, die einen Einfluss auf den Test auf Messinvarianz haben. Auch hier tendiert der strenge Chi-Quadrat-Differenztest schnell dazu, ein signifikantes Ergebnis zu erbringen (Putnick & Bornstein, 2016). Es werden aus diesem Grund an dieser Stelle inkrementelle Fit-Maße zur Beurteilung der Messinvarianz herangezogen (F. F. Chen, 2007; Meade et al., 2008), die eine Einschätzung erlauben, in welchem Grad sich das Modell durch die Gleichheitsrestriktionen verschlechtert. So wird mit Blick auf Tabelle  10.10 ersichtlich, dass das Modell mit der skalaren Invarianz bezüglich der inkrementellen Fit-Maße des TLI und des RMSEA eine höhere bzw. mindestens gleich hohe Anpassungsgüte zeigt, verglichen mit den Modellen mit konfiguraler Invarianz bzw. metrischer Invarianz. Das bedeutet, dass das Modell mit den Gleichheitsrestriktionen eine signifikant, jedoch nicht substantiell schlechtere Anpassungsgüte zeigt und mithin von starker Messinvarianz ausgegangen wird.
Durch die Festsetzung der Gleichheitsrestriktionen lassen sich bei starker Messinvarianz die Mittelwerte der latenten Konstrukte über die Gruppen hinweg vergleichen. Mit Blick auf die Regressionskonstanten zeigte sich, dass die studentische Stichprobe in Erhebung 2.4 KI und Hochschule die bisher höchsten Werte auf den einzelnen BDGS-Dimensionen erzielt. Das BDGS ist in dieser Gruppe am stärksten ausgeprägt. Sie wurde daher als Referenzgruppe festgelegt, deren Faktor-Mittelwerte auf 0 restringiert sind (siehe Tabelle  10.11).
Es zeigt sich mit Blick auf die Mittelwerte, dass für fast alle Dimensionen des BDGS signifikante Unterschiede zwischen der Erhebung 2.4 KI und Hochschule und den anderen Erhebungen bestand. Das BDGS ist bei den Erhebungen 2.1 EU und KI, 2.2 KI-Bedrohung und 2.3b Krankenversicherung geringer ausgeprägt, die alle über das SoSci-Panel durchgeführt wurden. Nur die Erhebung 2.3a Krankenversicherung, die ebenfalls mit einem studentischen Sample im Labor durchgeführt wurde, hat eine ähnliche, wenn auch bis auf die Dimension des gesellschaftlichen Nutzens signifikant geringere Ausprägung.
Tabelle 10.10
Prüfung der Messinvarianz der Erhebungen in Studie 2
Model
Χ 2
df
p
TLI
RMSEA
Vergleich mit
ΔΧ 2 (Δdf)
ΔTLI
ΔRMSEA
M1: Unrestringiertes Modell
(konfigurale Messinvarianz)
496.192
336
 < .001
.989
.038 [.030, .044]
M2: Metrische Invarianz
570.528
384
 < .001
.989
.038 [.031, .044]
M1
74.336** (48)
.000
.000
M3: Skalare Invarianz
651.975
432
 < .001
.988
.039 [.033, .045]
M2
81.447** (48)
.001
.001
M4: Residuale Invarianz
859.999
504
 < .001
.983
.046 [.040, .051]
M3
208.024*** (72)
.005
.007
Notizen. * p < .05, ** p < .01, *** p < .001
Tabelle 10.11
Mittelwerte der latenten Faktoren im BDGS-Modell – Erhebungen aus Studie 2
Dimension
M (SE)
2.1
2.2a
Medizin
2.2b
Personalwesen
2.2c
Bankensektor
2.3a
Laboruntersuchung
2.3b
Online-Befragung
2.4
Genauigkeit
‒.592 c,d (.096)
‒.351 b,c,d,e (.120)
‒.648 a,d,e (.114)
‒.608 d,e (.122)
‒.354 a,d (.130)
‒.608 b,d (.103)
0 d
Wissensgewinn
‒.671 a,b,c,d (.081)
‒.417 c,d,e (.093)
‒.702 a,b,d,e (.098)
‒.626 a,d,e (.102)
‒.199 a,d (.099)
‒.495 a,b,d (.086)
0 d
Individueller Nutzen
‒.700 a,d (.100)
‒.557 d,e (.123)
‒.694 a,d (.121)
‒.813 a,d,e (.124)
‒.278 a,d (.132)
‒.665 a,d (.107)
0 d
Gesellschaftlicher Nutzen
‒.557 a,d (.090)
‒.429 a,b,d,e (.110)
‒.604 a,d (.108)
‒.683 a,d,e (.111)
‒.144 a (.111)
‒.627 a,b,d (.094)
0 d
Notizen. a Werte, die einen gleichen Buchstaben teilen, unterscheiden sich anhand des Critical-Ratio-Tests signifikant mit p < .05.

10.8 Diskussion der Ergebnisse des BDGS in den Erhebungen 2.1 bis 2.4

Es zeigt sich, dass das BDGS auch in den Erhebungen 2.1 bis 2.4 reliabel messbar ist. Die Anpassungsgüte ist weitgehend zufriedenstellend und auch die Messäquivalenz ist zwischen den Erhebungen gegeben. Das BDGS zeigt sich auch in Studie 2 als ein stabiles Wahrnehmungsmuster.
Mit Blick auf die Ausprägung der einzelnen Dimensionen bestätigt sich der Eindruck aus Studie 1. Erwartungen an die Genauigkeit der Daten sind variabel und liegen jeweils um den Skalenmittelpunkt der Indikatoren, vereinzelt geringfügig darunter. Der vermeintlichen Exaktheit und Objektivität des Verständnisses der Welt, das durch digitale Daten ermöglicht wird, wird also durchaus ausgewogen betrachtet und nicht durchweg von den Befragten vorausgesetzt. Ein ähnliches Bild zeigt sich für den aus digitalen Daten gezogenen individuellen und gesellschaftlichen Nutzen. Auch hier wird von den Befragten durchaus abgewogen und im Durchschnitt keine eindeutige Zustimmung abgegeben. Es fällt jedoch auf, dass die individuellen Nutzenerwartungen jeweils etwas niedriger ausfallen als die Erwartungen, dass die Allgemeinheit von der Sammlung und Auswertung der großen digitalen Datenbestände profitiert. Hier wird die Kehrseite fortschreitender Digitalisierung, wie etwa Verletzungen der Privatsphäre oder anderweitige Nachteile als ‚gläserne‘ Konsumierende, womöglich durchaus wahrgenommen und schlägt sich in der Erwartung etwaiger Nachteile nieder, die dem Individuum aus der weitreichenden Sammlung und Auswertung persönlicher Daten entstehen, auch wenn die Gesellschaft insgesamt von digitalen Daten profitieren mag. Die Einschätzung des Nutzens der Datensammlung und -auswertung wird mithin ambivalent beurteilt, während die Befragten auch in den Erhebungen der Studie 2 durchweg einen Wissensgewinn aus den Daten erwarten. Der Mythos eines weitreichenden Erkenntnisgewinns aus digitalen Daten findet hier wie auch in Studie 1 Resonanz und führt zu einer allgemeinen Zustimmung darin, dass Wissen aus den Daten generiert werden kann.
Dabei fällt auf, dass das BDGS in den beiden studentischen Samples besonders hoch ausgeprägt ist. Ein möglicher Grund mag darin liegen, dass sich in diesen Gruppen besonders viele der sogenannte Digital Natives finden (siehe Abschnitt  9.​1.​2). Zum einen sind heutige Studierende mit der Digitalisierung aufgewachsen und mit der täglichen Nutzung von Digitaltechnik vertraut. Sie gehören zur ersten Generation, die keine direkten Vergleichsmöglichkeiten zu einer Zeit hat, in der die Verbreitung und Nutzung von Computern noch nicht zum privaten und beruflichen Alltag gehörte. Zum anderen haben sie weniger (Lebens-)Erfahrung, befinden sich am Beginn des Berufslebens und sind neuen Entwicklungen womöglich insgesamt offener gegenüber eingestellt. Im Zuge des gesellschaftlichen Diskurses um die Wissensgesellschaft wird auch die besondere Bedeutung von Wissen und Bildung für den Lebenserfolg des Individuums hervorgehoben, so dass in den letzten Jahrzehnten nicht nur immer mehr Schüler*innen die Hochschulreife erlangen, sondern auch mehr ein Studium beginnen (Autorengruppe Bildungsberichterstattung, 2018). Es verwundert daher nicht, dass der Mythos der digitalen Daten auch von dieser Gruppe aufgenommen wird und hohe Erwartungen an das positive Veränderungspotential digitaler Datensammlung und -verwertung bestehen.

10.9 Ergebnisse der Erhebung 2.1 EU und KI

10.9.1 Datenauswertung und Ergebnisse

Die Hypothesen werden mit Hilfe eines Strukturregressionsmodells in AMOS 23 geprüft. Zur Prüfung der Messäquivalenz der Dimensionen des BDGS und der Legitimitätswahrnehmung sowie der finalen Prüfung der modellierten Zusammenhänge wird eine MGKA durchgeführt. Dabei wurden die Manipulationen der Experimentalkonditionen hier nicht als manifeste unabhängige Variablen (dummy-codiert) modelliert, sondern die Konditionen wurden als jeweils eigenständige Gruppe betrachtet, in denen dann unterschiedliche Effekte des BDGS zulässig und direkt vergleichbar sind. Im jeweiligen Modell werden die Messmodelle der BDGS-Dimensionen Genauigkeit, Wissensgewinn sowie individueller Nutzen und gesellschaftlicher Nutzen als latente unabhängige Variablen modelliert (siehe Abbildung  10.1). Die BDGS-Dimensionen nehmen im Modell dann einen Einfluss auf die vier in Abschnitt  10.6.1 beschriebenen Legitimitäts-Dimensionen, die als abhängige endogene Variablen modelliert sind.
Prüfung der Messäquivalenz
Ein geschätztes Modell der MGKA (Modell 1) zeigt mit Blick auf den strengen Chi-Quadrat-Test eine unzureichende Anpassungsgüte (Χ 2(614) = 881.125, p =  < .001; RMSEA = .028 [.023, .032]; TLI = .959). Die inkrementellen Fit-Maße indizieren eine noch ausreichende Anpassungsgüte. Die insgesamt unzufriedenstellende Anpassungsgüte liegt hier auch an der Größe des Modells mit 22 beobachteten manifesten Variablen sowie sieben latenten Faktoren und ergibt sich mit Blick auf die Unterscheidung der drei Konditionen sowie der Stichprobengröße. Es wird nun ein zweites Modell für die drei Konditionen gerechnet, das der Multi-Kollinearität der BDGS-Dimensionen Rechnung trägt und entsprechend mit Gleichheitsrestriktionen der Strukturgewichte des BDGS auf die Legitimitätsdimensionen spezifiziert ist. Durch die Prüfung mittels Gleichheitsrestriktionen wird verdeutlicht, inwieweit die einzelnen Dimensionen gleiche oder ungleiche Effekte auf die abhängigen Variablen haben. Die Restriktionen in diesem Modell 2 führen nicht signifikant zu einer Verschlechterung der Anpassungsgüte (ΔΧ 2 = 25.808, Δdf = 36; p = .896). Das bedeutet, dass dem Modell 2 mit den Gleichheitsrestriktionen der Vorzug zu geben ist. Gleichzeitig zeigt sich im unrestringierten Modell 1 in der Kond ADM, dass es doch zu unterschiedlichen Effekten im Verhältnis einzelner Dimensionen des BDGS in dieser Kondition kommt. Da der Einfluss des BDGS in dieser Kondition von besonderem Interesse ist, wird das Modell 2 erneut respezifiziert und ein Modell 3 geprüft, in dem die Gleichheitsrestriktionen teilweise freigesetzt werden. Eine Übersicht über die Anpassungsgüte der drei Modelle findet sich in Tabelle  10.12.
Die freigesetzten Gleichheitsrestriktionen in diesem Modell 3 führen nicht signifikant zu einer Verschlechterung der Anpassungsgüte gegenüber Modell 2 (ΔΧ 2 = .363, Δdf = 1; p = .547). Nachfolgend werden daher die Ergebnisse des Modells 3 berichtet.
Der Einfluss des BDGS im Rahmen der Legitimitätswahrnehmung
Zunächst muss auf die Kondition des HDM eingegangen werden, die als Referenzkondition betrachtet wird und mithin die Kontrollgruppe darstellt. Der Status quo dient zur Prüfung des allgemeinen Einflusses des BDGS auf die Legitimitätsbewertung. Es könnte auch in dieser Kondition durchaus sein, dass sich starke Einflüsse des BDGS zeigen: Etwa, weil Befragte mit hoher Ausprägung der Dimensionen des BDGS eine allgemein unterschiedliche Wahrnehmung politischer Legitimität haben als Personen mit niedriger Ausprägung. Hierfür gibt es zwar keine Annahmen und Anhaltspunkte, eine Prüfung ist dennoch geboten. Die Parameterschätzungen der Pfadkoeffizienten für diese Kond HDM finden sich in Tabelle  10.13. Es zeigt sich, dass die Dimensionen des BDGS keinen signifikanten Einfluss auf die Legitimitätswahrnehmung in der Kontrollgruppe haben, außer auf die Akzeptanz der Entscheidung. Hier zeigt sich ein signifikanter Effekt (B = .041, SE = .019. p < .028). Dieser ist als gering zu bewerten (β Genauigkeit = .049; β Wissensgewinn = .045; β Individueller_Nutzen = .052; β Gesellschaftlicher_Nutzen = .048).
Tabelle 10.12
Modellvergleich zur Prüfung der Gleichheit der Strukturgewichte in Erhebung 2.1 EU und KI
Modell
Χ 2
df
p
TLI
RMSEA
Vergleich mit
ΔΧ 2 (Δdf)
ΔTLI
ΔRMSEA
M1: Ohne Gleichheitsrestriktionen der BDGS-Dimensionen
881.125
614
 < .001
.959
.028 (.023; .032)
M2: Vollständige Gleichheitsrestriktionen der BDGS-Dimensionen
906.933
650
 < .001
.963
.026 (.022; .030)
M1
25.808 (36)
.004
.002
M3: Partielle Gleichheitsrestriktionen der BDGS-Dimensionen
903.121
647
 < .001
.963
.026 (.022; .030)
M2
.363 (1)
.000
.000
Notizen. * p < .05, ** p < .01, *** p < .001
Tabelle 10.13
Parameterschätzungen der Pfadkoeffizienten in Erhebung 2.1 EU und KI – Kondition HDM
Unabhängige Variablen (UV)
Endogene Variable (AV)
B ( SE)
p
β
Genauigkeit
Input-Legitimität
.028 a (.017)
.097
.043
Wissensgewinn
.028 a (.017)
.097
.040
Individueller Nutzen
.028 a (.017)
.097
.046
Gesellschaftlicher Nutzen
.028 a (.017)
.097
.042
Genauigkeit
Throughput-Legitimität
.031 b (.017)
.074
.041
Wissensgewinn
.031 b (.017)
.074
.038
Individueller Nutzen
.031 b (.017)
.074
.033
Gesellschaftlicher Nutzen
.031 b (.017)
.074
.041
Genauigkeit
Zielerreichung
.016 c (.014)
.257
.024
Wissensgewinn
.016 c (.014)
.257
.023
Individueller Nutzen
.016 c (.014)
.257
.026
Gesellschaftlicher Nutzen
.016 c (.014)
.257
.024
Genauigkeit
Akzeptanz der Entscheidung
.041 d (.019)
.028
.049
Wissensgewinn
.041 d (.019)
.028
.045
Individueller Nutzen
.041 d (.019)
.028
.052
Gesellschaftlicher Nutzen
.041 d (.019)
.028
.048
Notizen. a,b,c,d Werte der Regressionskonstanten mit gleichen Buchstaben wurden mit Gleichheitsrestriktionen der Strukturgewichte spezifiziert und haben daher identische Parameterschätzungen.
In der Kond ADM zeigt sich, dass die BDGS-Dimension des individuellen Nutzens einen mittleren negativen Einfluss (B = ‒.205, SE = .099. p = .038, β = ‒.411) auf die wahrgenommene Legitimität des Inputs hat (siehe Tabelle  10.14). Zudem ergab sich, dass das BDGS insgesamt einen positiven Einfluss auf die wahrgenommene Throughput-Legitimität hat (B = .061, SE = .015. p < .001), der als gering zu bewerten ist (β Genauigkeit = .086; β Wissensgewinn = .080; β Individueller_Nutzen = .092; β Gesellschaftlicher_Nutzen = .085). Darüber hinaus gibt es einen positiven Einfluss des BDGS auf die Zielerreichung (B = .059, SE = .015. p < .001) sowie die Akzeptanz der Entscheidung (B = .048, SE = .018. p = .036). Sowohl für den Einfluss des BDGS auf die ZielerreichungGenauigkeit = .080; β Wissensgewinn = .075; β Individueller_Nutzen = .086; β Gesellschaftlicher_Nutzen = .080) als auch auf die Akzeptanz der EntscheidungGenauigkeit = .054; β Wissensgewinn = .051; β Individueller_Nutzen = .058; β Gesellschaftlicher_Nutzen = .054) ist der Effekt ebenfalls gering.
Hypothese 2.1a wird dahingehend angenommen, als dass sich ein positiver Effekt des BDGS allgemein auf die Throughput-Legitimität für die erwartete Zielerreichung und die Akzeptanz der Entscheidung zeigt. Mit Blick auf die Input-Legitimität ergibt sich jedoch ein anderes Bild. Die individuellen Nutzenerwartungen haben einen negativen Einfluss auf die Input-Legitimität, während die anderen Dimensionen des BDGS keinen Einfluss haben.
Der Einfluss des BDGS im Rahmen der hybriden Entscheidungsfindung
Für die dritte Experimentalgruppe der Kond Hybrid (siehe Tabelle  10.15) zeigen sich signifikante Einflüsse des BDGS auf die wahrgenommene Input-Legitimität (B = .038, SE = .016. p = .016), die Throughput-Legitimität (B = .030, SE = .015. p = .049) sowie auf die Zielerreichung (B = .044, SE = .016. p = .008). Die Stärke der Effekte ist jedoch auch hier durchweg als gering zu bewerten. Es findet sich kein Zusammenhang der BDGS-Dimensionen mit der Akzeptanz der Entscheidung.
Hypothese 2.1b wird daher dahingehend angenommen, als dass ein ausgeprägtes BDGS zu einer höheren Legitimitätswahrnehmung des Inputs, des Throughputs und der Zielerreichung führt. Es zeigt sich lediglich kein Effekt des BDGS auf die Akzeptanz der Entscheidung.
Tabelle 10.14
Parameterschätzungen der Pfadkoeffizienten in Erhebung 2.1 EU und KI – Kondition ADM
Unabhängige Variablen (UV)
Endogene Variable (AV)
B ( SE)
p
β
Genauigkeit
Input-Legitimität
.019 (.069)
.783
.036
Wissensgewinn
‒.058 (.076)
.445
‒.102
Individueller Nutzen
‒.205 (.099)
.038
‒.411
Gesellschaftlicher Nutzen
.202 (.117)
.083
.376
Genauigkeit
Throughput-Legitimität
.061 b (.015)
 < .001.
.086
Wissensgewinn
.061 b (.015)
 < .001.
.080
Individueller Nutzen
.061 b (.015)
 < .001.
.092
Gesellschaftlicher Nutzen
.061 b (.015)
 < .001.
.085
Genauigkeit
Zielerreichung
.059 c (.015)
 < .001.
.080
Wissensgewinn
.059 c (.015)
 < .001.
.075
Individueller Nutzen
.059 c (.015)
 < .001.
.086
Gesellschaftlicher Nutzen
.059 c (.015)
 < .001.
.080
Genauigkeit
Akzeptanz der Entscheidung
.048 d (.018)
.036
.054
Wissensgewinn
.048 d (.018)
.036
.051
Individueller Nutzen
.048 d (.018)
.036
.058
Gesellschaftlicher Nutzen
.048 d (.018)
.036
.054
Notizen. b,c,d Werte der Regressionskonstanten mit gleichen Buchstaben wurden mit Gleichheitsrestriktionen der Strukturgewichte spezifiziert und haben daher identische Parameterschätzungen.
Tabelle 10.15
Parameterschätzungen der Pfadkoeffizienten in Erhebung 2.1 EU und KI – Kondition Hybrid
Unabhängige Variablen (UV)
Endogene Variable (AV)
B (SE)
p
β
Genauigkeit
Input-Legitimität
.038 a (.016)
.016
.057
Wissensgewinn
.038 a (.016)
.016
.053
Individueller Nutzen
.038 a (.016)
.016
.061
Gesellschaftlicher Nutzen
.038 a (.016)
.016
.056
Genauigkeit
Throughput-Legitimität
.030 b (.015)
.049
.034
Wissensgewinn
.030 b (.015)
.049
.032
Individueller Nutzen
.030 b (.015)
.049
.037
Gesellschaftlicher Nutzen
.030 b (.015)
.049
.034
Genauigkeit
Zielerreichung
.044 c (.016)
.008
.027
Wissensgewinn
.044 c (.016)
.008
.025
Individueller Nutzen
.044 c (.016)
.008
.028
Gesellschaftlicher Nutzen
.044 c (.016)
.008
.026
Genauigkeit
Akzeptanz der Entscheidung
.035 d (.019)
.063
.042
Wissensgewinn
.035 d (.019)
.063
.039
Individueller Nutzen
.035 d (.019)
.063
.044
Gesellschaftlicher Nutzen
.035 d (.019)
.063
.041
Notizen. a,b,c,d Werte der Regressionskonstanten mit gleichen Buchstaben wurden mit Gleichheitsrestriktionen der Strukturgewichte spezifiziert und haben daher identische Parameterschätzungen.

10.9.2 Diskussion der Ergebnisse von Erhebung 2.1 EU und KI

Das aufgeworfene Forschungsinteresse in Erhebung 2.1 EU und KI interessierte sich für den Einfluss des BDGS in einem Szenario, in dem mit ADM eine KI-Anwendung am Beispiel des Budgetierungsprozesses der EU zum Einsatz kommt. Es stand zu vermuten, dass an Daten gerichtete Erwartungen als Bestandteile des BDGS einen Einfluss auf die wahrgenommene Legitimität von Verfahren haben, bei denen im Rahmen datengestützter evidenzbasierter Politikgestaltung auf KI-Anwendungen zurückgegriffen wird und der menschliche Einfluss auf die Entscheidungsfindung ausgeklammert bzw. eingeschränkt ist.
Die Ergebnisse der experimentellen Befragungsstudie zeigen dann für den Fall eines vollständig automatisierten Budgetierungsprozesses der EU auch, dass je ausgeprägter die Überzeugungen des Erkenntnis- und Nutzengewinns auf Grundlage digitaler Daten, desto höher die Legitimitätswahrnehmung des Throughputs sowie der beiden Output-Dimensionen, wobei sowohl die Erwartung der Zielerreichung höher ausfiel als auch die Akzeptanz der Entscheidung. Es zeigte sich jedoch auch, dass eine stärkere Wahrnehmung eines individuellen Nutzens der Datensammlung und -verwertung sich entgegen der Hypothese negativ auf die wahrgenommene Legitimität des Inputs auswirkte und die übrigen BDGS-Dimensionen hier keinen Einfluss hatten.
In diesem Szenario gingen explizit alle in der EU verfügbaren Datenbestände in die Analyse ein, was eine Bevorzugung oder Benachteiligung durch selektive Auswahl der Informationen verhinderte und eine Teilnahme aller Bürger*innen vermittelt durch ihre jeweiligen Daten ermöglichte. Hier hätte ein Effekt der gesellschaftlichen Nutzenerwartungen, der sich zwar zeigte, jedoch nicht signifikant war, darauf hingedeutet, dass in Hinsicht auf das vorgeworfene Demokratiedefizit der EU eine alle Bürger*innen umfassende Datenverwertung womöglich als durchaus demokratisch wahrgenommen hätte werden können. So zeigt sich jedoch mit Blick auf die Input-Legitimität, dass Personen, die ganz allgemein auf sich selbst bezogene Vorteile erwarten, dieses soeben als womöglich demokratische bezeichnete Prozedere als weniger legitim wahrnehmen, womöglich durch den fehlenden eigenen Einfluss im Entscheidungsprozess, auf den die Messung abstellt. Eventuell ist hier die wahrgenommene Selbstwirksamkeit so niedrig (Caprara et al., 2009), dass man zwar glaubt, dass man von Daten profitiert, jedoch im politischen Prozess die eigene Einzelmeinung nicht viel Wert ist, wenn große Datensätze zusammenkommen. Um diesen Zusammenhang jedoch weiter zu beleuchten, bräuchte es zusätzliche Informationen zu den Befragten, wie etwa Informationen über deren Selbsteinschätzung und politische Überzeugungen, die im Rahmen der Befragung jedoch nicht erhoben wurden.
In der hybriden Kondition, in der Politiktreibende basierend auf der Vorbereitung durch eine KI-Anwendung noch einen Einfluss auf den Budgetierungsprozess nehmen konnten, lässt sich im direkten Vergleich ein ebenfalls vorhandener, wenn auch geringerer Einfluss des BDGS auf die wahrgenommene Legitimität feststellen. Auch hier wurde im Rahmen der Einführung einer KI-Anwendung im Budgetierungsprozess erwartet, dass die Ausprägung des BDGS durchaus Erklärungskraft für die Legitimitätswahrnehmung hat. Es zeigt sich hier, dass je ausgeprägter das BDGS ausfällt, desto höher ist sowohl die wahrgenommene Input- und Throughput-Legitimität als auch die eingeschätzte Zielerreichung. Lediglich für die Akzeptanz der Entscheidung sind die Effekte zu gering, als dass ein Einfluss angenommen werden kann.
Dies sind durchaus relevante Befunde zur Bewertung des menschlichen Korrektivs im Rahmen der Akzeptanz von automatisierter Entscheidungsfindung durch KI, die vor dem Hintergrund der Diskussionen um korrigierende menschliche Eingriffe in Daten und Algorithmen zu bewerten sind (Dietvorst et al., 2018; Goldenfein, 2019). Soll die Fehlbarkeit der KI-Anwendungen durch eine Letztentscheidungsbefugnis von Menschen abgefedert oder gänzlich vermieden werden, führt dies hier in den Augen von Personen mit ausgeprägten Überzeugungen des BDGS nur zu einer zu leicht verringerten Legitimitätswahrnehmung im Vergleich mit der vollständig automatisierten Kondition.
Dass im Szenario des Status quo das BDGS dann doch ausgerechnet einen Einfluss auf die Akzeptanz der Entscheidung hat, verwundert und sollte im Rahmen weiterführender Untersuchungen geprüft werden. Mögliche Einflüsse und Wechselwirkungen mit anderen Eigenschaften der Person wie etwa soziodemografischer Variablen oder anderweitiger Einstellungen sind jedoch mit dem vorliegenden Design und der Stichprobengröße nicht realisierbar.
Die Ergebnisse haben auch verdeutlicht, dass im vorliegenden Erklärungszusammenhang das BDGS meist gesamt genommen einen Einfluss zeitigte und nicht zwischen dem Einfluss einzelner Dimensionen unterschieden werden konnte. Das führt zu der Erkenntnis, dass je nach Forschungszusammenhang gut überlegt und geplant werden sollte, wie die Messung des BDGS in die Erhebung und Analyse eingeht. Im vorliegenden Fall wäre es bspw. aus forschungsökonomischen Gründen möglicherweise ausreichend gewesen, eine besonders relevante Dimension zu identifizieren oder es könnte generell angedacht werden, für ähnlich gelagerte Studien eine Kurzskala mit den als wichtig befundenen Referenzindikatoren zu bilden. Da der Einsatz der BDGS-Skala jedoch noch weitgehend unerprobt war und in den vorliegenden Studien teils explorative Forschungsfragen und Erkenntnisinteressen formuliert wurden, bei denen durchaus individuelle Effekte der Dimensionen zu erwarten waren, ging weiterhin die vierdimensionale BDGS-Skala in die Untersuchungen mit ein.
Alles in allem lässt sich abschließend feststellen, dass der Einfluss des BDGS im Rahmen der aufwändigen Untersuchungsanlage verhältnismäßig gering ist und die Reichweite der Befunde auf den ersten Blick insgesamt eher ernüchternd wirkt. Möglicherweise waren die vorgestellten hypothetischen Szenarien zu abstrakt und aktuell nicht relevant und realistisch für die Befragten, als dass sich große Unterschiede in der Bewertung der Kondition zwischen Personen mit unterschiedlich ausgeprägtem BDGS manifestieren. Auch die Unterscheidung zwischen einzelnen BDGS-Dimensionen war insgesamt zu voraussetzungsvoll und weitreichend, als dass sie in der vorliegenden Untersuchung mit der vorhandenen Samplegröße realisiert werden konnte. Dennoch zeigten sich etliche vermutete Einflüsse des BDGS. Auch kleine Effekte können dabei im Rahmen politischer Fragen weitreichende Folgen haben. So können schon geringe Unterschiede und schwache Effekte bspw. im Rahmen knapper Wahlabstimmungen in politischen Fragen entscheidend sein und Einfluss auf die Gesellschaft haben.

10.10 Ergebnisse der Erhebung 2.2 KI-Bedrohung

10.10.1 Datenauswertung und Ergebnisse

Zur Hypothesenprüfung wurde ein Strukturregressionsmodell in AMOS 23 spezifiziert und geprüft, bei dem die vier BDGS-Dimensionen einen Einfluss auf die beiden Dimensionen Entscheidungsempfehlung und Entscheidung der Bedrohungswahrnehmung von KI in den drei Anwendungsbereichen Medizin, Personalwesen und Bankensektor haben (siehe Abbildung  10.2).
Für die Dimensionen des BDGS sowie für die beiden Dimensionen der KI-Bedrohungswahrnehmung wurden im vorliegenden Modell Gleichheitsrestriktionen für die Regressionsgewichte und -konstanten festgelegt, so dass die Kovarianzen und Pfadkoeffizienten sowie die Mittelwerte der latenten Faktoren freigesetzt waren. 21 Zum einen werden so die Pfadkoeffizienten geschätzt und die vermuteten Zusammenhänge zwischen BDGS und der Bedrohungswahrnehmung geprüft werden. Zum anderen erlaubt dies einen Vergleich der wahrgenommenen Bedrohung zwischen den beiden KI-Funktionen sowie zwischen den Funktionen über die drei Anwendungsbereiche hinweg.
Das spezifizierte Modell zeigt mit Blick auf den strengen Chi-Quadrat-Test eine unzureichende Anpassungsgüte (Χ 2(412) = 571.620, p < .001; RMSEA = .021 [.017, .025]; TLI = .985), während die inkrementellen Fit-Maße eine ausreichende Passung des Modells indizieren. Auch hier ist die gemeinsam geteilte Varianz als größtenteils unsystematisch einzuschätzen und auf die hohe Fallzahl zurückzuführen. Hinweise auf systematisch zustande kommende Varianzteilung zeigen sich mit Blick auf Indikatoren einer Dimension, die jenseits der gemeinsamen Dimensionszugehörigkeit eine gemeinsam geteilte Varianz haben, die sich womöglich auch hier aus der ähnlichen Indikatorformulierung ergibt (siehe Abschnitt  9.​1.​3) und somit als kleiner und vernachlässigbarer Befragungseffekt gewertet wird.
Auch an dieser Stelle wurden nun aufgrund des Problems der hohen Multi-Kollinearität der BDGS-Faktoren weitere Modelle mit Gleichheitsrestriktionen für die Strukturgewichte der BDGS-Dimensionen auf die abhängigen Variablen geprüft. Durch diese Prüfung mittels Gleichheitsrestriktionen wird verdeutlicht, inwieweit die einzelnen Dimensionen gleiche oder ungleiche Effekte auf die abhängigen Variablen haben. Da das Modell eine große Anzahl Pfade beinhaltete und diese zusätzlich für die drei Szenarien geprüft werden mussten, kann an dieser Stelle nicht jeder Respezifikationsschritt einzeln dokumentiert werden. Es wird daher lediglich das zuvor geschätzte Modell 1 ohne Restriktionen mit einem Modell 2 mit vollständigen Gleichheitsrestriktionen verglichen sowie mit einem Modell 3 mit partiellen Restriktionen. Modell 3 wurde dahingehend respezifiert, als dass deutlich wird, welche latenten Faktoren im Rahmen der Multi-Kollinearität die gleiche Erklärungskraft haben. Der Vergleich der Modelle mit Hilfe eines Chi-Quadrat-Differenztests zeigt, dass das Modell 2 mit vollständigen Gleichheitsrestriktionen keine signifikant schlechtere Anpassungsgüte gegenüber dem Modell 1 mit freigesetzten Regressionsgewichten hat (ΔΧ 2 = 27.503, df = 18, p = .070). Es zeigte sich mit Blick auf die Effekte im Modell 1, dass sich teilweise unterschiedliche Einflüsse der BDGS-Dimensionen finden. Das Modell 2 wurde entsprechend respezifiziert und auf Grundlage der Erkenntnisse aus Modell 1 wurden einige restringierte Regressionsparameter wieder freigegeben. Dies wird in den nachfolgenden Tabellen mit den Parameterschätzungen durch einen gemeinsam geteilten Buchstaben indiziert. Der Vergleich der Modelle zeigt (siehe Tabelle  10.16), dass das Modell 2 eine signifikant schlechtere Anpassungsgüte gegenüber dem Modell 3 hat (ΔΧ 2 = 22.205, df = 6, p = .001). Modell 3 hat jedoch keine signifikant schlechtere Anpassungsgüte als Modell 1 (ΔΧ 2 = 5.297, df = 12, p = .947). Modell 3 wird daher der Vorzug gegeben.
Tabelle 10.16
Modellvergleich zur Prüfung der Gleichheit der Strukturgewichte in Erhebung 2.2 KI-Bedrohung
Modell
Χ 2
df
p
TLI
RMSEA
Vergleich mit
ΔΧ 2 (Δdf)
ΔTLI
ΔRMSEA
1 – Ohne Gleichheitsrestriktionen
der Strukturgewichte der BDGS-Dimensionen
571.620
412
 < .001
.985
.021 (.017; .025)
2 – Vollständige Gleichheitsrestriktionen
der Strukturgewichte der BDGS-Dimensionen
599.123
430
 < .001
.985
.021 (.017; .025)
M1
27.053 (18)
.000
.000
3 – Partielle Gleichheitsrestriktionen
der Strukturgewichte der BDGS-Dimensionen
576.917
424
 < .001
.986
.020 (.016; .024)
M2
22.205** (6)
.001
.001
Notizen. * p < .05, ** p < .01, *** p < .001
Der Einfluss des BDGS auf die Bedrohungswahrnehmung der Funktionen von KI bei der Behandlung von Krankheiten
Zunächst wird der Einfluss des BDGS im Anwendungsbereich der Medizin im Rahmen der Erkennung und Behandlung von Krankheiten in den Blick genommen. Wie in Tabelle  10.17 ersichtlich wird, ist der Einfluss des BDGS als gering zu bewerten.
Der Glaube an die Genauigkeit von digitalen Daten hat einen negativen Einfluss auf die Ausprägung der Bedrohungswahrnehmung von ADM im Kontext medizinischer Behandlungsentscheidungen. Je stärker der Glaube daran, dass digitale Daten ein objektives und exaktes Verständnis der Wirklichkeit ermöglichen, desto geringer sowohl die Bedrohungswahrnehmung einer KI-Anwendung, die eine Behandlung empfiehlt (β Genauigkeit = ‒.199) als auch automatisiert eine Entscheidung über die konkrete Behandlung einer Krankheit trifft (β Genauigkeit = ‒.199). Während die Genauigkeit auf die Empfehlung einen geringen Einfluss hat, haben die drei anderen Dimensionen einen noch kleineren Einfluss (β Wissensgewinn = ‒.058; β Individueller_Nutzen = ‒.080; β Gesellschaftlicher_Nutzen = ‒.069). Bei der Entscheidung über eine Behandlung findet sich auch bei den Nutzen-Dimensionen ein geringer negativer Einfluss auf die Bedrohungswahrnehmung des ADMIndividueller_Nutzen = ‒.199; β Gesellschaftlicher_Nutzen = ‒.172). Die Dimension des Wissensgewinns hat hier keinen signifikanten Einfluss. Der Blick auf die Squared Multiple Correlations (SMC) offenbart einen Erklärungsanteil der BDGS-Dimensionen an den beiden Funktionen: Interpretiert wie das Bestimmtheitsmaß R 2 bei der linearen Regression 22 werden 13.3 % der Varianz der Empfehlung (SMC Empfehlung_Medizin = .133) und 17.4 % der Varianz der ADM (SMC ADM_Medizin = .174) durch die Dimensionen des BDGS erklärt.
Tabelle 10.17
Parameterschätzungen der Pfadkoeffizienten in Erhebung 2.2a KI-Bedrohung – Anwendungsbereich Medizin
Exogene Variablen (UV)
Endogene Variable (AV)
B ( SE)
p
β
Genauigkeit
Empfehlung einer Behandlung
‒.117 (.055)
.034
‒.199
Wissensgewinn
‒.047 a (.023)
.043
‒.058
Individueller Nutzen
‒.047 a (.023)
.043
‒.080
Gesellschaftlicher Nutzen
‒.047 a (.023)
.043
‒.069
Genauigkeit
Entscheidung über eine Behandlung (ADM)
‒.124 b (.023)
 < .001
‒.199
Wissensgewinn
.131 (.087)
.130
.152
Individueller Nutzen
‒.124 b (.023)
 < .001
‒.199
Gesellschaftlicher Nutzen
‒.124 b (.023)
 < .001
‒.172
Notizen. a,b Werte der Regressionskonstanten mit gleichen Buchstaben wurden mit Gleichheitsrestriktionen der Strukturgewichte spezifiziert und haben daher identische Parameterschätzungen.
Der Einfluss des BDGS auf die Bedrohungswahrnehmung der Funktionen von KI bei der Eignungsfeststellung und Einstellung von Bewerber*innen auf einen Arbeitsplatz
Als Nächstes wird der Einfluss des BDGS im Anwendungsbereich des Personalwesens bei der Eignungsfeststellung und Einstellung von Bewerber*innen auf einen Arbeitsplatz in den Blick genommen. Wie in Tabelle  10.18 ersichtlich wird, ist der Einfluss des BDGS auch hier als gering zu bewerten und zeigt hinsichtlich der Dimensionen ein differenzierteres Bild.
Der Glaube an den gesellschaftlichen Nutzen der Verwertung digitaler Datenbestände sowie der erwartete Wissensgewinn haben einen negativen Einfluss auf die Ausprägung der Bedrohungswahrnehmung der ausgesprochenen KI-Empfehlungen bei der Bewerbung auf einen Arbeitsplatz. Je stärker der Glaube daran, dass digitale Daten Wissen bereitstellen (β Wissensgewinn = ‒.238) sowie der Gesellschaft einen Nutzen bringen (β Gesellschaftlicher_Nutzen = ‒.251), desto geringer die Bedrohungswahrnehmung einer KI-Anwendung, die eine Empfehlung über die Einstellung von Bewerber*innen auf einen Arbeitsplatz ausspricht. Die Dimensionen der Genauigkeit und des individuellen Nutzens haben hingegen keinen signifikanten Einfluss.
Im Rahmen der Bedrohungswahrnehmung einer automatisierten Entscheidung zeigt sich, dass die Dimensionen WissensgewinnWissensgewinn = .208) und der erwartete individuelle Nutzen (β Individueller_Nutzen = .253) einen steigernden Einfluss haben. Je höher jedoch der erwartete Nutzen für die Gesellschaft, desto deutlich geringer die BedrohungswahrnehmungGesellschaftlicher_Nutzen = ‒.484). Die Genauigkeit hat keinen signifikanten Einfluss. Auch der Blick auf die SMC offenbart einen geringen Erklärungsanteil der BDGS-Dimensionen an den beiden Funktionen: Es werden 12.5 % der Varianz der Empfehlung (SMC Empfehlung_Personalwesen = .125) und 7.4 % der Varianz der ADM (SMC ADM_Personalwesen = .074) durch die Dimensionen des BDGS erklärt.
Tabelle 10.18
Parameterschätzungen der Pfadkoeffizienten in Erhebung 2.2b KI-Bedrohung – Anwendungsbereich Personalwesen
Exogene Variablen (UV)
Endogene Variable (AV)
B ( SE)
p
β
Genauigkeit
Empfehlung einer Personaleinstellung
‒.002 (.072)
.983
‒.002
Wissensgewinn
‒.177 a (.053)
 < .001
‒.238
Individueller Nutzen
.084 (.067)
.210
.137
Gesellschaftlicher Nutzen
‒.177 a (.053)
 < .001
‒.251
Genauigkeit
Entscheidung über eine Personaleinstellung (ADM)
‒.071 (.055)
.194
‒.138
Wissensgewinn
.118 b (.047)
.013
.208
Individueller Nutzen
.118 b (.047)
.013
.253
Gesellschaftlicher Nutzen
‒.260 (083)
.002
‒.484
Notizen. a,b Werte der Regressionskonstanten mit gleichen Buchstaben wurden mit Gleichheitsrestriktionen der Strukturgewichte spezifiziert und haben daher identische Parameterschätzungen.
Tabelle 10.19
Parameterschätzungen der Pfadkoeffizienten in Erhebung 2.2c KI-Bedrohung – Anwendungsbereich Bankensektor
Exogene Variablen (UV)
Endogene Variable (AV)
B ( SE)
p
β
Genauigkeit
Empfehlung einer Kreditvergabe
‒.086 a (.012)
 < .001
‒.119
Wissensgewinn
‒.086 a (.012)
 < .001
‒.108
Individueller Nutzen
‒.086 a (.012)
 < .001
‒.129
Gesellschaftlicher Nutzen
‒.086 a (.012)
 < .001
‒.109
Genauigkeit
Entscheidung über eine Kreditvergabe (ADM)
‒.066 b (.011)
 < .001
‒.101
Wissensgewinn
‒.066 b (.011)
 < .001
‒.091
Individueller Nutzen
‒.066 b (.011)
 < .001
‒.109
Gesellschaftlicher Nutzen
‒.066 b (.011)
 < .001
‒.092
Notizen. a,b Werte der Regressionskonstanten mit gleichen Buchstaben wurden mit Gleichheitsrestriktionen der Strukturgewichte spezifiziert und haben daher identische Parameterschätzungen.
Der Einfluss des BDGS auf die Bedrohungswahrnehmung der Funktionen von KI bei der Kreditvergabe im Bankensektor
Zuletzt wird der Einfluss des BDGS im Anwendungsbereich der Kreditvergabe im Bankensektor adressiert. Wie in Tabelle  10.19 ersichtlich ist der Einfluss des BDGS auch hier als gering zu bewerten, zeigt jedoch ein recht einheitliches Bild.
Für das Szenario der Kreditvergabe zeigt sich, dass die Dimensionen des BDGS einen kleinen negativen Einfluss auf die Ausprägung der Bedrohungswahrnehmung von EmpfehlungenGenauigkeit = ‒.119; β Wissensgewinn = ‒.108; β Individueller_Nutzen = ‒.129; β Gesellschaftlicher_Nutzen = ‒.109) und ADM durch KI-Anwendungen (β Genauigkeit = ‒.101; β Wissensgewinn = ‒.091; β Individueller_Nutzen = ‒.109; β Gesellschaftlicher_Nutzen = ‒.092) haben. Dabei offenbart der Blick auf die SMC, ähnlich wie im medizinischen Kontext zuvor, durchaus einen geringen Erklärungsanteil der BDGS-Dimensionen an den beiden Funktionen: Es werden 16.9 % der Varianz der Empfehlung (SMC Empfehlung_Bankensektor = .169) und 12 % der Varianz der ADM (SMC ADM_Bankensektor = .120) durch die Dimensionen des BDGS erklärt.
Die Hypothese 2.2 wird dahingehend angenommen, als dass das BDGS bzw. einzelne Dimensionen einen negativen Einfluss auf die Bedrohungswahrnehmung von KI-Anwendungen haben. Allerdings zeigt sich auch, dass es in Abhängigkeit vom Anwendungsszenario und der Funktion der KI mitunter zu abweichenden mitunter sogar gegenläufigen Effekten kommen kann.

10.10.2 Diskussion der Ergebnisse von Erhebung 2.2 KI-Bedrohung

Es zeigt sich, dass das BDGS bzw. einzelne zugehörige Dimensionen zwar durchaus dazu beitragen können die Varianz der Bedrohungswahrnehmung durch KI in unterschiedlichen Anwendungsbereichen zu erklären. Die Einflüsse des BDGS im Allgemeinen und der einzelnen Dimensionen im Speziellen zeichnen ein uneinheitliches Bild. Dabei muss jedoch berücksichtigt werden, dass auch in der vorliegenden Studie die bereits im Abschnitt  10.2 genannten Limitationen bezüglich der Stichprobengröße und somit der statistischen Power in den vorliegenden Forschungszusammenhängen gelten: Das eigentliche Ziel der Studie war die Skalenkonstruktion der Bedrohungswahrnehmung von KI, es gab keine konkreten Annahmen bezüglich der Stärke der Zusammenhänge und ausführliche Simulationen zur Powerberechnung konnten nicht durchgeführt werden. Letztendlich indizieren die Daten, dass eine hohe Ausprägung der jeweiligen BDGS-Dimensionen im Zusammenhang der Anwendungen zwar eine mindernde Wirkung auf das wahrgenommene Bedrohungspotential aufweisen, diese jedoch je nach Kontext variiert und unterschiedlich stark ausfällt. Einzelne Dimensionen indizieren zudem gegenläufige Effekte, was ebenfalls diskutiert werden muss.
So zeigt sich bspw. für den Anwendungsfall der medizinischen Behandlung, dass die Dimensionen des BDGS einen mindernden Einfluss auf die Bedrohungswahrnehmung einer KI hat, die auf Datengrundlage eigenständige Empfehlungen ausspricht oder Entscheidungen trifft. Ist das BDGS ganz allgemein hoch ausgeprägt und wird den Daten im Speziellen noch hohe Objektivität und Präzision zugeschrieben, vermindert dies die Bedrohungswahrnehmung von KI-Anwendungen, die medizinische Behandlungen empfehlen. Wird automatisiert über eine Behandlung entschieden, zeigt sich, dass Personen mit ausgeprägtem BDGS hierbei weniger Bedrohung empfinden und dem Verfahren folglich positiver gegenüber eingestellt sind. Nur die Dimension des Wissensgewinns stellt hier eine Ausnahme da, wobei nur spekuliert werden könnte, warum sich bei dieser kein signifikanter Effekt zeigt. Der Einsatz von KI-Anwendungen bei der medizinischen Behandlung wird mithin von Personen mit ausgeprägtem BDGS weniger kritisch betrachtet.
Auch im Rahmen der Eignungsfeststellung und Einstellung von Bewerber*innen auf einen Arbeitsplatz zeigt sich mit Blick auf die Empfehlung, dass Personen mit hohen Erwartungen an den Wissensgewinn und den gesellschaftlichen Nutzen weniger Bedrohung empfinden. Hier schlagen die vermeintlichen Vorteile des datenbasierten Verfahrens im Rahmen einer Bestenauswahl durch: Dass in den Daten erkannt werden kann, wer sich für einen Arbeitsplatz eignet, und dass dieses Verfahren für die Gesellschaft insgesamt zu Vorteilen führt, wenn tatsächlich die geeignetste Person für diesen Arbeitsplatz identifiziert wird. Profitiert aus der Sicht der Befragten die Gesellschaft von der Datensammlung und -verwertung, wird auch die automatisierte Auswahl der geeignetsten Person durchaus begrüßt. Auf der anderen Seite sehen Personen, die sich vor allem individuelle Vorteile versprechen sowie den Wissensgewinn erwarten, diese automatisierte Auswahl kritisch. Über die Gründe hierfür kann jedoch an dieser Stelle nur spekuliert werden. Womöglich zeigt sich hier die Befürchtung, in einem Verfahren ohne menschliches Korrektiv dann doch persönliche Nachteile zu erfahren. Auch hier ist als Desiderat die Frage nach dem Einfluss der wahrgenommenen und gewünschten Entscheidungshoheit zwischen Mensch und Maschine in der Evaluation neuer KI-Anwendungen festzustellen.
Geht es um die Kreditvergabe, zeigt sich, dass das BDGS allgemein bei zunehmender Ausprägung die Bedrohungswahrnehmung bei der Empfehlung und automatisierter Kreditvergabe mindert. Hier wird der Einsatz von datenbasierten KI-Anwendungen von den Befragten, die eine positive Erwartungshaltung gegenüber Datensammlung und -verwertung haben, entsprechend weniger kritisch gesehen. Die vermeintlichen Vorteile der automatisierten Kreditvergabe werden von diesen Personen also eher erwartet.
Mit Blick auf die eher kleinen Effektstärken des Einflusses des BDGS und seiner Dimensionen überwiegen anscheinend jedoch andere Gründe, die dazu führen, KI-Anwendungen in den einzelnen Kontexten als eine Bedrohung zu empfinden. Hierzu mag beitragen, dass die gewählten Anwendungsbereiche für einen Teil der Befragten womöglich keine Relevanz besitzen – und dahingehend unabhängig von den Glaubenssätzen mit Bezug zu digitalen Daten sind. Wer keinen Kredit benötigt oder bereits im Rentenalter ist, der hat durch die KI-Anwendungen nichts zu befürchten. Oder aber die Konsequenzen sind bei einigen Befragten so weitreichend, dass die Reichweite der individuellen Konsequenzen hinter die allgemeinen Einstellungen des BDGS im vorliegenden Fall zurücktritt. In beiden Fällen wäre es notwendig, die individuelle Betroffenheit der Befragten zu kontrollieren, wobei keine Angaben zur persönlichen Betroffenheit erhoben wurden. Hier sei auch auf den speziellen Einfluss der Fairness-Wahrnehmung abgestellt, der womöglich einen zusätzlichen moderierenden Einfluss darstellt (Marcinkowski & Starke, 2019): Ein Verfahren muss nicht nur datenbasiert ablaufen, sondern dies muss auch dazu führen, dass die KI-Anwendung als vermeintlich fairer wahrgenommen wird, was in zukünftigen Studien mithin geprüft werden sollte.

10.11 Ergebnisse der Erhebung 2.3 Krankenversicherung

Die Hypothesen wurden mit Hilfe eines Strukturregressionsmodells in AMOS 23 geprüft. Genauer wurde aufgrund der wiederholten Durchführung des Befragungsexperiments in den beiden Teilstudien eine MGKA durchgeführt. Dabei wurden die Manipulationen der Experimentalkonditionen sowie deren Interaktion als manifeste unabhängige Variablen (dummy-codiert) 23 sowie die vier Messmodelle der BDGS-Dimensionen Genauigkeit, Wissensgewinn sowie individueller Nutzen und gesellschaftlicher Nutzen als latente unabhängige Variablen modelliert (siehe Abbildung  10.3). Die UV haben im Modell als exogene Variablen einen direkten Einfluss auf die manifeste abhängige Variable der Wechselbereitschaft, die als einzige endogene Variable modelliert ist.

10.11.1 Datenauswertung und Ergebnisse

Prüfung der Messäquivalenz
Bevor die Prüfung der Hypothesen durchgeführt werden kann, sollte zunächst die Messinvarianz des Gesamtmodells überprüft werden, also inwieweit sich die Beziehungsstruktur des Modells für die beiden Stichproben in Erhebung 2.3a Krankenversicherung und Erhebung 2.3b Krankenversicherung unterscheidet (van de Schoot et al., 2012; Weiber & Mühlhaus, 2014). Zum einen ist wichtig zu prüfen, ob die Messung der latenten Konstrukte des BDGS in beiden Stichproben messäquivalent ist. Nur bei Messäquivalenz kann davon ausgegangen werden, dass die latenten Faktoren das gleich Konstrukt messen und sinnvoll miteinander verglichen werden können (Widaman & Reise, 1997). Zum anderen kann mit Blick auf die Äquivalenzprüfung der Regressionsgewichte getestet werden, ob die Kausalzusammenhänge des Modells in beiden Stichproben identisch sind. 24 Es gibt keine Annahme, die besagt, dass es hier bedingt durch die Stichprobenzusammensetzung (Studierende in Erhebung 2.3a Krankenversicherung und in Erhebung 2.3b Krankenversicherung ein heterogenes Sample deutscher Internetnutzer) zu Unterschieden kommen sollte, weshalb im Umkehrschluss geprüft wird, ob die vermutete Beziehungsstruktur in beiden Stichproben äquivalent ist. Geprüft wird also zunächst die konfigurale Messinvarianz und anschließend die metrische Messinvarianz für die Parameterschätzungen der Regressionsgewichte der latenten Faktoren des BDGS. Für gewöhnlich ist an dieser Stelle dann zunächst noch die skalare Invarianz zu prüfen, also die Invarianz der Regressionskonstanten. Da im vorliegenden Modell jedoch keine Mittelwerte und Achsenabschnitte berechnet wurden, entfällt dieser Prüfschritt auf starke faktorielle Messinvarianz hier. Des Weiteren lässt sich dann noch die Invarianz der Kovarianzen der unabhängigen Variablen prüfen sowie die Invarianz der Messfehler. Letztendlich wird die Gleichheit der Pfadkoeffizienten des Strukturmodells geprüft, also, ob die modellierten Zusammenhänge zwischen den UV und den AV in beiden Stichproben identisch sind.
Die zu prüfenden Modelle wurden gemäß der Konfiguration in Abbildung  10.3 spezifiziert und mit den entsprechenden Gleichheitsrestriktionen für die jeweilige Stufe der Messinvarianz versehen (Weiber & Mühlhaus, 2014). Der Modellvergleich der geschätzten Modelle in Tabelle  10.20 zeigt, dass lediglich die Voraussetzung der Messfehlervarianz (strikte faktorielle Messinvarianz) nicht erfüllt ist, jedoch davon ausgegangen werden kann, dass konfigurale Invarianz sowie die Invarianz der Regressionsgewichte und Kovarianzen gegeben ist. Der Modellvergleich auf Grundlage eines Chi-Quadrat-Differenztests zwischen dem unrestringierten Modell M1 und dem Modell M5 mit lediglich freigegebenen Messfehlervarianzen zeigt dann auch, dass die Restriktionen nicht signifikant zu einer Verschlechterung der Anpassungsgüte führen (ΔΧ 2 = 32.983, Δdf = 39, p = .740).
Daher wird mit Blick auf die nachfolgende Prüfung der Hypothesen das Modell diskutiert, bei dem lediglich die Messfehler freigegeben sind, alle anderen Parameterschätzer jedoch restringiert sind. Die Annahmen des Modells sind also bis auf die frei variierenden Messfehler für beide Stichproben gleich.
Tabelle 10.20
Modellvergleich zur Prüfung der Modelläquivalenz in den Erhebungen 2.3a und 2.3b Krankenversicherung
Modell
Χ 2
df
p
TLI
RMSEA
Vergleich mit
ΔΧ 2 (Δdf)
ΔTLI
ΔRMSEA
M1: Unrestringiertes Modell
(konfigurale Messinvarianz)
205.054
160
.009
.987
.022 (.011; .030)
       
M2: Invarianz der Regressionsgewichte
der latenten Faktoren
215.592
168
.008
.986
.022 (.012; .030)
M1
10.537 (8)
.001
.000
M3: Invarianz der Kovarianzen
232.752
189
.017
.989
.020 (.009; .028)
M2
17.161 (21)
.003
.002
M4: Messfehlerinvarianz
273.322
202
.001
.983
.024 (.016; .031)
M3
40.569*** (13)
.006
.004
M5: Invarianz der Pfadkoeffizienten
238.038
199
.030
.991
.018 (.006; .026)
M3
5.285 (10)
.002
.002
Notizen. * p < .05, ** p < .01, *** p < .001
Prüfung der Hypothesen
Das geschätzte Modell der MGKA mit der Invarianz der Pfadkoeffizienten (Modell 5) zeigt eine zufriedenstellende Anpassungsgüte (siehe Tabelle  10.20). An dieser Stelle wurde nun aufgrund des Problems der hohen Multi-Kollinearität der BDGS-Faktoren ein weiteres Modell mit Gleichheitsrestriktionen geprüft, bei denen die Strukturgewichte der vier Dimensionen auf die Wechselbereitschaft identisch waren (Modell 6). Durch die Prüfung mittels Gleichheitsrestriktionen wird verdeutlicht, inwieweit die einzelnen Dimensionen gleiche oder ungleiche Effekte auf die abhängigen Variablen haben. Der Vergleich der Modelle mit Hilfe eines Chi-Quadrat-Differenztests zeigt, dass das Modell 6 mit diesen Gleichheitsrestriktionen keine signifikant schlechtere Anpassungsgüte gegenüber dem Modell 5 mit freigesetzten Strukturgewichten hat (ΔΧ 2 = 2.138, df = 3, p = .544) und dem Modell 6 daher der Vorzug gegeben wird (M6: Χ 2(199) = 238.038, p = .030; RMSEA = .018 [.006, .026]; TLI = .992). Die Parameterschätzungen der Pfadkoeffizienten im Modell 2 finden sich in Tabelle  10.21.
Tabelle 10.21
Parameterschätzungen der Pfadkoeffizienten des BDGS auf die Wechselbereitschaft in den Erhebungen 2.3a und 2.3b Krankenversicherung
Exogene Variablen (UV)
B ( SE) a
p
ß
 
Erhebung 2.3a
Laboruntersuchung
Erhebung 2.3b
Online-Befragung
Individueller Profit (M1)
.270 (.102)
.008
.129
.156
Notwendigkeit der Datenabgabe (M2)
‒.256 (.102)
.012
‒.123
‒.147
Interaktion Manipulationen (M1*M2)
‒.019 (.144)
.893
‒.008
‒.009
Genauigkeit
.039 (.009) a
 < .001
.049
.056
Wissensgewinn
.039 (.009) a
 < .001
.035
.048
Individueller Nutzen
.039 (.009) a
 < .001
.048
.060
Gesellschaftlicher Nutzen
.039 (.009) a
 < .001
.041
.053
Notizen. Abhängige Variable (endogene Variable im Modell): Wechselbereitschaft; a identische Werte für beide Stichproben aufgrund von Gleichheitsrestriktionen der geschätzten Parameter.
Der Einfluss der Manipulationen auf die Wechselbereitschaft
Der individuelle Profit hat einen signifikant positiven Einfluss auf die Wechselbereitschaft in die digitale individualisierte Krankenversicherung. Sowohl in Erhebung 2.3a. (β = .129) als auch in Erhebung 2.3b. (β = .156) zeigt sich dies als kleiner positiver Effekt. Mit steigendem Profit erhöht sich auch die Wechselbereitschaft. Die Notwendigkeit der persönlichen Datenpreisgabe hingegen hat einen signifikant negativen Einfluss auf die Wechselbereitschaft. Sowohl in Erhebung 2.3a (β = ‒.123) als auch in Erhebung 2.3b (β = ‒.147) zeigt sich dies als kleiner negativer Effekt. Müssen Daten preisgegeben werden, fällt die Wechselbereitschaft geringer aus, als wenn keine Daten mit der Versicherung geteilt werden müssen.
Der Einfluss der Dimensionen des BDGS auf die Wechselbereitschaft
Das BDGS, abgebildet über die vier Dimensionen GenauigkeitErhebung 2.3a = .049; β Erhebung 2.3b = .056), WissensgewinnErhebung 2.3a = .035; β Erhebung 2.3b = .048) sowie individueller NutzenErhebung 2.3a = .048; β Erhebung 2.3b = .060) und gesellschaftlicher NutzenErhebung 2.3a = .041; β Erhebung 2.3b = .053), zeigt einen signifikant kleinen positiven Effekt auf die Wechselbereitschaft. Allerdings bestehen mit Blick auf die Gleichheitsrestriktionen im Modell keine Unterschiede des Einflusses auf die Wechselbereitschaft zwischen den Dimensionen. Hypothese 2.3 wird folglich angenommen.

10.11.2 Diskussion der Ergebnisse von Erhebung 2.3 Krankenversicherung

Die Ergebnisse der experimentellen Untersuchungsanlage zeigen zunächst, dass es bei der Entscheidung über den Wechsel in einen auf digitaler Datengrundlage individualisierten Krankenversicherungstarif zu einer Kosten-Nutzen-Abwägung bei den Befragten kommt. Während der als Nutzen wahrgenommene monetäre Vorteil sich positiv auf die Bereitschaft zum Wechsel auswirkt, führen mit dem Wechsel verbundene Kosten, wie im vorliegenden Fall die Preisgabe personenbezogener Daten, zu einer geringeren Wechselbereitschaft.
Es zeigt sich, dass unter Berücksichtigung des Einflusses der Kosten-Nutzen-Abwägung die Ausprägung des BDGS insgesamt einen positiven Einfluss auf die Wechselbereitschaft hat. Das BDGS hat hier einen Einfluss auf eine konative Komponente der Einstellung. Personen mit hoher Ausprägung auf den Dimensionen des BDGS sind eher geneigt zu wechseln. Hier zeigt sich also an einem konkreten Beispiel der Digitalisierung des Gesundheitswesens, dass das BDGS als Prädisposition verhaltenswirksame Konsequenzen haben kann, die unabhängig von unmittelbaren Vor- oder Nachteilen für das Individuum bestehen.

10.12 Ergebnisse der Erhebung 2.4 KI und Hochschule

10.12.1 Datenauswertung und Ergebnisse

Um die aufgestellten Hypothesen 2.4a, 2.4b und 2.4c zu prüfen, wurde ein Strukturregressionsmodell in AMOS 23 spezifiziert, wobei aufgrund einiger fehlender Werte eine FIML-Schätzung durchgeführt wird. Im Modell haben die vier BDGS-Dimensionen einen direkten Einfluss auf das Vertrauen in die Richtigkeit der KI-basierten Entscheidung sowie auf die Reputation der Hochschule und den vermeintlichen Protest gegen das KI-basierte Auswahlverfahren. 25 Es wird weiterhin davon ausgegangen, dass das Vertrauen in die Richtigkeit einen Effekt auf die Reputation der Hochschule hat sowie auf das Protestverhalten gegen das Auswahlverfahren. Letztlich wird ein lediglich kovariater Zusammenhang zwischen der Reputation der Hochschule und dem Protestverhalten geprüft, in dem eine Korrelation zwischen den Fehlertermen der beiden latenten Faktoren modelliert wird (siehe Abbildung  10.4). 26
Ein geschätztes Modell ohne Identitätsrestriktionen (Modell 1) zeigt mit Blick auf den strengen Chi-Quadrat-Test eine unzureichende Anpassungsgüte (siehe Tabelle  10.22). Die inkrementellen Fit-Maße indizieren jedoch eine zufriedenstellende Anpassungsgüte. Die nicht erklärte Varianz ist auch hier durch die Modellkomplexität und die Stichprobengröße bedingt, wobei sich zeigt, dass insbesondere einige Indikatoren der abhängigen Variablen noch über den gemeinsam geteilten latenten Faktor hinaus kovariieren, was an dieser Stelle vernachlässigt wird. Anschließend wird nun ein weiteres Modell mit Gleichheitsrestriktionen für die Strukturgewichte der BDGS-Dimensionen auf die abhängigen Variablen geprüft (Modell 2).
Tabelle 10.22
Modellvergleich zur Prüfung der Gleichheit der Strukturgewichte in Erhebung 2.4 KI und Hochschule
Modell
Χ 2
df
p
TLI
RMSEA
Vergleich mit
ΔΧ 2 (Δdf)
ΔTLI
ΔRMSEA
1 – Ohne Gleichheitsrestriktionen der Strukturgewichte der BDGS-Dimensionen
232.065
169
.001
.977
.035 (.023; .046)
2 – Vollständige Gleichheitsrestriktionen
der Strukturgewichte der BDGS-Dimensionen
252.577
178
 < .001
.974
.037 (.026; .047)
M1
20.512* (9)
.003
.002
3 – Partielle Gleichheitsrestriktionen der Strukturgewichte der BDGS-Dimensionen
241.155
177
.001
.978
.035 (.023; .045)
M1
9.090 (8)
.001
.000
Notizen. * p < .05, ** p < .01, *** p < .001
Durch die Prüfung mittels Gleichheitsrestriktionen wird verdeutlicht, inwieweit die einzelnen Dimensionen des BDGS gleiche oder ungleiche Effekte auf die abhängigen Variablen haben, worauf auch die aufgeworfene Frage nach dem distinkten Einfluss der Dimension Genauigkeit abzielte (siehe Abschnitt  10.3.4). Der Vergleich der Modelle mit Hilfe eines Chi-Quadrat-Differenztests zeigt, dass das Modell 2 mit diesen Gleichheitsrestriktionen eine signifikant schlechtere Anpassungsgüte gegenüber dem Modell 1 mit freigesetzten Regressionsgewichten hat (ΔΧ 2 = 20.512, df = 9, p = .015). Modell 2 mit Gleichheitsrestriktionen ist daher abzulehnen.
Es zeigt sich mit Blick auf die Effekte im Modell 1, dass sich teilweise unterschiedliche Einflüsse der BDGS-Dimensionen manifestieren. Das Modell 2 wird entsprechend respezifiziert und auf Grundlage der Erkenntnisse aus Modell 1 werden einige restringierte Regressionsparameter wieder freigegeben. Dieses dritte Modell beinhaltete mithin eine vollständige Gleichheitsrestriktion der Einflüsse der BDGS-Dimensionen auf die Reputation der Hochschule sowie das Protestverhalten. Der Einfluss der BDGS-Dimensionen auf das Vertrauen in die Richtigkeit der Entscheidung hingegen reflektierte lediglich eine partielle Gleichheitsrestriktion (siehe Tabelle  10.22). Der Vergleich der Modelle zeigt, dass das Modell 2 eine signifikant schlechtere Anpassungsgüte gegenüber dem Modell 3 hat (ΔΧ 2 = 11.422, df = 1, p = .001). Modell 3 hat jedoch keine signifikant schlechtere Anpassungsgüte als Modell 1 (ΔΧ 2 = 9.090, df = 8, p = .335). Modell 3 mit den partiellen Gleichheitsrestriktionen wird daher der Vorzug gegeben und die Parameterschätzungen dieses Modells nachfolgend berichtet.
In Tabelle  10.23 finden sich die Informationen zu allen geschätzten Pfaden des Modells 3. Es zeigt sich, dass die Erwartungen an die Genauigkeit digitaler Daten im vorliegenden Anwendungsfall einen direkten Einfluss auf das Vertrauen in die Richtigkeit der KI-basierten Entscheidung hat. Je größer die Erwartung an die Genauigkeit von digitalen Daten, desto eher wird auf die Richtigkeit der KI-basierten Entscheidung vertraut (β = .391). Die übrigen Dimensionen des BDGS haben hier keinen signifikanten Einfluss. Hypothese 2.4a wird daher dahingehend angenommen, dass es hier vor allem die Überzeugungen von der Genauigkeit digitaler Daten sind, die im Rahmen des BDGS ein Vertrauen in die Richtigkeit der KI-basierten Auswahlentscheidung positiv beeinflussen.
Tabelle 10.23
Parameterschätzungen der Pfadkoeffizienten in Erhebung 2.4 KI und Hochschule
Unabhängige Variablen (UV)
Endogene Variable (AV)
B ( SE)
p
β
Genauigkeit
Vertrauen in die Richtigkeit der Auswahlentscheidung
.504 (.112)
 < .001
.391
Wissensgewinn
.032 (.039) a
.410
.020
Individueller Nutzen
.032 (.039) a
.410
.029
Gesellschaftlicher Nutzen
.032 (.039) a
.410
.025
Genauigkeit
Reputation der Hochschule
.027 (.011) b
.015
.035
Wissensgewinn
.027 (.011) b
.015
.028
Individueller Nutzen
.027 (.011) b
.015
.042
Gesellschaftlicher Nutzen
.027 (.011) b
.015
.036
Vertrauen in die Richtigkeit der Auswahlentscheidung
.406 (.031)
 < .001
.685
Genauigkeit
Protest gegen die
KI-basierte Auswahlentscheidung
‒.022 (.015) c
.138
‒.025
Wissensgewinn
‒.022 (.015) c
.138
‒.020
Individueller Nutzen
‒.022 (.015) c
.138
‒.030
Gesellschaftlicher Nutzen
‒.022 (.015) c
.138
‒.026
Vertrauen in die Richtigkeit der Auswahlentscheidung
‒.334 (.040)
 < .001
‒.519
Notizen. a,b,c Werte der Regressionskonstanten mit gleichen Buchstaben wurden mit Gleichheitsrestriktionen der Strukturgewichte spezifiziert und haben daher identische Parameterschätzungen.
Der direkte Effekt des BDGS auf die eingeschätzte Reputation der Hochschule zeigt einen kleinen signifikanten positiven Effekt (B = .027, SE = .011, p = .015), der jedoch als gering zu bewerten ist (β Genauigkeit = .035; β Wissensgewinn = .028; β Individueller_Nutzen = .042; β Gesellschaftlicher_Nutzen = .036). Es zeigt sich zudem, dass das Vertrauen in die Richtigkeit der Entscheidung zu einer höheren Reputation der Hochschule bei den Befragten führt (β = .685). Der starke gesamte Effekt der Dimension Genauigkeit auf die Reputation der Hochschule (β = .303) wird daher zum Großteil durch den indirekten Effekt (β = .268) der Genauigkeit über das Vertrauen in die Richtigkeit der Auswahlentscheidung erklärt. Hypothese 2.4b wird dahingehend angenommen, dass auch hier das BDGS einen positiven Einfluss auf die Reputation der Hochschule hat, in diesem Rahmen jedoch insbesondere die Überzeugungen von der Genauigkeit der Daten ausschlaggebend sind.
Die Effekte auf die Bereitschaft gegen die Entscheidung zu protestieren sind im Vergleich insgesamt kleiner. So ist auch der direkte Effekt des BDGS kleiner und nicht signifikant (B = ‒.022, SE = .015, p = .138). Allerdings zeigt sich auch hier, dass das Vertrauen in die Richtigkeit der Entscheidung erneut einen direkten Einfluss hat (β = ‒.519). 27 Der starke gesamte Effekt der Dimension Genauigkeit auf die Reputation der Hochschule (β = ‒.228) wird daher zum Großteil durch den indirekten Effekt (β = ‒.174) der Genauigkeit über das Vertrauen in die Richtigkeit der Auswahlentscheidung erklärt. Hypothese 2.4c wird auch hier dahingehend angenommen, dass das BDGS einen negativen Einfluss auf die Protestneigung hat, in diesem Rahmen jedoch insbesondere die Überzeugungen von der Genauigkeit der Daten ausschlaggebend sind.

10.12.2 Diskussion der Ergebnisse von Erhebung 2.4 KI und Hochschule

Die Ergebnisse zeigen, dass die Erwartungen an die Genauigkeit digitaler Daten einen hohen Einfluss auf das Vertrauen in die Richtigkeit der durch die KI getroffenen Auswahlentscheidung haben und somit vor allem indirekt auch die Reputationsbewertung der Hochschule beeinflussen, die ein solches Verfahren einsetzt, und auch die Neigung zum Protest gegen die getroffene Entscheidung. Studierende, die also ein objektives und genaues Verständnis der Wirklichkeit erwarten, zeigen sich eher von der Richtigkeit der getroffenen Auswahlentscheidung einer KI-Anwendung im Rahmen des Zulassungsverfahrens überzeugt. Es ist also folglich nicht jede Einzelne der Dimensionen des BDGS, die im Erkenntniszusammenhang einen Einfluss zeitigt, sondern im vorliegenden Fall diejenige, die als überaus relevant für das benötigte Vertrauen in die KI-Anwendung eingestuft werden kann: Liegen digitale Daten vor, die ihrem Wesen nach ein objektives und exaktes Verständnis der Welt ermöglichen, wird vertraut, dass eine KI-Anwendung zur Hochschulzulassung auf Grundlage dieser Daten auch die richtige Entscheidung trifft. In den Augen von Studierenden, die auf die Richtigkeit der Auswahlentscheidung vertrauen, genießt die Hochschule eine höhere Reputation. Gleichzeitig sinkt die Protestbereitschaft, wenn erwartet wird, dass die KI-Anwendungen richtige Entscheidungen produziert. Im Umkehrschluss könnte sich also hier eher einer Entscheidung gefügt werden, wenn der Prozess ihres Zustandekommens als korrekt empfunden wird.
Es zeigt sich mithin die Bedeutung der individuellen Erwartungen an digitale Datenbestände, die im vorliegenden Fall der Hochschulzulassung ein Prädiktor für das entgegengebrachte Vertrauen und die Reaktion der Studierenden auf die Einführung von KI-Anwendungen zur Hochschulzulassung ist. Es ist auch aus diesem Grund aus Sicht der Beteiligten ein Verständnis für das Wesen der digitalen Daten bei den am Verfahren beteiligten (zukünftigen) Studierenden und den Verantwortlichen auf Seiten der Hochschule herzustellen. Fragen nach der Art und Qualität der Daten sollten weitgehend transparent und nachvollziehbar erörtert werden, um sicherzustellen, dass auf der einen Seite keine überzogenen Erwartungen an das KI-Verfahren gestellt werden und vermieden wird, dass ein ausgeprägter Glaube an die digitalen Daten einen Missbrauch der Systeme provoziert. Auf der anderen Seite können durch diese Transparenz bei den eher datenskeptischen Studienbewerber*innen negative Reaktionen und ein Misstrauen vermieden werden. Dabei sollte weitere Forschung die Reichweite gebotener und notwendiger Entscheidungsbegründungen analysieren, da es Hinweise darauf gibt, dass vollständige Transparenz weder umsetzbar noch zielführend erscheint (Fine Licht & Fine Licht, 2020).
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz ( http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
insite
INHALT
download
DOWNLOAD
share
TEILEN
print
DRUCKEN
Anhänge

Elektronisches Zusatzmaterial

Fußnoten
1
In der Präregistrierung wurde von der Dimension ‚Wissen‘ gesprochen, was hier angepasst wurde. Zudem wurde in der Präregistrierung folgender Satz ergänzt: „D. h., wenn der Skalenmittelpunkt mit 0 codiert wird, ist die Ausprägung der Dimension ‚Wissen‘ im Mittel größer als null.“ Für die vorliegende Auswertung in Abschnitt 10.7 werden jedoch die Mittelwerte der einzelnen Dimensionen auf null restringiert, so dass die geschätzten Regressionskonstanten (Intercepts) zur Prüfung der Hypothese herangezogen werden.
 
2
In der Präregistrierung fand sich in der Hypothese noch die folgende Ergänzung als Hilfsbeispiel für die Interpretation: „Je höher bspw. die Zustimmung zum beinhalteten Wissen in den Daten, desto positiver der erwartete Nutzen für das Selbst.“
 
3
Kurz vor Einreichung dieser Arbeit wurde im April 2020 von Y. A. Wang und Rhemtulla (2020) ein neues Tool zur Parameterschätzung im Rahmen der Strukturgleichungsmodellierung vorgestellt.
 
4
Bauer unterscheidet hier zwischen genereller Technophobie, die sich auch auf Flugzeuge, Eisenbahnen etc. beziehen kann, und Cyberphobie, die sich explizit auf den privaten, schulischen und beruflichen Computergebrauch bezieht. Aufgrund der ungebräuchlichen Verwendung des Cyberbegriffs wird hier daher allgemein von Computerphobie gesprochen.
 
5
“The question asked ‘How afraid are you of the following?’ and the items included: ‘Robots that can make their own decisions and take their own actions,’ ‘Robots replacing people in the workforce,’ ‘Artificial intelligence,’ and ‘People trusting artificial intelligence to do work’.” (Liang & Lee, 2017, S. 381)
 
6
„Mit der nach dem 7. Gesetz zur Änderung des Hochschulrahmengesetzes nunmehr gültigen 20–20-60-Regelung (20 % der Studienplätze gehen in den bundesweit zulassungsbeschränkten Studiengängen an die Abiturbesten, 20 % werden nach Wartezeit, 60 % von den Hochschulen im Rahmen eines Auswahlverfahrens selbst vergeben) bekommen die Universitäten nun eine aktivere Rolle im Zulassungs- und Auswahlverfahren zugewiesen“ (Gold & Souvignier, 2005, S. 214).
 
7
Für einen Überblick über die Debatte um Zulassungsverfahren siehe bspw. das Heft Nr. 2 (2005) des Fachjournals Psychologische Rundschau, das sich des Themas annimmt.
 
8
In der Präregistrierung wurden die nachfolgenden Hypothesen H2.4a, H2.4b und H2.4c in einer Hypothese zusammengefasst und hier aus Gründen der übersichtlicheren Darstellung entsprechend aufgeteilt. Dabei wurden Hypothesenformulierungen und Modell angepasst, um den Fokus auf den Einfluss des BDGS zu verdeutlichen. Zudem wurde hier kein gerichteter Zusammenhang der Variablen Reputation der Hochschule und Protestneigung untersucht.
 
9
Informationen zur Präregistrierung sind unter folgendem Link zu finden: https://​osf.​io/​gyn7k/​?​view_​only=​c58a5e1b4a804b48​8aceec24d05dc9a1​
 
10
Informationen zur Präregistrierung sind unter folgendem Link zu finden: https://​osf.​io/​83t7s/​?​view_​only=​8acca193bba04e16​9b91534f74ced263​
 
11
Für mehr Informationen zu den Maluspunkten, die mittels der DEG_TIME von SoSci Survey erhoben werden, siehe die SoSci-Dokumentation (D. J. Leiner, 2019b) unter: https://​www.​soscisurvey.​de/​help/​doku.​php/​de:​results:​variables [zuletzt aufgerufen am 24. Oktober 2019]
 
12
Da ein Messmodell mit einem auf die drei Indikatoren ladenden latenten Faktor vollständig identifiziert ist, wird keine Anpassungsgüte berichtet.
 
13
Da auch hier ein Messmodell mit einem auf die drei Indikatoren ladenden latenten Faktor vollständig identifiziert ist, wird keine Anpassungsgüte berichtet.
 
14
Die Messung von Werner und Marien (2018) beinhaltet neben den Items OL1 und OL2 noch zwei Indikatoren, die Reaktanz indizieren. Diese wurden nicht aufgenommen und Item OL3 wurde selbst formuliert und ergänzt.
 
15
Item OL2 dient hier als Referenzindikator, da bei der nachfolgenden Prüfung auf Messäquivalenz festgestellt wurde, dass Item OL1 nicht messinvariant ist.
 
16
Da auch hier ein Messmodell mit einem auf die drei Indikatoren ladenden latenten Faktor vollständig identifiziert ist, wird keine Anpassungsgüte berichtet.
 
17
Streng genommen handelt es sich bei einer möglichen Ersparnis von 1,03 % der Krankenversicherung um einen geringen Profit, der jedoch nicht als substantiell gewertet wird und lediglich aus dem Grund gewählt wurde, dass bei den Befragten ein möglichst realistisches Bild einer punktgenauen Schätzung auf Datengrundlage evoziert werden sollte. Mit Blick auf die Rational-Choice-Logik sowie die lineare Auswertungslogik kann davon ausgegangen werden, dass letztendlich Einfluss und Bewertung eines beliebigen prozentualen Profits berechnet werden könnten. Diese Annahme konnte jedoch aus forschungsökonomischen Gründen im vorliegenden Experiment nicht empirisch geprüft werden.
 
18
Alle Items der Manipulationsprüfung wurden auf einer 5-stufigen Likert-Skala erhoben, die wie folgt abgestuft war: 1 „trifft überhaupt nicht zu“, 2 „trifft eher nicht zu“, 3 „trifft teils zu, teils nicht zu“, 4 „trifft eher zu“ sowie 5 „trifft voll und ganz zu“. Es gab zudem eine Option „weiß nicht“, um einen Abbruch oder den Skalenmittelpunkt als Ausweichkategorie zu vermeiden. Um einen Bias zu vermeiden, wurden die entsprechenden Befragten nicht aus der Stichprobe entfernt (Aronow et al., 2019).
 
19
Aufgrund des nicht signifikanten Ergebnisses der Manipulationsprüfung wurde diese Frage in Erhebung 2.3b noch einmal spezifiziert und lautete hier „Ich wurde bei der Berechnung meines individualisierten Versicherungstarifs explizit darauf hingewiesen, dass ich in Zukunft meine persönlichen Daten abgeben müsste“. Eine Veränderung des Stimulusmaterials selbst erfolgte jedoch nicht.
 
20
Eine Prüfung auf Messinvarianz der BDGS-Skala zwischen den Experimentalgruppen mittels MGKA zeigt, dass bis auf die Messinvarianz der Messfehler Messäquivalenz zwischen den Gruppen bestand. Das Modell mit Gleichheitsrestriktionen für Regressionsgewichte, -konstanten und die Kovarianzen zeigt keine signifikant schlechtere Anpassung als das Modell ohne diese Identitätsrestriktionen (ΔΧ2 = 60.116, df = 60, p = .472).
 
21
Eine Prüfung auf Messäquivalenz für die beidem Dimensionen Empfehlung und Algorithmic Decision-Making für die drei Anwendungsbereiche ergab partielle starke faktorielle Messinvarianz. Es bestand konfigurale und skalare Messinvarianz, allerdings unterschied sich die Faktorladung des Items ADM3 (Werte λADM3_Medizin = .741, λADM3_Personalwesen = .850, λADM3_Bankensektor = .902 im finalen geprüften Modell). Das Modell mit den partiellen Gleichheitsrestriktionen für Regressionsgewichte und -konstanten zeigt keine signifikant schlechtere Anpassung als das Modell ohne diese Identitätsrestriktionen (ΔΧ2 = 18.505, df = 14, p = .185). Die Faktorladung des Items ADM3 wurde daher für die Auswertung freigesetzt.
 
22
Hier sei auf die Anmerkungen von Weiber und Mühlhaus (2014) zu den Squared multiple Correlations verwiesen: „Die Squared multiple Correlations (SMC) der Konstrukte geben an, wie viel Prozent der Varianz der latent endogenen Variablen durch die anderen latenten Größen erklärt wird. Sie können damit analog zum Bestimmtheitsmaß (R2) bei der linearen Regression interpretiert und bewertet werden. Für die Interpretation der R2-Werte bei Kovarianzstrukturanalysen liegen jedoch keine Empfehlungen vor, so dass hier auf die bei Anwendung von PLS-Modellen gängigen Richtwerte zurückgegriffen wird. So beurteilt bspw. Chin (1998, S. 323) R2-Werte in einem von ihm analysierten Modell von 0,19 als ‚schwach‘, von 0,33 als ‚moderat“ und von 0,66 als ‚substantiell‘“ (Weiber & Mühlhaus, 2014, S. 230).
 
23
Manipulation Profit: 0 – ‚kein Profit‘ vs. 1 ‚Profit‘, Manipulation Notwendigkeit zur Datenabgabe: 0 ‚keine Datenabgabe erfordert‘ vs. 1 ‚Datenabgabe erforderlich‘
 
24
Hier ist zu beachten, dass im vorliegenden Modell lediglich eine Prüfung der Kausalzusammenhänge von Interesse ist und keine Aussagen über unterschiedliche Mittelwerte der Konstrukte getroffen werden soll. Aufgrund der fehlenden Schätzung von Mittelwerten und Achsenabschnitten wird die Invarianz allein für die Kausalzusammenhänge im Modell geprüft. Es wird also lediglich auf den mittleren Grad der Messinvarianz abgestellt (Weiber & Mühlhaus, 2014).
 
25
Während der Einfluss des BDGS aus das Vertrauen in die Richtigkeit der Entscheidung zur Hypothesenprüfung modelliert wird, werden die Pfade vom BDGS zur Reputation und zur Protestneigung zur Kontrollvariablenprüfung verwendet. Mithin wird von einer vollständigen Mediation des BDGS-Einflusses durch das Vertrauen in die Richtigkeit ausgegangen (Müller, 2007).
 
26
Spezifiziert jedoch nicht in der Abbildung aufgeführt sind die Inter-Korrelationen der latenten exogenen Faktoren des BDGS. Zu den Werten der interdimensionalen Korrelationen siehe Abschnitt 10.7.
 
27
Die Fehlerterme der beiden letztgenannten Variablen weisen eine mittlere negative Korrelation auf (r = ‒.318).
 
Metadaten
Titel
Studie 2 – Die Auswirkungen der Überzeugungen des Glaubens an Big Data – Erkenntnisse aus vier empirischen Erhebungen
verfasst von
Marco Lünich
Copyright-Jahr
2022
DOI
https://doi.org/10.1007/978-3-658-36368-0_10

Premium Partner