Skip to main content
Top

2024 | Book

Künstliche Intelligenz, Mensch und Gesellschaft

Soziale Dynamiken und gesellschaftliche Folgen einer technologischen Innovation

insite
SEARCH

About this book

Künstliche Intelligenz (KI) stellt eine Schlüsseltechnologie des gesellschaftlichen Wandels im 21. Jahrhundert dar. Mittlerweile werden zahlreiche technologische Anwendungen genutzt, die auf maschinellem Lernen und den damit verbundenen Möglichkeiten der Datensamm¬lung, -nutzung und -verwertung aufbauen. Indem KI große Datenmengen beherrschbar und verborgene Muster und Zusammenhänge sichtbar macht, wird vieles schneller, einfacher und effizienter – sei es im Alltag, in der Arbeit oder in Organisationen. Offen bleibt jedoch nach wie vor die Frage, welche tiefgreifenden und teilweise latenten Folgen für den Menschen als soziales Wesen und das gesellschaftliche Zusammenleben mit dem Einsatz und der Entwick¬lung von KI verbunden sind. Wie wandelt sich das Verhältnis von Mensch und Technik durch KI und wie ist dieser Wandel zu bewerten? Welche Chancen, aber auch Risiken eröffnen sich durch den Einsatz und die Entwicklung von KI für Mensch und Gesellschaft? Welchen Grenzen unterliegt der Wandel und welche Gestaltungsmöglichkeiten bieten sich? Und nicht zuletzt: Was und wer bestimmt die Entwicklungspfade, die KI nimmt – mit welchen Folgen und für wen?

Table of Contents

Frontmatter
Künstliche Intelligenz, Mensch und Gesellschaft: Fragestellungen und Perspektiven des Sammelbands
Zusammenfassung
Künstliche Intelligenz (KI) wird vielerorts die Rolle einer Schlüsseltechnologie des gesellschaftlichen Wandels im 21. Jahrhundert zugeschrieben. Dafür spricht, dass mittlerweile zahlreiche technologische Anwendungen genutzt werden, die auf maschinellem Lernen und den damit verbundenen Möglichkeiten der statistischen Datensammlung, -nutzung und -verwertung aufbauen. Offen ist jedoch nach wie vor die Frage, welche tiefgreifenden und teilweise latenten Folgen für den Menschen als soziales Wesen und das gesellschaftliche Zusammenleben mit dem Einsatz und der Entwicklung von KI verbunden sind.
Michael Heinlein, Norbert Huchler

Einblicke in die Nutzung Künstlicher Intelligenz

Frontmatter
KI als Kollegin (KIK) – Repräsentative Beschäftigtenbefragung zu Künstlicher Intelligenz am Arbeitsplatz
Zusammenfassung
Über die Folgen von Künstlicher Intelligenz (KI) für Arbeit und Gesellschaft gibt es einen breiten medialen und interdisziplinären wissenschaftlichen Diskurs. Was aber Beschäftigte über KI in ihrem direkten Arbeitsumfeld denken, ist in der Forschung bislang nur rudimentär erforscht. Der Beitrag stellt dazu Ergebnisse einer quantitativen webbasierten Primärstudie mit N = 2.018 Erwerbstätigen im Alter zwischen 20 und 65 Jahren vor. Das Sample wurde aktiv quotengemanagt und ist nach Geschlecht, Alter, Branchen und Qualifikation repräsentativ. Ein Teil der Befragung ging mithilfe eines selbst entwickelten „Denkzeug“ in Anlehnung an die Q-Methode einen eigenen interaktiv-ipsativen Befragungsweg, der komplexere Einstellungsbilder als üblich zu erfassen erlaubt. Dabei konnten auf Basis von multivariaten Analysen vier Einstellungstypen identifiziert: Die Störungsjonglierenden, die Arbeitsfokussierten, die Verantwortungtragenden und die Entlastungsuchenden. Für diese vier Typen zeigt sich trotz aller Unterschiede: die Ansichten zu KI als Kollegin sind stärker vom Arbeitskontext geprägt als von allgemeinen Vorstellungen zu Technik und KI. Noch allerdings ist KI bei den wenigsten Beschäftigten spürbar angekommen, sie fühlen sich recht gut zum Thema informiert – nicht aber durch ihre Arbeitgeber. Ängste und Sorgen sind geringer ausgeprägt als oft unterstellt und beziehen sich mehr auf andere als auf die eigene Arbeit. Während man den zuständigen Akteuren im Unternehmen etwas mehr als der Politik vertraut, ist der Anspruch an mehr Partizipation und Mitbestimmung beim Thema klar ausgeprägt. Die Erhebung ist eine Momentaufnahme und macht weitergehende Erhebungen notwendig. There is a broad media and interdisciplinary scientific discourse on the consequences of artificial intelligence (AI) for work and society. However, what employees think about AI in their direct work environment has so far only been rudimentarily explored in research. This article presents the results of a quantitative web-based primary study with N = 2,018 employees between the ages of 20 and 65. The sample was actively quota-managed and is representative by gender, age, industries, and qualifications. One part of the survey used a self-developed „Denkzeug“ based on the Q-method, an interactive-ipsative survey method that allows to capture more complex attitudes than usual. Based on multivariate analyses, four types of attitudes were identified: The disruptive juggler, the work-focused, the responsibility-bearing, and the relief-seeking. For these four types, despite all the differences, it appears that views on AI as a colleague are more strongly influenced by the work context than by general ideas about technology and AI. However, AI has not yet made a tangible impact on very few employees, who feel quite well informed on the topic – but not by their employers. Fears and concerns are less pronounced than often assumed and relate more to others than to their own work. While the responsible actors in the company are trusted somewhat more than politicians, the demand for more participation and co-determination in the topic is clearly pronounced. The survey is a snapshot and requires further research.
Sabine Pfeiffer
Veränderungsdynamiken durch Technisierung von Arbeit am Beispiel von da Vinci als robotische Chirurgie-Assistenz – Erkenntnisse aus der Empirie
Zusammenfassung
Die fortschreitende Technisierung von Arbeit zeigt sich nicht nur in der Industrie und im Dienstleistungssektor, sondern auch in der Medizin. Von Röntgenapparaten über Computer- und Magnetresonanztomographie bis hin zu robotischen und auf Künstlicher Intelligenz (KI) basierenden Systemen zur Unterstützung medizinischer Tätigkeiten sind heutzutage zahlreiche technische Artefakte in den klinischen Alltag integriert. Neue Technologien bieten zwar neue Möglichkeiten, bergen aber ebenfalls Risiken und stoßen weitreichende und teilweise latente Wandlungsprozesse in Arbeitspraktiken an. Um diese Transformationsdynamiken zu verstehen, gilt es, stattfindende Veränderungen zu identifizieren und zu analysieren. Am Beispiel des Operationssystems ‚da Vinci‘ für die roboterassistierte Chirurgie (RAC) wird aufgezeigt, dass die Einführung des Roboters in sozialer, räumlicher, zeitlicher sowie sachlicher Hinsicht eine bedeutende Veränderungsdynamik auf der Mikroebene des Handelns im Operationssaal mit sich bringt. Dies gilt insbesondere für Tätigkeiten, in denen der Einsatz von KI-Tools vorbereitet und erprobt wird.
Regina Wittal, Carolyn Hettinger

Künstliche Intelligenz als Bild und Mythos

Frontmatter
Das bewegliche Heer der Künstlichen Intelligenz. Ein Technomythos als Summe menschlicher Relationen
Zusammenfassung
KI-Diskurse finden in Bildern statt, in Sprachbildern, in Technikbildern und in visuellen Bildern. KI muss daher als vielschichtiges Phänomen in den Blick genommen werden, das technische und nicht-technische Aspekte enthält, und es muss im weiteren geistesgeschichtlichen Bedeutungskontext seiner Elemente betrachtet werden. Dazu gehören auch bildhafte Vorstellungen: Bilder, Urbilder, Abbilder, Vorbilder, Simulakren, sowohl bildhaft Dargestelltes und Sprachbilder als auch Vorstellungsbündel, wie sie etwa in der Rede von Menschenbildern, Technikbildern und Weltbildern angesprochen werden. Welche Elemente aber machen KI eigentlich aus? Welcher geistesgeschichtliche Kontext orientiert die Bedeutungen und Verständnisse von KI? Die hier zentralen technomorphen Menschenbilder und anthropomorphen Technikbilder sind nur ein Bruchteil derjenigen Phänomene, Narrative, Mythen, Schemata, Vorstellungen etc., mit denen KI semantisch freudig reagiert. Auch – vertikal gesprochen – ‚über‘ und ‚unter‘ dem Menschlichen sind Topoi bei der Verstehens- und damit Entscheidungs- und Handlungsorientierung wirkmächtig, die es zu berücksichtigen gilt, wenn KI, KI-Diskurse und deren Wirkungen analysiert werden sollen. Dabei ist KI als dergestaltige Menge kategorial inhomogener Elemente als ein Inbegriff zu fassen. Wer die Interessen nicht beachtet, die solche Inbegriffe ausmachen, kann KI und ihre Diskurse nur oberflächlich verstehen. Die Reaktionsfreudigkeit und Kopplungsbereitschaft ist schwindelerregend, jedoch fundiert und strukturiert durch das verfügbare geistesgeschichtliche Repertoire an Kopplungskandidaten. Aber: KI entscheidet, lernt, handelt, denkt etc. trotz entsprechend semantischer Suggestionen genauso wenig, wie ein autonomes Auto autonom ist, wie ein Roboter zu etwas gezwungen werden könnte oder wie Informatiker, KI-Forscher und Data Scientists mit dem Schaffen von verblüffenden IT-Systemen zu Schöpfergöttern würden. Deshalb ist in diesem Zuge an vergessene oder aus der Aufmerksamkeit geratene Metaphorik zu erinnern sowie an die fundamentale Bildhaftigkeit und den vielfältigen Bildbezug der KI. KI ist – mit Nietzsche formuliert – ein Heer von Metaphern und Anthropomorphisierungen, eine poetisch gesteigerte Summe menschlicher Relationen. Deshalb muss implizites Bedeutungsgepäck der KI aufmerksam expliziert werden, müssen interessensgeleitet oder unbewusst hineingelegte Bedeutungen wieder ausgelegt werden. Solche KI-Auslegung muss KI-Entwicklung und -Verbreitung zwingend begleiten.
Bruno Gransche, Arne Manzeschke
Bilder machen Menschen. Zur Bildermacht der Künstlichen Intelligenz
Zusammenfassung
Der Diskurs um Künstliche Intelligenz (KI) ist ein bildmächtiger. Das betrifft sowohl die konkret visuellen wie auch die eher konzeptionellen Artefakte. So unumgänglich die sehr unterschiedliche Zielgruppen orientierenden Bilder auch sind, so sind die Bilder nie sicher vor Störung, Täuschung, vor Schein oder Magie. Bilder der KI sind von Menschen hergestellte Abbilder sozio-technischer Artefakte, aber auch von Menschen hergestellte Vorbilder für solche Artefakte. Nicht zuletzt liefern Bilder referenzfreie Simulationen einer sich selbst setzenden Realität. Ein aufgeklärter Umgang mit den Bildern der KI muss sich der Mühe unterziehen, die zur rationalen Abkürzung tendierenden Bilder ‚auszubuchstabieren‘ und die mit ihnen verbundenen Ebenen der bildtheoretischen Funktion (Imitation, Repräsentation, Simulation) zu differenzieren, um so Aussagegehalte diskutieren zu können. Zugleich bedarf es einer menschlich selbstkritischen Klärung über die Produktionsbedingungen für die Bilder der KI (genitivus subjectivus), die als Element einer größeren intellektuellen Operation (Probleme erkennen und lösen) eingebettet und verkoppelt werden müssen. Der Artikel skizziert in einem ersten Schritt die Dimensionen und Funktionen von (menschengemachten) Bildern. In einem zweiten Schritt werden diese mit Rekurs auf Hans Blumenberg um Konzepte wie Weltbild und Weltmodelle erweitert, die einen wichtigen Interpretationsrahmen für die Bilder der KI (im genitivus objectivus – dritter Schritt – und genitivus subjectivus – vierter Schritt) darstellen und ausschnittweise vorgestellt und ‚gelesen‘ werden. Im fünften Schritt werden die visuellen an die sprachlichen Bilder (Metaphern) zurückgebunden und die Übertragungsfunktion zwischen den Bedeutungsquellen und -zielen im KI-Diskurs kritisch reflektiert.
Arne Manzeschke, Bruno Gransche
Maschinen lernen nicht! – „Machine learning“-Algorithmen entzaubert
Zusammenfassung
Ein Roboter, der selbstständig lernt: Für die einen faszinierend und erstrebenswert, für andere ein Horrorszenario. Dabei ist „machine learning“ nur ein Oberbegriff für statische Optimierungsverfahren, dessen Fehleinschätzung als „Lernen“ zu großen Missverständnissen führt. Dieser Beitrag klärt daher über die Grundlagen von „machine learning“ auf, indem er zeigt, dass die Funktionen von KI-Systemen nichts weiter sind als angewandte Mathematik. Allerdings wurden die dafür neu entwickelten Algorithmen aus Marketing-Gründen von Anfang an als „lernend“ bezeichnet. Eine detaillierte Analyse der Analogien zum Lernen in der einschlägigen Originalliteratur zum „machine learning“ zeigt aber auch: Die Analogien haben keine Basis in Theorien oder Forschung zum menschlichen oder biologischen Lernen, sie adressieren allein einzelne Aspekte oder abstrakte formale Ähnlichkeiten in den Abläufen. Eine realistischere Einschätzung der Leistungen und Grenzen von „machine learning“-Algorithmen und KI-Systemen als derzeit vor allem in den Medien üblich scheint daher dringend geboten. Sie eröffnet dann auch Gestaltungsmöglichkeiten und -perspektiven in der Entwicklung wie im Einsatz solcher Systeme.
Irmhild Rogalla

Normierung und Regulierung von Künstlicher Intelligenz

Frontmatter
Die digitale Verantwortungslücke: Vorschläge zur Haftung für algorithmisches Fehlverhalten
Zusammenfassung
Wenn autonome Algorithmen, die innerhalb unterschiedlicher sozio-digitaler Institutionen agieren, Fehlentscheidungen treffen, welche Konsequenzen ergeben sich für die rechtliche Haftung? Zur Entwicklung adäquater Haftungskonzepte rekurriert der Beitrag auf sozio logische und philosophische Theoriestücke 1) der Personifikation nicht-menschlicher Akteure, 2) der Mensch-Maschine-Assoziation als emergentem sozialen System mit Qualitäten eines Kollektivakteurs und 3) der distribuierten Kognition in der Interkonnektivität von Algorithmen.
Anna Beckers, Gunther Teubner
Normierung, Regulierung, Governance: Wie, von wem und mit welchen Mitteln kann der Einsatz Künstlicher Intelligenz gesellschaftlich gestaltet werden?
Zusammenfassung
KI-Regulierung bzw. -Normierung und Governance sind nicht nur aufgrund des raschen technischen Wandels ein schwieriges Unterfangen; allein die Komplexität des Feldes und dessen soziale, ökonomische, gesellschaftliche und politische Aspekte selbst bringen weitreichende und miteinander wechselwirkende Herausforderungen mit sich. Angesichts globalisierter Forschung und Entwicklung an sowie des weltweiten Einsatzes von KI sind nationalstaatliche Regulierungen vermutlich zum Scheitern verurteilt; supranationale Normierung, Regulierung, und Governance bringen wiederum das Problem der Durchsetzbarkeit mit sich. Nicht zuletzt deshalb unterscheiden sich aktuelle Gestaltungsansätze bspw. stark in Hinblick auf ihren Entwicklungsstatus und ihre Wirkmächtigkeit, weil die dahinterstehenden Akteur*innen über unterschiedliche Eingriffsreichweiten und -tiefen verfügen. Unterschiedliche Akteur*innengruppen ringen um die Deutungshoheit und verschiedenste Interessenslagen fließen in den Diskurs über Normierung, Regulierung und Governance ein. Die Komplexität wird zudem dadurch erhöht, dass KI direkt und indirekt reguliert und normiert werden kann, es aber gleichzeitig auch Regulierung und Normierung menschlichen Handels durch KI gibt. Der Beitrag soll die Komplexität des Feldes aufzeigen, Typen von Akteur*innen vorstellen, verschiedene Gestaltungsansätze beschreiben und eine vorläufige Abschätzung der Möglichkeiten von Normierung, Regulierung und Governance von KI geben.
Karsten Weber, Nadine Kleine

Gesellschaftliche Risiken und soziale Dynamiken Künstlicher Intelligenz

Frontmatter
Soziale Dynamik der Künstlichen Intelligenz
Zusammenfassung
Die Fragestellung ist, wie die Dynamik der Künstlichen Intelligenz (KI), insbesondere ihr gegenwärtiger Boom, zu erklären sind. Der Verweis auf die schnellen Fortschritte der Informationstechnologien und der verschiedenen Methoden der KI der letzten Jahrzehnte kann diese Dynamik allein nicht zureichend erklären. Die These ist vielmehr, dass KI als „Promising Technology“ zu verstehen ist. Ihre Dynamik wird von einem Technologieversprechen über ihre besondere Leistungsfähigkeit und aussichtsreiche, völlig neue Anwendungspotenziale, geprägt. Voraussetzung und Folge der KI-Dynamik ist dabei die Etablierung und Durchsetzung eines spezifischen Innovationsmodus, der mit den tradierten und industrieorientierten Regelungen und Praktiken des Innovationssystems kaum mehr kompatibel ist und die Innovationspolitik vor neue Herausforderungen stellt
Hartmut Hirsch-Kreinsen
Risiken und Gefahren der ‚Künstlichen‘ ‚Intelligenz‘
Zusammenfassung
Die Debatte über das Für und Wider von Künstlicher Intelligenz (KI) wird auf der einen Seite mit dem Argument der Optimierung menschlichen Handelns und Wirkens geführt. Auf der anderen Seite dienen überzogene Szenarien einer alles einnehmende Technologie als Gegenbeispiel. Dabei mangeln beide Argumentationsstränge häufig einer realistischen Einschätzung, Beobachtung und Analyse der Möglichkeiten und Grenzen von KI, inklusive der damit einhergehenden realen Risiken und Gefahren. Die Erwartungen an das ‚Können der KI‘ sind häufig eher illusorischer Natur und unter- bzw. überschätzen dadurch auch die Risiken. Bei genauerer Analyse wird ersichtlich, dass der Begriff KI in vielen Fällen irreführend ist – weder künstlich, noch intelligent – in welcher die Fehleinschätzung über das Können der KI begründet ist. In diesem Beitrag gehen wir dabei auf diese verzweigte Risiko-Debatte ein, analysieren die Aspekte der Künstlichkeit und Intelligenz der KI, bevor wir auf die unterschiedlichen Stränge der KI-Risiko Debatten eingehen – anhand von vier konkreten Einsatzszenarien.
Reinhard Kreissl, Roger von Laufenberg
Toys are us: KI, Diversität und soziale Ungleichheit. Oder: KI für Alle?
Zusammenfassung
In diesem Artikel werden KI-gestützte Entwicklungen im Kontext gesellschaftlicher Differenzverhältnisse diskutiert. Im Rahmen dessen sind relevante Aussagen zu marginalisierten Personengruppen erfasst. Ziel ist ein differenziertes Verständnis von KI-Verfahren, in ihrer komplexen Einbettung in gesellschaftliche und kulturelle Wirklichkeiten. Dies geschieht auf zweifache Weise: Geschlecht, Behinderung, Alter, „race“ und Herkunft werden als Zielgruppen ins Visier genommen. Außerdem werden technologische Logiken als Querschnittsthema verhandelt. Ausgangspunkt bildet die These, dass sich diskriminierende Muster und Machtverhältnisse durch KI modernisieren, aber nicht auflösen. Anders formuliert: Technik verändert sich, Ungleichheit bleibt bestehen. Überdies entsteht durch KI die Gefahr neuer Formen von Ungleichheit entlang von Kriterien der technologischen Verwertbarkeit von Vielfalt und Differenz. Mittels KI-Technologien entstehen zudem neue Zugriffspunkte für verschiedene Ökonomisierungs-, Regierungs- und Herrschaftspraktiken. Gleichwohl wird KI-Technik als nicht determiniert verstanden. Viel eher entsteht ein neues Spannungsverhältnis zwischen neuen (kapitalistischen) Regierungs- und Herrschaftspraktiken sowie (politischem) Gestaltungspotential.
Heike Raab
Zukunftseuphorie als Trost. Verheißungserzählungen über Künstliche Intelligenz im Kontext gesellschaftlicher Erschöpfungsdiagnosen
Zusammenfassung
Das Thema künstliche Intelligenz (KI) trifft mittlerweile auf rezeptionsbereite Publika, die sich offen für Zukunftserzählungen zeigen, die einen explizit Verheißungscharakter aufweisen. Verheißungsnarrative liegen in Form utopischer Fortschrittsgeschichten, politisch-normativer Leitbilder aber auch als Visionen von KI-Schaffenden, in Form von Medienberichten oder als fiktionale Darstellungen vor. Verheißungserzählungen repräsentieren Erwartungshorizonte und Zukunftshoffnungen zwischen Technikversprechen und Technikgläubigkeit. Im Umfeld von KI lässt sich eine Rückkehr der Heilssehnsucht im Gewand von Ersatzreligionen feststellen. Mit Verheißungen aufgeladene Erzählungen über KI erzeugen Zukunftseuphorie, die sich als Trostritual einordnen lässt. Techno-Verheißungen treten hierbei an die Stelle von religiösen Erfahrungen. Kurz: In Gesellschaften, die latent durch Zukunftsangst geprägt sind, wirken verheißungsvolle Zukunftsnarrative als Trostersatz.
Stefan Selke

Künstliche Intelligenz im Kontext von Macht, Herrschaft und Demokratie

Frontmatter
Machine learning, political participation and the transformations of democratic self-determination
Abstract
This contribution addresses links between machine learning technologies and democracy with a focus on political participation. Democracy research often regards machine learning technologies as a threat, as these technologies could violate fundamental rights or replace democratic decision making. While raising important concerns, these approaches underestimate the malleability of digital technologies and their relationship to democracy. Our argument is that inherent to democratic practice we find a constant (re)negotiation of rights and institutions, in this case not least driven by the fact that machine learning technologies themselves are far from reaching maturity. The openness and negotiability of the relationship of AI and democracy is illustrated by three critical perspectives that hold special importance for political participation: algorithmic bias, automated decision-making and AI’s epistemic dimension. By reflecting the changing condition of political organisation, current research can be productive and even performative in the sense of co-defining a shared understanding of new technologies and aim to set standards for their legitimate use.
Jeanette Hofmann, Clara Iglesias Keller
Hegemoniale Machtstruktur? Eine Kartierung der Akteure im aktuellen KI-Diskurs
Zusammenfassung
Die maßgeblichen Akteure im aktuellen Diskurs um Künstliche Intelligenz (KI) lassen sich nach ihren verschiedenen Perspektiven und Interessen, aber auch hinsichtlich ihrer Reichweite in der gesellschaftlichen Rezeption und Wissensproduktion verorten. KI erweist sich dabei als ein von einseitig hegemonialen Machtverhältnissen geprägtes Tätigkeits- und Diskursfeld: Populärwissenschaftliche Akteure in Resonanz mit breitenwirksam rezipierten KI-Fiktionen in Film und Literatur bestimmen vorrangig die Leitbilder und relevanten Themen und Fragen. Sie prägen das gesellschaftliche Verständnis von KI mehr durch Verheißungen und Zukunftsnarrative als faktische technische Entwicklungen und wissenschaftliche Reflexion dies tun. Für ein vertieftes Verständnis der aktuellen Deutungs- und Rezeptions-Dynamiken von KI ist es daher nötig, einen Überblick über die unterschiedlichen Akteure im Diskurs und ihre jeweilige Agenda zu schaffen. Die Kartierung der Akteure verweist dabei auf Exklusionsdynamiken im KI-Diskurs: Frauen und Nicht-Weiße sind darin bislang stark unterrepräsentiert, werden durch eine tendenziell einseitige Daten-Erhebung (coded bias) rekursiv exkludiert und spielen weder in der Entwicklung von KI noch im Diskurs eine nennenswerte Rolle. Insofern trägt KI als maßgebliches Dispositiv der Zeit zur Verstärkung struktureller Ungleichheit bei, zum Beispiel im Sinne des Gender Gap und des strukturellen Rassismus trotz gegenteiliger Einordnungen von KI-Technologie als genderneutral und tolerant.
Karin Hutflötz
Künstliche Intelligenz und gesellschaftlicher Wandel – eine Herausforderung für demokratische Macht- und Herrschaftsverhältnisse
Zusammenfassung
Künstliche Intelligenz (KI) stellt eine Schlüsseltechnologie des 21. Jahrhunderts dar, die einen weitreichenden Einfluss auf sämtliche Bereiche der Gesellschaft und das alltägliche Leben der Menschen hat und weiterhin haben wird. Technische bzw. technologische Revolutionen haben seit jeher auch das Potenzial, zu gesellschaftlichen Umwälzungen zu führen und die Machtverhältnisse und Herrschaftsstrukturen in einer Gesellschaft substanziell zu transformieren. Wird das Verhältnis zwischen Mensch, Gesellschaft und KI in den Blick genommen, bewegt sich die Debatte häufig zwischen naiver Technikeuphorie einerseits und fatalistischen bzw. dystopischen Auslöschungsphantasien andererseits. Die mit der Entwicklung und Anwendung von KI verbundenen Machtfragen bleiben jedoch zumeist seltsam unterbelichtet und untertheoretisiert. Der vorliegende Beitrag befasst sich deshalb mit dem Einfluss von KI auf gesellschaftliche Machtverhältnisse und Herrschaftsstrukturen und fragt danach, wie sich die Macht- und Herrschaftsverhältnisse in Wirtschaft, Politik und Gesellschaft durch den Einsatz von Künstlicher Intelligenz verändern und welche Folgen dies für die Demokratie hat. Dabei zeigt sich, dass KI von sich aus und per se keine egalisierende, nivellierende und demokratisierende Wirkung hat. Vielmehr kommt es tendenziell zu einer Potenzierung, Zentralisierung, Monopolisierung und Stabilisierung der Macht- und Herrschaftsverhältnisse, also zu einem Ausbau der Macht und Herrschaftsbefugnisse bereits mächtiger Akteure – und damit auch zu einer Verstetigung und Verschärfung von Ungleichgewichten und Ungleichheiten.
Peter Imbusch, Joris Steg

Theoretische und methodische Zugänge zu Künstlicher Intelligenz

Frontmatter
Künstliche Intelligenz als kontingenzerzeugende Technik: Eine praxistheoretische Perspektive
Zusammenfassung
Der Beitrag entwickelt eine praxistheoretische Perspektive, um das technische Wirken subsymbolischer Künstlicher Intelligenz (KI) zu analysieren und die soziologische Relevanz und Spezifik dieser relativ neuen, zur Interaktion mit Menschen fähigen Form von KI herauszuarbeiten. In der soziologischen Diskussion ist noch keineswegs geklärt, wie die Nutzung von Techniken, die auf Deep Learning und Künstlichen Neuronalen Netzen aufbauen, zu verstehen und in ihren Folgen für gesellschaftliche und soziale Zusammenhänge zu bewerten ist. Der Beitrag schlägt vor, das Wirken interaktiver KI als Erzeugung von Kontingenz in Praxiszusammenhängen zu begreifen. Unterschieden werden dabei drei Formen: agentielle Kontingenz, epistemische Kontingenz und formative Kontingenz. Vor diesem Hintergrund ergeben sich neue Perspektiven auf die Einbettung und Reflexion von KI in der Nutzungspraxis.
Michael Heinlein
Selektivitäten (subsymbolischer) Künstlicher Intelligenz
Zusammenfassung
Der Beitrag sondiert unter dem Schlüsselbegriff der Selektivität verschiedene strukturierende Wirkungen von subsymbolischer Künstlicher Intelligenz (KI) als sozialem Phänomen, von der zielgerichteten Entwicklung über die spezifische technische Funktionsweise bis hin zur Einbettung in Nutzungszusammenhänge, verbunden mit latenten gesellschaftlichen Anpassungsprozessen. Damit erweitert der Beitrag die Diskussionen über Diskriminierung und Datenbias um weitere Aspekte latenter sozialer Gestaltung und technikimmanenter Strukturierungen. Aufbauend auf der Systematisierung von elf KI-Selektivitäten werden zentrale Fragen eines sich wandelnden Mensch-KI- bzw. Mensch-Technik-Verhältnisses andiskutiert, und es wird ein Leitbild für ein mögliches künftiges Verhältnis skizziert, das über ein Konkurrenz- bzw. lineares Substitutionsverhältnis hinausgeht.
Norbert Huchler
Von Interaktion zur Transformaktion: Die Folgen von Künstlicher Intelligenz für Theorien sozialen Handelns
Zusammenfassung
Aus sozialwissenschaftlicher Perspektive ist Künstliche Intelligenz (KI) eine Technologie, die zum einen eine Infrastruktur bereitstellt und zum anderen selbst aktiv Handlungsträgerschaften übernimmt. Als Infrastruktur vernetzt KI Daten aus Datenbanken, Inputs von Sensoren, Rückmeldungen von Aktoren und Chatbots, die in Interaktion mit menschlichen Akteure stehen etc. In diesen Infrastrukturen werden sinnorientierte Handlungsprogramme konstituiert und soziale Beziehungen generiert. KI wird so zu einem Handlungsträger neben menschlichen Handlungsträgern und ko-konstituiert damit sozialen Sinn, kollektive Typologien und gesellschaftliche Kategorisierungen. Insgesamt bildet KI damit einen Bestandteil der sozialer Strukturbildung und der sinnhaft sozialen Interaktivitäten. Diesem zweiten Aspekt, den Folgen von KI für unsere Vorstellungen sozialer sinnhafter Interaktivität widmet sich dieser Aufsatz. Soziales Handeln wird im Zuge der aktuellen KI in Interaktionssituationen zunehmend durch nicht-menschliche Handlungsträgerschaften und Kommunikationsressourcen ko-konstituiert und damit grundlegend transformiert. Basierend auf Grundannahmen der Akteur-Netzwerk-Theorie wird vorgeschlagen, diesen Wandel als Übergang von Interaktion zu Transformaktion zu beschreiben.
Valentin Rauer
Künstliche Intelligenz: Eine Methode für alles? Sozialwissenschaftliche Methodologie der KI-Forschung, ihre Herausforderungen und Möglichkeiten
Zusammenfassung
Künstliche Intelligenz (KI) ist als Mittel oder Herausforderung der Forschung methodisch relevant. Unser Beitrag untersucht die Bandbreite methodischer KI Forschung über und mit KI aus sozialwissenschaftlicher Perspektive. Aus unseren digitalen und Grounded Theory Methoden und Kartierungen, ergibt sich Einsicht in die disziplinäre und wissenschaftspolitische Bandbreite der KI-Forschung, sowie ihr verbindendes Potenzial zwischen Disziplinen, Traditionen, und Themen. Ausgehend dieser diskursiv-reflexiven und kollektiv-bildenden Eigenschaft, argumentieren wir für eine Differenzierung von KI als Gegenstand und Mittel. Es ist genau zu unterscheiden, um welche Art, Form und Konzept von KI es sich handelt: Computational brute force, Expert system, Neural net, oder Dispositiv und Imaginäres – und inwiefern dabei auch konzeptionell idente Technologien vergleichbar sind. In Konsequenz gehen wir intensiv auf unsere eigene Methode, insbesondere die verwendeten Mapping-Algorithmen ein. Forschung und Lehre müssen sich für diese Unterschiede sensibilisieren, um KI-Technologien sinnvoll nutzen und untersuchen zu können.
Peter Kahlert, Maryam Tatari, Suzette Kahlert, Silvan Pollozek, Johan Buchholz, Benedict Lang, Jan-Hendrik Passoth
Metadata
Title
Künstliche Intelligenz, Mensch und Gesellschaft
Editors
Michael Heinlein
Norbert Huchler
Copyright Year
2024
Electronic ISBN
978-3-658-43521-9
Print ISBN
978-3-658-43520-2
DOI
https://doi.org/10.1007/978-3-658-43521-9