Skip to main content

2020 | Buch

Maschinen der Kommunikation

Interdisziplinäre Perspektiven auf Technik und Gesellschaft im digitalen Zeitalter

herausgegeben von: Dr. Dr. Peter Klimczak, Prof. Dr. Christer Petersen, Samuel Schilling

Verlag: Springer Fachmedien Wiesbaden

Buchreihe : ars digitalis

insite
SUCHEN

Über dieses Buch

Ein Buch über Menschen, Maschinen und ihre Verbindungen
Digitale Endgeräte sind längst zu einem festen Bestandteil unserer Gesellschaft geworden. Aber wie wirkt sich der technische Fortschritt auf unser tägliches Zusammenleben aus? Antworten auf diese Frage liefert das neue Buch über die wechselseitigen Beziehungen zwischen Mensch und Maschine.

Digitalisierung als kulturelle Revolution
Dass neue Technologien industrielle und wirtschaftliche Prozesse verändern, lässt sich leicht anhand von Portalen wie eBay oder Amazon belegen. Das Internet setzt aber auch weniger sichtbare Veränderungen in Gang. So nehmen technische Innovationen Einfluss darauf, wie wir Menschen Informationen vermitteln, aufnehmen und verarbeiten. Zu solchen Innovationen zählen:ChatbotsHumanoide RoboterDigitale Agenten
Der Wandel kultureller Praktiken bedeutet jedoch nicht, dass menschliches Miteinander auf Kosten eines automatisierten Überwachungsapparates verloren geht. Die Herausgeber Klimczak, Petersen und Schilling rufen in ihrem Buch zu einem fachübergreifenden Austausch über die Kommunikationsweisen zwischen Mensch und Maschine auf.

Posthumanismus aus interdisziplinärer Sicht
Die Herausgeber dieses Buchs über Mensch, Maschine und Gesellschaft arbeiten an der Technischen Universität in Brandenburg in den Bereichen Medienforschung und Kognitive Systeme. Ihre Kollaboration basiert auf einer engen Vernetzung von kulturwissenschaftlichen und informationstechnologischen Disziplinen. Konkret bedeutet das:Geisteswissenschaftler müssen die maschinellen Grundlagen ihrer digitalen Untersuchungsobjekte verstehen.Technische Entwickler müssen verstehen, wie ihre Erfindungen kulturelle Verhältnisse verändern.
Auch wenn die Herausgeber für ihr Buch über die komplexen Zusammenhänge zwischen Mensch und Maschine eine Vielzahl an Perspektiven heranziehen, werden immer wieder Überschneidungen deutlich. Deshalb richtet sich dieses Werk an Forscher und Praktiker aus verschiedensten Fachgebieten, darunter:
InformatikNachrichtentechnikKulturwissenschaftSoziologiePhilosophieNur, wenn all diese Disziplinen an einem Strang ziehen, kann unsere Gesellschaft die Herausforderungen meistern, die Neue Medien und Künstliche Intelligenz mit sich bringen.

Inhaltsverzeichnis

Frontmatter

Metadaten

Frontmatter
Kapitel 1. Metadaten im Kontext
Warum wir eine neue Datenkunde brauchen
Zusammenfassung
Metadaten sind ein Schlüssel zur Nutzung und Deutung von Daten. Im Zusammenhang mit dem in digitalen Prozessen anfallenden Datenvolumen gilt das umso mehr. Der Beitrag diskutiert Metadaten in der digital vermittelten Kommunikation aus verschiedenen disziplinären Perspektiven: im Betrieb von Maschinen, bei der Aufbereitung und Verwertung von Daten und schließlich aus einer soziologischen Beobachtungsperspektive. Metadaten sind in allen Fällen ein kontextabhängiges Element der Wissensrepräsentation. Metadaten zu erzeugen und zu nutzen, heißt immer, Daten zu deuten und Deutungen zu materialisieren. Am Beispiel eines Community-basierten Funknetzes für das Internet der Dinge (IoT) erläutern wir die Bedeutung von Domänenwissen. Wir argumentieren, dass die Nachnutzung von (Meta-)Daten eine Rekonstruktion ihres Entstehungskontexts erfordert. Mit der sozialwissenschaftlichen Datenkunde stellen wir abschließend ein solches Werkzeug zur Rekonstruktion von Kontext vor.
Karoline Krenn, Jens Tiemann
Kapitel 2. Maschinen in der visuellen Kommunikation
Die Rolle des Computers zwischen Kunsthistoriker und Artefakt
Zusammenfassung
Wenn das Bild ein zentrales epistemisches Werkzeug ist, stellt sich die Frage, was das computergenerierte Bild an Erkenntnissen erzeugen und kommunizieren kann. Dazu kann die Kunstgeschichte aus ihrer historischen und theoretischen Erfahrung heraus entscheidende Beiträge liefern. Und zwar gerade aus ihrer methodischen Entwicklung zu einer digitalen Geisteswissenschaft heraus. Im Folgenden soll dargestellt werden, welche Aufgaben die Digitale Kunstgeschichte heute hat, welche Rolle der Computer in der visuellen Geisteswissenschaft spielen kann und wie die digitale Transformation die Vorstellung historischer Kultur verändert.
Harald Klinke

Wissen und Suchmaschinen

Frontmatter
Kapitel 3. Gefangen in der Filterblase?
Suchmaschinenergebnisse als Beispiel eines wissensbasierten Konsenses
Zusammenfassung
Wer das Internet mit seinen Suchmaschinen schlicht als eine gigantische Enzyklopädie versteht, verkennt seinen dynamischen Charakter: Webseiten und Links entstehen und verschwinden im Sekundentakt, und auch die Algorithmen, mit denen sich Webseiten nach bestimmten Suchbegriffen durchforsten lassen, werden regelmäßig verändert und angepasst. Wir gehen der Frage nach, ob Internet-Suchmaschinen Wissen im epistemischen Sinne repräsentieren, welche algorithmischen und nutzerbasierten Korrekturmechanismen es gibt, um falsche oder ungerechtfertigte Meinungen zu korrigieren, und welche Rolle die sogenannten Filterblasen bei der Suche nach Wissen und Informationen spielen. Es wird argumentiert, dass Suchmaschinenergebnissen, die zuverlässig und beständig in eine bestimmte Richtung deuten, ein Konsens zwischen verschiedenen Wissenssubjekten zugrunde liegt, für den epistemisches Wissen unter bestimmten Voraussetzungen die beste Erklärung ist. Wir werden diese Voraussetzungen diskutieren und anhand verschiedener Beispiele erläutern, woran man erkennen kann, ob ein Konsens wissensbasiert ist oder ob man nur in einer Filterblase steckt.
Carsten Hartmann
Kapitel 4. Wissen im Zeitalter von Google, Fake News und alternativen Fakten
Zusammenfassung
Das Internet verändert die Art und Weise, wie wir mit Informationen und Wissen umgehen. Wenn wir etwas wissen wollen, dann fragen wir Google. Aber ist das wirklich Wissen? Der Philosoph Michael Lynch vertritt in seinem Buch The Internet of Us (2016) die These, dass man Wissen nicht einfach herunterladen könne und Google lediglich eine gefilterte und verzerrte Sicht auf die Wirklichkeit liefere. Ich will Lynchs These stützen, indem ich erkläre, was man in der Erkenntnistheorie unter „Wissen“ versteht, und diesen Wissensbegriff mit dem „Google-Wissen“ vergleiche. Dieser erkenntnistheoretische Exkurs wird zeigen, dass das Internet bestenfalls Informationen, aber kein Wissen liefert. Zum Wissen gehört Verstehen. Wissen muss überprüfbar, Quellen müssen vertrauenswürdig und zuverlässig sein. Darum ist es wichtig, verschiedene Perspektiven zu vergleichen und zu einer multiperspektivischen Sichtweise zu gelangen.
Thomas Zoglauer

Personalisierung

Frontmatter
Kapitel 5. Wir unterrichten die Maschinen, die Maschinen unterrichten uns
Dialogbasiertes computergestütztes Erlernen von Fremdsprachen im Zeitalter der Chatbots und der Personalisierung
Zusammenfassung
Bisher war der Bereich des computergestützten Fremdspracherwerbs, ob dialogbasiert oder nicht, hauptsächlich in der Theorie des Fremdspracherwerbs verankert, die ihren Ursprung in der Forschung des Sprachunterrichts hat. Dementsprechend orientieren sich die Benutzermodelle am Verhalten der Schüler im Sprachunterricht, und die Systemmodelle sollen den Sprachlehrer in der einen oder anderen Form simulieren. Allerdings zeigen die neusten Untersuchungen in der Konversationsanalyse, dass zum einen der Fremdspracherwerb bei Weitem nicht nur in den Formen stattfindet, die wir aus dem Sprachunterricht kennen, und zum anderen, dass die Sprachvarianz im Unterricht sehr beschränkt ist. Diese Beschränkung ist hauptsächlich durch die sozialen Identitäten der Lehrer und Schüler gegeben. Sie bestimmen, welche Typen von sozialen Aktionen, die wir in der Sprache zum Ausdruck bringen, angemessen sind. Dieser Artikel argumentiert, dass eine intensivere Kooperation zwischen Sprachtechnologie und Konversationsanalyse erforderlich ist, um Dialogsysteme zu entwickeln, die sich in ihrer Qualität menschlicher Interaktion nähern. Es werden Vorschläge gemacht, wie man dieses anspruchsvolle Ziel erreichen könnte. Die Datenqualität spielt dabei eine besondere Rolle.
Sviatlana Höhn
Kapitel 6. Personalisierter Wahlkampf 2.0?
Grenzen politischer Öffentlichkeit in Zeiten des Microtargeting
Zusammenfassung
Vor dem Hintergrund des Skandals um Cambridge Analytica untersucht der Beitrag, ob und in welchen Hinsichten eine personalisierte Wähleransprache auf Basis von Microtargeting die Funktionen politischer Öffentlichkeit im Zusammenhang mit Wahlkämpfen beeinträchtigt. Der Beitrag ordnet Microtargeting in den Kontext politischen Marketings ein und zeigt auf, dass es nicht notwendig an die Nutzung von Social-Media-Plattformen als Quelle von Big Data und Medium der Wahlkampfkommunikation gebunden ist. Eine solche Nutzung verstärkt aber die Möglichkeiten zielgruppenspezifischer Wähleransprache erheblich, wobei deren Wirksamkeit hinsichtlich der Beeinflussung des Wählerverhaltens schwer abzuschätzen ist. Unabhängig von intendierten Effekten der selektiven Wählermobilisierung oder -überredung hat Microtargeting aber das Potenzial, Funktionen politischer Öffentlichkeit zu untergraben und auf diese Weise demokratische Politik in Zukunft zu erschweren.
Isabel Kusche

Mensch und Maschine

Frontmatter
Kapitel 7. Mit Computern spielen
Soziologische Fragen an die Interaktion mit künstlich intelligenten Spielpartnern
Zusammenfassung
In diesem Beitrag wird der Vorschlag gemacht, einen soziologischen Perspektivwechsel vorzunehmen und für die Analyse der Interaktion von Menschen und virtuellen Spielgefährten nicht mehr auf die Imitation menschlichen Bewusstseins zu fokussieren, sondern sich an den Strukturen (menschlicher) Kommunikation zu orientieren. Das Einnehmen dieser Perspektive hat den Vorteil, sich nicht auf die Definition von künstlicher Intelligenz einlassen zu müssen, sondern auf die konkrete Praxis der Interaktion zu fokussieren. Denn vor allem die Praxis des Spielens mit Computern fordert dazu auf, über menschliche und künstliche Kommunikation nachzudenken und danach zu fragen, wessen es womöglich noch bedarf, um auch nichtmenschliche Entitäten in die Gesellschaft zu inkludieren.
Jonathan Harth
Kapitel 8. Die Spur des simulierten Anderen
Humanoide Roboter und die Imitation des Emotionalen
Zusammenfassung
Humanoide soziale Roboter suggerieren, dass ‚natürliche‘ menschliche Interaktionsweisen mit ihnen möglich seien, was zugleich affektiv-emotionale Bindungen zu ihnen begünstigt. Als genuin „soziale Interfaces“ erlauben sie die Imitation von Emotionen, was starke kulturelle Vorannahmen verfestigt, indem Emotionen etwa als uniformer und primitiver Antagonist der Rationalität verstanden werden, der sich in maschinenlesbaren Zeichensystemen ausdrückt. Neben einer Reflexion dieser Prämissen problematisiert der Text die Simulation empfindungsfähiger Menschen: Mit der Unterscheidbarkeit von Mensch und Maschine werden zugleich bisherige Fundamente menschlichen Zusammenlebens infrage gestellt.
Thomas Christian Bächle

Maschinenlernen

Frontmatter
Kapitel 9. Kl im Verlagswesen
Werkzeuge mit Disruptionspotenzial und Herausforderung für Selbstverständnis und Verantwortung
Zusammenfassung
Bei einer etwas großzügigeren begrifflichen Fassung reicht die Nutzung von Künstliche-Intelligenz-Werkzeugen in Kernbereichen der Verlagswelt mehrere Jahrzehnte zurück, in Form z. B. von professionellen Rechtschreib- und Grammatikprüfprogrammen. Der u. a. durch Fortschritte in der Hard- und Softwareentwicklung sowie den Zugang zu großen Datenmengen ermöglichte Aufschwung der künstlichen Intelligenz in den letzten Jahren hat das Angebot an Anwendungen aber wesentlich erweitert und v. a. deren Qualität erhöht. Dieser Beitrag ordnet beispielhafte aktuelle Anwendungen in geeignete Modelle der Verlagsarbeit ein und widmet sich darüber hinaus der Frage, ob die Unterschiede in der Automatisierbarkeit von konstitutiven Schritten des verlegerischen Handelns es möglich oder sogar notwendig machen, das auf der Basis einer über Jahrhunderte ausgeübten kulturellen Praxis herausgebildete Selbstbild der Verlagsbranche zu präzisieren bzw. möglicherweise zu modifizieren. Außerdem wird diskutiert, ob generelle Bedenken und Vorbehalte den Einsatz von künstlicher Intelligenz betreffend im Falle des Verlagswesens bzw. der Buchbranche eine besondere Ausprägung bekommen.
Christoph Bläsi
Kapitel 10. Künstliche neuronale Netzwerke als Black Box
Verfahren der Explainable AI. Medienwissenschaftliche Perspektiven
Zusammenfassung
Die allgegenwärtige Rede über künstliche Intelligenz (KI) wird vor allem von einem Paradigma bestimmt: den maschinellen Lernverfahren des Deep Learning (DL) oder, um eine Bezeichnung zu gebrauchen, die weitaus länger etabliert ist, künstlichen neuronalen Netzwerken (KNN). Deren Bedeutung wird schnell deutlich, wenn man sich allein die Bandbreite ihrer Anwendungsfelder vor Augen führt: Selbst fahrende Autos, persönliche Sprachassistenten, die Identifizierung von Krankheiten in der medizinischen Diagnostik, die Vorhersage von Börsenkursen usw. Vor allem bestimmen sie längst im Engeren die Praktiken und Technologien der (digitalen) Medienkultur: Man denke etwa an die Empfehlungsalgorithmen von Streaming-Plattformen wie Netflix oder Spotify, an das automatische Tagging von Bildern auf Social-Media-Plattformen wie Facebook oder auch an maschinelle Übersetzungssysteme wie Google Translate oder DeepL.
Andreas Sudmann

Normativität

Frontmatter
Kapitel 11. Technikentstehung und Determination
Zusammenfassung
„Das Internet wurde bekanntlich als militärisches Instrument konzipiert, das eine Aufrechterhaltung der Befehlsstruktur (Macht) im Kriegsfall garantieren sollte“ (Wunderlich 1999, S. 359). Jeder scheint zu wissen, wie das ‚Netz der Netze‘ entstanden ist, dass das Militär dabei eine tragende Rolle innehatte und dadurch – wozu sonst der Hinweis? – das Netz auf eine bis heute geltende spezifische Weise geformt wurde, woraus auch die Folgefrage nach den „informationstechnischen Determinanten“ „(medien-)kultureller Praktiken“ (so der Call zum Kolloquium Maschinen (in) der KommunikationForschung im digitalen Zeitalter, 19.02.2018) resultiert. In diesem Beitrag wird zunächst der Frage nachgegangen, wie man die militärische Prägung von Computertechnologie verstehen kann. Dabei zeichnet sich ab, dass Computer, gerade weil sie universelle Maschinen sind, einem historischen Prozess der Ausdifferenzierung unterliegen. Die Existenz dieses Prozesses widerspricht der Annahme einer militärischen Formung, die alle Wandlungen der Technologie konstant durchzieht (Abschn. 11.1). Diese These soll zweitens an einer notwendig nur selektiven Darstellung der Geschichte des Internets bzw. eines seiner Vorläufer, des Arpanets (Es heißt Arpanet, weil es von der Advanced Research Projects Agency (ARPA) des US Departments of Defense finanziert wurde. Diese Behörde unterstützt kosten- und materialaufwendige Forschungsprojekte, die vor allem militärische Verwendung finden. Sie änderte ihren Namen 1971 in Defense Advanced Research Projects Agency (DARPA), dann 1993 wieder in ARPA und 1996 erneut in DARPA.), geprüft werden (Abschn. 11.2). In Abschn. 11.3 wird ein Fazit gezogen.
Jens Schröter
Kapitel 12. Algorithmic Governance der Wikipedia
Ein Vorbild für die Gestaltung algorithmischer Systeme?
Zusammenfassung
Mit der wachsenden Bedeutung algorithmischer Systeme in gesellschaftlichen Kontexten nimmt die Debatte darüber, wie sie gestaltet werden sollten, zu. Die Wikipedia-Community hat bereits vielfältige Erfahrungen mit der Gestaltung und dem Einsatz algorithmischer Systeme sammeln können. So hat sich in den letzten 15 Jahren eine soziotechnische Assemblage aus menschlichen und algorithmischen Akteuren herausgebildet, die gemeinschaftlich und aufeinander abgestimmt umfangreiche Aufgaben bewältigen. Dieser Artikel beschreibt unterschiedliche Mechanismen dieser Algorithmic Governance, die die Grundlage für Gestaltungsempfehlungen von algorithmischen Systemen bilden. Diese umfassen die eindeutige Identifizierbarkeit nichtmenschlicher Systeme, einen gemeinschaftlich definierten Handlungsrahmen, die Diversität algorithmischer Realisierungen, eine offene Infrastruktur, eine Werteorientierung und Folgenabschätzung sowie die Sicherstellung der menschlichen Handlungsfähigkeit. Dieser Beitrag führt diese Gestaltungsempfehlungen ein und diskutiert sie, um auf einen werteorientierten Umgang mit algorithmischen Systemen hinzuwirken.
Claudia Müller-Birn
Backmatter
Metadaten
Titel
Maschinen der Kommunikation
herausgegeben von
Dr. Dr. Peter Klimczak
Prof. Dr. Christer Petersen
Samuel Schilling
Copyright-Jahr
2020
Electronic ISBN
978-3-658-27852-6
Print ISBN
978-3-658-27851-9
DOI
https://doi.org/10.1007/978-3-658-27852-6