Skip to main content
main-content

Über dieses Buch

Der Band untersucht die besonderen ethischen Probleme, die die Entwicklung autonom „handelnder“ und „kommunizierender“ medialer Systeme aufwirft. Da sie Prozesse nicht nur eigenständig vollziehen, sondern zugleich steuern, stellt sich die Frage, inwieweit sie in diesem „Handeln“ und „Entscheiden“ normativ orientiert werden können. Über frühere Entwicklungen hinaus entsteht zudem eine computergesteuerte digitale Infrastruktur, die alle symbolischen Operationen integriert und an sich bindet. Ausgehend von der Mediatisierungstheorie werden die medienethischen Implikationen solcher Systeme diskutiert.

Inhaltsverzeichnis

Frontmatter

Brauchen Maschinen Ethik?

Begründungstheoretische und praktische Herausforderungen
Wir sind von Maschinen umlagert und von Medien umgeben – immer und überall. Der Terminus „Mediatisierung“ hat sich dabei weitgehend als Sammelbegriff für die Beschreibung der Durchdringung der Gesellschaft mit Medien und den mannigfachen Veränderungen, die sich aus diesem Prozess ergeben, auch jenseits der engeren fachlichen Grenzen der Kommunikationswissenschaft etabliert. Mediatisierung wird dabei als „Metaprozess“ (Krotz 2015, S. 13) identifiziert, der Globalisierung oder Individualisierung vergleichbar, der alle Bereiche menschlichen Lebens umfasst – und fast jede Dimension sozialen Lebens betrifft (vgl. hierzu zusammenfassend Krotz 2009, 2010; Hepp 2013).
Matthias Rath, Matthias Karmasin, Friedrich Krotz

Brauchen Maschinen eine neue Ethik?

Frontmatter

Die Begegnung von Mensch und Roboter

Überlegungen zu ethischen Fragen aus der Perspektive des Mediatisierungsansatzes
Die Mediatisierungsforschung kann verschiedene Einsichten und Überlegungen beitragen, die sich auf das Aufkommen von ‚intelligenten’ Maschinen, insbesondere Hard- und Software-Robotern, beziehen, die damit verbundenen Entwicklungen beschreiben sowie die damit verbundenen Möglichkeiten und Probleme im Hinblick auf ethische Fragestellungen analysieren. Dabei ist es ein Ausgangspunkt, auf menschliches Handeln bezogene Konzepte wie Kommunikation, soziales Handeln oder Autonomie nicht umstandslos begrifflich auf vergleichbare Operationen von Maschinen zu übertragen. Darüber hinaus ist zu berücksichtigen, dass die derzeitige Entwicklung weniger auf eigenständig ‚autonomen’ Maschinen ausgerichtet ist, stattdessen entstehen zunehmend funktionale Maschinen, die in Echtzeit von Computernetzen gesteuert werden. Eine ‚Begegnung von Mensch und Maschine’ beruht damit nicht mehr auf den lokal vorhandenen Rechenkapazitäten und kann folglich ohne Berücksichtigung von Mediatisierung als Vernetzung aller ‚Dinge’ mittels Computernetzen nicht mehr angemessen verstanden werden.
Friedrich Krotz

Automatisierung, Algorithmen, Accountability

Eine Governance Perspektive
Algorithmen und Prozesse algorithmischer Selektion durchdringen Wirtschaft und Gesellschaft. Mit der starken Verbreitung, dem steigenden Einfluss und den vorhandenen Risiken von Algorithmen stellt sich auch die Verantwortungsfrage (Accountability). Der Beitrag bietet einen Überblick zu bestehenden Verantwortungsstrukturen im Bereich algorithmischer Selektion aus einer Governance-Perspektive. Im Verantwortungsnetzwerk agieren Nutzer, Unternehmen, Entwickler, Technologien, Verbände, Experten und der Staat, die mit unterschiedlichen Verantwortlichkeitskonzepten in Verbindung gebracht werden: Von der Eigenverantwortung (Nutzer) und Accountability-by-Design (Technologie) über Corporate Social Responsibility (Unternehmen) bis zu Accountability Reporting (Journalismus). Die vielfältigen Verantwortungsträger, verteiltes Handeln und die unterschiedlichen Verantwortungskonzepte verweisen in Summe auf eine “verteilte Verantwortlichkeit” (Distributed Accountability) im Bereich algorithmischer Selektion, deren Implikationen noch nicht hinlänglich erfasst sind.
Florian Saurwein

Mein Haus, mein Auto, mein Roboter?

Eine (medien-)ethische Beurteilung der Angst vor Robotern und künstlicher Intelligenz
Der tschechischen Autors Karel Čapek, der den Grundstein für den Einzug des Wortes „Roboter“ in die Alltagssprache legte, zeichnet ein Bild von Robotern und der Interaktion dieser mit Menschen, das ein zentrales Motiv beinhaltet, die Angst des Menschen, durch Roboter ersetzt zu werden. Der Beitrag diskutiert, wie diese „prometheische Scham“ (Günther Anders), die auch als Superioritätsproblem bezeichnet werden kann, maschinenethisch beurteilt werden kann. Die Frage „Brauchen Maschinen Ethik?“, stellt sich in diesem Kontext also anders: „Welche Ethik brauchen Menschen, die mit Maschinen umgehen?“
Leonie Seng

Autonomie der Technologie und autonome Systeme als ethische Herausforderung

Eine Beschreibungsform, die erstaunlich unreflektiert in fast allen Wissenschaften aktuell in Bezug auf diese technologischen Umwälzungen Verwendung findet, ist der Begriff der „Autonomie“. Zunächst werden vier miteinander verbundene Schwerpunkte der Debatte um Autonomie unterschieden. Daran anschließend soll die Rolle von Medien im Diskurs über Autonomie aus der Perspektive der Mediatisierung beleuchtet werden. Die Grundthese dabei ist, dass die bislang unkritische und ubiquitäre Nutzung von „Autonomie“ einer klaren Perspektivierung von Autonomie im Wege steht. Es wird zu fragen sein, wie man den Begriff für medientheoretische und medienanalytische Zugänge perspektivieren kann.
Caja Thimm, Thomas Christian Bächle

Wer ist Zurechnungspunkt von Verantwortung?

Frontmatter

Verantwortung und Roboterethik

Ein Überblick und kritische Reflexionen
Der rasante Fortschritt in Robotik und KI-Forschung stellt uns vor die Aufgabe einer Transformation traditionell nur dem Menschen vorbehaltener Kompetenzen – Vernunft, Autonomie, Urteilskraft, um nur einige zu nennen – auf artifizielle Systeme. Der Beitrag widmet sich dazu zunächst dem Phänomen der Verantwortung. Dann wird die philosophische Disziplin der Roboterethik erläutert und abschließend wird die Rolle der Verantwortung in den beiden Arbeitsfeldern der Roboterethik – Roboter als moral agents und Roboter als moral patients – am Beispiel autonomer Fahrassistenzsysteme diskutiert. Artifizielle Systeme sind bislang und in absehbarer Zukunft nicht als Verantwortungsakteure zu identifizieren, insofern die zur Verantwortungszuschreibung nötigen Kompetenzen (Kommunikations- und Handlungsfähigkeit, sowie Urteilskraft) nur in einem schwach funktionalen oder gar nur in einem operationalen Sinne äquivalent simuliert werden können.
Janina Loh

Über die Unmöglichkeit einer kantisch handelnden Maschine

Der Beitrag argumentiert folgendermaßen: (1) Wenn wir wollen, dass Autonome Autos (AAs) unseren Straßenverkehr mehrheitlich bestimmen oder sie gar eines Tages die einzigen Autos auf der Straße sein sollten, müssen wir uns damit abfinden, dass wir somit die Möglichkeit, kantische Entscheidungen zu treffen, im Straßenverkehr abgeben. a. Die kantische Ethik fordert das Erkennen der Konsistenz von Maximen. b. Jedes hinreichend mächtige konsistente formale System kann die eigene Konsistenz nicht beweisen (zweiter Gödelscher Unvollständigkeitssatz). c. Mit Unendlichkeit können Maschinen nicht umgehen. Eine Maschine kann die Konsistenz der von ihr konzipierten Maxime nicht hinreichend beweisen – für sie ist das Problem nicht entscheidbar und somit nicht berechenbar. d. Eine Maschine kann die Konsistenz von Maximen nicht erkennen und somit keine moralischen Urteile auf Basis der kantischen Ethik treffen. (2) Im Straßenverkehr werden mitunter Entscheidungen um Leben und Tod abgefordert. Dabei sollte ein maximaler Wertepluralismus vorherrschen, damit die Urteilfähigkeit des Entscheidenden nicht eingeschränkt wird. Wir können eine Einschränkung der möglichen Entscheidungen nicht vernünftigerweise wollen. (3) Eine Straßenzulassung für AAs sollte im Sinne des Wertepluralismus nicht ermöglicht werden.
Julchen Brieger

Rassistische Maschinen?

Übertragungsprozesse von Wertorientierungen zwischen Gesellschaft und Technik
Die „Flüchtlingskrise“ beherrscht den öffentlichen sowie massenmedial geführten Diskurs, auch in Foren digitaler sozialer Netzwerke. Gezeigt werden soll, wie Rassismus, welcher zuerst einmal ein genuin soziales Phänomen ist, über verschiedene Übersetzungs- und Lernprozesse hinweg in die Funktionsweise informationstechnischer Systeme (Algorithmen) einfließt. Ein entscheidender Faktor dabei ist der (Trainings-)Datensatz ist, aus welchem die Algorithmen lernen. Es bedarf folglich zum einen einer kritischen Reflexion der Verwendungsweisen von (Trainings-)Datensätzen, zum anderen ist zu fragen, inwiefern Medien insgesamt ein bloßer „Spiegel“ der Gesellschaft sein sollen, oder ob eine gewisse normative Lenkung von Medien sozial wünschenswert ist.
Thilo Hagendorff

Die Banalität des Algorithmus

Die Steuerung von Maschinen wird zunehmend an Algorithmen delegiert. Gleichzeitig haben neue Möglichkeiten der Digitalisierung zu einem steigenden Einsatz von Algorithmen in vielen gesellschaftlichen Feldern geführt – in Extremfällen treten Algorithmen als Interaktionspartner auf. Diese zunehmende Alltäglichkeit von Algorithmen wirft die Frage auf, ob und wie diese zwischen „richtig“ und „falsch“, zwischen „Gut“ und „Böse“ unterscheiden können. Im vorliegenden Beitrag wird argumentiert, dass Algorithmen „gewissenlos gewissenhaft“ sind. Aufbauend auf Hannah Arendts Schriften über das Böse werden Algorithmen einerseits als gewissenhafte, regeltreue und gründliche Akteure interpretiert. Andererseits wird ihnen die Möglichkeit einer moralischen Orientierung abgesprochen. Arendt legt überzeugend dar, dass Moral nicht in Bezug auf Andere, sondern in einem „Zwiegespräch“ des Menschen mit sich selbst entsteht, woraus auch die Fähigkeit zum Regelbruch erwächst. Algorithmen, so wird weiter argumentiert, mögen zwar vormals von Menschen durchgeführte Aufgaben übernehmen. Sie sind aber nicht in der Lage, diese hinsichtlich ihres moralischen Gehalts zu überprüfen.
Werner Reichmann

Big Data und die Frage nach Gerechtigkeit

Die Anwendungen von Big-Data-Technologien versprechen für Unternehmen Wissensgenerierung auf Basis großer Datenmengen in einer bislang nicht gekannten Dimension. Allerdings gehen mit den neuen Instrumenten ebenso diskussionswürdige Momente einher. In diesem Zusammenhang ist u. a. auf die Analysearbeit von Algorithmen hinzuweisen. Die hieraus entstehenden problematischen Effekte scheinen allerdings von Seiten der Unternehmen hingenommen und vornehmlich den Datengebern (Konsumenten) aufgebürdet zu werden. Notwendig ist daher eine Auseinandersetzung darüber zu führen, was Sammeln und Auswerten von Daten für eine gerechte Gesellschaft bedeuten können. Konkret geht es im vorliegenden Beitrag um eine Betrachtung aus der Perspektive der Gerechtigkeitstheorie von John Rawls anhand des Facebook Newsfeed. Seine Theorie steht bis heute maßgeblich im Zentrum zeitgenössischer Gerechtigkeitsdiskussionen und trägt mit dem Gedankenexperiments des „Urzustands“ zu Überlegungen hinsichtlich der Gerechtigkeit zu beurteilender Situationen bei.
Nadine Sutmöller

Warum mein Auto nie allein schuld sein wird

Über die Teilverantwortlichkeit autonomer Akteure
Ob ein autonomes, freies, teilverantwortliches Auto jedoch überhaupt ein erstrebenswertes Ziel ist, ist fraglich. Selbstlernende Autos, die Fehler machen können, um zu lernen, sollten nicht am Straßenverkehr teilnehmen, weil dann bei Unfällen eine kausale, rechtliche und moralische Verantwortungslücke entstehen kann. Die Lösung liegt demnach vermutlich in einem autonomen Auto, das in einer langen, fehlerbehafteten Testphase außerhalb des Straßenverkehrs zur technischen Perfektion gebracht wurde, und erst dann am Straßenverkehr teilnehmen darf. Angestrebt werden sollte demnach die technische Vollkommenheit eines Autos, nicht die ethische Vollkommenheit. Sowohl im Alltag des Straßenverkehrs, als auch in Dilemmata-Situationen wäre ein im technischen Sinne perfektes Auto die bessere Wahl.
Erik Wölm

Autonomie und Moralität als Zuschreibung

Über die begriffliche und inhaltliche Sinnlosigkeit einer Maschinenethik
Der Beitrag widerspricht der These, es gäbe (bald) autonome Maschinen, so dass es einer Ethik für Maschinen bedürfe, denen diese Maschinen unterworfen sein müssten. Eine Ethik für autonome Maschinen wäre nur denkbar, wenn sich diese Maschinen jene Ethik selbst geben würden und dieser freiwillig folgten – genau dies bedeutet Autonomie. Jedes Regelwerk, das den Maschinen einprogrammiert oder anderweitig bindend aufgegeben werden würde, kann nicht als Maschinenethik verstanden werden. Das Hauptargument des Beitrags wird jedoch sein, dass Menschen den vermeintlich autonomen Maschinen diese Eigenschaft zuzuschreiben bereit sind, den Unterschied zwischen Menschen und Maschinen im Handeln verwischen und so erst die Rede von einer Maschinenethik provozieren. Abschließend wird eine moralische Norm formuliert, die jedoch keinerlei Maschinenethik impliziert, sondern eine moralische Norm für Menschen darstellt. Damit würde der Vermenschlichung von Maschinen entgegengewirkt und sicher gestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designern und Herstellern zugerechnet werden kann.
Karsten Weber

Auf welcher Ebene setzt die ethische Argumentation an?

Frontmatter

Ethik der Selbstorganisation als selbstorganisierende Ethik?

Mediatisierungsprozesse bedürfen der ethischen Reflexion und stellen neue Anforderungen an die Medien- und Kommunikationsethik. Mit Blick auf selbstorganisierende technische Systeme stellt sich allerdings die Frage, ob davon ausgegangen werden kann (und soll), dass sich Ethik in Analogie dazu auch selbstorganisierend einstellt oder überhaupt so denkbar ist. Theoretische Überlegungen (insbesondere aus der Perspektive der Technikethik) wie empirische Ergebnisse zeigen, dass das eher nicht zu erwarten ist. Für die empirische Bearbeitung des Themas wurden 33 Interviews mit WissenschaftlerInnen aus verschiedenen Disziplinen zum Thema der Selbstorganisation in Hinblick auf ethische Fragestellungen, die sich für technische selbstorganisierende Systeme ergeben, ausgewertet. Auf Basis dessen werden allgemeine ethische Herausforderungen und erste Möglichkeiten ihnen zu begegnen skizziert.
Larissa Krainer

Zur Verantwortungsfähigkeit künstlicher „moralischer Akteure“

Problemanzeige oder Ablenkungsmanöver?
Das Konstrukt moralischer Akteuren, die sich nicht unmittelbar auf individuelle Menschen zurückführen lassen, sind in der angewandten Ethik nicht ungewöhnlich. Übertragen auf die Frage nach dem ethischen Stellenwert einer Maschine mit definierten, regelgestützten Kommunikations- und Aktionsmöglichkeiten wird im Beitrag der metaethischen (und letztlich kantischen) Frage nachgegangen, welchen entscheidungslogischen Stellenwert Regeln überhaupt haben können, denen Maschinen folgen soll, und welche Verantwortungslogik diese Regeln und den aus ihnen resultierenden Handlungen zugrunde liegt.
Matthias Rath

Moralische Maschinen

Was die Maschine über die Moral ihrer Schöpferinnen und Schöpfer verrät
Informationstechnischen Systemen wird oft zugeschrieben, Entscheidungen treffen zu können, dabei findet eine Berechnung statt. Menschen folgen moralischen Gesetzen – oder eben nicht. Ein informationstechnisches System muss den einprogrammierten Gesetzen folgen, so wie der Mensch den zahlreichen Naturgesetzen unterworfen ist. Wenn es eingesetzt wird, um zentrale Bereiche des menschlichen Zusammenlebens zu kontrollieren, zu steuern, zu beobachten oder zu messen, dann muss stets mitgedacht werden, dass es nur auf den kontrollierbaren, steuerbaren, beobachtbaren und den messbaren Bereich Zugriff hat. Doch anstatt sich nun aus diesen unkontrollierbaren, nicht steuer- oder beobachtbaren Domänen des gesellschaftlichen Zusammenlebens zurückzuziehen, wird die soziale Sphäre weitestgehend maschinenlesbar, also berechenbar gestaltet. Der unberechenbare Mensch wird zum Störfaktor, ebenso wie die unberechenbare Sphäre der Moral. Moralische Maschinen sind ein ethisches Gedankenexperiment. Anhand einiger Beispiele soll argumentiert werden, dass es zwar prinzipiell unmöglich ist, moralisch handelnde Maschinen zu erschaffen, wir es aber dennoch versuchen sollten, weil die Beschäftigung mit diesem Thema zwar nicht die informationstechnischen Systeme moralischer macht, wohl aber ihre Schöpferinnen und Schöpfer.
Stefan Ullrich
Weitere Informationen

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Entwicklung einer Supply-Strategie bei der Atotech Deutschland GmbH am Standort Feucht

Die Fallstudie zur Entwicklung der Supply-Strategie bei Atotech Deutschland GmbH beschreibt den klassischen Weg der Strategieentwicklung von der 15M-Reifegradanalyse über die Formulierung und Implementierung der Supply-Rahmenstrategie. Im Mittelpunkt der Betrachtung steht die Ableitung und Umsetzung der strategischen Stoßrichtungen sowie die Vorstellung der Fortschreibung dieser Strategie. Lesen Sie in diesem Whitepaper, wie die Supply-Strategie dynamisch an die veränderten strategischen Anforderungen des Unternehmens angepasst wurde. Jetzt gratis downloaden!

Bildnachweise