Skip to main content
Erschienen in: HMD Praxis der Wirtschaftsinformatik 2/2022

Open Access 02.03.2022 | Schwerpunkt

Ethische KI? Datenbasierte Systeme (DS) mit Ethik

verfasst von: Peter G. Kirchschläger

Erschienen in: HMD Praxis der Wirtschaftsinformatik | Ausgabe 2/2022

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Im Kontext digitaler Transformation und künstlicher Intelligenz (KI) ergeben sich neue ethische Fragen. Grundsätzlich kommen zunächst Zweifel auf, ob der Begriff „künstliche Intelligenz“ adäquat ist dafür, worum es sich bei KI handelt, oder ob nicht der Begriff „datenbasierte Systeme (DS)“ präziser zu bezeichnen vermag, was Maschinen eigentlich leisten können und was technisch machbar ist. Darüber hinaus wäre die Möglichkeit zu prüfen, ob Menschen ethische Fragen und Probleme an Maschinen delegieren könnten. Schliesslich stellt sich auf der Basis der Auseinandersetzung mit diesen Fragen die Herausforderung, angesichts der Komplexität von Ethik, die ethischen Potenziale von DS entsprechend einzuordnen und zu verstehen, und damit verbunden die Verantwortung von Menschen für das Design, die Entwicklung, die Nutzung von „human rights based DS“ (HRBDS) (menschenrechtsbasierten DS) bzw. für den ethisch begründeten Verzicht von menschenrechtsverletzenden und/oder umweltzerstörenden, nicht nachhaltigen DS zu bestimmen.
Hinweise
HMD 344

1 Einleitung

Künstliche Intelligenz und digitale Transformation durchdringen das menschliche Dasein – sowohl das Berufs- als auch das Privatleben. Die wachsende Interaktion zwischen Menschen und Maschinen führt dazu, dass die Maschinen als Produkte der Menschen die Menschen selbst verändern (Ramge 2018). Beispielsweise reduzieren digitale Navigationssysteme die menschliche Orientierungskraft. Im Zuge digitaler Transformation ergeben sich ethische Chancen und ethische Risiken (Kirchschläger 2021). Beispielsweise erlauben Assistenzsysteme Menschen mit Behinderungen mehr Selbstbestimmung in ihrem Alltag. Gleichzeitig beinhaltet gegenwärtig digitale Transformation massive Verletzungen des menschenrechtlich garantierten Anspruchs auf Datenschutz und auf Privatsphäre.
Im folgenden Artikel wird zunächst auf der Basis eines Verständnisses der Beziehung zwischen technologischem Fortschritt und Ethik als Interaktion (Kirchschläger 2020) eine kritische Überprüfung von den Schlüsselbegriffen „künstliche Intelligenz“, „digitale Transformation“ und „Innovation“ vorgenommen und für „künstliche Intelligenz“ mit dem Begriff „datenbasierte Systeme (DS)“ eine Alternative eingeführt. Anschliessend wird die Frage diskutiert, ob nicht die Maschinen die Beantwortung der ethischen Fragen selbst übernehmen und die Menschen davon entlasten können. Schliesslich stellt sich dabei auch die Herausforderung, die Möglichkeiten datenbasierter Systeme im Bereich der Ethik so zu denken, dass dies auch der Komplexität von Ethik gerecht wird, und die damit verbundene Verantwortung von Menschen zu identifizieren.

2 Kritik von Schlüsselbegriffen

2.1 Künstliche Intelligenz

Künstliche Intelligenz kann umschrieben werden als „machines that are able to ‚think‘ in a human like manner and possess higher intellectual abilities and professional skills, including the capability of correcting themselves from their own mistakes.“ (Tzafestas 2016, S. 25) Künstliche Intelligenz wird heute in „schwache künstliche Intelligenz“ und „starke künstliche Intelligenz“ unterschieden. Während „schwache künstliche Intelligenz“ entwickelt wird, um eine bestimmte und begrenzte Aufgabe zu erfüllen, soll eine „starke künstliche Intelligenz“ menschlicher Intelligenz ähnlich sein und nahekommen, ja diese sogar übertreffen (Misselhorn 2018). Ausgangspunkt der Forschung im Bereich künstlicher Intelligenz war die Überzeugung, dass „every aspect of learning or any feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.“ (McCarthy et al. 2006, S. 12) Angesichts der Beschaffenheit von künstlicher Intelligenz (Abele und D’Onofrio 2020) ergeben sich aus ethischer Perspektive Zweifel, ob der Begriff überhaupt adäquat ist, da künstliche Intelligenz zwar danach strebt, menschliche Intelligenz zu imitieren, dies aber zum einen nur auf bestimmte Intelligenzbereiche beschränkt bleibt (z. B. gewisse kognitive Leistungen). Zum anderen ist davon auszugehen, dass künstliche Intelligenz der menschlichen Intelligenz in gewissen Intelligenzbereichen maximal ähnlich werden kann, aber nie gleich sein kann. Zu Recht erfolgt dazu der Einwand: „Intelligenz erschöpft sich nicht darin, ein bestimmtes kognitives Problem zu lösen, sondern es kommt darauf an, wie das geschieht.“ (Misselhorn 2018, S. 17) Passender wäre wohl der Begriff „datenbasierte Systeme (DS)“ (Kirchschläger 2021), da diese Bezeichnung das beschreibt, was vermeintliche künstliche Intelligenz ausmacht: die Generierung sowie Sammlung von und der Umgang mit bzw. die Bearbeitung von hohen Datenmengen.

2.2 Digitale Transformation

Der Begriff „digitale Transformation“ bezeichnet verschiedene technologiebasierte Veränderungen, wie z. B. „Digitalisierung“, „Automatisierung“, „Robotisierung“, „Maschinisierung“, „Einsatz von künstlicher Intelligenz“ und „Umgang mit Superintelligenz“ bzw. von datenbasierten Systemen (DS) sowie mit Super-DS. Besonders von Interesse erweist sich aus ethischer Sicht, wie sich diese technologiebasierte Transformation von früheren unterscheidet. Anders als bei bisherigen technologiebasierten Wandelepochen (Hessler 2016) geht es bei der „digitalen Transformation“ (Kirchschläger 2021) u. a. erstens darum, Menschen die Arbeit nicht zu erleichtern, sondern den Menschen im Wertschöpfungsprozess durch selbstlernende Systeme zu ersetzen (z. B. zielen automatisierte Kassen in Lebensmittelgeschäften nicht darauf ab, die berufliche Aufgabe des Einkassierens für die Kassiererinnen und Kassierer zu erleichtern – wie dies damals beim Schritt vom Pflug zum Traktor in Bezug auf die Tätigkeit des Bauers der Fall war). Letztere charakterisiert zudem zweitens gerade, dass sie auf immer weniger bis keinen menschlichen Input angewiesen sind (Floridi 2015). Drittens umfasst die digitale Transformation alle beruflichen Aufgaben (z. B. Roboter-AnwältInnen, Roboter-RichterInnen etc.) (Brynjolfsson und McAfee 2015). Viertens erfährt die „digitale Transformation“ durch die Globalisierung eine Verstärkung, die wechselseitig erfolgt, (Wilhelms 2018) was sich auch einzigartig dynamisierend auf die durch die „digitale Transformation“ verursachten Veränderungen der Arbeitswelt auswirkt. Fünftens sind sowohl das Berufs- als auch das Privatleben von den Veränderungen massiv betroffen. Sechstens verlaufen die Veränderungen viel schneller in kleineren Zeitintervallen ab.

2.3 Innovation

DS und digitale Transformation stützen sich auf Innovation ab. Letztere kann u. a. verstanden werden als „making something new that has ethical implications“ (Enderle 2015). Innovation muss per se nicht immer Innovation zum ethischen Guten sein. „Given the immense ambiguities of innovations – in themselves and in their consequences, the ethical scrutiny of innovation is a dictate of reason that should not be ignored any longer“. (Enderle 2014, S. 10) Es braucht für bzw. in Innovation ethische Orientierung. Der technologische Fortschritt selbst kann diese jedoch nicht leisten (Sacks 2015).
Die Komplexität der ethischen Untersuchung von technologischer Innovation erhöht, dass sie sich oft als Ergebnis von vielen kleinen Schritten und regelmässig als Produkt des Zufalls erweist, (Boutellier et al. 2010) was einen ethischen Zugriff bzw. eine ethische Prägung des Prozesses erschwert. Hinzu kommt, dass Technologie gewöhnlich nicht nach der sorgfältigen Prüfung von möglichen mittel- und langfristigen Folgen entwickelt wird. Meistens werden neue Technologien mit dem Ziel vorangetrieben, kurzfristigen Gewinn zu erzielen und dabei keine unmittelbaren Probleme zu schaffen. (Shibasaki 2005) Hinzu kommt, dass Innovationsprozesse in ihrer eigenen Komplexität nicht zu unterschätzen sind. „First, engineering and technology development typically take place in collective settings, in which a lot of different agents, apart from the engineers involved, eventually shape the technology developed and its social consequences. Second, engineering and technology development are complex processes, which are characterized by long causal chains between the actions of engineers and scientists and the eventual effects that raise ethical concern. Third, social consequences of technology are often hard to predict beforehand.“ (Doorn und van de Poel 2012, S. 2).
In letzter Konsequenz geht es angesichts von Innovation in Form von DS und digitaler Transformation um die Frage, ob die Menschen das, was technisch machbar ist, auch wirklich machen sollen. Ethische Orientierung angesichts und im Zuge dieser Innovation – nämlich die Identifizierung der Chancen und Risiken von DS und digitaler Transformation sowie der Grenze zwischen dem technisch Machbaren und dem Gesollten – ist von Nöten.

3 Können Menschen ethische Fragen und Probleme an datenbasierte Systeme DS delegieren?

In Anbetracht der oben eingeführten hohen Komplexität der ethischen Beschäftigung mit DS und digitaler Transformation wäre es für die Menschen verlockend, die ethische Verantwortung an DS zu delegieren und auf ethische datenbasierte Systeme zu vertrauen. Bezeichnungen wie „moral technologies“ legen eine solche Möglichkeit nahe. Während Maschinen, Roboter und DS in der Lage sind, moralische Regeln zu befolgen sowie darauf basierend moralische Entscheidungen zu fällen und Handlungen zu vollziehen, ist ihnen aus folgenden Gründen die Moralfähigkeit, die Menschen ethisch begründbar zukommt (Kant 1797/1974), abzusprechen: Ein Gewissen kann von Technologien nicht ausgesagt werden. Im Gewissen fliessen objektiv Gesolltes und subjektiv in einer spezifischen Situation in einem bestimmten Kontext im Zuge einer einzigartigen Begegnung mit Menschen Erlebtes zusammen (Kirchschläger 2017a). „Conscience is an active faculty that discovers and discerns the good within the complexity of each situation.“ (Hogan 2004, S. 86) Die Potenziale, die Technologien hinsichtlich von moralischen Entscheidungen und Handlungen besitzen, kommen dem menschlichen Gewissen nicht in Ansätzen nahe. Ihnen fehlen die verschiedenen Ebenen der Sittlichkeit bzw. der Pflicht sowie der Existenz, die im Gewissen in unterschiedlicher Qualität, Intensität und geprägt von individueller Entwicklung bzw. sozialer Beeinflussung zusammenfliessen.
Ebenso müssen Technologien ohne Freiheit gedacht werden. Denn Technologien werden von Menschen entworfen, entwickelt und hergestellt, d. h. sie werden heteronom produziert. So erweist sich auch die Aneignung ethischer Normen von Menschen gesteuert. In letzter Konsequenz bleiben demnach Maschinen immer in dieser Fremdbestimmung gefangen. Auch selbstlernende Maschinen gehen bildlich gesprochen auf eine erste Zeile des Codes zurück, die immer vom Menschen stammt.
Ohne Freiheit kann Technologien auch keine Autonomie zugesprochen werden.1 Während es Menschen entspricht, für sich selbst allgemeine moralische Regeln und Prinzipien zu erkennen, diese für sich selbst zu setzen und diese ihren bzw. seinen Handlungen zugrunde zu legen (Kant 1797/1974, S. 20), ist dies Technologien nicht möglich. Technologien sind primär auf Zweckmässigkeit ausgerichtet und können sich als selbstlernende Systeme Regeln setzen, z. B. um eine Effizienzsteigerung zu erreichen. Diese Regeln weisen aber keine ethische Qualität auf. Denn Maschinen scheitern am Prinzip der Verallgemeinbarkeit: „Eine rationale oder kritische Moral ist eine, die für ihre Grundsätze den Anspruch rationaler Begründbarkeit erhebt. Moralische Grundsätze sind rational begründet, wenn sie allgemein zustimmungsfähig sind, d. h. annehmbar für alle betroffenen Personen unter der Voraussetzung ihrer vollkommenen Gleichberechtigung und Selbstbestimmungsfähigkeit.“ (Koller 1990, S. 75) Daher ist z. B. im Bereich der Automatisierung von Mobilität der Begriff „autonome Fahrzeuge“ zu vermeiden und durch den Begriff „selbstfahrende Fahrzeuge“ zu ersetzen (Kirchschläger 2017b).
Um ein allfälliges Missverständnis vorzubeugen: DS können Menschen sehr wohl in ethischen Entscheidungen und in der Wahrnehmung ihrer ethischen Verantwortung unterstützen (Moor 1995). DS können auch ethische Regeln einprogrammiert bzw. antrainiert werden, um ein ethisch legitimes Entscheiden und Handeln einer Maschine zu erreichen (Wallach und Allen 2009). Die Menschenrechte aller Menschen wirken in dieser Verantwortung der Menschen konstituierend und leitend, datenbasierte Systeme DS mit Ethik zu schaffen.

4 Die Komplexität von Ethik

4.1 Die regelüberragende Einzigartigkeit des Konkreten

Im Zuge der Entwicklung von datenbasierten Systemen DS mit Ethik gilt es, die Komplexität von Ethik zu meistern. Um der Komplexität der Ethik gerecht zu werden, ist nicht mathematische oder digitale Ethik zu betreiben. Ethik erweist sich in ihrer Komplexität wegen ihrer Sensibilität der regelüberragenden Einzigartigkeit des Konkreten als nicht umfassend in die Sprache der Mathematik und der Programmierung übersetzbar. U. a. deswegen handelt es sich bei Ethik nicht um Kasuistik. Gewisse Aspekte der Ethik lassen sich als Regeln für DS programmieren bzw. antrainieren. Einige ethische Elemente entziehen sich diesem digitalen Zugriff. So lassen sich DS beispielsweise das Prinzip der Menschenwürde aller Menschen und die Menschenrechte sowie ethische Handlungsmaximen (Verbot der Lüge, des Diebstahls) vermitteln. Selbst in diesem Bereich des Möglichen gilt es aber nicht zu vernachlässigen, dass DS zwar diese Regeln lernen und befolgen können, diese Achtung der Regeln jedoch ohne Wissen um die ethische Qualität der Regeln erfolgt. In anderen Worten: DS würden auch nichtethische oder unethische Regeln in gleichem Masse respektieren.
Schwierig bis unmöglich wird ein Transfer der Ethik in die Mathematik und in die Programmierung, wenn Handlungsmaximen divergieren oder kollidieren. Die zunehmende Komplexität der Lebenswirklichkeit fordern zu realitätsgerechten Normeinsichten und zu differenzierteren und besseren Abwägungen heraus, was DS wegen ihrer fehlenden Moralfähigkeit überfordert. Unmöglich erweist sich die Übersetzung der Ethik in die Sprache der Mathematik, der Programmierung und der Digitalisierung in Situationen und Fällen, wo beim Menschen die Tugend der Epikie und das Gewissen besonders zum Zuge kommen. „Epikie ist die Berichtigung des Gesetzes da, wo es in Folge seiner generellen Fassung lückenhaft ist.“ (Aristoteles 1985) Epikie trägt der Wirklichkeit Rechnung, dass in der konkreten Begegnung mit konkreten Menschen in einer konkreten Situation Regeln an ihre Grenzen kommen, da das Konkrete in seiner Einzigartigkeit das Regelhafte weit übertrifft. „Die generell geltenden konkreten ethischen, die positivrechtlichen und die vielen anderen Normen sind zwar unerlässliche Voraussetzung, reichen aber nicht aus, um jenen tragfähigen Grundbestand an Humanität zu gewährleisten, der diese Gesellschaft angesichts der Vielfalt vor dem Zerreissen und den schlimmen Folgen, die sich daraus ergeben, bewahrt. Unweigerlich müssen wir in der konkreten Situation bisweilen auch Normen übertreten, um menschlich zu handeln, ohne dass wir deswegen die Notwendigkeit von Normen bestreiten oder leugnen, dass diese im Allgemeinen gelten.“ (Virt 2007, S. 42) Den Menschen wird damit verbunden eine Normgestaltungsverantwortung zugemutet, die für DS aufgrund ihres Mangels an Moralfähigkeit unerreichbar bleibt. Diese Normgestaltungsverantwortung zielt darauf ab, dass Regeln kontinuierlich kritisch hinterfragt und – falls nötig – im Dienste einer prospektiven ethischen Verbesserung von Menschen angepasst werden.
Diese prospektive kreative Ebene umfasst auch eine Normgebungsverantwortung der Menschen. „Die Wahrnehmung des sittlichen Anspruches bedeutet ja keineswegs bloss ein Ablesen von normativ festgelegten Sach- und Sinnverhalten, sondern ist immer schon ein schöpferisches Sehen und Entdecken. Schöpferisch ist dieses Sehen und Entdecken dadurch, dass der Mensch aufgefordert ist, in seiner Phantasie neue sinnvolle Momente der Lebensgestaltung zu riskieren, die im bisherigen Regelsystem nicht vorkamen. Die sittliche Gutheit der Person drängt ihn dazu, das menschlich Richtige in Form von Modellen weiterzuentwickeln.“ (Virt 2007, S. 43) Auch die Normgebungsverantwortung geht weit über das in die Sprache der Mathematik und der Programmierung Übersetzbare hinaus und kann daher DS nicht übertragen werden.
Einer Übertragbarkeit in die Mathematik und in die Programmierung entzieht sich auch die Tugendethik mit ihrem Fokus auf Charaktereigenschaften und Haltungen angesichts der nicht digitalisierbaren Moralfähigkeit der Menschen. „When we talk about robot ethics, we should talk about normative ethics for the use of robots, i.e. right and wrong conduct of robots is the responsibility of the robot users and not of the robots themselves. (…) a robot should not be ethical by itself; it should be ethically used.“ (Krenn 2016, S. 17).

4.2 Illegitimer Zweck

DS und digitale Transformation stellen für Mensch und Umwelt eine Gefahr aus ethischer Sicht dar, wenn sie dazu konzipiert, entwickelt, programmiert, produziert und eingesetzt werden, um einen illegitimen Zweck zu verfolgen. Wenn beispielsweise DS Zerstörung bewirken sollen (z. B. automatisierte Waffensysteme das Töten von Menschen), erweisen sie sich als ethisch illegitim, da sie einem illegitimen Zweck dienen.
Eine weitere Veranschaulichung stellt der Einsatz von Gesichtserkennungs- und Überwachungstechnologien für das Sozialpunktesystem der gegenwärtigen chinesischen Regierung dar, dass dem illegitimen Zweck dient, alle Menschen auf dem chinesischen Territorium total zu überwachen und somit u. a. ihre Menschenrechte auf Freiheit, auf Privatsphäre, auf Meinungsäusserungs- und Informationsfreiheit zu verletzen, um eine Bewertung der Menschen gemäss ihrem „social credit“ vorzunehmen (NZZ 2018). Dabei handelt es sich um ein Pilotprojekt mit Millionen Menschen, das landesweit in China eingeführt wird. Das Sozialpunktesystem der gegenwärtigen chinesischen Regierung sieht vor, dass das Verhalten eines Menschen zu höherem oder niederem „social score“ führt. Beispielsweise führen kritische Äusserungen über die Regierung oder die Lektüre von diktaturkritischen oder von menschenrechtsethischen Büchern zu Punkteabzügen. Ein zu tiefer „social score“ führt zu konkreten Konsequenzen für das individuelle Leben, z. B. zur Verhinderung von Buchung von Inland-Flug- und Zugreisen, zu Einschränkungen bei der Buchung von Hotels, zur Unterbindung des Zugangs zu Schulen und Universitäten für die eigenen Kinder, zu Begrenzungen bei der Arbeitsplatzsuche, usw.

4.3 Illegitimer Weg

Ebenfalls ethische Risiken ergeben sich bei DS, wenn sie zwar für etwas ethisch Gutes konzipiert, entwickelt, programmiert und produziert werden, aber zur Erlangung dieses legitimen Zwecks einen illegitimen Weg wählen. Der Auftrag an ein selbstfahrendes Fahrzeug, einen Menschen möglichst schnell von A nach B zu bringen, erweist sich unter Einhaltung der Achtung der Menschenwürde und der Menschenrechte als legitim. Illegitim kann das Mittel zur Erreichung dieses Zwecks sein, wenn das selbstfahrende Fahrzeug zur effizienten Zielerreichung die Menschenrechte aller Menschen missachtet und Menschen überfährt.

4.4 „Dual Use“

Die sogenannte „dual use“-Problematik umfasst das Potenzial, dass das gleiche DS für einen legitimen oder illegitimen Zweck eingesetzt werden kann. Diese „dual use“-Problematik lässt sich am Beispiel der Drohne illustrieren: Drohnen können dafür eingesetzt werden, um Menschen in Katastrophengebieten mit lebensnotwendigen Nahrungsmitteln zu versorgen, wo Menschen nicht mehr hinkommen. Die gleichen Drohnen können aber auch für gezielte Tötungen als sogenannte „Killerdrohnen“ eingesetzt werden. Und selbstverständlich fällt die ethische Bewertung einer solchen Maschine in den beiden Situationen diametral entgegengesetzt aus. Diese „dual use“-Problematik zeigen die Grenzen einer generellen Bewertung von Drohnen auf. Eine allgemeine Einschätzung zu Drohnen muss im Zuge einer differenzierten ethischen Analyse durch eine Betrachtung der Drohnen in ihrer Anwendung ergänzt werden.
Zu reduktionistisch erweist sich die Beschreibung der „dual use“-Problematik als „deviation of intent“ (DiEuliis und Giordano 2018), da die Möglichkeit mitzubedenken ist, dass ein Forschungs- und Innovationsprozess auch mit einem ethisch negativen Ziel in Angriff genommen werden kann. Wie oben erläutert kann bei Innovationsprozessen nicht einfach automatisch davon ausgegangen werden, dass diese nach ethisch positiven Zwecken streben.
Gleichzeitig lässt sich festhalten, dass die „dual use“-Problematik weniger als ein Dilemma umfasst, wie es der US National Research Council konzeptionell zu fassen sucht (Imperiale und Casadeval 2015), weil sie nicht notwendigerweise eine Dilemma-Struktur aufweisen muss, und somit eine ethische Analyse durchaus ethisch Positives von ethisch Negativem zu differenzieren vermag. Schliesslich führt die „dual use“-Problematik dazu, dass aus ethischer Sicht nicht nur die Technologien als solche, sondern deren Anwendungen in den Blick genommen werden müssen.

4.5 Ambivalenz

Ambivalenz bezeichnet die Möglichkeit, dass DS einem ethisch guten Zweck dienen können, dabei aber auch gleichzeitig etwas ethisch Schlechtes umfassen. Dies lässt sich am Beispiel der Automatisierung von Mobilität zeigen: Staus mit ihrer negativen ökologischen und ökonomischen Wirkung entstehen u. a. wegen der Variation von Tempo und wegen der unterschiedlichen Geschwindigkeiten der einzelnen Fahrzeuge. Würde es gelingen, beides zu minimieren, käme es zu einer Verringerung von Staus. Automatisierte Mobilität umfasst beides – die Abschwächung der Variation von Geschwindigkeit durch einen Verkehrsfluss auf gleichem Tempo sowie die Vereinheitlichung von Geschwindigkeiten aller Fahrzeuge durch die dezentrale Kommunikation zwischen den einzelnen Fahrzeugen.
Verbunden mit der dezentralen Kommunikation zwischen den einzelnen Fahrzeugen sind auch deutlich weniger Unfälle zu erwarten, da die fahrenden Systeme dezentral untereinander dafür sorgen, dass es grossmehrheitlich nicht zu Zusammenstössen kommt. Dies bedeutet nicht, dass Unfälle vollumfänglich ausgeschlossen werden können. Denn selbstverständlich kann es bei fahrenden Systemen auch zu Fehlern kommen; sie treten aber viel seltener auf, da Unfallursachen wie z. B. Ablenkung, Müdigkeit, Stress, Emotionen ausgeschlossen werden können. (Axhausen 2016) Weniger Staus, weniger Unfälle – erfreuliche Perspektiven, die sich auch aus ethischer Sicht bei der Automatisierung von Mobilität ergeben. Hinzu kommen noch weitere positive Konsequenzen, wie z. B. weniger Umweltverschmutzung als Folge der Stauverringerung. In Szenarien von automatisierter Mobilität lässt sich zeigen, dass dank des mit automatisierter Mobilität verbundenen Teilens von Fahrzeugen mit einer massiven Reduktion der Fahrzeuge im Umlauf bzw. im Besitz von Menschen zu rechnen ist: Es ist davon auszugehen, dass nur noch bis zu 10 % der heutigen Anzahl Fahrzeuge notwendig sein werden, um die gleiche Mobilität wie heute zu ermöglichen (Bösch et al. 2016). Gleichzeitig werden mit dieser deutlich kleineren Anzahl Fahrzeuge mehr Fahrtkilometer zurückgelegt werden, weil der Komfort der automatisierten Mobilität und der damit verbundene Zeitgewinn dazu führen wird, dass Menschen sich mehr auf den Weg machen. Diesen positiven Effekt auf den Umweltschutz verstärkt noch zusätzlich, dass davon auszugehen ist, dass die Fahrzeuge leichter sein werden, weil wegen des verringerten Unfallrisikos keine umfassenden Sicherheitskonzepte nötig sind, und da aufgrund der tieferen, aber gleichmässigeren Geschwindigkeit keine schweren Motoren in der Gegend herumgefahren werden. Aus ethischer Perspektive ist eine solche Entwicklung willkommen.
Gleichzeitig umfasst die Automatisierung von Mobilität – ethisch als negativ zu markieren – die Gefährdung der menschenrechtlich geschützten Privatsphäre und des menschenrechtlich garantierten Datenschutzes, da sich die Automatisierung von Mobilität in den bisherigen Ansätzen und Modellen auf eine intensive, das Menschenrecht auf Datenschutz und Privatsphäre verletzende Generierung, Sammlung und Nutzung von Daten abstützt.

4.6 Illegitime Exklusion

DS und digitale Transformation fordern die Menschen mit hoher Dringlichkeit zum Handeln auf, als sie ein bereits vor ihr existierendes Problem zusätzlich befeuern (Kirchschläger 2018): Sklavereiähnliche Arbeitsbedingungen bzw. moderne Sklaverei bei der Rohstoffgewinnung für und bei der Produktion von Technologieprodukten sowie enorme Differenzen in Bezug auf die politische Partizipation an der Gestaltung digitaler Transformation und DS sowie hinsichtlich des Genusses ihrer Sonnenseite (u. a. Chancengleichheit, Gewinnbeteiligung) bzw. des Leidens unter der Schattenseite (u. a. Exklusion, menschenunwürdige und menschenrechtswidrige Ausbeutung) schreien nach Wandel und Fortschritt auch in dieser Hinsicht. Dabei handelt es sich um keine neue, aber um eine immer noch aktuelle Herausforderung von fortschrittsbedingt rasant zunehmendem Ausmass. Ihre weltweite Lösung ist im Heute und im Morgen prioritär anzugehen und zu beachten.
Die Menschen sind und bleiben also in der Verantwortung, datenbasierte Systeme DS mit Ethik zu schaffen, die der diese Elemente umfassenden Komplexität der Ethik Rechnung trägt. Nur mit welcher Ethik? Diesbezüglich gilt es, ethische Referenzpunkte für datenbasierte Systeme DS mit Ethik zu erschliessen und zu begründen, damit diese dann ethische Orientierung stiften können.

5 Menschenrechtsbasierte DS

Die Menschenrechte (Kirchschläger 2019a) bieten sich als ethische Referenzpunkte aufgrund ihrer universellen Begründbarkeit (Kirchschläger 2013) und der durch sie erfolgenden Förderung von kultureller, religiöser und weltanschaulicher Pluralität im Zuge ihres Schutzes der Selbstbestimmung des Individuums an (Kirchschläger 2015a). Ersterem gilt im Folgenden der Fokus. Eine ethische Begründung der Menschenrechte kann sich auf das Prinzip der Verletzbarkeit abstützen (Kirchschläger 2015b, 2016), die folgendermassen zusammengefasst werden kann: Der Mensch nimmt sich in seiner eigenen Verletzbarkeit selbst wahr. Der z. B. jetzt gesunde Mensch weiss, dass er morgen krank werden könnte. Während dieser Bewusstwerdung der eigenen Verletzbarkeit eröffnet sich dem Menschen die „Erste-Person-Perspektive“ (Runggaldier 2003) und sein „Selbstverhältnis“: Seine Verletzbarkeit und sein gesamtes Leben erlebt sie bzw. er als Subjekt (d. h. als die erste Person Singular) und sie bzw. er kann sich dazu in Bezug setzen. Dies ermöglicht dem Menschen die Wahrnehmung, dass er die Verletzbarkeit und die je individuelle „Erste-Person-Perspektive“ sowie das je individuelle „Selbstverhältnis“ mit allen anderen Menschen teilt: Jeder Mensch ist Subjekt seines Lebens. Die „Erste-Person-Perspektive“ und das „Selbstverhältnis“ erkennt der Mensch so als Bedingung der Möglichkeit eines Lebens als Mensch. Da sich der Mensch seiner Verletzbarkeit bewusst ist, gleichzeitig aber nicht weiss, ob und wann sich seine Verletzbarkeit in eine konkrete Verletzung wandelt, entfaltet sich die Bereitschaft, als für ihn vernünftigste und vorteilhafteste Lösung sich selbst und damit – aufgrund der diesbezüglichen Gleichheit aller Menschen – allen Menschen die „Erste-Person-Perspektive“ und das „Selbstverhältnis“ zuzugestehen. Dies bedeutet, sich und alle anderen mit Menschenrechten zu schützen. Dieser Schutz durch die Menschenrechte zielt darauf ab, eine Transformation von Verletzbarkeit zu einer konkreten Verletzung zu verhindern oder im Falle einer eventuellen Transformation von Verletzbarkeit zu konkreten Verletzungen aktive Kompensation zu erfahren. Dabei sind sich die Menschen bewusst, dass der Schutz der Menschenrechte auch mit den Menschenrechten korrespondierende Pflichten umfasst, da es sich ja um keine exklusiven Rechte, sondern um Menschenrechte handelt, die allen Menschen zustehen.
Die Menschenrechte sind also in ihrer Universalität ethisch begründbar. Es wird also nicht leichtfertig auf die Menschenrechte als ethisch verantwortete Handlungsgrundlage zurückgegriffen, sondern in der Begründung spiegelt sich ein ethischer Konsensprozess, welcher der vielfältigen Komplexität der Wirklichkeit von Gesellschaft, Politik, Kultur, Religion und Weltanschauung bewusst Rechnung trägt.
Die Menschenrechte ermöglichen als ethische Referenzpunkte, Menschen weder als digitalisiert noch als digitalisierbar und als durch bzw. mit DS perfektionierbar zu denken, sondern als „homo dignitatis“ (Kirchschläger 2019b). Und sie eröffnen die Chance, einen menschenrechtsbasierten Umgang mit DS zu pflegen sowie „menschenrechtsbasierte DS (Human Rights-Based Data-Based Systems HRBDS)“ (Kirchschläger 2021) zu entwickeln, herzustellen und anzuwenden. Konkret bedeutet dies z. B. hinsichtlich der für digitale Transformation und für DS wesentlichen und fundamentalen Verwendung von Daten Folgendes: Der Ansatz der „zweckgebundenen Datenverwendung“ (Kirchschläger 2021) geht vom Recht auf Privatsphäre und Datenschutz als Voraussetzung aus und respektiert dieses Recht. Gleichzeitig eröffnet er die Möglichkeit der Nutzung von Daten für einen bestimmten Zweck – z. B. im Zuge der Automatisierung von Mobilität. Die Daten dürfen aber weder für andere Zwecke eingesetzt noch an Dritte weiterverkauft werden. Auch besteht für die Nutzer*innen keine Option, diese Daten selbst zu verkaufen (z. B. um sich einen Rabatt zu ergattern). Um diesen Ansatz in seiner Realisierbarkeit zu veranschaulichen, dient folgende Analogie: Wenn man zur Ärztin geht, gibt man auch sehr persönliche Daten an, damit sie weiss, wen sie vor sich hat und teilt ihr ja die eigene Krankheit mit, um hoffentlich Linderung der Leiden sowie Heilung zu erfahren, ohne dass weder die Ärztin diese Daten weiterverkaufen darf noch das man als Patient*in das Angebot unterbreitet bekommt, diese Daten zu verkaufen, um eine bessere medizinische Behandlung zu erhalten. Ebenfalls darf die Ärztin das Patient*innendossier mit der Krankengeschichte streng vertraulich aufbewahren – ausschliesslich zum Zweck einer besseren Behandlung des/der Patient*in. Auch besteht die Möglichkeit der Weitergabe vollkommen anonymisierter Daten zu Forschungszwecken, falls die/der Patient*in dieser Weitergabe informiert zustimmt.
Menschenrechtsbasierte DS (HRBDS) schaffen es also, technologiebasierten Fortschritt und Ethik in Einklang zu bringen.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Unsere Produktempfehlungen

HMD Praxis der Wirtschaftsinformatik

HMD liefert IT-Fach- und Führungskräften Lösungsideen für ihre Probleme, zeigt ihnen Umsetzungsmöglichkeiten auf und informiert sie über Neues in der Wirtschaftsinformatik (WI).

Fußnoten
1
Dies ist z. B. auch eingeflossen in das Statement der European Group on Ethics in Science and New Technologies der EU-Kommission (European Group on Ethics in Science and New Technologies 2018).
 
Literatur
Zurück zum Zitat Abele D, D’Onofrio S (2020) Artificial intelligence – the big picture. In: Portmann E, Dies (Hrsg) Cognitive computing. Berlin, S 31–65CrossRef Abele D, D’Onofrio S (2020) Artificial intelligence – the big picture. In: Portmann E, Dies (Hrsg) Cognitive computing. Berlin, S 31–65CrossRef
Zurück zum Zitat Axhausen K (2016im) Autonome Fahrzeuge: Erste Überlegungen. In: Sommerakademie der Schweizerischen Studienstiftung zum Thema „Automatisierung der Mobilität“ Magliaso, 5. Sept. 2016 (Vortrag) Axhausen K (2016im) Autonome Fahrzeuge: Erste Überlegungen. In: Sommerakademie der Schweizerischen Studienstiftung zum Thema „Automatisierung der Mobilität“ Magliaso, 5. Sept. 2016 (Vortrag)
Zurück zum Zitat Bösch P, Ciari F, Axhausen K (2016) Autonomous vehicle fleet sizes required to serve different levels of demand. Transp Res Rec 2542(4):111–119CrossRef Bösch P, Ciari F, Axhausen K (2016) Autonomous vehicle fleet sizes required to serve different levels of demand. Transp Res Rec 2542(4):111–119CrossRef
Zurück zum Zitat Boutellier R, Heinzen M, Raus M (2010) Paradigms, science, and technology: the case of E‑customs. In: Becker A, Niebuhr R (Hrsg) Cases on technology innovation: entrepreneurial successes and pitfalls, S 134–155CrossRef Boutellier R, Heinzen M, Raus M (2010) Paradigms, science, and technology: the case of E‑customs. In: Becker A, Niebuhr R (Hrsg) Cases on technology innovation: entrepreneurial successes and pitfalls, S 134–155CrossRef
Zurück zum Zitat Brynjolfsson E, McAfee A (2015) The Second Machine Age. Wie die nächste digitale Revolution unser aller Leben verändern wird, 5. Aufl. Kulmbach Brynjolfsson E, McAfee A (2015) The Second Machine Age. Wie die nächste digitale Revolution unser aller Leben verändern wird, 5. Aufl. Kulmbach
Zurück zum Zitat DiEuliis D, Giordano J (2018) Gene editing using CRISPR/Cas9: implications for dual-use and biosecurity. Protein Cell 9(3):239–240CrossRef DiEuliis D, Giordano J (2018) Gene editing using CRISPR/Cas9: implications for dual-use and biosecurity. Protein Cell 9(3):239–240CrossRef
Zurück zum Zitat Doorn N, van de Poel I (2012) Moral responsibility in technology and engineering. Sci Eng Ethics 18:1–11CrossRef Doorn N, van de Poel I (2012) Moral responsibility in technology and engineering. Sci Eng Ethics 18:1–11CrossRef
Zurück zum Zitat Enderle G (2015) Ethical innovation in business and economy—a challenge that cannot be postponed. In: Drs, Murphy P (Hrsg) Ethical innovation in business and the economy. Cheltenham, S 1–25CrossRef Enderle G (2015) Ethical innovation in business and economy—a challenge that cannot be postponed. In: Drs, Murphy P (Hrsg) Ethical innovation in business and the economy. Cheltenham, S 1–25CrossRef
Zurück zum Zitat Floridi L (2015) Die 4. Revolution. Wie die Infosphäre unser Leben verändert. Berlin Floridi L (2015) Die 4. Revolution. Wie die Infosphäre unser Leben verändert. Berlin
Zurück zum Zitat Hessler M (2016) Zur Persistenz der Argumente im Automatisierungsdiskurs. APuZ 66:17–24 Hessler M (2016) Zur Persistenz der Argumente im Automatisierungsdiskurs. APuZ 66:17–24
Zurück zum Zitat Hogan L (2004) Conscience in the documents of vatican II. In: Curran C (Hrsg) Conscience in the documents of vatican II. New York, S 82–88 Hogan L (2004) Conscience in the documents of vatican II. In: Curran C (Hrsg) Conscience in the documents of vatican II. New York, S 82–88
Zurück zum Zitat Kant I (1974) Grundlegung zur Metaphysik der Sitten. Werkausgabe Weischedel, Bd. 7. Frankfurt a. M. (1797) Kant I (1974) Grundlegung zur Metaphysik der Sitten. Werkausgabe Weischedel, Bd. 7. Frankfurt a. M. (1797)
Zurück zum Zitat Kirchschläger PG (2013) Wie können Menschenrechte begründet werden? Ein für religiöse und säkulare Menschenrechtskonzeptionen anschlussfähiger Ansatz. ReligionsRecht im Dialog, Bd. 15. Münster Kirchschläger PG (2013) Wie können Menschenrechte begründet werden? Ein für religiöse und säkulare Menschenrechtskonzeptionen anschlussfähiger Ansatz. ReligionsRecht im Dialog, Bd. 15. Münster
Zurück zum Zitat Kirchschläger PG (2015a) Adaptation—A model for bringing human rights and religions together. Acta Acad 47(2):163–191 Kirchschläger PG (2015a) Adaptation—A model for bringing human rights and religions together. Acta Acad 47(2):163–191
Zurück zum Zitat Kirchschläger PG (2015b) Das Prinzip der Verletzbarkeit als Begründungsweg der Menschenrechte. FZPhTh 62(1):121–141 Kirchschläger PG (2015b) Das Prinzip der Verletzbarkeit als Begründungsweg der Menschenrechte. FZPhTh 62(1):121–141
Zurück zum Zitat Kirchschläger PG (2016) Menschenrechte und Religionen. Nichtstaatliche Akteure und ihr Verhältnis zu den Menschenrechten. Gesellschaft – Ethik – Religion, Bd. 7. Paderborn Kirchschläger PG (2016) Menschenrechte und Religionen. Nichtstaatliche Akteure und ihr Verhältnis zu den Menschenrechten. Gesellschaft – Ethik – Religion, Bd. 7. Paderborn
Zurück zum Zitat Kirchschläger PG (2017a) Gewissen aus moraltheologischer Sicht. Z Kathol Theol 139:152–177 Kirchschläger PG (2017a) Gewissen aus moraltheologischer Sicht. Z Kathol Theol 139:152–177
Zurück zum Zitat Kirchschläger PG (2018) Die Menschenrechte als hermeneutischer Schlüssel zu ethischen Grundfragen des 21. Jahrhunderts. Begründung und Ausblick. Z Kathol Theol 140:361–379 Kirchschläger PG (2018) Die Menschenrechte als hermeneutischer Schlüssel zu ethischen Grundfragen des 21. Jahrhunderts. Begründung und Ausblick. Z Kathol Theol 140:361–379
Zurück zum Zitat Kirchschläger PG (2019a) Digital transformation of society and economy ethical considerations from a human rights perspective. Int J Hum Rights Const Stud 6(4):301–321 Kirchschläger PG (2019a) Digital transformation of society and economy ethical considerations from a human rights perspective. Int J Hum Rights Const Stud 6(4):301–321
Zurück zum Zitat Kirchschläger PG (2019b) Homo dignitatis – Ethische Orientierung im Zuge digitaler Transformation. Psychol Osterr 4(39):274–284 Kirchschläger PG (2019b) Homo dignitatis – Ethische Orientierung im Zuge digitaler Transformation. Psychol Osterr 4(39):274–284
Zurück zum Zitat Kirchschläger PG (2020) The correlation between ethics and technology. In: Isetti G, Innerhofer E, Pechlaner H, de Rachewiltz M (Hrsg) Religion in the age of digitalization: from new media to spiritual machines. Abingdon, S 165–180CrossRef Kirchschläger PG (2020) The correlation between ethics and technology. In: Isetti G, Innerhofer E, Pechlaner H, de Rachewiltz M (Hrsg) Religion in the age of digitalization: from new media to spiritual machines. Abingdon, S 165–180CrossRef
Zurück zum Zitat Kirchschläger PG (2021) Digital transformation and ethics. Ethical considerations on the robotization and automatization of society and economy and the use of artificial intelligence. Baden-Baden Kirchschläger PG (2021) Digital transformation and ethics. Ethical considerations on the robotization and automatization of society and economy and the use of artificial intelligence. Baden-Baden
Zurück zum Zitat Koller P (1990) Die Begründung von Rechten. In: Koller P, Varga C, Weinberger O (Hrsg) Theoretische Grundlagen der Rechtspolitik. Ungarisch-Österreichisches Symposium der internationalen Vereinigung für Rechts- und Sozialphilosophie Stuttgart, S 74–84 Koller P (1990) Die Begründung von Rechten. In: Koller P, Varga C, Weinberger O (Hrsg) Theoretische Grundlagen der Rechtspolitik. Ungarisch-Österreichisches Symposium der internationalen Vereinigung für Rechts- und Sozialphilosophie Stuttgart, S 74–84
Zurück zum Zitat Krenn B (2016) Multiuse tool and ethical agent. In: Trappl R (Hrsg) A construction manual for ethical systems. Cham, S 11–29 Krenn B (2016) Multiuse tool and ethical agent. In: Trappl R (Hrsg) A construction manual for ethical systems. Cham, S 11–29
Zurück zum Zitat McCarthy J, Minsky M, Rochester N, Shannon C (2006) A proposal for the Dartmouth summer research project on artificial intelligence. 31.08.1955. AI Mag 27(4):12–14 McCarthy J, Minsky M, Rochester N, Shannon C (2006) A proposal for the Dartmouth summer research project on artificial intelligence. 31.08.1955. AI Mag 27(4):12–14
Zurück zum Zitat Misselhorn C (2018) Grundfragen der Maschinenethik. Hamburg Misselhorn C (2018) Grundfragen der Maschinenethik. Hamburg
Zurück zum Zitat Ramge T (2018) Mensch und Maschine. Wie künstliche Intelligenz und Roboter unser Leben verändern. Stuttgart Ramge T (2018) Mensch und Maschine. Wie künstliche Intelligenz und Roboter unser Leben verändern. Stuttgart
Zurück zum Zitat Runggaldier E (2003) Deutung menschlicher Grunderfahrungen im Hinblick auf unser Selbst. In: Rager G, Quitterer J, Runggaldier E (Hrsg) Unser Selbst. Identität im Wandel neuronaler Prozesse, 2. Aufl. Paderborn, S 143–221 Runggaldier E (2003) Deutung menschlicher Grunderfahrungen im Hinblick auf unser Selbst. In: Rager G, Quitterer J, Runggaldier E (Hrsg) Unser Selbst. Identität im Wandel neuronaler Prozesse, 2. Aufl. Paderborn, S 143–221
Zurück zum Zitat Sacks J (2015) Sword into plowshares. In: The Wall Street Journal Review vom 03./04.10.2015, S C1–C2 Sacks J (2015) Sword into plowshares. In: The Wall Street Journal Review vom 03./04.10.2015, S C1–C2
Zurück zum Zitat Shibasaki F (2005) Technology and ethics. Philos Crit 31:487–498CrossRef Shibasaki F (2005) Technology and ethics. Philos Crit 31:487–498CrossRef
Zurück zum Zitat Tzafestas S (2016) Roboethics. A navigating overview. Cham Tzafestas S (2016) Roboethics. A navigating overview. Cham
Zurück zum Zitat Virt G (2007) Damit Menschsein Zukunft hat. Einsatz für eine humane Gesellschaft. Würzburg Virt G (2007) Damit Menschsein Zukunft hat. Einsatz für eine humane Gesellschaft. Würzburg
Zurück zum Zitat Wallach W, Allen C (2009) Moral machines: teaching robots right from wrong. Oxford University Press, OxfordCrossRef Wallach W, Allen C (2009) Moral machines: teaching robots right from wrong. Oxford University Press, OxfordCrossRef
Zurück zum Zitat Wilhelms G (2018) Wie die Digitalisierung das Verhältnis des Menschen zu seiner Arbeit verändert. Versuch einer Kritik. Amosinternational 12:3–9 Wilhelms G (2018) Wie die Digitalisierung das Verhältnis des Menschen zu seiner Arbeit verändert. Versuch einer Kritik. Amosinternational 12:3–9
Metadaten
Titel
Ethische KI? Datenbasierte Systeme (DS) mit Ethik
verfasst von
Peter G. Kirchschläger
Publikationsdatum
02.03.2022
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
HMD Praxis der Wirtschaftsinformatik / Ausgabe 2/2022
Print ISSN: 1436-3011
Elektronische ISSN: 2198-2775
DOI
https://doi.org/10.1365/s40702-022-00843-2

Weitere Artikel der Ausgabe 2/2022

HMD Praxis der Wirtschaftsinformatik 2/2022 Zur Ausgabe