Skip to main content

21.10.2019 | Künstliche Intelligenz | Schwerpunkt | Online-Artikel

Ethik wird bei KI zum Wettbewerbsfaktor

verfasst von: Michaela Paefgen-Laß

4:30 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Wenn Algorithmen unsere Daten verarbeiten, um damit Entscheidungen zu fällen, ist viel Vertrauen gefragt. Wir haben nämlich keinen Schimmer von dem, was bei KI geschieht. Was fehlt, sind ethische Richtlinien. Diese werden immer mehr zum Wettbewerbsfaktor.

Künstliche Intelligenz und ihre artverwandten Disziplinen wie Machine Learning oder Deep Learning haben mit einem Akzeptanzproblem zu kämpfen, dem Blackbox-Problem. Auf Nutzerprofile abgestimmte Empfehlungen, wie sie etwa von Streamingdienstleistern ausgespielt werden, sind nämlich nicht nur hilfreich, sie schüren auch ein diffuses Unbehagen. 

Empfehlung der Redaktion

2019 | OriginalPaper | Buchkapitel

Bauchgefühl 5.0: Sind wir bald die Roboter?

Wo steht Künstliche Intelligenz heute? Ist sie eng, schwach oder stark? Werden Algorithmen übermorgen die Weltherrschaft übernehmen? Falls ja: Wie steht es um deren Moral und Ethik – und ist beides überhaupt relevant? 

Warum das so ist, formuliert Springer-Autor Mario Martini in seiner Zusammenfassung so: "Wie die Algorithmen funktionieren, denen wir die Organisation unseres Lebens immer mehr anvertrauen, verstehen wir immer weniger. Dafür verstehen die Algorithmen umgekehrt immer besser, wie wir funktionieren" (Seite 333). 

Wenn solch ein "dubioses" System für uns ausrechnet, was gut für uns ist, sollten wir dem wirklich intuitiv vertrauen und davon ausgehen, dass unsere Daten fair, unverzerrt und wertefrei ausgewertet wurden? Dazu bräuchte Künstliche Intelligenz eigentlich auch eine moralische Intelligenz.

KI zwischen Versprechen und Kontrollverlust

Künstliche Intelligenz ist nicht nur ein technologisches Versprechen mit dem sich Erfahrungen sammeln und analysieren, Prozesse beschleunigen, Entscheidungen präzisieren und Wettbewerbsvorteile ausspielen lassen, sie steht auch für Kontrollverlust. Des Einzelnen und von Kollektiven. Datengebrauch ist für nicht wenige Laien ein Synonym für Datenmissbrauch. Regulierungen und ethische Richtlinien sollen diese Ängste beseitigen und Vertrauen schaffen. Dass Verbraucher wie Unternehmen sich darin einig sind, bestätigt eine Studie von Capgemini. Rund 1.600 Führungskräfte aus zehn Ländern und mehr als 4.400 Verbraucher gaben dem IT-Dienstleister für die Studie "Why addressing ethical Questions in AI will benefit Organizations" Auskunft. Es zeigt sich, wenn KI-Interaktionen als ethisch wahrgenommen werden, festigt sich die Kundenbindung und kommt es zu Word-to-Mouth-Effekten. 

  • 62 Prozent der Verbraucher verstärken ihr Vertrauen
  • 61 Prozent teilen ihre positiven Erfahrungen mit Familie und Freunden
  • 59 Prozent fühlen sich dem Unternehmen loyaler verbunden
  • 55 Prozent kaufen mehr Produkte
  • 55 Prozent geben gute Bewertungen ab und teilen ihre Empfehlungen in den sozialen Netzwerken
  • 74 Prozent fordern transparente Vorgänge
  • 72 Prozent wollen von KI fair und diskriminierungsfrei behandelt werden

Unternehmen vernachlässigen bei KI Ethikfragen

Auf Unternehmensseite geben 86 Prozent aller Befragten zu, dass die KI-Nutzung in den vergangenen Jahren kritische Fragen zur Ethik aufgeworfen habe. Transparente Vorgänge halten deshalb 53 Prozent für wichtig, wenn dass nicht gewährleistet ist, würden 41 Prozent auf den Einsatz der KI-Systeme verzichten. Ethische KI ist nach Definition der Studienautoren transparent, überprüfbar, erklärbar, interpretierbar, unvoreingenommen und fair. 

Von einer KI nun aber ethisches Vorgehen zu verlangen oder ihr Willkür zu unterstellen, ist allerdings unsinnig. Nicht der Algorithmus ist für die Moral verantwortlich, sondern diejenigen, die ihn programmieren. So gaben die befragten Unternehmen zu, dass der "Druck" bei der Implementierung von KI mitziehen zu müssen, ethische Richtlinien in den Hintergrund habe rücken lassen (34 Prozent). Auch fehlt es an Ressourcen (31 Prozent) und diversen Teams (29 Prozent), die dafür sorgen, dass Daten ohne Verzerrung (Bias) und frei von Stereotypen ausgewertet werden.

Wie die KI-Blackbox grau wird

"Software transformiert statistische Erkenntnisse, aber auch menschliche Werturteile und Interessen in eine Formelsprache, die maschinelles Handeln steuert", schreibt Mario Martini über den Regulierungsbedarf lernfähiger Softwareanwendungen als doppelte Blackbox (Seite 28). Diese Wertungen sind gebunden an die "Eigeninteressen und Rationalitäten ihrer Schöpfer". Es braucht beim Trainieren von Künstlicher Intelligenz also unbedingt ausgewogene Trainingsdaten und ein hochgradig diverses KI-Programmierteam. 

Springer-Autor Ralph T. Kreutzer fordert in "Was versteht man unter Künstlicher Intelligenz und wie kann man sie nutzen?" außerdem eine Explainable Artificial Intelligence (XAI), die danach strebt, die Blackbox Intelligenz in eine partiell verstehbare Greybox Intelligenz zu verwandeln. Dazu braucht es (Seite 12-13):

  1. Transparenz der Daten: Interessierten Anwendern soll es möglich sein, die Datengrundlagen der KI-Anwendung zu prüfen. Zertifizierungprozesse und Prüfsiegel halfen Laien beim Verständnis.
  2. Transparenz der Algorithmen: Erkennbar machen aufgrund welcher Algorithmen beziehungsweise Haupteinflussfaktoren eine Entscheidung gefällt wurde.
  3. Transparenz der Auslieferung von Daten: Ergebnisse für Nutzer und Betroffene so aufbereiten, dass auch eine mathematisch-statistisch wenig geschulte Person die gewonnenen Erkenntnisse verstehen kann.

Transparenz, Verantwortlichkeit und Befähigung gehören der oben genannten Studie zufolge zu den Grundsätzen von Unternehmen, die sich einer ethischen KI verpflichten. Dazu zitiert die Studie den Direktor der Digital Ethics Labs am Oxford Internet Institute, Luciano Floridi: "Transparenz, damit Menschen sehen, was man tut; Verantwortlichkeit, weil man die Verantwortung übernimmt für das, was man tut; und Befähigung, indem man die Verantwortung dafür übernimmt, dass es anderen möglich ist zu sagen, ob man das richtige getan hat oder etwas nicht gut war."

Ethik hat bei KI für Konsumenten hohen Stellenwert

Genauso sehen es auch die Nutzer. Rund drei Viertel der Deutschen (74 Prozent) geben in einer BVDW-Studie an, dass Ethik bereits bei der Produktentwicklung einen hohen oder sehr hohen Stellenwert haben sollte. Auch 55 Prozent der befragten Unternehmen äußern sich so. 72 Prozent der Verbraucher würde Produkte oder Services den Vorzug geben, deren Entscheidungsfindung sich an nachvollziehbaren ethischen Standards orientiert. Nach Einschätzung der befragten Digitalunternehmen sind derartige Lösungen am Markt auch erfolgreicher (71 Prozent). 

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

Das könnte Sie auch interessieren