Skip to main content
Erschienen in: Informatik Spektrum 2/2022

Open Access 20.03.2022 | HAUPTBEITRAG

Gesellschaftliche Perspektiven einer fachspezifischen KI für automatisierte Entscheidungen

verfasst von: Frank Puppe

Erschienen in: Informatik Spektrum | Ausgabe 2/2022

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Die künstliche Intelligenz (KI) entwickelt sich rasant und hat bereits eindrucksvolle Erfolge zu verzeichnen, darunter übermenschliche Kompetenz in den meisten Spielen und vielen Quizshows, intelligente Suchmaschinen, individualisierte Werbung, Spracherkennung, -ausgabe und -übersetzung auf sehr hohem Niveau und hervorragende Leistungen bei der Bildverarbeitung, u. a. in der Medizin, der optischen Zeichenerkennung, beim autonomen Fahren, aber auch beim Erkennen von Menschen auf Bildern und Videos oder bei Deep Fakes für Fotos und Videos. Es ist zu erwarten, dass die KI auch in der Entscheidungsfindung Menschen übertreffen wird; ein alter Traum der Expertensysteme, der durch Lernverfahren, Big Data und Zugang zu dem gesammelten Wissen im Web in greifbare Nähe rückt. Gegenstand dieses Beitrags sind aber weniger die technischen Entwicklungen, sondern mögliche gesellschaftliche Auswirkungen einer spezialisierten, kompetenten KI für verschiedene Bereiche der autonomen, d. h. nicht nur unterstützenden Entscheidungsfindung: als Fußballschiedsrichter, in der Medizin, für richterliche Entscheidungen und sehr spekulativ auch im politischen Bereich. Dabei werden Vor- und Nachteile dieser Szenarien aus gesellschaftlicher Sicht diskutiert.
Hinweise

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Einführung

Üblicherweise werden schwierige Entscheidungen von Experten auf ihrem Gebiet getroffen, die gründlich ausgebildet sind und ihr Wissen in Prüfungen nachgewiesen haben, z. B. Ärzte oder Richter. Weiterhin gibt es Berater, die Entscheidungsträger unterstützen, z. B. in der Politik oder in der Wirtschaft. Die Entscheidungen finden in einer komplexen Umgebung statt, die häufig nur teilweise beobachtbar, indeterministisch, dynamisch, sequenziell, in Teilen sogar unbekannt ist und viele Akteure umfasst. Auch gibt es oft verschiedene, miteinander in Konflikt stehende Ziele. Es überrascht aus heutiger Perspektive nicht, dass sich der Einsatz von KI für die Entscheidungsfindung als weit komplexer herausgestellt hat, als das in der ursprünglichen Euphorie im Zeitalter der Expertensysteme vor ca. 40 Jahren angenommen wurde. Dabei ging man davon aus, dass Experten sich ihrer Entscheidungsgrundlagen bewusst sind, die sich mit symbolischem Wissen, z. B. durch Regeln oder Constraints, formalisieren lassen. Diese Vorgehensweise hat in spezialisierten Teilbereichen durchaus Erfolge erzielt, aber sie skaliert relativ schlecht: Einerseits, weil der Aufwand zur Wissensformalisierung sehr hoch ist und andererseits, weil nicht alles Wissen von Experten bewusst und leicht zugänglich ist. Ein weiteres Problem ist die Dateneingabe: Mit schlechten Daten lassen sich keine guten Schlussfolgerungen ziehen und die Erhebung guter Daten ist oft schwierig, aufwendig und erfordert teilweise selbst Expertenwissen.
Jedoch hat sich die KI erheblich weiterentwickelt und es stehen neben formalisiertem symbolischen und fallbasiertem Wissen weitere sehr leistungsfähige Methoden zur Wissensakquisition zur Verfügung: (1) Subsymbolische Lernverfahren (Deep Learning aus Corpora von annotierten Trainingsdaten in vielen Bereichen); (2) unstrukturiertes symbolisches Wissen im Web (sowohl in Textdokumenten und Lehrbüchern als auch semistrukturiert in Wissensgraphen und Ontologien) und (3) leistungsfähige Methoden der Datenakquisition, insbesondere in der automatischen Interpretation von Bildern und Videos. Bei der Entwicklung von Expertensystemen ist man nicht mehr nur auf das Wissen der Experten angewiesen, und der Autor hält es für realistisch, dass dank der neuen Wissensquellen, die das Wissen einzelner Menschen weit übertreffen, die resultierenden Entscheidungssysteme in absehbarer Zeit besser als Fachexperten werden, da Menschen nur über eine begrenzte Lernkapazität verfügen. Dieser Artikel diskutiert gesellschaftliche Auswirkungen und Vor- und Nachteile des Einsatzes solcher Systeme. Dazu werden zunächst konkrete Einsatzszenarien vorgestellt, die insbesondere die Achillesferse aller Entscheidungssysteme, die Datenakquisition, thematisieren, und Pro- und Kontra-Argumente dargestellt:1 als Einstieg der Einsatz einer Schiedsrichter-KI für Fußball, im Kernbereich die medizinische und juristische Entscheidungsfindung und spekulativ die politische Entscheidungsfindung mittels einer demokratisch gesteuerten KI.
Ethische Diskussionen über KI haben in letzter Zeit sehr an Aufmerksamkeit gewonnen. Während die Zeitschrift AI and Society [1] schon seit 1987 publiziert, gab es 2020 und 2021 2 neue Zeitschriften: The AI Ethics Journal [2] und AI and Ethics [3]. Einen Überblick über ethische Prinzipien in der KI bietet [4]. Am häufigsten wird KI-basierte Entscheidungsfindung in der Medizin diskutiert, allerdings mit dem Schwerpunkt der unterstützenden Entscheidungsfindung, z. B. in [57]. Die Themen „Haftungsfragen“ und „juristische Aspekte“ werden in [810] diskutiert. Der Aspekt ethische Entscheidungen auf Basis demokratischer Abstimmungen wird in [11] thematisiert. [12] setzt sich kritisch mit ethischen Diskussionen über KI auseinander. Unser erstes Thema, KI als Schiedsrichter, wird u. a. in [13, 14] adressiert.

KI als Fußballschiedsrichter (SKI)

Schiedsrichter im Fußball sind einerseits unentbehrlich, andererseits häufig Zielscheibe emotional geführter Debatten wegen mutmaßlich ungerechter Entscheidungen. Vor 4 Jahren (Saison 17/18) wurde in der Bundesliga der Videoassistent eingeführt, mit dessen Hilfe sich Schiedsrichter kritische Entscheidungen im Video anschauen und daraufhin revidieren können. Wenn man Schiedsrichter vollständig durch eine KI ersetzen will, müssen 2 Fragen beantwortet werden: Ist das technisch möglich und ist es vorteilhaft? Die technischen Voraussetzungen sind außerordentlich gut: Die Regeln im Fußball sind relativ präzise definiert, die Spiele werden ohnehin von vielen Kameras aus vielen Perspektiven aufgenommen und für den Videoassistenten aufbereitet. Das Spiel ist annährend vollständig beobachtbar und die Entscheidungen beziehen sich im Allgemeinen nur auf die momentane Spielsituation. Zudem gibt es viele gut dokumentierte Entscheidungen aus der Vergangenheit, mit denen eine KI trainiert werden kann. Im Vergleich zur Komplexität der Videoanalyse beim autonomen Fahren sind Spielsituationen im Fußball eher einfacher zu lernen, und es besteht kein Sicherheitsrisiko. Für die weitere Diskussion unterstellen wir, dass es eine KI als Fußballschiedsrichterin gibt, die Echtzeitentscheidungen in mindestens gleich guter Qualität wie Bundesligaschiedsrichter treffen kann und diskutieren die Vor- und Nachteile des praktischen Einsatzes. Wir unterstellen dabei keine fehlerfreie KI, da wir das für unrealistisch halten. Das Szenario lässt sich am besten für Spiele in höheren Ligen einsetzen, bei denen Fußballspiele mit ausreichend vielen Kameras gefilmt werden, und sie macht Schiedsrichter nicht überflüssig, da deren Aufgabe in der retrospektiven Bewertung (Annotation) von Spielsituationen besteht, mit denen die KI trainiert und kontinuierlich weiterentwickelt wird, ohne dass dabei die konkreten Entscheidungen im Fußballspiel revidiert werden.

Vor- und Nachteile der SKI

Die SKI wird wahrscheinlich nicht die Emotionalität und das Gefühl der Ungerechtigkeit der Betroffenen aus den Debatten nehmen, da das zu tief im Menschen verwurzelt ist. Allerdings kann die SKI ihre Entscheidungen erklären, indem sie in Echtzeit ähnliche Entscheidungen aus der Vergangenheit präsentiert, mit denen sie trainiert wurde. Für solche kritischen Entscheidungen wie Handspiel im Strafraum, grobe Fouls oder gefährliches Spiel wird es viele Präzedenzfällen geben, bei denen auch auf subtile Unterschiede in den Situationen eingegangen wird (z. B. bei Handspiel, ob sich der Arm etwas zum Ball hinbewegt hat oder eng am Körper angelegt war). Diese werden von einem Expertengremium von (menschlichen) Schiedsrichtern diskutiert und entschieden, ggf. auch revidiert, woran sich die KI orientiert und ggf. nachtrainiert wird, sodass die KI sich ständig weiterentwickelt und aus möglichen Fehlern lernt. Weitere Vorteile der SKI sind, dass sie ohne Videoassistenten immer in Echtzeit entscheidet, dass keine Debatten oder Einschüchterungsversuche möglich sind, und dass sie standardisiert und unemotional Entscheidungen trifft: Es ist schwer, ihr glaubwürdig eine Voreingenommenheit oder Parteilichkeit zu unterstellen. Wenn das Regelwerk im Fußball geändert wird, müssten Annotationen vergangener Spielsituationen überprüft und adaptiert werden, damit die SKI aktuell bleibt; diese Funktion könnte man auch dafür nutzen, vor Regeländerungen ihre Auswirkungen zu überprüfen (so wurde z. B. die Handspielregel mehrfach geändert). Trotzdem wird die SKI gelegentlich zweifelhaft entscheiden, insbesondere in seltenen Spielkonstellationen, bei denen (noch) zu wenig Trainingsmaterial vorliegt. Diese lassen sich leicht publizistisch als Unfähigkeit der KI darstellen, selbst wenn die SKI aus ihren Fehlern lernen wird. Ein inhärenter Nachteil der SKI ergibt sich unmittelbar aus den Vorteilen: Sie reduziert die emotionale und unberechenbare Komponente, die vielleicht einen wesentlichen Reiz von Fußballspielen ausmacht. Für viele gehört dazu, dass nicht immer die bessere Mannschaft gewinnt, sondern die schlechtere Mannschaft auch eine Chance hat, und dazu trägt die partielle Unberechenbarkeit der Schiedsrichterin durchaus bei. Eine Zusammenfassung der Vor- und Nachteile der SKI findet sich in Abbildung 1.

KI für die medizinische Entscheidungsfindung (medKI)

Während Fußball „nur“ ein Spiel ist, geht es bei der medizinischen Entscheidungsfindung oft um Schicksale und auch um Leben oder Tod. Nicht zufällig haben Ärzte mit die höchste Reputation aller Berufsgruppen. Von ihnen wird erwartet, dass sie in schwierigen Situationen für die Patienten die beste Entscheidung treffen, trotz der vielen Unsicherheiten bezüglich Daten und Wissen. Während manche Entscheidungen einfach sind, werden komplexe Entscheidungen an Spezialisten wie Fachärzte und Kliniken mit vielen Fachabteilungen delegiert. Trotzdem ist die Rate der Fehlentscheidungen aus retrospektiver Sicht relativ hoch. Der Einsatz von KI für die medizinische Entscheidungsfindung stand von Anfang an in ihrem Fokus, z. B. mit der vielbeachteten Entwicklung eines der ersten Expertensysteme namens MYCIN zur Antibiotika-Therapie bakterieller Infektionen in den 1970er-Jahren. Derzeit sind z. B. die Protokolle zur Behandlung von Tumoren oft präzise wie Algorithmen definiert und werden auch streng befolgt. Bisher waren die praktischen Erfolge der KI allerdings begrenzt. Neben der Komplexität der Materie ist ein wichtiger Grund, dass hauptsächlich unterstützende Systeme für Ärzte entwickelt wurden und deren Einsatz oft zusätzliche Zeit kostet, die Ärzte nicht haben. Ein entscheidender Schwachpunkt einer medKI ist die Notwendigkeit einer umfassenden Dateneingabe, ohne die eine Entscheidungsfindung unmöglich ist. Einen wesentlichen Anteil haben dabei visuelle Hinweise wie direkte Beobachtung und insbesondere bildgebende Verfahren wie Ultraschall, Endoskopie, Röntgen, Computertomografie, Magnetresonanztomografie, Pathologie usw. Wie oben erwähnt, hat die KI bei der Bild- und Videointerpretation substanzielle Fortschritte gemacht, sodass eine medKI bildgebende Verfahren inzwischen direkt interpretieren kann und nicht mehr zwingend auf Eingaben durch Menschen angewiesen ist. Das gilt schon lange für die Labordateninterpretation, aber andere Daten wie Anamnese und körperliche Untersuchung erfordern noch immer menschlichen Input.

Einsatzszenario der medKI

Unser Szenario für eine medKI setzt gut ausgestattete Untersuchungszentren voraus, in denen Patienten von medizinischem Personal befragt und untersucht werden (einschließlich Bedienung und Einsatz technischer Geräte). Das Besondere im Szenario ist, dass die medKI autonom medizinische Entscheidungen zur Durchführung weiterer Untersuchungen sowie zur Diagnose und Therapie trifft und diese von keiner Ärztin mehr überprüft und ggf. revidiert werden (aber durchaus Präferenzen der Patienten bei alternativen Therapieoptionen berücksichtigen). Die medKI wird in Kompetenzzentren unter Kontrolle von Medizinern entwickelt und weiterentwickelt. Im Gegensatz zur SKI umfasst die medKI nicht nur Training mit neuronalen Netzen (insbesondere für die Interpretation der bildgebenden Verfahren), sondern auch Zugriff und Analyse auf die medizinische Literatur einschließlich Lehrbüchern, Fachartikeln und Ergebnissen von medizinischen Studien (dazu wird eine ausreichende Fähigkeit des Verstehens der medizinischen Fachsprache angenommen) sowie auf die Daten und Behandlungserfolge oder -misserfolge aller (anonymisierten) Patientenfälle. Die Kompetenzzentren sind auch notwendig, damit die medKI schwierige Fälle an sie überweisen kann. Wir unterstellen für die Diskussion, dass solche KI-gestützten Untersuchungszentren in Studien gezeigt haben, dass sie gleiche oder bessere Entscheidungen treffen wie durchschnittliche Allgemein- oder Fachärzte und dass sie dann eine vergleichbare Zulassung bekommen, sodass Patienten sich aussuchen können, ob sie sich konventionell oder durch die neuartigen Untersuchungszentren behandeln lassen. Für Kliniken gilt die gleiche Konstruktion – die pflegerische Betreuung und spezielle Behandlungen, wie z. B. chirurgische Eingriffe, werden nach wie vor von medizinischem Personal durchgeführt, aber alle Entscheidungen trifft die medKI, wobei Patienten Wahlfreiheit haben. Dadurch ändert sich das Berufsbild vieler Ärzte grundlegend (außer für Spezialisten für Notfälle, chirurgische Eingriffe und andere komplexe Interventionen): Die Schwerpunkte liegen in der Kommunikation mit den Patienten und nicht mehr darin, auf dem aktuellen Stand des medizinischen Fachwissens zu sein, um medizinische Entscheidungen treffen zu können.

Vor- und Nachteile der medKI

Die Vorteile der medKI-gestützten Untersuchungszentren aus Sicht der Patienten sind eine hohe medizinische Entscheidungsqualität auf dem aktuellen Stand des medizinischen Wissens, die zudem standardisiert und reproduzierbar ist, viel Zeit für eine ausführliche Kommunikation, und trotzdem eine kostengünstigere Alternative, die dazu genutzt werden könnte, solche Untersuchungszentren auch in strukturschwachen Gegenden anzubieten. Im Folgenden werden wir verschiedene kritische Punkte diskutieren:
  • Eine medKI zieht Schlussfolgerungen aus Symptomen, aber ihr fehlt eine ganzheitliche Sicht auf die Lebensumstände von Patienten, was im Einzelfall zu suboptimalen Entscheidungen führen kann. Weiterhin kann sie keine menschliche Zuwendung geben, die bei schicksalhaften Diagnosen psychologisch und damit auch therapeutisch wichtig ist. Diese Schwächen müssen in unserem Szenario durch das medizinische Personal der Untersuchungszentren ausgeglichen werden, die Lebensumstände interpretieren und als Symptome der KI eingeben, Entscheidungen der medKI auf einem für die Patienten angemessenen Niveau erklären und Zuwendung vermitteln, auch und gerade durch feste und sich nicht ändernde Ansprechpartner.
  • Selbst wenn die medKI im Durchschnitt bessere Entscheidungen trifft, wird sie viele und auch gravierende Fehler machen, da das in der Medizin mit vieldeutigen oder gar keinen Symptomen unvermeidlich ist. Ein Teil der Fehler wird in einer fehlerhaften Dateneingabe begründet sein, ein Teil aber auch in dem Wissen selbst. Eine „Sicherheitsmedizin“, die bei allen Patienten das volle Untersuchungsprogramm durchführen würde, hätte gravierende Nebenwirkungen und Nachteile, würde viel Angst durch unklare Befunde schüren und wäre daher nicht zum Wohle der Patienten. Die unvermeidlichen Fehler der medKI werden zu einer großen Verunsicherung der Patienten führen, zumal sie nicht verschwiegen werden sollten, da maximale Transparenz auf Dauer zur bestmöglichen Weiterentwicklung der medKI führt, die aus Fehlern lernt. Gerichte könnten exorbitante Schadenersatzzahlungen anordnen. Patienten ohne Vertrauen in eine medKI brauchen daher die Alternative, sich konventionell behandeln zu lassen.
  • Auf der anderen Seite müssten die Schadenersatzforderungen gegenüber der medKI auf das bei Ärzten übliche Maß beschränkt werden. Vertrauen in die medKI könnte durch kontinuierliche Veröffentlichung von Studienergebnissen im Vergleich zur konventionellen Entscheidungsfindung hergestellt werden.
  • Eine medKI sollte aus jedem Patientenfall lernen und die Kompetenzzentren zu ihrer Weiterentwicklung benötigen daher die vollständigen Patientenakten in anonymisierter Form. Das kann aus Datenschutzaspekten als inakzeptabel bewertet werden.2 Für Hacker sind die Daten von Untersuchungszentren attraktive Angriffsziele, die deswegen besonders geschützt werden müssen. Ein Ausfall der Infrastruktur würde eine weitere Behandlung praktisch unmöglich machen, da die medKI alle Entscheidungen auf Basis der elektronisch gespeicherten Daten trifft. Das gilt aber auch derzeit schon für die meisten Kliniken, die von ihrer DV-Infrastruktur abhängig sind. Trotzdem würde die technische Abhängigkeit von einer medKI noch größer, zumal weit weniger Ärzte ausgebildet werden. Sie werden allerdings in den Kompetenzzentren und für die Forschung weiterhin benötigt sowie für die Entscheidung schwieriger Fälle (z. B. bei seltenen Erkrankungen), die die medKI an Kompetenzzentren überweist.
Die hypothetische Einführung einer medKI in Untersuchungszentren, die ähnlich wie Ärzte zertifiziert wäre, hängt daher zunächst von den juristischen Rahmenbedingungen ab. Wenn diese gegeben sein sollten, müsste sie sich im Wettbewerb um Patienten gegenüber der weiterhin existierenden konventionellen Medizin bewähren. Dies wird entscheidend von Studienergebnissen abhängen, die wiederum eine hohe Transparenz bezüglich der Ergebnisse medizinischer Entscheidungen erfordern, da Vertrauen in ihre Korrektheit essenziell ist. Eine Zusammenfassung der Vor- und Nachteile der medKI findet sich in Abbildung 2.

KI für die juristische Entscheidungsfindung (jurKI)

Während es bei dem Szenario für die medizinische Entscheidungsfindung um das Wohl jeder einzelnen Patientin geht, die Wahlfreiheit bezüglich der medKI in Untersuchungszentren oder konventionelle Behandlung hat, betrifft die juristische Entscheidungsfindung eine Norm, die der Staat festlegt, indem er nicht nur Gesetze erlässt, sondern letztlich auch die Richter ernennt, die sie interpretieren. Wenn richterliche Entscheidungen durch eine jurKI getroffen werden, betrifft dies potenziell alle Bürger. Derzeit müssen richterliche Entscheidungen in Deutschland von Menschen getroffen werden, insofern bedarf die Anwendung einer jurKI einer grundlegenden Gesetzesänderung. Wir gehen daher hier von einem doppelt hypothetischen Szenario aus: Zum einen muss die jurKI mindestens so gut wie Richter sein, zum anderen muss die Gesetzeslage geändert werden.

Einsatzszenario der jurKI

Ähnlich wie bei der medKI muss bei der jurKI zwischen Datenerhebung und Entscheidung auf Basis der Gesetze unterschieden werden. Weiterhin differenzieren wir zwischen strafrechtlichen und zivilrechtlichen Prozessen. Bei letzteren streiten in der Regel 2 Parteien gegeneinander, bei ersteren muss ein Strafmaß festgelegt werden, das vielfältige, teils widersprüchliche Kriterien berücksichtigen muss. Die Datenerhebung ist oft schwierig, da die Betroffenen gewöhnlich das Recht haben, sich nicht selbst beschuldigen zu müssen. Bei zivilrechtlichen Prozessen steht oft Aussage gegen Aussage und die Richter müssen deren Glaubwürdigkeit überprüfen. Häufig wird aufgrund von Zeugenaussagen oder Gutachten von Sachverständigen entschieden, wobei diese sich auch widersprechen können. Eine KI zur Wahrheitsfindung von Fakten ist unter diesen Umständen ungleich schwieriger als eine KI, die lediglich Gesetze auf Basis von als wahrangenommenen Fakten interpretiert. Wir beschränken daher unser Szenario auf letzteres. Damit ist auch klar, dass eine jurKI Richter nicht ersetzen kann, die immer noch zur Feststellung der Fakten erforderlich bleiben. Weiterhin beschränken wir die jurKI auf zivilrechtliche Prozesse, da die Festlegung eines Strafmaßes Aspekte wie Gerechtigkeitsempfinden und Resozialisierungschancen usw. beinhaltet, die schwer algorithmisch zu fassen sind, zumal sie auf die individuellen Besonderheiten des Falls eingehen muss. Schließlich würde die jurKI Fälle, die sie nicht beurteilen kann, an Richter delegieren, aber aus deren Entscheidungen für zukünftige, ähnliche Fälle lernen.

Vor- und Nachteile der jurKI

Was wären die Vor- und Nachteile einer jurKI für Entscheidungen in zivilrechtlichen Fällen bei bekannter Datenlage? Der Hauptvorteil wäre eine größere Transparenz und Standardisierung: Bürger müssten keine für sie häufig unverständlichen und komplizierten Gesetzestexte studieren oder teure Rechtsanwälte konsultieren, sondern bräuchten nur die von ihnen als wahr unterstellten Fakten eines Streitfalls eingeben (ggf. in mehreren Varianten) und bekämen das Ergebnis sowie ähnliche Urteile angezeigt. Die Entscheidungen hingen nicht von den Einstellungen und Befindlichkeiten der Richter ab, sondern würden unter gleichen Bedingungen vorhersagbar die gleichen Ergebnisse produzieren. Dies ist jedoch auch ihr Hauptnachteil, da von subtilen Besonderheiten jedes einzelnen Falls abstrahiert werden muss, da abstrakte Begriffe in einem Regelwerk mit Ausnahmen zwar iterativ immer weiter konkretisiert und verfeinert werden können (z. B. anhand von konkreten Urteilen), aber nicht alle Konstellationen vorhergesehen werden können. Daher müsste man auch gegen eine jurKI eine Berufung einer höheren Instanz zulassen, die dann nicht von der gleichen jurKI entschieden werden dürfte (da würde bei gleichen Fakten das gleiche Ergebnis herauskommen), sondern von menschlichen Richtern. Die Erfolgsquote der jurKI bestände darin, wie wenig in der Berufung revidiert würde, was man mit der Anzahl der Revisionen bei konventionellen Prozessen vergleichen könnte. Dabei sollte sie aus jeder Revision lernen. Die Transparenz einer jurKI durch Eingabe verschiedener Fallkonstellationen könnte sogar dazu führen, dass viele zivilrechtliche Fälle gar nicht mehr vor Gericht kommen, da die Parteien schon im Vorfeld ihre Chancen zuverlässig einschätzen können. Eine Zusammenfassung der Vor- und Nachteile der jurKI findet sich in Abbildung 3.

KI in der politischen Entscheidungsfindung

Eine KI zur politischen Entscheidungsfindung (polKI) erscheint auf den ersten Blick absurd: zum einen wegen ihren inhärenten Komplexität, zum anderen weil sie eine Diktatur der Maschinen impliziert. Der Autor ist sich ersteren Problems bewusst, letzteres ist nicht intendiert. Die Bürger würden weiterhin wählen, nur wählen sie nicht mehr Parteien oder Personen, sondern politische Präferenzen: wie wichtig sind verschiedene Ziele, was sich letztlich auch darin äußert, wie viel Geld für welche Zwecke und konkreten Projekte ausgegeben und wie die Rahmenbedingungen der Wirtschaft und des gesellschaftlichen Lebens geändert werden sollen. Die konkrete Umsetzung der Ziele und ggf. notwendige Kompromisse würde dann die polKI übernehmen. Ihr Kern wäre ein komplexes Simulationsprogramm, dass die Auswirkungen dieser Präferenzen kurz-, mittel- und langfristig unter verschiedenen Annahmen (innere Stabilität, technologischer Fortschritt, Natur- und andere Katastrophen, Klimawandel, außenpolitische Spannungen usw.) herleiten würde, sodass die Bürger sich besser der Konsequenzen ihrer Entscheidungen bewusst wären. Da aber diese Annahmen über die Zukunft inhärent unsicher sind (wie man schon an vergleichsweise einfachen Simulationen zur Coronapandemie gesehen hat), sind im besten Fall Wahrscheinlichkeitsintervalle für konkrete Vorhersagen zu erwarten.
Ein zweites Problem ist, dass die Simulationsmodelle auf natur- und wirtschaftswissenschaftlichen Regeln über die Welt beruhen müssen, die in den westlichen Demokratien von immer mehr Menschen infrage gestellt werden. Immerhin könnte man die Vorhersagen kontinuierlich mit der Wirklichkeit vergleichen und dadurch die Plausibilität der Simulationsmodelle abschätzen. Man sollte auch die zunehmende Rechenleistung moderner Computersysteme nicht unterschätzen, die Simulationen auf der Basis von lokalen Entscheidungen individueller Akteure (z. B. einzelner Haushalte oder kleiner Firmen) ermöglichen und aggregieren könnten. Die Vorteile einer solchen extrem hypothetischen polKI in Demokratien wären, dass Wähler mutmaßlich in höherem Maße das bekämen, was sie mehrheitlich wählen. Weiterhin würde in Demokratien die Verführung durch Macht und Machtmissbrauch der Politiker weitgehend entfallen. Andererseits ließe sich eine polKI in Diktaturen sehr leicht missbrauchen, wenn die Ziele und Werte von einer kleinen Minderheit von Menschen festgelegt und dann optimal von der polKI umgesetzt würden. In außenpolitischen Kontroversen, die im Extremfall zu Kriegen führen können, kann Vorhersagbarkeit die eigene Verhandlungsposition beträchtlich schwächen. Man könnte deswegen die Vorhersagbarkeit durch eine bedingte Zufallsfunktion bewusst vermeiden. Der Autor ist sich nicht sicher, ob eine polKI, die keine Maschinenherrschaft, sondern nur eine optimale Umsetzung der von Menschen vorgegebenen Ziele impliziert, ein Fluch oder ein Segen für die Menschheit wäre. Im Gegensatz zu den anderen besprochenen Entscheidungs-KIs ist die polKI allerdings auch noch nicht technisch absehbar.

Diskussion und Ausblick

Die verschiedenen Szenarien für eine Entscheidungs-KI zeigen die überragende Bedeutung der Datenakquisition: Während bei der SKI die Daten vollständig beobachtbar und mit Kameras erfassbar sind, sodass ein voll autonomes Entscheidungssystem möglich erscheint, erfordern die medKI und die jurKI nach wie vor Menschen zur Dateneingabe: Während bei der medKI zumindest ein Teil der Daten (insbesondere von bildgebende Untersuchungen) autonom verarbeitet werden kann und sich die Sicherheit der Entscheidungen mit zunehmender Datenverfügbarkeit verbessert, ist bei der jurKI die Feststellung der Datenlage bei oft widersprüchlichen Aussagen bereits das Hauptproblem, während die daraus abgeleiteten Schlussfolgerungen weit leichter formalisierbar sind.
Wenn eine rationale, standardisierte, reproduzierbare und möglichst gute Entscheidungsfindung das oberste Ziel ist, spricht viel für den Einsatz von einer Entscheidungs-KI, die von Kompetenzzentren unter Leitung von Fachexperten kontinuierlich weiterentwickelt wird und durch menschliche Kommunikation insbesondere zur korrekten Datenerfassung unterstützt wird.
Aus technischer Sicht erscheint eine KI, die sich auf fachliches Entscheidungswissen konzentriert und die heterogenere Welt der Datenakquisition, sofern diese nicht objektiv erfassbar sind, weiterhin den Menschen überlässt, nach Meinung des Autors in absehbarer Zeit umsetzbar und die Zeit wäre reif für entsprechende Großprojekte. Bei der SKI könnte z. B. der Deutsche Fußballbund die Rechte an den Kameraaufnahmen aller von ihm organisierten Spiele wahrnehmen und damit die SKI trainieren, zumal ja die Schiedsrichterentscheidungen in den Kameraaufnahmen bereits enthalten sind. Bei der jurKI gehören alle Urteile dem Volk, d. h. wenn der Staat deren standardmäßige Anonymisierung finanzieren würde, ständen sie für Trainingszwecke zur Verfügung3. In der Medizin gehören die Patientendaten den Patienten und sind nur mit deren Einwilligung in anonymisierter Form weiterverwendbar. Wenn die komplette Patientenakte in die elektronische Gesundheitsakte vollständig übertragen würde (siehe Fußnote 2) und ausreichend viele Patienten den Aufbau einer medKI unterstützen würden, wäre auch hier die Voraussetzungen für entsprechende Forschungsprojekte günstig. Allerdings müssten zur Qualitätssicherung bei allen Behandlungen deren Effekte dokumentiert werden, z. B. in Folgeuntersuchungen, wie sie bei medizinischen Studien üblich sind, die hier von den Patienten veranlasst werden müssten. Alle 3 Szenarien könnten inkrementell entwickelt werden, zunächst nur für Teilbereiche der Entscheidungsfindung und in einer Übergangsphase mit Überprüfung durch menschliche Fachexperten, um das Vertrauen der Nutzer zu erhöhen und den Einstieg und Umstieg zu erleichtern. In der polKI könnte man mittels Multiagentensimulationen Entscheidungsunterstützungssysteme entwickeln (z. B. für Auswirkungen verschiedener Handlungsszenarien zum Klimawandel im Weltmaßstab und auf nationaler Ebene, die u. a. Auswirkungen auf die Wirtschaft und Anpassungsreaktionen aller Akteure von Organisationen bis zu Einzelpersonen modelliert). Allerdings gehen wie angedeutet in solche Simulationssysteme sehr viele Annahmen ein, und es gibt kaum Möglichkeiten zur Validierung, sodass eine polKI aus derzeitiger Sicht keine Entscheidungen treffen, sondern „nur“ zu einer partiellen Versachlichung von politischen Diskussionen beitragen kann.
Zumindest für die ersten 3 Szenarien (und ähnliche Entscheidungs-KIs in anderen abgrenzbaren Bereichen) ist eine Diskussion, ob solche Systeme gesellschaftlich erwünscht sind, zum jetzigen Zeitpunkt angebracht. Die polKI eignet sich eventuell für einen Science-Fiction-Roman. Kommentare zum Artikel sind willkommen.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Unsere Produktempfehlungen

Informatik-Spektrum

Hauptaufgabe dieser Zeitschrift ist die Publikation aktueller, praktisch verwertbarer Informationen über technische und wissenschaftliche Fortschritte aus allen Bereichen der Informatik und ihrer Anwendungen in Form von Übersichtsartikeln und einführenden Darstellungen sowie Berichten über Projekte und Fallstudien, die zukünftige Trends aufzeigen.

Fußnoten
1
Die Arbeiten basieren teilweise auf dem BMBF geförderten Verbundprojekt TargetJura – Tutorsystem zu ARGumentationsstrukturen in EThischen und JURistischen Anwendungen mit dem Teilprojekt Anregung von Diskussionen zu ethischen Fragen der künstlichen Intelligenz anhand konkreter Fallbeispiele mittels eines Chatbots in Kooperation mit dem juristischen Lehrstuhl von Prof. Hilgendorf.
 
2
Man denke nur an die Schwierigkeiten der Einführung der elektronischen Patientenakte, die in Deutschland seit 2011 in Modellversuchen erprobt wird. Seit 2021 bzw. 2022 haben Patienten immerhin ein Recht darauf, aber sie ist weiterhin freiwillig, was ihren Nutzen erheblich einschränkt.
 
3
Der Autor arbeitet im Rahmen des von Bayern IuK finanzierten Jana-Projekte (Juristische Beratung durch Freitextanalyse von Gerichtsurteilen) mit der Renostar GmbH an der Informationsextraktion strukturierte Informationen aus Gerichtsurteilen, wobei ein großes Problem die begrenzte Menge frei verfügbarer, anonymisierter Gerichtsurteile ist.
 
Literatur
4.
Zurück zum Zitat Zhou J, Chen F, Berry A, Reed M, Zhang S, Savage S (2020) A survey on ethical principles of AI and implementations. In: 2020 IEEE Symposium Series on Computational Intelligence (SSCI), S 3010–3017CrossRef Zhou J, Chen F, Berry A, Reed M, Zhang S, Savage S (2020) A survey on ethical principles of AI and implementations. In: 2020 IEEE Symposium Series on Computational Intelligence (SSCI), S 3010–3017CrossRef
5.
Zurück zum Zitat Lysaght T, Lim HY, Xafis V, Ngiam KY (2019) AI-assisted decision-making in healthcare. ABR 11(3):299–314CrossRef Lysaght T, Lim HY, Xafis V, Ngiam KY (2019) AI-assisted decision-making in healthcare. ABR 11(3):299–314CrossRef
6.
Zurück zum Zitat Rigby MJ (2019) Ethical dimensions of using artificial intelligence in health care. AMA J Ethics 21(2):121–124CrossRef Rigby MJ (2019) Ethical dimensions of using artificial intelligence in health care. AMA J Ethics 21(2):121–124CrossRef
7.
Zurück zum Zitat Braun M, Hummel P, Beck S, Dabrock P (2021) Primer on an ethics of AI-based decision support systems in the clinic. J Med Ethics 47(12):e3CrossRef Braun M, Hummel P, Beck S, Dabrock P (2021) Primer on an ethics of AI-based decision support systems in the clinic. J Med Ethics 47(12):e3CrossRef
8.
Zurück zum Zitat Hilgendorf E (2021) Auf dem Weg zu einer digitalen Transformation der Medizin. Rechtlicher Rahmen und strafrechtliche Herausforderungen. In: Aktuelle Entwicklungen im Medizinstrafrecht, Bd. 11. Nomos, , S 71–96CrossRef Hilgendorf E (2021) Auf dem Weg zu einer digitalen Transformation der Medizin. Rechtlicher Rahmen und strafrechtliche Herausforderungen. In: Aktuelle Entwicklungen im Medizinstrafrecht, Bd. 11. Nomos, , S 71–96CrossRef
9.
Zurück zum Zitat Giuffrida I (2019) Liability for AI decision-making: some legal and ethical considerations. Fordham Law Rev 88:439 Giuffrida I (2019) Liability for AI decision-making: some legal and ethical considerations. Fordham Law Rev 88:439
10.
Zurück zum Zitat Scherer M (2021) Regulating AI system: risks, challenges, competencies and strategies. Harv J Law Technol 29(2):353 Scherer M (2021) Regulating AI system: risks, challenges, competencies and strategies. Harv J Law Technol 29(2):353
11.
Zurück zum Zitat Noothigattu R, Gaikwad S, Awad E, Dsouza S, Rahwan I, Ravikumar P, Procaccia A (2018) A voting-based system for ethical decision making. Proc AAAI Conf Artif Intell 32(1):1587–1594 Noothigattu R, Gaikwad S, Awad E, Dsouza S, Rahwan I, Ravikumar P, Procaccia A (2018) A voting-based system for ethical decision making. Proc AAAI Conf Artif Intell 32(1):1587–1594
12.
Zurück zum Zitat McMillan D, Brown B (2019) Against ethical AI. In: Proc. of the Halfway to the Future Symposium 2019, S 1–3 McMillan D, Brown B (2019) Against ethical AI. In: Proc. of the Halfway to the Future Symposium 2019, S 1–3
Metadaten
Titel
Gesellschaftliche Perspektiven einer fachspezifischen KI für automatisierte Entscheidungen
verfasst von
Frank Puppe
Publikationsdatum
20.03.2022
Verlag
Springer Berlin Heidelberg
Erschienen in
Informatik Spektrum / Ausgabe 2/2022
Print ISSN: 0170-6012
Elektronische ISSN: 1432-122X
DOI
https://doi.org/10.1007/s00287-022-01443-6

Weitere Artikel der Ausgabe 2/2022

Informatik Spektrum 2/2022 Zur Ausgabe

EDITORIAL

Editorial

Premium Partner