Der Beitrag beginnt mit einer umfassenden Einordnung des Begriffs Künstliche Intelligenz, um eine klare Definition zu erarbeiten. Dabei wird die Vielfalt der Begriffe und deren Verwendung in Literatur und Alltag beleuchtet. Es wird untersucht, ob eine vertiefte Auseinandersetzung mit der technischen Funktionsweise für eine rechts- und verwaltungswissenschaftliche Betrachtung notwendig ist oder ob allgemeinere Einordnungsansätze ausreichend sind. Der Fokus liegt dabei auf den verwaltungsrechtlichen Implikationen, insbesondere auf den Unterschieden, die durch verschiedene technische Methoden und Funktionsweisen entstehen. Der Text untersucht die Potenziale und Chancen sowie die Risiken und Schwächen von KI-Systemen im verwaltungsrechtlichen Kontext. Dabei wird die technische Funktionsweise von KI-Systemen, insbesondere das maschinelle Lernen und künstliche neuronale Netze, detailliert beschrieben. Es wird aufgezeigt, wie diese Systeme in der Verwaltung eingesetzt werden können und welche rechtlichen Herausforderungen damit verbunden sind. Der Beitrag beleuchtet auch die Perspektiven der Rechtswissenschaft und der Verwaltung auf KI-Systeme und zeigt auf, wie diese in der Praxis umgesetzt werden können. Abschließend wird die Frage gestellt, ob eine eigene Definition von Künstlicher Intelligenz für die Rechts- und Verwaltungswissenschaften erforderlich ist und welche Merkmale ein KI-System auszeichnen.
KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
Zusammenfassung
So präsent die Künstliche Intelligenz im gegenwärtigen gesellschaftlichen Diskurs ist, so unnahbar scheint sie dennoch zu sein. Daher wird in diesem Abschnitt der Terminus Künstliche Intelligenz eingeordnet, um sich damit einer Definition für die Begrifflichkeit Künstliche Intelligenz im rechtswissenschaftlichen Sinne anzunähern. Hierfür wird die technische Funktionsweise von KI-Systemen - insbesondere der Aufbau und die Lernmethoden - beleuchtet. Daneben wird untersucht, welches Begriffsverständnis die relevanten Akteure - die Verwaltung, die Parlamente sowie die Rechtswissenschaften - haben. Nach der Klärung der Begrifflichkeit KI werden in diesem Abschnitt die Potenziale und Chancen sowie die Risiken und Schwächen von KI-Systemen herausgearbeitet.
So präsent die Künstliche Intelligenz im gegenwärtigen gesellschaftlichen Diskurs ist, so unnahbar scheint sie dennoch zu sein. Daher ist zunächst der Terminus Künstliche Intelligenz einzuordnen, um sich damit einer Definition anzunähern. Der Begriff Künstliche Intelligenz wird sowohl in der Literatur als auch im allgemeinen Sprachgebrauch vielfältig verwendet. Für das Verständnis und die Bearbeitung der Thematik ist eine Klärung der Begrifflichkeit erforderlich. Denn wie sollte ein Diskurs erfolgen, wenn nicht nur unterschiedliche Perspektiven und Argumente eingebracht werden, sondern vielmehr der Ausgangspunkt, sprich die Begrifflichkeit, unterschiedlich verstanden wird. Jedoch ist die Frage, ob für eine rechts- und verwaltungswissenschaftliche Betrachtung es einer näheren und vertieften Auseinandersetzung mit der technischen Funktionsweise bedarf oder ob es allgemeinere, für den rechts- und verwaltungswissenschaftlichen Diskurs passendere Einordnungs- und Definitionsansätze gibt. Dies wird daran zu messen sein, inwieweit die technischen Methoden und Funktionsweisen in den maßgeblichen Bereichen unterschiedliche rechtliche Implikationen mit sich bringen. Der Fokus liegt hierbei auf den verwaltungsrechtlichen Charakter. So kann es dahinstehen, wenn unterschiedliche technische Methoden zu unterschiedlichen Haftungsszenarien führen, aber keine unmittelbaren oder mittelbaren Auswirkungen auf die verwaltungsrechtliche Determination haben. Im Ergebnis wird überzeugen, dass die groben technischen Funktionsweisen und Methoden zu betrachten sind, damit eine rechts- und verwaltungswissenschaftliche Einordnung erfolgen kann.
Für eine umfassende Betrachtung von KI-Systemen im verwaltungsrechtlichen Kontext sind neben der Begriffseinordnung die Potenziale und Chancen sowie die Risiken und Schwächen von KI-Systemen herauszuarbeiten. Insbesondere die Risiken und Schwächen von KI-Systemen dürften für eine verwaltungsrechtliche Beurteilung von Bedeutung sein und von den technischen Gegebenheiten bestimmt werden. Daneben sind die Potenziale und Chancen aus Anwendungssicht von besonderem Interesse. Für das Herausarbeiten und Nachvollziehen der Potenziale und Chancen sowie der Risiken und Schwächen von KI-Systemen ist eine Befassung mit der groben technischen Funktionsweise angezeigt.
Anzeige
2.1 Künstliche Intelligenz – Definitionsansätze
Künstliche Intelligenz, Deep Learning, künstliche neuronale Netze, maschinelles Lernen, Algorithmen und weitere Termini werden sowohl in der gegenwärtigen gesellschaftlichen als auch wissenschaftlichen Diskussion über den Einsatz von disruptiven Technologien in der Verwaltung verwendet. Zunächst ist festzuhalten, dass unter dem Begriff Künstliche Intelligenz ein Forschungsbereich – insbesondere in der Informatik – subsumiert wird.1 Daneben geht das Verständnis über die Begrifflichkeit weit auseinander. Slonim et al. verwenden eine allgemeingehaltene Definition, wonach Künstliche Intelligenz die Fähigkeit von Maschinen ist, Aufgaben auszuführen, die üblicherweise mit intelligenten Wesen in Verbindung gebracht werden.2 Dieser Definitionsansatz ist mangels der Spezifikation für die vorliegende Arbeit nur eingeschränkt geeignet.
Ein weiterer Ansatz ist, auf die Semantik abzustellen. Die Semantik des Terminus Künstliche Intelligenz soll allerdings keine zentrale Rolle bei der Begriffsklärung einnehmen. Wenngleich es von Interesse sein wird, zu betrachten, was unter Intelligenz verstanden wird, gibt es insbesondere bei der allgemein verwendeten Übersetzung des Begriffs artificial3 mit künstlich berechtigte Kritik.4 Daneben ist davon auszugehen, dass beim gegenwärtigen Sprachgebrauch im Zusammenhang mit Künstlicher Intelligenz regelmäßig nicht auf den semantischen Ursprung des Begriffs Intelligenz zurückgegriffen wird. Dies ist allein schon deshalb anzunehmen, weil der Begriff Intelligenz in der originären Fachdisziplin diversen Theorien unterliegt und daher auch eine weitreichende Bedeutung mit sich bringt.5
Vorliegend ist anzunehmen, dass unter dem Intelligenzbegriff im Zusammenhang mit KI-Systemen zumeist verstanden wird, dass Probleme und Fragestellungen möglichst schnell und effizient gelöst werden.6 In diese Richtung bestimmt auch Mainzer die Intelligenz. Nach Mainzer bestimmen im Wesentlichen die Selbstständigkeit und Effizienz des Problemlösungsverfahrens die Intelligenz von Systemen.7 Dieses Verständnis der Intelligenz könnte der objektiven Rationalität zugeordnet werden. Es wird demnach auf einen begrenzten Ausschnitt der Begrifflichkeit fokussiert. Zugleich wird das Verständnis des Begriffs Intelligenz enggeführt. Dies ist nicht negativ zu werten, sondern wertneutral zu berücksichtigen. Denn wenn deutlich ist, dass andere Dimensionen und Verständnisweisen des Terminus Intelligenz wie beispielsweise die soziale Intelligenz nicht eingeschlossen sind, so kann dies für die verwaltungsrechtliche Beurteilung von bestimmten Sachverhalten ein maßgeblicher Faktor sein.
Historisch betrachtet, scheint es, als wären KI-Technologien eine Errungenschaft der letzten Jahre. Für eine erste Einordnung und ein Verständnis über den Forschungsbereich mag ein Blick auf die Entwicklung nützlich sein. Gedankenspiele zur Entwicklung eines künstlichen Lebens kamen bereits von Leibniz.8 Erste konkrete An- und Umsätze zur Entwicklung von KI-Systemen beziehungsweise deren Wegbereitern sind im Jahr 1950 zu verorten.9 In dieser Zeit wurde die Theorie einer Turing-Maschine und damit einhergehend der Turing Test entwickelt.10 1956 fand die Konferenz „Summer Research Project on Artificial Intelligence“ statt.11 Die Konferenz war nicht nur ein Wegbereiter für die Begrifflichkeit Artificial Intelligence, sondern gilt auch als Geburtsstunde der KI-Forschung, da dort die Programmiersprache LISP und der erste automatisierte Theorembeweiser namens Logic Theorist vorgestellt wurden.12 Ein nächster – in der Öffentlichkeit wahrgenommener – Meilenstein in der weiteren KI-Forschung war die Entwicklung des Programms ELIZA.13 Diese ersten Meilensteine zeugen von einer langjährigen wissenschaftlichen Beschäftigung mit KI-Technologien, die sich bis dato fortgesetzt hat – wenn auch mit intensiveren und moderateren Phasen.14 Auch wenn KI-Technologien erst in den letzten Jahren bewusst in den breiten gesellschaftlichen Fokus gelangt sind, so sind sie allgegenwärtig, betreffen nahezu alle Lebensbereiche und sind nicht mehr wegzudenken.15
Anzeige
Für eine konkrete Annäherung an den Begriff Künstliche Intelligenz, der den Maßstab für diese Arbeit darstellen soll, ist die technische Funktionsweise zu untersuchen. Da es wie oben beschrieben für die vorliegende Bearbeitung auf die verwaltungsrechtlichen Implikationen ankommt und auf eine vertiefte Auseinandersetzung mit den technischen Funktionsweisen und Methoden verzichtet werden kann, wird es zielführend sein, den groben technischen Aufbau und die Lernmethoden von KI-Systemen zu beleuchten.16 Weiter wird es insbesondere mit Blick auf die praktischen Anwendungsfelder im Kontext eines Einsatzes in der Verwaltung folgerichtig sein, die Einsatzzwecke und den Grad der Intelligenz von KI-Systemen zu betrachten. Daneben sind die gegenwärtigen rechtswissenschaftlichen Ansätze zum Verständnis von KI und der Blick aus der Perspektive der Verwaltung, Parlamente und den dazugehörigen Expertengremien von Relevanz.
2.1.1 Technischer Aufbau
Zunächst ist der technische Aufbau, respektive die Methode, zu betrachten. Der Aufbau bei KI-Technologien ist weit diversifiziert, kann aber bei einer groben Betrachtung auf zwei wesentliche Säulen reduziert werden: das maschinelle Lernen als technische Funktionsweise und künstliche neuronale Netze, sprich Deep Learning, als besonderer technischer Aufbau. Daneben ist eine Sonderform des maschinellen Lernens aus der rechtswissenschaftlichen Perspektive erwähnenswert: das föderale Lernen.
2.1.1.1 Maschinelles Lernen
Losgelöst vom technischen Aufbau ist zu konstatieren, dass das maschinelle Lernen – wie auch die Künstliche Intelligenz – als ein Forschungsgebiet der Informatik einzuordnen ist, und zwar als Teilgebiet der Künstlichen Intelligenz.17
Nach der funktionalen Betrachtung von Alpaydin kann durch maschinelles Lernen ein System einen bestimmten Parameter mithilfe von Trainingsdaten optimieren, um damit Datenauswertung zu betreiben oder Vorhersagen zu treffen.18 Ein Kennzeichen des maschinellen Lernens ist demnach die Fähigkeit eines Systems auf Grundlage von Trainingsdaten zu lernen.19 Es werden selbst-adaptive Algorithmen eingesetzt, die ohne weiteres menschliches Zutun lernen.20 Das maschinelle Lernen ist dabei von statischen Verfahren, die ebenfalls auf (einfacheren) Algorithmen beruhen, abzugrenzen.21 Statische Verfahren zeichnen sich durch feste Entscheidungsregeln, sprich eindeutige wenn-dann-Regeln aus, die nicht vom System selbst angepasst oder optimiert werden können und bei denen es keine systemimmanente Feedbackschleife gibt.22 Solche Systeme fallen nicht unter den Begriff maschinelles Lernen. Denn maschinelles Lernen impliziert, dass das System verfügbare Daten analysiert und daraus Erfahrungswerte bildet, die bei der Erledigung einer Aufgabe dienlich sind und die Aufgabenerledigung stets verbessern.23 Neben dieser theoretischen Abgrenzung sind in der praktischen Anwendung hybride Systeme vorzufinden.24 Diese zeichnen sich durch eine Zusammensetzung von Lernalgorithmus und statischen Algorithmen aus.25
Neben dem Lernprozess dürfte bei den Anwendungen von KI-Systemen im Vergleich zur menschlichen Betätigung ein weiterer Aspekt relevant sein: der Denkprozess. Hier ist festzustellen, dass der Prozess des Lernens beim Komplex KI-Systeme und Menschen eng mit dem Prozess des Denkens verbunden ist. Es ist also nicht nur die Frage, wie Menschen und Systeme lernen, sondern vielmehr wie sie denken und ein Ergebnis produzieren. Diese Frage dürfte für die verwaltungsrechtliche Betrachtung von Interesse sein. Denn der bestehende verwaltungsrechtliche Rahmen mit all seinen Ausprägungen ist im Hinblick auf menschliches Denken entstanden und wurde nicht mit Blick auf Effizienz gerichtete Expertensysteme gestaltet. Daher könnten Strukturunterschiede bei der verwaltungsrechtlichen Analyse bedeutsam sein.
Das maschinelle Lernen basiert im Wesentlichen auf eine programmierte Lernphase einschließlich der Selbstoptimierung ohne dabei explizite Entscheidungsregeln vorzugegeben. Hierbei haben sich drei Ansätze herausgebildet: das überwachte Lernen, das unüberwachte Lernen und das verstärkende Lernen.26 Die Ansätze haben gemein, dass sie darauf beruhen, Regeln und Zusammenhänge aus Datenauswertungen abzuleiten, um damit die avisierte Handlung optimal durchzuführen.27 Das menschliche Lernen und Denken hingegen basiert nicht ausschließlich auf Grundlage von Erfahrungswerten und Analysen, sondern greift auf unterschiedliche Arten und Weisen zurück wie beispielsweise dem deduktiven, induktiven und abduktiven Schließen.28 Eine weitere Möglichkeit ist die logische, kausale Schlussfolgerung auf Basis von generalisiertem Wissen, das analoge Denken.29 So lernen und verstehen Menschen beispielsweise mathematische Funktionen und können diese nach dem Lernen auf unterschiedliche Sachverhalte anwenden. Ein KI-System hingegen, bei dem eine solche mathematische Funktion nicht als Algorithmus hinterlegt ist, berechnet auf einer ihm verfügbaren Datenbasis Wahrscheinlichkeiten ohne zwingend den kausalen Zusammenhang zu finden oder gar zu erlernen, sprich ohne die mathematische Funktion herauszufinden und anzuwenden.30 Dieses Schließen durch Heuristik gehört zwar auch zum Denk-Repertoire von Menschen, es ist jedoch nur eines von vielen. Darüber hinaus ist die Verhaltensökonomie und Entscheidungstheorien bei menschlichen Handlungen zu berücksichtigen.31 Divergentes, also von Kreativität geprägtes Denken, ist ebenso ein Merkmal von menschlichem Denken, was nicht von KI-Systemen beherrscht wird.32
Im Ergebnis können beide Verfahren zum selben Ergebnis kommen, jedoch muss konstatiert werden, dass das KI-Ergebnis auf einer Prognoseentscheidung basiert und daher eine Unschärfe beinhalten kann.33 Denn das maschinelle Lernen erkennt zumeist lediglich Bedeutungszusammenhänge in Datenbeständen.34
Eine weitere wesentliche Differenzierung beruht auf der Nicht-Berücksichtigung von Bewusstsein und Emotionen beim maschinellen Lernen.35 Maschinelles Lernen ist gegenwärtig nicht in der Lage ein eigenes Bewusstsein oder gar eigene Emotionen zu entwickeln und diese einfließen zu lassen.36 Dies ist relevant, weil Emotionen von der menschlichen Kognition untrennbar sind und daher das menschliche Denken prägen oder zumindest beeinflussen.37
Das maschinelle Lernen stützt sich in Abgrenzung zum menschlichen Denken auf große Datenmengen, die vom Menschen nicht in derselben Art und Weise, insbesondere mit Blick auf den Zeitfaktor und Beständigkeit, bearbeitet werden könnten. Im Vordergrund steht die Anwendung von Statistiktheorien, um darauf beruhend Schlussfolgerungen zu ziehen.38
Im Ergebnis unterscheidet sich das maschinelle Lernen diametral vom Lernen und Denken eines Menschen.
Der technische Prozess des maschinellen Lernens kann differenziert betrachtet werden. Nach einer abstrakten Betrachtungsweise lassen sich drei Stadien identifizieren, die das maschinelle Lernen charakterisieren. Erstens muss ein System mit einem Lernalgorithmus und Daten ausgestattet werden. Daraufhin wird das System trainiert, sprich angepasst, in dem es die Daten verarbeitet und über unterschiedliche Methoden lernt. Das letzte Stadium ist dann die Anwendung beziehungsweise Verwendung des Systems.
Insbesondere die mittlere Phase eignet sich für eine nähere Betrachtung, um ein Verständnis für die grobe technische Funktionsweise zu erlangen. Das maschinelle Lernen kann in diesem Stadium in der Art der Lernmethode weiter untergliedert werden.39 So wird hier zwischen überwachtem Lernen, unüberwachtem Lernen und verstärkendem Lernen unterschieden.40
Die Anwendungsphase wiederum kann ebenfalls in drei Phasen untergliedert werden. Hier werden zunächst die neuen Daten eingegeben, im KI-System modelliert, um schlussendlich eine Prognose zu treffen oder Wissen zu repräsentieren.
2.1.1.2 Deep Learning – Künstliche Neuronale Netze
Eine besondere Art des maschinellen Lernens sind künstliche neuronale Netze. Sie unterscheiden sich im Wesentlichen in der technischen Architektur zu klassischen Verfahren des maschinellen Lernens. Die Grundidee von künstlichen neuronalen Netzen besteht in der Nachbildung von menschlichen Gehirnen aus Neuronen und Synapsen.41 Inwiefern das menschliche Grundmodell technisch nachgebildet wird oder wo hier die Grenzen verlaufen und die Simplifikation zu hoch sein könnte, kann für die vorliegende Forschungsfrage dahinstehen.42
Vom biologischen Aufbau inspiriert, bestehen künstliche neuronale Netze aus Neuronen, die mit einer Art von synaptischen Verbindungen verschaltet sind. In einem einfachen Modell gibt es eine Eingabeschicht – die input layer –, verborgende Knotenpunkte – die hidden layer – und eine Ausgabeschicht – die output layer. Insbesondere die Anzahl der hidden layer ist beliebig und kann je nach Modell variieren. Sie beschreibt die Tiefe des Modells und kann aus tausenden verdeckten Schichten bestehen. Die Modelle mit mehrschichtigen hidden layer werden auch tiefe neuronale Netze genannt.43 Die Breite des Modells wird hingegen durch die Anzahl der Eingabe- und Ausgabeschichten beschrieben.44
Neben dem Aufbau der künstlichen neuronalen Netze ist die Verbindung der Neuronen eine wesentliche Forschungsfrage.45 Für die Verbindung der Neuronen und die Verarbeitung sowie Gewichtung von Signalen gibt es diverse Methoden. Für das einzelne Modell ist die Gewichtung von Signalen äußerst bedeutend. Denn mit der Gewichtungsfunktion wird die Relevanz und der Einfluss der Signale und damit der Aktivierungswert für ein Eingangssignal bestimmt.46 Der Aktivierungswert ist für die Stärke des Einflusses eines Neurons auf das nachfolgende Neuron und damit letztendlich für das Ergebnis des Modells verantwortlich.47 Hier hat sich der Ansatz der gewichteten Summenweitergabe aller eingehenden Signale etabliert.48 Ein relevanter Algorithmus für ein künstliches neuronales Netz ist der Backpropagation-Algorithmus, der zur Anpassung der Gewichte des Modells verwendet wird.49 Der Backpropagation-Algorithmus wird der Lernmethode überwachtes Lernen zugeordnet.50
Zusammengefasst und über das vorgenannte Modell hinausgehend ist eine elementare Frage, wie und nach welchen Regeln, respektive mathematischen Modellen, Informationen von den Neuronen an die nachfolgenden Neuronen weitergeleitet werden.51
Tiefe neuronale Netze sind vorteilhaft, wenn unstrukturierte und große Datenmengen zu verarbeiten sind, eine gewisse Robustheit im Modell erforderlich ist und komplexe Aufgaben gelöst werden sollen.52
2.1.1.3 Föderales Lernen
Föderales Lernen wird dem maschinellen Lernen zugeordnet. Aus der rechtswissenschaftlichen Perspektive ist eine Abgrenzung zum generellen Verfahren des maschinellen Lernens angezeigt. Denn die Architektur des föderalen Lernens könnte eine unmittelbare Auswirkung auf die datenschutzrechtliche Beurteilung von bestimmten Sachverhalten haben. Insbesondere der Schutz personenbezogener Daten oder der Schutz von sensiblen Informationen könnte mit dieser Struktur in einem besonderen Maße beachtet werden.53 Aus der informationstechnischen Perspektive könnte föderales Lernen ein Zugewinn für kleinere Organisationen sein, die lediglich auf einen begrenzten Datenbestand zurückgreifen können, was bei klassischen Verfahren des maschinellen Lernens zu keinen überzeugenden Ergebnissen führen würde.54 Geringe oder nicht repräsentative Datenmengen können nicht nur zu diskriminierenden oder unfairen Ergebnissen führen, sondern schlicht nicht zuverlässig sein.55
Beim föderalen Lernen wird die Trainingsphase dezentral organisiert und in unabhängigen Systemen durchgeführt. Hierzu wird von einer zentralen Stelle ein Modell vorgegeben. Dieses Modell wird auf die dezentralen Einheiten übertragen und installiert. Dies könnten beispielsweise nicht verbundene Unternehmen oder Verwaltungen sein. Das einheitliche Modell wird sodann mit den jeweils unternehmens-/verwaltungseigenen Daten trainiert. Nach Abschluss des Trainings werden die aktualisierten Modellparameter beziehungsweise Gradienten56 an das zentrale Modell übertragen. Eine Übertragung der Rohdaten oder ein Zugriff auf die Rohdaten findet nicht statt. In dem zentralen Modell werden anschließend die Modellparameter aggregiert und können als aktualisiertes Modell wieder in die dezentralen Einheiten eingebracht werden. Die Datenübertragung wird regelmäßig verschlüsselt erfolgen.57
Ein Problem könnte nun sein, dass aus den Modellparametern und Gradienten, die an das zentrale Modell zurückgesendet werden, Rückschlüsse auf die dezentralen Daten und Informationen gezogen werden könnten. Damit wäre das zentrale Modell in der Lage, Daten und Informationen aus den dezentralen Datenbeständen zu erlangen, was dem Gedanken des Datenschutzes und des Schutzes von sensiblen Daten zuwiderlaufen würde. Auch hier schafft die Kryptographie Abhilfe und stellt sicher, dass in dem zentralen Modell, respektive wiederum in den dezentralen Einheiten, kein Rückschluss auf die Daten und Informationen in den dezentralen Modellen gezogen werden kann.58 Dies wird durch eine homomorphe Kryptographie erreicht, bei der die Gradienten verschlüsselt werden und ein Austausch der Gradienten stattfindet.59
2.1.2 Lernmethode
Neben der Annäherung an eine Definition von KI über die technische Architektur ist eine andere, komplementäre Herangehensweise möglich – die Betrachtung der Art der Lernmethode beziehungsweise das technische Lernverfahren. Die Art der Lernmethode ist deshalb komplementär zum technischen Aufbau, weil diese auch als Lernaufgabe des maschinellen Lernens bezeichnet wird.60 Es werden insbesondere drei technische Lernverfahren unterschieden: das überwachte Lernen (supervised machine learning), das unüberwachte Lernen (unsupervised machine learning) und das verstärkende Lernen (reinforcement machine learning).61 Alle Lernmethoden können sowohl für klassische Verfahren des maschinellen Lernens verwendet werden als auch für künstliche neuronale Netze (Abbildung 2.1).62
Das überwachte Lernen ist davon gekennzeichnet, dass sowohl die Eingabe- als auch die Ausgabewerte bekannt sind und das Lernen darin besteht, die avisierte Ausgabe zu trainieren.63 Es wird zwingend zwischen einer Trainings- und Anwendungsphase unterschieden, da in der Trainingsphase das Modell zur Vorhersage des Zusammenhangs zwischen Eingabe- und Ausgabewert erlernt werden muss.64 Der durch das maschinelle Lernen prognostizierte Ausgabewert wird in der Trainingsphase mit dem korrekten – vorher bekannten – Ausgabewert verglichen. Das Ziel ist eine möglichst hohe Übereinstimmung mit dem korrekten, vordefinierten Ausgabewert und eine Verringerung des Näherungsfehlers.65 Die Trainingsphase wird in der Häufigkeit von Epochen durchgeführt bis das definierte Ziel – also die korrekte Vorhersage des Ausgabewertes unter Berücksichtigung eines Toleranz- oder Fehlerwertes – erreicht ist.66 Schließlich kann in der Anwendungsphase das Modell genutzt werden, um Ausgabewerte für neue Eingabewerte zu prognostizieren.
Kennzeichnend bei diesem Lernverfahren ist, dass jeder Eingabe- und Ausgabewert definiert sein muss, was regelmäßig durch Menschen vollzogen wird.67 Zunächst scheint dieses Merkmal für die Entscheidungstransparenz dienlich zu sein. Denn wenn zum Ausgabewert der dazugehörige Eingabewert bekannt ist, dürfte es zu keinen Verzerrungen oder Fehlern in der Entscheidungsbegründung oder -entstehung kommen. Dennoch darf an dieser Stelle nicht verkannt werden, dass teilweise unbekannt ist, nach welchen Faktoren das System zum korrekten Ausgabewert kommt.68
2.1.2.2 Unüberwachtes Lernen
In Abgrenzung zum überwachten Lernen sind beim unüberwachten Lernen die Ausgabewerte im Trainingsdatensatz nicht bekannt. Daneben sind auch keine Zielwerte definiert. Gegeben sind allein die Eingabewerte.69 Eine Kennzeichnung der Eingabewerte ist nicht erforderlich.70 Das Lernverfahren ist darauf ausgelegt, in den Trainingsdaten Strukturen zu erkennen und diese selbstständig mittels einer Cluster- oder Assoziationsanalyse zu erschließen.71 Das unüberwachte Lernen eignet sich insbesondere für das Data Mining, also dem Extrahieren von Wissen aus einem großen Datenbestand.72
Mit diesem Verfahren können in einer – im Gegensatz zur menschlichen Betätigung – effizienten Art und Weise Informationen aus großen Datenbeständen gewonnen werden.73 Das unüberwachte Lernen eignet sich hingegen nicht für die Ausgabe von Prognosewerten wie beispielsweise beim überwachten Lernen. Ebenso ist eine zwingende Trennung zwischen Trainings- und Anwendungsphase nicht erforderlich. Die Entscheidungsentstehung und -begründung sind bei Modellen des unüberwachten Lernen weitgehend intransparent und basieren auf Korrelation.74
2.1.2.3 Verstärkendes Lernen
Das verstärkende Lernen ist gekennzeichnet von positiven oder negativen Rückmeldungen, die nach den durchgeführten Handlungen des Systems gegeben werden.75 Die positive oder negative Rückmeldung muss nicht zwingend unmittelbar nach einer einzelnen Handlung erfolgen.76 Sie kann auch am Ende einer Handlungskette getroffen werden. Dies impliziert, dass die Rückmeldungen nicht statisch zu jeder Handlung vorgegeben werden müssen, sondern vom Ergebnis oder der Umgebungssituation abhängig gemacht werden können.77 Beim verstärkenden Lernen gibt es in Abgrenzung zum überwachten Lernen zwar keine Ausgabewerte, jedoch in Abgrenzung zum unüberwachten Lernen eine Zielvorgabe.78 Simplifiziert findet hier eine Lösungssuche nach dem Trial-and-Error-Prinzip im Sinne eines Optimierungsverfahrens zum Erreichen eines Ziels statt.79 Eine Differenzierung zwischen Trainings- und Anwendungsphase ist nicht erforderlich. Wie bei den vorgenannten Lernmethoden ist insbesondere bei komplexen Modellen die Entscheidungsentstehung nur mit einem erheblichen Aufwand nachvollziehbar.80
2.1.3 Einsatzzwecke
Neben der technischen Architektur und dem Lernverfahren ist eine weitere Betrachtungsweise zur Annäherung an eine Definition von KI-Systemen die Fokussierung des Ergebnisses. Der Vorteil könnte darin bestehen, dass die technisch geprägten Fragestellungen der KI-Wissenschaft ausgeklammert werden. Denn eine vertiefte Auseinandersetzung mit den Funktionsweisen von technischen Systemen dürfte für andere Wissenschaftsdisziplinen – wie beispielsweise der Rechtswissenschaft – zur Beantwortung einer disziplineigenen Forschungsfrage nicht zwingend notwendig sein.
So liefert der Branchenverband bitkom eine auf Einsatzzwecke gerichtete Einteilung von KI-Systemen – das Periodensystem der Künstlichen Intelligenz.81 Mit dieser Einteilung kann nicht nur eine Kategorisierung von KI-Anwendungen in die Gruppen assess-, infer- oder respond-Systeme82 vorgenommen werden, sondern es kann vielmehr auch eine Negativabgrenzung vollzogen werden, um zu bestimmen, welche technischen Systeme nicht der KI zuzuordnen sind. Demnach wäre ein System nicht als Künstliche Intelligent zu klassifizieren, wenn es keiner der im Periodensystem genannten Gruppen zuordenbar ist (Abbildung 2.2).
In dem Periodensystem der KI werden 28 KI-Elemente determiniert und nach den Gruppen asses, infer und respond kategorisiert. In die Kategorie asses fallen alle KI-Systeme, die der Erkennung oder Analyse dienen wie beispielsweise Sprach-, Emotions- oder Texterkennung. Die infer-Gruppe umfasst insbesondere Vorhersage- und Repräsentationssysteme. Unter der dritten Kategorie, die respond-Systeme, wird primär die autonome Steuerung von Fahrzeugen, Maschinen oder Robotern subsumiert.
Der Grundgedanke des Periodensystems der KI ist auch in anderen Ansätzen wiederzufinden. So ist an anderer Stelle eine vergleichbare, ergebnisorientierte Kategorisierung zu finden.83 Losgelöst von dieser Kategorisierung kann eine Einteilung nach den konkreten Anwendungsfelder erfolgen wie beispielsweise Systeme zur Sprachverarbeitung, Bildverarbeitung, Expertensysteme oder Roboter.84 Diese können wiederum erheblich divergieren. So können unter dem Begriff Sprachverarbeitung einfachere Systeme wie die Verarbeitung von Sprache in Text verstanden werden, aber auch Hochleistungs-Chatbots wie das autonome Debattiersystem von IBM.85 Dahinstehend welcher Kategorisierung die Anwendungen zugeordnet sind, haben diese gemein, dass sie in ihrem Teilbereich eigenständig kognitive Aufgaben – vergleichbar mit dem Menschen – lösen.86 Diese Fähigkeit ist zugleich die Schwelle zur Klassifizierung als System der Künstlichen Intelligenz in dem nach Einsatzwecke definierten Sinne.
Neben den Einsatzzwecken und Anwendungsfeldern ist die Art und Weise des Einsatzes bezogen auf die Rolle des Systems eine weitere Betrachtungsweise. Die Differenzierung ergibt sich aus der Rolle des Systems und dem Zusammenspiel mit dem Menschen. Als oberstes Merkmal kann danach unterschieden werden, ob ein KI-System als entscheidungsunterstützendes oder entscheidendes System eingesetzt wird. Innerhalb dieser beiden Kategorien können Abstufungen des Autonomiegrads vorgenommen werden.87 Die höchste Stufe repräsentiert Systeme, die autonom Aufgaben erledigen und selbstständig ohne menschliches Zutun entscheiden.88
2.1.4 Klassifizierung der Intelligenz des Systems
Eine weitere Näherungsmöglichkeit an einen Definitionsansatz von Künstlicher Intelligenz ist die Klassifizierung– respektive der Grad oder die Ausprägung – der Intelligenz des jeweiligen Systems.
Wie oben beschrieben ist die Begrifflichkeit Intelligenz in diesem Sinne enggeführt und nicht unmittelbar mit dem Intelligenzbegriff anderer Wissenschaftsdisziplinen vergleichbar. Die grundsätzliche Determination des Begriffs Intelligenz im Sinne der Künstlichen Intelligenz bezieht sich auf eine möglichst schnelle und effiziente Lösung von Aufgaben.89 Maßgeblich für die Intelligenz von Systemen nach dem gegenwärtigen Verständnis ist insbesondere die Selbstständigkeit und die Effizienz des Problemlösungsverfahrens.90 Darüber hinaus wird einem System dann Künstliche Intelligenz in einer stärkeren Ausprägung zugeschrieben, wenn menschliche Intelligenz und menschliche, universelle Fähigkeiten nachgebildet werden.91 Es wird zwischen schwacher KI und starker KI unterschieden.92
Im Umkehrschluss wird ein System, dass die Merkmale der untersten Ebene von Künstlicher Intelligenz unterschreitet, also der schwachen KI, nicht als KI-System klassifiziert.
2.1.4.1 Schwache KI
Als schwache KI93 werden Systeme definiert, die einzelne Aufgaben vergleichbar oder effizienter lösen wie beziehungsweise als Menschen.94 Wesentlich bei dieser Definition ist die einzelne Aufgabe und damit die Aufgabenbezogenheit des Systems. So zielt die Abgrenzung von schwacher KI zu starker KI auf die Breite der Übertragung von menschlichen intellektuellen Fähigkeiten auf künstliche Systeme ab.95 Ist folglich ein System auf einzelne Aufgaben spezialisiert, liegt ein System der schwachen KI vor. Zu den Systemen der schwachen KI gehören auch die Expertensysteme, sofern diese die Schwelle zur KI überschreiten.96
Die zuletzt genannte Abgrenzung zum Nicht-Vorliegen Künstlicher Intelligenz erscheint schwieriger. Hier ist die Frage, ab wann die Schwelle zur KI überschritten wird und ein System als schwache KI einzustufen ist. Wird allein darauf abgestellt, dass das System eine einzelne Aufgabe vergleichbar gut wie ein Mensch löst, müssten auch einige Alltagsgegenstände wie leistungsfähige Taschenrechner als schwache KI eingeordnet werden.
Die Anforderung, die an Systeme der schwachen KI gestellt wird und in der oben genannten Definition fehlt, ist die Lernfähigkeit.97 KI-Systeme müssen demnach – unter Anwendung und in dem Sinne der oben beschriebenen Lernmethoden – lernen können.98 Damit haben schwache KI-Systeme stets einen Lernalgorithmus. Andere Systeme, die teilweise ähnlich gute oder bessere Leistungen erbringen als schwache KI-Systeme, aber auf einem statischen Algorithmus beruhen und somit ausschließlich expliziten Entscheidungsregeln unterworfen sind, überschreiten die Schwelle zur (schwachen) Künstlichen Intelligenz nicht.
2.1.4.2 Starke KI
Starke KI99 ist die nächsthöhere Entwicklungsstufe von Künstlicher Intelligenz. Sie kann nicht nur Aufgaben vergleichbar gut wie Menschen lösen, sondern vielmehr dieselbe universelle Einsetzbarkeit von Menschen erlangen.100 Das Ziel ist es, menschliche Fähigkeiten umfassend in einem System abzubilden und zu imitieren.101 Systeme der starken KI wären eine Kombination von mehreren, wenn nicht sogar allen erdenklichen Einsatzzwecken.
Abgrenzend zur schwachen KI impliziert dies eine Trennung von dem Prinzip der Aufgabenfokussierung und Spezialisierung eines Systems.102 Systeme der starken KI sind demnach in der Lage auf unvorhergesehene Situationen, ohne eine menschliche Einflussnahme flexibel reagieren zu können.103
Daneben werden der starken KI prospektiv auch weitere menschliche Eigenschaften zugerechnet wie die Entwicklung eines Bewusstseins oder eine eigenständige Kreativität.104 Würde dies realisiert werden, könnten sich wesentliche Grundannahmen zur KI, insbesondere zur Entscheidungsfindung ändern. Entscheidungen unter Reflexion eines Bewusstseins oder durch divergentes Denken könnten von KI-Systemen möglich sein. Dadurch müssten die Entscheidungen von KI-Systemen differenziert betrachtet werden und könnten eine höhere Legitimation mit sich bringen. Im Ergebnis bleibt abzuwarten, welches Szenario sich verwirklichen wird: eine KI mit umfassenden Fähigkeiten zur Aufgaben- und Problemlösung oder eine KI mit einer Art des Bewusstseins.105
2.1.4.3 Zwischenergebnis
Wird eine Einordnung von KI-Systemen aus dem oben genannten Periodensystem der KI nach der hier beschriebenen Klassifikation der Intelligenz vorgenommen, so sind alle Elemente vollumfänglich und ausnahmslos der schwachen KI zuzuordnen. Auch darüber hinaus ist festzustellen, dass alle gegenwärtigen Systeme als schwache KI einzuordnen sind.106
Der Grund besteht darin, dass die Systeme teilweise erhebliche Leistungen erbringen, jedoch lediglich auf eine Aufgabe fokussiert und beschränkt sind. Diese Aufgabe kann zwar aus verschiedenen Teilaufgaben bestehen, sie ist dennoch stark eingegrenzt. Als Beispiel ist das Element Mobility Large aus dem Periodensystem der KI zu benennen.107 Systeme, die diesem Element zugehörig sind, sind in der Lage Fahrzeuge autonom zu steuern und mit anderen Fahrzeugen zu interagieren. Auch wenn dies bereits eine enorme Leistung darstellt, ist dennoch zu bemerken, dass das Anwendungsfeld, sprich die Aufgabenlösung, stark eingegrenzt ist. Das System ist lediglich in der Lage ein Fahrzeug autonom zu steuern und mit anderen Fahrzeugen zu interagieren. Es kann indessen nicht andere Aufgaben lösen wie zum Beispiel im Bereich des Elements Decision Making – zu denken ist an eine Entscheidung im verwaltungsrechtlichen Bereich. Es liegt folglich stets ein begrenztes Anwendungsfeld vor, das zwar von dem jeweiligen KI-System exzellent beherrscht werden kann, aber sich nicht auf andere Anwendungsbereiche erstreckt. Zudem sind die KI-Systeme nicht in der Lage das Gelernte zu verstehen, nachzuvollziehen oder auf unvorhergesehene Situationen zu adaptieren.108
Die Unterscheidung innerhalb der Ausprägung von Künstlicher Intelligenz ist daher gegenwärtig nicht praxisrelevant und kann dahinstehen. Beim Stand der Technik wird ein KI-System stets der schwachen KI zuzuordnen sein. Die verwaltungsrechtlichen Implikationen von starker KI sind für die vorliegende Betrachtung nicht maßgeblich. Allerdings ist die Einordnung, ab wann ein System ein KI-System ist, gewichtig.
Daneben scheint die schwache KI als Näherungsansatz an die Bestimmung, was Künstliche Intelligenz ist, geeignet zu sein. Aus der verwaltungsrechtlichen Perspektive könnte das Merkmal Lernfähigkeit im Gegensatz zu statischen Algorithmen mit festen Entscheidungsregeln zu einem wesentlichen Unterschied in der rechtlichen Würdigung führen.109
2.1.5 KI-Begriff in der Rechtswissenschaft
Von besonderem Interesse ist die Frage, wie die Rechtswissenschaft auf den Terminus Künstliche Intelligenz blickt. Denn für einen fachlichen Diskurs, bei dem Argument und Gegenargument ausgetauscht sowie unterschiedliche Perspektiven eingebracht werden, muss eine weitestgehende Einigkeit über die Determination des Begriffs bestehen. Das bedeutet nicht, dass die Rechtswissenschaft eine disziplineigene, technische Begriffsbestimmung für eine Forschungsthematik entwickelt, die maßgeblich durch andere Wissenschaftsdisziplinen geprägt und dominiert ist. Vielmehr erscheint es zweckdienlich zu sein, die für die Beantwortung rechtlicher Fragestellungen entscheidenden Kennzeichen eines KI-Systems zu ermitteln. Obgleich der fortschreitenden Entwicklung technischer Lösungen, die die Betrachtungsweise von KI-Systemen stetig verändern dürfte, ist ein gegenwärtiger Blick auf einen Definitionsansatz zu werfen.110
Auch wenn es zur Thematik diverse Publikationen gibt, scheint eine einheitliche, anerkannte Definition des Begriffs Künstliche Intelligenz aus einer rechtswissenschaftlichen Perspektive nicht eindeutig erkennbar zu sein. Vielmehr stößt die These der Nicht-Definierbarkeit von Künstlicher Intelligenz teilweise auf Zustimmung, was mit der technischen Komplexität und Diversität der Materie verbunden sein könnte.111
Dennoch gibt es zahlreiche Ansätze, die die technische Funktionsweise zugrunde legen und sich an dieser orientieren, ohne die Undefinierbarkeit zu bemühen.112 Daneben existieren auffallend tiefe Auseinandersetzungen mit dem Begriff Künstliche Intelligenz, die insbesondere den technischen Hintergrund adressieren.113
2.1.5.1 Kanalisierung auf lernende Systeme
In den rechtswissenschaftlichen Beiträgen, die sich mit KI beschäftigen, ist eine differenzierte Auseinandersetzung zum Verständnis von Künstlicher Intelligenz orientiert an der technischen Funktionsweise festzustellen.114 Die überwiegenden Ansätze haben gemein, dass sie Systeme dann der (schwachen) Künstlichen Intelligenz zuordnen, wenn diese zwei Grundbedingungen erfüllen:
sie lösen einzelne Aufgaben (teilweise vergleichbar mit oder effizienter als Menschen – Imitation menschlicher Fähigkeiten) und
sie sind mit einem Lernalgorithmus ausgestattet.115
Die Imitation von menschlichen Fähigkeiten und der Vergleich mit der Lösungseffizienz von Menschen wird dabei teilweise nicht explizit benannt, sondern vielmehr auf die Lösung oder Wissensrepräsentation an sich abgestellt.116 Diese Ansichtsweise ist ebenso konsistent, da der Vergleich mit den menschlichen Fähigkeiten auf der Stufe der schwachen KI keinen weiteren Erkenntnisgewinn mit sich bringt. Ob ein System eine Aufgabe effektiver und wesentlich effizienter lösen kann als ein Mensch, dürfte aufgrund der Unbestimmbarkeit für eine Definition von KI nicht relevant sein. Unbestimmbar ist insbesondere der Vergleichsmaßstab, ab wann eine Aufgabe so gut wie von einem Menschen gelöst wird. Insbesondere bei der Frage, welche menschliche Lösungskompetenz zugrunde gelegt wird, dürfte eine anerkannte Definition scheitern. Ein anderes Ergebnis könnte entstehen, wenn es sich bei dem KI-System um ein System der starken KI handelt, da hier die universellen, menschlichen Fähigkeiten nachgebildet werden sollen. Ein Vergleich mit dem menschlichen Modell könnte dann geboten sein. Mangels des zu erwartenden Entwicklungsstands von starker KI kann dieser Gedanke jedoch dahinstehen. Letztendlich kommt es bei dieser Grundbedingung vielmehr auf die singuläre Lösungskompetenz und weniger auf die Simulation menschlicher Fähigkeiten an.117
Elementar für die KI-Definition ist insbesondere die zweite Grundbedingung. Unter einem Lernalgorithmus werden solche Algorithmen verstanden, die selbstlernend sind und keinem abschließend fest programmierten, statischem Regelwerk unterliegen, sodass das Systemverhalten nicht vollends vorhersehbar ist.118 So definiert Timmermann – im Sinne der vorgenannten Eigenart – KI-Systeme als Synonym für Systeme, die auf der Grundlage des maschinellen Lernens basieren und gerade nicht deterministisch programmiert sind.119 Das Bundesverfassungsgericht setzt ebenso selbstlernende Systeme mit dem Begriff Künstliche Intelligenz gleich.120
Daneben ist im Schrifttum partiell der Begriff Autonomie in synonymer Verwendung eines selbstlernenden Algorithmus zu finden.121 Sofern hierbei ein selbstlernender Algorithmus das wesentliche Kennzeichen eines autonomen Systems ist, besteht eine inhaltliche Übereinstimmung mit der oben genannten zweiten Grundbedingung und lediglich eine Vermeidung des Terminus KI. Maamar benennt als Grundbedingungen für ein KI-System die Merkmale Autonomie und Lernfähigkeit.122 Über die oben genannten Grundbedingungen hinaus liegt die Autonomie des Systems dann vor, wenn die Handlungen des Systems auf dem Lernprozess basieren.123 Dieser Konkretisierung kann gefolgt werden und ist durch die oben genannten Grundbedingungen ebenfalls abgedeckt.
Darüber hinaus unterscheiden beispielsweise Thiermann und Böck zwischen statischer und dynamischer KI. Diese beiden Arten unterscheiden sich in der Verstetigung des Lernprozesses. So ist statische KI davon gekennzeichnet, dass diese in der Anwendung nicht weiterlernt, wohingegen dynamische KI den Lernprozess stetig fortsetzt – auch in der Anwendungsphase.124 Zu konstatieren ist, dass bei beiden Varianten ein Lernprozess, in Abgrenzung zu statischen Algorithmen, vorausgesetzt wird. Der Lernprozess in der Anwendungsphase könnte für die rechtliche Würdigung ein elementares Unterscheidungsmerkmal sein, da sich dies insbesondere auf die Gewährleistung der fehlerfreien Funktionsfähigkeit und eine mögliche Zertifizierung des Systems respektive der Entscheidungen auswirken könnte.
Darüber hinaus ist in der Literatur zur Grundbedingung Lernalgorithmus teilweise eine divergente Auffassung zu finden. So wird vereinzelt ein Lernalgorithmus zwar als wesentliches Kennzeichen eines KI-Systems anerkannt, jedoch nicht zwingend vorausgesetzt.125 Bei diesem Definitionsansatz verbleit als einziges Merkmal einer schwachen KI die Nachahmung menschlichen, intelligenten Verhaltens.126 Sollte diesem Ansatz gefolgt werden, ist eine Abgrenzung von KI-Systemen zu anderen Systemen beinahe unmöglich. Das avisierte Ziel einen Definitionsansatz zu bilden, der eine spezifische rechtliche Würdigung möglich macht, wird hiermit erheblich erschwert. Denn eine rechtliche Würdigung und ein dazugehöriger rechtswissenschaftlicher Diskurs kann nur dann stattfinden, wenn Einigkeit über das Verständnis des zu untersuchenden Objektes besteht und dieses zudem eingegrenzt werden kann. Mit der alleinigen Fokussierung auf die Nachahmung des menschlichen, intelligenten Verhaltens wird jedoch eine kaum lösbare Frage zentriert. Im Abgleich zwischen der technischen Funktionsweise und einer rechtlichen Betrachtung ist zu konstatieren, dass der Einsatz eines selbstlernenden Systems im Gegensatz zu einem ausschließlich regelbasierten System zu einem maßgeblichen Unterschied führen wird.127 Denn gerade die selbstlernenden Algorithmen sind es, die rechtliche Fragen aufwerfen, die wiederum von der Rechtswissenschaft zu bearbeiten sind.128 Ebenso ist davon auszugehen, dass von lernenden Systemen ein höheres Risiko für die Nutzer und die Betroffenen ausgeht. Zu begründen ist dies mit der begrenzten Vorhersehbarkeit des lernenden Systems. Es ist demnach sachgerecht, einen Lernalgorithmus als Merkmal für ein KI-System vorauszusetzen.
Daneben ist festzustellen, dass die beiden Grundbedingungen nicht immer ausdrücklich im Schrifttum benannt werden. Bei einer systematischen Betrachtung der jeweiligen Publikation scheinen diese jedoch als konstitutive Merkmale vorausgesetzt zu werden.129 So bringt beispielsweise Kulick zwar keinen ausdrücklichen Definitionsansatz für Künstliche Intelligenz,130 aber benennt drei verschiedene charakteristische Ausprägungen von KI-Systemen am Beispiel der Gesichtserkennung: die Nutzung großer Datenmengen, selbstlernende Algorithmen sowie menschliche Supervision.131
Daneben gibt es Definitionsansätze oder Näherungsversuche, die von den vorgenannten Merkmalen abweichen. So wird KI beispielsweise als Querschnittstechnologie verstanden, bei der es um das selbstständige Lösen von Problemen unabhängig von der technischen Funktionsweise geht.132 Denga definiert Künstliche Intelligenz als ein mit eigenem Auswahl- und Entscheidungsermessen ausgestattetes System.133 Dieser Definitionsansatz unterscheidet sich wesentlich von den übrigen Ansätzen, da er von juristischen Termini – Auswahl- und Entscheidungsermessen – geprägt ist. Die Verbindung von juristischen Begriffen und technischer Beschreibung ist ein anschaulicher Ansatz. Er führt jedoch nicht zu einer gebrauchsfähigen Definition in der Rechtswissenschaft. Denn eine elementare Unterscheidung zwischen KI-Systemen und Systemen mit einem statischen Algorithmus – also festen Entscheidungsregeln – wird hiervon nicht abgebildet. So können auch Expertensysteme, die mit rein statischen Algorithmen ausgestattet sind, ein Entscheidungsermessen innehaben, die wesentliche, aus rechtlicher Sicht gebotene Abgrenzung zu selbstlernenden Systemen wird jedoch nicht erreicht. Das Merkmal selbstlernender Algorithmus ist jedoch wie oben beschrieben essenziell für die Unterscheidung eines herkömmlichen, ausschließlich regelbasierten Systems und einem der Künstlichen Intelligenz. Der Meinungsstand zu den Voraussetzungen von KI-Systemen unterstreicht diese Auffassung. In einer rechtlichen Würdigung, insbesondere im verwaltungsrechtlichen Kontext, könnte dieser Umstand einen wesentlichen Unterschied darstellen.
Hervorzuheben ist daneben der Ansatz von Hähnchen et al. Sie verbinden mit dem Terminus Künstliche Intelligenz ein Artificial Intelligence-System, das Merkmale wie Bewusstsein oder Kreativität umfasst.134 Dieses Begriffsverständnis beruht auf der Übersetzungsunzulänglichkeit von Artificial Intelligence ins Deutsche.135 Die hiermit verbundene Kritik ist zutreffend und berechtigt. Das daraus abgeleitete Verständnis einer Künstlichen Intelligenz mit Bewusstsein und Kreativität ist nicht in der Breite anerkannt. Hierbei handelt es sich nach allgemeinem Verständnis um eine starke KI. Für die rechtswissenschaftliche Behandlung der Thematik hat diese Sichtweise keine Bewandtnis. Sie führt vielmehr in Anbetracht der breiten und anerkannten Verwendung des Begriffs Künstliche Intelligenz lediglich in einen wissenschaftstheoretischen Diskurs, der sich nicht mit den originären Forschungsfragen beschäftigt. Die Vermischung von divergierenden Begriffsverständnissen ist für den fachlichen Diskurs nicht angezeigt.
2.1.5.2 Zwischenergebnis zum Begriffsverständnis
Zusammengefasst ist festzustellen, dass sich in der Rechtswissenschaft der Definitionsansatz von schwacher KI durchgesetzt hat und anerkannt ist.136 Hiernach kommt es darauf an, dass einzelne Aufgaben oder Aufgabenbereiche von Systemen vollzogen werden und die Systeme auf selbstlernenden Algorithmen basieren. Diese Auffassung ist insoweit konsistent als das auf die für die rechtswissenschaftliche Betrachtung notwendige technischen Ebene abgestellt, sodass eine differenzierte rechtliche Würdigung stattfinden kann.
2.1.6 Ansätze der Exekutiven, Legislativen und Expertengremien
Neben der rechtswissenschaftlichen Sichtweise auf KI-Systeme ist die Betrachtungsweise anderer Akteure wie die Exekutive, Legislative und dazugehörige Expertengremien von besonderem Interesse.
Dieser Bereich ist auf zwei Ebenen bedeutend. Einerseits werden durch diese Akteure die gesetzlichen Grundlagen geschaffen oder mitgestaltet. Andererseits sind sie maßgeblich für die Ausführung der gesetzlichen Vorgaben zuständig. Zu konstatieren ist hierbei, dass bei der Ausführung gesetzlicher Vorgaben der Verwaltung eigene Gestaltungsspielräume obliegen.137 Der Exekutiven ist daneben zuzurechnen, dass sie unter bestimmten Bedingungen für nicht gesetzlich statuierte Bereiche, Raum für Innovationen in der Verwaltungspraxis durch reales Handeln hat.138 Dies zeigt sich insbesondere in den Aktivitäten der Behörden und Regierungen. Ein besonderes Feld sind hier die Strategien der Regierungen im Umgang mit KI-Systemen in der eigenen Verwaltung.139
2.1.6.1 Bundestag
Der Bundestag hat mit Beschluss vom 28.06.2018 die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ eingerichtet.140 Ziel und Zweck der Enquete-Kommission ist eine Aufarbeitung des Themas Künstliche Intelligenz und die Erstellung von Handlungsempfehlungen für die politischen Akteure auf Basis eines Diskurses mit Experten. Die in dem Arbeitsauftrag benannten Themenfelder wurden von sechs Projektgruppen bearbeitet. Die Projektgruppe 2 beschäftigte sich mit „Künstliche Intelligenz und Staat“. Am 28.10.2020 veröffentlichte sodann die Enquete-Kommission einen umfassenden Abschlussbericht in Form einer Unterrichtung des Deutschen Bundestags.141 Übergreifende Themen werden in dem Abschluss projektgruppenunabhängig in einem vorangestellten Mantelbericht erläutert. Ein solches übergreifendes Thema ist die Erläuterung des Begriffs Künstliche Intelligenz.
Die Enquete-Kommission unterscheidet zunächst zwischen den Begriffen KI-Systeme und KI-Arten. Unter KI-Systeme versteht die Enquete-Kommission intelligente Systeme zur Lösung von komplexen Problemen und Aufgaben.142 KI-System wird dabei als Oberbegriff verwendet, der sich in KI-Arten untergliedert. Als KI-Arten benennt die Enquete-Kommission regelbasierte KI-Systeme und lernende Systeme.143 Regelbasierte Systeme sind – wie oben beschrieben – Expertensysteme auf Grundlage von statischen Algorithmen. Lernende Systeme basieren hingegen auf Lernalgorithmen. Beide KI-Arten werden unter schwacher KI subsumiert und in Abgrenzung dazu wird festgestellt, dass eine starke KI mit einer allgemeinen Intelligenz gegenwärtig nicht besteht.144
Die Projektgruppe 2 ergänzt den Begriff KI-Systeme aus den Ausführungen im Mantelbogen mit dem Begriff ADM-Systeme, ohne diesen weiter zu definieren.145 ADM-Systeme146 sind algorithmische Entscheidungssysteme.
2.1.6.2 Bundesregierung und EU-Kommission
Die Bundesregierung hat sich auf zwei Wegen dem Komplex Künstliche Intelligenz genähert. Zum einen hat die Bundesregierung die Datenethikkommission eingesetzt und an diese Leitfragen formuliert.147 Am 04.09.2018 konstituierte sich die Datenethikkommission der Bundesregierung und beschäftigte sich mit den gestellten Fragen. Die Fragen adressieren die Themenbereiche algorithmenbasierte Prognose- und Entscheidungsprozesse, Künstliche Intelligenz und Daten. Im Oktober 2019 veröffentlichte die Datenethikkommission ihr finales Gutachten.148 In dem Gutachten wird vor der Beantwortung der Fragen das Verständnis von Künstlicher Intelligenz vermittelt. Die Datenethikkommission versteht unter dem Terminus Künstliche Intelligenz Systeme des maschinellen Lernens, Verfahren zur Mustererkennung, zur Wissensrepräsentation, zur automatischen Inferenz und Handlungsplanung sowie zur Benutzermodellierung.149 Hierbei ist zu konstatieren, dass sich die Datenethikkommission darüber hinaus mit den technischen Verfahren von KI-Systeme intensiv auseinandersetzt und diese beschreibt – insbesondere zu Verfahren des maschinellen Lernens.
Zum anderen hat die Bundesregierung eine Strategie zur Künstlichen Intelligenz beschlossen, die Ende 2020 fortgeschrieben wurde.150 Das Strategiepapier der Bundesregierung orientiert sich an der These der schwachen KI. Dabei betont die Bundesregierung zwei Aspekte: KI-Systeme dienen der Lösung konkreter Anwendungsprobleme und sie besitzen die Fähigkeit zur Selbstoptimierung.151 Das zuletzt genannte Merkmal ist insofern bedeutsam, als das hierdurch rein regelbasierte Systeme ausgeschlossen werden. Dies grenzt die Perspektive der Bundesregierung von dem Definitionsansatz der parlamentarischen Enquete-Kommission ab.
Die Europäische Kommission hat im Jahr 2020 das Weißbuch zur Künstlichen Intelligenz veröffentlicht.152 In dem Papier benennt die Europäische Kommission KI als Schlüsseltechnologie. Darüber hinaus vermittelt sie ihr Verständnis von Künstlicher Intelligenz. Demnach hat die Europäische Kommission keinen technisch-funktionalen Blick auf KI-Systeme, sondern versteht diese als ein Bestand an Technologien, die Daten, Algorithmen und Rechenleistung kombinieren.153 Insofern bleibt die Europäische Kommission unpräzise in der Definition von KI-Systemen. Insbesondere in Bezug auf die oben beschriebenen technischen Verfahren scheint eine grobe technische Einordnung geboten, um eine Abgrenzung zu herkömmlichen Systemen zu schaffen. In dem im Jahr 2021 vorgelegten Kommissionsvorschlag für eine Verordnung über Künstliche Intelligenz wird gemäß Art. 3 Abs. 1 VO-E154 ein KI-System wie folgt definiert: „System der künstlichen Intelligenz“ (KI-System) ist eine Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren.155 Anhang I des Kommissionsentwurfs konkretisiert, dass hierunter Anwendungen des maschinellen Lernens, Logik- und wissensgestützte Konzepte und statistische Ansätze fallen.156 Mit dem Definitionsansatz des Kommissionsentwurfs wird der technisch-funktionale Aspekt vertieft.157
Deutlich wird, dass die EU-Kommission nicht nur selbstlernende Systeme, respektive Systeme, die auf maschinellem Lernen fußen, adressiert, sondern darüber hinaus ebenso regelbasierte Systeme definitorisch umfasst. Die Breite der Definition wird insbesondere von Wirtschaftsverbänden kritisiert.158 Der Bundesverband Digitale Wirtschaft führt eine drohende Rechtsunsicherheit an, die durch die weitgefasste Definition verursacht werde.159 Begründet wird dies damit, dass mit dem vorgelegten Kommissionsvorschlag nahezu jede Software umfasst sein könnte. Der Bundesverband spricht sich für eine Fokussierung auf KI-Systeme, die auf selbstlernende Algorithmen basieren, aus.160 Diese Auffassung mag überzeugen, denn für eine stringente rechtliche Beurteilung von (KI-)Systemen bedarf es einer eindeutigen Abgrenzungsmöglichkeit im rechtlichen und im technischen Sinne. Wie oben in Abschnitt 2.1.5 dargestellt, ist ein besonders Merkmal von gegenwärtigen KI-Systemen ein selbstlernender Algorithmus. Aus diesem Merkmal erwachsen explizite Risiken rechtlicher Art, die für andere informationstechnische Systeme atypisch oder schlicht nicht vorhanden sind. Teilweise wird diese Charakterisierung von KI-Systemen mit dem Merkmal Autonomie beschrieben.161
2.1.6.3 Landesregierungen
Orientiert am Staatsorganisationsrecht des Grundgesetzes kommt den Ländern eine bedeutende Rolle im Verfassungsgefüge zu. Insbesondere ist auf die grundsätzliche Kompetenzverteilung zwischen Bund und Ländern zu verweisen. Gemäß Art. 30 GG obliegt die Ausübung der staatlichen Befugnisse und die Erfüllung der staatlichen Aufgaben den Ländern, soweit keine andere Regelung getroffen wird. Bereits diese verfassungsrechtliche Kompetenzvermutung zugunsten der Länder lässt erkennen, dass die Länder eine wesentliche Rolle im Verfassungsgefüge und damit auch in der administrativen Funktion einnehmen.162 Gekräftigt wird diese These durch Art. 83 GG, wonach selbst bei Vorliegen einer Bundesgesetzgebungskompetenz zunächst die Länder für die Ausführung der Gesetze in eigener Angelegenheit zuständig sind – der deutsche Exekutivföderalismus.163 Sowohl die grundsätzliche Gesetzgebungskompetenz der Länder als auch die vorrangige Verwaltungskompetenz der Länder verlangt eine Betrachtung der Länderpositionen zur Künstlichen Intelligenz. Folglich ist die Sicht der Länder auf KI-Systeme und den Begriff der Künstlichen Intelligenz von besonderem Interesse. Die Haltung der Länder zu dieser Thematik ist insbesondere aus Strategiepapieren oder anderen Regierungsbeschlüssen zu herauszuarbeiten.
Baden-Württemberg hat vier maßgebliche Papiere zum Themenkomplex Digitalisierung vorzuweisen. Diese Publikationen lassen einen Ein- und Rückblick über das Digitalisierungsverständnis der Landesregierung und die dazugehörige Zielsetzung zu. Zunächst ist die Digitalisierungsstrategie aus dem Jahr 2017 zu nennen,164 die im Jahr 2022 unter dem Namen digital.LÄND weiterentwickelt wurde.165 Eine ausdrückliche Definition des Begriffs Künstliche Intelligenz ist in beiden Strategiepapieren nicht zu finden.166 Jedoch gibt es eine Kurzerläuterung, die einen Hinweis darauf gibt, dass die Landesregierung die Anwendung intelligenter Softwarealgorithmen unter den KI-Begriff subsumiert.167 Ausfluss der Digitalisierungsstrategie aus dem Jahr 2017 ist ein gesondertes Positionspapier zur Künstlichen Intelligenz. Dieses Papier wurde im Jahr 2019 veröffentlicht und gilt als KI-Strategiepapier.168 Das Positionspapier enthält keine Definition des Terminus Künstliche Intelligenz. Daneben hat das Land im Jahr 2020 die aktualisierte Innovationsstrategie Baden-Württemberg beschlossen.169 Auch in diesem Papier wird der Bereich Künstliche Intelligenz als ein prominentes Zukunftsfeld und eine relevante Schlüsseltechnologie thematisiert.
Die Bayerische Staatsregierung hat im Jahr 2020 die Hightech Agenda Plus170 als Ergänzung der Hightech Agenda Bayern171 beschlossen. Insbesondere in dem letztgenannten Papier wird die Künstliche Intelligenz als eine wesentliche Säule der bayerischen Technologienförderung bezeichnet. Eine Konkretisierung oder Definition der Begrifflichkeit ist in den Papieren nicht zu finden. Vielmehr ist die bayerische Betrachtung eine generalisierte Sichtweise auf Künstliche Intelligenz in Form einer Schlüsseltechnologie. Daneben hat die bayerische Landesregierung im Jahr 2022 das Bayerische Digitalgesetz beschlossen. In Art. 5 Abs. 2 S. 2 BayDiG wird eine ausdrückliche Regelung über den Einsatz von KI-Systemen in der Verwaltung getroffen. Eine Definition des Begriffs wird nicht vorgenommen. In der Gesetzesbegründung zum BayDiG wird ausgeführt, dass bewusst auf eine Legaldefinition verzichtet wurde, um eine Entwicklungsoffenheit zu gewährleisten.172
Die Brandenburger Landesregierung hat zwei Papiere zum Komplex Digitalisierung beschlossen. Das originäre, landeseigene Papier ist die Zukunftsstrategie Digitales Brandenburg aus dem Jahr 2018.173 Brandenburg definiert den Begriff Künstliche Intelligenz nicht. Es ist jedoch die Brandenburger Lesart zu erkennen. So stellt Brandenburg den Begriff Künstliche Intelligenz neben Algorithmen.174 Daraus lässt sich schließen, dass zwischen den Termini ein Unterschied gesehen wird. An anderer Stelle in dem Strategiepapier wird Künstliche Intelligenz mit Datenerfassung, Informationsgewinnung und Entscheidungsfindung kontextualisiert.175 Der Vollständigkeit halber ist darauf hinzuweisen, dass Brandenburg im Jahr 2024 einen Kabinettbeschluss über eine KI-Landesstrategie avisiert.176
Daneben hat die Brandenburger Landesregierung im Jahr 2019 eine gemeinsame Innovationsstrategie mit dem Berliner Senat beschlossen.177 In der Innovationsstrategie erfolgt ebenso keine Begriffsdefinition von Künstlicher Intelligenz.
Neben der oben genannten gemeinsamen Innovationsstrategie hat das Land Berlin ein Grünbuch für die Digitalisierungsstrategie des Landes im Jahr 2021 veröffentlicht.178 Das Land Berlin definiert Künstliche Intelligenz als technische Imitation menschlicher Intelligenz und Entscheidungsstrukturen.179 Im Jahr 2022 hat der Berliner Senat das Strategiepapier Gemeinsam Digital:Berlin veröffentlicht. In dem Strategiepapier wird weiterhin das Verständnis vermittelt, dass Künstliche Intelligenz die automatisierte Nachbildung intelligenten Verhaltens ist.180 Diese Betrachtungsweise ist weit gefasst. Insbesondere stellt das Land Berlin in dieser Definition nicht auf einzelne Aufgabenbereiche der KI-Systeme ab. Würde sich die Begrifflichkeit an der These der schwachen KI orientieren, so müsste die Imitation menschlicher Entscheidungsstrukturen und Intelligenz zur Lösung einzelner, abgegrenzter Aufgaben erfolgen. Mit der vom Land Berlin gewählten Definition wird diese Einschränkung nicht vorgenommen, wobei zu konstatieren ist, dass gegenwärtig keine starke oder generelle KI existiert.
Bremen hat im Jahr 2021 eine KI-Strategie veröffentlicht.181 In dem Strategiepapier findet sich keine Definition von Künstlicher Intelligenz. Bremen sieht KI-Systeme als Schlüsseltechnologie und adressiert die Anwendungsbereiche Datenauswertung, Entscheidungsunterstützung und -findung sowie Automatisierung von Routineaufgaben.182
Der Hamburger Senat hat im Jahr 2020 eine Digitalstrategie beschlossen.183 Auch in dem Hamburger Papier findet sich keine Definition für den Begriff Künstliche Intelligenz. Hamburgs Perspektive auf KI-Systeme ist ebenfalls eine als Schlüsseltechnologie. Auffallend ist, dass insbesondere die Automatisationsmöglichkeiten und der Einsatz entscheidungsunterstützender KI-Systeme in der Hamburger Administration adressiert wird. In einer Beantwortung einer parlamentarischen Anfrage aus der Hamburger Bürgerschaft an den Senat unterscheidet dieser zwischen automatisierten Entscheidungen und autonomen Entscheidungen auf Grundlage Künstlicher Intelligenz, wobei letztere davon gekennzeichnet sind, dass deren Entscheidungsprozess nicht deterministisch nachvollziehbar ist.184
Hessen hat im Jahr 2021 die Strategie Digitales Hessen fortgeschrieben.185 In dem Strategiepapier wird der Terminus Künstliche Intelligenz definiert. So ordnet die Hessische Landesregierung die Künstliche Intelligenz als Teilgebiet der Informatik ein, das sich mit dem maschinellen Lernen und der Automatisierung intelligent gesteuerten Verhaltens befasst.186 Interessant an dieser Definition ist, dass die Hessische Landesregierung das maschinelle Lernen als Merkmal eines KI-Systems eindeutig benennt. Die weitere Umsetzung der Digitalisierungsstrategie bezogen auf die Verwaltung wird in dem Papier Digitale Verwaltung Hessen 4.0 vorgenommen.187 Wesentlicher Leitgedanke der Strategie ist neben der Etablierung des One-Stop-Shop- und Once-Only-Prinzips für die Bürger eine effektive und leistungsfähige Verwaltung. Im Jahr 2022 hat das Land Hessen eine KI-Agenda veröffentlicht. In dieser Publikation wird das Verständnis von Künstlicher Intelligenz vertieft. Auffallend ist, dass die eigenständige Aufgabenbearbeitung und -lösung als Kennzeichen von KI-Systemen in den Vordergrund gestellt wird.188
Das Land Mecklenburg-Vorpommern hat im Jahr 2018 eine Digitale Agenda verfasst.189 Künstliche Intelligenz wird in dem Papier lediglich als Trend mit ungeklärten rechtlichen und gesellschaftlichen Fragestellungen benannt. Eine Definition oder das Verständnis des Begriffs Künstliche Intelligenz wird in dem Papier nicht vermittelt.
Niedersachsen hat im Jahr 2018 die Strategie Niedersachsens zur digitalen Transformation beschlossen.190 Eine Begriffsdefinition wird in dem Strategiepapier nicht gegeben. In der Gesamtschau wird Künstliche Intelligenz als Schlüsseltechnologie im Zusammenhang mit maschinellem Lernen, Robotik und anderen digitalen Innovationen gesehen. Im Jahr 2022 hat das Land Niedersachsen eine KI-Strategie veröffentlicht. In dieser Strategie legt die Landesregierung Niedersachsens dar, dass ein wesentliches Kennzeichnen für KI-Systeme die eigenständige Bearbeitung von komplexen Aufgaben ist.191
Im Jahr 2019 hat die Nordrhein-Westfälische Landesregierung die Strategie für das digitale Nordrhein-Westfalen veröffentlicht,192 die im Jahr 2021 aktualisiert wurde.193 Der Terminus Künstliche Intelligenz wird in den Papieren zwar verschiedentlich verwendet, aber nicht definiert. Das Land Nordrhein-Westfalen sieht KI-Systeme als Schlüsseltechnologie und zeigt in dem Strategiepapier einen stark anwendungsbezogenen Blickwinkel auf. In dem Glossar der Internetseite KI.NRW beschreibt die Landesregierung Künstliche Intelligenz mit einer allgemeinen Definition, nach der KI ein Teilgebiet der Informatik ist, das sich mit der Automatisierung von intelligentem Verhalten befasst.194
Rheinland-Pfalz hat im Jahr 2020 eine KI-Agenda verabschiedet.195 Die KI-Agenda Rheinland-Pfalz ist im Internet nicht mehr abrufbar. Ausweislich der Pressemitteilung der Landesregierung, in der KI als Schlüsseltechnologie beschrieben wird, kann davon ausgegangen werden, dass der Begriff weit verstanden wird.
Die Saarländische Landesregierung hat im Jahr 2015 die Strategie für Innovation und Technologie Saarland beschlossen,196 die im Jahr 2021 aktualisiert wurde.197 Künstliche Intelligenz wird in dem überarbeiteten Papier als Potenzialthema benannt, aber nicht definiert.
Der Freistaat Sachsen hat im Jahr 2019 die dritte Fortschreibung der Digitalisierungsstrategie Sachsen veröffentlicht,198 die sodann im Jahr 2022 durch die Digitalstrategie sachsen digital 2030 abgelöst wurde.199 In diesen Papieren wird der Begriff Künstliche Intelligenz nicht definiert oder ein Begriffsverständnis dargelegt. Im Jahr 2021 hat der Freistaat Sachsen eine KI-Strategie veröffentlicht. Technisch betrachtet, setzt die Landesregierung Verfahren des maschinellen Lernens als Voraussetzung für ein KI-System voraus.200
Im Jahr 2018 hat das Land Sachsen-Anhalt die Digitale Agenda für das Land Sachsen-Anhalt beschlossen,201 die im Jahr 2021 aktualisiert wurde.202 In der ersten Version des Strategiepapiers waren weder die Begriffe Künstliche Intelligenz noch maschinelles Lernen zu finden. Die überarbeitete Version aus dem Jahr 2021 beschäftigt sich hingegen mit der Thematik. Neben dem Ziel eine KI-Strategie zu erarbeiten, wird das Begriffsverständnis vermittelt. So wird in dem Glossar dargestellt, dass KI die Simulation kognitiver Fähigkeiten ist, die dem Menschen vorbehalten waren.203
Das Land Schleswig-Holstein hat im Jahr 2019 eine eigenständige Strategie zur Künstlichen Intelligenz veröffentlicht,204 die im Jahr 2021 aktualisiert wurde.205 Schleswig-Holstein versteht unter dem Begriff Künstliche Intelligenz hochentwickelte Softwaresysteme, die lernfähig und trainierbar sind und der Lösung von komplexen Aufgaben dienen.206
Konkretisiert wird die vorgenannte Schleswig-Holsteinische Strategie durch gesetzliche Vorgaben. Im März 2022 hat der Schleswig-Holsteinische Gesetzgeber das Gesetz zur Förderung der Digitalisierung und Bereitstellung von offenen Daten und zur Ermöglichung des Einsatzes von datengetriebenen Informationstechnologien in der Verwaltung (Digitalisierungsgesetz) beschlossen.207 Das Digitalisierungsgesetz adressiert drei Bereiche. Erstens werden Regelungen angepasst, die der Förderung der digitalen Verwaltung dienen. Zweitens wird ein Offene-Daten-Gesetz beschlossen. Drittens wird das IT-Einsatz-Gesetz SH verabschiedet. Letzteres dient ausschließlich der Regelung des Einsatzes von KI-Systemen in der Verwaltung.208 Mit diesem Gesetz beschließt Schleswig-Holstein das erste Gesetz in Deutschland, dass explizit und umfänglich den Einsatz von KI-Systemen für die öffentlich-rechtlichen Verwaltungstätigkeiten von Trägern der Verwaltung in Schleswig-Holstein regelt. Ausweislich des Vorblatts zum Gesetzesentwurf werden nicht nur KI-Systeme umfasst, sondern auch andere vergleichbare Technologien.209 Das IT-Einsatz-Gesetz SH verwendet einheitlich die Begrifflichkeit der datengetriebenen Informationstechnologien. Gemäß § 1 Abs. 3 ITEG SH werden hierunter automatisierte Verfahren subsumiert, die zur Lösung komplexer Aufgaben und Ziele dienen, die aus einer oder mehreren Datenquellen vorhandene, von ihnen gemessene, wahrgenommene oder kombinierte Daten selbständig vergleichen oder interpretieren. Das Merkmal der Lernfähigkeit wird in § 3 Abs. 1 Nr. 1 ITEG SH eingeführt. Hiernach handelt es sich bei einer Anwendung um eine datengetriebene Informationstechnologie, wenn die nachfolgenden Merkmale vorliegen:210
1.
Die effiziente Lösung einer Aufgabe oder Fragestellung auf Grundlage eines Datensatzes.
2.
Einsatz spezieller Systeme wie künstlich neuronale Netze oder andere maschinelle Lernverfahren.
3.
Kein aktiver Eingriff in die Parameter der Entscheidungsfindung.
In der Gesetzesbegründung zu § 3 Abs. 1 Nr. 1 ITEG SH wird zudem die Abgrenzung zu klassischen, statischen Algorithmen verdeutlicht.211
Damit teilt Schleswig-Holstein das Begriffsverständnis mit dem oben genannten Verständnis der Rechtswissenschaften.212 Bezogen auf die schleswig-holsteinische Verwaltung werden entscheidungsunterstützende Systeme und die Prozessautomatisierung adressiert.
Der Freistaat Thüringen hat im Jahr 2021 die Fortschreibung der Thüringer Strategie für die digitale Gesellschaft veröffentlicht. Nach der Darstellung in dem Strategiepapier ist ein wesentliches Kennzeichen für Künstliche Intelligenz die Lernfähigkeit und die Fähigkeit, eigenständig Aufgaben zu lösen.213 Damit determiniert Thüringen den Begriff Künstliche Intelligenz eindeutig. Thüringens Perspektive auf Künstliche Intelligenz ist daneben vergleichbar mit der von Schleswig-Holstein.
2.1.6.4 Zwischenergebnis
Eine Auswertung der Strategie- und Positionspapiere der Legislative, der Bundesregierung, der Europäischen Kommission sowie der Länderregierungen gewährt einen Blick auf das Verständnis von Künstlicher Intelligenz.214 Das Wissen über das jeweilige Begriffsverständnis der Akteure ist nicht nur für die allgemeine Begriffsbestimmung von Künstlicher Intelligenz elementar, sondern gleichwohl auch für die Einordnung und Betrachtung von Maßnahmen und Vorhaben der einzelnen Akteure.
Im Ergebnis ist festzustellen, dass verschiedene Landesregierungen ihr KI-Verständnis nicht offenlegen. Die Enquete-Kommission des Bundestags, die Datenethikkommission der Bundesregierung und einzelne Länder hingegen zeigen eine intensive Beschäftigung mit dem Begriff Künstliche Intelligenz auf und definieren diesen. Hierbei benennen insbesondere Thüringen, Schleswig-Holstein, Hessen und die Bundesregierung zwei Merkmale für KI-Systeme: Lernende Algorithmen und die Lösung von Aufgaben. Die Datenethikkommission der Bundesregierung bleibt in ihrem Definitionsansatz offener in Bezug auf lernende Algorithmen. Die Enquete-Kommission des Bundestags vertritt dagegen die Auffassung, dass sowohl lernende Systeme als auch regelbasierte Systeme als Künstliche Intelligenz einzuordnen sind.
2.1.7 Kritik, Würdigung und Definition
Künstliche Intelligenz stellt einen Forschungsbereich dar, der sich im Wesentlichen auf die Informatik bezieht, aber dennoch auf viele weitere Disziplinen erstreckt und dadurch stark interdisziplinär geprägt ist. Daneben ist zu konstatieren, dass die Thematik Künstliche Intelligenz zum einen aus unterschiedlichen Blickwinkeln wie beispielsweise der Informatik, Philosophie, Linguistik oder der Rechtswissenschaft betrachtet werden kann, zum anderen innerhalb dieser Disziplinen wiederum divergierende Ansätze und Verständnisse von Künstlicher Intelligenz bestehen.
Zunächst ist die grundsätzliche Frage zu stellen, ob eine eigene Definition für die Rechts- und Verwaltungswissenschaften zur Bearbeitung von Fragestellungen im Zusammenhang mit KI-Systemen erforderlich ist. Diese Frage ist differenziert zu betrachten. Auf der einen Seite dürfte es dahinstehen können, ob die Rechts- und Verwaltungswissenschaften in der Diskussion um die technische Beurteilung und Definition eine führende Rolle einnehmen und Standards setzen. Dies kann aus der Natur der Sache heraus nicht zu einem befriedigenden Ergebnis führen. Auf der anderen Seite ist es sowohl für die Rechts- und Verwaltungswissenschaften als auch für die vorliegende Arbeit wichtig, einen im rechtlichen Sinne arbeitsfähigen Definitionsansatz und damit einen Grundkonsens für den Diskurs zu finden. Nur wenn dies gelingt und damit ein gemeinsames Verständnis über die Termini innerhalb dieser Disziplinen erzeugt wird, kann auch eine Fachdiskussion sachgerecht geführt werden. Denn wie sollte andererseits eine fachliche Auseinandersetzung aussehen, wenn die Diskutanten von unterschiedlichen Determinationen ausgehen.
2.1.7.1 Erforderlichkeit einer Definition für eine rechtswissenschaftliche Untersuchung
Die detaillierte und vertiefte technische Funktionsweise von KI-Systemen, also insbesondere die Art der Lernmethode und der technische Aufbau eines Systems, dürften mehrheitlich für die Beantwortung von rechts- und verwaltungswissenschaftlichen Fragestellungen nicht relevant215 und daher für die Klärung des Begriffs der Künstlichen Intelligenz ungeeignet sein. Auch wenn es für die Definition ungeeignet erscheint, ist ein grobes Verständnis der technischen Funktionsweise als Hintergrundwissen zur rechtlichen Beurteilung der avisierten Nutzungen hilfreich. Dennoch muss es für eine Einordnung und einen Definitionsansatz vielmehr gelingen, eine Abgrenzung vorzunehmen, was unter einem KI-System subsumiert wird und was nicht. Nicht überzeugend für eine rechtswissenschaftliche Betrachtung sind allgemein gehaltene Definitionsansätze, die die technische Funktionsweise weitestgehend ausblenden, wie beispielsweise die Nachbildung von kognitiven oder geistigen Fähigkeiten als Kennzeichen von Künstlicher Intelligenz. Diese technisch nicht differenzierten Ansätze führen zur Nichtdurchführbarkeit einer belastbaren rechtlichen Würdigung.216 Ebenso ist die isolierte Betrachtung des Grads der Intelligenz eines Systems nur schwer mit objektiven Merkmalen zu unterlegen und daher alleinstehend nicht zweckmäßig. Auch das Abstellen auf die Semantik des Begriffs scheint für die vorliegende Untersuchung ungeeignet zu sein. Diese Ansätze mögen korrekt und für einzelne Wissenschaftsdisziplinen berechtigt sein, sind jedoch aufgrund fehlender und unklarer Abgrenzungs- und Definitionskriterien sowie mangels der für eine rechtliche Würdigung erforderlichen Spezifikation nicht überzeugend.
2.1.7.2 KI-Definition
Für rechtswissenschaftliche Untersuchungen und damit auch für die vorliegende Arbeit ist ein KI-System an dem Merkmal der Lernfähigkeit zu definieren:
Ein KI-System liegt dann vor, wenn es auf lernenden Algorithmen beruht.
Diese in aller Schlichtheit gehaltene Definition fußt auf folgender Überlegung: Für eine rechtswissenschaftliche Diskussion ist es geboten, den technischen Aufbau und die Methoden, die der Künstlichen Intelligenz zugrunde liegen zumindest vereinfacht zu betrachten. Nur dann können Abgrenzungskriterien zu herkömmlichen Systemen herausgearbeitet werden. Denn wichtig wird es sein, herauszuarbeiten, was eine rechtliche Relevanz entfaltet. Zu fragen ist daher, welches – technische – Merkmal mit einem systemimmanenten Risiko behaftet ist, so dass es einen rechtlichen Unterschied bewirkt.
Bei den KI-Technologien überwiegt der objektiv-rationale Ansatz. Es wird im Wesentlichen nicht versucht, menschliche – teilweise nicht nachvollziehbare – Entscheidungen zu simulieren, sondern vielmehr ein objektiviertes Expertensystem aufzubauen, das sich an der grundsätzlichen Aufgabenerledigung durch den Menschen orientiert. Die Leistung des KI-Systems kann zwar als Nachbildung menschlicher Intelligenz eingeordnet werden, doch diese Einordnung ist nicht zwingend erforderlich. Da sich die Funktionsweise gegenwärtiger Künstlicher Intelligenz auf die Lösung einzelner Aufgaben(-bereiche) bezieht, wird die KI-Leistung bei Expertensystemen beispielsweise zur Wissensrepräsentation aus großen Datenbeständen regelmäßig die Fähigkeiten des durchschnittlichen menschlichen Vorbilds auf diesem Teilgebiet übersteigen. Daher ist der alleinstehende Vergleich zur menschlichen Leistung aus rechtswissenschaftlicher Perspektive nicht immer zweckmäßig.
Nichtsdestotrotz besteht ein Grundkonsens darüber, dass Künstliche Intelligenz menschliche Fähigkeiten dem Grunde nach nachbilden soll. Wird dieser Grundkonsens mit den Thesen von starker und schwacher KI übereingebracht, so ergibt sich ein wesentlicher Unterschied zwischen den Thesen. Bei der schwachen KI dürfte Einigkeit darüber bestehen, dass es sich hier um die Nachbildung singulärer Fähigkeiten wie einzelne Denk- und Problemlösungsansätze oder Lernverfahren zur Lösung von einzelnen Aufgabenbereichen handelt. Bei starker KI hingegen sollen die menschlichen, universellen Fähigkeiten nachgebildet werden. Gegenwärtig existieren allerdings lediglich Anwendungen, die der schwachen KI zuzuordnen sind. Für die rechtliche Betrachtung ist daher zunächst der Ansatz einer starken KI zu vernachlässigen und der einer schwachen KI zu verfolgen. Die Unterscheidung nach der Klassifikation der Intelligenz, also ob eine schwache oder starke Intelligenz vorliegt, scheint in der informationstechnischen Literatur keine wesentliche Rolle einzunehmen, aber sie könnte für eine rechtliche und ethische Betrachtung bedeutsam sein.217 Neben den Thesen der schwachen und starken KI ist festzustellen, dass die Klärung des originären Begriffs Intelligenz für die Bearbeitung der vorliegenden Forschungsfrage nicht bedeutsam ist. Ferner steht ein solcher Definitionsversuch in Abhängigkeit der Wissenschaftsdisziplin und besitzt zudem diverse Ausprägungen, die weitestgehend für die rechtswissenschaftliche Bewertung nicht relevant sind.
Aus rechtswissenschaftlicher Sicht ist der Definitionsansatz anhand des alleinigen Merkmals der Nachbildung menschlicher Fähigkeiten nicht zielführend. Denn bei der Anwendung dieser Definition ist die Abgrenzung und Bestimmung, welche Anwendungen und Systeme der Künstlichen Intelligenz zuzuordnen sind, äußerst schwierig. So könnte zum einen eine erhebliche Uneinigkeit darüber bestehen, was menschliche Fähigkeiten in diesem Sinne sind. Zum anderen wird die objektive Feststellung der Nachbildung dieser Fähigkeiten einen breiten Interpretationsspielraum eröffnen. Im Ergebnis fehlen eindeutig feststellbare, kennzeichnende Merkmale, die für den rechtswissenschaftlichen Diskurs wichtig sind – wie die Lernfähigkeit von Systemen. Die Lernfähigkeit beziehungsweise die Anwendung eines Lernalgorithmus bewirken den rechtlichen Unterschied. Denn in Abgrenzung zu abschließend fest programmierten Systemen und Algorithmen, die einem statischen Regelwerk folgen, lässt sich die Entscheidung eines KI-Systems nicht vollends vorhersagen.
An dieser Stelle ist nicht nur die Ab- und Eingrenzung von KI-Systemen relevant, sondern ebenso der Kontext wie die konkrete wissenschaftliche Disziplin. Wird eine Fragestellung mit einem verwaltungswissenschaftlichen Fokus beleuchtet, so können die rechtlichen Erwägungen nachrangig sein und die vorgenannte Abgrenzung von KI-Systemen einer geringeren Bedeutung beigemessen werden.218
Wird eine Einordnung nach den Einsatzzwecken vorgenommen, so entsteht ein ähnliches Abgrenzungsproblem. Teilweise wird hier die Nachbildung singulärer, menschlicher Fähigkeiten als alleiniges Merkmal benannt. Wesentlich ist hierbei die Erledigung oder Lösung einzelner Aufgaben oder Aufgabenbereiche. Ob dies in Nachahmung menschlicher Fähigkeiten geschieht, kann dahinstehen. Denn der Abgleich mit menschlichen Fähigkeiten oder mit menschlichen, intelligenten Verhalten bringt nicht nur keinen rechtswissenschaftlichen Mehrwert, sondern ist aufgrund der Unbestimmtheit menschlicher Fähigkeiten und menschlichen, intelligenten Verhaltens nicht zu fassen. Ohne zusätzliche Charakterisierung kommt es jedoch auch hier zu Abgrenzungsschwierigkeiten, was Auswirkungen auf die rechtliche Würdigung haben kann. Daher ist es für einen rechtswissenschaftlichen Definitionsansatz erforderlich ein zusätzliches Merkmal zu bilden.
Wird der Stand der Technik von KI-Systemen im Sinne des allgemeinen Sprachgebrauchs betrachtet, ist festzustellen, dass diese auf maschinellen Lernverfahren basieren. Das maschinelle Lernen ist ebenso wie die Künstliche Intelligenz ein Forschungsgebiet der Informatik. Kennzeichnend für das maschinelle Lernen ist die Anwendung von Lernalgorithmen. Hier haben sich drei Verfahren gebildet: das überwachte Lernen, das unüberwachte Lernen und das verstärkende Lernen. Aber auch in der technischen Architektur kann unterschieden werden zwischen einem herkömmlichen Aufbau, künstlichen neuronalen Netzen oder dem föderalen Lernen, was unterschiedliche rechtliche Implikationen mit sich bringen kann. Gemein haben die Ansätze, dass sie sich selbst optimieren und ihre Fähigkeiten erlernen, ohne die Fähigkeiten vorab konkret und abschließend durch den Menschen zu programmieren. Das Lernen erfolgt dabei gegenwärtig – grob vereinfacht – vorrangig durch Korrelation und Statistiktheorien. Die Lösung von Aufgaben ist folglich – ebenfalls grob vereinfacht – eine stochastische Prognose.
Und genau von dieser technischen Funktionsweise geht eine gewisse Unvorhersehbarkeit des Systems beziehungsweise des Systemverhaltens aus. Dies impliziert ein Risiko – sowohl für den Nutzer als auch für den Betroffenen. Das daraus resultierende Risiko besitzt wiederum juristische Implikationen.
Somit müsste ein KI-System neben dem Merkmal der Lösung einzelner Aufgaben(-bereiche) vor allem das Merkmal lernendes System erfüllen. Ausgeschlossen werden somit Systeme, die auf rein statischen Algorithmen beruhen und damit ausschließlich regelbasiert sind. Deutlich wird dabei, dass die Definition auf die Lernfähigkeit reduziert werden kann, da das Merkmal Lösung einzelner Aufgaben(-bereiche) für die rechtswissenschaftliche Untersuchung keinen weiteren Erkenntnisgewinn oder Abgrenzungsvorteil bringt. Zugleich dürfte die Aufgabenerledigung auch aus sich heraus dahinstehen können. Wenn ein KI-System nicht zu einem bestimmten Zweck – also zur Erledigung einer Aufgabe – eingesetzt wird, dürfte auch kein rechtliches Problem, das es zu untersuchen gilt, bestehen.
Zwar könnte mit dem alleinigen Merkmal der Lernfähigkeit komplexe Expertensysteme ausgeschlossen werden, die durchaus aufgrund ihrer Leistungsfähigkeit und Komplexität im Sinne der schwachen KI-These als KI-System bezeichnet werden könnten, jedoch wird ein scharfes Abgrenzungskriterium geschaffen, das einen fachlichen Diskurs und insbesondere eine präzise rechtliche Würdigung zulässt. Der Nutzen dieses Verständnisses überwiegt dem Nachteil, dass einige komplexe, regelbasierte Systeme nicht erfasst werden.
Im Schrifttum der Rechtswissenschaften scheint zunächst die Betrachtung des Verständnisses des Begriffs Künstliche Intelligenz darauf hinzudeuten, dass es Unsicherheiten im Umgang und zum Verständnis von KI-Systemen gibt. Neben diesem Eindruck ist festzustellen, dass es zahlreiche Publikationen gibt, die gerade die grobe technische Funktionsweise ihren Abhandlungen zugrunde legen und sich darüber hinaus teilweise vertieft mit dem technischen Hintergrund auseinandersetzen. Im Ergebnis ist festzuhalten, dass in den rechtswissenschaftlichen Publikationen zu Themen der Künstlichen Intelligenz vorwiegend die Annahme der schwachen KI entweder explizit oder implizit vertreten wird. Damit einhergehend findet auch die KI-konstituierende Annahme eines Lernalgorithmus überwiegend Zustimmung. Im Grad der Zustimmung gibt es unterschiedliche Nuancen. So wird einerseits ein selbstlernender Algorithmus vorausgesetzt, anderseits lediglich konstatiert, dass nach dem Stand der Technik KI-Systeme regelmäßig selbstlernend sind. Andere Auffassungen, die semantisch geprägt sind oder an der Definition von starker KI erinnern, werden ebenso vertreten wie die Meinung der Undefinierbarkeit von Künstlicher Intelligenz. Diese sind allerdings der Mindermeinung zuzuordnen. Zusammengefasst ist in der Rechtswissenschaft der Ansatz der schwachen KI anerkannt, was den oben genannten Definitionsansatz für die vorliegende Arbeit bestätigt. Somit kommt es zur Klassifizierung eines Systems als KI-System darauf an, dass ein System auf selbstlernenden Algorithmen basiert oder selbstoptimierend ist.
2.2 Humanoide Roboter
Als nächsten Schritt in der Entwicklung nach den künstlichen neuronalen Netzen und dem breiten Einsatz von Lernalgorithmen benennt Mainzer das Zusammenwirken von Menschen und humanoiden Robotern.219 Diese Zukunftsannahme könnte auch für die Verwaltung relevant sein. Nachdem erste wissenschaftliche Untersuchungen über den Einsatz von humanoiden Robotern in der Pflege mit einem therapeutischen Ansatz durchgeführt wurden,220 ist ebenso der Einsatz im Bereich der Kommunikation mit den Bürgern sowie den Unternehmen denkbar.221 Darüber hinaus ist im weiteren Verwaltungshandeln wie beispielsweise beim Erlass von Verwaltungsakten ein Einsatz von humanoiden Robotern dem Grunde nach vorstellbar – beispielsweise in der Leistungsverwaltung.222 Humanoide Roboter könnten sowohl in gewöhnlichen Verwaltungsbereichen eingesetzt als auch als Hilfsmittel zur Erschließung der Fläche genutzt werden. Sie könnten beispielsweise an Orten, an denen die Verwaltung nicht präsent ist, als Serviceort und Ansprechstation für die Menschen dienen und damit Verwaltung leichter zugänglich machen.
Humanoide Roboter werden der Wissenschaft der Robotik zugerechnet. Das Feld der Robotik kann wiederum in verschiedene Roboterarten mit den jeweiligen spezifischen Verwendungszwecken und Konstruktionsweisen unterteilt werden. So wird zwischen stationären Robotern wie Industrierobotern, autonom-mobilen Robotern wie tauchenden Robotern oder fahrerlose Fahrzeuge, Service- und Assistenzrobotern wie haushaltshelfende Roboter, Mensch-Roboter-Kooperationen wie in der roboter- und computerassistierten Chirurgie, Erkundungs-, Spielzeug-, Transport-, Militär- und Rettungsrobotern, BEAM-Robotern223, Schwarmrobotern, Nanorobotern, bionischen Robotern, kognitiven Robotern sowie humanoiden Robotern unterschieden.224
Bei der Betrachtung von humanoiden Robotern ist zwischen schlichten Robotern, die lediglich dem menschlichen Äußeren und der menschlichen Optik nachempfunden sind und solche, die auf komplexen KI-Systemen basieren, zu differenzieren. Erstere werden regelmäßig als Androide bezeichnet. Das Primärziel von Androiden ist eine möglichst nahe optische Nachbildung des Menschen bis hin zur Imitation der Haut.225 Die technischen Fähigkeiten oder die Kognition muss dabei nicht zwingend stark ausgeprägt sein. Bei Letzteren, Robotern basierend auf komplexen KI-Systemen, hingegen steht vielmehr die technische Leistungs- und Bewegungsfähigkeit im Vordergrund.226 Das Äußere betreffend sind humanoide Roboter der groben menschlichen Anatomie nachgebildet, sodass ähnliche Bewegungsabläufe möglich sind.227 Das Ziel besteht in der Schaffung von Robotern, die sowohl motorische als auch kognitive Aufgaben erledigen können.228 Der Schlüssel für solche Roboter liegt in der Entwicklung einer körperbewussten Künstlichen Intelligenz.229 So definiert die hochrangige Expertengruppe für künstliche Intelligenz (AI HLEG)230 Robotik als Künstliche Intelligenz, die in Aktion mit der physischen Welt tritt.231 Die AI HLEG sieht demnach die Künstliche Intelligenz als Ausgangspunkt für eine zu entwickelnde Robotik. Das Zusammenwirken von Robotern und Künstlicher Intelligenz wird insbesondere durch die Entwicklung von künstlichen neuronalen Netzen begünstigt.232 Diese Art von humanoiden Robotern soll vorliegend fokussiert werden. An dieser Stelle ist anzumerken, dass Androide, sofern sie die spezifischen Anforderungen erfüllen, als humanoide Roboter klassifiziert werden können. Sie sind jedoch nicht zwingend und in jedem Fall den humanoiden Robotern zuzuordnen.
Humanoide Roboter sind wie oben dargestellt dem Forschungsfeld der Robotik zuzuordnen. Die Robotik wiederum ist ein Forschungsgebiet der Informatik, das stark interdisziplinär geprägt ist.233 Als erster humanoider Roboter gilt der im Jahr 1973 vorgestellte WaBot 1.234 Seitdem entwickelt sich die Robotik stetig fort.235 Die Abgrenzung von humanoiden Robotern zu anderen Roboterarten ist nicht immer trennscharf zu ziehen. So gibt es insbesondere zwischen humanoiden Robotern und Servicerobotern eine gewisse Kohärenz.
Für den Einsatz in der Verwaltung ist neben Robotern, die eindeutig den humanoiden Robotern zugeordnet werden, auch der Einsatz von anderen Roboterarten wie den Servicerobotern denkbar.236 Teilweise wird hier eine Mischform angenommen, die als Service-Humanoiden bezeichnet wird.237 Wichtigste Erkenntnis ist, dass humanoide Roboter auf KI-Systeme basieren. Sie interagieren mit ihrer Umwelt und handeln oder entscheiden selbstständig.238 Die oben dargestellten Lernmethoden des maschinellen Lernens werden ebenso für humanoide Roboter angewendet wie für klassische KI-Anwendungen.239 Für die rechtswissenschaftliche Würdigung kann es daher dahinstehen, in welchem Gewand ein KI-System kommt – beispielsweise als Anwendung in einem Online-Interface oder als Service-Humanoide im Rathaus.
2.3 Potenziale und Chancen
Für eine umfassende Betrachtung von Verwaltungsentscheidungen, die durch KI-Systeme getroffen oder maßgeblich von diesen geprägt werden, sind die daraus erwachsenen Potenziale und Chancen zu ermitteln. Diese sind für eine Gesamtwürdigung von elementarer Bedeutung. Grundsätzlich könnte eine Unterscheidung zwischen dem allgemeinen Potenzial und den Chancen von Künstlicher Intelligenz und den daraus abgeleiteten Möglichkeiten für die Verwaltung getroffen werden. Eine solche Unterscheidung scheint vorliegend nicht zweckmäßig, da hierfür eine substanzielle Auseinandersetzung mit den technischen Funktionsweisen und Verfahren von KI-Systemen erforderlich wäre. Wie oben dargestellt, ist ein derart gelagerter vertiefter Fachdiskurs für die vorliegende Forschungsfrage nicht zweckmäßig. Eine Verbindung der allgemeinen Potenziale und Chancen von KI-Systemen in Verbindung mit einer Adaption auf die Verwaltung ist hier viabel.
Vorangestellt ist zu betonen, dass digitale Systeme und disruptive Technologien zwar Lösungsansätze für Probleme und Herausforderungen mit sich bringen, sie jedoch in der Regel lediglich Technologien sind, mit denen Lösungen erarbeitet oder umgesetzt werden können.240 Sie stellen regelmäßig nicht die Lösung dar, sondern funktionieren vielmehr als Mittel zur Lösung. Bei einer verkürzten Darstellung scheinen Technologien wie KI-Systeme die Lösung für die weitreichenden Herausforderungen des Staates und der Verwaltung zu sein. Doch grundlegende Probleme und Herausforderungen verlangen adäquate Lösungen auf derselben Ebene. Technologien, die vorher nicht zur Verfügung standen, können bei der Umsetzung einer Lösung förderlich sein. Wird beispielsweise ein unbeweglicher, schwerfälliger und träger Verwaltungsapparat diagnostiziert, dem es an Agilität fehlt und der somit nicht angemessen auf neue Herausforderungen reagieren kann, so wird ein KI-System zwar bei der Problemlösung in puncto effizientere Prozesse oder Automatisation von bestimmten Tätigkeiten helfen können, das originäre Problem ist jedoch dadurch nicht gelöst. Es bedarf vielmehr einer ganzheitlichen Betrachtung und Erarbeitung von Strategien, bei der KI-Systeme ein Lösungsbestandteil sein können.
2.3.1 Akzeptanz und Expertenstatus
Eine wesentliche Grundlage für die Arbeit einer Verwaltung im demokratischen Rechtsstaat ist das Vertrauen und die Akzeptanz der Bürger.241 KI-Systeme können dazu führen, dass Verwaltungshandeln und insbesondere Verwaltungsentscheidungen eine höhere Akzeptanz erfahren. Dies könnte dann der Fall sein, wenn ein System, das auf Künstlicher Intelligenz beruht, vom Adressaten – dahinstehend ob verwaltungsintern oder -extern – als Expertensystem angesehen wird. Die Wahrnehmung eines KI-Systems als Expertensystem ist ein wesentlicher Zugewinn für eine höhere Entscheidungsakzeptanz. Denn bei der Zuschreibung von bestimmten Eigenschaften wie eine erhöhte Glaubwürdigkeit und Kompetenz von Experten kommt es nicht allein auf die kognitiven Fähigkeiten und das Fachwissen der Experten an, sondern es sind daneben soziale Aspekte von Bedeutung. Letztendlich ist die allgemeine Anerkennung als Experte ausschlaggebend für eine höhere Glaubwürdigkeit und ein gesteigertes Vertrauen.242 Das entscheidende Phänomen ist die erhöhte Glaubwürdigkeit und die Kompetenzzuschreibung, die mit einem Expertenstatus einhergeht. Bei entscheidungsunterstützenden Systemen ist jedenfalls zu beobachten, dass eine Tendenz besteht, die systemgenerierte Entscheidung ungeprüft zu übernehmen.243 Nun ist dies zunächst eine Korrelation. Denn das Übernehmen einer KI-Empfehlung muss nicht zwingend auf ein absolutes Vertrauen gegenüber einem KI-System oder eine dahingehende höhere Glaubwürdigkeit zurückzuführen sein, sondern kann ebenso durch eine Passivität der handelnden Person begründet werden. So beschreibt Hoffmann-Riem ein Korrelationsargument, wonach eine menschliche Kontrolle etwa durch einen Verwaltungsbeschäftigten aufgrund der Undurchschaubarkeit und Komplexität des Systems faktisch nicht möglich ist.244 Das ungeprüfte Übernehmen des KI-Entscheidungsvorschlags wäre demnach durch die Nicht-Nachvollziehbarkeit des Zustandekommens der KI-Entscheidung bedingt und nicht durch einen vermeintlichen Expertenstatus, das dem KI-System zugeschrieben wird.
Auf der anderen Seite gibt es Ansätze, die für eine Kausalität sprechen. Die Leistungsfähigkeit eines KI-Systems dürfte sich hier aufdrängen. So ist es schon bei schlichten algorithmischen Systemen zur Durchführung von mathematischen Operationen nicht von der Hand zu weisen, dass die dort gelieferten Ergebnisse zum einen regelmäßig schneller produziert werden als vom Menschen und zudem zuverlässiger sind. Wird dieser Gedanke auf ein KI-System übertragen, das beispielsweise tausende vorangegangene Verwaltungsentscheidungen analysieren kann und seine Prognose auf diesen Datenbestand stützt, könnte dies dazu führen, dass das Ergebnis nicht angezweifelt wird, sondern vielmehr eine bedeutsame, individuelle Legitimation erfährt.245
Grundsätzlich ist die individuelle Wahrnehmung einer KI-generierten Entscheidung von diversen Faktoren wie unter anderem von der Kontrollierbarkeit und Transparenz eines Systems sowie von der spezifischen Technologieakzeptanz des Einzelnen abhängig.246 Neben der Erklärbarkeit und Transparenz ist es für die Akzeptanz bei KI-Systemen förderlich, wenn diese nicht den Ansatz der generellen Intelligenz wie die der starken KI verfolgen, sondern auf bestimmte Aufgabenbereiche fokussiert sind und einem klaren Anwendungsfall unterliegen.247 In dieser Art und Weise könnten KI-Systeme für bestimmte Einsatzfelder in der Verwaltung konzipiert werden. Die entstehenden Expertensysteme könnten zu einer höheren Akzeptanz in der Verwaltungsentscheidung führen als bei klassischen, menschlichen Entscheidungen.
2.3.2 Servicequalität
Servicequalität und Dienstleistungsorientierung248 der Verwaltung sowie das Qualitätsmanagement sind Güter, die durch das New Public Management in den Verwaltungswissenschaften und in der Verwaltungspraxis besonders auflebten.249 Dienstleistungsorientierung und -qualität lassen sich an diversen Aspekten festmachen wie beispielsweise der Kundenorientierung, Warte- und Reaktionszeiten, Verbindlichkeit der Kommunikation und des Verwaltungshandelns, Hilfsbereitschaft oder auch die Freundlichkeit der Verwaltungsbeschäftigten.250
KI-Systeme können bei der Umsetzung des adressierten Komplexes der Servicequalität förderlich sein. So können KI-Systeme ein Hilfsmittel sein, um Wartezeiten zu reduzieren. Dies kann zum einen durch ein intelligentes Terminmanagement geschehen, aber auch durch systemtechnische Unterstützung bei verwaltungsinternen Prozessen, die zu langen Bearbeitungs- und Wartezeiten führen.251
Neben der Prozessoptimierung für bestehende Abläufe, können mithilfe von KI-Systeme auch neue Prozesse und Abläufe initiiert werden, die wiederum zu einer höheren Servicequalität führen. So könnte eine einheitliche, digitale und KI-basierte Anlaufstelle für die Bürger geschaffen werden.252 Diese Anlaufstelle würde sich nicht an der zuständigkeitsgeprägten Verwaltung und der Informations-Holschuld der Bürger orientieren müssen, sondern durch ein KI-basiertes, leistungsfähiges System vielmehr den Bürgern einen einheitlichen Eingang in das jeweilige Verwaltungsverfahren ermöglichen und dies im Idealfall vollumfänglich autonom durchführen.253 Somit würde eine verstärkte Orientierung an den Bürgern erreicht und ein nutzungszentriertes Angebot geschaffen werden.254
In ähnlicher Art und Weise ist der Einsatz von KI-basierten Chatbots denkbar. Dieser würde eine Kommunikation mit den Bürgern zu allen Themenbereichen der Verwaltung rund um die Uhr und prinzipiell in jeder Sprache und auf verschiedenen Sprachlevel wie der Leichten Sprache möglich machen.255 Ein solches Angebot wäre für die Steigerung der Servicequalität äußerst bedeutsam, da es neben der abschließenden Beantwortung von Fragen auch in der dazugehörigen Vorstufe bereits eine wesentliche Orientierungshilfe für die Bürger darstellen könnte.256 Letztlich werden somit Sprach- und Kommunikationsbarrieren abgebaut und staatliches Handeln zugänglicher. Daneben könnte ein KI-System nicht nur Bürger adressieren, sondern auch die Verwaltungsbeschäftigten bei der Beantwortung von Anfragen unterstützen und damit sowohl effizienzsteigernd wirken als auch die Antwortqualität steigern.257
Der Abbau von Redundanzen und die Beschleunigung von Arbeitsabläufen im Sinne des Once-Only-Prinzips könnte sowohl effizienzsteigernd für die Verwaltung wirken als auch für die Bürger einen geringeren Aufwand bei einer Antragsstellung bedeuten. Ein einheitliches Datenmanagement, übergreifende Register und KI-basierte Antragsbearbeitung oder -vorbereitung können den Bürgern weniger Aufwand bei einer Antragsstellung und schnellere Bearbeitungszeiten bieten.258
Die vorgenannten Aspekte könnten daneben zu einer Entlastung der Verwaltungsbeschäftigten führen. Darüber hinaus hat der effizienz- und automatisierungsorientierte Einsatz von KI-Systemen das Potenzial Personalressourcen freizulegen. Verwaltungsbeschäftigte könnten sich statt mit automatisierbaren Routinebeschäftigungen oder beispielsweise der Zuständigkeitsprüfung sowie Auskünften in Zusammenhang mit Anfragen von Bürgern anderen Tätigkeiten widmen. Der gewonnene Freiraum kann für schwierige Sachverhalte oder kreative Arbeiten genutzt werden.259 Ebenso bekämen die Verwaltungsbeschäftigten die Gelegenheit den Kontakt und die Beratung in schwierigen Fällen gegenüber den Bürgern zu intensivieren.260
2.3.3 Effizienz
Anknüpfend an den nach außen gerichteten Aspekten der Servicequalität profitiert wie oben genannt auch die Verwaltung selbst von zielgerichteten und passgenauen Informationen und Leistungen.261 Nicht erforderliche Abläufe, können durch KI-basierte, leistungsfähige Informations- und Kommunikationssysteme abgebaut werden. So ist es vorstellbar, dass das zielgerichtete, effiziente Verwaltungshandeln durch KI-Unterstützungssysteme umgesetzt werden kann. Beispielsweise könnten die für die Bearbeitung von Verwaltungsvorgängen relevanten Daten automatisiert von einem KI-System bereitgestellt werden oder das KI-System könnte im Rahmen der Opportunität und mithilfe einer Vorselektion oder eines Frühwarnsystems Verwaltungsverfahren einleiten und dieses dem Verwaltungsbeschäftigten zur Bearbeitung vorschlagen.262 Auch beim letztgenannten Punkt ist die Steigerung der Effizienz durch den Wegfall von Routinetätigkeiten von erheblicher Bedeutung, da im Ergebnis mehr Ressourcen für die originäre Bearbeitung von Vorgängen bereitstehen.263 Die KI-basierte Bearbeitung mit dem Zwecke der Effizienz- und Effektivitätssteigerung ist auf nahezu alle Einsatzzwecke und Anwendungsfelder der Künstlichen Intelligenz anwendbar. So sind der verwaltungsmäßigen Bearbeitung von Vorgängen auch Anwendungen im Zusammenhang mit Sprach-, Bild- und Texterkennung vorstellbar.264
Zur Steigerung der Effizienz ist die Vereinfachung von Kommunikations- und Antragsprozessen auf Basis von KI-Technologien von besonderem Interesse.265 Daneben kann in der Phase der Entscheidungen Potenzial ausgemacht werden. So ist es möglich, Entscheidungen – sei es im Einzelfall oder Entscheidungen von allgemeiner Bedeutung – datengestützt zu treffen.266 Die Datenbezogenheit kann sich auf alle Bereiche wie Beobachtung, Analyse, Vorhersage oder die Entscheidungen selbst beziehen.267 KI-Systeme und Big Data bieten hier Möglichkeiten, die von menschlicher Seite in puncto Effektivität, Effizienz und Geschwindigkeit nur schwer zu erbringen sind. Über die Vorbereitung von Verwaltungshandeln hinaus besteht das Potenzial das Verwaltungshandeln selbst zu automatisieren, so dass kein menschliches Zutun erforderlich ist.268
2.3.4 Ressourcen
Durch die KI-basierte Bearbeitung von Vorgängen und Automatisierung von (Routine-)Tätigkeiten kann den begrenzten Personalressourcen269 in der Verwaltung begegnet werden.270 Neben der reinen Abmilderungen von Personalengpässen in der Verwaltung bieten KI-Systeme die Möglichkeit, die Aktivitäten der Verwaltungsbeschäftigten auf kreative und fachliche Tätigkeiten zu konzentrieren anstatt einfache Routinetätigkeiten in den Vordergrund der Beschäftigten zu stellen.271 Dies ist zum einen zur Begegnung des Fachkräftemangels sinnvoll und kann zum anderen positive Effekte auf die Motivation der Verwaltungsbeschäftigten haben, da diese anspruchsvollere und abwechslungsreichere Tätigkeiten nachgehen können. Zudem scheinen Verwaltungsbeschäftigte einen besonderen Fokus auf gewissenhaftes Arbeiten zu legen, was durch den Wegfall von einfacheren Tätigkeiten intensiviert werden könnte.272 Ebenfalls wird das Freisetzen von finanziellen Ressourcen angenommen, die für andere Bereiche des staatlichen Handelns wie erhöhte Investitionen verwendet werden können.273
Neben der Abmilderung von zukünftig geringeren zur Verfügung stehenden Personalressourcen könnte zudem ein bereits jetzt wirkendender Effekt aufgefangen werden. Bei Massenverwaltungsverfahren oder Sachverhalten, die jedenfalls in der Breite vorkommen, liegt es in der Natur der Sache, dass nicht alle Vorgänge gleichermaßen oder überhaupt bearbeitet werden können. Mit KI-Systemen, damit einhergehende Automatisierungen und Predictive-Analytics-Modelle könnte dies geändert werden. So wäre es beispielsweise im Bereich des Forderungsmanagements der Verwaltung möglich, alle offenen Forderungen in einer gleichen Intensität einzutreiben, ohne priorisieren zu müssen. Auch Wertgrenzen für verwaltungsinterne Niederschlagungen könnten überprüft und heruntergesetzt werden,274 was zur Erhöhung der Einnahmeverwirklichung, respektive den Gesamteinnahmen der Verwaltung und damit des Staates führt. Dies wird dadurch begründet sein, dass die Niederschlagungsintention beim Einsatz von KI-Systemen neu bewertet werden muss. Konkret wird gegenwärtig angenommen, dass die Wirtschaftlichkeit der Verfolgung von Forderungen erst ab einem bestimmten Betrag gegeben ist. Maßgeblich für diese Annahme sind insbesondere die einzusetzenden Personalressourcen und die damit verbundenen Kosten. Durch automatisierte Eingangsbearbeitung, dem automatisierten Verfolgen von Forderungen und die dazugehörige automatisierte, KI-basierte Kommunikation mit den Schuldnern könnten derart gelagerte Verwaltungsvorgänge vollumfänglich bearbeitet werden.275 Die hier wirkendende Kostenminimierung im Verwaltungsverfahren lässt sich im Theoretischen ebenso auf andere Verfahren und Bereiche projizieren.276 Damit liegt im Einsatz von KI-Systemen grundsätzlich das Potenzial, die monetären Ressourcen zu schonen, wobei eine verlässliche Aussage hierzu mangels belastbarer Untersuchungen schwer zu treffen ist. Jedoch ist zu konstatieren, dass optimierte Workflows und Verwaltungsabläufe Auswirkungen auf die Ressourcen entfalten können.277
Ein anderer, aber ähnlicher Wirkbereich ist die Disposition von knappen Personalressourcen. Bereits in der gegenwärtigen Praxis werden statistische Modelle zur Personal- und Einsatzplanung angewendet. Allgemein bekannt sind die Beispiele des Predictive Policing und der kriminalitätsorientierten Heatmaps. Aber auch in anderen Bereichen kann die datenbasierte Personaleinsatzplanung hilfreich sein wie beispielsweise in der Finanzverwaltung gemäß § 88 Abs. 5 AO zur Identifizierung schwieriger oder risikobehafteter Fälle, die eine menschliche Bearbeitung erfordern.278 Zusammengefasst werden statistische Prognosen erstellt, die Hinweise auf mögliche zukünftige Einsatzfelder – beispielsweise im Bereich der Gefahrenabwehr – geben und dadurch die Personaldisposition maßgeblich bestimmen. KI-Systeme bieten die Möglichkeit zum einen die bestehenden Systeme zu verbessern und zum anderen auf andere Anwendungsgebiete auszuweiten.279
2.3.5 Expertensysteme und Rechtssicherheit
KI-Systeme sind aufgrund ihrer Eigenart und der Ausprägung der schwachen KI dem Grunde nach als Expertensysteme anzusehen. Dies bietet die Möglichkeit eine höhere Verlässlichkeit und Rechtssicherheit von Verwaltungshandeln zu erreichen.280 Ein wesentlicher Baustein hierfür ist die Sicherstellung der Nachvollziehbarkeit und Transparenz des Verfahrens sowie der Verwaltungsentscheidung.281 Darüber hinaus könnten Entscheidungen durch Expertensysteme in der Breite evidenzbasiert getroffen werden. Dies wäre nicht nur bei autonom agierenden Systemen denkbar, sondern auch bei solchen Verfahren, bei denen Verwaltungsbeschäftigte die finale Entscheidung treffen. Vorstellbar wären Dashboards oder grundsätzlich die Nutzung von Datenpotenzialen und die Aufbereitung von Informationen für die entscheidenden Personen.282 Aber auch Modellierungen von verschiedenen Szenarien oder unterschiedlichen Entscheidungskonsequenzen könnten die Entscheidungsqualität steigern.283
Neben der Modellierung können Big Data-Verfahren beziehungsweise allgemein KI-basierte Datenanalysen oder Entscheidungsanalysen des vorangegangenen Verwaltungshandelns eine Steigerung der Qualität und Rechtssicherheit mit sich bringen.284 Die Rechtssicherheit bezieht sich insbesondere auf die Maßgaben von Art. 3 Abs. 1 GG – der allgemeine Gleichheitssatz. Die Gleichbehandlung und die Gleichförmigkeit von Verwaltungshandeln bei gleichgelagerten Sachverhalten könnten durch KI-Systeme gefördert werden. Dies würde der Verwirklichung des Grundsatzes der Selbstbindung der Verwaltung und der Rechtsanwendungsgleichheit nach Art. 3 Abs. 1 GG dienen.285
Das Gebot der Rechtsanwendungsgleichheit umfasst neben der Judikativen auch die Exekutive.286 Die Verpflichtung der Verwaltung – über das Diskriminierungsverbot hinaus – zur gleichen Anwendung von Normen im Gesetzesvollzug entfaltet sowohl Wirkung auf gebundene Entscheidungen als auch auf Ermessensentscheidungen der Verwaltung.287 Die Selbstbindung der Verwaltung ist im Wesentlichen eine Ableitung des Gleichheitsgrundsatzes, respektive des Grundsatzes der Rechtsanwendungsgleichheit.288
Die Selbstbindung der Verwaltung fordert eine einheitliche und stringente Verwaltungspraxis. Insbesondere bezieht sich die Selbstbindung der Verwaltung auf Ermessensentscheidungen und determiniert mit der geübten Entscheidungspraxis nachgehende Entscheidungen für gleiche Sachverhalte, bei denen es keine sachlichen Gründe für eine Abweichung gibt.289 Die Entscheidungspraxis ist jedoch nicht für die Ewigkeit zementiert, sondern kann und muss vielmehr bei veränderten Bedingungen angepasst werden, da ansonsten eine Verkrustung droht.290 Ebenso können Maßstäbe und Entscheidungskriterien sachlich begründet geändert werden.291
Diesem kurzen Überblick sind zwei Annahmen für die Verwaltungspraxis zu entnehmen. Zum einen darf es bei gebundenen Entscheidungen keine wesentlichen Unterschiede in den Verwaltungsentscheidungen geben, da es keinen Entscheidungsspielraum gibt.292 Dies ist für die KI-basierte Entscheidungsfindung günstig. Zum anderen kann es bei Ermessensentscheidungen und teilweise auch bei gebundenen Entscheidungen, wenn diese einem Beurteilungsspielraum unterliegen beziehungsweise auf der Tatbestandsseite mit unbestimmten Rechtsbegriffen verfasst sind, in der Verwaltungspraxis zu ungleichen Entscheidungen bei gleichen Sachverhalten kommen. Dies würde ab einem bestimmten Maß nicht mehr mit Art. 3 Abs. 1 GG und den daraus abgeleiteten Grundsätzen in Einklang stehen. Eine nicht beabsichtigte und fachlich nicht gerechtfertigte Ungleichbehandlung durch Verwaltungsbeschäftigte kann auf diverse Parameter zurückgeführt werden. So können divergierende Entscheidungen durch Rahmenbedingungen und Organisationsgefüge der jeweiligen Verwaltung oder der Organisationseinheit, Prämissen der entscheidenden Personen gegenüber den Adressaten, sozio-ökonomische Merkmale der Adressaten oder in der entscheidenden Person selbst begründet sein. Gründe, die in der entscheidenden Person verortet sind und zu unterschiedlichen Entscheidungen führen, können beispielsweise durch unterschiedliches Fachwissen oder einer anderen Sozialisation entstehen.293 Aber auch die persönliche Verfasstheit wie der tagesaktuelle emotionale Zustand einer Person kann zu unterschiedlichen Entscheidungen führen.294 Wesentlich ist hier, dass es sich nicht zwingend um Ermessensfehlentscheidungen handeln muss, sondern um Ermessenentscheidungen, die unterschiedlich getroffen werden und sogar noch frei von überprüfbaren Ermessensfehlern sind.
Das Potenzial eines KI-System läge hier in der Analyse von vorangegangen Entscheidungen gleichgelagerter Fälle über die eigene Verwaltung hinaus und in der Objektivierung des Entscheidungsprozesses.295 Damit könnte ein KI-System für mehr Rechtssicherheit sorgen und die Grundsätze des Art. 3 Abs. 1 GG fördern.
Neben dem Wirkbereich von Art. 3 Abs. 1 GG können KI-Systeme für die Einhaltung und Überwachung von gesetzlichen Vorgaben eingesetzt werden. So kann beispielsweise mithilfe einer automatisierten, laufenden Kassenprüfung oder -überwachung alle Transaktionen der öffentlichen Hand überwacht werden und fehlerhafte Buchungen oder Verstöße detektiert werden.296
2.4 Risiken und Schwächen
Nach der Betrachtung der Potenziale und Chancen von KI-Systemen sind für ein vollständiges Bild ebenso die Risiken und Schwächen Künstlicher Intelligenz herauszuarbeiten. Mögliche Risiken und Schwächen sind für eine rechtliche Bewertung von grundlegender Bedeutung. Sie hängen insbesondere vom einzelnen KI-System und dessen Architektur sowie der Programmierung ab. Eine individuelle Prüfung eines KI-Systems für eine abschließende Würdigung ist damit unerlässlich. Dennoch sind Aspekte zu konstatieren, die regelmäßig bei KI-Systemen vorkommen und immanent zu sein scheinen. Diese generalisierbaren Risiken und Schwächen sind für die vorliegende Untersuchung von Bedeutung.
2.4.1 Bias
Der Terminus Bias wird von verschiedenen Disziplinen verwendet. Vorliegend sind insbesondere zwei Begriffsverständnisse interessant. Zum einen die statistische Verwendung des Begriffs, mit dem ein (systematischer) Schätzfehler gemeint ist und zum anderen die Bedeutung als kognitive und systematische Verzerrung.297 Auf künstliche Intelligenz bezogen kann ein Bias der Hypothesenbildung im maschinellen Lernen dienen und ist daher für den technischen Prozess hilfreich und zudem nicht immer zu vermeiden.298 Allerdings kann das technisch legitime Hilfsinstrument zu einem unerwünschten und unzulässigen Ergebnis führen, da das Resultat diskriminierend wirken kann.
2.4.1.1 Technisch bedingte Bias
Die unerwünschten Verzerrungen können in verschiedene Kategorien unterteilt werden. So kann zwischen einem Sample-, Label- und Feature-Bias unterschieden werden.299 Ein Sample-Bias dürfte ein äußerst praxisrelevanter Fall sein. Dieser wird verursacht von unausgewogenen Trainingsdaten und führt zu einem nicht erwünschten Ergebnis.300 Das unerwünschte Ergebnis kann mannigfaltig sein. Charakteristisch ist, dass eine bestehende rechtlich oder gesellschaftlich unerwünschte Verzerrung im Trainingsdatenbestand besteht und sodann in der Anwendungsphase reproduziert wird. So könnte ein KI-System politisch und sozial relevante Entscheidungen treffen, die gesellschaftlich und verfassungsrechtlich nicht konsensual sind.301 Ein Beispiel ist ein Gender-Bias, bei dem ein bestimmtes Geschlecht in den Resultaten des KI-Systems strukturell diskriminiert wird. Eine solche Diskriminierung kann sich dadurch äußern, dass ein Geschlecht in einem begünstigen Fall unberücksichtigt bleibt302 oder in einem negativen Fall überrepräsentiert ist303. Unzureichende und unvollkommene Trainingsdaten, die zwangsläufig vergangenheitsbezogen sind, eine fehlende Diversität aufweisen und bereits deshalb diskriminierend sind, verursachen einen Sample-Bias.304 Die Verzerrung wird durch den Algorithmus angenommen, reproduziert und teilweise verstärkt.305
Ein Label-Bias hingegen wirkt eher auf den Erfolg einer KI-basierten Entscheidung. Hier besteht die Verzerrungen in der vorherzusagenden Zielgröße, ausgelöst durch fehlerhafte Eingabedaten, respektive durch das fehlerhafte Labeln dieser Daten.306
Ein Feature-Bias unterscheidet sich zum Label-Bias indem statt der Zielgröße eine im Trainingsdatensatz enthaltene Variable verzerrt ist.307 Dadurch besteht die Gefahr, dass ein KI-System einen falschen Schluss zieht und die darauf basierenden Entscheidungen fehlerhaft trifft und unter Umständen damit diskriminiert.308
Aus dem technischen Verfahren des maschinellen Lernens ergibt sich noch ein weiteres Bias, konkret der systeminhärente Vergangenheitsbezug. Bedingt durch die Lernverfahren auf Grundlage von bestehenden Trainingsdaten werden das Expertenwissen und die Fähigkeiten eines KI-Systems auf vergangenheitsbezogene Daten und Informationen aufgebaut. Eine Ausnahme besteht beim Verfahren des verstärkenden Lernens. Denn hier findet die Lösungssuche nach dem Trial-and-Error-Prinzip im Sinne eines Optimierungsverfahrens statt. Ein Training mit bestehenden Daten ist damit nicht wie bei den anderen Verfahren erforderlich. Die Problematik ist in der rechtlichen Entscheidungsfindung verortet. Ein KI-System kann zwar Wahrscheinlichkeiten berechnen und eine Prognoseentscheidung im rechtlichen Sinne treffen, es lässt jedoch individuelle Aspekte, die in einer Person liegen, unberücksichtigt, da es die Prognoseentscheidung maßgeblich auf die ihm zur Verfügung stehende, vergangenheitsbezogene Datenmenge bezieht.309 Eine tatsächliche Prognoseentscheidung, die primär auf die betreffende Person beruht und gerichtet ist, findet nicht statt. Die persönliche Entwicklung einer Person wird damit nicht abgebildet.310 Ebenso ist nicht auszuschließen, dass sich die Grundannahmen, Variablen oder Muster aus den vergangenheitsbezogenen Daten geändert haben. Gesellschaftliche Veränderungen wie fortentwickelte Werteeinstellungen, seien sie noch so klein, können somit nicht fortlaufend in KI-basierten Entscheidungen berücksichtigt werden. Ein KI-System kann einen solchen, kontinuierlichen Fortgang der Gesellschaft nur rückblickend abbilden.
2.4.1.2 Menschlich induzierte Bias
Neben diesen Verzerrungen, die insbesondere durch einen fehlerhaften Trainingsdatensatz hervorgerufen werden, besteht ein weiteres Risiko in den Programmierern und der Digitalwirtschaft selbst. Denn die Algorithmen, auf denen ein KI-System beruht, können die Werteeinstellungen der Programmierer vermitteln, wobei die Werte nicht im Einklang mit den rechtlichen Vorgaben und dem gesellschaftlichen Konsens stehen müssen.311
Ob diese Wertevermittlung beabsichtigt oder unbeabsichtigt geschieht,312 kann dahinstehen. Hingegen ist davon auszugehen, dass auch Entwickler und Programmierer charakteristische Werte ihrer Profession latent vertreten und vermitteln.313 Problematisch kann sein, dass über die Verankerung dieser Werte in den Algorithmen und KI-Systemen eine Verbreitung dieser Werte und zugleich eine wertegeleitete Einflussnahme auf die anstehende Entscheidung stattfinden könnte. Verstärkend kommt hinzu, dass je weiter die Digitalisierung voranschreitet und (staatliche) Entscheidungen von KI-Systemen getroffen werden, desto größer wird der faktische – und nicht demokratisch legitimierte – Einflussbereich der Programmierer und der Digitalwirtschaft. Es setzt eine Art Hebelwirkung ein.
Es ist daher anzuerkennen, dass menschlich geschaffene Systeme und Algorithmen nicht frei von individuellen Werten und politischen Ansichten sind und diese erst recht nicht zwingend gesellschaftlich konsensual sein müssen oder gar diskursiv hergeleitet sind.314 Vielmehr besteht die Gefahr einer suggerierten Objektivität und Neutralität der durch ein KI-System getroffenen oder vorgeschlagenen Entscheidung.315 KI-generierte Entscheidungen könnten als objektiv und rational vom Nutzer wahr- und angenommen werden. Verkannt wird dabei, dass die Entscheidungen – ebenso wie gewöhnliche menschliche Entscheidungen – subjektiv und interessengeleitet sein können.
Programmierer werden zu Rechtssetzern316 – respektive entscheiden über die Auslegung des Rechts. Die Intention das Gemeinwohl zu steigern, wird regelmäßig keine Prämisse für Entwickler und die Digitalwirtschaft sein – anders als beim Agieren staatlicher Akteure.317 Entwickler erzeugen eine datensetzende Macht, die im Zweifel nicht nur Einzelinteressen verfolgt, sondern mehr noch politische und ethische Fragen außer Acht lässt.318 So können durch menschlich geschaffene Systeme Entscheidungen getroffen werden, die sowohl den anerkannten sozialen Werten widersprechen als auch gegen geltendes Recht verstoßen.319
Zusammenfassend kann festgestellt werden, dass KI-basierte Entscheidungen unterschiedliche strukturelle Fehler aufweisen können. Insbesondere müssen die Entscheidungen oder Entscheidungsvorschläge nicht zwingend objektiver sein als menschliche Entscheidungen, was im Wesentlichen auf die systemimmanenten Verzerrungen und Vorurteile zurückzuführen ist.320 Eine besondere Rolle nehmen hierbei die Trainingsdaten ein. Sind diese unausgewogen, nicht fair oder enthalten irgendeine Art von Bias, können sie die Funktion des Systems und die Ergebnisse maßgeblich im negativen Sinne beeinflussen. Selbst ein repräsentatives Abbild der Realität in den Trainingsdaten gewährleistet kein diskriminierungsfreies oder sonstig fehlerfreies KI-System.
2.4.2 Verständlichkeit, Transparenz und Nachvollziehbarkeit
Verständlichkeit, Transparenz und Nachvollziehbarkeit eines KI-Systems und insbesondere der daraus abgeleiteten Entscheidungen und Wissensrepräsentationen sind gegenwärtig elementare Schwächen von KI-Systemen – selbst, wenn diese auf verhältnismäßig einfachen Methoden basieren.321 Wie oben dargestellt ist es grundsätzlich nur schwer nachvollziehbar auf welchen Annahmen und unter welchen Prämissen eine Entscheidung zustande kommt. Dies stellt neben der negativen Auswirkung auf die Akzeptanz solcher Entscheidungen auch ein Problem für die rechtliche Überprüfbarkeit von Entscheidungen dar. Die Verständlichkeit, Transparenz und Nachvollziehbarkeit ist nicht nur für die Adressaten von Entscheidungen eine Herausforderung, sondern ebenso für die direkten Anwender. Bezogen auf diese Gruppe liegt hier das Defizit in der Interpretierbarkeit von gelernten KI-Modellen und den Informationen zum Hintergrundwissen des KI-Systems.322
KI-Modelle können im Hinblick auf Verständlichkeit, Transparenz und Nachvollziehbarkeit in Blackbox-, Greybox- und Whitebox-Modelle gruppiert werden.323
Whitebox-Modelle sind solche Systeme, die so konzipiert sind, dass die Systemarchitektur beziehungsweise die entscheidungsrelevanten Gründe mit einem geringen Aufwand nachvollzogen werden können.324 Dies ist insbesondere bei rein regelbasierten Systemen gegeben,325 die jedoch nach dem vorliegenden Verständnis nicht unter KI-Systeme zu subsumieren sind. Rein regelbasierte Systeme sind unter anderem Systeme, die auf Basis von Entscheidungsbäumen programmiert sind. Hier sind die Prämissen und die entscheidungsrelevanten Kriterien eindeutig zu erkennen. Entscheidungen können damit mit einem verhältnismäßig geringen Aufwand nachvollzogen werden, was als transparent und verständlich bewertet werden kann.
KI-Systeme, die als Blackbox-Modelle kategorisiert werden, sind hingegen intransparent und die Ergebnisse, respektive die entscheidungsrelevanten Gründe, sind nicht oder nur unter einem erheblichen Aufwand nachvollziehbar.326 Insbesondere künstliche neuronale Netze sind aufgrund ihrer inhärenten Eigenschaften als Blackbox-Modelle anzusehen.327 Im Wesentlichen ist dies durch die Systemarchitektur und die selbstlernenden Algorithmen bedingt. Durch die beliebige Anzahl an Neuronen, den enormen Datensätzen und die schwer bis gar nicht nachvollziehbare Verarbeitung der Daten – insbesondere durch die einzelne Gewichtung von Signalen und den damit einhergehenden Aktivierungswerten für einzelne Neuronen – wächst die Anzahl an möglichen Parametern, die eine Entscheidung beeinflussen können, exponentiell an.328 Hinzu kommt, dass auch die Ein- und Ausgabeparameter höchst komplex sein können, was für die Verständlichkeit und Nachvollziehbarkeit nicht zuträglich ist.329 Grundsätzlich kann festgestellt werden, dass je komplexer die technische Architektur und das angewendete Lernverfahren ist, desto bessere Ergebnisse können erzielt werden, was jedoch mit einer geringeren Nachvollziehbarkeit und Erklärbarkeit einhergeht.330
Ein Ansatz zur Auflösung der Blackbox-Problematik mit dem Ziel einer höheren Transparenz, Erklärbarkeit und Nachvollziehbarkeit ist die wiederum algorithmische Überprüfung eines KI-Systems, respektive dessen Entscheidung. Allerdings ist dieser Ansatz nicht in der Form verfügbar, dass eine Analyse eines Blackbox-Systems eine Nachvollziehbarkeit und höhere Transparenz gewährleistet.331 Eine solche Analyse kann beispielsweise mit einem leistungsschwächeren Surrogat-Whitebox-Modell geschehen, mit dem versucht wird, das entsprechende leistungsfähige Blackbox-Modell zu interpretieren.332 Neben den beschränkten Erfolgsaussichten und dem aufwändigen Verfahren ist zu konstatieren, dass damit lediglich Anhaltspunkte für eine Entscheidungsbegründung geliefert werden können und eine vollständige Rekonstruktion des Zustandekommens einer Entscheidung nicht realisierbar ist.333 Speziell der damit verbundene Aufwand und die erforderlichen Kapazitäten lassen nicht erwarten, dass eine solche algorithmische Überprüfung in der Praxis stattfindet, wenn von einem flächendeckenden und diversen Einsatz von KI-Systemen ausgegangen wird.
Greybox-Modelle adressieren nicht ein gesamtes KI-System, sondern sollen eine partielle Transparenz und Nachvollziehbarkeit schaffen, die lediglich auf einzelne Teilbereiche fokussiert ist wie die Transparenz der Daten, die Transparenz der Algorithmen oder die Transparenz der Ausgabewerte.334 Die Offenlegung der Algorithmen, respektive des Programmiercodes, und der Trainingsdaten könnte Menschen in die Lage versetzen, die Architektur des Systems nachzuvollziehen. Dies würde dem Prinzip der Greybox entsprechen, da somit der jeweilige Teilbereich transparent und grundsätzlich nachvollziehbar wäre. Neben möglicherweise aufkommenden Divergenzen über die Schutzwürdigkeit des Programmcodes und auch der Trainingsdaten dürfte dies bei komplexen künstlichen neuronalen Netzen jedoch nicht zur Nachvollziehbarkeit von einzelnen Entscheidungen führen. Das Problem dürfte in der Komplexität des KI-Systems liegen und dazu führen, dass höchstens KI-Experten die offengelegten Informationen zu bewerten wüssten.335 Vielmehr sollten jedoch die Anwender in die Lage versetzt werden, KI-basierte Entscheidungen zu verstehen und nachvollziehen zu können. Ein Anknüpfungspunkt hier ist die Transparenz und Nachvollziehbarkeit der Ausgabewerte. Aufgrund der technischen Eigenschaften ist zwar das konkrete Zustandekommen eines Ergebnisses schwer bis nicht nachzuvollziehen, jedoch könnte es erklärt werden. So könnten KI-Systeme so konzipiert werden, dass sie bei Entscheidungen angeben, welcher Parameter ausschlaggebend für die Entscheidung ist oder die Entscheidung hätte ändern können.336 Dies ist insbesondere dann wichtig, wenn gegen die getroffene Entscheidung vorgegangen werden soll.337 Wie ambitioniert ein solches Vorhaben ist, kann dadurch verdeutlicht werden, wenn der Stand der Wissenschaft konstatiert wird. So verwendet beispielsweise das Natural Language Processing-Modell namens GPT-3 rund 175 Milliarden Parameter338 oder das Sprachmodell von Google PaLM rund 540 Milliarden Parameter339. Zentral an diesem Ansatz ist, dass nicht der Algorithmus, respektive das KI-System, an sich bekannt sein und verstanden werden muss, sondern vielmehr eine leicht verständliche Transparenz der Entscheidungsgründe hergestellt werden. Nichtsdestotrotz ist festzustellen, dass neben den technischen Voraussetzungen auch die Anwender selbst ihren Beitrag zur Transparenz und Nachvollziehbarkeit leisten müssen. Denn die Verständlichkeit und Nachvollziehbarkeit von KI-Systemen könnte durch die individuelle Technologieakzeptanz, dem Technologieverständnis und der digitalen Affinität der Anwender beeinflusst werden.
2.4.3 Soziale und emotionale Intelligenz
Als weitere Schwäche von KI-Systemen wird die fehlende soziale und emotionale Intelligenz benannt.340 Künstliche Intelligenz ist zwar gegenwärtig in der Lage, Emotionen abschätzen zu können, es ist jedoch kurzfristig nicht zu erwarten, dass KI-Systeme eigene Emotionen und ein eigenes soziales Wesen entwickeln werden. Gegenwärtig findet eine Klassifizierung von Emotionen auf der Ebene der maschinell gelernten Mustererkennung statt. Damit kann davon ausgegangen werden, dass die Wahrnehmungsfähigkeit, die unzweifelhaft zur emotionalen Intelligenz gehört, von KI-Systemen partiell geleistet werden kann, aber die wesentliche Unzulänglichkeit in dem darauf aufbauenden common sense liegt.341 KI-Systeme sind somit in der Lage, Emotionen und Gefühle von Menschen zu erkennen, respektive Wahrscheinlichkeiten über das Vorliegen von Emotionen und Gefühlen zu berechnen, und diese im weiteren Prozess zu verarbeiten, ihnen fehlt indes eine menschliche Empathie. Unbestritten dürfte für die Empathie hilfreich sein, eigene Gefühle zu haben, sich in andere hineinversetzen und die Gefühle nachempfinden zu können. Den Mittelpunkt der Unzulänglichkeiten von KI-Systemen in diesem Bereich dürften das fehlende eigene Bewusstsein und die Intentionalität von KI-Systemen bilden.342
Unter Bewusstsein ist zunächst das Selbstbewusstsein im Sinne der Theory of Mind, also der Reflektion des Ichs und damit die Selbstwahrnehmung und -beobachtung insbesondere des eigenen Zustands und der Gefühle zu verstehen.343 Darüber hinaus ist ein konstituierendes Merkmal des Bewusstseins das Übereinbringen der vorgenannten Selbstreflektion mit der Umwelt und der damit verbundenen Verortung des Ichs in Raum und Zeit.344 KI-Systemen fehlt diese Kompetenz. Es ist zwar möglich, das Bewusstsein oder Gefühle ansatzweise zu simulieren,345 aber es bleibt die Frage, ob diese Simulation mit den menschlichen und tierischen Gefühlen und Bewusstsein gleichzusetzen ist.346 Denn insbesondere die Vernetzung von Denken, Fühlen, Handeln und die Selbstreflexion ist gerade kennzeichnend für menschliche Entscheidungen.347 Eine Erkennung oder die Simulation von singulären Gefühlen oder eines Bewusstseins dürfte jedenfalls nicht damit gleichzusetzen sein.
Ein Beispiel für eine fortgeschrittene Erkennung von Gefühlen ist der KI-basierte Chatbot XiaoIce, der sowohl die intellektuellen als auch emotionalen Bedürfnisse der Benutzer erkennt und in der Kommunikation verwerten kann.348 Nichtsdestotrotz hat auch dieser Social-Chatbot kein eigenes Bewusstsein, sondern verfügt vielmehr über die Fähigkeit, emotionale Aspekte der Nutzer in den Prozessen zu verwenden.349 Folglich ist zwingend eine Abgrenzung von emotional agierenden oder erfassenden KI-Systemen und tatsächlichen Emotionen, Gefühlen und Bewusstsein vorzunehmen, da letzteres nicht von einem KI-System geleistet werden kann.350
Ob diese Eigenschaften nun als Schwächen oder mehr als Stärken eines KI-Systems zu bezeichnen sind, kommt auf die gesellschaftlich konsensual geschaffene Perspektive und den konkreten Einsatz eines KI-Systems an. So dürfte ein rein objektiviertes KI-System, das in der industriellen Robotik eingesetzt wird, von Vorteil sein. Anders könnte der Fall gelagert sein, wenn ein KI-System für Entscheidungen über menschliche Belange wie im verwaltungsrechtlichen Kontext oder im Sozialbereich eingesetzt wird.
2.4.4 Moralisches Handeln
Einhergehend mit der fehlenden sozialen und emotionalen Intelligenz ist die Fähigkeit von KI-Systemen zum moralischen Handeln zu betrachten. Konkret ist fraglich, ob KI-Systeme zum moralischen Handeln fähig sein können.
Zunächst ist zu klären, was unter dem Begriff Moral zu verstehen ist. Neben dem Begriff Moral werden regelmäßig die Termini Ethik oder ethisches Verhalten in den Diskursen gebraucht. Daher sind auch diese Begrifflichkeiten zu klären. Unter Moral ist das jeweilige Normensystem zu verstehen, dass das menschliche Verhalten bestimmt und von gruppenbezogenen oder personenspezifischen Wertüberzeugungen geprägt ist.351 Es geht explizit nicht nur um die gesetzlichen Regelungen, sondern vielmehr um die Ge- und Verbote sowie Normen und Vorschriften innerhalb einer Handlungsgemeinschaft.352 Bei der Frage, ob eine Handlung moralisch ist, wird demnach die konkrete Handlung mit dem vorgenannten Normensystem übereingebracht und bewertet.353 Jedoch ist festzustellen, dass die moralischen Vorstellungen innerhalb einer Handlungsgemeinschaft über gewisse Grundwerte hinaus divergieren und pluralistisch ausgerichtet sind.354 Ethik355 hingegen ist die Wissenschaft von der Moral.356 Ein elementarer Unterschied besteht darin, dass die ethische Reflexion einer Moral oder die dazugehörige ethische Überlegung nicht stets mit der konkreten (moralischen) Handlung übereinstimmen muss.357 Ein besonderer Teil der Ethik sind die Bereichsethiken, die sich mit gesonderten Handlungsfeldern befassen.
Vorliegend ist die Maschinenethik von besonderem Interesse, bei der unter anderem die Künstliche Intelligenz betrachtet wird.358 Zu unterscheiden bei dieser Betrachtung ist, ob ein System der Künstlichen Intelligenz oder auch ein Roboter als „moral agent“ oder „moral patient“ zu verstehen ist. Sprich, ob sie moralische Handlungssubjekte sind (moral agents) oder ihnen ein moralischer Wert zugeschrieben wird (moral patients).359 Die Fähigkeit als moral agent, also als moralisches Handlungs- oder Verantwortungssubjekt zu agieren, steht für die vorliegende Arbeit im Vordergrund. Die Frage ist demnach, ob ein KI-System ein Subjekt der Ethik ist und damit moralisch handeln kann.
Nach Bendel gestalten Maschinenethiker die Wirklichkeit und gehen damit über das reine – moralphilosophische – Reflektieren hinaus.360 Daraus ist zu schließen, dass nach Bendel ‘ scher Auffassung Ethik in Moral umsetzbar ist und sich darüber hinaus auf Maschinen übertragen lässt. Im nächsten logischen Schritt käme eine Maschine dem Grunde nach als moral agent in Betracht. Bezogen auf KI-Systeme wäre moralisches Handeln demnach programmier- oder erlernbar.361 Diese Grundannahme kann auf zwei Bereiche reduziert werden. Zum einen müssten KI-Systeme – gegenwärtig – in der Lage sein, präferierte Entscheidungen, Entscheidungsvorschläge oder Wissensrepräsentationen in Hinblick auf Moral zu reflektieren sowie die Entscheidung im Sinne eines common sense abzuwägen. Dies ist nicht der Fall.362 Selbst wenn KI-Systemen eine funktionale Fähigkeit zum moralischen Handeln zugeschrieben wird, so wird gleichwohl konstatiert, dass diese Fähigkeit keine vollumfängliche moralische – menschliche – Handlungsfähigkeit darstellt.363
Zum anderen müsste dem Grunde nach Moral programmierbar oder maschinell erlernbar sein. Zwar könnten Gesetze grundsätzlich programmierbar sein – ebenso wie unstreitig zutreffende moralische Handlungsweisen. Aber die Frage ist, ob die Moral einer Handlungsgemeinschaft immer eindeutig und abstrakt bestimmbar ist.364 Eine solch abstrakt-generelle Moral dürfte es nicht geben, da davon auszugehen ist, dass lediglich eine Übereinstimmung bei Grundwerten vorhanden ist. Darüber hinaus jedoch pluralistische Moralen bestehen. Erschwerend kommt hinzu, dass eine Moral einer natürlichen Veränderung unterliegt, da der gesamte Regelkanon einer Handlungsgemeinschaft einer stetigen Veränderung unterzogen wird.365 Dies hat die Folge, dass Moralen allein aus der Unvorhersehbarkeit der Veränderung heraus nicht programmierbar sind. Ebenso ist nicht ersichtlich, wie eine einheitliche Moral, die programmiert werden soll, gefunden werden kann beziehungsweise in wessen Dispositionsbefugnis diese Entscheidungsfindung steht. Denn selbst innerhalb einer Handlungsgemeinschaft divergieren die Moralen. Darüber hinaus bleibt ein sowohl moralphilosophisches als auch praktisch relevantes Problem bestehen – Dilemmata.366 Also Situationen, bei denen es keine einwandfreie, argumentativ konsistente moralische Handlung gibt. Dilemmata bleiben aus der Natur der Sache heraus unlösbar – sei es für den Menschen oder für KI-Systeme.367 Dies dürfte eine moralische Programmierung überfordern.368
Ein anderer Ansatz wäre das maschinelle Erlernen von Moralen oder von moralischen Einsichten. KI-Systeme könnten vergangene moralische Entscheidungen erlernen und diese nachbilden.369 Dabei ist davon auszugehen, dass bei dieser Nachbildung die individuelle moralische Einsicht der handelnden Person nicht von einem KI-System nachvollzogen werden kann. Daraus folgt, dass eine eigene, KI-basierte moralische Wertung oder das Antizipieren von erlernten – vergangenen, moralischen – Handlungsweisen auf neue Konstellationen nicht möglich ist – jedenfalls nicht in dem Sinne einer Moral im herkömmlichen Sinne. Denn auf die Frage, warum der Mensch moralisch handelt, könnte ein wesentlicher Aspekt sein, dass er dies nicht nur in der Pflicht anderen gegenüber tut, sondern aus einer Pflicht sich selbst gegenüber.370 Da KI-Systeme keine Selbstwahrnehmung und -bewusstsein haben, kann diese Pflicht gegen sich selbst nicht der moralische Ausgangpunkt oder Motivator für ein moralisches Handeln sein – wie auch immer dies in einer bestimmten Situation aussieht. Die Reproduktion einer moralischen oder unmoralischen Verhaltensweise ist kein Ausweis für das Bestehen eines moralischen Subjekts. Es könnten einzig absolute Grundwerte einer Gesellschaft oder Handlungsgemeinschaft von KI-Systemen erlernt werden, die allerdings zum einen nur einen kleinen Teil einer Moral abbilden und zudem ohne das Verspüren einer inneren Pflicht ausgeführt werden.
Schlussendlich ist zu bemerken, dass KI-Systeme nicht zum moralischen Handeln – im umfassenden und herkömmlichen Sinne – fähig sind. Wie auch bei der sozialen und emotionalen Intelligenz festgestellt, ist die Wertung, also ist dies eine Stärke oder Schwäche von KI-Systemen, abhängig von den Erwartungen an solche Systeme und den avisierten Einsatzszenarien. Der Ansatz der Maschinenethik, die Moral bei der Etablierung von KI-Systemen zu berücksichtigen, ist dabei zu würdigen – wenngleich eine Programmierung oder ein Erlernen einer menschenähnlichen Moral nicht möglich erscheint.
2.4.5 Sensomotorische Fähigkeiten und Intelligenz
Die Kombination von Sensorik, Motorik und Intelligenz ist für die simpelsten Tätigkeiten elementar. Nahezu jeder Prozessschritt erfordert eine Kombination dieser Fähigkeiten.371 KI-Systeme können auf einzelne Aufgaben und Tätigkeiten den Menschen bei weitem überlegen sein, die kombinierten Fähigkeiten besitzen sie regelmäßig jedoch nicht oder sind nur bei höchst komplexen Systemen vorhanden.372 Bezogen auf den Einsatz in der Verwaltung könnte dies in Hinblick auf humanoide Roboter nachteilig sein. Werden allerdings andere Bereiche betrachtet wie ein Einsatz zur Entscheidungsfindung im verwaltungsrechtlichen Verfahren dürften Sensorik und Motorik nicht von überragender Bedeutung sein.
2.4.6 Kausalität und Korrelation
Die KI-basierte Aufgabenerledigung373 erfolgt im Wesentlichen auf Grundlage von Korrelation, also dem Einhergehen oder dem Zusammenhang zwischen verschiedenen Variablen ohne zwingendes Vorliegen einer Ursächlichkeit oder einer kausalen Wechselwirkung.374 Es werden einzig Gruppenmerkmale aufgezeigt,375 jedoch keine Kausalitäten.376 Insbesondere das überwachte und unüberwachte Lernen fußen auf Korrelation und nicht auf Kausalität. Ebenso bedingt das verstärkende Lernen, das simplifiziert ein Trial-and-Error-Prinzip als Optimierungsverfahren anwendet, keiner Kausalität. Daher ist anzuerkennen, dass Prognoseentscheidungen oder Wissensrepräsentationen im Wesentlichen auf Korrelationen beruhen und keine Kausalitäten aufzeigen, was im Einzelfall entscheidend sein kann.377
Korrelationen sind an sich weder eine Schwäche noch ein Risiko. Vielmehr können sie vorteilhaft sein, um mögliche Zusammenhänge in großen Datenbeständen aufzuzeigen, die dann wiederum validiert werden können. Sie sind aber als Risiko einzustufen, wenn ein Vermischen von Korrelation und Kausalität droht. Dies könnte im Verwaltungsverfahren von Bedeutung sein. Ist beispielsweise einem Verwaltungsbeschäftigten nicht bewusst, dass eine Prognose oder ein Entscheidungsvorschlag eines KI-Systems auf Korrelationen im Datenbestand beruht und gerade nicht zwingend auf Kausalzusammenhänge und logische Schlussfolgerungen, kann dies für die letztendliche verwaltungsrechtliche Entscheidung gravierende Auswirkungen haben. So kann die menschlich getroffene Entscheidung auf Grundlage fehlerhafter Annahmen getroffen werden, ohne dass dieser Fehlschluss bekannt ist.378 Daneben verstärken KI-basierte Entscheidungen, insbesondere bezogen auf Korrelationen durch das angewendete Lernverfahren, das Diskriminierungspotenzial.379
Eine Sensibilität und ein Bewusstsein sowie ein technologisches Basiswissen der Verwaltungsbeschäftigten in Hinblick auf Korrelation und Kausalität ist angezeigt, um Entscheidungsvorschläge von KI-Systemen adäquat beurteilen und die grundsätzlichen Einsatzmöglichkeiten von KI-Systemen bestimmen zu können. Bleibt dieser Aspekt unberücksichtigt, so geht ein nicht unwesentliches Risiko von KI-Systemen aus.
2.4.7 Kreativität
Divergentes Denken in der Form wie es Menschen beherrschen380 ist für KI-Systeme gegenwärtig nicht möglich.381 Menschliches Denken, das auch von Emotionen, Spontanität und im Zweifel von einer Inkonsistenz geprägt ist, ist nicht mit der Funktionsweise von Algorithmen gleichzusetzen.382 Wie bereits konstatiert, sind von KI-Systemen vorgeschlagene oder getroffene Entscheidungen in der Regel vergangenheitsbezogen und basieren regelmäßig auf Erfahrungswerten, Analysen und Mustererkennung.383 Das Risiko und die Schwäche hinsichtlich eines verwaltungsrechtlichen Einsatzes liegt darin, dass im Zweifel keine tatsächliche Prognoseentscheidung für den Einzelnen getroffen oder ein Einzelfall gewürdigt werden kann, sondern lediglich eine historisch bezogene Wahrscheinlichkeitsberechnung erfolgt.384 Bei leistungsstarken Natural Language Processing-Modellen zeigt sich dies beispielsweise dadurch, dass gerade keine Texte mit einer kohärenten Bedeutung durch ein KI-System geschrieben werden, sondern vielmehr – auch bei flüssigen, qualitativ hochwertig wirkenden Texten – eine Art der Aneinanderreihung von Sequenzen sprachlicher Formen vorliegt.385 Bender et al. bezeichnen daher leistungsstarke Natural Language Processing-Modelle als stochastische Papageien. Eine Ausnahme zu vergangenheitsbezogenen Entscheidungen könnten KI-Systeme sein, die mit der Lernmethode verstärkendes Lernen konzipiert sind. Allerdings wird die Anwendung solcher Systeme für die Entscheidungsfindung im verwaltungsrechtlichen Kontext eingeschränkt sein. Darüber hinaus sind KI-Systeme durch die eingeschränkte Kreativität nur bedingt in der Lage auf neue, unvorhergesehene Situationen zu reagieren.386
2.4.8 Kontextualisierung
Eng verbunden mit der Kreativität ist die Fähigkeit zu kontextualisieren. Unter Kontextualisierung ist zu verstehen, Entscheidungen oder vorgesehene Handlungen mit den Rahmenbedingungen und der Lebenswirklichkeit übereinzubringen, zu reflektieren, abzuwägen und bei Bedarf die avisierte Handlung oder Entscheidung anzupassen. KI-Systeme verfügen nicht über die Fähigkeit zur umfassenden Kontextualisierung.387 Dies begründet sich im Wesentlichen durch die mehrheitlich fehlenden oder begrenzten Eigenschaften von KI-Systemen wie der sozialen und emotionalen Intelligenz, der Kreativität, dem Erkennen von Kausalitäten, dem systeminhärenten Vergangenheitsbezug oder der regelmäßig rein singulären Spezialisierung von KI-Systemen.
2.4.9 Vertrauen und Glaubwürdigkeit
Ein Risiko für den erfolgreichen Einsatz von KI-Systemen in der Verwaltung kann im mangelnden Vertrauen liegen. Sofern ein flächendeckender Einsatz von KI-Systemen in der Verwaltung avisiert ist, ist der Erfolg vom Vertrauen zum einen von den Verwaltungsbeschäftigten und zum anderen von den Adressaten der jeweiligen Verwaltungsleistung abhängig. Wird nicht in die KI-basierte Entscheidung oder Aufgabenerledigung vertraut, könnte dies zu einem signifikanten Ausweicheffekt weg von der KI-basierten Bearbeitung hin zur Inanspruchnahme von menschlichen Bearbeitungsmöglichkeiten führen. Zudem könnte ein geringes Vertrauen in die Rechtmäßigkeit KI-basierter Entscheidungen zu einem Anstieg der rechtlichen Überprüfungen von Verwaltungsentscheidungen führen. Beides hätte verwaltungsökonomische Auswirkungen und könnte potenziell die Chancen und Stärken eines Einsatzes von KI-Systemen in der Verwaltung egalisieren.
Das Vertrauen in KI-basierte Entscheidungen ist von verschiedenen Faktoren geprägt. Insbesondere können hier zwei Dimensionen zum Tragen kommen. Einerseits könnten Faktoren relevant sein, die in der nutzenden Person liegen. Dies ist zum einen der Expertenstatus in Bezug auf Künstliche Intelligenz und zum anderen die digitale Affinität. Nichtexperten und digital affine Personen haben ein verhältnismäßig höheres Vertrauen als Experten und nicht digital affine Personen in Entscheidungen, die von einem KI-System getroffen werden.388 Dies wird gestützt durch die Annahme, dass ein wesentlicher Baustein für Vertrauen in KI-Systeme die Akzeptanz von KI-Systemen ist.389 Andererseits sind die wahrgenommenen Eigenschaften des KI-Systems wie die Fähigkeiten, die dem KI-System zugeschrieben werden, und die Nachvollziehbarkeit für das Vertrauen von Bedeutung.390 Neben der Nachvollziehbarkeit, die subjektiv geprägt ist, ist eine höhere Transparenz eines KI-Systems ebenfalls ein vertrauensbildender Faktor.391
Zusammenhängend mit dem Vertrauen ist die Glaubwürdigkeit, die KI-Systemen und KI-basierten Entscheidungen zugeschrieben wird, ein weiterer Risikofaktor. Zunächst ist festzustellen, dass die Glaubwürdigkeit, die von Expertensystemen geschaffenen Produkten zugeschrieben wird, höher bewertet werden dürfte als bei menschlich geschaffenen Produkten. Konkret wurde im Bereich des Journalismus computergenerierten Nachrichten eine höhere Glaubwürdigkeit zugeordnet als von Menschen verfassten Artikeln.392 Fraglich ist hier, ob die erhöhte Glaubwürdigkeit zurecht angenommen wird oder ob es sich um eine überschätzte, zugeschriebene Glaubwürdigkeit handelt. Dies kann jedoch vorliegend dahinstehen. Im Ergebnis verdeutlicht diese Gegebenheit ein Potenzial für KI-basierte Entscheidungen. Denn wenn diesen Entscheidungen und Produkten dem Grunde nach eine höhere Glaubwürdigkeit zugeschrieben wird als menschlichen Handlungen, könnte dies zu einer höheren Akzeptanz von KI-basierten Entscheidungen führen. Gleichzeitig exemplifiziert dieser Mechanismus eine Kernproblematik. Der maßgeblich wirkende Effekt ist auf eine Wahrnehmungs- beziehungsweise Kognitionsverzerrung zurückzuführen. Die Verzerrung wird durch die quellen- und kontextorientierte Glaubwürdigkeitsbeurteilung verursacht.393 Demnach wird einer Person per se eine gewisse Glaubwürdigkeit zugeschrieben, wenn diese Kompetenz und Vertrauenswürdigkeit verkörpert.394 Gelingt es der Verwaltung in der breiten Öffentlichkeit den eingesetzten KI-Systemen diese Attribute zuzuschreiben, so wäre es möglich, dass eine analoge Wahrnehmungsverzerrung ebenso im verwaltungsrechtlichen Umfeld bezogen auf KI-basierte Entscheidungen auftritt.
Mit diesem aus Verwaltungsperspektive wünschenswerten Effekt geht jedoch ein Risiko einher. So kann zwar einerseits eine vom KI-System getroffene oder vorgeschlagene Maßnahme zur Erhöhung der Akzeptanz der verwaltungsrechtlichen Entscheidung oder Maßnahme führen und damit eine positive Wirkung entfalten. Anderseits besteht die Gefahr, dass die Wahrnehmungsverzerrung auch bei den Verwaltungsbeschäftigten auftritt. Dies könnte dazu führen, dass vom KI-System vorgeschlagene oder getroffene Entscheidungen nicht von den Verwaltungsbeschäftigten hinterfragt, sondern aufgrund der hohen, zugeschriebenen Glaubwürdigkeit hingenommen werden.395 Enders beschreibt diesen Aspekt mit einem „hohen Vertrauen in die Unfehlbarkeit der KI“.396 Somit besteht die Gefahr eines Automation Bias, mit dem KI-basierte Ergebnisse ohne Prüfung und Reflektion übernommen werden.397 Mit der Wahrnehmungsverzerrung verbunden, könnte die technische Affinität von Personen sein. Bauberger et al. benennen den Umstand, dass die Nutzer KI-Ergebnisse nicht einordnen und die Funktionsweise der Systeme nicht nachvollziehen können, den kognitiven Bias.398 Diese Kompetenz ist von nicht zu unterschätzender Bedeutung, da auch leistungsstarke KI-Modelle fehlerhafte Ergebnisse liefern, die als solches – aufgrund einer überzeugenden Darstellung – nicht offensichtlich sind.399 In der alltäglichen Praxis dürften nicht die vorgenannten Schwächen und Risiken omnipräsent sein, was dazu führt, dass angenommen werden könnte, dass das Ergebnis umfassend korrekt ist.400 Dies könnte darauf zurückzuführen sein, dass KI-Systemen als Vorteil zugeschrieben werden könnte, dass sie auf eine schier unendliche Datenmenge und Informationen zurückgreifen können, was bei einer menschlich getroffenen Entscheidung unwahrscheinlicher ist.
Das Vertrauen und die Glaubwürdigkeit in KI-Systeme können folglich positive Effekte haben, jedoch bei einer unreflektierten Verwendung der Systeme zu Risiken führen.
2.4.10 Fehlerauswirkungen
Die Verwendung von KI-Systemen in kritischen Bereichen und die kaum abschätzbaren Fehlermöglichkeiten führen zu einem hohen abstrakten Risiko, das von Künstlicher Intelligenz ausgeht.401 In Kombination mit einer zugeschriebenen hohen Glaubwürdigkeit und Vertrauen in KI-Systeme können fehlerhafte, KI-basierte Entscheidungen enorme Auswirkungen auf einzelne Personen oder die Gesellschaft haben.402 Dem kann grundsätzlich entgegengehalten werden, dass menschlich getroffene Verwaltungsentscheidungen und -maßnahmen ebenso fehlerhaft sein könnten. Vielmehr besteht das Potenzial beim Einsatz von KI-Systemen, durch Menschen verursachte fehlerhafte und diskriminierende Entscheidungen zu minimieren. Zu denken ist hier an den Gleichbehandlungsgrundsatz. KI-Systeme sind in der Lage eine enorme Anzahl an Daten und Informationen zu verarbeiten und somit eine Gleichbehandlung sicherzustellen oder zumindest zu fördern. Zudem sind sie frei von den oben beschriebenen Aspekten, die eine menschliche Entscheidung maßgeblich beeinflussen können wie die persönliche Verfasstheit, das individuelle Fachwissen oder auch die Sozialisation. Bei einer menschlichen Bearbeitung wird dies regelmäßig durch andere, verwaltungsinterne Instrumente – beispielsweise durch Verwaltungsvorschriften – sichergestellt. Dennoch kann die letztendliche Entscheidung innerhalb eines Verwaltungsstrangs unterschiedlich ausfallen oder aufgrund anderer Faktoren – wie dem föderalen System – regelmäßig eine divergente Verwaltungspraxis etabliert sein. Dieser Annahme ist zu folgen. KI-Systeme können bei gleichen Vorgaben und Tatbeständen eine einheitliche Verwaltungspraxis fördern.
Näher zu betrachten ist in diesem Zusammenhang die Auswirkung von Fehlern. Sind diese durch einzelne Verwaltungsbeschäftigte bedingt, so wirken sich fehlerhafte Entscheidungen regelmäßig auf einzelne Personen aus. Bei einem KI-basierten System erstreckt sich die Wirkung auf eine Gruppe von Menschen in der jeweiligen Verwaltungszuständigkeit oder im Zweifel auf das gesamte Bundesgebiet.403 Kleinste Fehler können damit eine erhebliche Anzahl an Personen treffen, was durch das menschliche Pendant nur eingeschränkt gilt.404 Selbst kleine und rechtlich nicht erhebliche, fehlerhafte KI-basierte Entscheidungen oder Maßnahmen im Rahmen des schlichten Verwaltungshandelns können massive Auswirkungen entfalten. Zu denken ist insbesondere an soziale oder berufliche Probleme, die sowohl durch faktisches Verwaltungshandeln als auch durch hoheitliche Maßnahmen verursacht werden können. Wird eine Person, die auf dem Weg zu einem Bewerbungsgespräch aufgrund einer Falsch-Erkennung einer KI-basierten Videoüberwachung in eine polizeiliche Maßnahme einbezogen und verspätet sich infolgedessen zu dem Bewerbungstermin, kann dies dazu führen, dass die Person nicht ausgewählt wird. Treffen solche Situationen überwiegend bestimmte Personengruppen könnte dies als Diskriminierung und Stigmatisierung gewertet werden. Aber auch die fehlerhafte Ablehnung eines Antrags auf Sozialleistungen oder die rechtswidrige Rückforderung von Transferleistungen können zu einer Verschlechterung der persönlichen Lage von einzelnen Bevölkerungsgruppen führen.405 Insbesondere für Personen, deren Liquidität nicht gesichert ist, kann dies erhebliche Folgen haben. Ebenso kann die Fehlerauswirkung bei einem diskriminierenden Algorithmus, der beispielsweise aufgrund eines oben beschriebenen Bias in den Trainingsdaten verursacht wird, massiv sein.406 Darüber hinaus können einzelne Fehler in Verwaltungsverfahren verortet sein, die eine hohe individuelle Konsequenz für die Adressaten innehaben und zudem eine vergleichsweise hohe Finalität mit sich bringen, die die Fehlerkorrektur erheblich beeinträchtigen.407 Erschwerend kommt hinzu, dass die Vorhersehbarkeit von möglichen Fehlern bei KI-Systemen eingeschränkt ist.408
Nun könnte angeführt werden, dass die beschriebenen negativen Implikationen durch das mögliche Potenzial, namentlich die Gleichbehandlung zu fördern, egalisiert werden und damit im Ergebnis nicht relevant sind. Konkret könnten in der Breite auftretende, gleichförmige Fehler und Falschentscheidungen vielmehr eine rechtmäßige Verwaltungspraxis sicherstellen als schädlich zu sein. Denn diese könnten zügig erkannt und in der Fläche beseitigt werden, was bei strukturellen, menschlichem Fehlverhalten nicht der Fall wäre. Ungeachtet einer rechtlichen Würdigung sprechen gegen diese Annahme vier praktische Erwägungen.
Zunächst ist die Frage zu betrachten, ob fehlerhafte und rechtswidrige Entscheidungen durch die Verwaltungsarchitektur und die eingesetzten Mittel in einem ersten Schritt toleriert werden können. In diese Betrachtung ist das hohe individuelle Schadenspotenzial und das damit einhergehende abstrakte Risiko zu berücksichtigen, das bei einer entsprechenden Bearbeitung von Verwaltungsbeschäftigten nicht zwingend angenommen werden muss. Neben der rechtlichen Würdigung ist ein Augenmerk auf die gesellschaftlichen Implikationen zu richten. Denn es besteht die Gefahr einer kollektiven Stigmatisierung von bestimmten Personengruppen. Ebenso können sowohl die Stigmatisierung als auch die individuellen, negativen Folgen von Fehlentscheidungen wesentliche persönliche Auswirkungen entfalten wie das Abrutschen in schwierige soziale Milieus oder eine zunehmende Distanzierung von der Gesellschaft.
Zudem ist davon auszugehen, dass die Erkennung und Korrektur oder Beseitigung eines fehlerhaften Systems Zeit in Anspruch nehmen werden. Da dem Schadenspotenzial auch immaterielle Aspekte zuzurechnen sind, wie durch den Fehler verursachte soziale oder berufliche Probleme, würde sich der gesellschaftliche und rechtliche Schaden eine gewisse Zeit fortsetzen und müsste ausgehalten werden.
Daneben setzt die Annahme einer flächendeckenden Erkennung und Beseitigung eines fehlerhaften Systems voraus, dass ein- und dieselben Algorithmen und Trainingsdaten im föderalen Staat eingesetzt werden. Dies ist aus den Erfahrungen der bisherigen und gegenwärtigen Digitalisierungsbemühungen der Verwaltung und in Anbetracht des Verwaltungsaufbaus sowie der Kompetenzverteilung kritisch zu hinterfragen.409
Als viertes Argument könnte angeführt werden, dass Menschen Fehler machen und es nur legitim ist, dass ebenso Fehler von KI-Systemen herbeigeführt werden. Zunächst ist festzustellen, dass dieses Argument insofern inkonsistent ist, als die höhere Effektivität, Effizienz und das Vermeiden von fehlerhaften Entscheidungen als wesentlicher Nutzen von KI-Systemen angeführt wird. Wird nun der Austausch eines menschlichen Fehlers durch einen technikbedingten Fehler in Kauf genommen, konterkariert dies eine wesentliche Annahme, die der Einführung von KI-Systemen zugrunde gelegt wird. Darüber hinaus wird außer Acht gelassen, dass menschliche Fehler regelmäßig auf wenige Personen Auswirkungen haben. Die Fehlerauswirkung von KI-Systemen kann – wie oben dargestellt – enorm sein. Im Wesentlichen ist dies damit zu begründen, dass Menschen zwar Fehler machen, aber nicht alle dieselbe Fehlentscheidung treffen. Ein KI-System hingegen führt einen Fehler im Zweifel in der Breite herbei.
Eine weitere Dimension der Fehlerauswirkung ist die Verfestigung von Stigmatisierung oder Diskriminierung durch KI-Systeme. So ist anzunehmen, dass diskriminierende Entscheidungen, die als solche nicht in den von KI-Systemen produzierten Ergebnissen erkannt wurden – insbesondere hervorgerufen durch die oben beschriebenen Schwächen Vergangenheitsbezug und Bias – im Zweifel durch zukünftige KI-generierte Entscheidungen verfestigt werden.410
Zusammengefasst ist festzustellen, dass vermeintlich unwesentliche Fehler oder Ungenauigkeiten von KI-Systemen massive Auswirkungen haben können, die aufgrund des im Zweifel flächendeckenden Einsatzes eine Vielzahl an Personen betreffen könnte und damit ein menschlich äquivalent fehlerhaftes Verhalten bei weitem übersteigt. Somit können fehlerhafte Entscheidungen durch KI-Systeme ein hohes individuelles Schadenspotenzial entfalten und stellen ein Risiko für den Einzelnen sowie letztlich für die Gesellschaft dar.
2.4.11 Juristische Terminologie und Law-Code
Eine Herausforderung wird es sein, die in hergebrachter Systematik und Semantik verfassten gesetzlichen Vorgaben in KI-Systeme zu überführen, respektive diese von einem KI-System ausführen zulassen. Unproblematisch und lediglich eine kapazitäre Herausforderung dürften einfache Regelungen darstellen, die weder einen Ermessensspielraum auf der Rechtsfolgenseite eröffnen noch unbestimmte Rechtsbegriffe auf der Tatbestandsseite beinhalten. Solche Regelungen sind aus informatischer Perspektive eindeutige wenn-dann-Konstellationen, die mit einem verhältnismäßigen Aufwand durch ein KI- oder ein regelbasiertes System abgebildet werden können.411 Anders sind gesetzliche Regelungen zu bewerten, die entweder einen Ermessensspielraum oder unbestimmte Rechtsbegriffe enthalten. Regelbasierte Systeme stoßen an dieser Stelle an ihre Grenzen, da die unterschiedlichen Konstellationen nicht oder nur mit einem verhältnismäßig hohen Aufwand – abhängig von der konkreten Regelung – abgebildet werden können. Demgegenüber könnten KI-Systeme aufgrund der inhärenten Eigenschaften solche komplexeren Regelungen verarbeiten. Jedoch mit der Einschränkung, dass die Anwendung durch KI-Systeme nicht mithilfe der juristischen Übung erfolgt, sondern auf Grundlage der technischen Konzeption wie dem maschinellen Lernen. Insbesondere können auch vielversprechende Ansätze wie Natural Language Processing-Modelle nicht überzeugen. Diese erlangen ihre Fähigkeiten aufgrund eines Trainings mit einer kaum vorstellbaren Menge an Texten.412 Neben den systeminhärenten Schwächen dieses Vorgehens wie der Vergangenheitsbezug oder eine unterschwellige Diskriminierung durch einen Bias im Trainingsdatensatz, erfolgt keine Vermittlung juristischer Methodik. Eine Auslegung unbestimmter Rechtsbegriffe oder die fehlerfreie Ausübung von Ermessen unter Anwendung der rechtlichen Methodik dürfte damit nicht gewährleistet sein.
Zur Lösung dieser systembedingten Schwäche von KI-Systemen haben sich zwei Lösungswege herausgebildet. Zum einen besteht der Ansatz, Recht und Gesetz maschinenverständlich zu gestalten – somit die Schaffung von Law-Code. Dazu gehören insbesondere eindeutige und zwingende wenn-dann-Regelungen, sprich gebundene Vorgaben, sowie die klare und konsequente Definition von Rechtsbegriffen.413 Letzteres wird als Formalisierung der Sprache bezeichnet.414
Auch wenn die Ermessensverwaltung ausgeklammert und nur die Tatbestandsseite betrachtet wird, erscheint eine eindeutig regelbasierte Gesetzgebung im Sinne von Law-Code nicht möglich.415 Die Tatbestandsseite von Rechtsvorschriften wird gerade aus dem Grund, dass nicht alle Sachverhalte von der Legislativen vorhergesehen werden können, bei Bedarf mit unbestimmten Rechtsbegriffen und Beurteilungsspielräumen verfasst. Selbst wenn bei hergebrachten Vorschriften vermeintlich alle Sachverhalte überblickt werden können, gibt es ein Risiko, dass einzelne Sachverhalte nicht erfasst werden. Dies gilt insbesondere für neue Regelungen, bei denen nicht auf ein Erfahrungswissen zurückgegriffen werden kann. Daraus ergeben sich zwei Probleme.
Zum einen besteht die Gefahr, dass die Verwaltung nicht in die Lage versetzt wird, alle avisierten Sachverhalte zu bearbeiten, wenn es zu gesetzlichen Lücken kommt. Die hierfür anerkannte mögliche Ausweichstrategie diese Fälle anhand der anerkannten Auslegungsmethoden zu bearbeiten, dürfte durch KI-Systeme aufgrund der systeminhärenten Eigenschaften und Funktionsweisen nicht möglich sein.416 Dies führt zwingend zu einem erhöhten Personaleinsatz, da die Fälle, die nicht geregelt sind und ausgelegt werden müssen durch Verwaltungsbeschäftigte zu bearbeiten wären. Damit werden jedoch die oben genannten Chancen und Potenziale von KI-Systemen in der Verwaltung417 konterkariert. An dieser Stelle ist zu konstatieren, dass bestimmte Lebenssachverhalte nicht abschließend generalisiert werden können, sodass universelle Lösungen nicht vorab und umfassend definierbar sind.418
Zum anderen könnte sich auch der Aufwand im parlamentarischen Bereich erhöhen, da die Gesetzgebung zeit- und ressourcenaufwändiger werden und die Tendenz bestehen könnte, dass gesetzlicher Law-Code bei Erkennen von nicht erfassten Sachverhalten wiederholt nachgebessert werden muss. Unter der Annahme, dass eine formalisierte Sprache verwendet wird, die weitestgehend auf tatbestandsseitige Spielräume verzichtet, dürfte in Anbetracht der geltenden Gesetze die Überführung in Expertensysteme oder die Überprüfung von KI-Systemen einen enormen Aufwand darstellen.419 An dieser Stelle ist anzumerken, dass selbst bei der Gesetzgebung im Zusammenhang mit der Einführung und Ermöglichung von KI-Systemen in der Verwaltung auf unbestimmte Rechtsbegriffe nicht verzichtet wird. Die Verwendung von unbestimmten Rechtsbegriffen erfolgt dabei nicht nur von den parlamentarischen Akteuren, sondern auch von der wissenschaftlichen Seite. So wird beispielsweise in einem Änderungsantrag zum Gesetzentwurf des Digitalisierungsgesetzes Schleswig-Holstein sowie in einer Stellungnahme zu diesem Gesetzentwurf des Weizenbaum-Instituts dafür plädiert, die Begriffe „gewichtige“420 und „besonders schwerwiegend“421 im Gesetz einzufügen. Auch ohne weiteren Kontext wird deutlich, dass dies nicht dem Ansatz von möglichst eindeutigen Tatbestandsmerkmalen entspricht.422 Die Verwaltung wird durch diese unbestimmten Rechtsbegriffe zur Auslegung auf der Tatbestandsseite aufgefordert. Für den Einsatz von KI-Systemen dürfte eine solche Normgestaltung zumindest Hürden in der Anwendung implizieren.
Vermittelnd besteht der Ansatz, im Rechtsetzungsverfahren bei der Gesetzeskonzeption den (digitalen) Vollzug mitzudenken. Im Unterschied zu dem vorgenannten Modell wird hier nicht die Gesetzgebung ausschließlich auf den digitalen Vollzug ausgerichtet oder die grundsätzliche Rechtsarchitektur hinterfragt, sondern vielmehr versucht, Umsetzungsmöglichkeiten früher zu eruieren und damit den Gesetzesvollzug zu optimieren. Das Bundesverwaltungsamt nennt diese Vorgehensweise LawOps.423 Ops steht für das Operations Management, das die (digitale) Bereitstellung, Erbringung und Steuerung der Verwaltungsdienstleistung widerspiegelt.424 Das Mitdenken des Gesetzesvollzug sollte bei der Rechtsetzung stets eine Rolle einnehmen. Bezogen auf neue digitale und disruptive Technologien bietet diese Vorgehensweise Vorteile und kann Vollzugsrisiken reduzieren.
Daneben wird der Ansatz verfolgt, Entscheidungen im Rahmen des bestehenden Rechts, denen Ermessensspielräume zugrunde liegen, durch Künstliche Intelligenz berechnen zu lassen.425 Die Autoren dieses Ansatzes legen dar, dass eine KI-basierte Ermessensentscheidung mithilfe verschiedener technischer Verfahren möglich sei. Konkret könnten demnach bei Ermessensentscheidungen KI-basierte Durchschnittswerte gebildet werden.426 In diesem Zusammenhang ist auf die vorgenannten Nachteile von Künstlicher Intelligenz sowie den inhärenten Eigenschaften zu verweisen.
Ein weiteres Problemfeld liegt in der Sachverhaltsermittlung. Zwar dürften Basisinformationen unkompliziert von KI-basierten Systemen zusammengetragen und aufbereitet werden, jedoch ist hier die Frage, ob solche Systeme einen komplexen Sachverhalt unter Berücksichtigung aller Umstände erfassen können.427
Festzustellen ist, dass die gegenwärtigen gesetzlichen Regelungen und juristischen Arbeitsweisen nicht durch bestehende KI-Systeme abgebildet werden können. Die Lösung dieser Herausforderung besteht in der Berücksichtigung KI-bezogener Aspekte für die Architektur neuer gesetzlicher Vorgaben, was ebenfalls mit erheblichen Herausforderungen verbunden sein wird.
2.5 Exkurs: Vision für KI
Nachdem der gegenwärtige Stand der Technik von KI-Systemen betrachtet wurde, ist auf die Vision für die Künstliche Intelligenz zu blicken. In Orientierung an die Klassifizierung von KI-Modellen428 – schwache und starke KI – könnte sich der technische Fortschritt in Richtung starke KI entwickeln. Fraglich ist dabei, wie eine solche starke KI aussehen wird. Abhängig von der technischen Entwicklung ist die Auswirkung auf die vorgenannten Potenziale und Chancen sowie die Schwächen und Risiken. Eine starke KI könnte zum wesentlichen Verstärker der in Abschnitt 2.3 genannten Potenziale und Chancen werden oder gar neue Potenziale entfalten. In Bezug auf die Schwächen und Risiken verhält es sich ähnlich: sie können gleichbleibend sein,429 abgeschwächt werden oder es könnten neue Risiken entstehen. Das Zukunftsszenario für eine starke KI ist vom Verlauf der technischen Entwicklung und der Innovationen abhängig.430 Auch wenn diverse Ideen zum Fortschritt von KI medial präsent sind, ist ein eindeutiger Pfad in der Literatur nicht erkennbar. Dem Grunde nach sind zwei grobe Szenarien denkbar.
2.5.1 Szenario I – leistungsfähige starke KI
Zum einen könnte eine disruptive Verbesserung bei den KI-Systemen zu verzeichnen sein – insbesondere in Hinblick auf den technischen Fortschritt und die Leistungsfähigkeit im Bereich des maschinellen Lernens. Dies könnte dazu führen, dass leistungsfähige Basis-KI-Modelle entstehen, die eine Art der generalisierten Intelligenz aufweisen und schier unlimitiert einsetzbar sind. So würde sich der KI-Standard weg von einer singulären Aufgabenfokussierung hin zu einer generellen, allgemeinen KI entwickeln. Diese würde umfassende Fähigkeiten besitzen und gerade nicht nur auf eine singuläre Aufgabe begrenzt sein. Die KI würde all das Können – auch im physischen Sinne – mit all dem Wissen und den Informationen verbinden. Die Grenze der KI-Systeme nach diesem Szenario läge darin, dass diese nicht als Handlungs- und Verantwortungssubjekt klassifiziert werden könnten. Den Systemen würde es insbesondere an einem Bewusstsein fehlen.431
2.5.2 Szenario II – starke KI als Handlungs- und Verantwortungssubjekt
Zum anderen existiert die Idee, dass eine KI entwickelt wird, die mit einem (Selbst-)Bewusstsein432, Empathie sowie sozialer und emotionaler Intelligenz ausgestattet ist. Dies würde bedeuten, dass sie sich ihrer eigenen Existenz und ihres Denkens bewusst ist und möglicherweise ein Verständnis für ihre eigenen Grenzen und Fähigkeiten entwickeln kann.433 Dieser Entwicklungsschritt wäre bezogen auf die Art und Weise des Lernens von immenser Bedeutung.434 Es wäre eine Art des evolutionären Lernens,435 da ein solches System keinen stochastischen Lern- und Erledigungsansatz verfolgen würde, sondern das Lernen und Agieren auf der eigenen Wahrnehmung, dem eigenen Bewusstsein und im Kontext der Umwelt stattfinden würde.
Dies würde insbesondere auf die Erkenntnisse zur Fähigkeit von KI-Systemen zum moralischen Handeln436 eine bedeutsame Auswirkung haben können. Hier wäre zu diskutieren, ob KI-Systemen nicht doch eine umfängliche moralische – menschliche – Handlungsfähigkeit zugeschrieben werden müsste. Es würde das Hindernis der nicht programmierbaren Moral überwunden,437 indem Maschinen als moralische Subjekte angesehen werden könnten. Dies wäre dann der Fall, wenn KI-Systeme aus Gründen handeln würden, die der Moralität zuzuordnen sind.438 So wären KI-basierte moralische Wertungen und das Antizipieren von erlernten – vergangenen, moralischen – Handlungsweisen auf neue Konstellationen durch KI-Systeme möglich.439 KI-Systeme könnten womöglich – ähnlich wie Menschen – Dinge aus einer inneren Pflicht gegenüber sich selbst tun. Dies würde eine Selbstwahrnehmung und ein Selbstbewusstsein voraussetzen. Beides – Selbstbewusstsein und Selbstwahrnehmung – wären ein Motivator für moralisches Handeln. Dies würde die Entwicklung und Bewertungsgrundlage von (starken) KI-Systemen auf eine andere Ebene heben.
2.5.3 Konklusion
Ein trennscharfes Abgrenzen dieser Szenarien wird schwierig sein. Konkret wird es herausfordernd sein, den Eintritt des zweiten Szenarios festzustellen. Schon jetzt werden leistungsstarke KI-Modelle entwickelt, die im Bereich der sozialen Interaktion lernfähig sind und dem Menschen ein soziales, empathisches Verhalten widerspiegeln. Offen bleibt, ob diese Art der sozialen Intelligenz respektive das Erlernen und Berechnen von sozialem Verhalten und angemessener Interaktion gleichbedeutend mit einem eigenen Bewusstsein ist.440 Anders formuliert: Wird ein KI-Modell ein soziales Verhalten, Empathie und Bewusstsein besitzen oder spiegelt es dieses lediglich vor, indem schlicht die Wahrscheinlichkeit einer situationsangemessenen sozialen (Re-)Aktion berechnet und vorausgesagt wird. Also bleibt abzuwarten und sodann zu untersuchen, ob ein KI-System wie ein moralisches Handlungs- und Verantwortungssubjekt wirkt oder ein solches ist.
Diese nur schwer absehbare technische Entwicklung determiniert ebenso die rechtliche Bewertung. Bei einer starken KI im Sinne des ersten Szenarios, die sich dadurch auszeichnet, dass sie umfassende Fähigkeiten besitzt, bei der jedoch zugleich ähnliche Schwächen und Risiken wie bei einer schwachen KI festzustellen sind, dürfte sich die rechtliche Bewertung nur im geringen Umfang ändern. Anders könnte es sein, wenn KI-Modelle im Sinne des zweiten Szenarios entwickelt werden. Diese könnten zwar in Teilen ähnliche Schwächen und Risiken wie gegenwärtige KI-Systeme aufweisen, sie wären jedoch grundlegend neu zu bewerten. Denn die gegenwärtigen oben konstatierten Schwächen und Risiken resultieren maßgeblich aus der technischen Architektur und den Lernprozessen der gegenwärtigen KI-Modelle. Würde eine starke KI entwickelt werden, die auf einem gänzlich abweichenden Lern- und Erledigungsansatz fußt, ändern sich auch zwingend die systemimmanenten Schwächen und Risiken. Insbesondere das Szenario, dass das Lernen und Agieren einer starken KI auf einer eigenen Wahrnehmung, einem eigenen Bewusstsein und im Kontext der Umwelt stattfinden könnte, muss den Blick auf das System verändern.
Ebenso dürfte sich sodann die rechtliche Bewertung evident ändern. Problematisch wären beispielsweise nicht die erlernten Bias, da diese in der gegenwärtig vorliegenden Form nicht mehr gegeben wären, sondern vielmehr gesellschaftsbezogene und ethische Fragestellungen, die eine verfassungsrechtliche Implikation haben könnten. Denn es wäre fraglich, ob eine KI im Sinne des zweiten Szenarios ein Werkzeug bleibt oder es zu einem moralischen Handlungs- oder Verantwortungssubjekt erwächst. Es ist daher davon auszugehen, dass sich durch die maßgeblich verschobene Fragestellung auch die rechtliche Bewertung grundlegend ändern würde. Im Vordergrund wird stehen, ob zum einen ein Einsatz von Künstlicher Intelligenz mit der verfassungsrechtlich verankerten Menschenwürde im Einklang stehen kann und zum anderen, ob eine Gesellschaft von Menschen oder KI-Modellen geprägt sein sollte.
Im Ergebnis ist die Vision für die Künstliche Intelligenz nicht klar benennbar. Welches Szenario eintritt und wie es verwirklicht wird, ist ungewiss sowie von vagen Annahmen geprägt. Eine evidenzbasierte rechtswissenschaftliche Auseinandersetzung mit der Thematik wird daher zum gegenwärtigen Stand der Wissenschaft nur schwerlich möglich sein. Zu bemerken ist jedenfalls, dass wenn eine starke KI im Sinne des ersten Szenarios entwickelt wird, die also umfassende Fähigkeiten besitzt, bei der aber weiterhin kein Bewusstsein festzustellen sein wird und bei der die vorgenannten Risiken und Schwächen – dahinstehend in welcher Ausprägung – weiter bestehen, sich die rechtliche Bewertung im Vergleich zu den gegenwärtigen schwachen KI-Modellen nicht grundlegend ändern wird. Denn der Ausgangspunkt der rechtlichen Bewertung sind die Risiken und Schwächen der KI-Modelle, die technisch induziert und daher KI-immanent sind.
2.6 Zwischenergebnis
Die Betrachtung des KI-Begriffs hat ergeben, dass für die vorliegende Arbeit und insgesamt für eine rechtswissenschaftliche Behandlung der Thematik eine eindeutige Abgrenzung zu herkömmlichen Systemen erforderlich ist. Weite Definitionsansätze, die vorwiegend in anderen wissenschaftlichen Disziplinen verwendet werden, eignen sich hingegen nicht für eine belastbare, juristische Befassung. Bei der Annäherung an eine Definition über die technische Architektur und Funktionsweise sowie die Einbeziehung der rechtswissenschaftlichen Perspektive und des Begriffsverständnisses der Parlamente und der Exekutiven konnten zwei Merkmale herausgebildet werden:
Die Lösung einzelner Aufgaben(-bereiche).
Das System wendet einen Lernalgorithmus an.
Wird eine möglichst schlanke Definition verfolgt, ist festzustellen, dass für rechtswissenschaftliche Untersuchungen und damit auch für die vorliegende Untersuchung ein KI-System an dem Merkmal der Lernfähigkeit zu definieren ist. Demnach ist dann von einem KI-System auszugehen, wenn dieses auf lernenden Algorithmen beruht.
Neben den originären KI-Systemen sind auch andere Verwendungsmöglichkeiten von Künstlicher Intelligenz für den praktischen Einsatz zu berücksichtigen. So ist der Einsatz von humanoiden Robotern für Verwaltungstätigkeiten und die Erledigung von staatlichen Aufgaben vorstellbar. Humanoide Roboter zeichnen sich dadurch aus, dass sie dem menschlichen Äußeren oder den menschlichen Bewegungsabläufen grob nachempfunden und mit einem KI-basierten System ausgestattet sind. Humanoide Roboter zielen darauf ab, sowohl motorische als auch kognitive Aufgaben erledigen zu können. Für die rechtliche Betrachtung ist insbesondere von Relevanz, dass sie auf einem KI-System basieren.
Sowohl für die Ermittlung praktischer Einsatzmöglichkeiten von KI-Systemen als auch für die damit einhergehende rechtliche Würdigung über die rechtliche Zulässigkeit des Einsatzes von KI-Systemen sind die Potenziale und Chancen sowie die Risiken und Schwächen von Künstlicher Intelligenz von besonderem Interesse (Tabelle 2.1).
Zunächst ist mit der Verwendung von KI-Systemen die Erwartung verbunden, die Akzeptanz in Verwaltungshandeln und -entscheidungen zu erhöhen. Dies wird insbesondere mit dem wahrgenommenen Expertenstatus, das mit KI-Systemen einhergehen könnte, begründet. Die Erhöhung der Servicequalität und dadurch ein direkter Nutzen für die Adressaten von Verwaltungsleistungen ist ein weiterer Aspekt, der durch den Einsatz von KI-Systemen erreicht werden kann. Insbesondere die Reduzierung von Wartezeiten und Erleichterungen bei der Inanspruchnahme von Verwaltungsleistungen stellen das Potenzial dar. Mit dem Vorgenannten können zudem Erleichterungen für die Verwaltungsbeschäftigten selbst einhergehen, was wiederum ein Baustein zur Sicherung und Erhöhung der Servicequalität sein kann. Ebenso kann die Entlastung von Routinetätigkeiten bei den Verwaltungsbeschäftigten zu einer höheren Zufriedenheit führen. Wesentlich bei der Einführung von KI-Systemen ist die Effizienzsteigerung – so auch in der öffentlichen Verwaltung. Automatisierbare Prozessschritte und Entscheidungen durch Künstliche Intelligenz können Personalressourcen schonen und das Handeln effizienter machen. Hierbei geht es nicht nur darum, Personal einzusparen, sondern vielmehr dem zu erwartenden Fachkräftemangel zu begegnen und Raum für Geschäftsprozesse zu schaffen, die von Menschen bearbeitet und erledigt werden sollen. Zuletzt bieten KI-basierte Anwendungen die Chance, die Rechtssicherheit beim Verwaltungshandeln zu erhöhen. Konkret kann insbesondere der Gleichbehandlungsgrundsatz und die Gleichförmigkeit von Verwaltungsentscheidungen durch die technische Entwicklung gestärkt werden. Daneben sind auch Anwendungen denkbar, die Entscheidungen evidenzbasiert treffen lassen. Hier geht es um die Nutzung von Daten und Modellierungen, die in dieser Art und Weise nicht von Menschen angestellt werden können.
Die vorgenannten Potenziale und Chancen zielen im weitesten Sinne auf eine Optimierung von Verwaltungshandeln ab. Das Optimierungsziel und die damit einhergehenden Erwartungen sind insgesamt im Bereich der Verwaltungsdigitalisierung anzutreffen und mögen ihre Berechtigung haben. Der Umstand, dass bloße Digitalisierungsbemühungen und der bloße Einsatz von KI-Systemen nicht die alleinige Lösung von systemimmanenten Problemen und Herausforderungen der Verwaltung sein werden, ist hierbei nicht zu vernachlässigen. Verkürzt gesagt, ungünstige und ineffektive Prozesse zu digitalisieren oder von einem KI-System erledigen zu lassen, wird nicht das vorgenannte Potenzial verwirklichen und die öffentliche Verwaltung, respektive den Staat, stärken. Um die Potenziale und Chancen von KI-Systemen zu verwirklichen, sind sowohl Verwaltungsaufbau als auch Verwaltungsabläufe zu evaluieren und unter Berücksichtigung der disruptiven Technologien neu zu denken.
Neben den Potenzialen und Chancen, die von KI-Systemen ausgehen, sind auch Risiken und systeminhärente Schwächen festzustellen.
Zunächst sind strukturelle Fehler durch Verzerrungen festzustellen – dem Bias. Unterschieden wird in Sample-, Label- und Feature-Bias. Die vorgenannten Verzerrungen haben gemein, dass durch sie eine Diskriminierung und damit eine fehlerhafte Entscheidung getroffen wird. Zudem kann ein Bias nicht gesellschaftlich konsensuale Werte der Programmierer widerspiegeln, was im Kontext des staatlichen Handelns aufgrund der mangelnden Legitimation problematisch erscheint. Eine weitere systeminhärente Schwäche von KI-Systemen ist der Vergangenheitsbezug – mit Ausnahme des Lernverfahrens verstärkendes Lernen. Prognosen und auf die Zukunft gerichtete, individuelle Verwaltungsentscheidungen können nicht durch ein KI-basiertes System im hergebrachten Sinne getroffen werden. Denn das KI-System greift auf vergangenheitsbezogene Trainingsdaten zurück. Eine gesellschaftliche Fortentwicklung und geänderte Werteeinstellungen können somit nicht abgebildet werden.
Ein anderer Bereich, der die Schwächen und Risiken von KI-Systemen aufzeigt, ist die mangelnde Verständlichkeit, Transparenz und Nachvollziehbarkeit von KI-Systemen und den dazugehörigen Ergebnissen. Zurückzuführen ist dies auf die Blackbox-Problematik. So ist einerseits die Entscheidung an sich und anderseits das Zustandekommen der Entscheidungen systembedingt nur schwer bis nicht nachvollziehbar. Für dieses Problemfeld gibt es verschiedene Ansätze, mit denen versucht wird, aus einer Blackbox eine Greybox zu machen. Insbesondere die Segmente Transparenz der Daten, Transparenz der Algorithmen und Transparenz der Ausgabewerte werden hierbei adressiert.
Ebenso wird als Schwäche angeführt, dass KI-Systemen keine soziale und emotionale Intelligenz zugerechnet wird. Es sind zwar Ansätze vorhanden, soziale und emotionale Intelligenz partiell zu imitieren, jedoch werden diese Versuche aufgrund der mangelnden Selbstwahrnehmung und des nicht vorhandenen Selbstbewusstseins von KI-Systemen stets eine Imitation sein. Relevant ist dies, da so KI-basierte Entscheidungen nicht im Sinne eines common sense abgewogen und überprüft werden können. Je nach Fallkonstellation muss dies jedoch nicht zwingend als Schwäche ausgelegt werden. So sind auch Bereiche denkbar, bei denen eine soziale und emotionale Intelligenz nicht erforderlich ist.
Bezogen auf humanoide Roboter ist die mangelnde sensomotorische Fähigkeit und Intelligenz von KI-Systemen ebenfalls als Schwäche zu benennen. Selbst hochkomplexe Systeme können mitunter einfachste Tätigkeiten nicht durchführen, bei denen sensomotorische Fähigkeiten erforderlich sind.
KI-basierte Entscheidungen fußen vor allem auf Korrelationen in den Trainingsdaten und nicht auf Kausalitäten. Der fehlende kausale Schluss wird dann zum Risiko, wenn er den Anwendern, respektive den Verwaltungsbeschäftigten nicht bekannt oder in der jeweiligen Situation nicht bewusst ist. Dies birgt die Gefahr einer Fehleinschätzung durch Verwaltungsbeschäftigte.
Damit einhergehend ist es KI-basierten Systemen nicht möglich, kreativ auf unvorhergesehene Situationen zu reagieren, da die KI-Entscheidungen maßgeblich auf den vergangenheitsbezogenen Modellen basieren. Beispielsweise ist divergentes Denken nach dem Stand der Technik dem Menschen vorbehalten.
Als weitere Schwäche von KI-Systemen ist zu konstatieren, dass sie ihre Entscheidungen nicht mit der Umwelt, der Lebenswirklichkeit und den sonstigen Rahmenbedingungen umfassend übereinbringen und abwägen können. Sie sind demnach nicht in der Lage zu kontextualisieren.
Ein wesentliches Risiko, das vielmehr in den Anwendern und Adressaten verortet ist, kann ein überschätztes Vertrauen in und eine überhöhte Glaubwürdigkeit von KI-Systemen sowie den dazugehörigen Entscheidungen sein. So ist es denkbar, dass die vorgeschlagenen Entscheidungen von den Verwaltungsbeschäftigten unreflektiert übernommen werden, da davon ausgegangen wird, dass die vorgeschlagene Entscheidung korrekt sein muss. Dieser Wahrnehmungsfehler beruht auf der Annahme, dass die einzelne Entscheidung auf der Basis einer fast unendlichen Datenmenge getroffen wurde und daher fehlerfrei sein muss.
Ein gesellschaftlich relevantes Risiko sind die Fehlerfolgen und -auswirkungen bei einem Einsatz von KI-Systemen, die in Verbindung mit dem vorgenannten menschlichen Beurteilungsfehlern verstärkt werden. Zusammenfassend besteht die Gefahr einer Stigmatisierung und Diskriminierung bestimmter Personengruppen. Zugleich geht diese Gefahr mit einem hohen individuellen Schadenpotenzial einher. Zudem besitzen KI-basierte Fehlentscheidung aufgrund einer regelmäßig unzureichenden Vorhersehbarkeit ein erhöhtes Risiko. Verschiedene Ansätze zur Legitimierung fehlerhafter KI-basierter Entscheidungen dürften sowohl an der Auswirkung der Fehlentscheidung als auch an den Einführungszielen von Systemen der Künstlichen Intelligenz scheitern, da letztere durch eine solche Legitimation konterkariert würden. Hervorzuheben sind in Hinblick auf die Legitimationsansätze insbesondere zwei Argumente. Zum einen könnten bei einem flächendeckenden Einsatz von bestimmten KI-Systemen Fehler eine erheblich höhere Verbreitung erfahren als Fehler, die von einzelnen Verwaltungsbeschäftigten begangen werden. Zum anderen dürfte die Beseitigung eines Fehlers – sofern dieser erkannt wurde – in Anbetracht von bestehenden Verwaltungsabläufen und Erfahrungen mit Digitalisierungsvorhaben in der öffentlichen Verwaltung eine nicht zu vernachlässigende Zeit in Anspruch nehmen. Beides verstärkt die Gefahren der Stigmatisierung und Diskriminierung sowie das persönliche Schadenspotenzial für den einzelnen Adressaten.
Zuletzt dürfte die hergebrachte Systematik und Semantik von Gesetzen nur schwer durch KI-Systeme abgebildet werden können. Hier bedarf es einer Anpassung der juristischen Übung, der Gesetzessystematik und der Terminologie. Andernfalls besteht ein Fehlerrisiko bei der Ausführung durch KI-basierte Systeme oder die Implementierung dürfte einen enormen Ressourcenaufwand verlangen.
Tabelle 2.1
Übersicht der Potenziale und Chancen sowie der Risiken und Schwächen
Potenziale und Chancen
Risiken und Schwächen
• Erhöhung der Akzeptanz von Verwaltungsentscheidungen
• Steigerung der Servicequalität
• Erhöhung der Effizienz
• Schonung von Ressourcen
• Erhöhung der Rechtssicherheit
• Strukturelle Fehler durch Bias
• Mögliche nicht legitimierte Einflussnahme von Entwicklern
• Mangelnde Verständlichkeit, Transparenz und Nachvollziehbarkeit
• Fehlende soziale und emotionale Intelligenz
• Mangelnde sensomotorische Fähigkeiten und Intelligenz
• Fehlende Kausalität in den Entscheidungen und Gefahr der Fehleinschätzung durch Verwaltungsbeschäftigte
• Fehlende Kreativität
• Mangelnde Kontextualisierung
• Überschätztes Vertrauen und Glaubwürdigkeit
• Erhebliche Fehlerfolgen
• Mangelnde Abbildungsmöglichkeiten der juristischen Terminologie/Architektur
Zusammengefasst sind sowohl die Potenziale und Chancen als auch die Risiken und Schwächen für die rechtliche Würdigung ebenso elementar wie eine Definition. Mithilfe des technischen Verständnisses und der Zusammenhänge lassen sich KI-basierte Systeme, die im Kontext von Verwaltungsentscheidungen eingesetzt werden sollen, rechtlich untersuchen.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Unzweifelhaft ist der Forschungsbereich Künstliche Intelligenz eine Fachdisziplin der Informatik. Daneben ist zu konstatieren, dass die KI-Foschung zwar von der Informatik leitend beforscht wird, sich jedoch seit Entstehung durch ihren interdisziplinären Charakter auszeichnet, siehe hierzu Mainzer: KI – Künstliche Intelligenz, S. 11 ff.; Bauberger, Beck, Burchardt, Remmers in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, 908.
Kirste, Schürholz in: Wittpahl: Künstliche Intelligenz, S. 21; Eine tabellarische Übersicht über Meilensteine in der KI-Forschung und die Entwicklung von KI-Systemen siehe Ertel: Grundkurs Künstliche Intelligenz, S. 6 f.
Die abstrakte Turing-Maschine besteht aus einer (programmierten) Kontrolleinheit und einem Schreib-/Leseband. Das Schreib-/Leseband kennt lediglich die Zahlen 0 und 1, wobei aus diesen Zahlen alle weiteren Zahlen abbildbar sind. Die programmierte Kontrolleinheit kann ihrerseits eine endliche Anzahl an Anweisungen, respektive einen Algorithmus, enthalten. Somit ist es möglich, über bestimmte Geräte hinweg, „Programme“ bzw. die Inhalte der Schreib-/Lesebänder auf anderen Turing-Maschinen laufen zu lassen. Unter dem Turing-Test versteht man einen Versuch, bei dem eine Testperson mit zwei Gesprächspartnern über eine Maschine kommuniziert, wobei es sich um eine natürliche Person und einen computer-/maschinenbasierten Gesprächspartner handelt. Ist es der Testperson nicht möglich zu erkennen, wer welcher Gesprächspartner ist, so hält man den computer-/maschinenbasierten Gesprächspartner in puncto Intelligenz mit dem Menschen vergleichbar; siehe hierzu Mainzer: KI – Künstliche Intelligenz, S. 27 ff.
ELIZA ist ein von Weizenbaum entwickeltes Sprachprogramm, das 1965 veröffentlicht wurde. Es war in der Lage in einer psychiartrischen Behandlungssituation bestimmte Satzmuster zu erkennen und darauf zu reagieren, siehe Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 55 ff.
Kleinteiligere Differenzierungsmerkmale oder solche, die sich überwiegend nach der technischen Funktionsweise richten, sind vorliegend nicht gesondert zu betrachten. Diese unterscheiden sich beispielsweise in der Herangehensweise zur Identifizierung von bestimmten Gegenständen. So haben sich in der Mustererkennung zwei wesentliche Wege herausgebildet. Zum einen gibt es die Möglichkeit, Bilder mithilfe einer statistischen Etikettierung und Beschriftung durch KI-Systeme zu erkennen. Zum anderen bildete sich ein Forschungsansatz, bei dem nicht auf Korrelation gesetzt wird, sondern vielmehr Logik und Schlussfolgerung bei der Mustererkennung eine Rolle spielt, siehe Kunze/Sloman, KI – Künstliche Intelligenz 33 (2019), 429 (437).
Beispielsweise ist dies bei dem Modell Statistical Relational Learning (SRL) gegeben. Dies vereint das probabilistische Schließen mit der Prädikatenlogik und dem maschinellen Lernen. So können feste Zusammenhänge von Variablen mit Wahrscheinlichkeiten übereingebracht werden; siehe Bauckhage, Hübner, Hug, Paaß, Rüping in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 469; Mainzer: KI – Künstliche Intelligenz, S. 113; Grätz: Künstliche Intelligenz im Urheberrecht, S. 32.
Das deduktive Schließen ist das logische Schlussfolgern (zum speziellen Fall) ausgehend von einer allgemeinen Informationsbasis und einer Prämisse ohne neue Informationen zu gewinnen oder zu benötigen. Das induktive Schließen stellt den Gegensatz dar. Hier wird mithilfe von Verallgemeinerungen vom speziellen Fall zur allgemeinen Regel/Information geschlossen. Das abduktive Schließen sucht mithilfe – und unter Nicht-Berücksichtigung von allgemeinen Regeln – nach Hypothesen für die beste Erklärung; siehe Ragni in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 247 f.
Die Verhaltensökonomie (oder auch Behavioral Economics) ist im Wesentlichen den Wirtschaftswissenschaften zuzurechnen und untersucht verschiedene Faktoren, die das menschliche Verhalten und die menschliche Entscheidungsfindung beeinflussen. Für eine Einführung siehe Beck: Behavioral Economics.
Hier könnte als Gegenargument angeführt werden, dass bereits diverse KI-Systeme programmiert wurden, die Musik, Gemälde oder Gedichte erstellen können. Es stellt sich jedoch die Frage, ob ein von KI geschaffenes Kunstwerk mit einer kreativen Leistung im herkömmlichen Sinne gleichgesetzt werden kann. Auch wenn das Ergebnis beachtenswert ist und von Rezipierenden als Kunstwerk angesehen wird, so steht am Anfang keine Kreativität im klassischen Sinne. Entscheidend dabei dürfte sein, dass das eigene Bewusstsein des KI-Systems im kreativen Prozess fehlt und dieser daher nicht als solches bezeichnet werden kann. Auch wenn der kreative Prozess aus psychologischer Sicht betrachtet wird, ist festzustellen, dass ein KI-System nicht die Phasen der Kreativität (Präparation, Inkubation, Illumination und Verifikation) durchläuft; siehe Beyer/Gerlach: Sprache und Denken, S. 161 ff.; nach Zipp können KI-Systeme auf der untersten Ebene kreativ sein – und zwar im Sinne einer Reproduktion und Simulation von menschlichen künstlerischen Werken, siehe Zipp in: Portmann/D’Onofrio: Cognitive computing, S. 106 f.
Ein prägnantes Beispiel hierfür ist ein schlichtes, selbst programmierbares künstliches neuronales Netzwerk, mit dem Zahlenreihen ergänzt werden können. Das künstliche neuronale Netzwerk kann mit der Open-Source-Software-Bibliothek für KI TensorFlow programmiert werden. Mit TensorFlow ist es möglich, auf bestehende, bereits programmierte Machine-Learning-Modelle zurückzugreifen, diese einzusetzen, zu trainieren und anzuwenden. Das Beispiel: Werden folgende nebeneinanderstehende Zahlenreihen vorgeben: 1, 2, 3 und 2, 4, 6 dürften Menschen ohne großen Aufwand die Logik erkennen und unbekannte bzw. unvollständige Zahlen ergänzen können. Denn verdoppelt man die Zahl aus der ersten Zahlenreihe, so erhält man die gesuchte Zahl in der zweiten Zahlenreihe. Gibt man nun eine 7 vor, würden Menschen regelmäßig die 14 als Antwort benennen. Das (sehr einfache) künstliche neuronale Netz, das lediglich aus einer Neurone besteht und 1000 Lernepochen durchlaufen hat, versteht jedoch diesen simplen Zusammenhang nicht und berechnet eine Wahrscheinlichkeit für den zweiten Wert. So prognostiziert bei dem oben genannten Beispiel – die 7 wird vorgegeben – das System als Antwort eine 13,808133. Dies veranschaulicht, wie ein simples KI-System beim Lernen vorgeht; siehe hierzu: Beautemps, https://colab.research.google.com/drive/1vtguJUse_hACM1xdzPTW9TIgPrWuwwS2#scrollTo=DuvX8N76wk3u, zuletzt geprüft am 30.08.2023.
Vertiefende Ausführungen zum Stand der Forschung siehe Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 125 ff.; Apt, Priesack in: Wittpahl: Künstliche Intelligenz, S. 222.
Siehe hierzu von der Malsburg in: Portmann/D’Onofrio: Cognitive computing, S. 25 ff.; Ragni in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 240; Paaß/Hecker: Künstliche Intelligenz, S. 114 f.; Kirste, Schürholz in: Wittpahl: Künstliche Intelligenz, S. 30 f.
Backpropagation bezeichnet die originäre Funktionsweise. Bei diesem Netz gibt es neben der vorwärtsgewandten Durchleitung der Signale von Eingabe- zur Ausgabeschicht eine Fehlerrückmeldung bzw. Gradientenberechnung von Ausgabe- hin zur Eingabeschicht; siehe Bauckhage, Hübner, Hug, Paaß, Rüping in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 453.
Eine nähere Betrachtung der mathematischen Modelle ist vorliegend nicht angezeigt, zur Vertiefung der Modelle siehe Bauckhage, Hübner, Hug, Paaß in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 509 ff.; Ertel: Grundkurs Künstliche Intelligenz, S. 268 ff.
Die Transparenz variiert nach dem gewählten Modell, das maßgeblich für unterschiedlichen Regressions- oder Klassifikationsprobleme verantwortlich ist; siehe Alpaydin: Maschinelles Lernen, S. 4 ff.
Bauckhage, Hübner, Hug, Paaß, Rüping in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 431 f.; Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 119.
Kreutzer/Sirrenberg: Künstliche Intelligenz verstehen, S. 8; Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 119; Raschka/Mirjalili/Lorenzen: Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn, S. 34.
Beispielsweise die Unterteilung der KI-Systeme nach Description (Beschreibung des Ist), Prediction (Vorhersage des Wird) und Presciption (Beschreibung des Was); siehe hierzu Kreutzer/Sirrenberg: Künstliche Intelligenz verstehen, S. 3.
Für eine Übersicht zur Verwendung der Termini schwache und starke KI in den verschiedenen Wissenschaftsdisziplinen siehe Nida-Rümelin in: Chibanguza/Kuß/Steege: Künstliche Intelligenz, § 1 Kap. E Rn. 2 ff.
Im Schrifttum ist eine in der theoretischen Diskussion divergierende Auffassung zu diesem Punkt zu finden. So wird teilweise davon ausgegangen, dass schwache KI schon bei solchen Systemen vorliegt, die eine Aufgabe durch Nachahmung von menschlichem intelligentem Verhalten lösen. Diese Systeme beruhen zumeist – aber nicht zwingend – auf Verfahren des maschinellen Lernens. Im Gegensatz zur oben dargestellten Definition ist das Nicht-Vorliegen eines maschinellem Lernverfahrens jedoch kein zwingender Ausschlussgrund für die Feststellung von schwacher KI. Das maschinelle Lernen wird nach dieser Ansicht vielmehr als Motor der KI begriffen; siehe beispielsweise Niederée, Nejdl in: Ebers/Heinze/Krügel/Steinrötter/Beck: Künstliche Intelligenz und Robotik, § 2 Rn. 17 ff.
Vereinfacht dargestellt, wäre ein solches starkes KI-Modell in der Lage alle Aufgaben zu lösen beziehungsweise eine Lösung anzubieten – insbesondere auch die physischen Aufgaben. So müsste ein solches System nicht nur alle jetzt bestehenden Aufgabenbereiche, die von diversen KI-Modellen bearbeitet werden, aus einer Hand erledigen können, sondern darüber hinaus in der Lage sein, motorische Aufgaben zu lösen. Zu denken ist hierbei auch an die für Menschen einfache Tätigkeiten, für die KI-Modelle gegenwärtig jedoch singulär trainiert werden müssen – etwa die Öffnung einer Flasche oder auch schlicht Aufgaben im Hausputz. Es läge folglich eine Zusammenführung der diversen, mannigfaltigen Aufgabenbereiche in einem KI-Modell vor.
Siehe hierzu beispielsweise Zech, der die Auswirkungen der technischen Neuerungen auf die haftungsrechtliche Bewertung von Systemen bezieht; siehe Zech, ERA Forum 22 (2021), 147 (148 ff.); Tischbirek, ZfDR 2021, 307 (311).
Timmermann: Legal Tech-Anwendungen, S. 65; in diese Richtung und die Notwendigkeit einer technischen Abgrenzung von deterministischen Systemen bejahend auch Steege, NZV 2023, 12 (14); Malorny, RdA 2022, 170 (172); Raji, DuD 2021, 303.
Steege, SVR 2021, 1 (4); Zech, ZfPW 2019, 198 (200); Dettling/Krüger, MMR 2019, 211 (212); Riehm, Meier in: Recht und Informatik: DGRI-Jahrbuch, Kap. I Rn. 6; Linke: Digitale Wissensorganisation, S. 29; Neuhöfer: Grundrechtsfähigkeit Künstlicher Intelligenz, S. 22 f.; In diese Richtung auch Meyer, wobei die Autonomie in seiner Definition nicht ausdrücklich auf einen selbstlernenden Algorithmus abstellt; siehe Meyer in: Barton/Müller: Künstliche Intelligenz in der Anwendung, S. 25; siehe hierzu vertiefend Grätz: Künstliche Intelligenz im Urheberrecht, S. 38 f.; Rollberg stellt bei autonomen Systemen als elementares Merkmal auf selbstlernende Algorithmen ab, da diese aufgrund ihrer Eigenart mit einem höheren Risiko verbunden sind. Er konstatiert zudem, dass autonome Systeme nicht mit KI-Systemen gleichgesetzt werden dürfen. Im Wesentlichen sei dies darauf zurückzuführen, dass sich bislang keine anerkannte Definition für Künstliche Intelligenz durchgesetzt habe – insbesondere bezogen auf den Begriffsteil „Intelligenz“; siehe Rollberg: Algorithmen in der Justiz, S. 28 ff.
Maamar: Computer als Schöpfer, S, 54; Nach Calabro zeichnet sich ein KI-System durch Autonomie, Adaptivität, Training und Blackbox-Eigenschaft aus, wobei die beiden zuletzt genannten Merkmale bei lernenden Systemen immanent sind, siehe Calabro: Künstliche Intelligenz und Corporate Governance, S. 41.
So gibt Ebers an, dass viele der heutzutage eingesetzten KI-Systeme mit Lernalgorithmen ausgestattet sind. Diese Formulierung lässt im Rückschluss zu, dass auch andere, rein regelbasierte KI-Systeme existieren; siehe Ebers in: Ebers/Heinze/Krügel/Steinrötter/Beck: Künstliche Intelligenz und Robotik, § 3 Rn. 22; Kau, CR 2021, 498 (500); Grützmacher, CR 2021, 433 (434); Haagen: Verantwortung für Künstliche Intelligenz, S. 72 f.; Konertz/Schönhof: Das technische Phänomen „Künstliche Intelligenz“ im allgemeinen Zivilrecht, S. 44; Gausling, ZD 2019, 335; Hornung/Schindler, DuD 2021, 515 (516); Kemper, Intellectual Property and Technology Law Journal 2020, 251 (254 ff.); Hacker plädiert im Zusammenhang mit dem Verordnungsentwurf der EU-Kommission zur Regulierung Künstlicher Intelligenz (COM (2021) 206 final) dafür, statt KI den Begriff maschinelles Lernen zu verwenden, da dieser deutlich klarer abzugrenzen sei; siehe Hacker, NJW 2020, 2142 (2142); Thalmann et al. fassen KI-Systeme ebenfalls weit. Jedoch fokussieren sie in ihrer Publikation lernende Systeme. Dies wird damit begründet, dass lernende KI-Systeme im Vergleich zu determinierten Systemen ein höheres Risikopotenzial besitzen und mit ihnen daher auch ein höheres rechtliches Risiko einhergeht; siehe Thalmann et al. in: Leyens/Niemann/Eisenberger: Smart Regulation, S. 114; Kevekordes konstatiert, dass der Begriff der KI grob dem des maschinellen Lernens entspricht. Mit diesem Vergleich wird das Merkmal der Lernfähigkeit fokussiert und herausgestellt, jedoch nicht als konstitutiv benannt; siehe Kevekordes in: Hoeren/Sieber/Holznagel/Albrecht/Altenhain: Handbuch Multimedia-Recht, Teil 29.1 Rn. 10; Malcher, MMR 2022, 617 (617 f.); Winkelmann, LTZ 2022, 163; Baumgartner/Brunnbauer/Cross, MMR 2023, 543 (544).
Hilgendorf fasst den Terminus Künstliche Intelligenz weit und indiziert einen nicht technischen Ansatz. Einziges Merkmal ist demnach das Kriterium der Aufgabenerfüllung, siehe Hilgendorf in: Hentschel/Hornung/Jandt: Mensch – Technik – Umwelt: Verantwortung für eine sozialverträgliche Zukunft, S. 547; Ebenso kennzeichnet Siegel Künstliche Intelligenz am Merkmal der Problemlösungskompetenz durch Maschinen. Im Weiteren unterscheidet Siegel zwar zwischen deterministischen und lernenden Algorithmen, er nutzt diese allerdings nicht als Abgrenzungsmerkmal; siehe Siegel, DVBl 2020, 552 (557); Rotermund: Künstliche Intelligenz aus staatlicher Perspektive, S. 20; Klawonn bezieht sich ebenfalls auf die Einordnung der schwachen KI und damit auf die Simulation von intelligenten Verhalten; siehe Klawonn: Künstliche Intelligenz, Musik und das Urheberrecht, S. 26 ff.
Zu begründen ist dies mit dem spezifischen Risikopotenzial, das von KI-Systemen, die auf selbstlernenden Algorithmen basieren, ausgeht wie die Unvorhersehbarkeit, Intransparenz, Defizite im Training oder in den Datensätzen; siehe Hacker, NJW 2020, 2142 (2142 f.); in diesem Sinne auch Steege, MMR 2022, 926 (929 f.).
Kaulartz, Braegelmann in: Kaulartz/Ammann/Braegelmann/Apel/Auer-Reinsdorff/Bäßler: Rechtshandbuch Artificial Intelligence und Machine Learning, Kap. 1 Rn. 14; Ebers/Heinze/Krügel/Steinrötter/Beck: Künstliche Intelligenz und Robotik, § 3 Rn. 23; Nink: Justiz und Algorithmen, S. 150; Hacker, NJW 2020, 2142 (2142 f.); Tischbirek, ZfDR 2021, 307 (311); Botta, ZfDR 2022, 392 (394); Eine andere Auffassung besteht hier bei Ludwigs und Velling, nach denen die Abgrenzung nicht zwischen deterministischen und selbstlernenden Algorithmen vorgenommen wird, sondern zwischen schwacher und starker KI, siehe Ludwigs/Velling, VerwArch 2023, 71 (75).
Beispielsweise benennen Ballestrem et al. einen selbstlernenden Algorithmus nicht ausdrücklich als Voraussetzung für ein KI-System. Sie bezeichnen in ihrem Beitrag als Voraussetzung für ein KI-System, ein „intelligentes“ Verhalten des Systems. Bei systematischer Betrachtung der gesamten Publikation ist davon auszugehen, dass damit keine statischen Algorithmen gemeint sein können; siehe Ballestrem, Bär, Gausling, Hack, von Oelffen in: Ballestrem/Bär/Gausling/Hack/Oelffen: Künstliche Intelligenz; Grätz: Künstliche Intelligenz im Urheberrecht, S. 20 ff.; Ebenso Rachut und Besner, die einen technikoffenen, funktionalen Definitionsansatz wählen, aber im Folgenden insbesondere Anwendungen des maschinellen Lernens fokussieren; siehe Rachut/Besner, MMR 2021, 851 (852 ff.); Ähnlich auch Mühlböck und Taupitz, die Künstliche Intelligenz nicht abschließend definieren, jedoch in ihrer Publikation deutlich machen, dass lernende Systeme unter dem Begriff Künstliche Intelligenz verstanden werden dürfen; siehe Mühlböck/Taupitz, AcP 2021, 179 (182 ff.); Auch Gomille bezieht sich auf die „intelligenten“ Leistungen von Systemen. Er konstatiert jedoch sodann, dass solche Systeme „meist“ auf künstlichen neuronalen Netzen beruhen; siehe Gomille, JZ 2019, 969 (969 f.); Ungern-Sternberg orientiert sich ebenfalls an dem Institut des „intelligenten Agenten“, der rational handelt. Dies ist ein umfassender und funktionaler Ansatz, der nicht technisch geprägt ist. Gleichwohl wird konstatiert, dass die Lernfähigkeit des Systems ein typisches Merkmal ist; siehe Ungern-Sternberg in: Unger/Ungern-Sternberg: Demokratie und künstliche Intelligenz, S. 6 f.; Pernice verzichtet zwar auf eine Definition von Künstlicher Intelligenz, stellt diese aber in einem Zusammenhang mit lernenden Systemen dar; siehe Pernice: Staat und Verfassung in der digitalen Konstellation, S. 187 f.
Die Nennung von KI ohne eine vorherige Definition ist durchaus in der rechtswissenschaftlichen Literatur zu finden. Sofern es ein allgemeines Verständnis von KI-Systemen in der Rechtswissenschaft gibt, ist dieses Vorgehen auch konsistent; siehe beispielsweise: Käde/Maltzan, CR 2020, 66.
Djeffal in: Klenk/Nullmeier/Wewer: Handbuch Digitalisierung in Staat und Verwaltung, S. 52; Djeffal in: Mohabbat-Kar/Thapa/Parycek: (Un)berechenbar?, S. 495 ff.; Bingener sieht ebenfalls das Merkmal des lösungsorientierten Verhaltens als maßgeblich an. Unter dieser Prämisse sind sowohl deterministische als auch lernende Systeme unter den Begriff der Künstlichen Intelligenz zu subsumieren; siehe Bingener, MarkenR 2021, 233 (233 ff.).
Denga, CR 2018, 69 (69 f.); Auf einen ähnlichen Aspekt stellen Frank und Heine ab. Sie benennen als ein Kriterium für Künstliche Intelligenz die Nicht-Vorhersehbarkeit des Systemverhaltens bzw. des Ergebnisses. In diesem Zuge wird konstatiert, dass die Nicht-Vorhersehbarkeit auch bei deterministischen Systemen einschlägig sein kann und eine Verkürzung auf selbstlernende Systeme nicht angezeigt ist; siehe Frank/Heine, NZA 2021, 1448 (1452).
Steege stellt überzeugend fest, dass insbesondere die KI-typischen Merkmale Multikausalität, Komplexität, Opazität und Autonomie von dem Definitionsansatz der KI-VO umfänglich berücksichtigt werden. Eine hervorzuhebende Vernachlässigung besteht nach Steege bei dem Merkmal der Autonomie, aus dem unüberschaubare Risiken erwachsen können, siehe Steege, MMR 2022, 926 (928).
Kritisch auf die Zuständigkeitsvermutung zugunsten der Länder und den damit verbundenen Implikationen blickt Wieland. Mit einer praktisch-orientierten Zustandsbeschreibung stellt Wieland ein Ungleichgewicht zwischen verfassungsvorgegebener Zuständigkeit und faktischer Verteilung fest; siehe Wieland in: Herdegen/Bäcker/Burkart/Cancik/Masing/Poscher: Handbuch des Verfassungsrechts, § 8 Rn. 28 ff.
Eine gesteigerte Relevanz könnte hingegen beispielsweise bei einzelnen datenschutzrechtlichen Fragestellungen vorliegen. So könnte die technische Funktionsweise eines KI-Systems respektive die Lernmethode die datenschutzrechtliche Bewertung maßgeblich determinieren. Zu denken ist etwa an die Methode des föderalen Lernens, das in Abschnitt 2.1.1.3 dargestellt ist. Diese Lernmethode könnte einen Unterschied in der rechtlichen Möglichkeit zur Implementierung eines KI-Systems machen, in dem der Schutz personenbezogener Daten gewährleistet werden kann.
Eine fehlende technische Eingrenzung würde neben selbstlernenden Algorithmen auch alle anderen algorithmischen Systeme umfassen. Je nach weiterer Definition von algorithmischen Systemen würden auch alltägliche Anwendungen unter diesen Definitionsansatz fallen können. Dies führt dazu, dass beispielsweise simple VBA-Programmierungen in Excel (Visual Basic for Applications ist eine Microsoft Programmiersprache), die etwa zur Entscheidungsunterstützung bei der Berechnung von Ansprüchen nach dem Bundesreisekostengesetz eingesetzt werden, von der Definition erfasst werden. Im Ergebnis dürfte jedoch Einigkeit bestehen, dass solche Anwendungen nicht unter Künstliche Intelligenz subsumiert werden sollten. Denn die rechtliche Würdigung über den Einsatz eines Excel-basierten Programms oder eines komplexen künstlichen neuronalen Netzes dürfte divergieren.
So sind beispielsweise in den Werken von Alpaydin, Ertel oder Raschka et al. keine Hinweise auf diese Unterscheidung zu finden beziehungsweise in dem Werk von Görz et al. lediglich eine kurze Abhandlung in der Einführung. In dem Standardwerk von Russel und Norvig sind Ausführungen zur schwachen und starken KI lediglich in dem Kapitel Philosophische Grundlagen zu finden.
Beispielsweise werden die Begrifflichkeiten algorithmische Entscheidungen und KI-basierte Entscheidungen teilweise in den Verwaltungswissenschaften gemeinsam verwendet. Orientiert sich ein Beitrag nicht primär an den rechtlichen Auswirkungen, sondern an den rein verwaltungswissenschaftlichen Aspekten, mag diese fehlende Differenzierung angezeigt sein; siehe Bannister/Connolly, IP 2020, 471 (471 ff.).
Die Interaktion zwischen humanoiden Robotern und Menschen stößt gegenwärtig noch auf Zurückhaltung. Es scheinen Vorbehalte der Menschen im direkten Kontakt mit humanoiden Robotern zu geben; siehe Kreutzer/Sirrenberg: Künstliche Intelligenz verstehen, S. 49 m.w.N.
Zu denken ist hier an niederschwellige Angebote im öffentlichen Raum. So müsste für die Beantragung einer staatlichen Leistung weder eine Behörde aufgesucht werden noch müssen eigene Infrastrukturen wie etwa ein eigener Computer und eine Internetverbindung bemüht werden. Damit können Zugänge und Hemmschwellen zu staatlichen Leistungen abgebaut werden. Neben der Leistungsverwaltung sind jedoch auch andere Verwaltungsbereiche denkbar. So ist es ebenso vorstellbar, dass ein neuer Personalausweis bei einem humanoiden Roboter beantragt werden kann oder humanoide Roboter Bereiche in der Ordnungsverwaltung übernehmen wie die Überwachung des ruhenden Verkehrs.
BEAM ist ein Kollektivum für Roboter, die auf Reiz-Reaktion-Funktionen innerhalb eines Roboters ausgerichtet sind und biologische Nervenzellen simulieren sollen. Das Akronym BEAM steht dabei für drei Wortgruppen: Biologie, Elektronik, Ästhetisch und Mechanisch oder Bauen, Evolution, Anarchie und Modularität oder Biotechnologie, Ethnologie, Analogie und Morphologie; siehe Maier: Grundlagen der Robotik, S. 44.
Maier: Grundlagen der Robotik, S. 26; Hesse/Malisa: Taschenbuch Robotik, Montage, Handhabung; Kreutzer/Sirrenberg: Künstliche Intelligenz verstehen, S. 44 f.
Die hochrangige Expertengruppe für Künstliche Intelligenz (High-Level Expert Group on Artificial Intelligence; abgekürzt: AI HLEG) ist ein von der Europäischen Kommission eingesetztes Expertengremium aus Wissenschaft, Zivilgesellschaft und Industrie.
Die Robotik wird neben der Informatik und dem Feld der Künstlichen Intelligenz insbesondere von der Regelungs- und Steuerungstechnik, Mechanik, Maschinenbau, Elektrotechnik, Sensorik, Antriebstechnik und der Mikromechanik geprägt; siehe Maier: Grundlagen der Robotik, S. 13 f.
So setzt beispielsweise die Stadt Ludwigsburg einen Serviceroboter ein, der im Eingangsbereich des Bürgerbüros selbstständig die Bürger begrüßt, Informationen bereitstellt oder sie zu den Zielorten begleitet; siehe Stadt Ludwigsburg, https://www.ludwigsburg.de/start/wirtschaft+und+innovation/l2b2.html, zuletzt geprüft am 19.11.2021.
Mainzer unterteilt die Roboter zwischen humanoide Roboter und kognitive und soziale Roboter. Letztere sind nach den Vorstellungen Mainzers diejenigen, die über motorische Aufgaben hinausgehen; siehe Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 142 ff.
Ein simplifiziertes Beispiel wäre die Erhöhung der Zufriedenheit der Bürger bei Behördengängen. Hier gibt es einige Ansatzpunkte, die regelmäßig verbessert werden können wie beispielsweise die Reduktion langer Wartezeiten oder der Abbau ungenauer Informationslagen darüber, welche Daten und Informationen die Bürger zur Beantragung einer bestimmten Verwaltungsdienstleistung vor Ort benötigen. Ein schlichter Verbesserungsansatz, der bereits flächendeckend praktiziert wird, wäre eine Terminvergabe einzurichten, um so lange Wartezeiten zu vermeiden. Hier zeigt die praktische Umsetzung, dass ein Terminvergabesystem – selbst wenn dieses technisch optimal umgesetzt wurde – nicht zwingend zu einer Verbesserung führen muss. Ineffektive und ineffiziente Verwaltungsabläufe können trotzdem bestehen bleiben, sodass weiterhin lange Wartezeiten und eine geringe Servicequalität vorherrschen können. Ebenso ist das Einführen eines onlinebasierten Systems für die Beantragung einer Verwaltungsdienstleistung und damit der Abbau von erforderlichen persönlichen Terminen ebenfalls kein Garant für einen möglichst effizienten und rechtssicheren Ablauf. Solche Anwendungen können jedoch sehr wohl Treiber von Optimierungen sein oder diese zumindest begünstigen. Ein anderes Gedankenspiel abseits von Verwaltungshandlungen ist das Ziel der Verringerung von Schäden in Folge von Verkehrsunfällen in Städten. Hier gäbe es einerseits die Möglichkeit mithilfe von autonomem Fahren auf Basis von KI-Systemen menschliche Fahrfehler zu reduzieren, die zu Unfällen führen. Ein anderer Ansatz wäre das Grundkonzept der Mobilität in einer Stadt neu zu konzipieren. Für beide Wege gibt es Argumente. Deutlich sollte werden, dass nicht allein die Technologien die Problemlösung darstellen.
Diese Annahme wird durch eine Untersuchung zu computergenerierten Nachrichten gestützt. Es wird in der Untersuchung belegt, dass den computergenerierten Nachrichten eine höhere Glaubwürdigkeit zugeschrieben wird als menschlich erstellten Nachrichten, siehe Graefe/Haim/Haarmann/Brosius, Journalism 2018, 595 (604).
Scheuer: Akzeptanz von Künstlicher Intelligenz, S. 133; Kirste in: Wittpahl: Künstliche Intelligenz, S. 67 f.; Kreutzer/Sirrenberg: Künstliche Intelligenz verstehen, S. 12 f.; Guckelberger: Öffentliche Verwaltung im Zeitalter der Digitalisierung, Rn. 503; Dahm, Bergmoser, Yogendiran in: Buchkremer/Heupel/Koch: Künstliche Intelligenz in Wirtschaft & Gesellschaft, S. 338; Käde/Maltzan, CR 2020, 66; Wischmeyer, AöR 143 (2018), 1 (58); Datenethikkommission der Bundesregierung, https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.pdf?__blob=publicationFile&v=6, S. 215 f., zuletzt geprüft am 31.08.2023; BT-Drucksache 19/23700, S. 306 ff.; Zur Technologieakzeptanz in Deutschland: Eine ÖFIT-Umfrage in Deutschland hat ergeben, dass rund 40 Prozent der Befragten Künstliche Intelligenz als Bereicherung ansehen und etwa 26 Prozent als Bedrohung; siehe Hölscher, et al., https://www.oeffentliche-it.de/documents/10181/14412/Deutschland-Index+der+Digitalisierung+2021, S. 21, zuletzt geprüft am 31.08.2023.
Scheuer: Akzeptanz von Künstlicher Intelligenz, S. 136; Kreutzer/Sirrenberg: Künstliche Intelligenz verstehen, S. 49; in Ergänzung dazu zeichnet sich ab, dass eine Annährung an das menschliche Aussehen und an andere menschliche Merkmale wie eine menschenähnliche Stimme zu einer höheren Verbundenheit zu einem KI-System führen kann; siehe Buder, Information – Wissenschaft & Praxis 2020, 17 (20 f.).
Beide Begriffe unterliegen einer Einschränkung und sind auf den jeweiligen Verwaltungsbereich zu adaptieren. Unstrittig dürfte sein, dass Servicequalität und Dienstleistungsorientierung beispielsweise in der Ordnungs- und Eingriffsverwaltung nur eingeschränkt vorangestellt werden können.
Bogumil in: Brüning/Schliesky: Kommunale Verwaltungsreform, S. 14 ff.; Möltgen, Pippke in: Czerwick/Lorig/Treutner: Die öffentliche Verwaltung in der Demokratie der Bundesrepublik Deutschland, S. 202 f.; Bull/Mehde: Allgemeines Verwaltungsrecht mit Verwaltungslehre, § 28 Rn. 1250 ff.; Zum Spannungsfeld zwischen dem New Public Management-Ansatz bzw. dem Neuen Steuerungsmodell und dem klassischen Bürokratieverständnis von Verwaltung siehe König: Moderne öffentliche Verwaltung, S. 729 ff.
Wirtz/Weyerer, VM 25 (2019), 37 (37 ff.); Walter, et al., https://ea-rlp.de/wp-content/uploads/2021/05/Studie-KI-in-Mittelstaedten-April-2021-final.pdf?x63384, S. 30, zuletzt geprüft am 31.08.2023; Wangler, Botthof in: Wittpahl: Künstliche Intelligenz, S. 123; Albrecht in: Hoeren/Sieber/Holznagel/Albrecht/Altenhain: Handbuch Multimedia-Recht, Teil 28 Rn. 14 ff.; Adam et al. arbeiten in ihrer Publikation zu Automatisierungsmöglichkeiten in der Verwaltung heraus, dass sich viele Tätigkeiten der Verwaltungsbeschäftigten auf eine routinemäßige Bearbeitung von Anträgen bezieht. Dabei ist auffällig, dass die Antragsbearbeitung insbesondere von einfachen Büro- und Posttätigkeiten determiniert wird. Die einfachen Tätigkeiten sind zudem stark vorstrukturiert. Diese Erkenntnis bietet einen Ansatzpunkt für eine systemtechnische Unterstützung oder spricht gar für die umfassende Übernahme des Vorgangs bzw. der vorbereitenden Tätigkeiten durch KI-Systeme; siehe Adam/Hahn/Hölscher/Höschel/Janzen/Kögel, VM 2021, 39 (44).
Engelbrecht et al. beschreiben diesen Gedanken anhand eines Automated Ticket Routing, was in diesem Sinne auch auf Anfragen von Bürgern und die bestehenden Verwaltungsstrukturen übertragbar ist. Daneben ist ein solches KI-basiertes System ebenso für die Bearbeitung anderer Anliegen der Bürger denkbar, die über bloße Anfragen hinausgehen; siehe Engelbrecht, Pumplun, Bauer, Vida in: Buxmann/Schmidt: Künstliche Intelligenz, S. 151 f.
Djeffal in: Klenk/Nullmeier/Wewer: Handbuch Digitalisierung in Staat und Verwaltung, S. 58; Paaß/Hecker: Künstliche Intelligenz, S. 22 ff.; Wangler, Botthof in: Wittpahl: Künstliche Intelligenz, S. 132; zum technischen Hintergrund und den gegenwärtigen technischen Möglichkeiten siehe Russell/Norvig: Künstliche Intelligenz, S. 995 ff.; Djeffal/Horst: Übersetzung und Künstliche Intelligenz in der öffentlichen Verwaltung, S. 17 f.; Guckelberger: Öffentliche Verwaltung im Zeitalter der Digitalisierung, Rn. 116 ff m.w.N.
Vollhardt, Schmidt, Kask, Noga in: Buxmann/Schmidt: Künstliche Intelligenz, S. 126 m.w.N; Streicher: Digitale Transformation in der öffentlichen Verwaltung, S. 64 f.
So gibt beispielsweise die baden-württembergische Landesregierung an, dass in der Finanzverwaltung die automatisierte Bearbeitung von einfachen Steuerfällen erforderlich sei, um das Personal für eine qualitative Bearbeitung schwieriger oder risikobehafteter Fälle einzusetzen; siehe LT-BW-Drucksache 16/8935, S. 4.
BT-Drucksache 19/23700, S. 196 f.; Wangler, Botthof in: Wittpahl: Künstliche Intelligenz, S. 123; Hähnchen/Schrader/Weiler/Wischmeyer, JuS 2020, 625 (635); Das Land Baden-Württemberg nutzt seit 2018 neben anderen Bundesländern das Risiko-Management-System Betriebsprüfung in Baden-Württemberg (RMS-Bp BW). Dieses System ist kein KI-System nach der in der vorliegenden Publikation verwendeten Definition, da es sich um ein rein regelbasiertes System handelt. Dennoch zeigt das Programm das Potenzial solcher Anwendungen – seien es statische oder KI-basierte Systeme – auf. Das RMS-Bp BW wählt auf Grundlage von statistischen Modellen prüfwürdige Vorgänge bzw. Betriebe aus, bei denen ein erhöhtes Risikopotenzial berechnet wird. Diese risikobehafteten Fälle können sodann schwerpunktmäßig von Beschäftigten der Finanzverwaltung bearbeitet werden. Mithilfe des Systems sollen der Personalaufwand für die Bearbeitung von Fällen mit einem geringen Risiko und der Aufwand für die Vorselektion bzw. Risikowertung reduziert werden. Die freiwerdenden Personalressourcen können für die Risikofälle eingesetzt werden, sodass die Effizienz der Finanzverwaltung erhöht wird; siehe Oberfinanzdirektion Karlsruhe, https://fm.baden-wuerttemberg.de/fileadmin/redaktion/m-fm/intern/Publikationen/Leistungsbilanz_2018_NEU.pdf, S. 41, zuletzt geprüft am 31.08.2023; Gutermuth/Houy/Fetke: Robotergestützte Prozessautomatisierung für die digitale Verwaltung, S. 17; Ein anderes Beispiel aus der Finanzverwaltung ist das Risiko-Management-System Neuronales Programm gegen Umsatzsteuer-Karussellbetrug (NEPOMUK 2.1). Dieses System beruht auf einem künstlichen neuronalen Netzwerk und kann daher als KI-System klassifiziert werden. Es wird zur Identifikation von potenziellen Steuerstraftaten im Zusammenhang mit dem Umsatzsteuergesetz angewendet. Auch mit diesem System wird angestrebt, eine automatisierte Vorselektion zu treffen, um die Personalressourcen effizienter einzusetzen; siehe LT-BW-Drucksache 15/1047, S. 19.
BT-Drucksache 19/23700, S. 197; Hier sind insbesondere Dialogsysteme zur Interaktion von Bürgern auf der einen Seite und KI-basierten Systemen als Zugang zu Verwaltungsleistungen auf der anderen Seite vorstellbar, siehe Gutermuth/Houy/Fetke: Robotergestützte Prozessautomatisierung für die digitale Verwaltung.
BT-Drucksache 19/23700, S. 196 ff.; Kreutzer/Sirrenberg: Künstliche Intelligenz verstehen, S. 61; Wangler, Botthof in: Wittpahl: Künstliche Intelligenz, S. 123; Stiemerling in: Kaulartz/Ammann/Braegelmann/Apel/Auer-Reinsdorff/Bäßler: Rechtshandbuch Artificial Intelligence und Machine Learning, Kap. 2.1 Rn. 72; Markus/Meuche: Auf dem Weg zur digitalen Verwaltung, S. 12.
LT-BE-Drucksache 18/18008, S. 3; Adam/Hahn/Hölscher/Höschel/Janzen/Kögel, VM 2021, 39 (44); Mohabbat-Kar/Thapa/Parycek: (Un)berechenbar?, S. 499; Koch, Wildner in: Buchkremer/Heupel/Koch: Künstliche Intelligenz in Wirtschaft & Gesellschaft, S. 213; Hähnchen/Schrader/Weiler/Wischmeyer, JuS 2020, 625 (633); KI-Systeme könnten in Abgrenzung zur Verlagerung der Personalressourcen auch zum Abbau von Personalkapazitäten genutzt werden, um letztlich eine Kostensenkung zu erreichen; siehe Buxmann/Schmidt: Künstliche Intelligenz, S. 27 f.; Das Bundesinstitut für Berufsbildung zeigt in seiner Veröffentlichung die Tendenz der Spezialisierung der Verwaltungsbeschäftigten auf, die den Schluss auf einen Personalabbau durch Digitalisierung nicht zulässt. Hiernach werden weniger Verdrängungseffekte durch die zunehmende Digitalisierung eintreten, sondern vielmehr die Spezialisierung im beruflichen Alltag; siehe Schuppan in: Elsner: Berufliche Bildung im Öffentlichen Dienst – Zukunft aktiv gestalten, S. 75 ff.
Die Wertgrenzen für die verwaltungsinterne Niederschlagung von Kleinbeträgen wird in den Landeshaushaltsordnungen beziehungsweise der Bundeshaushaltsordnung unterschiedlich geregelt. So beträgt beispielsweise die Wertgrenze gemäß Nr. 3.1 der Anlage zu VV Nr. 2.6 zu § 59 LHO Brandenburg 36 Euro, gemäß Nr. 3.1 der Anlage zu VV Nr. 2.6 zu § 59 LHO Schleswig-Holstein 25 Euro und gemäß Nr. 3.1.1 der Anlage 1 zu VV Nr. 2.6 zu § 59 LHO Bremen 10 Euro. Liegt die Forderung unter der jeweiligen Wertgrenze wird verwaltungsintern niedergeschlagen und damit auf Vollstreckungsmaßnahmen und Mahnbescheide verzichtet.
Beispielsweise werden die Personalkosteneinsparung durch die Einführung von § 3a VwVfG, der automatisierte Erlass von Bescheiden im Reisekostenrecht, mit rund 113.000 Euro pro Jahr geschätzt; siehe BT-Drucksache 19/26839, S. 37.
Müller und Peper setzen als Zielmarke die Beibehaltung von Qualität und Verlässlichkeit. Dem ist aufgrund des Potenzials zunächst nicht zu folgen. Dies sollte eine Grundkonsens sein und kann eher als Minimalziel bezeichnet werden; siehe Müller, Peper in: Schmid: Verwaltung, eGovernment und Digitalisierung, S. 249; Toll/Lindgren/Melin/Madsen, JeDEM 12 (2020), 40 (53).
Ein typisches Beispiel ist die Verkehrslenkung, bei der die Simulation unterschiedlicher Szenarien und Entscheidungen das Ergebnis positiv beeinflussen kann. Diese Art der Entscheidungsvorbereitung und -abwägung könnte auch auf andere Bereiche in der Verwaltung übertragen werden. Wichtig ist ein niederschwelliger Zugang für die Verwaltungsbeschäftigten; siehe Djeffal in: Klenk/Nullmeier/Wewer: Handbuch Digitalisierung in Staat und Verwaltung, S. 57 f.
Mit einem KI-System könnten Daten und Informationen aufbereitet und somit als Entscheidungsgrundlage genutzt werden, die in dieser Form durch menschliches Verwaltungspersonal faktisch nicht herangezogen werden könnten. KI-Systeme sind in der Lage über ein schlichtes Data-Mining hinaus eine inhaltlich (Vor-)Arbeit zu leisten; siehe Hildesheim, Michelsen in: Buxmann/Schmidt: Künstliche Intelligenz, S. 191 f.
Die Selbstbindung der Verwaltung leitet sich daneben auch aus anderen Normen und Grundsätzen ab wie beispielsweise aus dem rechtsstaatlichen Grundsatz des Vertrauensschutzes; siehe Geis in: Schoch/Schneider: Verwaltungsrecht – VwVfG, § 40 VwVfG Rn. 74 m.w.N; Sachs in: Stelkens/Bonk/Sachs: Verwaltungsverfahrensgesetz, § 40 VwVfG Rn. 104 m.w.N.
So wurde belegt, dass Richter, die ein Schlafdefizit aufgrund der Zeitumstellung von Winter- auf Sommerzeit haben könnten, härtere Urteile fällen; siehe Cho/Barnes/Guanara, Psychological science 2017, 242.
Bei einem ausreichend großen und repräsentativen Datenbestand können KI-Auswertungen zu einer höheren Objektivität und einem stärken Realitätsbezug führen; siehe Niederée, Neijdl in: Ebers/Heinze/Krügel/Steinrötter/Beck: Künstliche Intelligenz und Robotik, § 2 Rn. 111; Paaß/Hecker: Künstliche Intelligenz, S. 437.
Ist dies gemeint so kann auch von einem Vorurteil oder einer Präferenz gesprochen werden; siehe Wess in: Buxmann/Schmidt: Künstliche Intelligenz, S. 180; Stocker/Steinke: Statistik, S. 453; Datenethikkommission der Bundesregierung, https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.pdf?__blob=publicationFile&v=6, S. 168, zuletzt geprüft am 31.08.2023; Kompakt-Lexikon Wirtschaftsmathematik und Statistik, S. 14; Paaß/Hecker: Künstliche Intelligenz, S. 433; Russell/Norvig: Künstliche Intelligenz, S. 721; Bauberger, Beck, Burchardt, Remmers in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 919; BT-Drucksache 19/23700, S. 60.
Englert in: Buchkremer/Heupel/Koch: Künstliche Intelligenz in Wirtschaft & Gesellschaft, S. 57 m.w.N; Bauberger, Beck, Burchardt, Remmers in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 918 f.
So können beispielsweise Personalauswahl-Systeme eine Diskriminierung reproduzieren oder gar verstärken. Werden solche KI-basierten Systeme beispielsweise mit einem Datensatz trainiert, der bereits eine unerwünschte und nicht sachlich begründete Unterrepräsentanz von Frauen aufweist, so wird bei der zukünftigen Personalauswahl dieser Effekt nach aller Voraussicht weiter verstärkt werden. Diese Verstärkung ist dann eine unzulässige Diskriminierung aufgrund des Geschlechts und ist begründet in dem fehlerhaften Trainingsdatensatz; siehe Wess in: Buxmann/Schmidt: Künstliche Intelligenz, S. 180; Sesing/Tschech, MMR 2022, 24.
So kann, auch wenn die Hautfarbe eines Menschen explizit als Kriterium für einen selbstlernenden Algorithmus ausgeschlossen wird, dieses Kriterium zu einer negativen Konsequenz für den Einzelnen führen. Beispielsweise hatte ein KI-basiertes System die Rückfallwahrscheinlichkeit von Person of Color – unzulässig und unerwünscht – als signifikant höher eingeschätzt, was fundamentale Auswirkungen auf Kautionshöhe und Haftaussetzung einer Person of Color hatte; siehe Martini: Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, S. 55; Eisele, Böhm in: Beck/Kusche/Valerius: Digitalisierung, Automatisierung, KI und Recht, S. 527 f.
BT-Drucksache 19/23700, S. 61; So sind in Sprachverarbeitungs-Modellen Verzerrungen zu finden, die Muslime mit Gewalt assoziieren, was auf unausgeglichene Trainingsdatensätze zurückzuführen ist; siehe Abid/Farooqi/Zou, Nat Mach Intell 2021, 461.
Ein Beispiel hierfür ist ebenfalls die Personalauswahl. Ein KI-System soll Bewerberinnen und Bewerber finden, die nachhaltig positiv für ein Unternehmen sind. Nun gilt es die Kriterien dafür zu definieren bzw. vom KI-System herausfinden zu lassen. Wird eine positive Entscheidung im Wesentlichen davon abhängig gemacht, wer eingestellt wurde, aber andere Kennzahlen außer Acht gelassen wie die Beschäftigungsdauer einer Person, so können diejenigen durch das KI-System vorgeschlagen werden, die nicht zum Unternehmen passen und dieses wieder schnell verlassen. Die Entscheidung kann aufgrund des Vergangenheitsbezugs und aufgrund von unausgewogenen Trainingsdaten diskriminierend sein, im Vordergrund steht hier aber die fehlerhafte Auswahl aufgrund der fehlerhaften Kriterien und des fehlerhaften Labelns von Erfolgskriterien; siehe Buxmann/Schmidt: Künstliche Intelligenz, S. 220.
Buxmann und Schmidt zeigen hier als Beispiel wieder eine diskriminierende Personalauswahl auf. So kann es bei Werksstudierenden, die regelmäßig während des Bachelorstudiums eingestellt wurden/werden zu einer Altersdiskriminierung kommen. Wird hier angenommen, dass der Trainingsdatensatz aus einer Einstellungszeit stammt, in der das Durchschnittalter von Bachelorstudierenden bzw. vergleichbaren Studierenden ein anderes war als das gegenwärtige Durchschnittsalter von Bachelorstudierenden ist, so könnte das KI-System diesen Faktor nicht erkennen, sondern vielmehr Personen mit dem Alter aus dem Trainingsdatensatz vorschlagen; siehe Buxmann/Schmidt: Künstliche Intelligenz, S. 220 f.
Grundsätzlich ist nicht auszuschließen, dass nicht staatlich geschaffene Systeme Einzelinteressen verfolgen – sondern vielmehr beispielsweise der Verfolgung von Gewinninteressen dienen. In diesem Fall dürfte regelmäßig kein gesteigertes Interesse darin liegen, mit dem System notwendige Schutzrechte für Schwächere und Minderheiten zu etablieren oder grundlegend verfassungsrechtliche Prämissen vordergründig zu berücksichtigen, siehe Boehme-Neßler: Unscharfes Recht, S. 205.
Boehme-Neßler beschreibt die hervorstechende technodeterministische Einstellung von Programmierern, die apolitisch wirkt, aber eine konturierte Weltsicht offenbart; siehe Boehme-Neßler: Das Ende der Demokratie?, S. 68 f.
Boehme-Neßler: Das Ende der Demokratie?, S. 66 ff.; Ernst, JZ 2017, 1026 (1029); Hoffmann-Riem, AöR 2017, 1 (28 f.); Stiemerling in: Kaulartz/Ammann/Braegelmann/Apel/Auer-Reinsdorff/Bäßler: Rechtshandbuch Artificial Intelligence und Machine Learning, Kap. 2.1 Rn. 83; Zu erwähnen ist, dass diese Thematik von Politik und Gesellschaft in den Grundzügen erkannt wurde. Demnach soll Künstliche Intelligenz stets menschenzentriert sein und zwingend die gesellschaftlichen Grundwerte berücksichtigen; siehe beispielsweise Datenethikkommission der Bundesregierung, https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.pdf?__blob=publicationFile&v=6, S. 14, zuletzt geprüft am 31.08.2023.
Bauberger, Beck, Burchardt, Remmers in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 918; Nicht zu verkennen ist, dass auch menschliche Entscheidungen diskriminierend sein können. Die Studienlage zur Anfälligkeit von Diskriminierung aufgrund von KI-basierten oder menschlichen Entscheidungen ist uneindeutig; siehe Starke, et al., https://arxiv.org/pdf/2103.12016, Nr. 6.5, zuletzt geprüft am 31.08.2023; Damit einhergehend wird fehlende Professionalität, was mit den Werten Rechtmäßigkeit, Sicherheit und Integrität verbunden wird, als ein wesentlicher Gefahrenpunkt gesehen; siehe Toll/Lindgren/Melin/Madsen, JeDEM 12 (2020), 40 (54 f.).
Bauckhage, Fürnkranz, Paaß in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 575; Eine andere Auffassung vertritt Körner, wonach KI-Modelle stets als Whitebox-Modelle anzusehen sind. Nach Körner führen künstliche neuronale Netze lediglich dazu, dass die Nachvollziehbarkeit aufwändig wird, aber nicht unmöglich ist; siehe Körner in: Kaulartz/Ammann/Braegelmann/Apel/Auer-Reinsdorff/Bäßler: Rechtshandbuch Artificial Intelligence und Machine Learning, Kap. 2.4 Rn. 7; Die Möglichkeit der Nachvollziehbarkeit von KI-Systemen ist stark von den Fähigkeiten der betrachtenden Person geprägt. So darf hier weder auf KI-Experten noch auf vollkommen technisch unversierten Personen abgestellt werden; siehe hierzu auch Ebers in: Ebers/Heinze/Krügel/Steinrötter/Beck: Künstliche Intelligenz und Robotik, § 3 Rn. 32.
Buxmann und Schmidt beziehen die Intransparenz insbesondere auf die Nicht-Offenlegung der verwendeten Algorithmen und Trainingsdaten durch die Entwickler, siehe Buxmann/Schmidt: Künstliche Intelligenz, S. 221. Hier ist jedoch zu konstatieren, dass selbst wenn Algorithmen, Trainingsdaten und darüber hinaus ein Protokoll des gesamten Systems offengelegt wird, dürfte es äußerst schwierig und aufwändig sein, die Entscheidungen und die Parameter im System zu analysieren. Insbesondere künstlich neuronale Netze werden sich schwer für eine Analyse mit verhältnismäßigen Mitteln eignen, da hier neben den oben genannten Aspekten insbesondere die Gewichtung der Eingangs- bzw. Weitergabesignale und damit der Aktivierungswert für die einzelnen Neuronen von Bedeutung sind.
Mainzer in: Mainzer: Verifikation und Sicherheit für Neuronale Netze und Machine Learning, S. 16; andere Ansicht: Stiemerling in: Kaulartz/Ammann/Braegelmann/Apel/Auer-Reinsdorff/Bäßler: Rechtshandbuch Artificial Intelligence und Machine Learning, Kap. 2.1 Rn. 59.
Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 245; Martini: Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, S. 41 f.; Rollberg: Algorithmen in der Justiz, S. 29 ff.
Bauckhage, Fürnkranz, Paaß in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 575; Ebers in: Ebers/Heinze/Krügel/Steinrötter/Beck: Künstliche Intelligenz und Robotik, § 3 Rn. 33; Meyer in: Barton/Müller: Künstliche Intelligenz in der Anwendung, S. 39; Ein beispielhafter Ansatz wurde in 2016 veröffentlicht. In dem Projekt wurden zwei Systeme geschaffen. Das eine als originäres KI-System zur Vorhersage einer Typ-2-Diabetes-Diagnose. Das zweite Systeme diente der Erklärung des Vorhersagemodells; siehe Luo, Health information science and systems 4 (2016), 2; Shao/Cheng/Shah/Weir/Bray/Zeng-Treitler, Journal of medical systems 45 (2021), 5; Ein weiterer Ansatz ist die Implementierung eines regelbasierten Erklärungsmodells in das Vorhersagesystem. Die regelbasierten Erklärungen werden dabei auf Grundlage des Trainingsdatensatzes eruiert und sodann auf das Vorhersagemodell übertragen. Der Nachteil hierbei dürfte darin liegen, dass die Erklärungen regelbasiert sind und auf dem Trainingsdatensatz beruhen. Eine individuelle Erklärung findet nicht statt; siehe Luo, JMIR medical informatics 2021, e27778.
Streicher: Digitale Transformation in der öffentlichen Verwaltung, S. 63; Wirtz/Weyerer, VM 25 (2019), 37 (41 f.); Paaß/Hecker: Künstliche Intelligenz, S. 6; Eifert: Digitale Disruption und Recht, S. 189; Wittpahl: Künstliche Intelligenz, S. 222 f.; Gaede: Künstliche Intelligenz – Rechte und Strafen für Roboter?, S. 46; Guggenberger, NVwZ 2019, 844 (849) m.w.N; Hähnchen/Schrader/Weiler/Wischmeyer, JuS 2020, 625 (630); Hill wertet dies nicht als Schwäche, sondern stellt vielmehr auf das Einsatzgebiet ab; siehe Hill, VM 2018, 287 (291); Ebenso zeigt Martini auf, dass ein emotionsfreies KI-System für einzelne Einsatzgebiete vorteilhaft sein könnte; siehe Martini: Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, S. 17.
Dresler: Kognitive Leistungen, S. 162 f.; Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 132; Martini: Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, S. 59.
Paaß/Hecker: Künstliche Intelligenz, S. 2; Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 132; Prost: Die Entschlüsselung des menschlichen Bewusstseins, S. 84 ff.; Lang, DZPhil 2015, 1022 (1028 ff.); Dresler: Kognitive Leistungen, S. 162 ff.; Bauberger, Beck, Burchardt, Remmers in: Görz/Schmid/Braun: Handbuch der künstlichen Intelligenz, S. 907; Krotz in: Rath/Krotz/Karmasin: Maschinenethik, S. 29 f.; Höffe: Ethik, S. 51.
Beispielsweise können bestimmte neuronale Vorgänge oder Reiz-Reaktionen nachgebildet werden, die etwa Schmerzen oder Angstzusstände simulieren; siehe Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 127 ff.; Rollberg: Algorithmen in der Justiz, S. 82 f m.w.N.
Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 135 f.; Bendel: Handbuch Maschinenethik, S. 4; Krotz in: Rath/Krotz/Karmasin: Maschinenethik, S. 29 f.; Gaede: Künstliche Intelligenz – Rechte und Strafen für Roboter?, S. 46; Haagen: Verantwortung für Künstliche Intelligenz, S. 101 ff.
Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 125; Diese Fähigkeit kann auf von herausragender Bedeutung sein, um Entscheidungen abzuwägen und zu hinterfragen; siehe Ernst, JZ 2017, 1026 (1028).
Die potenzielle Gefahr wird bereits gegenwärtig bei der Verhaltensökonomik und Behavioral Microtargeting deutlich. Zum einen können die Erkenntnisse aus diesen Bereichen in einer positiven, altruistisch-orientierten Art und Weise genutzt werden – wie im Sinne des Nudgings nach Thaler und Sunstein. Zum anderen besteht jedoch stets die Gefahr der Manipulation von Menschen. Insbesondere das Nutzen von Emotionen und Gefühlen kann Menschen in ihrem Verhalten (unzulässig und verdeckt) beeinflussen, siehe Ebers, MMR 2018, 423 (424 f.) m.w.N.
Paaß/Hecker: Künstliche Intelligenz, S. 371; Apt, Priesack in: Wittpahl: Künstliche Intelligenz, S. 222 f.; in diesem Sinne Misselhorn in: Bendel: Handbuch Maschinenethik, S. 44.
Zur wertenden Verwendung des Begriffs moralisch siehe Hübner: Einführung in die philosophische Ethik, S. 15; Die Frage warum moralisch gehandelt wird, dürfte eine unmittelbare Auswirkung auf die Beurteilung einer Handlung haben und daher erheblich gruppen-, wenn nicht sogar personenspezifisch sein; siehe hierzu Höffe: Ethik, S. 136 ff.
Pieper: Einführung in die Ethik, S. 27; Horn: Einführung in die Moralphilosophie, S. 32 f.; So gibt es eine Reihe von Determinanten, nach denen unterschiedliche Moralen exzelliert werden können. Zu denken ist an unterschiedliche religiöse Ausrichtungen, unterschiedliche Berufe oder auch unterschiedliche politische Auffassungen; siehe hierzu Hübner: Einführung in die philosophische Ethik, S. 14 f.
Pieper: Einführung in die Ethik, S. 16; Werner: Einführung in die Ethik, S. 6; Hilgendorf in: Bendel: Handbuch Maschinenethik, S. 367 f.; Ethik lässt sich in normative Ethik, Metaethik und deskriptive Ethik unterteilen; siehe Hübner: Einführung in die philosophische Ethik, S. 34.
Zu denken ist hier an beispielsweise an das Trinken. Neben dem Erkennen des Bedürfnisses Durst muss die Fähigkeit bestehen, diese Aufgabe lösen zu können. Hierzu muss zunächst ein Lösungsansatz gefunden werden wie die Erkenntnis, dass eine Flasche mit Wasser eine Lösung sein kann. Diese Flasche muss sodann geöffnet werden können – egal, welcher Verschluss verwendet wurde wie Schraubverschluss oder Kronkorken. Zuletzt muss die Fähigkeit bestehen, die Flasche zu greifen und zu trinken. Nun sind KI-Systeme nicht auf Wasser angewiesen, aber dieses einfache Beispiel lässt sich auch auf andere Bereiche und Konstellationen übertragen. Deutlich wird, dass die Kombination einfachster Tätigkeiten gegenwärtig eine enorme Herausforderung für KI-Systeme oder humanoide Roboter darstellt, insbesondere da sie nicht oder nur sehr eingeschränkt gelerntes Wissen beziehungsweise Erfahrungen auf neue Herausforderungen adaptieren können und zumeist nicht über die erforderliche Kombination von Sensorik, Motorik und Intelligenz verfügen.
Andere Ansicht: Maamar vertritt, dass KI-Systeme neben und mit dem Menschen bereits gegenwärtig kreativ werden; siehe Maamar: Computer als Schöpfer, S. 58 ff.
Der Mensch hingegen kann auf eine breitere Basis von Lern- und Denkverfahren zurückgreifen und diese kombinieren. Beispielsweise können menschliche Entscheidungen durch deduktives, induktives oder abduktives Schließen getroffen werden oder aber auch Ausfluss von divergentem Denken, also von Kreativität geprägtem Denken, sein. Dieses Repertoire wird gegenwärtig durch einzelne KI-Systeme nicht abgebildet.
Wischmann, Rohde in: Wittpahl: Künstliche Intelligenz, S. 100; Djeffal in: Klenk/Nullmeier/Wewer: Handbuch Digitalisierung in Staat und Verwaltung, S. 56.
Die Forschung hierzu bezieht sich auf die Glaubwürdigkeitsbeurteilung von Personen im Rahmen der Kommunikation. Zur Annäherung an die Thematik können die Ansätze auf KI-Systeme übertragen werden. Hier sollten bei einer näheren Betrachtung die Erkenntnisse aus der Technik-Akzeptanzforschung berücksichtigt werden.
Einen Hinweis auf die Relevanz dieser Annahme liefert ein Beispiel aus der Steuerverwaltung. So ist die Frage, ob sich eine Sachbearbeitung bei einer Ermessensentscheidung, die durch ein automatisiertes Programm vorbereitet wird, an den Vorschlag des Programms gebunden fühlt, durchaus bereits gegenwärtig von Bedeutung. Hinterfragen die Verwaltungsbeschäftigten automatisiert entstandene Entscheidungsvorschläge nicht oder sind sie nicht in der Lage, diese nachzuvollziehen, kann dies elementare Auswirkungen haben. Zusammengefasst ist der beschriebene Wirkmechanismus als Risiko einzustufen; siehe FG Düsseldorf, Urt. v. 29.03.2000 – 2 K 407/98, DStRE 2001, 212, 213; Ein anderes Beispiel macht den vorgenannten (möglichen) Mechanismus ebenso greifbar. Das Bundesamt für Migration und Flüchtlinge verwendet im Rahmen des Asylverfahrens zur Unterstützung der Feststellung von Herkunft und Identität einer Person ein sprachbiometrisches Assistenzsystem. Hier ist zu fragen, ob das einzelne Ergebnis des Assistenzsystems von dem Verwaltungsbeschäftigten kritisch überprüft wird oder ob es – mangels eigener Kompetenz und hoher Glaubwürdigkeitszuschreibung in das System – unreflektiert in das Verfahren eingebracht wird. Selbst wenn Dienstanweisungen oder behördeninterne Leitfäden vorhanden sind, die auf die Schwächen und die Funktionsweise des Systems oder die Verwendbarkeit des Ergebnisses hinweisen, wird es in der Praxis zu beobachten sein, wie damit umgegangen wird; zum System siehe Bundesamt für Migration und Flüchtlinge, https://www.egovernment-wettbewerb.de/praesentationen/2018/Kat_Digitalisierung_BAMF_Sprachbiometrie.pdf, zuletzt geprüft am 31.08.2023.
Beispielsweise kann OpenAI auch bei der Fortentwicklung ihres NLP-Modells zu GPT-4 nicht ausschließen, dass fehlerhafte Ergebnisse geliefert werden, siehe OpenAI, https://cdn.openai.com/papers/gpt-4.pdf, zuletzt geprüft am 15.03.2023; Dabei können auch schwerwiegende Ergebnisse nicht gänzlich vermieden werden wie beispielsweise die Verbreitung von Desinformation, siehe OpenAI, https://cdn.openai.com/papers/gpt-4-system-card.pdf, zuletzt geprüft am 15.03.2023.
Martini, Ruschemeier und Hain beschreiben diese empirische Wahrnehmung als einen psychologischen Bindungseffekt, der einen Automation Bias darstellt; siehe Martini/Ruschemeier/Hain, VerwArch 2021, 1 (19) m.w.N.
Als Beispiel kann das Gesichtserkennungssystem herangezogen werden, das am Berliner Bahnhof Südkreuz von der Bundespolizei pilotiert wurde. Wird außer Acht gelassen, dass es einen Diskurs um die wissenschaftliche Auswertung des Projekts und die Interpretation der Daten gibt und die kommunizierten Ergebnisse des Bundesinnenministeriums herangezogen, zeigt sich ein hohes Potenzial, stigmatisiert zu werden. Nach Angabe des Bundesinnenministeriums gab es in der Pilotierung eine falsch positive Erkennung von Gesuchten, die bei 0,1 Prozent lag. Weiter wird angegeben, dass dieser Wert auf 0,00018 Prozent optimiert werden kann. Bei rund 12,7 Mio. Reisenden täglich an deutschen Bahnhöfen hätte dies zur Konsequenz, dass 12.700 bis rund 22 Personen – je nach Optimierung des Modells – falsch erkannt und somit verdächtigt würden. Daraus ergeben sich zwei Probleme. Zum einen kämen noch die korrekten Erkennungen hinzu. Bei dem erstgenannten Wert von 12.700 Personen zuzüglich der korrekt erkannten Personen dürfte die Polizei an den Bahnhöfen vor einer enormen Herausforderung gestellt werden, da hierdurch erhebliche Kapazitäten gebunden würden. Zum anderen – insbesondere bezogen auf die zweite, optimierte Annahme – ergibt sich für die falsch verdächtigten Personen ein erhöhtes Gefahrenpotenzial und das Risiko der Stigmatisierung. Letzteres kann allein damit begründet werden, dass eine öffentliche Kontrolle vollzogen und damit suggeriert wird, dass ein strafbewährtes Verhalten durch die Person vorliegt. Je nach gesellschaftlicher Stellung, Rolle oder auch Beruf kann dies relevante Folgen haben. Für das Gefahrenpotenzial kommt es auf den Verwechselungsbezug an. Wird angenommen, dass eine Verwechselung mit einer Person stattfindet, die aufgrund schwerster Straftaten gesucht wird, kann der falsche Alarm zu einem massiven und konsequenten Handeln der Polizei führen; siehe hierzu Guckelberger: Öffentliche Verwaltung im Zeitalter der Digitalisierung, Rn. 125; Sprenger in: Ebers/Heinze/Krügel/Steinrötter/Beck: Künstliche Intelligenz und Robotik, § 31 Rn. 57 ff.
Die Weite der Fehlerwirkung ist determiniert durch den Einsatz eines KI-Systems. Wird ein und dasselbe System, das mit denselben Daten trainiert wurde, in nur einer Behörde eingesetzt, erstrecken sich die fehlerhaften Entscheidungen auf die Zuständigkeit der Behörde. Wird das betreffende KI-System jedoch bundesweit übergreifend eingesetzt, erweitert sich der Adressatenkreis entsprechend. Nink bezeichnet diesen Aspekt als Breitenwirkung, die bei menschlicher Bearbeitung differenzierter gelagert wäre; siehe Nink: Justiz und Algorithmen, S. 242.
Denkbar wäre der Fall, wenn eine Verwaltungsvorschrift erlassen wird, die eine gesamtstaatliche Auswirkung hat, rechtswidrig ist und angewendet wird. Demnach hätte auch eine fehlerhafte Entscheidung eine Auswirkung auf eine Gruppe von Menschen.
Zu denken ist an die Toeslagenaffaire der Niederländischen Regierung. Der Vorgang ist ausdrücklich nicht durch ein KI-basiertes Verfahren verursacht, verdeutlicht jedoch die Konsequenzen massenhaft rechtswidriger Verwaltungsentscheidungen. Für den Zeitraum 2013 bis 2019 wurden von rund 20.000 Eltern fehlerhaft Kita-Zuschüsse in beträchtlicher Höhe zurückgefordert und teilweise Ermittlungen wegen Betrug eingeleitet. Die Adressaten sollen vielfach Personen mit migrantischen Hintergrund gewesen sein, deren Situation sich durch die hohen Rückforderungen verschlechtert haben soll. Dieses Beispiel ist auf das Denkmodell KI-basierter Entscheidungen und die Inkaufnahme von fehlerhaften Entscheidungen zu übertragen und verdeutlicht die Folgen flächendeckender, fehlerhafter Entscheidungen; siehe Tagesschau.de, https://www.tagesschau.de/ausland/niederlande-regierung-ruecktritt-101.html, zuletzt geprüft am 16.07.2021; Kirchner, Süddeutsche Zeitung 2021 (30.04.2021), S. 8; Ein anderes Beispiel ist der Komplex „Centrelink“ in Australien – ein „robo debt“-System. Nach Einführung eines automatisierten Systems wurden mehrere tausend Schreiben an überwiegend Empfangende von Transferleistungen verschickt. In diesen Schreiben wurden Schulden benannt, die von den Personen zurückgezahlt werden mussten. Ein signifikanter Teil der Schreiben war fehlerhaft. Etwa ein Jahr später wurden bereits 20.000 Schreiben korrigiert. Neben der Rechtswidrigkeit der Schreiben ist hierbei problematisch, dass die Rückzahlungen sofort fällig waren – ohne Möglichkeit die Forderung bis zur Klärung der Angelegenheit auszusetzen. Zudem waren häufig Menschen betroffen, die Transferleistungen bezogen. Hier kommt der Effekt, dass insbesondere leistungsschwache Menschen adressiert waren und deren Position sich durch die fehlerhafte Software erheblich verschlechtern könnte; siehe Knaus/Hutchens, https://www.theguardian.com/australia-news/2016/dec/28/call-to-suspend-centrelink-system-after-single-mother-receives-24000-debt-notice, zuletzt geprüft am 29.08.2021; Knaus, https://www.theguardian.com/australia-news/2017/sep/13/centrelink-scandal-tens-of-thousands-of-welfare-debts-wiped-or-reduced, zuletzt geprüft am 29.08.2021.
Ein in der Art von Finalität geprägtes Verfahren, in dem zugleich eine hohe individuelle Betroffenheit impliziert ist, könnte das Asylverfahren sein. Das Bundesamt für Migration und Flüchtlinge setzt zur Unterstützung der Feststellung von Herkunft und Identität einer Person ein sprachbiometrisches Assistenzsystem ein, das verschiedene Dialekte erkennen soll. Im ungünstigsten Fall kann eine fehlerhafte Prognose des Systems dazu führen, dass ein Asylantrag abgelehnt, die Person ausreisepflichtig oder gar abgeschoben wird; siehe Keiner: Algorithmen als Rationalitätsmythos, 50 f.
Bei dem Modell GPT-2 wurden etwa acht Millionen Webseiten als Grundtrainingsdaten verwendet; siehe Paaß/Hecker: Künstliche Intelligenz, S. 351; Bei dem GPT-3-Modell wurde die Datengrundlage für das Training massiv ausgeweitet und vervielfachte sich entsprechend; siehe Brown, et al., https://arxiv.org/pdf/2005.14165, S. 8 f., zuletzt geprüft am 31.08.2023.
Demaj, Informatik Spektrum 2018, 123 (135); Bull/Mehde konstatieren, dass kaum eine Verwaltungsentscheidung im Rahmen der gebundenen Verwaltung nur eine einzig richtige – und damit auch mögliche – Entscheidung zulässt. Auch wenn dies überspitzt formuliert sein dürfte, zeigt es die Spielräume der Verwaltung auf; siehe Bull/Mehde: Allgemeines Verwaltungsrecht mit Verwaltungslehre, § 13 Rn. 469; Britz/Eifert zeigen ebenfalls das Spannungsfeld zwischen einer Gesetzgebung auf, die die Automatisierung zwecks Effizienz im Blick hat, und den grund- und staatsorganisatorischen Grundbedingungen, siehe Britz, Eifert in: Voßkuhle/Eifert/Möllers: Grundlagen des Verwaltungsrechts, § 26 Rn. 20.
Als Anhaltspunkt lässt sich eine Statistik über die verabschiedeten Gesetze des Bundestages heranziehen. Demnach wurden seit der ersten bis zur 19. Legislaturperiode des Deutschen Bundestages 8.691 Gesetze beschlossen, siehe Deutscher Bundestag, https://de.statista.com/statistik/daten/studie/155525/umfrage/anzahl-der-gesetzesbeschluesse-auf-initiative-von-bundestag-bundesrat-und-bundesregierung/, zuletzt geprüft am 06.08.2021. Diese Statistik ist zurückhaltend zu betrachten, da sie einerseits bereits bestehende gesetzliche Regelungen ausklammert und zum anderen die gesetzlichen Aktivitäten der Landesparlamente nicht abbildet. Dennoch lässt sich mit dem Zahlenwerk abschätzen, um was für einen quantitativen Aufwand es sich handeln dürfte, wenn alle bestehenden oder auch nur die zukünftigen gesetzlichen Regelungen einer Formalisierung im oben genannten Sinne unterzogen werden sollen. Auch die Anpassung und Überprüfung von KI-Systemen lediglich für einen Teil von neuen gesetzlichen Regelungen dürfte in Anbetracht der anspruchsvollen Entwicklungs- und Integrationsprozessen von IT-Verfahren in der öffentlichen Verwaltung eine enorme Herausforderung darstellen; Zur Illustration des Aufwands der Formalisierung von Rechtsbegriffen siehe Wacker, Oberle in: Raabe/Wacker/Oberle/Baumann/Funk: Recht ex machina, S. 112 ff.
Anzumerken ist, dass es sich bei den beispielhaft genannten Tatbestandsmerkmalen nicht um Normen handelt, die voraussichtlich durch KI-Systeme angewendet werden. Dennoch verdeutlichen die Beispiele, dass selbst in einem Bereich, in dem kontextbedingt auf eine präzise Normgestaltung geachtet werden müsste, dies nicht geschieht oder sowohl die Parlamentarier als auch die Fachexperten keine Möglichkeit zur Objektivierung sehen. Dem Gesetzgebungsprozess zu dieser Norm ist ein besonderes Gewicht in puncto Normformulierung beizumessen, da es sich um das IT-Einsatz-Gesetz handelt und mit diesem kontextual ein gewisser Vorbildcharakter verbunden sein könnte.
Das Gleichbleiben der Schwächen und Risiken ist dann denkbar, wenn sich an der technischen Architektur nichts wesentlich ändert, sondern lediglich eine maßgebliche technische Verbesserung der Leistungsfähigkeit erreicht wird.
Bei einer Befragung von KI-Experten im Jahr 2017 schätzen KI-Experten ein, wann eine KI strukturell die menschliche Leistung überholt. Die Befragung und Einschätzung der KI-Experten bezieht sich auf bestimmte Bereiche von KI-Anwendungen, denen ein unterschiedlicher Forschungs- und Entwicklungsfortschritt zugeschrieben wird. Daraus ist das hier aufgezeigte zweite Szenario nicht unmittelbar erkennbar, siehe Grace/Salvatier/Dafoe/Zhang/Evans, jair 2018, 729.
Sehr vorsichtig formuliert dies beispielsweise Mainzer. Er schließt nicht aus, dass zukünftig KI-Modelle entwickelt werden, die mit bewusstseinsähnlichen Zuständen ausgestattet sind und eigene Erlebnisse, Erfahrungen und Identitäten erzeugen könnten, siehe Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 206 f.
Ein Ansatz, der in diese Richtung geht, ist das One-Shot-Learning – das einmalige Lernen. Hier wird versucht – beispielsweise im Bereich der Bilderkennung – ein KI-System dazu zu befähigen, anhand eines Bildes zu lernen Objekte wiederzuerkennen. Gelingt dieser Ansatz in der Breite, könnte ein KI-System anhand eines Beispiels die jeweilige Fähigkeit erlernen und antizipieren. Gegenwärtig werden zum Erlernen bestimmter Fähigkeiten enorme Datenmengen verwendet. Dabei basiert das Lernen auf Korrelation und anhand nicht logischer Sachzusammenhänge – beispielsweise bei der Bilderkennung oftmals durch die Reduzierung der Bilder auf einzelne Pixel.
Die Grundproblematik bei diesem Hindernis besteht darin, dass eine Moral einer Gesellschaft pluralistisch ist und allein aus diesem Grund heraus nicht abstrakt zu beschreiben sein wird. Daraus folgt, dass wenn eine Moral nicht abstrakt beschrieben werden kann, sie auch nicht programmierbar oder maschinell erlernbar ist, siehe dazu ausführlich Abschnitt 2.4.4.
Russell stellt als Beispiel für eine antizipierende KI ein System dar, das eine bestechliche Person beziehungsweise eine Bestechung beobachtet. In dem Funktionskorsett gegenwärtiger KI-Systeme würde dies dazu führen, dass das KI-System die Bestechung beziehungsweise die Bestechlichkeit erlernt. Erlangt ein KI-System hingegen eine Moralität (Russell verwendet nicht den Begriff Moralität, sondern spricht vom Erlernen menschlicher Präferenzen – dem Präferenzutilitarismus) könnte es vielmehr die Bedürfnisse und die Motivlagen der handelnden Personen erkennen und Schlüsse daraus ziehen; siehe Russell: Human compatible, S. 190 f.
Zur Erinnerung: KI-Systeme können gegenwärtig Emotionen und Gefühle von Menschen erkennen beziehungsweise Wahrscheinlichkeiten für deren Vorhandensein berechnen. Ihnen fehlen jedoch menschliche Empathie, ein eigenes Bewusstsein und eine Intentionalität. Voraussetzung für Empathie ist das Vermögen, eigene Gefühle zu haben. Nur dann ist es möglich, sich in andere hineinversetzen und andere Gefühle nachvollziehen zu können. Die Frage, wann ein Bewusstsein vorliegt, ist nicht abschließend zu beantworten. Ein Bewusstsein wird jedenfalls eine Art des Selbstbewusstseins, der Selbstwahrnehmung und der Reflexion des Ichs sowie die Verbindung mit der Umwelt voraussetzen. KI-Systeme verfügen gegenwärtig nicht über diese Fähigkeiten. Obwohl ein KI-System ein Bewusstsein oder Gefühle teilweise simulieren kann, bleibt die Frage, ob diese Simulation mit menschlichen Gefühlen und Bewusstsein gleichzusetzen ist. Menschliche Entscheidungen zeichnen sich gerade durch die Vernetzung von Denken, Fühlen, Handeln und Selbstreflexion aus. Eine Erkennung oder Simulation von einzelnen Gefühlen oder Bewusstsein ist daher damit nicht gleichbedeutend, siehe hierzu Abschnitt 2.4.3.