Skip to main content
Erschienen in:
Buchtitelbild

Open Access 2022 | OriginalPaper | Buchkapitel

Maschinelles Lernen und das Recht auf Nichtwissen

verfasst von : Michael Kreutzer, Johanna Mittermeier

Erschienen in: Selbstbestimmung, Privatheit und Datenschutz

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Das Recht auf Nichtwissen ist ein Teil der informationellen Selbstbestimmung. Als Persönlichkeitsschutz wurde es bislang überwiegend aus medizinischer Sicht betrachtet, dort ist es anerkannt und wird angewendet. Durch den Output Maschineller Lernsysteme, die u. a. mit persönlichen Daten trainiert werden, kann das aufgeklärte Recht auf Nichtwissen ebenfalls bedroht werden. Selbstanalysen, Selbstoptimierungsvorschläge und ggf. Hinweise zur Anpassung, die auf diesem Wege erstellt werden, bergen Gefahren für die freie Entfaltung der Persönlichkeit und sozialisatorischer Beziehungen – die vermittelte Information ist irreversibel. Dieser Beitrag ordnet die technischen Möglichkeiten zu Selbstanalysen, Selbstoptimierungsvorschlägen und Prognosen durch Maschinelles Lernen ein und verknüpft diese mit einer philosophischen Betrachtung entlang folgender Fragestellung: Wie steht es um die Freiheit der Entscheidung, ob das Individuum durch Maschinelles Lernen berechnete, auf sich bezogene Analysen wissen sollen muss oder ob es sich dazu entschließen darf, diese nicht wissen zu wollen.

1 Einleitung und Beispiele

Dieser Beitrag hat nicht die Intention und soll nicht so verstanden werden, dass wissenschaftliches Wissen oder die Errungenschaften der Aufklärung relativiert werden sollen oder dass ein Ignorantentum propagiert werden soll – im Gegenteil: Er argumentiert pro Aufklärung, pro Mündigkeit, pro Freiheit und pro Pluralität.
Bei dem aufgeklärten Recht auf Nichtwissen ist die Willenserklärung, den Output Maschineller Lernsysteme (ML-Systeme) über sich nicht kennen zu wollen, keine Weltflucht, sondern ein informierter Akt und Ausdruck der Mündigkeit. Dabei spielt es keine Rolle, wie akkurat und präzise die Ergebnisse der Maschine sind bzw. wären. Selbst die (ggf. paternalistische) Ausrichtung auf das Wohlergehen des Individuums zählt hier nicht – allein entscheidend ist das legitime Interesse des Individuums auf eine selbst gewählte Freiheit von Wissen über sich selbst.
Um dieses Argument zu entfalten, wird es erforderlich sein, zunächst das Vorhersagepotenzial des Maschinellen Lernens darzustellen (Abschn. 2). Daraufhin erfolgt eine zusammenfassende Darstellung der rechtlichen Lage und ihrer philosophischen Bewertung (Abschn. 3). Darin wird aufgezeigt, dass das Recht auf Nichtwissen von Prognosen über sich selbst weder Verschlossenheit noch Weltflucht noch Dummheit ist, sondern in der Tradition der Aufklärung steht. Da es um Informationen des Menschen über sich selbst geht, werden die gesammelten Erkenntnisse zusammengeführt und der Nutzen für das Individuum dargestellt (Abschn. 4). Auf dieser Basis diskutiert der Beitrag erste Ideen für Schutzmechanismen (Abschn. 5) und endet mit einer zusammenfassenden Schlussbetrachtung (Abschn. 6).
Zwei Beispiele von Apps und ein ins Extrem fortgeschriebenes fiktives Beispiel sollen in den Problemraum einführen. Ein durch Maschinelles Lernen generiertes „Wissen“ über sich selbst, das auf einem digitalen Zwilling beruht, der beispielsweise mittels Fortschreibungen von bisherigem Verhalten – unter Einbezug von Statistiken und Analysen von Verhalten, Kontaktpersonen und Umgebungen – gespeist wird, ist ein realistisches Szenario. Bereits heute gibt es Selbstanalyse- und Selbstoptimierungsapps für das Arbeitsleben wie MyAnalytics von Microsoft Teams. Microsoft nennt folgende Vorteile von MyAnalytics: „Verbessern Sie Ihre Beziehungen [...] Mehr konzentrierte Arbeitszeit [...] Verbessern Sie die Balance zwischen Arbeit und Privatleben [...].“ [14] Die Gesundheitsapp „MindDoc“ wird u. a. beworben mit: „[...] Wenn du mit deiner emotionalen Gesundheit zu kämpfen hast, begleitet dich MindDoc auf deinem Weg zu mehr Kontrolle und effektiveren Strategien für dein emotionales Wohlbefinden. [...]“ sowie „[...] Du erhältst regelmäßig Rückmeldung zu deiner emotionalen Gesundheit, die deine Symptome und emotionalen Ressourcen detailliert beschreiben. Aufgeteilt auf die für dich relevanten Lebensbereiche, gibt dir das Ergebnis einen Einblick, wo es gut läuft und was vielleicht Verbesserungen erfordert. [...]“ An anderer Stelle heißt es auf derselben Webseite: „[...] Du beantwortest drei Mal täglich einige Fragen. Basierend auf deinen Antworten lernt MindDoc, was häufiger oder seltener gefragt werden sollte und zeigt dir zu deinen Herausforderungen passende Inhalte. [...]“ [21]
Das fiktive Beispiel handelt von der Firma „OPTYLMAL – Optimize your life with machine learning“:
OPTYLMAL bringt eine neue App auf den Markt, die „EYLMAB – Enhance your life based on Machine Learning of your app behaviour“. EYLMAB wird damit angepriesen, dass alle Daten ausschließlich auf dem Gerät erhoben, verarbeitet und dargestellt werden und es dadurch die Privatheit besonders gut schützt. Das Programm erfasst, welche Online-Kontakte und -medien die Nutzenden abrufen und speist diese als Trainingsdaten in ein System des Maschinellen Lernens ein, das nach den ersten zwei Wochen bereits Analysedaten ausgibt. Die Auswertungen im Vergleich zu Kontrollgruppen erfolgen vollständig anonym und die Datenschutzbeauftragten haben die Konformität mit der DSGVO bestätigt. Die Nutzenden können in einer Selbstanalyse erfahren, was das Programm bezüglich ihrer Neigungen herausgefunden hat und können sich mit einer Zusatzfunktion Empfehlungen ausgeben lassen. Eine Auswertung lautet beispielsweise: In den Gesprächen, die Du online führst, werden von Dir und Deinen Gesprächspartnern 310 % mehr pessimistische Äußerungen getätigt, im Vergleich zu den Äußerungen, die der Durchschnitt der Bevölkerung macht. Eine andere ist: Die Hörbücher, die Du anhörst, erreichen 63 % des Sprachniveaus der Hörbücher, die die durchschnittliche Bevölkerung anhört. Eine weitere lautet: Die Wohnorte der Personen, mit denen Du interagierst, gehören zu 79 % dem prekären Milieu an. Das Programm empfiehlt nach einer Gesamtauswertung: Auf Basis Deines Verhaltens und Deiner Beziehungen hat dein digitaler Zwilling eine gegenüber der Normalbevölkerung ca. doppelt so hohe Perspektive, in das Prekariat zu kommen und eine gegenüber der Normalbevölkerung ca. dreifach erhöhte Perspektive, unstete Partnerschaften zu führen.
Kurz nach der Einführung der App stellt sich heraus, dass sie bei der Bevölkerung in mehreren Staaten ein ungeahnter Erfolg wird. Ein Konkurrenzunternehmen möchte die App mit dem Geschäftsmodell nachbauen. Das Geschäftsmodell sieht vor, dass Prämien bei Versicherungsgesellschaften bei guten Prognosewerten von Kunden verringert werden, wenn diese ihre aggregierten Daten nach eigener Prüfung an die Versicherung weiterleiten. Ein Staat auf einem anderen Kontinent mit einem anderen Regierungs- und Rechtssystem hat großes Interesse daran, diese App – in kulturell angepasster Form - bei allen seinen Bürgern auf den Smartphones zu installieren. Dieser Staat führt ein Punktesystem ein, welches denjenigen bevorzugt Zugang zu Bildung, Reisen und beruflichem und sozialem Aufstieg gewährt, die die Handlungsempfehlungen der App umsetzen.
Das fiktive Beispiel OPTYLMAL stellt EYLMAB mit einem sehr guten Vorhersagepotenzial dar – wie steht es um das tatsächliche Potenzial des Maschinellen Lernens als Vorhersagetool?

2 Maschinelles Lernen – ein gutes Vorhersagewerkzeug?

2.1 Kausalität und Korrelation

Der Unterschied zwischen Kausalität und Korrelation ist grundlegend für die Bewertung der Leistungsfähigkeit von Maschinellem Lernen als Vorhersagewerkzeug.
Kausalität ist dadurch bestimmt, dass der Begriff der Ursache ausdrückt, dass die Wirkung nicht bloß zu der Ursache hinzukommt, sondern „[...] durch dieselbe gesetzt sei und aus ihr erfolg[t].“ [7]
Korrelation „[...] ist ein Maß für den statistischen Zusammenhang zwischen zwei Datensätzen. Unabhängige Variablen sind daher stets unkorreliert. Korrelation impliziert daher auch stochastische Abhängigkeit. Durch Korrelation wird die lineare Abhängigkeit zwischen zwei Variablen quantifiziert. [...] Korrelationen sind wichtig, weil ein existierender korrelativer Zusammenhang auch Hinweise geben kann, wie sich Variablen in der Zukunft verhalten werden. Damit können Korrelationen Indizien für eine Vorhersage liefern.“ [10]
Eine Maschine erkennt Korrelationen von Variablen großer Datensätze in einer Geschwindigkeit, die ein Mensch nicht erreichen kann. Eine Korrelation zwischen zwei Variablen bedeutet jedoch nicht, dass der Wert einer Variablen ursächlich für den Wert der anderen ist. Sie liefert Hinweise auf das eventuelle Vorhandensein einer Kausalität, die Beziehung der beiden Variablen kann aber auch eine Koinzidenz sein, der keinerlei ursächlicher Zusammenhang zu Grunde liegt.
Hierzu ein Beispiel [20]: Prof. Steinebach und sein Team vom Fraunhofer SIT trainierten ein System des Maschinellen Lernens - unter anderem mit Bildern von Personen in Badesituationen. Zusammen mit den Bildern wurde dem System als ein Merkmal das Geschlecht der Menschen auf den Bildern eingegeben (supervised learning). Dem System wurde dann ein neues Bild mit einer Frau in Badekleidung präsentiert und auf Basis des Trainings erfolgte die Ausgabe, dass es sich um einen Mann handelte. Prof. Steinebach suchte den Grund des Fehllernens und fand heraus, dass die Bierdose, die die Frau in der Hand hielt, der Grund für die fehlerhafte Zuordnung des Geschlechts der Frau war. Die Variable „Geschlecht“ korrelierte offenbar in ihrem Wert „Mann“ mit der Variable „Bierdose in der Hand“. Erst als die Dose unkenntlich gemacht wurde, gab das System das korrekte Geschlecht „Frau“ aus. Im Referenzdatenset waren Bierdosen offenbar ausschließlich in der Hand von Männern aufgetaucht. Es gab also eine Korrelation zwischen Bierdose in der Hand am Wasser und Mann, aber das ist natürlich keine Kausalität. Wir Menschen wissen, dass aus „Bierdose in der Hand am Wasser“ eben nicht „Geschlecht Mann“ folgt. Die Korrelation sagt allerdings vermutlich etwas über gesellschaftliche Konventionen aus: Es scheint für einen Mann weniger ein Problem darzustellen, mit einer Bierdose am Pool, Schwimmbad oder Strand zu sein (oder fotografiert zu werden?) als für eine Frau.

2.2 Vorhersagen mit Maschinellem Lernen

Maschinelles Lernen ist ein neues Werkzeug für Vorhersagen, das sich von statistischen Auswertungen und Fortschreibungen unterscheidet. Grob gesagt besteht der Unterschied zwischen Statistik und Maschinellem Lernen in der Prognostik darin, dass Statistik dazu geeignet ist, Inferenzen bei vorgegebenen Modellen zu finden, während das Maschinelle Lernen auf „empirische Weise“ selbst Vorhersagemodelle konstruiert. In anderen Worten: Wenn statistisch ausgewertet wird, dann werden Zusammenhänge (Korrelationen) gefunden, die zwischen den Daten bestehen. Wenn Maschinelles Lernen angewendet wird, dann vermag das trainierte System für unbekannte Eingabedaten – solange diese eine gewisse Ähnlichkeit mit den Trainingsdaten haben – Zielwerte auszugeben.
Im Folgenden wird das überwachte Maschinelle Lernen betrachtet. Hier gibt es Trainingsdaten, bei denen der Mensch die Eingangs-Parameter und das Ergebnis kennt und diese der Maschine im Lernprozess vorgibt. Der Maschine wird während der Lernphase diese „Grundwahrheit“ (ground truth) präsentiert und sie passt das Modell (das ist der Algorithmus, der durch mathematische Operationen entsteht bzw. „das Wissen, das gelernt wird“) des Systems mit jedem präsentierten Paar Eingangsdatum und Ergebnis an. Nachdem das Modell erstellt wurde, können in dieses (bisher) unbekannte Daten eingegeben werden und das System berechnet das Ergebnis, also die „Vorhersage“.
Grob teilt man die verschiedenen Verfahren des überwachten Lernens in die Kategorien Klassifikation und Regression ein. Bei der Klassifikation soll ein Modell den Eingabedaten einen Zielwert aus einer endlichen diskreten Menge zuordnen. Ein Beispiel wäre die Ziffernerkennung der Postleitzahlen auf Briefen. Bei der Regression werden stetige Wertverläufe vorhergesagt, z. B. die Temperatur bei der Wettervorhersage.
Für statistische Methoden muss ein Modell ausgewählt werden, das Domänenwissen über die Daten einbezieht. Beim Maschinellen Lernen kann die Domänen-agnostische Konstruktion eines Modells von der „Essenz“ des modellierten Systems abweichen. Dies ist insbesondere dann der Fall, wenn wenige Trainingsdaten vorhanden sind oder wenn diese einen Bias enthalten. Die Maschine findet dann nicht valide Prädikatoren - vergleiche obiges Beispiel: Bierdose in der Hand am Wasser bedeutet Mann. Es gibt Schnittmengen zwischen den beiden Ansätzen, die sich nutzen lassen. Mittels statistischer Analyse können beispielsweise Hinweise gefunden werden, was ein guter Prädiktor sein könnte.
In der Statistik dienen Variablen (Merkmale) dem Finden von (erklärbaren) Wahrscheinlichkeitswerten, während sie beim Maschinellen Lernen vielfach in Richtung Passfähigkeit für Vorhersagen ausgewählt werden. Zudem beinhalten Systeme des Maschinellen Lernens Dutzende, manchmal sogar Hunderte Variablen (Merkmale) - viel mehr als herkömmliche statistische Modelle. In der Anwendung von Maschinellem Lernen als Vorhersagewerkzeug ist das Ziel in der Regel nicht, die Bedeutung einzelner Merkmale möglichst präzise zu halten, sondern vielmehr die Vorhersagekraft eines Modells hochzutreiben.

2.3 Chancen und Grenzen von Prognosen durch Maschinelles Lernen

Die Erkennungsleistungen und Prognosen durch Maschinelles Lernen, insbesondere durch Deep Learning, können den Menschen in vielen Aufgaben unterstützen. Sie können sogar in vielen kognitiven Bereichen über die menschliche Leistungsfähigkeit hinausgehen. Ein Beispiel für eine herausragende Unterstützungsleistung in der medizinischen Diagnostik ist die Früherkennung von Herz- und Lungenkrankheiten. [8] Substanzielle Entlastungen des Menschen finden sich beispielsweise durch Anwendungen des Maschinellen Lernens in der Bild- und Spracherkennung, bei Web-Suchen, in der Betrugserkennung, bei E-Mail- bzw. Spam-Filterung und bei Kreditwürdigkeitsprüfungen. [18] Beispiele für Leistungen durch Maschinelles Lernen, die diejenigen des Menschen übertreffen, sind belegt bezüglich des Go-Spiels, selbstfahrenden Autos und Bildklassifikation. [18]
Beim Einsatz von Maschinellem Lernen gibt es auch Grenzen und Probleme, gerade auch im Themenfeld der Vorhersagbarkeit. Vier davon stehen in besonders engem Zusammenhang mit der hier behandelten Fragestellung:
  • Underfitting und Overfitting von Trainingsdatensätzen:
    Die Intuition zu Underfitting und Overfitting trifft bereits recht gut das mit diesen Wörtern verknüpfte Problem „Im statistischen Kontext beschreibt Underfitting, dass die Einflussvariablen die Zielvariable nicht hinreichend gut beschreiben. Das statistische Modell für die Beschreibung der Daten ist zu einfach (z. B. lineares Modell, nur eine Einflussvariable). Das Modell sagt die Zielvariable dann nicht gut genug vorher. Die Maßzahlen für die Modellgüte sind zu niedrig. Die Modellgüte erreicht keine hinreichend hohen Werte. Sinnvolle Vorhersagen sind somit nicht durchführbar. Hierfür gibt es meist zwei wesentliche Gründe:
    • 1. Das Modell, d. h. der funktionale Zusammenhang bzw. im Data Mining der gewählte Algorithmus passt nicht
    • 2. Wesentliche Einflussfaktoren wurden nicht berücksichtigt.“ [9]
    Demnach ist das Modell beim Underfitting nicht passend bzw. „zu grob“. Beim Overfitting ist das Modell wiederum zu stark an die Trainingsdaten angepasst: „In der Statistik spricht man von Overfitting (oder Überanpassung), wenn das Modell auf die Trainingsdaten spezialisiert ist. Im Trainingsdatensatz erzielt man dann eine sehr hohe Modellgüte. Bei Anwendung auf Testdaten ergeben sich deutlich niedrigere Werte für die Modellgüte. Das Modell ist an die Trainingsdaten übermäßig angepasst, eine Übertragung des Modells auf die Grundgesamtheit (Generalisierung) ist dadurch nicht möglich.
    Folgende Faktoren begünstigen ein Overfitting:
    • 1. Geringe Anzahl von Beobachtungen in der Trainingsmenge im Vergleich zu den Einflussvariablen. Insbesondere im Data Mining ist Overfitting Neural Network meist auf diesen Punkt zurückzuführen. Bei vielschichtigen neuronalen Netzen werden tausende von Parametern geschätzt!
    • 2. Verzerrung (Bias) bei der Auswahl der Stichprobe aus der Grundgesamtheit.
    • 3. Spezielles Overfitting Machine Learning entsteht dadurch, dass die Modelle zu sehr trainiert werden. Durch wiederholtes Aufsplitten des gleichen Datensatzes in Trainings- und Testdaten werden die Modelle immer besser hinsichtlich der Modellgüte. Wird zu viel trainiert, beschreiben die Modelle allerdings nur mehr die Trainingsdaten, eine Übertragung auf die Grundgesamtheit misslingt.“ [9]
  • Vorurteile, die in Modellen von Maschinellem Lernen entstehen: Eine vereinfachte Version der wichtigsten Fehlerquellen wird in [15] gegeben. Sie enthält die vier Punkte: subjektive Definition von Zielvariablen, falscher Umgang mit Trainingsdaten, ungenaue Feature-Selection und Maskierung bzw. verborgene Diskriminierung.
  • Über längere Zeit nicht bemerkte Fehler wegen mangelnder Erklärbarkeit Maschineller Lernverfahren:
    Warum bestimmte ML-Systeme entsprechende Ergebnisse generieren, wie z. B. Prognosen von Deep Neural Networks ist häufig kaum nachvollziehbar. Entsprechend stark widmet sich derzeit die Forschung diesem Aspekt. Dieser Forschungszweig heißt „Erklärbarkeit Maschineller Lernverfahren“ (Explainable Machine Learning). Solange die Wirkweise von ML-Systemen noch nicht ausreichend nachvollziehbar ist, können wesentliche Probleme in dem gelernten Vorhersagemodell über lange Zeit unbemerkt bleiben und zu Prognosefehlern führen.
  • Ergebnisse sind immer Wahrscheinlichkeiten (vgl. [13])
    Eine fundamentale Eigenschaft von Maschinellem Lernen ist, dass die Ergebnisse immer eine Wahrscheinlichkeit darstellen. Diese Wahrscheinlichkeit beschreibt die Übereinstimmung, die das trainierte System zwischen den vorliegenden Daten und den Trainingsdaten feststellen kann. Dabei besteht immer die Chance, dass das System fehlerbehaftet ist. Je nach Methode und Datengrundlage sind hier Fehlerwahrscheinlichkeiten im Bereich von einem Promille bis hin zu 20 % und mehr zu beobachten. Das Maß, in dem solche Fehler akzeptabel sind, ist stark abhängig von der Anwendung. Während im Marketing eine Fehlerrate von 20 % immer noch ein erfolgreiches Instrument beschreiben kann, ist dies in einer Sicherheitsanwendung eventuell ein Ausschlusskriterium: Ist jeder fünfte Empfänger eines Werbeschreibens nicht an einem Produkt interessiert, kann die Kampagne durchaus erfolgreich sein. Wird jede fünfte Transaktion eines Kreditinstituts als Betrugsversuch angesehen und gestoppt oder jede fünfte Internetverbindung unterbunden, da das Maschinelle Lernen einen Angriff vorhersieht, ist dies für die Betroffenen unzumutbar.
Nach dieser informatischen Betrachtung von ML als Vorhersagetool folgt nun eine Darstellung der rechtlichen Lage bezüglich des Rechts auf Nichtwissen und ihrer philosophischen Bewertung, um den Problemraum aufspannen zu können.

3 Recht auf Nichtwissen

Im folgenden wird das Recht auf Nichtwissen aus dem Blickwinkel einschlägiger Urteile und Gesetze betrachtet, um aufzuzeigen, dass es in der freien Entfaltung der Persönlichkeit begründbar ist. Anschließend wird diese rechtliche Betrachtung aus einer philosophischen Sicht reflektiert. Um mögliche Auswirkungen auf den Willen und die Freiheit zu verdeutlichen, wird nachfolgend ein fiktives Szenario aufgezeigt. Abschließend wird mit philosophischen Mitteln versucht, das Argument zu verteidigen, dass die Ausübung eines Rechts auf Nichtwissen eine Ausführung der eigenen Autonomie ist und rationales Handeln ausdrücken kann.

3.1 Juristische Rahmenbedingungen

Das Recht auf Nichtwissen basiert in der Bundesrepublik Deutschland wesentlich auf Art. 2 Abs. 1 GG i. V. m. Art. 1 Abs. 1 GG. Dieser Artikel (Art. 2 Abs. 1 GG) enthält ein Recht auf die freie Entfaltung der Persönlichkeit, aus welchem zum einen die allgemeine Handlungsfreiheit abgeleitet wird und zum anderen (i. V. m. Art. 1 Abs. 1 GG) das allgemeine Persönlichkeitsrecht. Dieses wurde wiederum zum Recht auf informationelle Selbstbestimmung konkretisiert.
Das Volkszählungsurteil vom 15.12.1983 des Bundesverfassungsgerichtes, durch das die informationelle Selbstbestimmung als Grundrecht anerkannt wurde, besagt, dass „[d]iese Befugnis [der Selbstbestimmung] [...] unter den heutigen und künftigen Bedingungen der automatischen Datenverarbeitung in besonderem Maße des Schutzes [bedarf]. Sie ist vor allem deshalb gefährdet, weil bei Entscheidungsprozessen nicht mehr wie früher auf manuell zusammengetragene Karteien und Akten zurückgegriffen werden muß, vielmehr heute mit Hilfe der automatischen Datenverarbeitung Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren Person (personenbezogene Daten [vgl. §2 Abs. 1 BDSG]) technisch gesehen unbegrenzt speicherbar und jederzeit ohne Rücksicht auf Entfernungen in Sekundenschnelle abrufbar sind. Sie können darüber hinaus – vor allem beim Aufbau integrierter Informationssysteme – mit anderen Datensammlungen zu einem teilweise oder weitgehend vollständigen Persönlichkeitsbild zusammengefügt werden, ohne daß der Betroffene dessen Richtigkeit und Verwendung zureichend kontrollieren kann.“ [5]
Im allgemeinen Persönlichkeitsrecht ist das Recht auf Nichtwissen als ,,negative Variante des Rechts auf informationelle Selbstbestimmung“ [16] umfasst und bezieht sich insbesondere auf Informationen zur genetischen Veranlagung einer Person. [2]
Der Zweck des am 1. Februar 2010 in Kraft getretenen Gendiagnostikgesetzes ist die Achtung und der Schutz der Würde des Menschen, ebenso wie die Wahrung des Rechts auf informationelle Selbstbestimmung. Der BGH führt hierzu aus, dass die genetische Konstitution die Persönlichkeit des Einzelnen prägt, wesentliche Rahmenbedingungen seiner Existenz bestimmt und Informationen hierzu Aussagekraft für die persönliche Zukunft einer Person haben: „Die Kenntnis von Erbanlagen, insbesondere genetisch bedingten Krankheitsanlagen, kann maßgeblichen Einfluss auf die Lebensplanung und Lebensführung einer Person haben und berührt deshalb unmittelbar ihr in Art. 2 Abs. 1 GG gewährleistetes Selbstbestimmungsrecht.“ [3]
Ein Recht auf Nichtwissen ist in Deutschland bisher überwiegend in Privatrechtsverhältnissen bedeutsam und fokussiert sich auf die Genomanalyse, dem Verfahren der Analyse des Erbguts eines Menschen. Im nächsten Abschnitt wird beispielhaft gezeigt, dass auch im philosophischen Kontext dieses Recht bereits gefordert wurde.

3.2 Philosophische Betrachtung

Ein Recht auf Nichtwissen hat zweierlei Funktion: Es dient als Schutz des vorhandenen Wissens sowie einer gewollten Aufrechterhaltung eines Zustands des Nichtwissens. Dieses Recht ist ein Anrecht auf ein willentliches Nicht-Wissen-Wollen.
Hans Jonas zielte 1985 im Rahmen einer verantwortungsethischen Betrachtung erstmals auf eine Forderung auf ein Recht auf Nichtwissen, um die Abwehr von identitätsstörenden Informationen zu ermöglichen.
„Niemals darf einem ganzen Dasein das Recht zu jener Ignoranz versagt werden, die eine Bedingung der Möglichkeit authentischer Tat, d. h. der Freiheit überhaupt ist; oder: Achte das Recht jedes Menschen, seinen eigenen Weg zu finden und eine Überraschung für sich selbst zu sein.“ [11, S. 190]
Jonas zeigt auf, dass dieses „Selbst-Werden“ verhindert werden kann, wenn verfügbares Wissen ungewollt gewusst werden muss. Durch diese identitäre Bewegung desjenigen Lebenskonzepts, kann die freie Entfaltung der jeweiligen Persönlichkeit eingeschränkt und manipuliert werden. Nach Hans Jonas ist diese
„Unwissenheit allerseits [...] eine Vorbedingung der Freiheit.“ [11, S. 188]
Entscheidet man sich explizit für ein Wissen-Wollen, liegt dies in der Verantwortung jedes Einzelnen und gehört zu seinem Weg des Selbst-Werdens. Diese Selbstverantwortung ist die eines mündigen, freien Menschen. Die Unwissenheit ist selbst gewollt. Man will etwas nicht wissen, man erkennt und willigt in die eigene Unwissenheit ein – nicht aus Mangel an Wissen, sondern aus dem Bewusstsein heraus, dass Selbsterkenntnis ein nachhaltigeres Konzept sein kann, als von außen auferlegte Konventionen zu übernehmen. Mit der Forderung eines Rechts auf Nichtwissen geht es um die Aufrechterhaltung des Möglichkeitsraums einer offenen, unbekannten und selbstbestimmten Zukunft.
Um mögliche Auswirkungen des Wissen-Müssen für das Individuum und die Gesellschaft aufzuzeigen, wird im kommenden Abschnitt ein fiktives Szenario dargestellt.

3.3 Fiktiver Raum und Wirklichkeit

Im Folgenden werden im Gegensatz zu unserer Wirklichkeit - in der Algorithmen noch nicht komplex genug sind, um wahre Aussagen zu treffen - beispielhaft zwei mögliche Szenarien vorgestellt, um auf den Willen und die Freiheit einzugehen. In beiden Szenarien können Algorithmen wahre, fehlerfreie Aussagen treffen.
Im ersten Szenario würde der Algorithmus voraussagen, dass ein Mensch in fünf Jahren ein Haus baut. Was würde dies nun für den Menschen bedeuten? Kann er überhaupt noch eine freie und willentliche Entscheidung treffen? Kann er sich entscheiden sein Haus nicht in fünf Jahren zu bauen? In unserem fiktiven Szenario wäre die Antwort ganz klar „Nein“. Dieser Mensch kann sich nicht mehr willentlich entscheiden, denn Maschinen treffen immer fehlerfreie Aussagen. Diese Wahlmöglichkeit wäre ihm verwehrt und der Wille würde keine Rolle spielen, denn die Vorhersage ist gesetzt.
Stellen wir uns nun Szenario 2 vor, in welchem Algorithmen fehlerfreie Vorhersagen treffen können und zugleich ein Staat utilitaristische Ziele zum Nutzen aller durchsetzen würde. In diesem Fall wäre es für das Allgemeinwohl am besten, wenn ein Mensch sein Haus in fünf Jahren baut. Was würde dies nun für diesen Menschen bedeuten? Es müsste bedeuten, dass dieser Staat diesen Menschen zwingt, sein Haus in fünf Jahren zu bauen, weil es für das Allgemeinwohl das prognostiziert Sinnvollste wäre. Wenn es diesen fiktiven Raum gäbe, in dem Maschinen Aussagen in die Zukunft treffen könnten und ein Staat das Allgemeinwohl über alles stellt, dann könnte eine totalitäre Herrschaftsform sich auf die technischen Möglichkeiten berufen und den menschlichen Willen entwerten.
Das Leben, wie wir es bisher kennen, mit seinen freien Entscheidungen, wäre in solchen Szenarien nicht gegeben. Würden Bürgerinnen und Bürger „Wissen-Müssen“, wäre eine wesentliche Bedingung für Freiheit nicht gegeben, denn Freiheit schließt Zwang aus. Und ohne die Wahlmöglichkeit eines Rechts auf Nichtwissen wäre eine freie Willensentscheidung nicht mehr gegeben. Dies steht aber dem aufklärerischen Ideal entgegen, dass wir wissentlich unsere Entscheidungen treffen (können).
Um diesen Konflikt zu lösen, wird im folgenden Abschnitt aufgezeigt, dass bestimmte Formen des Nichtwissens durchaus wünschenswert und wollbar sind. Dafür wird sich im folgenden beispielhaft einer systematischen Behandlung der Begriffsstruktur von Thomas von Aquin beholfen, um die Voraussetzungen einer freiwilligen Handlung näher zu betrachten.

3.4 Nichtwissen und Freiwilligkeit

Friedo Ricken hat in seinem Buch „Allgemeine Ethik“ [23] eine theologische Abhandlung von Thomas von Aquin aufgegriffen. Obwohl es sich hier bei Thomas von Aquin um keine normativ verfasste Abhandlung handelt, ist diese systematische Behandlung der Begriffsstruktur des Verhältnisses von Nichtwissen und Wollen bis heute eine der differenziertesten. Es geht in dieser Darstellung darum, wie sich Nichtwissen zum Wollen bzw. zur Freiwilligkeit verhält. Die Frage ist, ob Nichtwissen in irgendeiner Weise abhängig vom Wollen ist. Diese Fragestellung dient dazu, die Freiwilligkeit bzw. Unfreiwilligkeit einer Handlung festzustellen. Thomas von Aquin hat zu dem Verhältnis von Nichtwissen und Wollen drei Möglichkeiten herausgearbeitet. Die Freiwilligkeit einer Handlung ist noch nicht entschieden, sobald jemand etwas will – er muss dies auch wissentlich tun.
Am Beispiel eines Jägers werden drei Möglichkeiten von Nichtwissen und Wollen aufgezeigt. Die Geschichte, die aufgezeigt wird, handelt von einem Jäger, der bei der nächstmöglichen Gelegenheit seinen Feind erschießen will.
Die nachfolgenden drei Möglichkeiten zeigen eine systematische Differenzierung von Nichtwissen und Wollen:
1.
Das Wollen begleitet das Nichtwissen
Ein Jäger geht in den Wald auf Jagd und schießt auf eine irrtümlich für ein Reh gehaltene Gestalt. Im Nachhinein stellt sich heraus, dass diese Gestalt sein Feind war, den er ohnehin töten wollte. Die Frage ist nun, ob er seinen Feind freiwillig erschossen hat.
Die Antwort hierzu lautet „Nein“. Er wollte seinen Feind nicht erschießen. Warum? Man kann nichts wollen, was man nicht weiß. Wenn ich etwas will, muss ich wissen was ich will. Also ist die Handlung nicht freiwillig. Dennoch ist die Handlung nicht unfreiwillig, sie ist weder freiwillig noch unfreiwillig. Unfreiwillig ist nur, was gegen unseren Willen geschieht. Was in der Handlung geschieht, geschieht nicht gegen den Willen des Jägers, denn er wollte bei der nächsten Gelegenheit seinen Feind erschießen. Die Freude über den Tod des Feindes drückt aus, dass die Tat auch ohne seinem Wissen, seinem Wollen entspricht. Die Handlung wurde jedoch ohne Wissen ausgeführt. Und dennoch von einem Wollen begleitet, welches die Handlung bejahte.
 
2.
Die Unwissenheit ist Folge des Wollens
Hierbei wird zwischen zwei Handlungen unterschieden:
1.
Die Unwissenheit ist selbst gewollt – man will etwas nicht wissen. Zum einen, eine bewusst gewollte bzw. gesuchte Unwissenheit. Man unterlässt es absichtlich sich zu informieren, man möchte absichtlich in Unwissenheit bleiben. Thomas von Aquin begründet diese absichtliche Unwissenheit (Ignorantia affectata) damit, sich mit dieser Unwissenheit zu entschuldigen und bezeichnet diese als „sündhafte Unwissenheit“.
Eine Handlung ist durch ein absichtliches Tun gekennzeichnet und eine Unterlassung durch ein absichtliches Nicht-Tun. Die Frage ist nun ob Unterlassung eine Form von Handlung ist? Wenn ein scheinbares Nichts-Tun willensabhängig erfolgt, hat es formal den Status des Tuns. Wenn eine Person aufgrund des eigenen Willens etwas unterlässt oder absichtlich etwas nicht tut, dann heißt es nicht, dass das Wollen unabhängig von einer Handlung ist. Das bestärkt erneut die Annahme, dass unser Wille immer auf eine Handlung zielt. Somit hebt die Unterlassung in Bezug zum Wollen die Beziehung zwischen dem Tun und dem Wollen nicht auf, sondern verstärkt diese Verbindung.
 
2.
Zum anderen, dass man etwas nicht weiß, was man wissen könnte und wissen müsste. Man überlegt nicht, was in der betreffenden Situation zu bedenken wäre. Wie beispielsweise, dass zwischen parkenden Autos ein kleines Kind hervorrennen könnte.
 
 
3.
Die Unwissenheit und die aus der Unwissenheit resultierende Handlung ist in keiner Weise gewollt
Es besteht keine ursächliche Abhängigkeit zwischen Wollen und Nichtwissen. Diese Unwissenheit hebt die Freiwilligkeit auf, da das Wollen das Nichtwissen nicht begleitet – sie stehen in keinerlei Beziehung zueinander.
 
Warum ist Freiwilligkeit relevant für ein Recht auf Nichtwissen? Eine Handlung ist dann freiwillig, wenn sie absichtlich, mit Wissen und Willen durchgeführt wird. Das geforderte Recht auf Nichtwissen steht nicht in Zusammenhang mit verdrängtem Wissen. Unbewusstes Nichtwissen könnte z. B. dafür genutzt werden, sich im Nachhinein mit der Unwissenheit zu entschuldigen, um sich der Verantwortung der Folgen zu entziehen. In diesem Beitrag wird ein reflektiertes, aufgeklärtes Recht auf Nichtwissen betrachtet. Es handelt sich hier um ein ausdrückliches Nicht-Wissen-Wollen zum Zwecke der Unterbindung von unüberschaubaren und überschaubaren Auswirkungen. Die Möglichkeit über Kenntnis der gezogenen Schlüsse und Vorhersagen über einen selbst, muss demnach immer ein bloßes Angebot bleiben.

3.5 Aufgeklärtes Nichtwissen

Willensfreiheit ist eine Vorbedingung für Handlungsfreiheit, welche in unserem Grundgesetz von Artikel 2 Abs. 1, der freien Entfaltung der Persönlichkeit, abgeleitet wird. In diesem Beitrag wird eine Unterscheidung zwischen verdrängtem Wissen und Unwissenheit als Folge des Willens getroffen. Es handelt sich hier um ein ausdrückliches Nicht-Wissen-Wollen. Denn ein Überschuss an Wissen kann die individuellen Entfaltungsmöglichkeiten einschränken und somit ein Individuum an einer authentischen Lebensgestaltung hindern. Die hier verstandene Unwissenheit ist gewollt – man will etwas nicht wissen und man erkennt und willigt in die eigene, in diese Unwissenheit ein. Die Entscheidung, ein aufgeklärtes Recht auf Nichtwissen in Anspruch zu nehmen, kann zu einer bewussten Gestaltung der Zukunft anleiten und befreit von extern Übernommenem. Ein aufgeklärtes Nichtwissen ist stets begleitet vom Bewusstsein des eigenen Nichtwissens und somit eine beabsichtigte Entscheidung.
Im Zusammenhang mit der Entscheidungsfreiheit führt der BGH aus, dass die „[i]ndividuelle Selbstbestimmung [voraussetzt] – auch unter den Bedingungen moderner Informationsverarbeitungstechnologien – [...], daß [sic.] dem Einzelnen Entscheidungsfreiheit über vorzunehmende oder zu unterlassende Handlungen einschließlich der Möglichkeit gegeben ist, sich auch entsprechend dieser Entscheidung tatsächlich zu verhalten. Wer nicht mit hinreichender Sicherheit überschauen kann, welche ihn betreffende [sic.] Informationen in bestimmten Bereichen seiner sozialen Umwelt bekannt sind [...], kann in seiner Freiheit wesentlich gehemmt werden, aus eigener Selbstbestimmung zu planen oder zu entscheiden.“ [4]
Ein Recht auf Nichtwissen zielt auf den Schutz eines jeden Einzelnen, Wissen über seine Person, anderen oder der Person selbst zugänglich zu machen, ohne dass dies von der Person gewollt wurde. Mit dem Recht auf Nichtwissen im digitalen Kontext wird eine situationsrelevante Wahl-, Entscheidungs- und Handlungsfreiheit gefordert. Eine informierte Einwilligung ist immer dann gegeben, wenn die Entscheidung eines Menschen absichtlich, mit Verständnis und frei von kontrollierendem Einfluss anderer erfolgt.

3.6 Nichtwissen – Konform zur Aufklärung?

In seinem Buch „Vom Nutzen des Nichtwissens“ schreibt Peter Wehling, dass „Autonomie [...] (mindestens) ebenso gut darin bestehen [kann], bewusst mit Ungewissheit und Offenheit zu leben, wie darin, das eigene Leben auf der Grundlage und nach Maßgabe tatsächlicher oder vermeintlicher Gewissheiten [...] zu planen.“ [24]
Der Wunsch auf eine offene, unbekannte Zukunft kann zu einer bewussten Gestaltung der Zukunft anleiten. Das hier geforderte Recht ist nicht mit der Aufklärung in Uneinigkeit, denn der bekannte und Gesellschaft prägende Leitspruchs Kants zur Aufklärung lautet: „Aufklärung ist der Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit.“ [12]
Selbstverschuldet bedeutet, dass die Fähigkeit (zu denken) vorhanden ist, aber man tut es aus Bequemlichkeit, Anpassung, Feigheit etc., nicht. Unmündigkeit ist die Unfähigkeit sich seines eigenen Verstandes, ohne Anleitung von außen, zu bedienen. Was braucht man laut Kant nun zur Aufklärung? Verstand um zwischen wahr und falsch zu unterscheiden. Mut sich seines Verstandes zu bedienen. Freiheit als Voraussetzung dies zu dürfen. Und Vernunft um Urteile zu fällen und die Wahrheit zu erkennen.  [22]
Der Ausgang aus dieser selbstverschuldeten Unmündigkeit, sei nun im stetigen Bestreben zu finden „[...] seine [...] Erkenntnisse zu erweitern, von Irrtümern zu reinigen [...].“ [12] In der menschlichen Wahrnehmung oft unbeachtet bleibt dabei die Einsicht, dass der Verzicht auf lebenskonzept- oder identitätsstörende Informationen, Resultat dessen sein kann, „[...] sich seines Verstandes ohne Leitung eines anderen zu bedienen.“ [12] Ein Überschuss an Wissen kann das Selbst-Werden eines Menschen einschränken und die Abwehr von identitätsstörenden Informationen ist der Grund, der diese Wissensabwehr durchaus rational erscheinen lässt.
Um ein Recht auf Nichtwissen anzuerkennen, muss (natürlich) ein gewisses Wissen vorausgesetzt werden. Im Unterschied zu wirklich propositionalem Wissen unterscheidet sich das aufgeklärte Recht auf Nichtwissen dahingehend, dass dieses Recht ein Wissen über mögliche Auswirkungen dessen verlangt, welche einen gewollt zu einer Entscheidung bzw. Handlung bewegen. Dieses Nicht-Wissen-Wollen ist mehr als lediglich die Abwesenheit von Wissen, diese Entscheidung setzt Wissen über das zu Entscheidbare voraus. Diese Schwierigkeit bleibt bei der Ausübung eines Rechts auf Nichtwissen (im digitalen Kontext) bestehen.
Dass das Recht auf Nichtwissen Funktionalitäten haben kann, wird im folgenden vertieft.

4 Funktionalität von Nichtwissen

Das Kapitel „Das Geheimnis und die geheime Gesellschaft“ in Georg Simmels 1908 veröffentlichtem Buch „Soziologie“ beschäftigt sich mit der Funktionalität von Nichtwissen in der zwischenmenschlichen Begegnung. Demnach beruhen gelingende soziale Beziehungen nicht allein darauf, wie viel die Beteiligten voneinander wissen, sondern sie setzen „ebenso ein gewisses Nichtwissen, ein, freilich unermeßlich wechselndes Maß gegenseitiger Verborgenheit voraus.“ [19] Vertrauen bildet eine der synthetischen Kräfte in einer Gesellschaft. Wenn alle alles voneinander wüssten, müssten wir einander nicht mehr vertrauen.
In den USA gibt es ein sog. „therapeutic privilege“. Dies ist das Recht des behandelnden Arztes, einem Patienten Informationen vorzuenthalten, wenn befürchtet wird, dass die Offenlegung dem Patienten unmittelbaren und ernsthaften Schaden zufügen könnte (z. B. bei Vorliegen einer schweren Depression). Dieses „therapeutic privilege“ wäre nicht mehr effektiv anwendbar, wenn ein rein Maschinelles Diagnostiksystem (genauer: Quasi-Diagnostiksystem) frei verfügbar ins Internet gestellt wird. Dieser Schutz vor belastenden Informationen – seien sie falsch und selbst wenn sie richtig sind – lässt sich aus dem medizinischen Bereich auf die hiesige Problemstellung übertragen.
Wissen muss nicht unbedingt wünschenswerte Konsequenzen haben, insbesondere, wenn Wissen unvollkommen oder fälschlich generiert wurde - im Zweifelsfall sogar gegen eine Person verwendet wird. Fehlanalysen, welche das Lebenskonzept eines Menschen beeinflussen (können), sind denkbar und möglich, und gerade deswegen ist es nötig, mögliche Auswirkungen unter den Aspekt der Entscheidungsfreiheit zu stellen. Dem nichtwissenden Individuum könnten, wenn es Kenntnis über alle vorhandenen Informationen hat, belastende Konsequenzen bekannt werden und vielleicht möchte es gerade deswegen vor diesem „Wissen“ geschützt werden. Es muss eine gewollte, wissentliche und absichtliche Entscheidung bleiben, diese Information zu erhalten, denn die vermittelte Information ist irreversibel.
Systeme müssen von vornherein im Bewusstsein dieser Verantwortung entworfen und geeignete Sicherungsmechanismen implementiert werden. Inwiefern das Individuum Kenntnis von Vorhersagen über sich erhalten soll oder muss, ist eine Frage der informationellen Selbstbestimmung. Zur Wahrung der informationellen Selbstbestimmung dienen unter anderem technische Schutzmechanismen. Ein auf das Problem bezogenes Angreifermodell und technische Schutzmechanismen werden im Folgenden vorgeschlagen.

5 Angreifermodell und Schutzmechanismen

Die Beachtung des Rechts auf Nichtwissen lässt sich technisch beispielsweise mit Privatheitsmechanismen unterstützen. Hierfür gibt es verschiedene technische Mechanismen wie Selbstschutz (Filtertechnologien), Verhinderung des Entstehens (Anonymisierung bei Auswertung zur Verhinderung von Personenbezug) und kryptographische Mechanismen, die perspektivisch praktikabel werden könnten, wie Fully Homomorphic Encryption. Welche technischen Schutzmechanismen zu wählen sind, hängt essenziell von der identifizierten Bedrohung, den Schutzzielen und dem konkreten Angreifermodell ab. Eine grobe Darstellung von aus unserer Sicht plausiblen Annahmen für diese Kategorien ist in Tab. 1 dargestellt.
Tab. 1
Wert, Bedrohung, Schutzziele, und eventuelle Angreifermodelle und technische Mechanismen des Rechts auf Nichtwissen
Kategorie
Recht auf Nichtwissen
Wert
Informationelle Selbstbestimmung, konkret: „Negative Variante des Rechts auf informationelle Selbstbestimmung“ [16]
Bedrohung
Einschränkung der Mündigkeit und Selbstbestimmung von Menschen, z. B. durch gezielt eingesetzte, plausible, ggf. psychisch belastende Information über sie selbst. Diese können beispielsweise durch einseitig gewählte Trainingsdaten erzeugt werden, was zur beabsichtigten Verzerrung von Ergebnissen führt
Individuell gesehen ggf. eine gezielte Herbeiführung
\(\bullet \) mentaler Belastung
\(\bullet \) Gefährdung der persönlichen Offenheit für die Zukunft
\( \bullet \) Gefährdung der Leichtigkeit/der Unbeschwertheit der eigenen Lebensführung
Schutzziele
Kann als Ausprägung des Schutzziels „Beherrschbarkeit“ angesehen werden („Freiheit von Nebenwirkungen“) – s. Dierstein [6]: „Beherrschbarkeit (controllability) – Sicherheit vor dem System – die Sicht der Sachlage, bei der Rechte oder schutzwürdige Belange der Betroffenen durch das Vorhandensein oder die Nutzung von IT-Systemen nicht unzulässig beeinträchtigt werden“
\(\bullet \) Variante von „Plausible Deniability“, glaubhafte Abstreitbarkeit
\(\bullet \) Variante von „Verfügbarkeit“ (vgl. Spam)
Angreifermodell
\(\bullet \) Unternehmen im (mentalen) Gesundheitsbereich, Werbeindustrie, Versicherungsbranche
\(\bullet \) Organisationen und Staaten, die „mit der Wahrheit“ einschüchtern, verunsichern, manipulieren und Macht demonstrieren möchten
Techn. Mechanismen
Selbstschutz: Filtertechnologien (vgl. Spam)
Verhinderung des Entstehens: Anonymisierung bei Auswertung zur Verhinderung von Personenbezug, Fully Homomorphic Encryption;
Nichttechnische Empfehlung („Beipackzettel“), z. B.: „Wenn Sie diese Informationen konsumieren, dann könnten Sie sich nach und nach in eine Filterblase begeben – die gegebenen Vorhersagen können sich zu selbsterfüllenden Prophezeiungen ausweiten.“

6 Schlussbetrachtung

Im US-amerikanischen Science-Fiction-Film Minority Report wird wegen der Existenz von false positives von vorhergesagten Morden (eine kleine Anzahl von Morden, die vorhergesagt wurden, wären retroperspektivisch auch ohne Verhaftung nicht verübt worden) das sogenannte „Precog-Programm“ eingestellt. In der Bewertung bezüglich der deutschen und EU-Gesetze hätte dieses Programm des predictive policing gar nicht gestartet werden dürfen [1]: „Das Minority-Report-Szenario, nämlich allein auf der Basis statistischer Analysen künftige Kriminelle vorherzusagen, wäre hierzulande rechtlich gar nicht möglich. Der Bayerische Landesbeauftragte für den Datenschutz Thomas Petri, [...] sagt: ‚Das kollidiert mit dem Grundsatz der Unschuldsvermutung.‘ Außerdem seien einem derartigen Profiling ‚auch EU-rechtlich enge Grenzen gesetzt. Artikel 11 der EU-Richtlinie über den Datenschutz in der Strafjustiz untersagt jedenfalls grundsätzlich die automatisierte Einzelfallentscheidung und lässt Ausnahmen nur in engen Grenzen zu.‘“ Hier ist ein Analogieschluss mit dem Recht auf Nichtwissen hinsichtlich durch Maschinelles Lernen erlangtem Wissen über sich selbst denkbar: Bezüglich der eigenen Entwicklung gilt der Grundsatz der „Selbstermächtigungsvermutung“. Nicht nur wegen der Existenz von falschen Vorhersagen (und seien sie noch so selten) ist das Recht auf Nichtwissen geboten, sondern auch wegen des Rechts auf informationelle Selbstbestimmung. Das Recht auf Nichtwissen des Individuums über den Output Maschineller Lernsysteme, die mit Verhaltens-, Umgebungs- und Beziehungsdaten des Individuums trainiert wurden, muss in einer Gesellschaft durchsetzbar sein, für die die informationelle Selbstbestimmung konstituierend ist. Beim aufgeklärten Recht auf Nichtwissen ist die Willenserklärung, den Output der ML-Systeme über sich nicht kennen zu wollen keine Weltflucht, sondern ein informierter Akt und Ausdruck der Mündigkeit.
Selbst beim Gedankenexperiment einer absolut korrekten Vorhersage durch eine Maschine, bleibt das Recht auf Nichtwissen unangetastet. Menschen, die sich dazu entschließen, diese negative Variante des Rechts auf informationelle Selbstbestimmung für sich in Anspruch zu nehmen, dürfen weder negativ sanktioniert, noch diskriminiert werden.
Durch Maschinelles Lernen generierte „Aussagen“ über sich selbst, können nützlich für ein Individuum sein, aber auch schädlich. Es geht um die Freiheit der Entscheidung, ob das Individuum dies wissen sollen muss oder sich dazu entschließen darf, dies nicht wissen zu wollen.
Die hier vorgelegte Betrachtung fokussierte das individuelle Recht, etwas nicht zu wissen, damit z. B. die eigene Handlungsfreiheit bestehen bleibt. Maschinelles Lernen für Vorhersagen, oder genereller predictive analytics, bedeutet allerdings auch: Andere wissen etwas über das Individuum und können damit potenziell dessen Verhalten verändern. Dies gilt für beide Fälle, nämlich, ohne dass das Individuum jemals davon erfährt und auch, dass es davon erfährt. Diese Problemstellung floss teilweise in die hiesige Betrachtung mit ein, beispielsweise bezüglich der fiktiven App EYLMAB, die für ein Punktesystem für erwünschtes soziales Verhalten verwendet wird. Diese modifizierte Fragestellung – mit dem Fokus weg vom Nichtwissen und hin zu neuartigen Machtinstrumenten durch ML – werden andere weitere Forschungsfragen aufgeworfen. In einem Interview [17] skizzierte Hauke Ritz ein entsprechendes dystopisches Szenario:
„ [...] Und aufgrund dieser Daten kann dann auch politische Macht ausgeübt werden. Wir könnten in eine Gesellschaft kommen – ich hoffe wir sind im Moment noch nicht in einer solchen Gesellschaft – aber man könnte in eine Gesellschaft kommen, wo bestimmte Leute eben nicht in bestimmte Positionen kommen und andere durchaus. Also, dass man sagt, ja im politischen Bereich möchten wir vor allem konforme Menschen haben, Menschen mit einem schwachen Rückgrat, die sich anpassen. Und anhand dieser ganzen Daten, die wir gesammelt haben, erkennen wir diese Menschen und sie lassen wir in den politischen Prozess eintreten, sie dürfen dort Karriere machen. Aber jemand, der ein bisschen eigensinnig ist, der irgendwie zu selbstständig denkt, der sozusagen gegen den Strom schwimmt, der wird sozusagen automatisch vom Computer aussortiert. Wir schaffen es, dass seine Bewerbungen am Ende irgendwie scheitern oder ihm werden Steine in den Weg gelegt. Ich hoffe nicht, dass wir bereits in einer solchen Gesellschaft sind, aber technologisch wäre es sicher bald möglich, solche Machtmittel einzusetzen.“
Wir danken den Hinweisen der Gutachterinnen und Gutachter. Stellvertretend sei Herr Dr. Carsten Ochs hervorgehoben – er hat uns hilfreiche Impulse gegeben, die unsere Argumentation stark vorangebracht haben.
Für Unstimmigkeiten und Fehler in dieser Betrachtung sind selbstverständlich wir allein verantwortlich – wir freuen uns über Hinweise hierauf!
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Literatur
2.
4.
6.
Zurück zum Zitat Dierstein, R.: Sicherheit in der Informationstechnik-der Begriff IT-Sicherheit. Info.-Spekt. 27(4), 343–353 Springer (2004) Dierstein, R.: Sicherheit in der Informationstechnik-der Begriff IT-Sicherheit. Info.-Spekt. 27(4), 343–353 Springer (2004)
7.
Zurück zum Zitat Eisler, R.: Kant-Lexikon: Nachschlagewerk zu Kants sämtlichen Schriften, Briefen und handschriftlichem Nachlaß, 10. unveränd. Nachdr. der Ausg. Berlin G. Olm Verlagsbuchhandlung (1930) Eisler, R.: Kant-Lexikon: Nachschlagewerk zu Kants sämtlichen Schriften, Briefen und handschriftlichem Nachlaß, 10. unveränd. Nachdr. der Ausg. Berlin G. Olm Verlagsbuchhandlung (1930)
11.
Zurück zum Zitat Jonas, H.: Laßt uns einen Menschen klonieren: Von der Eugenik zur Gentechnologie. Technik, Medizin und Ethik: zur Praxis des Prinzips Verantwortung. Suhrkamp (1987) Jonas, H.: Laßt uns einen Menschen klonieren: Von der Eugenik zur Gentechnologie. Technik, Medizin und Ethik: zur Praxis des Prinzips Verantwortung. Suhrkamp (1987)
12.
Zurück zum Zitat Kant, I.: Beanwortung der Frage: Was ist Aufklärung? Stuhr (1845) Kant, I.: Beanwortung der Frage: Was ist Aufklärung? Stuhr (1845)
16.
18.
Zurück zum Zitat Schmidt, J., Marques, M.R., Botti, S., Marques, M.A.: Recent advances and applications of machine learning in solid-state materials science. npj Comput. Mat. 5(1), 1–36 (2019) Schmidt, J., Marques, M.R., Botti, S., Marques, M.A.: Recent advances and applications of machine learning in solid-state materials science. npj Comput. Mat. 5(1), 1–36 (2019)
19.
Zurück zum Zitat Simmel, G.: Soziologie. Untersuchungen über die Formen der Vergesellschaftung, S. 391 (1908). Otthein Rammstedt (Hrsg.). Suhrkamp, Frankfurt a. M. (1992) Simmel, G.: Soziologie. Untersuchungen über die Formen der Vergesellschaftung, S. 391 (1908). Otthein Rammstedt (Hrsg.). Suhrkamp, Frankfurt a. M. (1992)
22.
Zurück zum Zitat Vgl. Kant, I.: Beanwortung der Frage: Was ist Aufklärung? Stuhr (1845) Vgl. Kant, I.: Beanwortung der Frage: Was ist Aufklärung? Stuhr (1845)
23.
Zurück zum Zitat Vgl. Ricken, F.: Allgemeine Ethik. W. Kohlhammer (1998) Vgl. Ricken, F.: Allgemeine Ethik. W. Kohlhammer (1998)
24.
Zurück zum Zitat Wehling, P.: Vom Nutzen des Nichtwissens: sozial-und kulturwissenschaftliche Perspektiven. Transcript (2015) Wehling, P.: Vom Nutzen des Nichtwissens: sozial-und kulturwissenschaftliche Perspektiven. Transcript (2015)
Metadaten
Titel
Maschinelles Lernen und das Recht auf Nichtwissen
verfasst von
Michael Kreutzer
Johanna Mittermeier
Copyright-Jahr
2022
DOI
https://doi.org/10.1007/978-3-658-33306-5_4