Skip to main content
main-content

Tipp

Weitere Kapitel dieses Buchs durch Wischen aufrufen

2019 | OriginalPaper | Buchkapitel

E. Zusammenfassung der Schlussfolgerungen

verfasst von: Prof. Dr. Mario Martini

Erschienen in: Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz

Verlag: Springer Berlin Heidelberg

share
TEILEN

Zusammenfassung

Algorithmen, die im Räderwerk moderner Softwareanwendungen werkeln, sind zu zentralen Steuerungsressourcen der digitalen Gesellschaft avanciert. Ihre Klassifikationen treffen wichtige Differenzierungsentscheidungen in Lebensbereichen, die für Menschen mitunter existenzielle Bedeutung aufweisen – von der Kreditvergabe über Kaufentscheidungen, die Meinungsbildung und Strafverfolgung bis hin zur Job- und Partnersuche. Die Entwickler und Anbieter komplexer IT-Produkte treten immer häufiger nicht lediglich als Kammerdiener auf, sondern als die neuen Hausherren eines digitalen Imperiums, das der Gesellschaft in die Feder diktiert, was relevant und wichtig ist, und sie nach ihren Gestaltungsvorstellungen umprogrammiert. Die Öffentlichkeit beobachtet das zusehends mit Sorge. Denn „wird der Diener zum Herrn, vergisst er die Vergangenheit und Zukunft“ (mongolisches Sprichwort) – und er verspielt womöglich die Werte der Gegenwart.
Fußnoten
1
Dazu sowie insgesamt zum Fazit bereits die Kurzzusammenfassung bei Martini, JZ 2017, 1017 (1025).
 
2
Dazu Mayer-Schönberger, APuZ 2015, 14 (16 f.).
 
3
Die kognitiven Fähigkeiten algorithmenbasierter Assistenzsysteme sind Begrenzungen unterworfen, aufgrund derer sie Gesichtspunkte sachgerechter Einzelfalldifferenzierung und -gerechtigkeit nur unzureichend erfassen. Eine Softwareanwendung kann nur diejenigen Faktoren in ihre Argumentations- und Entscheidungsfindung einfließen lassen, für die sie über eine Sensorik verfügt. Alle anderen Einzelfallparameter gehören jedenfalls bei einer Closed-World-Assumption-Programmierung nicht zur Umwelt des lernfähigen Systems; vgl. dazu etwa Kirn/Müller-Hengstenberg, MMR 2014, 225 (228).
 
4
Dazu bereits oben B. I. 2. a).
 
5
Martini, Big Data, in: Hill/Martini/Wagner (Hrsg.), Digitale Lebenswelt, 2015, S. 97 (133) sowie bereits oben B. I. 2. c).
 
6
Dazu im Einzelnen B. III.
 
7
Vgl. etwa Bowles, After Cambridge Analytica, Privacy Experts Get to Say ‚I Told You So‘, New York Times online vom 12.04.2018.
 
8
Dazu im Einzelnen C.
 
9
Dazu im Einzelnen D. I. 2.
 
10
Das Risiko bestimmt sich aus der Eintrittswahrscheinlichkeit und der Schadensschwere. Zur Schadensschwere tragen insbesondere die Art und das Ausmaß des Schadens bei. Besonders schwer wiegen nachhaltige, irreparable Schäden sowie Beeinträchtigungen, die besondere Kategorien personenbezogener Daten berühren (Art. 9 DSGVO) – ferner Auswirkungen auf eine Vielzahl Betroffener sowie Ausstrahlungen auf andere Grundrechte jenseits des Rechts auf informationelle Selbstbestimmung (insbesondere die Meinungsfreiheit und die Versammlungsfreiheit).
 
11
Siehe dazu im Einzelnen oben D. II. 1. b) cc).
 
12
Siehe dazu oben D. II. 2. a) aa) sowie Martini, JZ 2017, 1017 (1020).
 
13
Dazu D. II. 2. a) aa) (2).
 
14
Siehe dazu im Einzelnen D. II. 2. a) bb).
 
15
Es sollte aber Ausnahmen für sicherheitsempfindliche, umgehungsanfällige oder aus ähnlichen Gründen geheimhaltungsbedürftige Anwendungen geben.
 
16
Siehe insbesondere § 9 Abs. 1 Nr. 5 ThürIFG.
 
17
So muss das Finanzamt nicht bekannt geben, ab welchem konkreten Grenzwert für bestimmte Eingaben das Risikomanagementsystem einen Fall an einen menschlichen Entscheider aussteuert, sondern nur, dass eine solche Funktionalität im digitalen System grundsätzlich vorgesehen ist. § 88 Abs. 5 S. 4 AO untersagt es nämlich, Einzelheiten der Risikomanagementsysteme zu veröffentlichen, „soweit dies die Gleichmäßigkeit und Gesetzmäßigkeit der Besteuerung gefährden könnte“.
 
18
Siehe dazu oben D. II. 2. a) bb).
 
19
Dazu im Einzelnen D. II. 2. b).
 
20
Sie erlegt Behörden auf, Verwaltungsakten eine Erläuterung beizugeben, welche die tatsächlichen und rechtlichen Beweggründe offenlegt, die zu der Entscheidung geführt haben.
 
21
Trägt eine Partei Indizien für eine Ungleichbehandlung vor, trifft die andere Partei aber die Beweislast (§ 22 AGG). Sie muss sich durch eine Begründung entlasten, wenn sie negative Rechtsfolgen (wie Schadensersatz oder Entschädigung) vermeiden will.
 
22
Dazu B. II. 2. a).
 
23
Dazu im Einzelnen oben D. II. 2. b) aa).
 
24
Siehe dazu D. II. 2. b) bb) (1).
 
25
Siehe dazu D. II. 2. b) bb) (2) (b).
 
26
Siehe dazu D. II. 2. b) bb) (2) (c).
 
27
Siehe dazu D. II. 2. b) bb) (2) (d).
 
28
Siehe oben D. II. 2. c).
 
29
Allerdings wäre eine solche Ausweitung der Pflicht des Art. 35 DSGVO auf mitgliedstaatlicher Ebene regulatorisch nicht ohne Weiteres möglich. Die DSGVO regelt die Folgenabschätzung grundsätzlich unionsweit abschließend.
 
30
Dazu im Einzelnen D. II. 2. c).
 
31
Siehe oben D. II. 2. d).
 
32
Dabei handelt es sich um eine normative Frage, bei deren Beantwortung ein oftmals abwägendes und kontextbezogenes Vorgehen notwendig ist, das Softwareanwendungen (bislang) kaum simulieren können.
 
33
Siehe oben D. II. 4. b) aa).
 
34
Dazu D. II. 4. a) aa) (2).
 
35
Die Bezeichnung „TÜV“ ist dabei metaphorisch zu verstehen und notwendig etwas schief. Sie bezeichnet (jedenfalls) nicht notwendig eine private Prüfeinheit nach dem Vorbild des Technischen Überwachungsvereins. Vielmehr umschreibt sie eine Kontrollstelle, die in der Lage ist, auf der Grundlage staatlicher Hoheitsmacht Einblick in die Verarbeitungsprozesse algorithmenbasierter Systeme zu nehmen und diese zu kontrollieren. Ob das gelingt, hängt entscheidend davon ab, ob die Kontrollstelle für diese Aufgaben technisch, organisatorisch und personaltechnisch hinreichend ertüchtigt ist.
 
36
Siehe oben D. II. 3. a).
 
37
Siehe oben D. II. 3.
 
38
Dazu bereits Martini, JZ 2017, 1017 (1022).
 
39
Vgl. oben D. III. 1. b) aa) (2).
 
40
Siehe dazu bereits D. II. 2. b) bb) (3) sowie D. III. 1. b).
 
41
Siehe oben D. III. 1. c).
 
42
Vgl. § 63a Abs. 1 S. 1 AMG sowie oben C. IV.
 
43
Siehe oben D. III. 1 c) cc).
 
44
Dazu bereits Martini, JZ 2017, 1017 (1022).
 
45
Siehe dazu im Einzelnen D. III. 2.
 
46
Dazu oben D. IV. 1. b).
 
47
Siehe oben D. IV. 1. c) bb).
 
48
Siehe dazu D. IV. 2.
 
49
Dazu oben D. IV. 3. a).
 
50
Dazu im Einzelnen D. II. 2.
 
51
Siehe oben D. IV. 3. b).
 
52
Siehe oben D. IV. 3. d).
 
53
Siehe oben D. IV. 3. c) bb).
 
54
Siehe oben D. IV. 3. c) aa).
 
55
Dazu oben D. VI. 2. b).
 
56
Martini, JZ 2017, 1017 (1025).
 
57
Vgl. insb. die RL 2000/43/EG, 2000/78/EG, 2004/113/EG und 2006/54/EG.
 
58
Vgl. zum Wettbewerbsrecht vor allem die Art. 101 ff. AEUV sowie die aufgrund von Art. 103 Abs. 1 AEUV erlassenen Rechtsakte; vgl. zum Lauterkeitsrecht etwa die RL 2005/29/EG, der der EuGH vollharmonisieren Charakter zugeschrieben hat, EuGH (Plus Warenhandelsgesellschaft), Urt. v. 14.01.2010, ECLI:EU:C:2010:12, Rn. 41.
 
59
Dazu D. II. 4. c).
 
60
Dazu insbesondere D. IV. 3. a) bb).
 
61
Vgl. z. B. die unionsrechtliche Vorgabe des Schadensersatzanspruchs Art. 82 Abs. 1 DSGVO.
 
62
Siehe D. III. 2.
 
63
Dazu D. IV. 2.
 
64
Luhmann, Vertrauen, 5. Aufl., 2014, S. 1 ff.
 
65
Vgl. dazu auch die Einführung „Algorithmen als DNA der digitalen Zukunft“ (oben A.).
 
66
Schiller, „Die Künstler“, Verse 443–445.
 
Metadaten
Titel
E. Zusammenfassung der Schlussfolgerungen
verfasst von
Prof. Dr. Mario Martini
Copyright-Jahr
2019
Verlag
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-59010-2_5

Premium Partner