Skip to main content
main-content

Tipp

Weitere Kapitel dieses Buchs durch Wischen aufrufen

2019 | OriginalPaper | Buchkapitel

B. Regulierungsbedarf

verfasst von: Prof. Dr. Mario Martini

Erschienen in: Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz

Verlag: Springer Berlin Heidelberg

share
TEILEN

Zusammenfassung

Je mehr sich unsere Gesellschaft den Algorithmen einer Big-Data-Welt und den Steuerungsmaximen eines „Internet der Dinge“ anvertraut, in dem (Alltags-)Geräte selbsttätig interagieren und die Effizienzkraft technischer Assistenten und Anwendungen zur vollen Entfaltung bringen, umso mehr begibt sie sich in deren Abhängigkeit: Das Erkenntnismittel „Algorithmus“ eröffnet seinen Werkmeistern in den IT-Laboren der digitalen Ökonomie einerseits die Chance, eine tiefschürfende Datenauswertung vorzunehmen und Entscheidungsabläufe in einer Weise zu steuern, die mitunter über die menschlichen Erkenntnisgrenzen hinausgeht. Andererseits bergen die neuen Technologien die Gefahr eines individuellen und kollektiven Kontrollverlustes.
Fußnoten
1
Die Rede ist auch von Machine-to-Machine(M2M)-Kommunikation. Im Jahr 2015 gingen Schätzungen noch von 50 Mrd. mit dem Internet vernetzten Geräten bis zum Jahr 2020 aus (vgl. die Nachweise bei Martini, Big Data, in: Hill/Martini/Wagner (Hrsg.), Digitale Lebenswelt, 2015, S. 97 [103] m. w. N.). Neuere Prognosen gehen mittlerweile von etwa 20 Mrd. im Jahr 2020 aus (van der Meulen, Gartner Says 8.4 Billion Connected „Things“ Will Be in Use in 2017, Up 31 Percent From 2016, Pressemitteilung v. 04.02.2017. www.​gsmaintelligence​.​com (08.01.2018) macht die der Zahl der mit dem Internet verknüpften Geräte live sichtbar). Während sich das Geschäftsmodell klassischer Big-Data-Anbieter, wie Google oder Amazon, auf personenbezogene Werbung ausrichtet und damit nur einen Teil der volkswirtschaftlichen Gesamtrechnung erfasst, zielt das Internet der Dinge auf den ökonomisch ungleich größeren Wertschöpfungssektor der Herstellung von Anlagen und Produkten. Seine disruptiven Auswirkungen auf die Marktgesetzlichkeiten dürften daher noch grundstürzender sein als diejenigen der ersten Phasen der digitalen Revolution.
 
2
Selbst wenn der Programmcode einer Open-Source-Software offen liegt, können damit nur Fachleute etwas anfangen; in proprietären Lösungen ist auch ihnen ein Blick in den Maschinenraum der Entscheidungsfindung und Datenauswertung prinzipiell verstellt. Die Verwender der Algorithmen gewähren folglich nur einem streng ausgewählten Personenkreis Zugriff. Die SCHUFA etwa wirbt zwar mit „wissenschaftlich überprüft[en] und aussagekräftig[en]“ Scores (vgl. SCHUFA Holding AG, „OpenSchufa“-Kampagne irreführend und gegen Sicherheit und Datenschutz in Deutschland, Pressemitteilung v. 15.02.2018); die Unabhängigkeit der wissenschaftlichen Beurteilung steht jedoch in der Kritik; dazu bspw. Kerler, Auskunfteien beauftragen Gutachten selbst, BR online vom 16.05.2018.
 
3
Vgl. hierzu die soziologische Forschung zu der Frage, inwieweit Facebook-Nutzer um die algorithmische Filterung ihres Feeds wissen, Bucher, Information, Communication & Society 20 (2017), 30 (31 f.) m. w. N.; Eslami/Rickman et al., Algorithms in News Feeds, in: Begole/Kim/Inkpen et al. (Hrsg.), Proceedings 33rd ACM CHI, 2015, S. 153 ff.; Rader/Gray, Understanding User Beliefs About Algorithmic Curation in the Facebook News Feed, in: Begole/Kim/Inkpen et al. (Hrsg.), Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, 2015, S. 173 ff.
 
4
Vgl. dazu auch den sog. Turing-Test: Ein Mensch stellt sowohl einem Computer als auch einem anderen Menschen schriftlich Fragen. Eine Testperson beobachtet deren Verhaltensergebnisse. Kann sie nicht benennen, welcher Kommunikationspartner der Mensch und welcher der Computer war, so gilt der Test als bestanden und könne der Computer – so die These – „denken“, siehe Turing, Mind 49 (1950), 433 (433 f.).
 
5
Vgl. auch Martini, Big Data, in: Hill/Martini/Wagner (Hrsg.), Digitale Lebenswelt, 2015, S. 97 (129); ONeil, Weapons of Math Destruction, 2016, S. 3.
 
6
Vgl. zum Personenbezug eines algorithmisch errechneten Zusammenhangs die Autocomplete-Entscheidung des BGH; BGHZ 197, 213 (218 f., Rn. 16). Der BGH lässt dort den – in seiner Deutung durch die sog. Autocomplete-Einträge erzeugten – Eindruck, die ergänzten Suchvorschläge beinhalteten einen gewissen Wahrheitskern, für eine Persönlichkeitsrechtsbeeinträchtigung genügen.
 
7
Profiling bezeichnet die algorithmengestützte Zuordnung eines Nutzerprofils zu einer natürlichen Person, um persönliche Aspekte (z. B. die wirtschaftliche Lage, Arbeitsleistung, Gesundheit, Präferenzen) zu bewerten, insbesondere Nutzerinteressen zu prognostizieren, sowie Suchergebnisse, Waren oder Werbeanzeigen zu personalisieren oder bei der Entscheidungsfindung individuelle Eigenheiten zu berücksichtigen (Art. 4 Nr. 4 DSGVO). Als Berechnungsgrundlage fungiert typischerweise das systematisch erfasste bzw. aufgezeichnete und ausgewertete Nutzerverhalten (Tracking, z. B. mittels sog. Cookies im Internetbrowser; vgl. auch die Empfehlungen des Ministerkomittees des Europarats an die Mitgliedstaaten vom 23.11.2010, CM/Rec(2010)13, S. 3). (Automatisiertes) Profiling lässt sich als eine Spielart des Data Minings, also eines Verfahrens, das aus großen Datenbeständen Wissen generieren soll, umsetzen. Siehe zum Profiling ergänzend Buchner, in: Kühling/Buchner (Hrsg.), DS-GVO/BDSG, 2. Aufl., 2018, Art. 22, Rn. 20 ff.; Martini, in: Paal/Pauly (Hrsg.), DS-GVO/BDSG, 2. Aufl., 2018, Art. 22 DSGVO, Rn. 21 ff.; ders. Big Data, in: Hill/Martini/Wagner (Hrsg.), Digitale Lebenswelt, 2015, S. 97 (122, 130 ff.); Schantz/Wolff, Das neue Datenschutzrecht, 2017, Rn. 730 ff.; Taeger, RDV 2017, 3 (3 ff.); Zahariev, PinG 2017, 73 (74 f.).
 
8
Die Ergebnisse eines Profilings können sensible Verdachtsmomente gegenüber dem Werbeadressaten auslösen. Das illustriert der Beispielfall „Feinwaagenkauf bei Amazon“: Wer bei Amazon nach einer digitalen Feinwaage sucht, dem bietet das Unternehmen in der Folge unter der Rubrik „Kunden, die diesen Artikel angesehen haben, haben auch angesehen“ diverse Produkte zur Drogenherstellung und zum Drogenkonsum an. Augenscheinlich haben die Empfehlungs-Algorithmen des Internetkonzerns bei der Auswertung von Nutzungsdaten einen signifikanten Zusammenhang zwischen dem Kauf von Feinwaagen und den genannten Produkten ausgemacht. Die Schlussfolgerung, dass der Feinwaagen-Käufer die Geräte erwirbt, um Drogen abzuwiegen, mag zwar implizit auf der Hand liegen. Dass jeder Interessent an Feinwaagen personalisierte Werbung für Drogen-Utensilien zu Gesicht bekommt, lässt jedenfalls im Ansatz erahnen, welches Diskriminierungspotenzial algorithmenbasierte Verfahren haben können, wenn sie in sensiblen Kontexten zur Anwendung kommen.
 
9
In bestimmten Fällen, wie der Persönlichkeitsverletzung durch die Autocomplete-Funktion der Suchmaschine Google, lässt sich die Unwahrheit des Aussagegehalts regelmäßig auch anhand der tatsächlichen Umstände belegen; vgl. auch insoweit BGHZ 197, 213 (221, Rn. 22). Dies ist aber jedenfalls dann nicht möglich, wenn – wie beim Scoring – die Ergebnisaussage (Kreditwürdigkeit) abstrakt gehalten (schlechte Punktzahl) und der konkrete Unwahrheitsgehalt (mehrfacher Wechsel des Kreditinstituts belegt Unstetigkeit auch im Zahlungsverhalten) in der Scoreformel oder in den herangezogenen Vergleichsgruppen verborgen ist; vgl. etwa BGHZ 200, 38 (49, Rn. 32).
 
10
Zur Ausnutzung von Vertrauen als Tatbestandsvariante des § 4a Abs. 1 S. 2 Nr. 3 UWG vgl. Sosnitza, in: Ohly/Sosnitza/Piper (Hrsg.), UWG, 7. Aufl., 2016, § 4a UWG, Rn. 127. Die durch Geheimhaltung der Algorithmen erzwungene „Blindheit“ des Vertrauens betont etwa Härting, Internetrecht, 5. Aufl., 2014, Annex „Datenschutz im 21. Jahrhundert“, Rn. 41.
 
11
Ob algorithmische Entscheidungen die (hohe) Hürde aggressiver geschäftlicher Handlung (durch Ausnutzung des Vertrauens der Marktteilnehmer) tatsächlich erreichen, ist eine Frage des Einzelfalls.
 
12
Verfahrensdokumentation des abgeschlossenen Verfahrens gegen den Internetkonzern wegen Missbrauchs seiner Marktmacht bei der Online-Shopping-Suche, abrufbar bei Europäische Kommission, Competition – 39740 Google Search (Shopping).
 
13
Die Dokumentation des Android-Verfahrens ist abrufbar unter Europäische Kommission, Competition – 40099 Google Android.
 
14
Dieses Verfahren spürt dem Verdacht nach, dass Google in Verträgen mit Websites zur Nutzung der Werbe- und Suchservices gezielt Wettbewerber benachteiligt. Die Verfahrensdokumentation ist abrufbar unter Europäische Kommission, Competition – 40411 Google Search (AdSense).
 
15
Vgl. hierzu schon bspw. Martini, Big Data, in: Hill/Martini/Wagner (Hrsg.), Digitale Lebenswelt, 2015, S. 97 (111 mit Fn. 43) m. w. N.
 
16
Beispiele dafür liefern die Kartellverfahren gegen Microsoft (Verfahrensnr. 37792) und Intel, die vier bzw. neun Jahre dauerten, Verfahrensdokumentationen abrufbar bei Europäische Kommission, Competition – 37792 Microsoft Europe und Competition – 37990 Intel Corporation. Gegenstand des Verfahrens gegen Microsoft war der Vorwurf, das Unternehmen habe sich geweigert, Interoperabilitätsinformationen offenzulegen und ihre Nutzung zum Zwecke der Entwicklung und Vermarktung von Windows-Betriebssystemen zu ermöglichen, ferner die Bindung des Betriebssystemerwerbs an den gleichzeitigen Erwerb eines Media Players. Die Untersuchungen mündeten in eine Geldbuße in Höhe von 497.196.304 Euro. Gegen Intel hat die Kommission eine Geldbuße in Höhe von 1.060.000.000 Euro verhängt: Wirtschaftskunden, die sich ausschließlich an Intel binden, hatte das Unternehmen Rabatte versprochen. Die Sanktion hat das EuG im Jahre 2014 in einem Urteil bestätigt (EuG, Urt. v. 12.06.2014, ECLI:EU:T:2014:547), das der EuGH allerdings im Jahr 2017 aufhob und an das EuG zurückverwies; EuGH, Urt. v. 06.09.2017, ECLI:EU:C:2017:632. Hierzu Mühle/Weitbrecht, EuZW 2018, 185 (185 f.).
 
17
Schwenn, Kampf gegen intelligente Kartelle, FAZ vom 17.03.2017, S. 20.
 
18
Anonymous, Kartell ohne Mensch, Handelsblatt online vom 12.09.2017; Künstner, Kartellrecht 4.0 – Die Aufsichtsbehörden betreten Merkels „Neuland“, FAZ vom 10.02.2016, S. 16.
 
19
BT-Drs. IV/270, S. 38.
 
20
Grützmacher, in: Wandtke/Bullinger (Hrsg.), PK Urheberrecht, 4. Aufl., 2014, § 69g UrhG, Rn. 33 f.
 
21
Ebenso etwa Scheja, CR 2018, 485 (487).
 
22
Überwiegende Meinung; dazu ausführlich Grützmacher, in: Wandtke/Bullinger (Hrsg.), PK Urheberrecht, 4. Aufl., 2014, § 69a UrhG, Rn. 28 f. m. w. N. (auch zur Gegenauffassung); Dreier, in: Dreier/Schulze (Hrsg.), UrhG, 6. Aufl., 2018, § 69a, Rn. 25 f.; Kaboth/Spies, in: Ahlberg/Götting (Hrsg.), BeckOK Urheberrecht, 22. Ed. (Stand: 04.06.2018), § 69a, Rn. 12.
 
23
BGHZ 112, 264 (277); Grützmacher, in: Wandtke/Bullinger (Hrsg.), PK Urheberrecht, 4. Aufl., 2014, § 69a UrhG, Rn. 28 f.; Wiebe, in: Spindler/Schuster (Hrsg.), Recht der elektronischen Medien, 3. Aufl., 2015, § 69a UrhG, Rn. 23.
 
24
Social-Media-Plattformen genießen bspw. einen solchen Schutz. Das zugrunde liegende Content-Management-System speichert die nutzergenerierten Inhalte in Datenbanken und hält diese zum Abruf bereit. Thum/Hermes, in: Wandtke/Bullinger (Hrsg.), PK Urheberrecht, 4. Aufl., 2014, § 87a UrhG, Rn. 95. Die Rechtsprechung hat einen solchen Datenbankschutz insbesondere anerkannt für: ein Bewertungsportal für zahnärztliche Dienstleistungen (BGH, MDR 2011, 804 ff.), eine Onlinebörse für Automobile (OLG Frankfurt a. M., GRUR 2005, 299 ff.) sowie für eBay (LG Berlin, ZUM 2006, 343 ff.). Ob der Datenbankschutz auch ganze Websites umfasst, darüber gehen die Meinungen im Einzelnen auseinander. Manche bejahen die Frage, weil die enthaltenen Strukturinformationen eine systematische Sammlung unabhängiger Elemente i. S. v. § 87a UrhG darstellen können. Andere hingegen versagen Websites den Datenbankschutz mangels erkennbarer Indexierung. Eine Website ist aber jedenfalls dann als Datenbank anzuerkennen, wenn sie unabhängige Elemente in einer Sammlung präsentiert (z. B. Enzyklopädien). Siehe dazu Thum/Hermes, in: Wandtke/Bullinger (Hrsg.), PK Urheberrecht, 4. Aufl., 2014, § 87a UrhG, Rn. 94.
 
25
Haberstumpf, GRUR 2003, 14 (26).
 
26
EuGH, Urt. v. 19.12.2013, ECLI:EU:C:2013:850 (Innoweb/Wegener), Rn. 41; Taeger, NJW 2014, 3759 (3762).
 
27
BGHZ 52, 74 (79) – Rote Taube.
 
28
Bacher, in: Benkard (Hrsg.), PatG, 11. Aufl., 2015, § 1, Rn. 43.
 
29
BGHZ 67, 22 (31) – Dispositionsprogramm; Hössle, in: Bodewig/Fitzner/Lutz (Hrsg.), BeckOK Patentrecht, 10. Ed. (Stand: 26.10.2018), Vor §§ 1–25, Rn. 34.
 
30
Ensthaler, GRUR 2013, 666 (667); BGH, GRUR 1980, 849 (850) – ABS.
 
31
BGH, GRUR 1992, 33 (35) – Seitenpuffer.
 
32
BGH, GRUR 2010, 613 (616, Rn. 27) – dynamische Dokumentengenerierung.
 
33
Hössle, in: Bodewig/Fitzner/Lutz (Hrsg.), BeckOK Patentrecht, 10. Ed. (Stand: 26.10.2018), Vor §§ 1–25, Rn. 38.
 
34
Die Rechtspraxis mündete in einen EU-Richtlinienvorschlag zur Patentierbarkeit computerimplementierter Erfindungen, den das EU-Parlament im Juli 2005 aber ablehnte; vgl. Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Patentierbarkeit computerimplementierter Erfindungen, KOM (2002) 92 endg. Legislative Entschließung des Europäischen Parlaments zu dem Gemeinsamen Standpunkt des Rates im Hinblick auf den Erlass der Richtlinie des Europäischen Parlamentes und des Rates über die Patentierbarkeit und computerimplementierter Erfindungen (11979/1/2004 – C 6 0058/2005 – 2002/0047(COD), ABl. Nr. C 157 E vom 06.07.2006, S. 265).
 
35
Ensthaler, GRUR 2013, 666 (668); Schwarz, GRUR 2014, 224 (225).
 
36
Scheja, CR 2018, 485 (487).
 
37
BVerwG, NVwZ 2016, 1014 (1018, Rn. 35); siehe auch OVG Nordrhein-Westfalen, NVwZ 2012, 902 (906 f. m. w. N.).
 
38
BVerwG, NVwZ 2016, 1014 (1018, Rn. 35).
 
39
Ebenso § 85 Abs. 1 GmbHG, § 79 Abs. 1, § 120 Abs. 1 BetrVG, § 71 S. 1 EnWG, § 9 Abs. 1 Nr. 3 UIG sowie § 17a Abs. 2 GenTG.
 
40
Ohly, GRUR 2014, 1 ff.
 
41
BVerwG, NVwZ 2016, 1014 (1018, Rn. 35); OVG Nordrhein-Westfalen, NVwZ 2012, 902 (906 f. m. w. N.).
 
42
Schneider, Handbuch des EDV-Rechts, 5. Aufl., 2017, H. Sonstiger Rechtsschutz für Software und softwarebezogene Schöpfungen, Rn. 190.
 
43
Unter dem Regime des BDSG a. F. genoss dieser Schutz den ausdrücklichen Segen des Gesetzgebers; vgl. BT-Drs. 16/10529, S. 17: „[…] die Score-Formel, an deren Geheimhaltung die Unternehmen ein überwiegendes schutzwürdiges Interesse haben“. Vgl. dazu auch BGHZ 200, 38 (43 ff., Rn. 17, 27 und 32). Gegen dieses Urteil ist eine Verfassungsbeschwerde unter dem Az. 1 BvR 756/14 anhängig; vgl. Sachverständigenrat für Verbraucherfragen beim Bundesministerium der Justiz und für Verbraucherschutz, Verbraucherrecht 2.0, Dez. 2016, S. 63, Fn. 192. Zur Frage, ob diese Rechtsprechung unter dem Regime des Art. 15 DSGVO fortgelten kann; vgl. bspw. Bräutigam/Schmidt-Wudy, CR 2015, 56 (62). Schmidt-Wudy, in: Wolff/Brink (Hrsg.), BeckOK DatenschutzR, 26. Ed. (Stand: 01.11.2018), Art. 15 DSGVO, Rn. 78.3, optiert für eine einzelfallbezogene Abwägung anstelle der ausnahmslosen Geheimhaltung der Score-Formel; anders als er demgegenüber Ehmann, in: Ehmann/Selmayr (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 15, Rn. 19, der dem Begriff der „Logik“ aus Art. 15 Abs. 1 lit. h DSGVO ein Auskunftsrecht lediglich hinsichtlich der zugrunde liegenden Prinzipien, nicht jedoch bezüglich der konkreten Berechnungsformel entnimmt; zur BGH-Entscheidung auch Scheja, CR 2018, 485 (487); Spindler, DB 2018, 41 (46).
 
44
Einen Algorithmus geheim halten zu dürfen, vermittelt – ebenso wie die immaterialgüterrechtlich geschützte exklusive Verwertung – einen wirtschaftlichen Vorteil. Das ruft prima facie eher den Schutzgehalt des Art. 14 Abs. 1 S. 1 GG als des Art. 12 Abs. 1 GG auf den Plan. Den Kern des Geheimhaltungsvorteils bildet jedoch der wettbewerbliche Vorsprung, den ein Unternehmen gegenüber anderen innehat, das innovative Algorithmen in seinen Produkten verwendet. Der Schwerpunkt des Schutzes liegt insofern auf dem Erwerb, nicht auf dem Erworbenen. Vgl. dazu auch BVerfG, NJW 2014, 1581 (1581, Rn. 17 ff.); BVerfGE 115, 205 (229 f.); siehe dazu bspw. Wiebe/Schur, ZUM 2017, 461 (463); Wolff, NJW 1997, 98 (99 ff.).
 
45
Richtlinie (EU) 2016/943 des Europäischen Parlaments und des Rates vom 8. Juni 2016 über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen (Geschäftsgeheimnisse) vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung.
 
46
Alexander, WRP 2017, 1034 (1035); Hoeren/Münker, WRP 2018, 150 (151).
 
47
Gesetzentwurf der Bundesregierung, Entwurf eines Gesetzes zur Umsetzung der Richtlinie (EU) 2016/943 zum Schutz von Geschäftsgeheimnissen vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung vom 10.08.2018, BR-Drs. 382/18, S. 1.
 
48
BR-Drs. 382/18, S. 1.
 
49
Kritisch dazu Ziegelmayer, CR 2018, 693 (694).
 
50
Geheimnisschutz firmiert deshalb häufig auch unter der Kurzformel „unvollständiges Immaterialgüterrecht“; vgl. bspw. Kiefer, WRP 2018, 910 (910).
 
51
Gleiches gilt im Urheberrecht, vgl. Kiefer, WRP 2018, 910 (912).
 
52
Dazu auch Ziegelmayer, CR 2018, 693 (697).
 
53
Vgl. insbesondere § 2 Nr. 1 BremIFG; § 1 Abs. 1, § 2 Abs. 1 HmbTG; § 2 S. 1 Nr. 1 IFG M-V; § 3 Nr. 1 Rh-PfLIFG; § 1 S. 1 SIFG i. V. m. § 2 Nr. 1 IFG; § 2 Nr. 1 IZG LSA; § 2 Abs. 1 Nr. 1 IZG SH; § 3 Nr. 1 IFG Thür; § 3 IFG NRW.
 
54
Die Behörden wenden Algorithmen zwar an. Das heißt aber noch nicht, dass diese bei ihnen verfügbar sind. Aus dem IFG erwächst grundsätzlich keine Informationsbeschaffungspflicht. Sachgerecht wäre es, den Behörden, die sich grundrechtlich relevanter algorithmenbasierter Systeme für hoheitliche Zwecke bedienen, im Grundsatz eine Pflicht aufzuerlegen, sich in Verträgen Informationsrechte über die eingesetzten Systeme vorzubehalten. Anderenfalls drohen automatisierte Systeme eine Informationslücke aufzureißen, die Bürgern die Möglichkeit verwehrt, ihre Rechte wirksam zu verteidigen.
 
55
Katalanische Kommission für das Recht auf Zugang zu öffentlichen Informationen, Resolución de las Reclamaciones 123/2016 y 124/2016 (acumuladas) de 21 de septiembre de 2016 de estimación und Resolución 1/2017 de 10 de enero de 2017.
 
56
Der Hersteller der amerikanischen Rückfallprognose-Software COMPAS, die als Bestandteil hoheitlicher Verfahren zum Einsatz kommt (dazu oben A. mit Fn. 7 sowie unten B. I. 2. b) bb) (3)) beruft sich bspw. auf sein Betriebs- und Geschäftsgeheimnis, um der Öffentlichkeit einen Zugriff auf sein Entscheidungssystem zu verwehren. Nach deutschem Recht dränge er damit gegenüber einem IFG-Anspruch durch (soweit sich der Anspruch gegen Bundesbehörden richtet): § 6 IFG verleiht dem Hersteller der Software de lege lata eine absolute Veto-Position. Bei entgegenstehenden Betriebs- und Geschäftsgeheimnissen verbürgt das Gesetz einen Anspruch auf Zugang nur dann, wenn der Schutzinhaber einwilligt. Zur Kritik hieran mit rechtspolitischen Gestaltungsvorschlägen siehe unten D. II. 1. b) aa).
 
57
Martini/Nink, NVwZ-Extra 10/2017, 1 (10 f.); vgl. auch Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (658).
 
58
Vgl. etwa Camp, Varieties of Software and their Implications for Effective Democratic Government, in: Hood/Heald (Hrsg.), Transparency: The Key to Better Governance?, 2006, S. 183 (187).
 
59
Felten/Kroll, Heartbleed Shows Government Must Lead on Internet Security, Scientific American online vom 16.04.2014; Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (647).
 
60
Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (648 mit Fn. 39).
 
61
Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (59); Liu, Developing Web-scale Machine Learning at LinkedIn – From Soup to Nuts, https://​de.​slideshare.​net/​starrysky2/​kun-liu-nips2014-developing-webscale-machine-learning-at-linkedin-42746527 (20.06.2018), Folie 10.
 
62
Eine detaillierte Erklärung einer solchen Entscheidung wirft bei technischen Laien typischerweise mehr Fragen auf, als sie beantwortet. Vereinfachte Erklärungen bilden auf der anderen Seite immer nur die halbe Wahrheit ab und erfassen möglicherweise gerade die kritischen Bereiche der Algorithmentätigkeit nicht. Vgl. Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (61).
 
63
Kurz, Sicherheit stehe bitte nicht zu sehr im Weg, FAZ vom 01.10.2018, S. 11.
 
64
LeCun, „Ohne Künstliche Intelligenz funktioniert Facebook nicht“, FAZ vom 06.11.2018, S. 19.
 
65
Dazu auch bereits oben A. III. 2.
 
66
Kirn/Müller-Hengstenberg, Rechtliche Risiken autonomer und vernetzter Systeme, 2016, S. 66. Vgl. dazu auch den Beitrag Park/Hendricks et al., arXiv:1612.04757 (2016), 1, insbesondere S. 2 m. w. N.
 
67
Dazu bereits oben A. III. 2. b).
 
68
Ananny/Crawford, new media & society 20 (2018), 973 (981); Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (51); Kirn/Müller-Hengstenberg, Rechtliche Risiken autonomer und vernetzter Systeme, 2016, S. 104 ff.; Knight, The Dark Secret at the Heart of AI, MIT Technology Review online vom 11.04.2017. Burrell, Big Data & Society 3 (2016), 1 (1 ff.), unterscheidet daher drei Formen der „Undurchsichtigkeit“ von Algorithmen: absichtliches Verbergen von Geschäftsgeheimnissen („intentional corporate […] secrecy“ [3 f.]), fehlende Verständnisfähigkeit („technical illiteracy“ [4]) und die technischen Eigenheiten lernender Systeme („opacity as the way algorithms operate“ [4 f.]). Zu neuronalen Netzen Rey/Wender, Neuronale Netze, 3. Aufl., 2018, S. 51 f. Zur Nachvollziehbarkeit der Entscheidungen neuronaler Netze siehe auch Yosinski/Clune et al., Understanding Neural Networks Through Deep Visualization, 2015, S. 1 f., 9.
 
69
So ist das Übersetzungstool, das Google entwickelt hat, auf Grundlage eines neuronalen Netzwerks mit acht Ebenen in der Lage, von einer Sprache in eine andere zu übersetzen, obwohl es hierfür nie trainiert wurde. Die Entwickler von Google können zur Funktionsweise des Prozesses nur Vermutungen anstellen; vgl. Markert, Google: Translate-KI übersetzt dank selbst erlernter Sprache, heise online vom 25.11.2016. Für ein weiteres anschauliches Beispiel opaker Systeme maschinellen Lernens siehe ONeil, Weapons of Math Destruction, 2016, S. 172 f. Vgl. zur Arbeitsweise von neuronalen Netzwerken und Deep Learning auch die Darstellung bei Schlieter, Die Herrschaftsformel, 2015, S. 24 ff.
 
70
Siehe Schlieter, Die Herrschaftsformel, 2015, S. 31.
 
71
Siehe auch Bräutigam/Klindt, NJW 2015, 1137 (1138): „zunehmende Lernfähigkeit und die damit verbundene Unberechenbarkeit dieser Systeme“.
 
72
Vgl. auch Tutt, Administrative Law Review 69 (2017), 83 (94 ff.): „Predictability and Explainability“; zum Begriff der mathematischen Berechenbarkeit Gross/Lentin, Mathematische Linguistik, 1971, S. 45 f.
 
73
Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (638, 645 ff., 659 f.); vgl. auch Burgess, Müssen wir Künstliche Intelligenz zur Rechenschaft ziehen können?, Wired vom 08.12.2016. In der Praxis bereitete die Komplexität der Systeme schon bei der Vorabkontrolle nach § 4b Abs. 5 BDSG a. F. Probleme; vgl. Hallermann, RDV 2015, 23 (24).
 
74
Kleinberg/Mullainathan, Wir bauen sie zwar, aber wir verstehen sie nicht, in: Brockman (Hrsg.), Was sollen wir von Künstlicher Intelligenz halten?, 2017, S. 96 (96).
 
75
Siehe etwa die Ansätze bei Binder/Montavon et al., Layer-wise Relevance Propagation for Neural Networks with Local Renormalization Layers, in: Wilson/Kim/Herlands (Hrsg.), Proceedings of NIPS 2016 Workshop on Interpretable Machine Learning for Complex Systems, 2016, S. 1 ff.; zu Methoden der Visualisierung Yosinski/Clune et al., Understanding Neural Networks Through Deep Visualization, 2015. Gelungen ist es bislang lediglich, Systeme dazu zu bringen, Einzelaspekte ihrer Entscheidung erklärbar zu machen.
 
76
Das bloße „statische“ Lesen des Quellcodes genügt jedoch regelmäßig nicht, um hinreichende Sicherheit über die Funktionsweise und Eigenschaften eines Programms zu erlangen. Vgl. auch Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (645 ff.).
 
77
Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (646 f.).
 
78
Diesen nehmen in der Regel die Entwickler einer Software vor ihrer Verbreitung vor, um Fehler aufzudecken.
 
79
Zu dieser Unterscheidung ausführlich Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (650 f.).
 
80
Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (661).
 
81
Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (22).
 
82
Vgl. dazu etwa Hardt/Price et al., arXiv:1610.02413v1, dort insbesondere S. 19 f.; siehe auch Tan/Caruana et al., arXiv:1710.06169v1, S. 1 (9) zur Aufdeckung von Biases in Blackbox-Systemen.
 
83
Vgl. Dachwitz, OpenSCHUFA: Mehr als 15.000 Auskunftsanfragen in einem Monat, netzpolitik.​org vom 13.03.2018. Zur Kritik der SCHUFA an der Initiative SCHUFA Holding AG, „OpenSchufa“-Kampagne irreführend und gegen Sicherheit und Datenschutz in Deutschland, Pressemitteilung v. 15.02.2018.
 
84
Zu den Besonderheiten lernender Algorithmen vgl. A. III. 2.
 
85
Diese Strukturbedingungen liegen typischerweise bei hoheitlicher Algorithmennutzung vor.
 
86
Vgl. etwa die Untersuchung des Risikobewertungs-Tools COMPAS durch das Journalistennetzwerk ProPublica: Larson/Mattu et al., How We Analyzed the COMPAS Recidivism Algorithm, ProPublica vom 23.05.2016.
 
87
Es ist indes zugleich technisch nicht möglich, ein kompliziertes System in endlicher Zeit so ausführlich zu testen, dass sich für jede denkbare Konstellation des Inputs ein garantiert erwünschtes Ergebnis (also z. B. das Ergebnis „keine Diskriminierung“) erzielen lässt. Das ergibt sich aus dem der sog. Non-Computability, die bereits Alan Turing beschrieben hat; vgl. hierzu detailliert Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (652) m. w. N. in den Fn. 58 f. Denn solchen Tests steht nie eine unendliche Zeit, sondern immer nur ein begrenzter Zeitraum zur Verfügung. In diesem begrenzten Zeitabschnitt ist die Zahl an verschiedenen Inputs und Outputs, die sich testen und untersuchen lässt, zwangsläufig begrenzt. Eine Richtigkeitsgarantie lässt sich dann aber nicht geben.
 
88
Dazu grundlegend Pager, The ANNALS of the American Academy of Political and Social Science 609 (2007), 104 (108 ff.); ähnlich auch ONeil, Weapons of Math Destruction, 2016, S. 208.
 
89
Hierunter versteht man das automatisierte Abgreifen der Daten, die andere Websites anzeigen; vgl. hierzu Hirschey, Berkeley Technology Law Journal 29 (2014), 897 (897 f.) m. w. N.
 
90
Siehe dazu auch Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (660 f.). In nicht-digitalen Zusammenhängen geht auch der Gesetzgeber davon aus, dass es Testverfahren braucht, um Diskriminierungen darzulegen. Vgl. die Gesetzesbegründung zu § 22 AGG, BT-Drs. 16/1780, S. 47.
 
91
Hannak/Soeller et al., Measuring Price Discrimination and Steering on E-commerce Web Sites, in: Williamson/Akella/Taft (Hrsg.), Proceedings of the 2014 ACM Internet Measurement Conference, 2014, S. 305 (307 f.); Vafa/Haigh et al., Price Discrimination in The Princeton Review’s Online SAT Tutoring Service, http://​techscience.​org/​a/​2015090102/​ (20.06.2018). Inwieweit ein empirisches Verfahren, das auf der Eingabe falscher Identitäten beruht und daher regelmäßig dem Willen und den AGB des Scoring-Anbieters widerstreitet, zulässig ist, ist jedoch zweifelhaft. Um diese Fragen führen Wissenschaftler in den Vereinigten Staaten einen viel beachteten Gerichtsprozess: „Sandvig v. Lynch“ gegen den Computer Fraud and Abuse Act; vgl. American Civil Liberties Union, Sandvig v. Lynch – Challenge to CFAA Prohibition on Uncovering Racial Discrimination Online, https://​www.​aclu.​org/​cases/​sandvig-v-lynch-challenge-cfaa-prohibition-uncovering-racial-discrimination-online (18.09.2018).
 
92
Lischka/Klingel, Wenn Maschinen Menschen bewerten, 2017, S. 25.
 
93
Zu den Einschränkungen kognitiver Fähigkeiten, die aus wirtschaftswissenschaftlicher Sicht eine begrenzte Entscheidungsrationalität bzw. „bounded rationality“ nach sich ziehen, vgl. grundlegend Langlois, Journal of Institutional and Theoretical Economics 146 (1990), 691 (691 ff.); disziplinübergreifend auch Hill, DÖV 2014, 213 (220).
 
94
Vgl. etwa die Ergebnisse einer israelischen Studie Danziger/Levav et al., PNAS 108 (2011), 6889 (6889 ff.): Hungrige Richter tendieren nach den Erkenntnissen der Untersuchung im Anschluss an die Mittagspause zu milderen Urteilen. Empirisch valide belegt sind die Ergebnisse jedoch nicht. Die Studie litt an methodischen Mängeln: Sie berücksichtigte insbesondere nicht die Besonderheiten der gerichtlichen Terminierungspraxis in den untersuchten Gerichten, welche die Studienergebnisse verzerren können. Dazu Glöckner, Judgment and Decision Making 11 (2016), 601 (602 ff.); Weinshall-Margel/Shapard, PNAS 108 (2011), E833 (E833).
 
95
Kamarinou/Millard et al., Machine Learning with Personal Data, 2016, S. 15, schlagen ein Recht darauf vor, bestimmte menschliche Entscheidungen mit Hilfe vollautomatisierter Verfahren überprüfen zu lassen. Ein Arzt müsste dann bspw. vor einem medizinischen Eingriff nachweisen und dokumentieren, dass ein algorithmenbasiertes Assistenzsystem ihm keine andere Entscheidung vorgeschlagen hat und anderenfalls die Zweitmeinung eines Kollegen einholen.
 
96
Robinette/Li et al., Overtrust of robots in emergency evacuation scenarios, in: Bartneck (Hrsg.), The Eleventh ACMIEEE International Conference on Human Robot Interaction, 2016, S. 101 ff.
 
97
Barth, Algorithmik für Einsteiger, 2. Aufl., 2014, S. 16, hat diesen Befund in der Formulierung zugespitzt: „Computer denken nicht, sondern gehorchen Befehlen.“ Vgl. auch Hacker, Common Market Law Review 55 (2018), 1143 (1147) m. w. N.; Stalder, Algorithmen, die wir brauchen, in: Otto/Gräf (Hrsg.), 3TH1CS, 2017, S. 44 (51 f.).
 
98
Dazu Tene/Polonetsky, Northwestern Journal of Technology and Intellectual Property 11 (2013), 239 (270 f.); ähnlich Burrell, Big Data & Society 3 (2016), 1 (3); Commission Nationale de l’Informatique et des Libertés, Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, 2017, S. 34; Mittelstadt/Allo et al., Big Data & Society 2016, 1, S. 7 f. m. w. N.; ONeil, Weapons of Math Destruction, 2016, S. 3.
 
99
The White House, Big Data: Seizing Opportunities, Preserving Values, Mai 2014, S. 46.
 
100
Eine hermetische Tendenz hat bspw. der Philosoph Vilém Flusser der Informationsgesellschaft und ihren neuen Medien bereits 1997 ins Stammbuch geschrieben. Er prognostizierte eine Gesellschaft, die sich nach für sie nicht decodierbaren, aber befolgbaren Erkenntnis-, Erlebnis- und Verhaltensmodellen richtet – entworfen von einer Elite mit Hilfe künstlicher Intelligenzen, die ihre Sortierungsmechanismen fortlaufend perfektionieren. Vgl. Flusser, Medienkultur, 1997, S. 53.
 
101
Digitale Analogien zu diesen Kontrollmustern sind zwar derzeit rar, aber aus der Perspektive des Programmdesigns durchaus denkbar. Das Vieraugenprinzip ließe sich an verschiedenen Knotenpunkten der Laufzeit einer Software implementieren – ebenso ist es denkbar, besonders sensitive Bereiche für ein „Vieraugenprinzip“ aus Mensch und Rechner zu identifizieren, in denen zur algorithmischen auch eine menschliche Bewertung hinzutritt (so auch die Grundwertung, die hinter Art. 22 DSGVO steckt; dazu unten D. II. 1.).
 
102
Data Mining zielt darauf ab, aus großen Datenmengen mit vertretbarem Aufwand Wissen zu generieren und dieses für den Menschen verständlich darzustellen sowie konkret anzuwenden; vgl. bspw. Ertel, Grundkurs Künstliche Intelligenz, 4. Aufl., 2016, S. 196.
 
103
Zu diesen Dynamiken und mit allgemeinen Überlegungen, alternative Pfade zu beschreiten, Werle, Pfadabhängigkeit, in: Benz/Lütz/Schimank et al. (Hrsg.), Handbuch Governance, 2007, S. 119 (128 f.). Vgl. auch Hacker, Common Market Law Review 55 (2018), 1143 (1147 f.) m. w. N.
 
104
Lobe, Die Macht der Datenkonzerne und Algorithmen, FAZ vom 14.09.2016, S. 13.
 
105
Vgl. dazu Schep, Data leads to Social Cooling, https://​www.​socialcooling.​com/​ (20.06.2018).
 
106
Vgl. dazu etwa auch Hacker, Common Market Law Review 55 (2018), 1143 (1148 f.).
 
107
Ähnlich Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (28 f.), die das Risiko, dass die Systeme auf einer alten, von analogen Diskriminierungen geprägten Datengrundlage aufbauen und aus ihr lernen, als viel größer einschätzen als das Risiko einer originär diskriminierenden Entwicklung. Vgl. auch Barocas/Selbst, California Law Review 104 (2016), 671 (680 f.).
 
108
Sickert, Der Algorithmus ist Rassist, Spiegel Online vom 09.09.2016; zu weiteren Beispielen, etwa einer diskriminierenden Gesichtserkennungssoftware von Google, die Personen schwarzer Hautfarbe nicht als Menschen, sondern als Gorillas identifizierte; siehe bspw. Commission Nationale de l’Informatique et des Libertés, Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, 2017, S. 31 ff.
 
109
Vgl. hierzu auch Barocas/Selbst, California Law Review 104 (2016), 671 (731); Commission Nationale de l’Informatique et des Libertés, Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, 2017, S. 30 ff.
 
110
Vgl. zu Amazon etwa Fuest, Sie wissen, was Du morgen kaufst, Welt am Sonntag vom 04.12.2016, S. 42.
 
111
Dazu bereits aus lauterkeitsrechtlicher Sicht Hofmann, WRP 2016, 1074 (1075, 1080); vgl. auch Zuiderveen Borgesius/Poort, Journal of Consumer Policy 40 (2017), 347 (349) mit weiteren Beispielen und Nachweisen; Martini, Big Data, in: Hill/Martini/Wagner (Hrsg.), Digitale Lebenswelt, 2015, S. 97 (152 f.).
 
112
Für staatliche bzw. grundrechtsgebundene Marktakteure verbieten die Grundfreiheiten (insbesondere Art. 56 AEUV) eine Preisdiskriminierung von EU-Ausländern grundsätzlich, vgl. dazu auch BVerfG, NVwZ 2016, 1553 (1556, Rn. 44 ff.).
 
113
Unterschiedliche Zugangsregelungen oder Zahlungsregelungen für EU-Bürger untersagt mit Wirkung ab 03.12.2018 die Verordnung (EU) 2018/302 vom 28.02.2018, ABl. Nr. L 60 I, S. 1. Vgl. auch Redaktion beck-aktuell, EU-Kommission ermahnt Autovermieter wegen Verbraucherdiskriminierung, beck-aktuell vom 12.08.2014, becklink 1033998; zum Geoblocking Europäische Kommission, Preliminary Report on the E-commerce Sector Inquiry, 2016, S. 109 f., Rn. 311 f.; S. 120 ff., Rn. 340 ff.; S. 232 ff., Rn. 746 ff.
 
114
Inwieweit Preisdiskriminierung rechtlich unzulässig ist, steht dabei auf einem anderen Blatt. Grundsätzlich ist sie Teil der Privatautonomie der Wirtschaftsakteure. Das AGG untersagt zwar Benachteiligungen bei zivilrechtlichen Massengeschäften (§ 19 Abs. 1 Nr. 2 AGG) – nicht jedoch pauschal, sondern wegen spezifischer Diskriminierungskriterien, insbesondere des Geschlechts, der Rasse, oder Religion. Die Zahlungsbereitschaft gehört nicht zu den verfemten Kriterien. Eine Preisdifferenzierung kann sich jedoch als eine mittelbare Diskriminierung wegen eines geschützten Merkmals i. S. d. § 1 AGG, z. B. der Religion entpuppen, etwa wenn ein Vermieter Menschen muslimischen Glaubens nur zu höherem Mietzins ein Vertragsangebot macht. Vgl. auch Hesse, NJW 2012, 572 (576); Zuiderveen Borgesius/Poort, Journal of Consumer Policy 40 (2017), 347 (356 ff.); zu unionsrechtlichen, insbesondere kartellrechtlichen Implikationen EuGH, EuZW 2016, 435 ff. (Eturas); zu diesem Urteil auch Deselaers, in: Grabitz/Hilf/Nettesheim (Hrsg.), EUV/AEUV, 26. Erg.-Lfg. (Stand: Apr. 2015), Art. 102 AEUV, Rn. 420 ff. m. w. N.; Göckler, NZKart 2018, 416 ff.; Hoffmann/Schneider, EuZW 2015, 47 ff. Vgl. für das Schweizer Recht etwa Thouvenin, Jusletter IT vom 22.09.2016, S. 7 ff. Zu kartellrechtlichen Implikationen wegen verbotener Preisabsprachen durch automatische Preissetzung bspw. Bundeskartellamt, Bundeskartellamt startet Untersuchung von Vergleichsportalen, Pressemitteilung v. 24.10.2017; Bundeskartellamt, Big Data und Wettbewerb, 2017, S. 8; OECD, Algorithms and Collusion, 2017, S. 18 ff.; Ebers, NZKart 2016, 554 f.; Ylinen, NZKart 2018, 19 ff. m. w. N.
 
115
Unwesentlich erscheinende technische Schwierigkeiten – wie die Tatsache, dass Spracherkennungsprogramme Menschen mit Dialekten oder Idiomen, die von der Standardsprache abweichen, schlechter verstehen – können sich dadurch stärker auswirken, dass ein Scoring-Programm mit der schlechteren Verständlichkeit mangelnde sprachliche Kompetenz verbindet. Vgl. hierzu Knight, MIT Technology Review 120 (Nov. 2017), 15.
 
116
Viele Tests enthalten Skalenfragen wie „Im Verlauf eines Tages kann ich viele Stimmungswechsel erfahren“ und „Wenn etwas sehr Schlimmes passiert, brauche ich einige Zeit, damit ich mich wieder glücklich fühle“, um die Personen nach einem Persönlichkeitsmodell zu bewerten. Einige Tests fragen ab, wie lange der Kandidat die Anfahrt zum neuen Arbeitsort einschätzt: Bewerber mit langen Anfahrtswegen sonderte ein Dienstleister in der Folge automatisch aus, weil Mitarbeiter mit langen Wegen statistisch eher kündigen als ortsansässige (Lischka/Klingel, Wenn Maschinen Menschen bewerten, 2017, S. 22). Während in Großbritannien und den Vereinigten Staaten 60 bis 70 % der Bewerber automatisierten Auswahlverfahren und Tests unterzogen werden, setzten in Deutschland einer Umfrage aus dem Jahr 2016 zufolge nur 6 % der 1000 größten deutschen Unternehmen computergesteuerte Auswahlverfahren ein. Knapp die Hälfte der befragten Unternehmen geht jedoch davon aus, dass „eine computergesteuerte und automatische Selektion von Bewerbungen in Zukunft immer häufiger zum Einsatz kommen wird“. Ausführlich zu den Risiken – und Chancen – der Bewerbervorauswahl per Online-Persönlichkeitstests Lischka/Klingel, Wenn Maschinen Menschen bewerten, 2017, S. 22 ff. Neben Persönlichkeitstests kommt teilweise auch Sprachanalyse-Software zum Einsatz. Auf der Grundlage automatischer Telefoninterviews bewertet die Software u. a. charakterliche Eigenschaften. Zum Diskriminierungspotenzial solcher Anwendungen bspw. Dzida/Groh, NJW 2018, 1917 (1919).
 
117
Vgl. auch Hacker, Common Market Law Review 55 (2018), 1143 (1150) m. w. N.
 
118
Doch nicht nur schlechte Daten, auch zu wenige Daten können systematische Benachteiligungen nach sich ziehen. In den USA erhalten viele Bürger keine oder nur sehr teure Kredite, weil ihr Profil für gute Rückzahlprognosen nicht datenreich genug ist; Lischka/Klingel, Wenn Maschinen Menschen bewerten, 2017, S. 31 ff. Diese Benachteiligung wiegt umso schwerer, als die für Kreditwürdigkeitsprognosen entwickelten Scores auch in anderen Lebensbereichen zur Anwendung kommen, um Menschen zu klassifizieren. Vermutungen zufolge müssen Menschen mit schlechtem Score mit teureren Kreditkarten vorlieb nehmen; ihre Anrufe in Callcentern werden hintenangestellt; Lischka/Klingel, Wenn Maschinen Menschen bewerten, 2017, S. 34. Ein unterdurchschnittlicher Scoring-Wert kann die Prämien für Autoversicherungen – unabhängig vom tatsächlichen Fahrverhalten – deutlich verteuern.
 
119
So auch Entschließung des Europäischen Parlaments vom 14.03.2017, 2016/2225(INI), Punkte 19 ff., 31; vgl. auch Mittelstadt/Allo et al., Big Data & Society 2016, 1 (5 ff. m. w. N.).
 
120
Vgl. zur „downward spiral“ ONeil, Weapons of Math Destruction, 2016, S. 7. Besonders anschaulich in seinen Auswirkungen auf den Einzelnen würdigt der Dystopie-Roman „Qualityland“ von Marc-Uwe Kling dieses Symptom und treibt es literarisch auf die Spitze.
 
121
Dazu bereits oben A. mit Fn. 7.
 
122
Larson/Mattu et al., How We Analyzed the COMPAS Recidivism Algorithm, ProPublica vom 23.05.2016. Die Untersuchung basiert auf einem Vergleich von 11.757 Beschuldigten, auf welche die Software in den Jahren 2013 und 2014 Anwendung fand. Die Studie vergleicht die tatsächlichen Rückfallereignisse für 2016 mit den Prognosen der Software. Siehe auch die journalistische Zusammenfassung bei Angwin/Larson et al., Machine Bias, ProPublica vom 23.05.2016; Lischka/Klingel, Wenn Maschinen Menschen bewerten, 2017, S. 9 ff.
 
123
Zur Kritik an dieser Auswertung aufgrund methodischer Ungenauigkeiten die Gegendarstellung des Herstellers Dieterich/Mendoza et al., COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity, 2016, S. 1, 20 ff. sowie der Wissenschaftler Flores/Lowenkamo et al., Federal Probation 80 (2016), 38 (39 ff.). Die Gegen-Gegendarstellung der ProPublica-Autoren findet sich bei Angwin/Larson, ProPublica Responds to Company’s Critique of Machine Bias Story, ProPublica vom 29.07.2016. Die Debatte zusammenfassend Zweig/Krafft, Fairness und Qualität algorithmischer Entscheidungen, in: Mohabbat Kar/Thapa/Parycek (Hrsg.), (Un)Berechenbar?, 2018, S. 204 (214 f.).
 
124
Kleinberg/Mullainathan et al., 2017, arXiv:1609.05807v2, S. 3 ff.; Chouldechova, arXiv:1610.07524v1 2016, S. 2 ff.; Corbett-Davies/Pierson et al., A computer program used for bail and sentencing decisions was labeled biased against blacks. It’s actually not that clear., Washington Post Online vom 17.10.2016; Zweig/Krafft, Fairness und Qualität algorithmischer Entscheidungen, in: Mohabbat Kar/Thapa/Parycek (Hrsg.), (Un)Berechenbar?, 2018, S. 204 (215).
 
125
Corbett-Davies/Pierson et al., A computer program used for bail and sentencing decisions was labeled biased against blacks. It’s actually not that clear., Washington Post Online vom 17.10.2016.
 
126
Zu all dem Corbett-Davies/Pierson et al., A computer program used for bail and sentencing decisions was labeled biased against blacks. It’s actually not that clear., Washington Post Online vom 17.10.2016 mit Verweis auf Kleinberg/Mullainathan et al., 2017, arXiv:1609.05807v2, S. 3 ff. zu den mathematischen Problemen bei verschiedenen Fairness-Ansätzen. Eine plastische Erläuterung findet sich auch bei Zweig/Krafft, Fairness und Qualität algorithmischer Entscheidungen, in: Mohabbat Kar/Thapa/Parycek (Hrsg.), (Un)Berechenbar?, 2018, S. 204 (216 ff.).
 
127
Dazu Fn. 125. Unter diesen Ausgangsbedingungen wird das System dann Dunkelhäutigen – empirisch korrekt – häufiger als Weißen ein höheres Risikolevel zuordnen.
 
128
Vgl. die Nachweise in Fn. 124.
 
129
Vgl. auch Hacker, Common Market Law Review 55 (2018), 1143 (1150) m. w. N.
 
130
Zur Kriminalitätstheorie des sog. Etikettierungsansatzes (Labeling Approach) siehe etwa Bock, Kriminologie, 4. Aufl., 2013, S. 67 ff.
 
131
Vgl. zur „downward spiral“ ONeil, Weapons of Math Destruction, 2016, S. 7; erste Ansätze für eine empirische Untersuchung solcher Phänomene finden sich bei Vieth/Wagner, Teilhabe, ausgerechnet, Juni 2017, S. 26 ff.
 
132
Dazu bspw. ONeil, Weapons of Math Destruction, 2016, S. 133.
 
133
Siehe dazu Dressel/Farid, Science advances 4 (2018), 1 (1 ff.).
 
134
Der KI-Forscher Jürgen Schmidhuber geht etwa davon aus, dass „innerhalb einiger Jahre“ neuronale Netzwerke entstehen, „die so viel rohe Rechenkraft besitzen wie das menschliche Gehirn“: „In ein paar Jahrzehnten wird eine einzige relativ billige Maschine über die rohe Rechenkraft der gesamten Menschheit verfügen. Und es wird sehr viele solche Maschinen geben“, zitiert nach Schlieter, Die Herrschaftsformel, 2015, S. 34. Vgl. auch Schmidhuber, Eine Maschine, klüger als der Mensch, Zeit Online vom 03.06.2016.
 
135
Zu den Unterschieden zwischen menschlicher und künstlicher Intelligenz siehe auch bereits oben A. I. 4.
 
136
Ziegenbalg/Ziegenbalg et al., Algorithmen von Hammurapi bis Gödel, 4. Aufl., 2016, S. 203.
 
137
Vgl. zu den Einzelheiten Barth, Algorithmik für Einsteiger, 2. Aufl., 2014, S. 173 ff.; zu den Grenzen von Computern auch Ziegenbalg/Ziegenbalg et al., Algorithmen von Hammurapi bis Gödel, 4. Aufl., 2016, S. 203 ff., mit konkreten Beispielen für die Grenzen der Algorithmik (S. 220 f.).
 
138
Bächle, Mythos Algorithmus, 2015, S. 144 m. w. N.: Eine Maschine, die sich über die Grenze der Kalkulierbarkeit hinwegsetzt, müsste „fähig sein […], mit unberechenbaren Berechnungen zu rechnen, die im Zeichensystem ohne Sinn wären. Eine solche Maschine ist nicht denkbar“ (S. 144).
 
139
Die Konsequenzen von Entscheidungen zu bewerten, wird daher auf absehbare Zeit Aufgabe des Menschen bleiben.
 
140
Paradigmatisch steht dafür das Programm DeepL eines Kölner Unternehmens.
 
141
Das menschliche Denken, das die smarten Programme in aller Regel zu imitieren bzw. zu übertreffen versuchen, ist auch ein (an biologische Bedingungen gebundenes) „Artefakt unserer kulturellen, das heißt sozialen Umgebung“ und dadurch mehr als ein bloßer Vorgang der Datenverarbeitung, Gabriel, Der Sinn des Denkens, 2018, S. 195 ff., 312. Zur Sensorik eines Algorithmus als Grenze seiner Kognitions- und Argumentationsfähigkeit siehe bspw. Kirn/Müller-Hengstenberg, MMR 2014, 225 (228).
 
142
Vgl. dazu auch bereits Martini, Big Data, in: Hill/Martini/Wagner (Hrsg.), Digitale Lebenswelt, 2015, S. 97 (132 f.); Mittelstadt/Allo et al., Big Data & Society 2016, 1, S. 5 f. m. w. N.
 
143
Vgl. aber auch oben A. II. 1. mit Fn. 67.
 
144
Vgl. dazu das Experiment der (sich insbesondere aus Schriftstellern und Computer-Nerds rekrutierenden) Gruppe „Botnik“, botnik.​org/​content/​harry-potter.​html (20.01.2018).
 
145
Kreye, Ein echter Rembrandt – aus dem Rechner, Süddeutsche Zeitung Online vom 16.04.2016.
 
146
Zur Sorge davor etwa Bostrom, Superintelligenz, 2016 (passim).
 
147
Zitiert nach Mainzer, Künstliche Intelligenz – Wann übernehmen die Maschinen?, 2016, S. 13.
 
148
Zur Frage der Ethik für Künstliche Intelligenz siehe etwa Bostrom/Yudkowsky, The ethics of artificial intelligence, in: Frankish/Ramsey (Hrsg.), The Cambridge Handbook of Artificial Intelligence, 2014, S. 316 ff. Vgl. auch den Aufruf des DeepMind-Gründers Suleyman, In 2018, AI will gain a moral compass, Wired vom 05.01.2018.
 
149
Ein Beispiel hierfür ist die Vorhersage der Flugpreisentwicklung durch Flugreservierungsdatenbanken; siehe Mayer-Schönberger/Cukier, Big Data, 2013, S. 10 f.
 
150
Vgl. etwa Schallaböck, Verbraucher-Tracking, 2014, S. 5. Bei sozialen Medien treten ferner direkte und indirekte Netzwerkeffekte hinzu, welche die Position des Marktführers stärken und für Dritte zu einer bisweilen nur schwer angreifbaren Trutzburg ausbauen; vgl. Hamelmann/Haucap, Wettbewerb und Regulierung auf Online-Plattformmärkten, in: Lenel/Apolte/Berthold et al. (Hrsg.), ORDO, 2016, S. 269 (288); Körber, WuW 2015, 120 (123) m. w. N.
 
151
Sie beschreiben die Gesamtheit aller monetär sowie nicht-monetär erfassbaren Kosten, die ein Marktaustausch mit sich bringt. Dessen Koordination ist nicht ohne Ressourcenaufwand möglich; vgl. Picot, DBW 45 (1985), 224 (224). So ist beispielsweise jeder Vertragsschluss „mit Kosten für die Suche nach geeigneten Vertragspartnern (Anbietern oder Nachfragern) verbunden. […] Es entstehen Such-, Informations- und Entscheidungskosten, zum Beispiel Kosten für Werbung, Wegekosten etc. (…)“, Martini, Der Markt als Instrument hoheitlicher Verteilungslenkung, 2008, S. 162. All diese „Betriebskosten“ des Marktmechanismus firmieren unter Sammelbezeichnung der Transaktionskosten. Den Topos hat Ronald H. Coase (unter der Wendung „marketing costs“) geprägt und in seiner Bedeutung für die Ökonomie erschlossen, siehe Coase, Economica 4 (1937), 386 (392, 403).
 
152
Hayek, Der Wettbewerb als Entdeckungsverfahren, 1968, S. 1.
 
153
Dazu für den Versicherungsmarkt Grüner/Hiebl, VW 2014, 60 (62).
 
154
Vgl. auch zu dem Verfahren des Bundeskartellamts gegen Facebook: Bundeskartellamt, Bundeskartellamt eröffnet Verfahren gegen Facebook wegen Verdachts auf Marktmachtmissbrauch durch Datenschutzverstöße, Pressemitteilung v. 02.03.2016 sowie etwa Bernau, Jetzt geht es gegen Facebook, FAZ online vom 02.03.2016.
 
155
Facebook übernahm die Firma hinter der beliebten Messenger-App für 19 Milliarden Dollar; vgl. etwa Lindner, Mark Zuckerbergs Mega-Deal, FAZ online vom 20.02.2014.
 
156
Facebook investierte 1 Milliarde Dollar, um die App in sein Unternehmensportfolio zu integrieren, vgl. dazu etwa Fröhlich, Die Milliarden-Dollar-Idee, Stern.de vom 10.04.2012.
 
157
Google übernahm das britische KI-Unternehmen für schätzungsweise 400 Millionen Pfund; vgl. Gibbs, Google buys UK artificial intelligence startup Deepmind for £400m, The Guardian online vom 27.01.2014.
 
158
Solchen Vorwürfen sah sich in der jüngeren Vergangenheit insbesondere Facebook ausgesetzt. Vgl. etwa Reinbold, Internetkonzerne im Wahlkampf: „Es gibt riesige ethische Fragen“, Spiegel Online vom 19.05.2016.
 
159
Lobe, Die Macht der Datenkonzerne und Algorithmen, FAZ vom 14.09.2016, S. 13.
 
160
Lobe, Die Macht der Datenkonzerne und Algorithmen, FAZ vom 14.09.2016, S. 13.
 
161
Siehe den Vorschlag einer Daten-Sharing-Pflicht Mayer-Schönberger/Ramge, Das Digital, 2017, S. 195 ff. sowie den politischen Vorstoß der SPD-Vorsitzenden Andrea Nahles, Internetunternehmen mit beherrschender Marktmacht – nach dem Vorbild der Zwangslizenz im Urheberrecht – zu verpflichten, ihre anonymisierten Daten zur Verfügung zu stellen; Nahles, Die Tech-Riesen des Silicon Valley gefährden den fairen Wettbewerb, Handelsblatt.​com vom 13.08.2018.
 
162
Vgl. etwa BVerfGE 128, 226 (244 f., Rn. 48) – Fraport. Zu den Herausforderungen, bei Grundrechtsbedrohungen, die nicht originär dem staatlichen Bereich zuzuordnen sind, eine exakte Grenze zwischen Schutz- und Abwehrfunktion zu ziehen, vgl. bspw. Jaeckel, Schutzpflichten im deutschen und europäischen Recht, 2001, S. 63 ff.
 
163
BVerfGE 128, 226 (252, Rn. 68) – Fraport; beim Smart Home z. B. Art. 10 GG; beim Smartphone Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG; bei sozialen Netzwerken die Meinungsfreiheit des Art. 5 Abs. 1 GG.
 
164
Vgl. BVerfGE 128, 226 (249 f., Rn. 59) – Fraport.
 
165
Vgl. hierzu grds. Herdegen, in: Maunz/Dürig (Hrsg.), GG, 44. Erg.-Lfg. (Stand: Febr. 2005), Art. 1 Abs. 3, Rn. 16 ff.; siehe auch Sandfuchs, Privatheit wider Willen?, 2015, S. 117 f. m. w. N., sowie Schliesky/Hoffmann et al., Schutzpflichten und Drittwirkung im Internet, 2014, S. 47 ff. und Knebel, Die Drittwirkung der Grundrechte und -freiheiten gegenüber Privaten, 2018, S. 55.
 
166
BVerfGE 39, 1 (42); 125, 39 (78 f., Rn. 134 f.); zur Dogmatik Isensee, § 191 – Das Grundrecht als Abwehrrecht und staatliche Schutzpflicht, in: Isensee/Kirchhof (Hrsg.), Handbuch des Staatsrechts, Bd. IX, 3. Aufl., 2011, Rn. 146 ff. Vgl. auch Papier, NJW 2017, 3025 (3036 f.); Gurlit, NJW 2010, 1035 (1040 f.).
 
167
Vgl. BVerfGE 49, 89 (142).
 
168
BVerfGE 128, 226 (249, Rn. 59) – Fraport; zuletzt BVerfG, NJW 2015, 2485 (2485 f., Rn. 6); hierzu insgesamt Knebel, Die Drittwirkung der Grundrechte und -freiheiten gegenüber Privaten, 2018, S. 47 ff., 174 ff.
 
169
BVerfGE 128, 226 (249 f., Rn. 59) – Fraport.
 
170
Auch die körperliche Integrität des Art. 2 Abs. 2 S. 1 GG kann insbesondere bei Algorithmen, die etwa im Internet der Dinge zum Einsatz kommen, eine ergänzende Schutzwirkung entfalten. Das gilt bspw. bei selbstfahrenden Fahrzeugen, Robotern oder medizinischen Expertensystemen, die Behandlungsentscheidungen vorbereiten oder treffen.
 
171
Dazu etwa BVerfGE 133, 143 (158, Rn. 41); OVG Berlin-Brandenburg, LKV 2008, 369 (372 f.); Martini, NVwZ-Extra 2014, 1 (9).
 
172
Zur Gewährleistung gerichtlicher Kontrolle BVerfGE 110, 33 (54 f.); Grzeszick, in: Maunz/Dürig (Hrsg.), GG, 73. Erg.-Lfg. (Stand: Dez. 2014), Art. 20, Rn. 58.
 
173
Grzeszick, in: Maunz/Dürig (Hrsg.), GG, 73. Erg.-Lfg. (Stand: Dez. 2014), Art. 20, Rn. 21, 31; Huster/Rux, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 39. Ed. (Stand: 15.11.2018), Art. 20, Rn. 182; vgl. zum Bestimmtheitsgebot auch BVerfGE 110, 33 (53 f.); Kunig, Das Rechtsstaatsprinzip, 1986, S. 396 ff.; vgl. ähnlich zum Gesamtkonzept der Transparenz auch Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (38 ff.).
 
174
Nettesheim, in: Grabitz/Hilf/Nettesheim (Hrsg.), EUV/AEUV, 48. Erg.-Lfg. (Stand: Aug. 2012), Art. 1 EUV, Rn. 36.
 
175
Krajewski/Rösslein, in: Grabitz/Hilf/Nettesheim (Hrsg.), EUV/AEUV, 51. Erg.-Lfg. (Stand: Sept. 2013), Art. 15 AEUV, Rn. 32.
 
176
Sie wurde noch unter Geltung von Art. 255 EGV a. F. erlassen und regelt daher nur die Zugangsrechte gegenüber dem Parlament, dem Rat und der Kommission. Die meisten anderen Unionseinrichtungen haben aber vergleichbare Zugangsregelungen in ihre Geschäftsordnungen aufgenommen; vgl. Krajewski/Rösslein, in: Grabitz/Hilf/Nettesheim (Hrsg.), EUV/AEUV, 51. Erg.-Lfg. (Stand: Sept. 2013), Art. 15 AEUV, Rn. 42. Einen Überblick über die Antragspraxis gibt Brauneck, NVwZ 2016, 489 ff.
 
177
Dörr, in: Burgi/Dreher (Hrsg.), Beck’scher Vergaberechtskommentar, 3. Aufl., 2017, § 97 Abs. 1 GWB, Rn. 30.
 
178
Aus ähnlichen Gründen erlegt das Infrastrukturrecht marktbeherrschenden Unternehmen Transparenzpflichten gegenüber ihren Konkurrenten auf. Sie sollen den Risiken begegnen, die aus den ökonomischen Besonderheiten, insbesondere Skaleneffekten und Netzwerkexternalitäten, der Netzwirtschaft erwachsen; vgl. z. B. § 20 TKG, § 20 EnWG.
 
179
Dazu Heldt, CR 2018, 494 (497 ff.).
 
180
Siehe etwa § 8a RStV (Informationspflicht eines Veranstalters von Gewinnspielen und Gewinnspielsendungen); § 44 Abs. 2 KrWG (Informationspflicht über Kosten der Ablagerung von Abfällen); § 1 Abs. 2 Nr. 1 SGB III (Transparenz als Ziel der Arbeitsförderung).
 
181
Kugelmann, Informationelle Rechtsstellung, 2001, S. 60 f.; vgl. auch Gurlit, DVBl 2003, 1120 (1121): „Das Grundgesetz enthält ebenso wenig eine Informationsverfassung wie eine Wirtschaftsverfassung“; Bröhmer, Transparenz als Verfassungsprinzip, 2004, S. 33. a. A. Wegener, Der geheime Staat, 2006, S. 475, der aus dem Demokratiegebot ein subjektiv einklagbares Recht der Verwaltungstransparenz ableitet.
 
182
Für die demokratische Willensbildung ausdrücklich BVerfGE, 40, 296 (327).
 
183
VerfGH RhPf, NVwZ 2018, 492 (493 f., Rn. 17).
 
184
Dazu bspw. Martini, Zwischen Agora und Arkanum: Die Innenministerkonferenz als Gegenstand des Informationsrechts, 2018, S. 184 ff. Zu möglichen Einwirkungen des Art. 10 Abs. 1 S. 2 EMRK auf das nationale Recht siehe dort S. 109 ff. sowie Engelbrecht, ZD 2018, 108 (108 ff.).
 
185
BVerwGE 146, 56 ff.; Martini, Zwischen Agora und Arkanum: Die Innenministerkonferenz als Gegenstand des Informationsrechts, 2018, S. 212 ff.
 
186
Vgl. Gurlit, DVBl 2003, 1120 (1121 f.). Kritik an diesem Fokus auf Verfahren und Staatshandlungen äußert bspw. Taylor/Kelsey, Transparency and the open society, 2016, S. 3.
 
187
Vgl. Kugelmann, Informationelle Rechtsstellung, 2001, S. 36 f.
 
188
Für Verteilungsentscheidungen hat der EuGH das bereits früh aus dem unionsrechtlichen Primärrecht herausgelesen. Siehe für das Vergaberecht EuGH, Urt. v. 18.11.1999, ECLI:EU:C:1999:567, Rn. 31; Urt. v. 07.12.2000, ECLI:EU:C:2000:669, Rn. 61; Urt. v. 13.10.2005, ECLI:EU:C:2005:605, Rn. 49; im nationalen Recht § 97 Abs. 1 GWB.
 
189
Vgl. Kugelmann, Informationelle Rechtsstellung, 2001, S. 53 ff.
 
190
Vgl. hierzu allgemein BVerfGE 38, 105 (111); zur Herleitung des Transparenzgebots vgl. auch Wirtz/Brink, NVwZ 2015, 1166 (1168).
 
191
Meyer-Ladewig/Harrendorf et al., in: Meyer-Ladewig/Nettesheim/Raumer (Hrsg.), EMRK, 4. Aufl., 2017, Art. 6 EMRK, Rn. 87, 89.
 
192
Es verbürgt dem Betroffenen eine verständliche gerichtliche Entscheidung. Vgl. BVerfG, Beschl. v. 13.04.2010 – 1 BvR 3515/08, NVwZ 2010, 954 (955, Rn. 36 f.) m. w. N.
 
193
Enders, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 39. Ed. (Stand: 15.11.2018), Art. 19, Rn. 76 m. w. N.
 
194
Vgl. zum Akteneinsichtsrecht Kallerhoff/Mayen, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 29, Rn. 4 ff.; zur Begründungspflicht Stelkens, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 39, Rn. 2 f. m. w. N.
 
195
Zu Möglichkeiten kollektiven Rechtsschutzes unten D. IV. 3. b).
 
196
Vgl. bspw. BVerfG, NVwZ 2018, 813 (816, Rn. 47).
 
197
Dazu ausführlich B. I. 1. b) aa).
 
198
Vgl. nur die Aufzählung von zehn Problembereichen algorithmischer Transparenz bei Ananny/Crawford, new media & society 20 (2018), 973 (978 ff.).
 
199
Budzinski, Wettbewerbsordnung online: Aktuelle Herausforderungen durch Marktplätze im Internet, in: Lenel/Apolte/Berthold et al. (Hrsg.), ORDO, 2016, S. 385 (400 f.); Körber, WuW 2015, 120 (130 f.).
 
200
BVerfG, NVwZ 2018, 813 (816, Rn. 46) zu Art. 3 Abs. 1 GG; dies lässt sich aber womöglich auf freiheitsrechtliche Grundrechtsgewährleistungen übertragen, vgl. Weinzierl, Warum das Bundesverfassungsgericht Fußballstadion sagt und Soziale Plattformen trifft, JuWissBlog Nr. 48/2018 vom 24.05.2018.
 
201
BVerfG, NVwZ 2018, 813 (816, Rn. 46 f.); zu den relevanten Abwägungsfaktoren a. a. O., 815, Rn. 33.
 
202
Bereits deshalb, weil der Faktor „Wohnort“ in das SCHUFA-Scoring eingeht, hat derjenige, der in einer sozioökonomisch schwächeren Gegend wohnt, womöglich schlechtere Karten, wenn er sich um eine Wohnung oder eine Arbeitsstätte bewirbt. Fließen in das Scoring auch Big-Data-Sätze, wie der Standort eines Smartphones oder die Nutzungsdaten bei Amazon, ein (so der Score auch Bewegungsmuster sowie Einkaufsgewohnheiten abbildet), determinieren sich die Chancen auf dem Wohnungs- und Arbeitsmarkt noch stärker nach sozioökonomischen Gruppenzuschreibungen.
 
203
Ausführlich zur algorithmisch gesteuerten Bewerbervorauswahl per Online-Persönlichkeitstest siehe oben B. I. 2. b) bb) mit Fn. 116.
 
204
Vgl. etwa das „Do not pay”-Portal des US-Departement of Treasury (http://​donotpay.​treas.​gov). Dessen Zielvorgabe, die Zahl unzulässiger oder missbräuchlicher Zahlungen zu reduzieren, gilt es, gegen die Diskriminierungsrisiken abzuwägen.
 
205
Zur Personalisierung von Bildung und der Sensibilität des Wissens, das Dritte dabei erlangen, siehe bspw. die Big-Data-Studie des Weißen Hauses, The White House, Big Data: Seizing Opportunities, Preserving Values, Mai 2014, S. 24 ff.
 
206
Das Schaufenster der Big-Data-Zukunft stellt bereits verhaltensorientierte Versicherungsprodukte aus, die individuell anhand aggregierter Daten aus Telematiksystemen, Smart Cars, Smart Homes oder sozialen Netzwerken Einstufungen und Prognosen vornehmen; vgl. hierzu sowie zur Kritik hieran ONeil, Weapons of Math Destruction, 2016, S. 164 f.
 
207
Vgl. Niklas/Thurn, BB 2017, 1589 (1589 f.).
 
208
Zum „Automated Continuous Evaluation System” des Department of Defense vgl. The White House, Big Data: Seizing Opportunities, Preserving Values, Mai 2014, S. 36 f.
 
209
Vgl. die gruppendiskriminierenden Autocomplete-Vorschläge zu den Eingaben „jews are …“ oder „muslims are …“ der Suchmaschine Google. Sie wurden im Dezember 2016 aufgedeckt und kurze Zeit später behoben, Gibbs, Google alters search autocomplete to remove ‚are Jews evil‘ suggestion, The Guardian online vom 05.12.2016; Cadwalladr, Google, democracy and the truth about internet search, The Guardian online vom 04.12.2016. Vgl. auch die Kampagne “Google Stop #HateSearch” der Hamburger NGO Goliathwatch. Sie fordert Google dazu auf, hassfördernde Suchvorschläge zu unterbinden; hierzu Goliathwatch, Google macht hetzerische Suchvorschläge wie „Migration ist Völkermord“, Pressemitteilung v. 03.08.2018. Zu den Maßnahmen, die Google gegen diese Phänomene trifft vgl. Sullivan, How Google autocomplete works in Search, https://​www.​blog.​google/​products/​search/​how-google-autocomplete-works-search/​ (03.09.2018).
 
210
Dazu auch Martini, JZ 2017, 1017 (1018).
 
211
Zum „Blackbox-Charakter“ algorithmischer Entscheidungen siehe auch bereits oben B. I. 1.
 
212
Willkürlich handelt der Staat, wenn er eine Regelung trifft, die sich unter keinem sachlich vertretbaren Gesichtspunkt mehr rechtfertigen lässt. BVerfGE 7, 282 (315); 11, 245 (253); 13, 356 (362); 14, 221 (238); 32, 157 (167); 49, 382 (396); st. Rspr.; vgl. dazu auch bspw. Martini, Der Markt als Instrument hoheitlicher Verteilungslenkung, 2008, S. 69 ff.
 
213
Vgl. Kischel, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 38. Ed. (Stand: 15.08.2018), Art. 3, Rn. 92 f.; Wollenschläger, in: von Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 3 Abs. 1, Rn. 62; Auch das Völkerrecht nimmt (allerdings nur) die Staaten in die Pflicht, Diskriminierungen aufgrund von sensiblen Merkmalen zu unterbinden und zu verhindern. Vgl. instruktiv Payandeh, JuS 2015, 695 (696 ff.) m. w. N.; Tischbirek/Wihl, JZ 2013, 219 (220 f.) mit Fallbeispielen und w. N.; vgl. zu weiteren völkerrechtlichen Verträgen, die Deutschland zur Bekämpfung von Diskriminierung ratifiziert hat, BT-Drs. 16/1780, S. 21 f. Besondere Bedeutung kommt etwa dem Internationalen Übereinkommen zur Beseitigung jeder Form von Rassendiskriminierung vom 21.12.1965 zu. Ihm ist Deutschland im Jahre 1969 beigetreten. Im Rahmen dieses Übereinkommens müssen die Mitgliedstaaten regelmäßige Berichte verfassen, die der Ausschuss für die Beseitigung der Rassendiskriminierung im Anschluss bewertet. Vgl. dazu etwa die Concluding Observations gegenüber den Berichten der Bundesrepublik United Nations Committee on the Elimination of Racial Discrimination, Concluding observations on the combined nineteenth to twenty-second periodic reports of Germany, 2015.
 
214
BVerfG, NVwZ 2018, 813 (815 f., Rn. 40).
 
215
Jarass, GRCh, 2016, Art. 21, Rn. 4.
 
216
Überblicksartig zur Diskussion Forsthoff, in: Grabitz/Hilf/Nettesheim (Hrsg.), EUV/AEUV, 42. Erg.-Lfg. (Sept. 2010), Art. 45 AEUV, Rn. 152 ff.
 
217
Vgl. etwa Baer/Markard, in: von Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 3 Abs. 3, Rn. 415; Heun, in: Dreier (Hrsg.), GG, 3. Aufl., 2013, Art. 3, Rn. 123: Jarass, in: Jarass/Pieroth (Hrsg.), GG, 15. Aufl., 2018, Art. 3, Rn. 150 f. Zur mittelbaren Drittwirkung vgl. Langenfeld, in: Maunz/Dürig (Hrsg.), GG, 74. Erg.-Lfg. (Stand: Mai 2015), Art. 3 Abs. 3, Rn. 81 f.
 
218
Zur Ausstrahlungswirkung der Grundrechte insbesondere BVerfGE 7, 198 (205 ff.) – Lüth; 25, 256 (263); 42, 143 (148); 73, 261 (269); Kischel, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 39. Ed. (Stand: 15.11.2018), Art. 3, Rn. 93.
 
219
Dazu etwa Britz, VVDStRL 64 (2005), 355 (365 ff.); Jestaedt, VVDStRL 64 (2005), 298 (330 ff.).
 
220
Grundlegend Zacher, Abhandlungen zum Sozialrecht II, 2008, S. 19, 43, 53 f.
 
221
So jüngst das BVerfG für bundesweite Stadionverbote; NVwZ 2018, 813 (816, Rn. 41). Es räumt den Zivilgerichten hierbei aber einen weiten Spielraum ein; nur willkürliche Ungleichbehandlungen stuft es als unzulässig ein. Vgl. auch BVerfGE 92, 26 (51); Kischel, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 38. Ed. (Stand: 15.08.2018), Art. 3, Rn. 93.
 
222
Dazu Weinzierl, Warum das Bundesverfassungsgericht Fußballstadion sagt und Soziale Plattformen trifft, JuWissBlog Nr. 48/2018 vom 24.05.2018.
 
223
BVerfG, NVwZ 2018, 813 (816, Rn. 41).
 
224
Letztere ersetzt die RL 2002/73/EG; vgl. auch Hacker, Common Market Law Review 55 (2018), 1143 (1151 ff.); Thüsing, in: Säcker/Rixecker/Oetker et al. (Hrsg.), MüKo-BGB I, 8. Aufl., 2018, Einl. AGG, Rn. 16.
 
225
Vgl. BT-Drs. 16/1780, S. 25 f.
 
226
Die DSGVO lässt dies in ErwGrd 71 UAbs. 2 S. 1 („zu diskriminierenden Wirkungen oder zu einer Verarbeitung kommt, die eine solche Wirkung hat“), ErwGrd 75 („insbesondere wenn die Verarbeitung zu einer Diskriminierung“) und ErwGrd 85 S. 1 („Diskriminierung“) erkennen.
 
227
Die Vorschriften zum Scoring geben vor, unter welchen Voraussetzungen Wahrscheinlichkeitswerte für ein bestimmtes künftiges Verhalten die Grundlage einer Vertragsentscheidung sein dürfen.
 
228
Zum Verhältnis von § 28b BDSG a. F. und § 19 AGG vgl. auch Moos/Rothkegel, ZD 2016, 561 (561 ff.).
 
229
Vgl. Langenfeld, in: Maunz/Dürig (Hrsg.), GG, 74. Erg.-Lfg. (Stand: Mai 2015), Art. 3 Abs. 3, Rn. 97 f.; Lehner, Zivilrechtlicher Diskriminierungsschutz und Grundrechte, 2013, S. 239, 231 ff.
 
230
Vgl. zu § 1 Abs. 3 a. F. Ambs, in: Häberle (Hrsg.), Strafrechtliche Nebengesetze, 220. Erg.-Lfg. (Stand: Juli 2018), § 1 BDSG, Rn. 17; Gusy, in: Wolff/Brink (Hrsg.), BeckOK DatenschutzR, 26. Ed. (Stand: 01.08.2016), BDSG 2003 [aK] § 1, Rn. 82.
 
231
So überzeugend Ambs, in: Häberle (Hrsg.), Strafrechtliche Nebengesetze, 220. Erg.-Lfg. (Stand: Juli 2018), § 1 BDSG, Rn. 17; Gola/Klug et al., in: Gola/Schomerus (Hrsg.), BDSG, 12. Aufl., 2015, § 1, Rn. 24; Simitis, in: ders. (Hrsg.), BDSG, 8. Aufl., 2014, § 1, Rn. 170.
 
232
Der Begriff „Umgang“ betonte den Charakter des § 1 BDSG a. F. als Generalklausel. Er umfasst alle gesetzlich näher spezifizierten und geregelten Nutzungsformen; vgl. Gusy, in: Wolff/Brink (Hrsg.), BeckOK DatenschutzR, 26. Ed. (Stand: 01.08.2016), BDSG 2003 [aK] § 1, Rn. 51.
 
233
Vgl. etwa die Unwirksamkeit abweichender Vertragsbestimmungen gemäß § 21 Abs. 4 AGG.
 
234
Z. B. die Ansprüche auf Beseitigung und Unterlassung gemäß § 21 Abs. 1 AGG, auf Schadensersatz und Entschädigung gemäß § 21 Abs. 2 AGG.
 
235
Bspw. die Beweislastumkehr gemäß § 22 AGG.
 
236
BT-Drs. 16/1780, S. 20, 22 ff.; Thüsing, in: Säcker/Rixecker/Oetker et al. (Hrsg.), MüKo-BGB I, 8. Aufl., 2018, § 1 AGG, Rn. 3. Gleiches gilt auch für die Antidiskriminierungsrichtlinien; vgl. Art. 1, ErwGrd 12 ff., 28 RL 2000/43/EG; Art. 1, ErwGrd 12, 37 RL 2000/78/EG; Art. 1, ErwGrd 10 ff., 28 RL 2004/113/EG; Art. 1, ErwGrd 6, 28 f. RL 2006/54/EG.
 
237
Jedenfalls im Arbeitsrecht erkennt auch die Rechtsprechung an, dass das AGG das Persönlichkeitsrecht mitschützt; vgl. Preis, in: Müller-Glöge/Preis/Schmidt (Hrsg.), ErfK ArbeitsR, 18. Aufl., 2018, § 611a BGB, Rn. 619, 622 m. w. N.
 
238
Gola/Klug et al., in: Gola/Schomerus (Hrsg.), BDSG, 12. Aufl., 2015, § 1, Rn. 6 f. Davon geht auch die DSGVO aus; vgl. ErwGrd 1, 2, 4 DSGVO.
 
239
Vgl. insoweit grundlegend das Volkszählungsurteil des BVerfG (BVerfGE 65, 1 [41 ff.]).
 
240
Gola/Klug et al., in: Gola/Schomerus (Hrsg.), BDSG, 12. Aufl., 2015, § 1, Rn. 6 sprechen m. w. N. treffend von „Vorfeldsicherung“; Simitis, in: ders. (Hrsg.), BDSG, 8. Aufl., 2014, § 1, Rn. 79 m. w. N. stellt klar, dass das Schutzziel des Datenschutzrechts generell präventiv ist.
 
241
Simitis, in: ders. (Hrsg.), BDSG, 8. Aufl., 2014, § 1, Rn. 81.
 
242
So für § 28b BDSG a. F. und das AGG auch Moos/Rothkegel, ZD 2016, 561 (562 ff.); Weichert, in: Däubler/Klebe/Wedde et al. (Hrsg.), BDSG, 5. Aufl., 2016, § 28b, Rn. 6.
 
243
Partiell weist die DSGVO zugleich eine hybride, richtlinienähnliche Struktur auf; Kühling/Martini, EuZW 2016, 448 (449). Sie eröffnet Bund und Ländern an zahlreichen Einbruchsstellen die Möglichkeit, eigene Regelungen zu erlassen. Den Mitgliedstaaten bleibt neben den unionsrechtlichen Regelungen jedoch nur dort eigener Regelungsspielraum, wo die DSGVO dies ausdrücklich zulässt (ErwGrd 8 DSGVO). Jedenfalls in dem Bereich, in dem der Bundesgesetzgeber für das BDSG einen nationalen Regelungsspielraum ausfüllt – so z. B. beim Beschäftigtendatenschutz in § 26 BDSG – ändert sich am Verhältnis zwischen Datenschutz- und Antidiskriminierungsrecht nichts. Denn das BDSG enthält eine dem BDSG a. F. ähnliche Subsidiaritätsklausel in seinem § 1 Abs. 3. Vgl. dazu auch die Begründung des Regierungsentwurfs BT-Drs. 18/11325, S. 79 f.
 
244
Siehe auch § 46 Nr. 14 lit. a i. V. m. § 48 Abs. 1 BDSG für den Anwendungsbereich der JI-Richtlinie 2016/680.
 
245
Insofern schießt der Regelungsanspruch der DSGVO über den originären Kern des Art. 16 Abs. 2 S. 1 AEUV hinaus, die Verarbeitung personenbezogener Daten zu regeln. Die Vorschrift erstreckt sich allerdings ausschließlich auf vollautomatisierte Entscheidungen, nicht aber auf die Vorbereitung von Entscheidungen, die von Menschenhand getroffen werden.
 
246
Richtlinien 2000/43/EG, 2000/78/EG, 2004/113/EG und 2006/54/EG.
 
247
Nicht zuletzt schließt Art. 22 Abs. 4 DSGVO nicht generell nationale Diskriminierungsverbote für von Menschen getroffene Entscheidungen aus, die solche Kriterien in das Entscheidungsergebnis einfließen lassen, welche die Rechtsordnung aus Wertungsgründen ausschließt.
 
248
Brühann, in: Nettesheim (Hrsg.), EU-Recht IV, 13. Erg.-Lfg. (Mai 1999), RL 95/46/EG Vorbemerkung, Rn. 45.
 
249
Das gilt auch für die Bereiche, in denen die Mitgliedstaaten die Antidiskriminierungsrichtlinien überschießend umgesetzt haben. Die Richtlinien lassen dieses Vorgehen ausdrücklich zu. Vgl. etwa ErwGrd 25 RL 2000/43/EG; ErwGrd 28 RL 2000/78/EG; ErwGrd 26 RL 2004/113/EG.
 
250
„Im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Unionsrechts fallen, und über den freien Datenverkehr“ (Art. 16 Abs. 2 AEUV).
 
251
Vgl. EuGH, Urt. v. 10.12.2017, C-434/16, ECLI:EU:C:2017:994, Rn. 53; EuGH, Urt. v. 17.07.2014, C-141/12, C-372/12, ECLI:EU:C:2014:2081, Rn. 39, 48; EuGH, Urt. v. 29.06.2010, C-28/08 P, ECLI:EU:C:2010:378, Rn. 49.
 
252
Schadensersatzansprüche aus § 21 AGG und Art. 82 DSGVO richten sich als Ausgleichsregelungen der Höhe nach jeweils nach allgemeinem Schadensersatzrecht; siehe Deinert, in: Däubler/Bertzbach (Hrsg.), AGG, 4. Aufl., 2018, § 21 AGG, Rn. 13 und Frenzel, in: Paal/Pauly (Hrsg.), DS-GVO/BDSG, 2. Aufl., 2018, Art. 82, Rn. 10.
 
253
Vgl. etwa die öffentliche Debatte um die Massenkontrollen der Kölner Polizei in der Silvesternacht 2016/2017 als Reaktion auf die sexuellen Belästigungen im Jahr zuvor; Fischer, Die andere Nacht, Süddeutsche Zeitung vom 02.01.2017, S. 3. Zu „racial profiling“ in privatrechtlichen Kontexten siehe insbesondere OLG Stuttgart, NJW 2012, 1085 (1086 f.). Es hat einem Diskothekenbesucher wegen Verweigerung des Einlasses gemäß § 21 Abs. 2 S. 3 AGG eine Entschädigung zugesprochen. Vgl. auch die Beispiele bei Göbel-Zimmermann/Marquardt, ZAR 2012, 369 (371) m. w. N. sowie Herrnkind, Polizei & Wissenschaft 3/2014, 35 (37 ff.; zur Historie 43 ff.). Auch der 40. Strafverteidigertag sah sich dazu veranlasst, ein Konzept gegen Rassismus im Strafverfahren zu erarbeiten; Anonymous, StV 2016, 400 (402). Weitere Beispiele bei Schaar, Algorithmentransparenz, in: Dix/Franßen/Kloepfer et al. (Hrsg.), Informationsfreiheit und Informationsrecht, 2016, S. 23 (31 f.) m. w. N. in Fn. 9. Vgl. auch zum Ausschluss bestimmter Wohngegenden mit überwiegend afro-amerikanischer Bevölkerung von der Amazon-Express-Lieferung Fuest, Sie wissen, was Du morgen kaufst, Welt am Sonntag vom 04.12.2016, S. 42.
 
254
Vgl. jüngst etwa Dunn, Case Western Reserve Law Review 66 (2016), 957 (960 ff.) m. w. N. Besonders bekannt ist die Praxis „stop and frisk“ der New Yorker Polizei. Sie führt seit 1994 anlasslose Befragungen und Durchsuchungen durch, die faktisch zu über 80 % ethnische Minderheiten treffen; vgl. Gross/Livingston, Columbia Law Review 102 (2002), 1413 (1418, insbesondere Fn. 19) m. w. N. Zur Diskussion in den USA im Anschluss an die Terroranschläge vom 11.09.2001 mit Nachweisen für die damalige und historische Debatte auch Gross/Livingston, Columbia Law Review 102 (2002), 1413 (1413 ff.). Zu den Parallelen zwischen algorithmischer Datenauswertung und „stop and frisk“ ONeil, Weapons of Math Destruction, 2016, S. 93 f: Sie skizziert auch mögliche Weiterentwicklungen im Verbund mit Massendatenauswertungen (S. 100 f.). Kroll/Huey et al., University of Pennsylvania Law Review 165 (2017), 633 (681), weisen darauf hin, dass Praktiken wie „stop and frisk“ möglicherweise falsche Datensätze hervorrufen, aus denen lernende Algorithmen dann fehlerhafte Schlüsse für ihre Modelle ziehen.
 
255
Zur rechtlichen Diskussion OVG Rheinland-Pfalz, NJW 2016, 2820 (2820 ff.); OVG Nordrhein-Westfalen, NVwZ 2018, 1497 (1499 ff., Rn. 35 ff.); Wagner, DÖV 2013, 113 (115) mit Verweis auf die Niederschrift der Verhandlung des OVG Rheinland-Pfalz am 29.10.2012 zu Az. 7 A 10532/12.OVG; ausführlich zu diesem Verfahren auch Cremer, Racial Profiling, 2013, S. 9 f.; Drohla, ZAR 2012, 411 (412); Tischbirek/Wihl, JZ 2013, 219 (219). Vgl. auch Albers, in: Wolff/Brink (Hrsg.), BeckOK DatenschutzR, 26. Ed. (Stand. 01.05.2018), Grundlagen und bereichsspezifischer Datenschutz – BDSG 2003 [aK] Polizei und Nachrichtendienst, Rn. 67. Kontrollstatistiken finden sich in BT-Drs. 17/14569, S. 7 f.; mit älteren Zahlen Alter, NVwZ 2015, 1567 (1567 f.) m. w. N. Das OLG Frankfurt, NStZ 2012, 244 (245) bewertet es nicht als Beleidigung i. S. d. § 185 StGB, als diskriminierend empfundene Überprüfungen i. S. d. § 22 Abs. 1a BPolG als „SS-Methoden“ zu bezeichnen; das Gericht stuft die Meinungsäußerung als durch § 193 StGB gerechtfertigt ein (dieser Entscheidung lag derselbe Sachverhalt wie dem o. g. Verfahren zugrunde). Die Frage, ob § 22 Abs. 1a BPolG mit dem Unionsrecht, insbesondere Art. 22 f. SGK vereinbar ist, hat der EuGH nicht geklärt; vgl. EuGH, Urt. v. 22.06.2010, ECLI:EU:C:2010:363; Urt. v. 19.07.2012, ECLI:EU:C:2012:508. Auch in seinem jungen Urt. v. 21.06.2017, ECLI:EU:C:2017:483, Rn. 73 f., hat der EuGH die Frage offen gelassen, ob die Vorschrift in der Praxis eine einer Grenzkontrolle gleiche Maßnahme darstellt; dazu im Einzelnen Michl, DÖV 2018, 50 (54 ff.).
 
256
Vgl. den Nachweis zu „stop and frisk“ in Fn. 254.
 
257
Das United Nations Committee on the Elimination of Racial Discrimination, Concluding observations on the combined nineteenth to twenty-second periodic reports of Germany, 2015, S. 5 f., fordert die Bundesrepublik Deutschland zu einer empirischen Analyse auf; vgl. auch Liebscher, NJW 2016, 2779 (2781). In Europa ist das Phänomen bisher wenig, in Deutschland gar nicht repräsentativ untersucht; Herrnkind, Polizei & Wissenschaft 3/2014, 35 (35, 45 ff.) mit Nennung und Interpretation anderer Studien, die das Phänomen beiläufig beschreiben. Vgl. aber auch die Untersuchung für Kontinentaleuropa (Bulgarien, Spanien und Ungarn) mit Nachweisen für die Debatte in den USA und Großbritannien bei Miller/Gounev et al., European Journal of Criminology 5 (2008), 161 (167 ff.).
 
258
Über 850.000 Kontrollen i. S. d. § 22 Abs. 1a BPolG im Jahr 2012 und im ersten Halbjahr 2013 standen im August 2013 nur drei anhängige Klageverfahren und zwei Beschwerden gegenüber. Vgl. die Antwort der Bundesregierung in BT-Drs. 17/14569, S. 6, Frage 13; im Jahr 2015 stehen 317.221 Kontrollen nur 26 Beschwerden und sieben Gerichtsverfahren gegenüber, vgl. die Antwort der Bundesregierung in BT-Drs. 18/8037, S. 3 ff. Im Jahr 2017 und im ersten Quartal 2018 stehen über 250.000 Kontrollen 28 Beschwerden und vier Gerichtsverfahren gegenüber, vgl. die Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Ulla Jelpke, Dr. André Hahn, Gökay Akbulut, weiterer Abgeordneter und der Fraktion DIE LINKE, BT-Drs. 19/2151, S. 3, 11 f.
 
259
Plastischer Erfahrungsbericht bei Sandhya Kambhampati, Racial Profiling: In neun Monaten hat mich die Berliner Polizei 23 Mal kontrolliert, correctiv.​org vom 03.01.2017. Vgl. auch OVG Nordrhein-Westfalen, NVwZ 2018, 1497 (1500, Rn. 45); Herrnkind, Polizei & Wissenschaft 3/2014, 35 (36, 45); Hunold, Polizei im Revier, 2015, S. 13, insbesondere Fn. 14 sowie Neunter Bericht über die Lage der Ausländerinnen und Ausländer in Deutschland der Migrationsbeauftragten der Bundesregierung, BT-Drs. 17/10221, S. 181; Liebscher, NJW 2016, 2779 (2781). Vgl. auch den Klägervortrag bei VG Köln, Urt. v. 13.06.2013 – 20 K 4683/12 –, juris, Rn. 4; Urt. v. 10.12.2015 – 20 K 7847/13 –, juris, Rn. 13.
 
260
Ausführlich hierzu OVG Rheinland-Pfalz, NJW 2016, 2820 (2827, Rn. 104) m. w. N.; OVG Nordrhein-Westfalen, NVwZ 2018, 1497 (1500, Rn. 42); Gnüchtel, NVwZ 2013, 980 (981 f.); Liebscher, NJW 2016, 2779 (2779 f.). Zur Aussagekraft eines „ausländischen Aussehens“ auf Zahlengrundlage vgl. Alter, NVwZ 2015, 1567 (1569 m. w. N.). Kritisch zum offenen Wortlaut Wehr, BPolG, 2. Aufl., 2015, § 22, Rn. 12; Cremer, Racial Profiling, 2013, S. 27; Drohla, ZAR 2012, 411 (416).
 
261
Eine solche Anknüpfung ist nur aus zwingenden, dem Merkmal selbst entspringenden Gründen sowie verfassungsimmanenten Schranken gerechtfertigt; BVerfG, NJW 2004, 1095 (1096); Uerpmann-Wittzack, § 128 – Strikte Privilegierungs- und Diskriminierungsverbote, in: Merten/Papier (Hrsg.), Handbuch der Grundrechte, Bd. V, 2013, Rn. 4, 41, 45. Vgl. auch Alter, NVwZ 2015, 1567 (1569); Cremer, AnwBl 2013, 896 (898); Tischbirek/Wihl, JZ 2013, 219 (220) m. w. N. in Fn. 17. Für das Merkmal der Herkunft ist eine Rechtfertigung nur dann denkbar, wenn eine staatliche Maßnahme ihrem Wesen nach an Unterscheidungsmerkmale anknüpfen muss, die in der Staatsangehörigkeit des Betroffenen liegen.
 
262
Vgl. dazu auch die Antwort der Bundesregierung auf eine Kleine Anfrage der Fraktion DIE LINKE, BT-Drs. 17/14569, S. 2 f.
 
263
Ausführlich zum Streitstand, wie das Merkmal „wegen“ auszulegen ist, Langenfeld, in: Maunz/Dürig (Hrsg.), GG, 74. Erg.-Lfg. (Stand: Mai 2015), Art. 3 Abs. 3, Rn. 20 ff.; Uerpmann-Wittzack, § 128 – Strikte Privilegierungs- und Diskriminierungsverbote, in: Merten/Papier (Hrsg.), Handbuch der Grundrechte, Bd. V, 2013, Rn. 6; OVG Rheinland-Pfalz, NJW 2016, 2820 (2827, Rn. 105 f.). Empirisch scheinen derartige Motivbündel regelmäßig vorzukommen; vgl. Hunold, Polizei im Revier, 2015, S. 113 f.
 
264
Art. 2 Abs. 2 lit. b) RL 2000/43/EG.
 
265
EGMR, NVwZ 2008, 533 (534, Rn. 175 ff.).
 
266
BVerfGE 104, 373 (393).
 
267
Vgl. OVG Nordrhein-Westfalen, NVwZ 2018, 1497 (1500, Rn. 43 f.); Payandeh, JuS 2015, 695 (696 f.).
 
268
Maßnahmen, die Polizeibeamte auf dieser Grundlage im Einzelfall treffen, demgegenüber für rechtswidrig haltend Cremer, AnwBl 2013, 896 (897); Drohla, ZAR 2012, 411 (413); Liebscher, NJW 2016, 2779 (2781); Tischbirek/Wihl, JZ 2013, 219 (222) m. w. N. in Fn. 43; wohl auch Nußberger, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 3, Rn. 294. Das dogmatische Problem verschärft sich durch Beweisfragen. So legte die Rechtsprechung der Bundespolizei zwar nicht generell die Beweislast dafür auf, dass Merkmale i. S. d. Art. 3 Abs. 3 GG in der Einzelfallentscheidung keine kausale Rolle gespielt hatten; OVG Rheinland-Pfalz, NJW 2016, 2820 (2828, Rn. 113 f.). Eine Unaufklärbarkeit gehe jedoch zu Lasten der Polizei. Dem OVG Rheinland-Pfalz genügt dafür, dass es in der „umfangreiche[n] Beweisaufnahme nicht mit der für seine Überzeugung notwendigen Sicherheit“ die Hautfarbe als kausales Auswahlkriterium ausschließen konnte (2829 f., Rn. 131). Auch auf der Rechtfertigungsebene bürden die Gerichte der Polizei die Beweislast auf: Eine Rechtfertigung durch die verfassungsimmanente Schranke des Schutzes der Rechtsgüter, die hinter den Strafvorschriften § 95 Abs. 1 Nr. 3 AufenthG und § 96 AufenthG stehen, lehnte das Gericht aus Verhältnismäßigkeitsgründen ab. Die Erfolgsquote der Maßnahmen sei zu gering (2830, Rn. 133 mit Verweis auf BT-Drs. 18/4149, S. 4 ff. und BT-Drs. 18/8037, S. 5 ff.). Der Staat müsse als Teil einer erhöhten Darlegungslast beweisen, dass solche rechtfertigenden Gründe vorliegen. Anders ist (bspw.) in der Lesart des OVG Nordrhein-Westfalen die erforderliche praktische Konkordanz zwischen dem Gleichbehandlungsgebot und dem verfassungsrechtlich gebotenen staatlichen Schutz von Leib, Leben und Eigentum der Bürger nicht überprüfbar; OVG Nordrhein-Westfalen, NVwZ 2018, 1497 (1500, Rn. 46 f.).
 
269
Die Bundesregierung geht daher (ebenso wie Teile der Literatur) davon aus, dass eine selektive Kontrolle nicht Art. 3 Abs. 3 GG widerspricht, wenn die entscheidenden Beweggründe für die Überprüfung nicht an die absolut geschützten Merkmale anknüpfen – die Merkmale also nicht ausschlaggebend sind, siehe Antwort der Bundesregierung auf eine Kleine Anfrage der Fraktion DIE LINKE, BT-Drs. 17/14569, S. 2 f.; VG Köln, Urt. v. 10.12.2015 – 20 K 7847/13 –, juris, Rn. 64; Langenfeld, in: Maunz/Dürig (Hrsg.), GG, 74. Erg.-Lfg. (Stand: Mai 2015), Art. 3 Abs. 3, Rn. 46; so wohl auch Alter, NVwZ 2015, 1567 (1569); Gnüchtel, NVwZ 2013, 980 (981 f.). Einige Vertreter dieser Auffassung halten indes bereits die Vorschrift als solche für verfassungswidrig, weil sie den ausführenden Beamten nahelege und praktisch wenig andere Möglichkeit gebe, als auch an absolut geschützte Merkmale anzuknüpfen; so Cremer, AnwBl 2013, 896 (897 ff.); ausführliche Begründung bei Cremer, Racial Profiling, 2013, S. 7 f., 24 ff.; zustimmend Liebscher, NJW 2016, 2779 (2780 f.).
 
270
In diesen Fällen ist ein Rechtsverstoß beim Grenzübertritt aber deutlich weniger wahrscheinlich, sofern nicht andere Anhaltspunkte für einen Grenzverstoß sprechen.
 
271
So auch OVG Rheinland-Pfalz, NJW 2016, 2820 (2830, Rn. 133).
 
272
Gericke, in: Joecks/Miebach (Hrsg.), MüKo StGB VIII, 3. Aufl., 2018, § 95 AufenthG, Rn. 1 m. w. N.
 
273
Die Staatsaufgabe „Grenzschutz“ ergibt sich aus der Aufgabenzuweisung in Art. 87 Abs. 1 S. 2 GG. Dabei handelt sich nicht nur um eine Kompetenzregel. Sie statuiert im Umkehrschluss die Verfassungsaufgabe und -pflicht des Bundes, die Staatsgrenzen zu schützen; vgl. Ibler, in: Maunz/Dürig (Hrsg.), GG, 64. Erg.-Lfg. (Stand: Jan. 2012), Art. 87, Rn. 8; Suerbaum, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 39. Ed. (Stand: 15.11.2018), Art. 87, Rn. 14.
 
274
Gleiches gilt im Rahmen des § 23 Abs. 1 Nr. 1 BPolG für die verfassungsrechtliche Pflicht des Staates, Leib, Leben und Eigentum seiner Bürger zu schützen. Ebenso bspw. OVG Nordrhein-Westfalen, NVwZ 2018, 1497 (1500, Rn. 44).
 
275
Zudem handelt es sich bei der dort verwendeten Software bisher noch kaum oder gar nicht um lernende Systeme, sondern vielmehr um rudimentäre EDV-Programme; vgl. dazu etwa Kaufmann, Sie können doch nicht warten, bis alle grau sind, Spiegel Online vom 04.10.2017
 
277
Er setzt sich aus Experten, Mitgliedern von Wohltätigkeitsorganisationen sowie Personen mit Kontakt zu unmittelbar Betroffenen zusammen und soll seine Empfehlungen bis Mitte 2019 veröffentlichen. Ziel ist es zum einen, den Betroffenen konkrete algorithmische Entscheidungen sowie ihre Grundlagen erklärbar zu machen. Zum anderen soll die Verwaltung prüfen können, ob ein System Menschen aufgrund ihres Alters, ihrer Ethnie, ihres Glaubens oder anderer persönlicher Merkmale übermäßig benachteiligt. Darüber hinaus sollen die Empfehlungen der Stadt die Möglichkeit geben, Informationen zu veröffentlichen, die der Öffentlichkeit gestatten, die eingesetzten Systeme, ihre allgemeine Funktionsweise und ihren konkreten Einsatz zu bewerten. Zudem sieht das Gesetz vor, dass die Arbeitsgruppe die Archivierung algorithmischer Entscheidungssysteme sowie die Entwicklung und Festlegung bestimmter Kriterien für die Auswahl solcher Systeme überprüft. City of New York, Mayor de Blasio Announces First-In-Nation Task Force To Examine Automated Decision Systems Used By The City, Pressemitteilung v. 16.05.2018; siehe auch Kaiser, New York City plant Arbeitsgruppe zur Überprüfung von städtischen Algorithmen, netzpolitik.​org vom 23.01.2018; Krempl, New York setzt auf diskriminierungsfreie Algorithmen in der Verwaltung, heise online vom 20.12.2017.
 
278
Deutliche Kritik an § 35a VwVfG übt Stegmüller, NVwZ 2018, 353 (355 f.): Er spricht der neuen Regelung Notwendigkeit und Nutzen ab.
 
279
Fanta, Österreichs Jobcenter richten künftig mit Hilfe von Software über Arbeitslose, netzpolitik.​org vom 13.10.2018.
 
280
Siehe dazu auch bereits Martini/Nink, NVwZ-Extra 10/2017, 1 (9 f.).
 
281
Jede Diskriminierung setzt Entscheidungsspielräume voraus. Der Gesetzgeber lässt aber die vollständige Automatisierung jedenfalls in Verwaltungsverfahren des Allgemeinen Verwaltungsrechts bisher nur bei gebundenen Entscheidungen zu (siehe § 35a VwVfG a. E.).
 
282
Anders verhält es sich im Falle des österreichischen Stufensystems nach familiären Betreuungspflichten differenzierender Arbeitsvermittlung (siehe oben Fn. 279). Seine Anknüpfung an die empirisch unterschiedlichen Vermittlungschancen wirkt sich unmittelbar auf die sozialen und wirtschaftlichen Teilhabechancen der Arbeitsuchenden in der Gesellschaft aus.
 
283
Die gleichheitswidrige Behandlung beeinflusst das Entscheidungsergebnis in der Sache zwar nicht ohne Weiteres. § 46 VwVfG, § 42 SGB X und § 127 AO schließen dann den Anspruch auf Aufhebung des rechtswidrigen Verwaltungsakts aus; an seiner Rechtswidrigkeit ändern sie aber nichts. Vgl. bspw. Martini, Verwaltungsprozessrecht und Allgemeines Verwaltungsrecht, 6. Aufl., 2017, S. 112 f.
 
284
Dazu auch bereits Martini/Nink, NVwZ-Extra 10/2017, 1 (9 f.).
 
285
Mit Blick auf die Wesensgleichheit der Benachteiligungsstruktur gilt das nicht nur für unmittelbare, sondern auch für mittelbare Diskriminierungen – also solche Differenzierungen, welche nicht offen an eines der Merkmale anknüpfen, sich aber faktisch bei der Personengruppe auswirken, die an sich besonderen Diskriminierungsschutz genießt. Vgl. auch Art. 2 Abs. 2 lit. b RL 2000/43/EG sowie ErwGrd 71 UAbs. 2 S. 1 DSGVO („zu diskriminierenden Wirkungen oder zu einer Verarbeitung kommt, die eine solche Wirkung hat“); ausdrücklich für das Merkmal Geschlecht BVerfGE 104, 373 (393); für Art. 21 GRCh Jarass, GRCh, 2016, Art. 21, Rn. 10 ff.; vgl. zu Art. 14 EMRK EGMR (D.H. u. a./Tschechien), NVwZ 2008, 533 (534, Rn. 175 ff.); vgl. auch Payandeh, JuS 2015, 695 (696 f.).
 
286
Datenschutz durch Technik (privacy by design) ist ein in Literatur und Praxis anerkanntes Konzept, das Datenschutz dadurch herzustellen sucht, dass es seine normativen Anforderungen bereits in die Programmierung und Konzeption integriert. Zum Grundgedanken privacy by design siehe Cavoukian, Privacy by Design: The 7 Foundational Principles, 2009, Pkt 3. Die DSGVO nimmt diese Philosophie unterdessen in Art. 25 Abs. 1 in ihr Regelungsgefüge auf. Dazu Martini, in: Paal/Pauly (Hrsg.), DS-GVO/BDSG, 2. Aufl., 2018, Art. 25 DSGVO, Rn. 8 ff.
 
287
Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (69 ff.) schlagen eine sehr extensive Auslegung des Art. 17 DSGVO vor. Sie möchten nicht nur alle (Meta-)Daten des Betroffenen, sondern auch sämtliche hieraus abgeleiteten und ausgewerteten Daten unter das Löschungsrecht fallen lassen – mit der Folge, dass ein einzelner Betroffener möglicherweise die Nutzung ganzer Big-Data-Modelle ver- oder zumindest behindern könnte. Sie argumentieren, dass lernende Algorithmen, die bestimmte Modelle entwerfen, im Ergebnis ein Konglomerat der personenbezogenen Daten seien, mit denen sie entwickelt, modelliert und trainiert worden sind. Nach ihrer Einschätzung ist es technisch mitunter möglich, aus dem Modell eines lernenden Algorithmus – etwa durch einen Angriff – Rückschlüsse auf eindeutig personenbezogene Daten einzelner Personen zu ziehen, deren Daten ursprünglich zur Entwicklung, Modellierung oder zum Training des Algorithmus Anwendung gefunden haben. Gäbe man jedem „Datenurheber“, der nur sehr geringfügig an dem Modell beteiligt ist, die Möglichkeit, die Löschung – und damit Neuberechnung ohne seine Daten – eines gesamten Modells zu fordern, zöge das nachhaltige technische und finanzielle Kosten nach sich. Denkbar wäre es jedoch, den Bürgern mit technischen Lösungen wie „Personal Data Container“ ihre Souveränität über alle aus personenbezogenen Daten abgeleiteten Informationen wiederzugeben. Das eröffnete ihnen die Möglichkeit, den Entwicklern lernender Algorithmen aktiv und auf definierte Korridore beschränkt zu erlauben, ihre Daten auszuwerten und weiterzugeben. Einen gangbaren technischen Umsetzungsweg kann womöglich die Blockchain-Technologie weisen; vgl. etwa Kolain/Wirth, MultiChain-Governance, in: Taeger (Hrsg.), Recht 4.0, 2017, S. 833 (839).
 
288
Vgl. Härting, AnwBl 2011, 246 (247); Härting/Schneider, ZRP 2011, 233 (235).
 
289
Dazu BVerfGE 120, 274 (311 f., Rn. 200).
 
291
Das führte ein Programm-Bug der Öffentlichkeit vor Augen; Berger, Bug: Google Docs verweigerte Zugriff auf Texte, heise-online vom 01.11.2017.
 
292
Vgl. Mehlfeld, Google erfasst heimlich Standortdaten – auch ohne aktives GPS, heise online vom 22.11.2017.
 
293
Open-Source-Produkte gelten zwar als unkompliziert und leicht zugänglich. Den Aufwand, der sich mit der professionellen urheberrechtskonformen Verwaltung von Open-Source-Lizenzen verknüpft, unterschätzen viele Nutzer aber.
 
294
So ist es für den Verbraucher praktisch kaum möglich, ein Smartphone zu erwerben und zu nutzen, das ohne Services der Internetkonzerne Apple oder Google auskommt und zugleich durch regelmäßige Sicherheitsupdates auf dem neuesten Stand der Technik ist.
 
295
Dazu bspw. Martini, JA 2009, 839 (839).
 
296
BVerfGE 79, 256 (268).
 
297
BVerfGE 54, 148 (153).
 
298
BVerfGE 65, 1 ff.
 
299
BVerfGE 65, 1 (43).
 
300
Britz, JA 2011, 81 (82); Martini, Big Data, in: Hill/Martini/Wagner (Hrsg.), Digitale Lebenswelt, 2015, S. 97 (124); Schantz/Wolff, Das neue Datenschutzrecht, 2017, Rn. 146 ff.
 
301
Die Verfassungsrichter hielten insbesondere Art. 10 und Art. 13 GG für nicht ausreichend, um ein adäquates Schutzniveau zu etablieren BVerfGE 115, 166 (183 ff.). Dazu näher bspw. Kutscha, NJW 2008, 1042 (1043); Martini, JA 2009, 839 (840); kritisch zur Frage der grundrechtlichen Schutzlücke Eifert, NVwZ 2008, 521 (521 f.).
 
302
Vgl. zu diesem Gedanken nur BVerfGE 125, 260 (335 f.); 129, 208 (250 f.) jeweils m. w. N.
 
303
BVerfGE 120, 274 (314).
 
304
Vgl. auch Hirsch, NJOZ 2008, 1907 (1914). Auch die objektiv-rechtliche Dimension der informationellen Selbstbestimmung kann den Gesetzgeber aber ggf. dazu verpflichten, das bestehende Datenschutzrecht mit Blick auf die neuen Gefahren für die Persönlichkeitsentfaltung zu ergänzen, die sich durch den Einsatz lernender Algorithmen kumulieren. Wo genau die Grenzen zwischen beiden Ausprägungen des allgemeinen Persönlichkeitsrechts angesichts der umfassenden Datenerhebungsmöglichkeiten bei virtuellen informationstechnischen Systemen wie bspw. der privaten Datenspeicherung in einer öffentlichen Cloud, in einem Messenger-Dienst oder dem Account in einem sozialen Netzwerk verläuft, stößt auf unterschiedliche Antworten. Viele Stimmen bestreiten, dass das Recht auf informationelle Selbstbestimmung überhaupt Schutzlücken lässt. Das Grundrecht schütze, wenn auch nicht die Integrität des informationstechnischen Systems, so doch jedenfalls die Vertraulichkeit der Daten, die in dem informationstechnischen System gespeichert sind, auch bei großen Datenbeständen umfassend. Vgl. etwa Britz, DÖV 2008, 411 (413); Eifert, NVwZ 2008, 521 (522); Hornung, CR 2008, 299 (301 f.); Sachs/Krings, JuS 2008, 481 (483 f.). Das BVerfG steht demgegenüber auf dem Standpunkt, dass lediglich das neu geschöpfte IT-Grundrecht den persönlichen und privaten Lebensbereich des Grundrechtsträgers vor einem Zugriff auf das informationstechnische System als Ganzes bewahrt, den eine umfassende Massendatenanalyse ermöglicht, BVerfGE 120, 274 (312 f., Rn. 200 f.). Da die grundrechtlichen Schutzpflichten beider Grundrechtsausprägungen verhindern sollen, (partielle oder weitgehend vollständige) Persönlichkeitsbilder entstehen zu lassen und damit eine Person zu katalogisieren, verpflichten sie allerdings zu gleichgerichteten gesetzgeberischen Maßnahmen. Die exakte Unterscheidung der Schutzbereiche ist für den untersuchten Kontext daher allenfalls in Nuancen relevant.
 
305
Roggan, StV 2017, 821 (826).
 
306
Das Grundrecht auf Gewährleistung von Vertraulichkeit und Integrität informationstechnischer Systeme beschränkt sich nicht auf eine reine Abwehrfunktion, sondern begründet auch grundrechtliche Schutzpflichten; vgl. etwa Luch, MMR 2011, 75 (78); Roßnagel/Schnabel, NJW 2008, 3534 (3535); Sachs/Krings, JuS 2008, 481 (486).
 
307
Im Lichte der staatlichen Schutzpflicht für den Integritätsschutz informationstechnischer Systeme hat der Bundesrat (BT-Drs. 19/1716) in einem Gesetzesentwurf aus dem Jahre 2016 vorgeschlagen, den Straftatbestand des „digitalen Hausfriedensbruchs“ einzuführen. Der neue § 202e StGB soll die Botnetzkriminalität bekämpfen (BT-Drs. 19/1716, S. 11). Er reagiert auf die zunehmende Gefahr von Cyberangriffen. Der Gesetzgeber bewertet insoweit auch den Umsetzungsbedarf der Convention on Cybercrime vom 23.11.2001 neu: Art. 2 der Konvention regelt den rechtswidrigen Zugang. Er gestattet den Vertragsparteien, die Strafbarkeit unter die Bedingung zu stellen, dass der Angreifer Sicherheitsmaßnahmen überwunden hat. Diese Möglichkeit hatte der deutsche Gesetzgeber in § 202a StGB gewählt, um den Straftatbestand nicht über Gebühr auszudehnen; dazu Basar, jurisPR-StrafR 26/2016, Anm. 1. Kritiker des Gesetzesvorschlags fürchten eine „Überkriminalisierung“ durch unspezifische, eine Vielzahl unterschiedlicher Verhaltensweisen erfassende Tatbestandsmerkmale (etwa „unbefugt“); siehe Basar, jurisPR-StrafR 26/2016, Anm. 1; Buermeyer/Golla, K&R 2017, 14 (15 ff.).
 
308
Ähnlich auch Herrmann/Soiné, NJW 2011, 2922 (2923).
 
309
So weist etwa Masing, NJW 2012, 2305 (2308) darauf hin, dass sich unter den Bedingungen des Web 2.0 eine Auflösung des überkommenen Konsenses über das, was privat und was öffentlich ist, vollzieht und Persönlichkeitsrechtsschutz nur darauf zielen kann, eine substanzielle Selbstbestimmung über Privatheit zu ermöglichen.
 
310
Nichts anderes gilt in der Sache für Szenarien, in denen der Diensteanbieter staatlichen Sicherheitsbehörden umfangreichen Zugriff auf ihre Datenbestände gewährt (etwa beim Programm PRISM). Umfassend zur Praxis der US-Nachrichtendienste Granick, American Spies, 2017, S. 9 ff.
 
311
Vgl. dazu auch die reasonale expectation of privacy-Doktrin des U. S. Supreme Courts; grundlegend Katz v. United States, 389 U.S. 347 (1967). Die third-party-Doktrin (vgl. dazu United States v. Miller, 425 U.S. 435 [1976] und Smith v. Maryland, 442 U.S. 735 [1979]) knüpft hieran an: Die betroffene Person kann nicht „vernünftigerweise erwarten“, dass ihre Daten privat bleiben, wenn sie diese freiwillig („voluntarily“) Dritten offenbarte. Sie gehe bewusst das Risiko ein, dass die Daten weitergegeben werden können, sog. assumption of risk. In der jüngsten Entscheidung Carpenter (v. 22.06.2018, 585 U.S. – [2018, im Erscheinen], No. 16–402) stellte der U. S. Supreme Court die bei Dritten gespeicherten Mobilfunk-Standorte gleichwohl unter den Schutz des Vierten Zusatzartikels der US-Verfassung. Das Gericht trug damit dem „seismic shift[…] in digital technology“ Rechnung.
 
312
Das BVerfG spricht von einer Flankierung der Verhaltensfreiheit; vgl. BVerfGE 120, 274 (312, Rn. 198). Vgl. auch Luch, MMR 2011, 75 (78), die von einem „Grundrecht auf digitale Entfaltung“ spricht.
 
313
Anonymous, What to look out for in the small print, bbc.co.uk vom 30.04.2013.
 
314
Die englische Literatur nutzt gar scharfe Begriffe wie „illusorisch“ und „bedeutungslos“; vgl. die Nachweise bei Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (33, Fn. 50).
 
315
Martini, JZ 2017, 1017 (1119).
 
316
Vgl. BVerfGE 27, 71 (81 f.); 90, 1 (20 f.); Grabenwarter, in: Maunz/Dürig (Hrsg.), GG, 82. Erg.-Lfg. (Stand: Jan. 2018), Art. 5, Rn. 109; Schmidt-Jortzig, § 162, in: Isensee/Kirchhof (Hrsg.), HdbStR III, 3. Aufl., 2005, Rn. 8 f.
 
317
Zur Objektivierung der Informationsfreiheit vgl. Wendt, in: Münch/Kunig (Hrsg.), GG, 6. Aufl., 2012, Art. 5, Rn. 28.
 
318
BVerfGE 57, 298 (320).
 
319
Bei Informationsintermediären, also Vermittlern zwischen medialem Angebot und Rezipienten, die der eigentlichen Veröffentlichung vor- und nachgelagert sind, handelt es sich um kein Phänomen der digitalen Medien. Sie waren und sind bereits Bestandteil der klassischen massenmedialen Systeme. Klassische Intermediäre der „alten Welt“ sind bspw. Presse-Grossisten, die beim Vertrieb von Zeitungen und Magazinen als Gatekeeper agieren, und Kabelnetzbetreiber im Rundfunk.
 
320
Dazu bereits bspw. Martini, Presseförderung, in: Hill/Kugelmann/Martini (Hrsg.), Perspektiven der digitalen Lebenswelt, 2017, S. 203 (214).
 
321
Zu diesem Begriff Jürgens/Stark et al., Gefangen in der Filter Bubble?, in: Stark/Dörr/Aufenanger (Hrsg.), Die Googleisierung der Informationssuche, 2014, S. 98 (104, 130 f.).
 
322
Vgl. die Nachweise und Kritik oben A. I. 2., Fn. 29 f.
 
323
Dazu statt vieler Kersting/Mehl, ZParl 49 (2018), 586 (588 ff.).
 
324
Vgl. dazu den im Dezember 2016 viral in sozialen Netzwerken verbreiteten Artikel von Krogerus/Grassegger, Ich habe nur gezeigt, dass es die Bombe gibt, Das Magazin online vom 03.12.2016, S. 10 ff., die über die Kombination von Big Data und psychologischer Wissenschaft zugunsten eines gezielten Wahlkampfs für Donald Trump berichteten. Die Kritik an der methodischen Qualität der Ergebnisse fiel aber ebenfalls schroff aus; vgl. u. a. Beuth, Big Data allein entscheidet keine Wahl, Zeit Online vom 06.12.2016; vgl. zur zugrunde liegenden Forschung Kosinski/Stillwell et al., PNAS 110 (2013), 5802 (5804 f.). Einen Überblick über theoretische Möglichkeiten der Meinungsbeeinflussung durch soziale Netzwerke und verschiedene Untersuchungen bietet bspw. ONeil, Weapons of Math Destruction, 2016, S. 180 ff. (zur gezielten Ansprache bestimmter Wählergruppen bei der US-Wahl 2012 und 2016 siehe auch S. 188 ff.).
 
325
Für die Wahl 2016 vgl. z. B. Anonymous, Facebook will Manipulationsvorwürfe weiter prüfen, FAZ vom 14.05.2016, S. 23; Epstein/Robertson, Proceedings of the National Academy of Sciences of the United States of America 112 (2015), E4512-21; Lobe, Wird Facebook Donald Trump verhindern?, FAZ vom 29.04.2016, S. 17; Nosowitz, Could Facebook Swing the Election, New York Magazine online vom 27.04.2016; Timm, You may hate Donald Trump. But do you want Facebook to rig the election against him?, The Guardian online vom 19.04.2016; Weingartner, Facebook-Mitarbeiter fordern ihren Chef heraus, FAZ vom 16.11.2016, S. 22.
 
326
Vgl. zum Phänomen des Microtargeting die Nachweise in Fn. 324 zur Verknüpfung mit Fake News ONeil, Weapons of Math Destruction, 2016, S. 194 f.
 
327
Vgl. hierzu jüngst die Einblicke bei Thompson/Vogelstein, Inside The Two Years That Shook Facebook – And The World, Wired vom 12.02.2018.
 
328
Dazu bspw. Decker/Bernau, Die wichtigsten Antworten zum Facebook-Skandal, FAZ online vom 21.03.2018; Horn, Der Facebook-Skandal, aber sortiert, Medium.​com vom 31.03.2018.
 
329
Es gibt Anhaltspunkte dafür, dass die Urheber von Falschmeldungen diese bewusst so platzieren und verlinken, dass die Algorithmen der Suchmaschinen und News-Aggregatoren sie bevorzugt berücksichtigen – sie nutzen die technischen Gegebenheiten also bewusst aus; vgl. Cadwalladr, Google, democracy and the truth about internet search, The Guardian online vom 04.12.2016. Das Ausmaß der tatsächlichen Relevanz von Falschmeldungen im US-Wahlkampf ist dabei noch nicht vollständig wissenschaftlich untersucht; dazu Allcott/Gentzkow, Journal of Economic Perspectives 31 (2017), 211, S. 22. Vgl. auch Plickert, Scheinriesen, FAZ vom 25.01.2017, S. 13.
 
330
Musch-Borowska, Fatale Fake-News, tagesschau.de vom 03.07.2018.
 
331
Bspw. fordern die GRÜNEN eine Kennzeichnungspflicht für maschinell erstellte Meldungen in sozialen Medien; Beuth, Furcht vor den neuen Wahlkampfmaschinen, Zeit Online vom 23.01.2017. CDU/CSU wollen soziale Netzwerke bei Falschmeldungen verpflichten, die Dinge richtig zu stellen; vgl. Reinbold/Traufetter, Union will Facebook zur Richtigstellung von Fake News verpflichten, Spiegel Online vom 24.01.2017. Siehe zum Themenfeld instruktiv Cornils, AfP 49 (2018), 377 ff.
 
332
Ein zielführender Mittelweg kann darin liegen, Anbieter zu verpflichten, die Kriterien offenzulegen und diskriminierungsfrei auszugestalten, die sie der Auswahl der Nachrichten, Meinungen und Gruppenzuordnungen unterlegen. Das erzeugt Transparenz darüber, wie die Entscheidungskriterien eines Algorithmus tatsächlich in die Welt hineinwirken (zur Suchmaschinenneutralität siehe auch Dörr/Natt, ZUM 2014, 829 (844 ff.); Hentsch, MMR 2015, 434 ff. sowie zum strukturell ähnlich gelagerten Konzept der Netzneutralität Martini, Wie viel Gleichheit braucht das Internet?, 2011, S. 21 mit Fn. 51 sowie S. 52 ff.). Ergänzend können institutionelle, selbstregulative oder legislative Sicherungsmaßnahmen hinzutreten, die darauf zielen, offensichtliche Falschmeldungen, die Nachrichtenaggregatoren in die Welt senden, frühzeitig zu identifizieren und ihre Auswirkungen auf den Meinungsstrom möglichst gering zu halten. Dazu im Einzelnen unten D. II. 2. d).
 
333
Sog. Böckenförde-Diktum; Böckenförde, Staat, Gesellschaft, Freiheit, 1976, S. 60.
 
334
Di Fabio, in: Maunz/Dürig (Hrsg.), GG, 39. Erg.-Lfg. (Stand: Jul. 2001), Art. 2 Abs. 1, Rn. 125.
 
335
Schuhmacher, in: Grabitz/Hilf/Nettesheim (Hrsg.), EUV/AEUV, 64. Erg.-Lfg. (Stand: Mai 2018), Art. 101 AEUV, Rn. 8.
 
336
Vgl. etwa die Rankings der Bewertungsportale yelp, Tripadvisor und Google; ferner die Anmerkung von Plog/Zimprich, MMR 2016, 353 (354) zu KG Berlin, MMR 2016, 352 (353).
 
337
Der Vorschlag der Kommission für eine Verordnung des Europäischen Parlaments und des Rates zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten vom 26.04.2018, COM(2018) 238 final, S. 24 ff. schlägt daher die richtige regulatorische Richtung ein: Er sieht neben Transparenzpflichten in den AGB von Anbietern (Art. 3) umfangreiche Transparenzpflichten über das Zustandekommen der Online-Vergleichs- und Suchergebnissen vor (Art. 5). Art. 6 zwingt die Anbieter, Differenzierungen bei Eigen- und Fremdangeboten offenzulegen. Zudem fordert die Kommission, einen Branchen-Kodex zu schaffen. In das gleiche Horn stößt der Vorschlag der Kommission einer Richtlinie zur besseren Durchsetzung und Modernisierung der EU-Verbraucherschutzvorschriften vom 11.04.2018, COM(2018)185/F1, S. 38 f, 40 f. Art. 1 Nr. 6, Art. 2 Nr. 4 lit. a). Er will eine Pflicht etablieren, kostenpflichtige Platzierungen oder Berücksichtigungen in Online-Suchanfragen künftig als solche zu markieren. Online-Marktplätze sollen ferner Verbraucher über die Hauptparameter ihres Angebotsrankings unterrichten.
 
338
Europäische Kommission, Entscheidung in AT.39740 – Google Search (Shopping) vom 27.07.2017.
 
339
Siehe dazu bereits oben B. I. 3.; Körber, WuW 2015, 120 (124 f.); zu Onlineplattformen Hamelmann/Haucap, Wettbewerb und Regulierung auf Online-Plattformmärkten, in: Lenel/Apolte/Berthold et al. (Hrsg.), ORDO, 2016, S. 269 (272 ff.). Die Bundesregierung hat diese Problematik erkannt und bietet mit dem Entwurf eines Neunten Gesetzes zur Änderung des Gesetzes gegen Wettbewerbsbeschränkungen erste Lösungen an; BT-Drs. 18/10207, S. 39, 47 f.; hierzu auch Kieck, PinG 2017, 67 (68).
 
340
Siehe bspw. Danckert/Mayer, MMR 2010, 219 (219).
 
341
Der Topos beschreibt einen speziellen Fall des Marktversagens. Ein Unternehmen ist in dieser Situation in der Lage, den Markt kostengünstiger als andere Unternehmen zu versorgen. Diese Sonderstellung entsteht, wenn die Fixkosten, die notwendig sind, um das Leistungsangebot zu erstellen, aufgrund besonders hoher Investitionskosten hoch sind und umgekehrt die Kosten, um eine weitere Leistungseinheit zu erstellen, aufgrund von Skaleneffekten niedrig sind. Vgl dazu bspw. Baumol, The American Economic Review 67 (1977), 809 ff.
 
342
Europäische Kommission, Entscheidung M.7217 (Facebook/WhatsApp) vom 03.10.2014. Später hat sie in einem Fusionskontrollverfahren erstmalig eine Geldbuße wegen falscher Angaben hinsichtlich der technischen Möglichkeit verhängt, Facebook-Nutzerprofile mit den Telefonnummern der WhatsApp-Nutzer zu verknüpfen; vgl. Europäische Kommission, Fusionskontrolle: Kommission verhängt gegen Facebook Geldbuße von 110 Mio. EUR wegen irreführender Angaben zur Übernahme von WhatsApp, Pressemitteilung v. 18.05.2017.
 
343
Bundeskartellamt, Bundeskartellamt eröffnet Verfahren gegen Facebook wegen Verdachts auf Marktmachtmissbrauch durch Datenschutzverstöße, Pressemitteilung v. 02.03.2016; Bundeskartellamt, Vorläufige Einschätzung im Facebook-Verfahren: Das Sammeln und Verwerten von Daten aus Drittquellen außerhalb der Facebook Website ist missbräuchlich, Pressemitteilung v. 19.12.2017.
 
344
Europäische Kommission, Entscheidung in AT.39740 – Google Search (Shopping) vom 27.07.2017 sowie Europäische Kommission, Kartellrecht: Kommission verhängt Geldbuße von 4.34 Milliarden Euro gegen Google wegen illegaler Praktiken bei Android-Mobilgeräten zur Stärkung der beherrschenden Stellung der Google-Suchmaschine, Pressemitteilung v. 18.07.2018.
 
345
Zur Gründung eines Think Tanks zur Internetökonomie der 6. Beschlusskammer des Bundeskartellamts bereits Anfang 2015 siehe Bundeskartellamt, Arbeitspapier – Marktmacht von Plattformen und Netzwerken, Juni 2016, S. 1; Autorité de la concurrence/Bundeskartellamt, Competition Law and Data, 10.05.2016, S. 3.
 
346
VO (EG) Nr. 139/2004.
 
347
Nationale Aufgreifkriterien für die Fusionskontrolle, die über die Anforderungen der FKVO hinausgehen, können indes insbesondere über zwei Wege den Prüfradar der Kommission aktivieren: Entweder beantragen die fusionierenden Unternehmen – wie Facebook/WhatsApp – die Prüfung, wenn der Zusammenschluss in mindestens drei Mitgliedstaaten der nationalen Prüfung unterfallen kann (Art. 4 Abs. 5 UAbs. 1 FKVO) oder ein oder mehrere Mitgliedstaaten beantragen eine Prüfung, weil der Zusammenschluss den Handel zwischen den Mitgliedstaaten beeinträchtigt und den Wettbewerb zu beeinträchtigen droht (Art. 22 Abs. 1 FKVO).
 
348
Die Kartellbehörden und die deutsche Gerichtsbarkeit hatten diese Frage bislang nicht einheitlich beantwortet. Siehe bspw. Seeliger/de Crozals, ZRP 2017, 37 (39).
 
349
Auf einseitigen Märkten bestimmt einzig die Höhe des Preises das Marktergebnis. Die Theorie zwei- bzw. mehrseitiger Märkte ergänzt diese Sichtweise für solche Marktgeschehnisse, bei denen ein Intermediär, etwa eine Zeitungsplattform, mindestens zwei Nachfrager- oder Nutzergruppen (z. B. Anzeigekunden und Leserkunden) zusammenbringt. Auktions-, Werbe- oder (elektronische) Einkaufs-Plattformen illustrieren, dass das Marktergebnis in diesen Konstellationen – zusätzlich zur Preisstruktur – von der Interaktion der Nutzergruppen abhängt. Siehe dazu bspw. Clement/Schreiber, Internet-Ökonomie, 3. Aufl., 2016, S. 266 f.
 
350
Netzwerkeffekte treten auf, wenn sich der Nutzen eines Angebots für seine Adressaten dadurch erhöht, dass auch andere Nutzer das gleiche Angebot in Anspruch nehmen. Direkte Netzwerkeffekte liegen vor, wenn der Nutzen des Teilnehmers einer Marktseite in direkter Weise mit der wachsenden Teilnehmerzahl auf derselben Marktseite korrespondiert; vgl. Haucap, Ordnungspolitik und Kartellrecht im Zeitalter der Digitalisierung, 2015, S. 3. Positive direkte Netzwerkeffekte lassen sich etwa bei Kommunikationsplattformen wie Skype, Twitter, WhatsApp und Co. beobachten: Für den einzelnen User hängt der Wert der Anwendung maßgeblich davon ab, wie viele weitere persönliche Kontakte den Service nutzen. Davon abzugrenzen sind indirekte Netzwerkeffekte. Sie treten auf, sobald die Anzahl der Teilnehmer auf der anderen Marktseite anwächst; vgl. Täuscher/Hilbig et al., Geschäftsmodellelemente mehrseitiger Plattformen, in: Schallmo/Rusnjak/Anzengruber et al. (Hrsg.), Digitale Transformation von Geschäftsmodellen, 2017, S. 179 (183). So hängt typischerweise der Nutzen eines Käufers davon ab, wie viele Anbieter auf dem Markt verfügbar sind. Der Nutzen des Anbieters hängt wiederum davon ab, wie viele Käufer es gibt. Der Wert einer Plattform bestimmt sich daher danach, inwieweit die verschiedenen Marktseiten von der Zusammenführung profitieren; vgl. Hannappel/Rehm et al., Welche Faktoren bestimmen, ob digitale Plattform-Märkte einer Regulierung bedürfen?, 2017, S. 2.
 
351
Körber, ZUM 2017, 93 (99); Seeliger/de Crozals, ZRP 2017, 37 (39).
 
352
Dieser berechnet sich gem. § 38 Abs. 4a GWB.
 
353
Kritisch zur Umsetzung Pohlmann/Wismann, NZKart 2016, 555 (559 f.); Seeliger/de Crozals, ZRP 2017, 37 (39).
 
354
Siehe dazu auch Schweitzer/Haucap et al., Modernisierung der Missbrauchsaufsicht für marktmächtige Unternehmen, 2018, S. 39 ff.
 
355
A. a. O., S. 151 ff.
 
356
A. a. O., S. 155 f.
 
357
Zur Analyse de lege lata siehe insbesondere a. a. O. S. 106 ff.; Körber, ZUM 2017, 93 (97 ff.).
 
358
Mayer-Schönberger/Ramge, Das Digital, 2017, S. 195 ff.; Schweitzer/Haucap et al., Modernisierung der Missbrauchsaufsicht für marktmächtige Unternehmen, 2018, S. 185 ff.
 
359
So z. B. für die Massendatenanalyse auch Entschließung des Europäischen Parlaments vom 14.03.2017, 2016/2225(INI), ErwGrd H, L.
 
360
Dazu etwa Martini, Big Data, in: Hill/Martini/Wagner (Hrsg.), Digitale Lebenswelt, 2015, S. 97 (123); vgl. auch Mittelstadt/Allo et al., Big Data & Society 2016, 1, S. 6; Tene/Polonetsky, Northwestern Journal of Technology and Intellectual Property 11 (2013), 239 (255).
 
361
Vgl. Hawking/Russell et al., Stephen Hawking: ‚Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?‘, Independent online vom 01.05.2014.
 
362
Trenkamp, Bettina Wulff gegen Google – Attacke auf den Algorithmus, Spiegel Online vom 08.09.2012.
 
363
BGH, CR 2018, 744 (747, Rn. 40 ff.). Im Ergebnis hat der BGH eine Markenrechtsverletzung in diesem Fall abgelehnt. Amazon verwende die Bezeichnung „GoFit“ nicht markenrechtswidrig (748, Rn. 52 ff.).
 
Metadaten
Titel
B. Regulierungsbedarf
verfasst von
Prof. Dr. Mario Martini
Copyright-Jahr
2019
Verlag
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-59010-2_2

Premium Partner