Ängste vor dem Überwachungsstaat sind vor dem Hintergrund der eigenen geschichtlichen Erfahrung mit dem totalitären NS-Regime offensichtlich gerade in Deutschland leicht zu wecken. So hatte schon die 1983 geplante, verglichen mit den heute diskutierten Datenpraktiken harmlose, Volkszählung eine massive Protestbewegung bis hin zum Boykott ausgelöst. Schon damals ging es um die prinzipielle Frage, welchen Nutzen die Datenerhebung hat, welche Risiken damit verbunden sind und wie das Eine sichergestellt werden kann, ohne das Andere zu ignorieren. Für Infrastrukturplanung und Wohnungsbau benötigte der Staat aktuelle Daten seiner Bürger, die Gegner befürchteten den Missbrauch dieser Daten (‚gläserner Bürger‘) und malten die Schreckensvision eines beginnenden Überwachungsstaats an die Wand. Erst das Urteil des Bundesverfassungsgerichts, aufgrund dessen die Regierung einige Teile des Zensus anpassen musste, führte zu Rechtsfrieden. Das Urteil gilt seitdem als Geburtsstunde des deutschen Datenschutzrechtes, das in diesem Sinne 1990 novelliert wurde.
Heute steht wieder die Frage im Raum, wie mit (personenbezogenen) Daten umzugehen ist – allerdings in einem völlig veränderten Umfeld, das durch Internet, Big Data und künstliche Intelligenz gekennzeichnet ist und in dem auf der anderen Seite die Nutzer ‚permanently online, permantly connected‘ sind. Es geht auch um mehr als ‚nur‘ Marktforschung, um personalisierte Werbung, um Wettbewerbsvorsprung durch Kunden- und Userdaten oder den Profit einiger großer Online-Konzerne. Es geht um eine gesamtgesellschaftliche Richtungsentscheidung, die sich mit ebenso grundsätzlichen wie vielschichtigen Themen wie der Abgrenzung von Privatem und Öffentlichem, mit der Gewichtung von Werten und Normen oder dem Verhältnis von Ökonomie und dem Primat der Politik befasst. Will man eine solche Richtungsentscheidung herbeiführen, dann bedarf diese ihrerseits eines mehrheitsfähigen Verständnisses über einen geeigneten politischen und rechtlichen Handlungsrahmen.
Der Umgang mit personenbezogenen Daten bzw. Massendaten unter den Bedingungen der dritten Dekade des 21. Jahrhunderts verlangt neue Antworten. Es bestehen Risiken wie Überwachung, Missbrauch und Diskriminierung; neue ethische Probleme stellen sich, wenn Entscheidungen auf Algorithmen und Maschinen verlagert werden. Aber es geht auch um die Chancen auf ein besseres Leben, das mit Hilfe von Big Data und künstlicher Intelligenz in der Medizin, im Verkehr und im Wohnbereich gesünder, sicherer, komfortabler und ressourcenschonender zu werden verspricht.
1.1.1 Nutzen und Schutz von Daten: Überlegungen zur Analyse eines politischen Diskurses
Vor diesem Hintergrund soll in diesem Essay den Fragen nachgegangen werden, wie der Umgang mit Daten im politischen Diskurs thematisiert wird, wie der aktuelle Stand dieses Diskurses zu beschreiben ist und welche Implikationen sich daraus für die weitere Entwicklung von sinnhaften und mehrheitsfähigen Konventionen bzw. Normen und Regeln unterschiedlicher Art und Reichweite ergeben. Diese Überlegungen münden in die Suche nach geeigneten, wirkungsvollen Handlungs- bzw. Steuerungsoptionen.
Dazu wird zunächst beschrieben, welche Merkmale der öffentliche Diskurs über die Dichotomie von Schutz und Nutzen von Daten aufweist, um diese Ergebnisse dann mit den entsprechenden Beobachtungen und Interpretationen des politischen Diskurses im engeren Sinne in Beziehung zu setzen bzw. zu vergleichen. Dieses Vorgehen wurde gewählt, weil davon ausgegangen wird, dass die öffentlichen, nach wie vor wesentlich über Massenmedien ausgetragenen Argumentationen ihrerseits den politischen Diskurs im engeren Sinne zwischen Entscheidungsträgern und pluralistischen Interessengruppen maßgeblich beeinflussen.
Die Frage, ob mit der Nutzung von Massendaten aller Art eher Vorteile und Verbesserungen oder eher Nachteile bzw. Risiken verbunden sind, ist thematisch als eine typische Fortschrittsdebatte zu beurteilen. D. h. alle kommunikativ Handelnden bringen jeweils ihre subjektiven Zukunftserwartungen, Ängste und Hoffnungen in ihre Argumentationen mit ein. Es geht schließlich um äußerst komplexe Zusammenhänge mit vielen Unsicherheiten, ja vor allem mit vielen ‚unknown unknowns‘, die auch nicht von Experten unstreitig einzuschätzen sind. Dennoch – und darin liegt die besondere gesellschaftliche und politische Herausforderung – muss darüber, wie wir morgen mit den in unabsehbarer Menge und Verknüpfungen erhobenen und gespeicherten Daten umgehen wollen, bereits heute eine Verständigung erzielt werden. Und zwar weniger deshalb, weil es einen zusätzlichen konkreten Steuerungsanspruch z. B. mittels Gesetzgebung einzulösen gilt, sondern weil eine solche Verständigung zur Legitimierung demokratischer Entscheidungen ganz grundsätzlich notwendig ist, will man nicht in eine vordemokratische Expertokratie verfallen. Dass solche Verständigungen immer nur von begrenzter zeitlicher Dauer sein können, gilt hier dementsprechend ebenfalls als gesetzt, denn schließlich gibt es zu jeder Entscheidung – sei es in der Politik, sei es in Unternehmen oder bei den Bürgern und Nutzern von Daten – immer eine Alternative. Die notwendige Folge ist eine permanente argumentative Auseinandersetzung über mögliche, bessere Alternativentscheidungen.
Es gibt wohl kaum ein Politikfeld, in dem dieses Kontingenzprinzip so deutlich wird wie im Falle von Big Data bzw. den damit in Verbindung stehenden politischen und rechtlichen Lösungsangeboten. Die breite, von allen Seiten kritische Diskussion um die EU-Datenschutzgrundverordnung hat dies noch einmal ganz konkret vorgeführt. Die Öffentlichkeit ist geprägt von Erzählungen, die – nicht zuletzt basierend auf Alltagserfahrungen – vielstimmig sind und auf die Fülle möglicher Alternativkonzepte zum Umgang mit Massendaten aufmerksam machen. Damit geht es aber zugleich um eine Verständigungsdebatte über Zwecke und Ziele, es geht um Deutungshoheiten, mithin Machtinteressen in einem interessenbeladenen Politikfeld. Narrationen, also der Akt des Erzählens, und die mit ihnen konstruierten Narrative gelten deshalb inzwischen über die Wissenschaftsdisziplinen hinweg als maßgeblicher Faktor, der Einfluss auf grundlegende soziale, politische und auch ökonomische Entwicklungen ausübt (Shiller
2017).
Gesellschaftliche und politische Konflikte sind dementsprechend als Konflikte der Interpretation zwischen konkurrierenden Narrativen zu sehen (Gadinger et al.
2014, S. 34). Das bedeutet im Umkehrschluss, dass es notwendig und sinnvoll ist, Narrative zu konstruieren, um überhaupt zu einem mehrheitsfähigen Konsens über Nutzen und Grenzen von Big Data zu gelangen. Deshalb versucht dieser Essay, wesentliche Elemente des öffentlichen wie politischen Diskurses anhand von Narrativen zu beschreiben, die verwendet werden, damit komplexe Phänomene jenseits von Zahlen, Formeln oder Algorithmen überhaupt zum Gegenstand des öffentlichen Diskurses gemacht werden können (Gadinger et al.
2014, S. 9 ff.).
Die im Kontext von Big Data zu entdeckenden Geschichten werden in ihren wesentlichen Konstruktionen nachvollzogen und die beabsichtigten und unbeabsichtigten Wirkungen interpretiert, sie werden aber nicht abschließend vermessen (Blatter et al.
2017, S. 31 ff.). Methodisch bedeutet dies, dass unter Punkt 6 Narrationen im öffentlichen Diskurs anhand von aktuellen Presseveröffentlichungen, Fachliteratur und Sekundärerhebungen rekonstruiert, in ihren jeweiligen Kontext eingeordnet und interpretiert werden. Dasselbe geschieht anschließend unter Punkt 8 mit politischen Narrationen, die aber darüber hinaus noch anhand von Gesetzestexten, Parteiprogrammen und Interviews interpretativ analysiert werden. Damit lässt sich die Wirkmächtigkeit von herrschenden Narrativen beschreiben und analysieren, wie sie in der Öffentlichkeit zu beobachten sind.
1.1.2 Big Data, Künstliche Intelligenz und Algorithmen: Begriffe und Konzepte in der Diskussion
Auch wenn Experten Ausmaß und Qualität unterschiedlich beschreiben, so sind sie sich doch einig in der Aussage, dass die Big-Data-Technologie eine dramatische Veränderung für Wirtschaft und Gesellschaft bedeutet. Der Oxford-Professor Viktor Mayer-Schönberger spricht von „einem Daten-getriebenen Neustart des Marktes, der zu einer fundamentalen Umgestaltung unserer Wirtschaft führen wird, die wohl so bedeutsam sein wird wie die industrielle Revolution, eine Neuerfindung des Kapitalismus“ (Mayer-Schönberger und Ramge
2018, S. 3). Mit Big Data habe „die zweite Welle der Digitalisierung“ begonnen, meint Aljoscha Burchardt (
2018, S. 13), Wissenschaftler am Deutschen Forschungszentrum für Künstliche Intelligenz. Die erste Welle wurde durch die Digitalisierung analoger Datenträger (z. B. Foto, Film, Text, akustische Signale) angestoßen, die Digitalisierung beschränkte sich aber weitgehend auf das Speichern der Daten und ihre Wiedergabe. Jetzt werden die Daten für Maschinen verstehbar.
„Big Data ist nicht weniger als die dritte große Welle von Innovationen, nach dem World Wide Web Mitte der 90er Jahre und Social Media Mitte der 2000er. Big Data ist ein Paradigmenwechsel, wie wir Informationstechnologie einsetzen.“ So beschreibt der Data Scientist Jörg Blumtritt (
2015) das Phänomen. Datenintensive Forschung gilt Microsoft-Analytikern als vierte wissenschaftliche Revolution und Motor gesellschaftlicher und wirtschaftlicher Entwicklung, das sogenannte vierte Paradigma (Hey et al. 2009 zitiert in Schwerk et al.
2018, S. 2). Big Data wird somit als eine disruptive Technologie bewertet, die gravierende Auswirkungen für viele Branchen und gesellschaftliche Bereiche mit sich bringen wird, in einigen Branchen wird sie Arbeitsplätze vernichten, gleichzeitig aber auch hohe Produktivitäts- und Wohlstandssteigerungen sowie neue Arbeitsplätze schaffen. Die Unternehmensberatung McKinsey erwartet dadurch weltweit ein Wertschöpfungspotenzial von jährlich mehr als 3,5 Billionen Dollar (McKinsey Global Institute
2018) – das wäre in etwa so viel wie derzeit das Bruttoinlandsprodukt von Deutschland.
Die Fülle der zur Verfügung stehenden Daten und die Fähigkeit, sie zu verarbeiten, verändern Wirtschaft und Gesellschaft grundlegend. Mayer-Schönberger und Ramge (
2018) zufolge wandelt sich die Wirtschaft dadurch vom Finanzkapitalismus zum Datenkapitalismus. Um die Wahlhandlungen der Menschen zu koordinieren, stehe nun nicht mehr nur eine Variable, der Preis, zur Verfügung. An die Stelle des häufig zu ineffizienten Lösungen führenden Preismechanismus trete die Koordination mittels Daten. So erlaubten die neuen technologischen Möglichkeiten, dass die Menschen ihre Transaktionen entlang ihrer Präferenzen, die sich in einer Fülle von Daten ausdrücken, zu einem optimalen Ergebnis zusammenführen.
Richtig eingesetzt, könne Big Data über eine nahezu perfekte Personalisierung der Kommunikation in vielen Bereichen, von Bildung über medizinische Versorgung bis hin zum Klimawandel, nachhaltige Lösungen ermöglichen (Mayer-Schönberger und Ramge
2018, S. 12).
Man muss kein Anhänger utopischer oder dystopischer Science-Fiction sein, um zu erkennen, dass wir uns möglicherweise an der Schwelle zu einer faszinierenden, radikalen Veränderung in der Evolution der Menschheit befinden, wie es sie seit einem Jahrtausend nicht mehr gegeben hat. Revolutionen dieser Art verlaufen niemals reibungslos. Sie sind fast immer chaotisch, undurchsichtig und voller ethischer Fußangeln. (Groth et al.
2018, S. 28)
Folgt man den überwiegenden Darstellungen, dann zeichnet sich Big Data durch vier ‚V‘ aus: Das erste V steht für ‚Volume‘ und besagt, dass mit den exponentiell wachsenden Analyse- und Speicherkapazitäten, die sich dem Moore’schen Gesetz zufolge alle 12 bis 24 Monate verdoppeln, auch die weltweit für die Analyse zur Verfügung stehenden Daten exponentiell zunehmen. Die Computerchips werden immer leistungsfähiger, kleiner und preiswerter, der Grad der Vernetzung nimmt zu und eine Vielzahl von Geräten und Alltagsgegenständen ist mit Sensoren ausgestattet, die einen kontinuierlichen Datenstrom liefern. Das macht Analysen und Vorhersagen billiger. Mit dem zunehmenden Datenvolumen in direkter Beziehung steht das zweite V: ‚Velocity‘, also die Geschwindigkeit, mit der gigantische Datenvolumina heute verarbeitet werden können bis hin zur Analyse in Echtzeit.
Das dritte V bedeutet ‚Variety‘ und bezieht sich auf die Vielfalt der unterschiedlichen Datenquellen und Datenformate, die verarbeitet und miteinander verknüpft werden können, um daraus Erkenntnisse zu gewinnen. Das betrifft Daten aus den unterschiedlichsten Bereichen, von strukturierten demografischen Statistiken bis hin zu unstrukturierten Daten in Form von Text-, Audio-, Bild- und Video-Dateien insbesondere aus den sozialen Netzwerken. Das vierte V – ‚Veracity‘ für Zuverlässigkeit – betrifft die Anforderung an die Datenqualität im Sinne von Richtigkeit und Vertrauenswürdigkeit. Das heißt, die mit einer Big-Data-Analyse erzielten Erkenntnisse sind von der Qualität der Daten und der Analysemethode abhängig. Nur mit validen Daten und einem adäquaten Verarbeitungsverfahren sind vertrauenswürdige Ergebnisse möglich.
Big Data bezeichnet also die Verarbeitung von Massendaten unterschiedlichster, auch unstrukturierter, komplexer und sich ändernder Informationen mithilfe von Algorithmen und/oder Künstlicher Intelligenz. Zeichnete sich ein klassischer Analyseprozess bislang durch das Überprüfen von Hypothesen mittels Datenerhebungen aller Art aus, um daraus Aussagen über Kausalitäten zu gewinnen, so besteht er nun vor allem darin, den jeweils vorgefundenen Datenstrom auszubeuten, sprich maschinell nach Zusammenhängen zwischen Variablen, d. h. nach Korrelationen, zu durchforsten.
Unter dem mathematischen Begriff Algorithmus ist eine Rechen- oder Verarbeitungsvorschrift zur Lösung genau definierter Probleme zu verstehen, die von Maschinen abgearbeitet werden können. Algorithmen in Navigationssystemen errechnen die schnellste Verbindung zwischen zwei Orten oder verbessern bei der Textverarbeitung die Rechtschreibung. Aber nicht alle Situationen sind im Voraus modellartig zu erfassen. Für das autonome Fahren etwa braucht es ein System, das lernfähig ist und auch in neuen Situationen richtig (intelligent) zu entscheiden weiß. Hier ist Künstliche Intelligenz erforderlich, man braucht lernfähige Algorithmen beziehungsweise maschinelles Lernen, um Muster in komplexem Datenmaterial zu erkennen und zu deuten. Und sie müssen in der Lage sein, diese Muster auch auf neue Daten anzuwenden und sich selbstständig in einem begrenzten Rahmen Lösungswege zu erarbeiten.
Für diesen Prozess müssen zwei Bedingungen erfüllt sein: Zum einen benötigt das System riesige Datenmengen, um den Algorithmus zu trainieren. So hat Google alle im Internet vorhandenen Texte in sein Sprachübersetzungstool eingegeben, um alle möglichen Muster des Gebrauchs von Wörtern zu trainieren (Mayer-Schönberger und Ramge
2018, S. 78). Zum anderen braucht das System beständiges Feedback, um sich selbst an neue und veränderte Umstände anpassen zu können. Big Data und Algorithmen bzw. Künstliche Intelligenz sind also komplementäre Elemente. Wohl deshalb werden die drei Begriffe oft synonym verwendet, um diese neue Stufe der Verarbeitung von gigantischen Datenvolumina zu beschreiben. Es ist die Verbindung dieser drei Elemente, die das Potenzial für technologische Sprünge erzeugt.
1.1.3 Arten, Herkunft und Nutzer von Daten: Annäherung an eine Dual-Use Technologie
Um Massendaten nutzen zu können, müssen sie zuvor allerdings analysierbar gemacht werden. Kein Problem ist das bei sogenannten strukturierten Daten, insbesondere solchen, die als Zahlen oder Buchstaben in Tabellenform erfasst sind und die sich in Datenbanken z. B. von Suchmaschinen leicht und schnell durchsuchen lassen. Hinzukommen aber die sogenannten unstrukturierten Daten, die z. B. als Textdateien, Präsentationen, Videos, Audiodaten unbearbeitet vorliegen, d. h. in einer nicht formalisierten, oft nutzergenerierten Struktur von den Nutzern selbst ins Netz gestellt werden (‚user generated content‘) und in denen nicht zuletzt das Verhalten von Menschen, deren Präferenzen und Stimmungen aufgezeichnet werden, und zwar unabhängig davon, ob diese explizit geäußert werden oder nicht. Um sie dennoch analysieren zu können, kommen Verfahren wie Text- und Spracherkennung oder Stimmanalysen zum Einsatz. Damit sind unstrukturierte Daten ebenfalls zu analysieren, denn die in ihnen gespeicherten Informationen lassen sich in strukturierte Daten umwandeln, dementsprechend durchsuchen und schließlich auf Korrelationen überprüfen.
Unstrukturierte Daten enthalten also latente Informationen, z. B. über Persönlichkeitsmerkmale oder Emotionen, die dann neben den demografischen Daten wie Alter, Geschlecht oder Wohnort für die personalisierte Ansprache genutzt werden, um den Nutzer beispielsweise ganz banal in seinen persönlichen Präferenzen für Streaming-Dienste, aber genauso auch in seinen Sicherheitsbedürfnissen bzw. Ängsten zu adressieren. Mit derselben Zielsetzung lassen sich auch ‚Likes‘ bei Facebook oder Statusmeldungen in Messenger-Diensten analysieren, die dann nicht nur sehr zeitnahe Stimmungsbilder über die Nutzer liefern können, sondern sogar Vorhersagen ermöglichen, mit welchen Emotionen zu welcher Zeit bei den Nutzern zu rechnen ist (Farnadi et al.
2014; Youyou et al.
2015).
Daten kommen auf verschiedensten Wegen zustande. Die älteste Form systematischer Datenerhebung ist ein hoheitlicher Akt: die Volkszählung. Aufgrund militärischer und fiskalischer Interessen erfassten Staaten schon früh Bevölkerung und Ressourcen. Eine regelmäßige, lückenlose, systematische Erhebung solcher Daten für die amtliche Statistik ist in Europa seit der zweiten Hälfte des 19. Jahrhunderts in Gebrauch. Gesetzliche Anordnungen wurden erlassen, um Geburten, Heiraten und Todesfälle für das amtliche Melderegister zu erfassen. „Erstmals vermaßen Gesellschaften sich selbst und legten darüber Archive an“ (Osterhammel
2009, S. 62). Melderegister sammeln und speichern auch heute noch persönliche Daten wie Namen, Adresse, Geburts- und Sterbetag, Staatsangehörigkeit, Religion, Familienstand und Steuerklasse und geben auch Dritten darüber – entgeltlich – Auskunft.
Viele Daten werden aber auch durch individuelle Bereitstellung der Endnutzer (im Folgenden nur noch Nutzer) erzeugt. Das geschieht etwa in Form von Selbstauskünften, um eine bestimmte Leistung eines Unternehmens in Anspruch nehmen zu können. Dabei handelt es sich häufig um besonders sensible Daten wie etwa Einkommen, Vermögen und Schulden bei einem Kreditantrag oder die eigenen Gesundheitsdaten und Krankheitsgeschichte bei der Krankenversicherung. Genauso wie bei den staatlichen Meldeämtern geschieht die Preisgabe dieser Daten nicht freiwillig, denn ohne die Selbstauskünfte würde kein Vertrag zustande kommen.
Die meisten Daten fallen heute aber automatisch bei der Nutzung bestimmter Geräte oder Technologien (z. B. Smartphone, Computer, Kunden- oder Kreditkarte, Auto) an. Bei den elektronischen Spuren, die dabei entstehen, handelt es sich um Daten, da sie durch bestimmte technische Kennungen (z. B. Telefonnummer, IP-Adresse, Bankkonto-Nummer, Fahrzeug-Identitätsnummer) einer individuellen Person zuzuordnen sind, die beispielsweise für einen Vertragsabschluss ihre persönlichen Daten angeben muss. So lassen sich aus den besuchten Webseiten beim Surfen im Internet leicht persönliche Interessen sowie politische, religiöse oder sexuelle Einstellungen ableiten. Durch die Verknüpfung von Cookies, die beim erstmaligen Besuch von Webseiten gespeichert werden, können Informationen über den Nutzer zu aussagekräftigen Persönlichkeitsprofilen zusammengefügt werden. Durch die Verknüpfung der Cookies ist der Nutzer möglicherweise auch für solche Internetanbieter identifizierbar, denen der Nutzer selbst keine persönlichen Daten offenbart hat.
Aus E-Mails und Telefonaten lassen sich Rückschlüsse auf das soziale Umfeld des Users ziehen. Es gibt inzwischen fast keine menschliche Aktivität mehr, die nicht digitale Spuren hinterlässt. Der wichtigste Datenproduzent ist heute das Smartphone, das dem Telefonanbieter den Aufenthaltsort verrät, aus dem sich Bewegungsprofile ableiten lassen. Ein Smartphone ist heute in der Regel mit mindestens 12 bis 15 Sensoren bestückt, etwa GPS, Barometer, Beschleunigungssensor, Magnetometer für die Himmelsrichtung, Rotationssensor, Näherungssensor, Helligkeitssensor. Manche verfügen auch über ein Thermometer, einen Feuchtigkeitssensor, einen Fingerabdrucksensor oder Gesichtserkennung. Diese Sensoren erhöhen den Bedienungskomfort, aber lassen mittels einer App auch leicht erkennen, ob der Besitzer des Smartphones gerade schläft, geht, ob und wie er Auto fährt oder in welchem Stock eines Gebäudes er sich aufhält (Hajek
2018, S. 56). Interessant ist das nicht nur für Überwachungsorgane, sondern etwa auch für Autoversicherungen, die ihre Prämien am Fahrverhalten orientieren wollen.
Die Menschen, die nicht digital erfasst werden, sind heute schon in der Minderheit. Weltweit nutzen rund 2,6 Mrd. Menschen ein Smartphone, 3,2 Mrd. sind per Smartphone oder Computer in den Sozialen Medien unterwegs, vier Milliarden nutzen das Internet. Insgesamt waren im Jahr 2016 rund 6,4 Mrd. Endgeräte mit dem Internet verbunden, bis 2020 soll die Zahl auf 20,8 Mrd. anwachsen. Im Schnitt nutzt jeder Mensch heute 3,64 internetfähige Endgeräte, 26,7 Apps und ist auf sieben unterschiedlichen Internetplattformen unterwegs (Srinivasan
2018).
Die Autos von heute sind fahrbare, mit dem Internet verbundene Computer, die Daten über Fahrverhalten und Bewegungsprofile an die Autohersteller (und demnächst vermutlich an Autoversicherungen und Anbieter von autonomem Fahren) senden. Abermillionen Kunden- und Kreditkarten hinterlassen Spuren der getätigten Finanztransaktionen. Sogenannte Wearables, also Sensoren, die am Körper getragen werden, wie etwa Fitness-Tracker, übertragen laufend medizinische Daten. Ein steter Datenstrom fließt aus den mit dem Internet verbundenen technischen Sensoren in Häusern und Wohnungen, die der Überwachung und Optimierung von Energie- und Wasserverbrauch dienen. Immer mehr Kameras werden im öffentlichen Raum installiert, um Gesetzesübertreter abzuschrecken und mittels Gesichtserkennung identifizieren zu können.
Zu diesen von Nutzern generierten Daten kommen weitere hinzu – Stichwort Internet of Things. Sensoren in den Fabriken überwachen und steuern die Produktion, sie erfassen beispielsweise Drehzahl, Temperatur, Vibration oder Klangmuster, um drohenden Verschleiß rechtzeitig zu erkennen. Sensoren im öffentlichen Bereich weisen freie Parkplätze aus und helfen den Verkehr zu verflüssigen. Schätzungen zufolge sollen im Jahr 2030 weltweit 100 Billionen Sensoren im Einsatz sein. Schon jetzt sind es pro Person 140. Das Zusammenwachsen von vier großen Trends – künstliche Intelligenz, Big Data, die Verbreitung von Sensoren und Mobilität – schaffen eine sich selbst beschreibende Welt, so Philip Evans (
2018, S. 144) von der Boston Consulting Group.
Wer nutzt all diese Daten und worin genau besteht der Nutzen? Das zeigt beispielsweise der Unterschied zwischen Amazon und einem traditionellen Einzelhändler. Letzterer fragt einen Kunden direkt nach seinen Wünschen, wenn der seinen Laden betritt. Stimmen die geäußerten Kundenpräferenzen mit dem Produktangebot des Händlers überein und stimmt der Preis, kommt es zum Kauf. Amazon dagegen erfasst die Präferenzen der Besucher auf seiner Internetseite nicht durch direkte Fragen, sondern es analysiert die Spuren, die ein Besucher jedes Mal auf der Website hinterlässt, wenn er sie aufsucht: für welche Produkte er sich interessiert, wann und wie lange er sie ansieht, welche Kundenbewertungen er liest und was er schließlich kauft. Beim traditionellen Handel ist der Kontakt zum Kunden immer nur punktuell und meist auf verschiedene Verkäufer verteilt und wird nicht oder nur selten systematisch ausgewertet. Amazon dagegen kann aufgrund des gespeicherten kontinuierlichen Datenstroms ein immer klareres Muster der jeweiligen persönlichen Präferenzen und Bedürfnisse seiner Kunden erkennen. Und da Amazon mit seinem riesigen Warenangebot das Kaufhaus-Prinzip ‚Alles unter einem Dach‘ befolgt, lässt sich aus dem Kundenverhalten ein immer umfassenderes, differenzierteres Persönlichkeitsprofil zusammenfügen.
Wer über die Daten verfügt, hat einen Informationsvorsprung und damit einen Wettbewerbsvorteil. Das gilt für Amazon, Zalando,
Booking.com, Netflix, Spotify, Apple, Airbnb, die Produkte oder Dienstleistungen verkaufen. Das gilt aber ebenso für Suchmaschinen wie Google oder Yahoo und für Soziale Netzwerke wie Facebook oder WhatsApp, die mit diesen persönlichen Datenprofilen personalisierte Werbeplätze verkaufen (wie nun auch Amazon) und damit die Verlage ihrer wichtigen traditionellen Erlösquelle berauben. Aus Sicht dieser Unternehmen sind Daten eine strategische Ressource für ihre Unternehmenspolitik in Vertrieb und Marketing und bei der Generierung von Werbeerlösen. So urteilt der britische Economist: Die wertvollste Ressource der Welt ist nicht länger Öl, sondern sind Daten (Economist
2017). Das disruptive Potenzial zeigt sich nicht nur in der Verlagsbranche, wo der Zuwachs an digitaler Werbung fast ausschließlich von Google und Facebook vereinnahmt wird, sondern auch im Einzelhandel. In den USA entfällt die Hälfte des Online-Umsatzes inzwischen allein auf Amazon. Während der stationäre Handel stagniert oder schrumpft, boomt der E-Commerce (Saal
2017).
Insofern überrascht es nicht, dass E-Commerce, Suchmaschinen und Soziale Medien Schrittmacher in der kommerziellen Verwertung von Daten sind. Die Kunden- und Nutzerdaten sind die Basis für Marktforschung und Business-Planung, für zielgerichtetes personalisiertes Marketing, für Upselling und Crossselling, für eine effiziente Einkaufspolitik, Senkung der Logistikkosten, Preisoptimierung und individuellen Kundenservice (Customer Relationship Management). Die Daten nutzen die Unternehmen entweder selbst oder sie verkaufen sie an andere Unternehmen. Sie senken dadurch ihre Kosten, expandieren Nachfrage und Marktanteil und reduzieren Risiken. Inzwischen ist Big Data auch für weitere Branchen zum Thema geworden, egal ob sie im B2C- oder im B2B-Bereich tätig sind. Chatbots im Kundenservice entlasten branchenübergreifend das Personal. Neben Marketing, Vertrieb und Logistik helfen Big-Data-Technologien bei der Optimierung von Abläufen, bei der Steuerung und Überwachung der Fertigung bis hin zur Personalrekrutierung.
Die eigentliche Komplexität der öffentlichen Diskussion über Big Data resultiert aber weniger aus der Vielfalt der Anwendungsmöglichkeiten. Vielmehr ergibt diese sich aus der Tatsache, dass es sich um sogenannte Dual-Use-Technologien (Bunk und Goldschmidt
2016) handelt, die zugleich zweckbestimmt und zweckentfremdet eingesetzt werden können. Selbst wenn Konsumenten z. B. durch bessere Produktauswahl und niedrigere Preise profitieren, eröffnet Big Data zugleich die Möglichkeiten jedweder Überwachung. Autonomes Fahren macht derzeit hauptsächlich dann Schlagzeilen, wenn ein Wagen dieser Generation in einen Unfall verwickelt ist. Es ermöglicht aber auf der anderen Seite positive Auswirkungen auf Verkehrssicherheit, Fahrkultur und Energieverbrauch. Dass Überwachungstechnologien, insbesondere wenn sie auf der Erfassung biometrischer Daten beruhen, die informationelle Selbstbestimmung gefährden können, gehört inzwischen zum Allgemeinwissen. Dass sie aber zugleich mehr Sicherheit ermöglichen, nicht nur gegenüber äußeren Feinden (z. B. durch Luftraumüberwachung und Bodenbeobachtung), sondern auch gegenüber Terroristen und Verbrecher im Inneren, ist wiederum die andere Seite der Medaille.
Der Einsatz von Smart-Grid-Technologien beim Stromverbrauch hilft nicht nur den Versorgungsunternehmen bei der Vorhersage des Strombedarfs und trägt damit zur Einhaltung ihrer Gewinnziele bei. Sie hilft zugleich den Konsumenten, den Stromverbrauch der einzelnen Geräte zu diagnostizieren, Stromfresser zu identifizieren und mehr Preissensibilität zu entwickeln – mit entsprechend positiven Folgen für Energieverbrauch, Umwelt und Klima. Der Einsatz von Big Data in der Medizin beschwört nicht nur die Gefahr des ‚gläsernen Patienten‘ herauf, sondern macht auch genauere Diagnosen und Erfolg versprechende Operationen möglich und lässt Durchbrüche in der medizinischen Forschung und der Gesundheitsversorgung erwarten. Sensoren und Überwachungskameras auf den Straßen erheben nicht nur ein individuelles Bewegungsprofil, sie verbessern auch Verkehrsplanung und sorgen für weniger Staus.
Als Dual-Use-Technologie kann Big Data sowohl zum Schlechten wie zum Guten des Menschen, für gesellschaftlich akzeptierte und nicht akzeptierte Zwecke, für individuelle Profitinteressen genauso wie für das Gemeinwohl eingesetzt werden. Nur in wenigen Bereichen wie etwa bei der Wetterprognose ist der flächendeckende Einsatz von Big Data als nicht ambivalent einzuschätzen. Die Ambivalenz bzw. Janusköpfigkeit von Big Data in seinen Anwendungsmöglichkeiten spiegelt sich im diffusen öffentlichen Meinungsbild wider.
1.1.4 Diffuses Bild: Was bislang über die öffentliche Einschätzung von Datennutzung erhoben wurde
Zum ersten Mal systematisch erfragte das Institut für Demoskopie Allensbach (
2013) die Meinung der Deutschen zu Big Data im Jahr 2013 als Schwerpunkt für den alljährlich von ihm erstellten Sicherheitsreport. Die Demoskopen konstatierten darin eine „grundsätzlich ablehnende Haltung“ (Institut für Demoskopie Allensbach
2013, S. 15) der Bevölkerung gegenüber dem umfangreichen Sammeln und Auswerten von persönlichen Daten. 72 % machten sich große oder etwas Sorgen, dass Unternehmen persönliche Daten missbrauchen, 63 %, dass der Staat die Bürger zu sehr überwacht. Selbst bei Mitgliedern von sozialen Netzwerken, die einen tendenziell freizügigeren Umgang mit ihren persönlichen Daten an den Tag legen, fanden 58 % das umfangreiche Sammeln und Auswerten von Kundendaten durch Unternehmen nicht in Ordnung. Und 78 % (Mitglieder von sozialen Netzwerken: 74 %) forderten strengere Vorgaben für Unternehmen, die persönliche Daten ihrer Nutzer sammeln und auswerten.
Etwas differenzierter wurde die Einstellung allerdings, wenn nach konkreten Anwendungen von Big Data gefragt wurde. Mit deren Hilfe Straftaten aufzuklären oder den Bedarf an Kindergärten besser planen zu können, fand große Zustimmung. Überwiegend auf Ablehnung stießen aber die meisten anderen Big-Data-Anwendungen wie Erleichterung von Einkäufen im Internet, Prüfung der Kreditwürdigkeit durch Banken, Hinweise auf Beiträge im Internet oder auf Produkte von Unternehmen. Diese Umfrage war insbesondere deswegen aufschlussreich, weil sie in zwei Etappen erfolgte: Der erste Teil fand statt, als noch wenig von den Snowden-Enthüllungen über das Abhörprogramm des US-Geheimdienstes NSA bekannt war, der zweite Teil, als es ein breites Medienecho gefunden hatte. Obwohl der NSA-Skandal nur staatlichen Missbrauch zum Gegenstand hatte, ging die Akzeptanz bei allen Anwendungen – staatlichen und unternehmerischen – deutlich zurück, am geringsten aber bei der Aufklärung von Straftaten.
Die jüngeren Umfragen zu diesem Thema ergeben ein ähnlich diffuses, oft sogar widersprüchliches Bild, schwankend zwischen Bejahung und Ablehnung dieser Technologie und stark abhängig von ihrer konkreten Anwendung. Auch dürfte die jeweils für die Technologie verwendete Terminologie eine Rolle spielen. Anders als die Allensbach-Umfrage von 2013 fanden die größeren quantitativen Erhebungen des Jahres 2018 nicht anhand des Begriffs Big Data statt. Sie behandeln das Thema unter dem positiver konnotierten Begriff ‚Künstliche Intelligenz‘ oder dem eher technokratisch anmutenden Begriff ‚Algorithmus‘.
Ein durchweg positives Stimmungsbild zum Einsatz Künstlicher Intelligenz verkündet der Digitalverband Bitcom (
2018a), dessen Institut Bitcom-Research im Februar 2018 eine repräsentative Meinungsumfrage unter Deutschen über 14 Jahren durchführte. Danach sehen 55 % diese Technologie mehr als Chance, nur 41 % gewichten die Gefahren höher. Ihr Einsatz erzielt hohe Zustimmungsraten in folgenden Bereichen: Prognose von Umweltphänomenen (93 %), Bekämpfung von Finanzkriminalität (92 %), Vermeidung von Staus (86 %), Früherkennung von Krankheiten (81 %), Prognose von Straftaten (61 %), selbstfahrende Fahrzeuge (58 %) (Bitkom
2018; Neuerer
2018). Dieses Ergebnis der Umfrage, die nicht komplett veröffentlicht wurde, verwundert nicht, denn alle Fragestellungen unterstellten einen konkreten, positiven Nutzen, aber keinen Missbrauch.
Zu erheblich skeptischeren Ergebnissen kommt eine ebenfalls repräsentative Umfrage der GfK für den Bundesverband deutscher Banken vom Juni 2018, obwohl sie gleichfalls den Terminus Künstliche Intelligenz verwendet (GfK
2018). Danach kennen 75 % der Deutschen diesen Begriff, aber jeder Vierte hat davon noch nie gehört. Im Gegensatz zu den Ergebnissen der Bitkom-Umfrage verbindet ein Großteil der Deutschen damit eher Befürchtungen (63 %), lediglich 37 % sehen Chancen. Auch können nur 36 % sich vorstellen, die Künstliche-Intelligenz-Anwendung eines selbstfahrenden Autos zu nutzen – rund 20 Prozentpunkte weniger als bei der entsprechenden Bitkom-Umfrage. Das Fazit dieser Umfrage: Generell ist das Misstrauen in digitalgesteuerte Prozesse weiterhin groß.
Das bestätigt auch eine neue Umfrage des Instituts für Demoskopie Allensbach im Auftrag der Bertelsmann-Stiftung (Fischer und Petersen
2018). Sie verwendet dabei nicht den Begriff ‚Künstliche Intelligenz‘, sondern fragt nach dem Einsatz von Algorithmen, um bei den Befragten nicht den falschen Eindruck zu erwecken, es handele sich um Software, die genauso intelligent wie der Mensch ist. Danach haben 72 % den Begriff Algorithmus schon einmal gehört, aber 45 % der Befragten fiel spontan nichts dazu ein. Nur zehn Prozent der Befragten gaben an zu wissen, wie Algorithmen funktionieren. Das Wissen darüber, dass Computerprogramme Entscheidungen treffen oder Empfehlungen abgeben, ist für einzelne Anwendungsbereiche sehr unterschiedlich. Die höchste Nennung erzielte mit 55 % der Einsatz individualisierter Werbung im Internet. Dass Algorithmen bei der Diagnose von Krankheiten oder bei der Beurteilung des Risikos, ob ein Straftäter rückfällig wird, eingesetzt werden können, ist nur 28 % beziehungsweise 18 % geläufig. 79 % der Befragten fühlen sich unwohl bei dem Gedanken, dass Computer über sie entscheiden könnten. Insgesamt verbinden nur 18 % mehr Chancen mit dieser Technologie, 36 % dagegen mehr Risiken, fast die Hälfte der Deutschen (46 %) sind in dieser Frage unentschieden.
Ein wiederum ähnliches Stimmungsbild zeichnet die YouGov-Umfrage vom August 2018 (YouGov
2018). Knapp jeder Zweite (45 %) nimmt zwar ein ausgeglichenes Nutzen-Risiko-Verhältnis wahr, ein Viertel (26 %) bewertet das Risiko allerdings als höher, nur 15 % hingegen sehen den Nutzen höher. Das Ergebnis weicht nur geringfügig von der eben erwähnten Bertelsmann-Umfrage (Fischer und Petersen
2018) ab. Erneut zeigt sich ein etwas differenzierteres Ergebnis, wenn nach konkreten Anwendungen gefragt wird, allerdings auch hier mit insgesamt hohen Ablehnungsquoten.
Trotz einiger Unterschiede in der Anlage der Umfragen und ihren Ergebnissen zeigt sich – wenig überraschend – keine klare Meinungsbildung gegenüber dem Einsatz von Big Data, Künstlicher Intelligenz und Algorithmen. Die Umfragen lassen bei einer klaren Mehrheit der Befragten ein deutliches Unbehagen gegenüber Big Data und Künstlicher Intelligenz erkennen, eine verschwommene Angst vor Kontrollverlust, eine zumindest abwartende, zum Teil aber auch geradezu fatalistische Grundhaltung.
1 Im Vergleich zu den Risiken werden die Chancen zur Verbesserung des Lebens durch den Einsatz von Künstlicher Intelligenz und Big Data, also etwa in Medizin, Mobilität, Energie und Umwelt, offensichtlich weniger stark gewichtet. Die Nutzung von Big Data wird stattdessen vor allem mit der Optimierung von Marketing und Werbung durch die großen Internetkonzerne verbunden. Mögliche Trade-offs in puncto Datenschutz werden nur in Bezug auf wenige Anwendungsfelder toleriert, in denen der erwartete Nutzen relativ höher eingeschätzt wird als die damit einhergehenden Risiken, wie das beispielsweise die Erhebungen für den Einsatz von Big Data in der Medizin nahelegen.
Vor dem Hintergrund dieser diffusen Stimmungslage, eines jetzt schon unübersichtlichen Themenfeldes sowie einer sich äußerst dynamisch weiter entwickelnden Technologie lässt sich annehmen, dass der Meinungsbildungsprozess ganz wesentlich davon abhängt, welche Narrative den öffentlichen Diskurs beherrschen. Sie sind so gesehen ein unverzichtbares Mittel, um eine komplexe, letztlich nicht oder nur begrenzt überschaubare Problemstellung überhaupt mit einem relevanten Grad an Öffentlichkeit aushandeln zu können. An den sichtbar dominierenden Narrativen lässt sich infolgedessen ablesen, in welchem Stadium sich dieser Aushandlungsprozess befindet und in welche Richtung er weiterlaufen kann, in welche aber auch nicht.