Skip to main content
Erschienen in: HMD Praxis der Wirtschaftsinformatik 6/2021

Open Access 18.02.2021 | Spektrum

Paradoxes Datenschutzverhalten

Diskrepanz zwischen Datenschutzbedenken und nachlässigem Umgang mit digitalen Dienstleistungen

verfasst von: Wassili Lasarov, Stefan Hoffmann

Erschienen in: HMD Praxis der Wirtschaftsinformatik | Ausgabe 6/2021

Aktivieren Sie unsere intelligente Suche um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Einhergehend mit der Digitalisierung vieler Lebensbereiche werden große Mengen persönlicher Daten von Konsument*innen durch Unternehmen und Institutionen erfasst und analysiert. Daher ist der verantwortungsvolle Umgang mit diesen Daten eines der drängendsten Themen der Gegenwart. Zwar gibt es zahlreiche gesetzliche Verordnungen (z. B. GDPR) sowie eine zunehmende Anzahl von Unternehmen, die sich freiwillig dem Datenschutz verpflichten, allerdings nutzen auch viele Unternehmen und Institutionen die Unachtsamkeit von Konsument*innen aus. Dies wird dadurch begünstigt, dass viele Konsument*innen zwar angeben, dass sie auf ihre Privatsphäre achten, aber nur wenige die dafür notwendigen Maßnahmen ergreifen. Diese Einstellungs-Verhaltens-Diskrepanz (Privatsphäre-Paradoxon) lässt sich einerseits durch ein rationales Kosten-Nutzen-Kalkül erklären, in dem Konsument*innen den Nutzen bestimmter Produkte (z. B. durch Personalisierung) mit der Preisgabe ihrer Daten verrechnen. Andererseits können situative Einflüsse (z. B. wenig Zeit) oder kognitive Verzerrungen (z. B. Kontrollillusion) Datenschutzbedenken in diesen Situationen verringern. Vor diesem Hintergrund führen wir in das Privatsphäre-Paradoxon ein und zeigen den Stand des Schrifttums auf, wobei wir auf situative und kognitiven Verzerrungen fokussieren. Abschließend wird das Konzept der drei Privatsphäre-Gaps eingeführt und ein Rahmen für zukünftige Forschung entwickelt.

1 Einleitung

Im Zuge der Digitalisierung vieler Lebensbereiche haben sich die Konsumgewohnheiten sowie die Vermarktung von Produkten grundlegend verändert (Kannan 2017; Kumar 2018; Rust 2020). Diese Entwicklungen wurden besonders durch den Einsatz von personalisierten Such- und Entscheidungshilfen sowie personalisierten Produkten und Dienstleistungen (z. B. personalisierte Playlists auf Spotify) vorangetrieben. Mit einer effektiven Personalisierung geht allerdings auch einher, dass große Mengen persönlicher Daten von Verbraucher*innen durch Unternehmen und Institutionen erfasst und automatisch analysiert werden (z. B. Bewegungsdaten, Satariano 2019; Gesichtserkennungssoftware, Feng 2019). Angesichts der automatisierten Verarbeitung dieser unüberschaubaren Datenmengen ist der verantwortungsvolle Umgang mit sensiblen Daten durch Unternehmen und öffentliche Institutionen eines der drängendsten Themen der Gegenwart (Acquisti et al. 2015). In diesem Sinne wurden in den vergangenen Jahren gesetzliche Verordnungen erlassen, die den Umgang von Organisationen mit persönlichen Daten regeln (z. B. Datenschutz-Grundverordnung der Europäischen Union, GDPR). Manche Unternehmen setzen sich freiwillig für den Schutz der Privatsphäre ihrer Mitarbeiter*innen und Kund*innen in einem Maß ein, das über die gesetzlichen Bestimmungen und Regulierungen hinausgeht (BMJV 2020; Lobschat et al. 2020). Damit einhergehend sehen viele Konsument*innen Politik und Wirtschaft in der Verantwortung – und weniger sich selbst (PWC 2020). Dieses verbraucherseitige Abgeben von Verantwortung führt in vielen Situationen zu einem unachtsamen Umgang der Verbraucher*innen mit ihren Daten, was wiederum von einigen Unternehmen ausgenutzt wird (z. B. durch „Dark Patterns“, Gray et al. 2018). Dies wird an dem folgenden Beispiel deutlich: Internetauftritte von Firmen haben oftmals sehr ausführliche Allgemeine Geschäftsbedingungen (AGB), die selten von den Besucher*innen einer Webseite vollständig gelesen und verstanden werden, was oft zu einer „blinden“ Einwilligung verführt (Acquisti et al. 2020; SVRV 2017). Zwar gibt es Bestrebungen, die Länge und Komplexität der angezeigten AGB zum Schutze der Verbraucher*innen zu reduzieren (wie bspw. vom Sachverständigenrat für Verbraucherfragen vorgeschlagen, SVRV 2016), allerdings existieren bisher keine bindenden gesetzlichen Regelungen hierfür. Ebenso gibt es Diskussionen darüber, wie stark die Default-Einstellungen bei Cookies auf den Schutz der Privatsphäre ausgerichtet sein sollten (Acquisti et al. 2017, 2020). Konsument*innen haben wiederum selten die notwendigen Kapazitäten (z. B. Zeit, Wissen, technische Kapazitäten), um das „geeignete“ Verhalten in datenschutzrelevanten Situationen zu bestimmen. Erschwerend kommt hinzu, dass die individuellen Grenzkosten für zusätzlichen Datenschutz für Konsument*innen rapide ansteigen, u. a. durch sog. Lock-in Effekte. So liegt der Nutzen von sozialen Netzwerken gerade im hohen Engagement einer wachsenden Anzahl an Nutzer*innen, die wiederum den Einfluss dieser Netzwerke stärkt und eine Nichtnutzung der Netzwerke für einzelne Nutzer*innen erschwert. Diese sog. „Privacy Externality“ kann zudem dazu führen, dass das gesellschaftliche Bedürfnis nach mehr Datenschutz verschwindet und Konsument*innen, die ein verstärktes Interesse an der Sicherung ihrer Daten haben, immer mehr Zeit und Geld dafür aufbringen müssen (Acquisti et al. 2016).
Aufgrund dieser Entwicklungen sollten sich Konsument*innen ihr Recht auf informelle Selbstbestimmung und ihre Verantwortung für die Verwendung ihrer Daten bewusstmachen (Trabandt und Lasarov 2020). Tatsächlich existieren in Deutschland einige Initiativen, die Konsument*innen in solchen Vorhaben unterstützen, u. a. indem sie zahlreiche Informationsangebote bereitstellen (z. B. Selbstdatenschutz.info 2020; datenschutz.rlp.de 2020; bfdi.bund.de 2020). Zudem geben Konsument*innen oft an, dass sie insgesamt auf ihre Privatsphäre achten und möglichst oft kontrollieren, welche persönlichen Daten sie preisgeben. Allerdings legen Beobachtungen aus Forschung und Praxis nahe, dass das Wissen über datenschutzrelevante Themen (z. B. Instrumente zum Schutz persönlicher Daten, Wissen über die Konsequenzen bei Missbrauch) und eine allgemein positive Einstellung zum Datenschutz in vielen konkreten Situationen dennoch wirkungslos sind und von den Konsument*innen nicht in konkretes Verhalten umgesetzt werden (Acquisti et al. 2015, 2020; Martin und Murphy 2017). So gehen selbst jene Konsument*innen in manchen Situationen nachlässig mit dem Schutz ihrer persönlichen Daten um, die im Allgemeinen besorgt um ihre Datensicherheit sind (Acquisti et al. 2015).
Vor diesem Hintergrund führt der vorliegende Beitrag zunächst in das Privatsphäre-Paradoxon ein und zeigt anschließend den Stand des Schrifttums auf, wobei insbesondere auf situative und kognitive Verzerrungen fokussiert wird, welche zur Erklärung der Diskrepanz zwischen den persönlichen Datenschutzbedenken und dem tatsächlichen, oft sorglosen Verhalten bei digitalen Dienstleistungen beitragen können. Abschließend wird mit dem Konzept der drei Privatsphären-Gaps ein Rahmen für die zukünftige Forschung entwickelt.

2 Das „Privatsphäre-Paradoxon“

Zahlreiche Studien zum Datenschutzverhalten drehen sich um die oben beschriebene Beobachtung, dass sich Konsument*innen oftmals besorgt um ihre Datensicherheit zeigen, diese Sorge sich allerdings in vielen Situationen nicht in konkretem Handeln ausdrückt. Diese Beobachtung ist in der Literatur auch als sog. Privatsphäre-Paradoxon (engl. „Privacy Paradox“) bekannt und beschreibt die Diskrepanz zwischen allgemeinen (positiven) Einstellungen von Konsument*innen zum Datenschutz und ihrem tatsächlichen (nachlässigen) Verhalten (Aguirre et al. 2015; Norberg et al. 2007). Diese Einstellungs-Verhaltens-Diskrepanz lässt sich einerseits durch ein rationales Kosten-Nutzen-Kalkül erklären, in dem Konsument*innen den Nutzen bestimmter Produkte und Dienstleistungen (z. B. durch Personalisierung) mit der Preisgabe ihrer Daten gegenrechnen. Eine rationale Erklärung hierfür liefert die Theorie der rationalen Entscheidung (Behavioral Decision Theory, Kahneman 2003), nach der Konsument*innen ihre Entscheidungen in komplexen, unsicheren und risikobehafteten Situationen auf ein rationales Kosten-Nutzen-Kalkül stützen, also in unserem Fall den Nutzen eines Produkts, der mit der Personalisierung einhergeht, gegen die damit verbundenen Kosten bei der Preisgabe persönlicher Daten abwägen (Aguirre et al. 2015; Dinev und Hart 2004; Mothersbaugh et al. 2012). Andererseits können situative Einflüsse oder kognitive Verzerrungen individuelle Datenschutzbedenken in bestimmten Situationen verringern. Zu diesen psychologischen Verzerrungen zählen bspw. Gewöhnungseffekte (Adjerid et al. 2018; Melumad und Meyer 2020), der Einfluss der sozialen Umwelt (Acquisti et al. 2012; Carbone und Loewenstein 2020; Chellappa und Sin 2005; Schumann et al. 2014; White 2004) oder die Illusion der vollständigen Kontrolle über die Preisgabe der eigenen Daten (Acquisti et al. 2013; Bleier und Eisenbeiss 2015a, b; Martin et al. 2016; Mothersbaugh et al. 2012; Tucker 2014; Xu et al. 2012).
Aus angrenzenden Forschungsgebieten (z. B. nachhaltigem Konsumentenverhalten, White et al. 2019) ist die Lücke zwischen selbst berichteten allgemeinen Einstellungen und dem Verhalten in konkreten Situationen bekannt (Webb and Sheeran 2006). Allerdings vermittelt der Terminus „Paradoxon“ für diese Einstellungs-Verhaltens-Lücke einen missverständlichen Eindruck, da hinsichtlich digitaler Dienstleistungen durchaus der Fall eintreten kann, dass aus Sicht der Konsument*innen der aus der Datenabgabe gewonnene Nutzen die damit verbundenen Kosten übersteigt und ein scheinbar nachlässiges Verhalten nicht paradox, sondern rational ist. Selbst strikte Einstellungen zum Datenschutz stehen nicht im Widerspruch zu einem freizügigen Umgang mit Daten in bestimmten Situationen, wenn andere Bedürfnisse ungleich wichtiger sind (z. B. in medizinischen Notfällen). Daher wird besonders in jüngster Zeit zunehmend in Frage gestellt, ob das Paradoxon in dieser Form auf der individuellen Ebene überhaupt existiert (Norberg et al. 2007; Solove 2011; Solove und Schwartz 2020). Angesichts möglicher langfristiger negativer Effekte und der immensen Bedeutung für Gesellschaft und Wirtschaft, sollte die Debatte über das Privatsphäre-Paradoxon nichtsdestotrotz fortgesetzt werden (Martin 2020). Zudem lassen sich zahlreiche paradoxe Verhaltensweisen nicht einfach auf rationale Kosten-Nutzen-Abwägungen zurückführen, weil es vorkommt, dass Konsument*innen unverhältnismäßig viele persönliche Daten preisgeben, ohne eine nennenswerte Gegenleistung oder einen subjektiven Nutzen zu erwarten. Mehrere psychologische Modelle helfen, dieses paradoxe Verhalten zu erklären. Die zentralen Faktoren sollen im Folgenden anhand der vorliegenden Literatur diskutiert werden.

3 Überblick über die Literatur

Zahlreiche Studien aus den Gebieten Psychologie, Verhaltensökonomie sowie Konsumentenverhaltensforschung beschäftigten sich in den vergangenen Jahren mit den psychologischen Einflussfaktoren auf datenschutzrelevantes Verhalten von Konsument*innen. Diese Faktoren erweitern das rationale Kosten-Nutzen Kalkül um situative und kontextuale Einflüsse bis hin zu emotionalen und irrationalen Entscheidungen (Acquisti et al. 2020). Tab. 1 fasst die einschlägigen konzeptionellen und empirischen Studien der vergangenen Jahre zusammen. Die Tabelle umfasst eine Kurzbeschreibung der jeweiligen psychologischen Einflussfaktoren und der datenschutzrelevanten Verhaltenskonsequenzen auf und verweist auf die einschlägige Literatur dazu.
Tab. 1
Tabellarischer Literaturüberblick
Thema
Kurzbeschreibung
Literatur
Verhaltenskonsequenzen
Sicherung der Privatsphäre
Bereitschaft von Konsument*innen, ihre persönlichen Daten in bestimmten Situationen preiszugeben
Acquisti et al. 2012; Adjerid et al. 2018; Brandimarte et al. 2012, 2013; Carbone and Loewenstein 2020; Goldfarb und Tucker 2012; John et al. 2011; Mothersbaugh et al. 2012; Wirtz und Lwin 2009
Konsum digitaler
Produkte oder
Dienstleistungen
Dem Kauf vorgelagertes Interesse an weiteren Informationen oder einem möglichen Erwerb eines Produktes oder einer Dienstleistung
Aguirre et al. 2015; Bleier und Eisenbeiss 2015a; Schumann et al. 2014; Tucker 2014
Erwerb eines digitalen Produktes oder einer Dienstleistung
Goldfarb und Tucker 2011a, b; Tsai et al. 2011; Miyazaki 2008
Positive oder negative Empfehlungen eines Produktes oder einer Dienstleistung oder des anbietenden Unternehmens von Konsument*innen an andere Konsument*innen
Miyazaki 2008
Kosten-Nutzen-Kalkül
Persönlicher Nutzen
Der wahrgenommene Nutzen eines Produktes oder einer Dienstleistung beeinflusst datenschutzrelevantes Verhalten von Konsument*innen
Aguirre et al. 2015; Awad und Krishnan 2006; Bleier und Eisenbeiss 2015a; Gabisch und Milne 2014; Goldfarb und Tucker 2011a, b; Lasarov 2020; Mothersbaugh et al. 2012; Norberg und Horne 2007; Tucker 2014; White et al. 2008
Datenschutzbedenken
Allgemeine und situative Bedenken von Konsument*innen gegen den Umgang mit ihren personenbezogenen Daten beeinflussen datenschutzrelevantes Verhalten von Konsument*innen
Aguirre et al. 2015; Acquisti et al. 2015; Goldfarb und Tucker 2012; Malhotra et al. 2004; Martin 2015; Sheehan und Hoy 2000; Smith et al. 1996; Xu et al. 2012
Situative und kognitive Verzerrungen
Informationsasymmetrien
Wissensnachteile von Konsument*innen gegenüber Unternehmen und Institutionen, z. B. wie und von wem ihre Daten gesammelt und verarbeitet werden
Martin und Nissenbaum 2016; Habib et al. 2018; Acquisti et al. 2013; Mothersbaugh et al. 2012; Hoofnagle und Urban 2014; Martin 2015; Vail et al. 2008
Vertrauen und Transparenz
Vertrauen von Konsument*innen in Organisationen; ist besonders beeinflusst durch Glaubwürdigkeit und Transparenz von Organisationen
Gabisch und Milne 2014; Martin und Murphy 2017; Lasarov 2020; Lockamy und Mothersbaugh 2020; Malhotra und Malhotra 2011; Martin et al. 2016; Norberg und Horne 2014; PWC 2020; Romanosky et al. 2014; White 2004; Wirtz und Lwin 2009
Kontrollillusion
Die wahrgenommene Kontrolle über die eigenen Daten kann dazu führen, dass diese durch Konsument*innen leichtfertiger geteilt werden
Acquisti et al. 2013; Barassi 2019; Bleier und Eisenbeiss 2015a, 2015b; Brandimarte et al. 2012, 2013; Draper und Turow 2019; Martin et al. 2016; Mothersbaugh et al. 2012; Schouten et al. 2008; Tsai et al. 2011; Tucker 2014; Xu et al. 2012
Soziale Umwelt
Die soziale Umwelt kann einerseits als Referenz für das „richtige“ Verhalten dienen, andererseits durch Erwartungen Entscheidungen von Konsument*innen beeinflussen
Acquisti et al. 2012; Carbone und Loewenstein 2020; Chellappa und Sin 2005; Schumann et al. 2014; White 2004
Habituation
Der Umgang von Konsument*innen mit ihren persönlichen Daten hängt davon ab, wie sehr sie sich an bestimmte Gegebenheiten und Situationen gewöhnen
Adjerid et al. 2018; Melumad und Meyer 2020
Wahrgenommene Vulnerabilität
Das von Konsument*innen wahrgenommene potenzielle Risiko, das mit der Offenlegung persönlicher Daten einhergeht
Aguirre et al. 2015; Awad und Krishnan 2006; Dinev und Hart 2004; Petronio 2002; Martin und Murphy 2017; Raab und Bennet 1998
Im weiteren Verlauf gehen wir zunächst auf Studien zu den verhaltensrelevanten Konsequenzen ein. Bisherige Studien befassten sich im Wesentlichen mit zwei Verhaltenskonsequenzen. Zum einen wurde untersucht, inwiefern datenschutzrelevante Faktoren die Konsumbereitschaft für ein bestimmtes Produkt beeinflussen. Zum anderen wurde erforscht, in welchem Ausmaß (wie viel, an wen, etc.) Konsument*innen ihre persönlichen Daten preisgeben. Mit Blick auf die Einflussfaktoren betrachten wir den persönlichen Nutzen, der durch die Nutzung digitaler Dienstleistungen entstehen würde, sowie die Datenschutzbedenken und die angestrebte Privatsphäre der Nutzer*innen. Diese fließen in das Kosten-Nutzen-Kalkül der Konsument*innen ein. Das Kernstück des Literaturüberblicks betrifft Erkenntnisse zu situativen und kognitiven Verzerrungen bei der Abwägung des Nutzens und der Datenschutzbedenken.

3.1 Verhaltenskonsequenzen

Sicherung der Privatsphäre. Zunächst unterscheiden sich Konsument*innen hinsichtlich ihrer Bereitschaft, persönliche Daten in bestimmten Situationen preiszugeben. Die Menge der bereitgestellten persönlichen Daten kann wiederum die Nutzungsqualität digitaler Produkte und Dienstleistungen beträchtlich beeinflussen, z. B. in sozialen Netzwerken. Ein typisches Anwendungsbeispiel ist auch die Nutzung von Smart Home Objekten, deren sinnvoller Einsatz nur durch die Verarbeitung persönlicher Daten möglich ist (z. B. passives Mithören intelligenter Lautsprecher eines sprachgesteuerten, internetbasierten Assistenten) (Adjerid et al. 2018; Carbone und Loewenstein 2020; Acquisti et al. 2012; Brandimarte et al. 2012, 2013; Goldfarb und Tucker 2012; John et al. 2011; Mothersbaugh et al. 2012; Wirtz und Lwin 2009).
Nutzung digitaler Produkte oder Dienstleistungen. Mit Blick auf die Nutzung digitaler Dienstleistungen wird in der Literatur oftmals die gesamte Customer Journey, d. h. auch Prozesse der Informationsbeschaffung, des Kaufs von Produkten und Dienstleistungen, sowie deren Weiterempfehlung betrachtet. So eruierten Untersuchungen zur Akzeptanz personalisierter Angebote u. a. das dem Kauf vorgelagerte Interesse an weiteren Informationen oder den möglichen Erwerb des Produktes (Aguirre et al. 2015; Bleier and Eisenbeiss 2015a; Schumann et al. 2014; Tucker 2014). Häufig untersuchte Verhaltenskonsequenzen in diesem Kontext sind Click Through Rates (Aguirre et al. 2015; Bleier and Eisenbeiss 2015a; Tucker 2014), der Kauf des Produktes (Goldfarb und Tucker 2011a, b; Miyazaki 2008; Tsai et al. 2011) sowie die Weiterempfehlungsbereitschaft der Konsument*innen bzw. deren Bereitschaft, ihre negative Meinung über das Produktmit anderen zu teilen (word-of-mouth). Miyazaki (2008) zeigt beispielsweise, dass der verdeckte Einsatz von Technologien zur Sammlung von Daten (z. B. Cookies) zu negativer Mundpropaganda führen kann.

3.2 Kosten-Nutzen-Kalkül

Persönlicher Nutzen durch Nutzung digitaler Produkte oder Dienstleistungen. Konsument*innen wägen in datensensiblen Situationen oft den Nutzen ab, den sie mit der Preisgabe ihrer persönlichen Daten „bezahlen“. Studien bestätigen dementsprechend, dass Menschen anders mit dem Schutz ihrer persönlichen Daten umgehen, wenn sie ein bestimmtes Produkt als nützlich erachten (Aguirre et al. 2015; Awad und Krishnan 2006; Bleier und Eisenbeiss 2015a; Gabisch und Milne 2014; Goldfarb und Tucker 2011a, b; Lasarov 2020; Mothersbaugh et al. 2012; Tucker 2014; White et al. 2008). White et al. (2008) zeigen bspw., dass ein hoher Nutzen eines Produktes zu geringeren Sorgen bei der damit verbundenen Offenlegung der Privatsphäre führt. Dieser Nutzen kann einerseits monetär sein: Gabisch and Milne (2014) zeigen, dass Nutzer*innen eher zur Offenlegung ihrer Daten bereit sind, wenn damit finanzielle Anreize verbunden sind. Andererseits kann der Nutzen auch andere persönliche Interessen betreffen, bspw. gesundheitliche Interessen bei der Nutzung der Corona Warn-App (Dehmel et al. 2020; Lasarov 2020). Darüber hinaus kann eine erhöhte Personalisierung und das individualisierte Maßschneidern von Produkten und Dienstleistungen als sehr nützlich erachtet werden. Gabisch und Milne (2014) untersuchen bspw., ob bei Konsument*innen das Gefühl entsteht, dass sie durch die Personalisierung von Dienstleistungen und Online-Produkten genügend Nutzen erfahren, der die Offenlegung ihrer persönlichen Daten rechtfertigt. Ein hohes Maß an Personalisierung kann aber auch Misstrauen gegenüber dem Unternehmen und Reaktanz auslösen, was die Nutzung der Produkte des Unternehmens wiederum verringert (White et al. 2008). Auch hier ist dementsprechend ein paradoxer Effekt sichtbar, da Personalisierung einerseits den Nutzen erhöht, andererseits aber auch Reaktanz und Misstrauen auslösen kann.
Datenschutzbedenken. Die allgemeinen und situativen Bedenken gegen den Umgang mit ihren personenbezogenen Daten beeinflussen das Verhalten von Konsument*innen in datenschutzrelevanten Situationen maßgeblich (Aguirre et al. 2015; Acquisti et al. 2015; Goldfarb und Tucker 2012; Martin 2015; Sheehan und Hoy 2000). Die allgemeinen Datenschutzbedenken beziehen sich auf Überzeugungen, Einstellungen und Wahrnehmungen der Konsument*innen zu ihrer Privatsphäre (Smith et al. 1996). In der Forschung werden diese oftmals mit der sog. „consumer privacy concern scale“ erfasst (Smith et al. 1996; Malhotra et al. 2004). In der bisherigen Literatur wurden Datenschutzbedenken sowohl als Prädiktoren, aber auch als Moderatoren und datenschutzrelevante Konsequenzen untersucht (Xu et al. 2012).

3.3 Situative und kognitive Verzerrungen

Situative und kognitive Verzerrungen beschreiben Einflussfaktoren, die die konkreten datenschutzrelevanten Handlungen von Konsument*innen über rationale Kosten-Nutzen-Abwägungen hinaus beeinflussen und zu Abweichungen von ihren eigentlichen (allgemeinen) Einstellungen, Überzeugungen und Intentionen führen. Dies können die Anwendungsumgebung (z. B. die genutzte technologische Plattform, Melumad und Meyer 2020) oder auch Emotionen (Dowling et al. 2020) sein. Die bisherigen Studien betrachteten unter anderem Informationsasymmetrien, Vertrauen und Transparenz, Kontrollillusionen, die soziale Umwelt, Habituation sowie die wahrgenommene Vulnerabilität.
Informationsasymmetrien. Konsument*innen wissen häufig nicht, zu welchen Gelegenheiten, auf welche Arten und in welchem Umfang Unternehmen ihre Daten sammeln und verarbeiten und welche weiteren Dienste und Unternehmen ebenfalls Zugriff auf diese Daten haben. Der Hauptgrund hierfür liegt darin, dass den Konsument*innen zumeist die notwendigen (kognitiven, zeitlichen) Kapazitäten im Alltag fehlen oder sie nicht das notwendige technische oder juristische Hintergrundwissen besitzen, um bspw. komplexe Datenschutzbestimmungen zu verstehen. Diese sogenannten Informationsasymmetrien und die daraus entstehenden Folgen (z. B. Misstrauen gegenüber Unternehmen, geringe Kaufbereitschaft) lassen sich nur sehr schwer wieder abbauen (Acquisti et al. 2013; Habib et al. 2018; Hoofnagle und Urban 2014; Martin und Nissenbaum 2016; Mothersbaugh et al. 2012; Martin 2015). So kann die bloße Benachrichtigung über die Datenschutzrichtlinien des Unternehmens nicht zwangsläufig verhindern, dass Konsument*innen Informationsasymmetrien wahrnehmen und den Datenschutz kritisch sehen (Martin 2015). Darüber hinaus spielt es eine Rolle, wie datenschutzrelevante Informationen durch Unternehmen an die Konsument*innen vermittelt werden. Vail et al. (2008) zeigen bspw., dass „traditionelle“ und ausführliche Datenschutzrichtlinien von Konsument*innen eher als vertrauenswürdig angenommen werden, obwohl solche Richtlinien aufgrund ihrer Länge und Komplexität keine Informationsasymmetrien abbauen. Somit kann eine Maßnahme, die eher nachteilig für die Verringerung der Informationsasymmetrien ist, paradoxerweise das Vertrauen der Konsument*innen in das Unternehmen erhöhen.
Vertrauen und Transparenz. Das Vertrauen in Organisationen kann maßgeblich beeinflussen, inwieweit Konsument*innen ihre persönlichen Daten mit diesen teilen (Martin und Murphy 2017). Hierbei wurde in der Literatur besonders eine glaubwürdige und transparente Datenschutzpolitik als vertrauensbildender Erfolgsfaktor untersucht. So kann eine glaubwürdige Datenschutzpolitik des Unternehmens das Vertrauen von Konsument*innen stärken (Lockamy und Mothersbaugh 2020), z. B. durch unabhängige Datenschutzsiegel und freiwillige Angaben zum Datenschutz (Gabisch und Milne 2014; White 2004). Mit einem hohen Vertrauen geht allerdings auch eine erhöhte Erwartungshaltung der Konsument*innen an die Datensicherheit der Unternehmen einher, deren Nichterfüllung sich negativ auf das Verhältnis zwischen Konsument*innen und Unternehmen auswirken können (Martin 2015; Gabisch and Milne 2014). So kann ein nachlässiger Umgang mit den Kundendaten zu einem Glaubwürdigkeitsverlust von Unternehmen führen und bedeutende negative finanzielle und juristische Konsequenzen nach sich ziehen (Malhotra und Malhotra 2011; Romanosky et al. 2014). Andererseits kann ein transparenter Umgang des Unternehmens mit den verwendeten Daten das Vertrauen der Konsument*innen stärken (Martin et al. 2016; Norberg und Horne 2014; Wirtz und Lwin 2009).
Kontrollillusion. Die wahrgenommene Kontrolle der Konsument*innen über die eigenen Daten gilt als bedeutende Einflussgröße auf deren Verhalten in datensensiblen Situationen (Acquisti et al. 2013; Bleier und Eisenbeiss 2015a, b; Martin et al. 2016; Mothersbaugh et al. 2012; Tucker 2014; Xu et al. 2012). Einerseits kann das Gefühl von Kontrolle bei Konsument*innen Reaktanz und Datenschutzbedenken gegenüber dem Unternehmen abbauen (Acquisti et al. 2020) und damit das Verhältnis von Konsument*innen zu den Unternehmen verbessern (Tsai et al. 2011). Allerdings kann die wahrgenommene Kontrolle auch einen paradoxen Effekt auslösen, der in der Literatur als sog. Kontrollparadoxon eingeführt wurde (Brandimarte et al. 2013): Die wahrgenommene Kontrolle über die eigenen Daten führt dazu, dass diese durch Konsument*innen leichtfertiger offengelegt werden (Brandimarte et al. 2012, 2013; Norberg und Horne 2014). Im Hinblick auf die Kontrolle über die eigenen Daten, kann auch eine gegenteilige Wahrnehmung entstehen, nämlich das Gefühl der Resignation. Konsument*innen fühlen sich in dem Fall hilflos und machtlos und sind überzeugt, dass sie ihre Daten ohnehin nicht schützen können oder dass sie als aktive Bürger*innen in einer modernen Welt nicht ohne digitale Teilhabe bestehen können (Acquisti et al. 2020; Barassi 2019; Draper und Turow 2019). Ironischerweise können sowohl die Wahrnehmung von Kontrolle als auch Resignation dieselbe Konsequenz haben: Konsument*innen gehen nachlässig mit ihren persönlichen Daten um. Des Weiteren ist in diesem Zusammenhang das „Nichts-zu-verbergen-Argument“ zu beobachten, das besagt, dass staatliche Maßnahmen zur Überwachung illegaler Aktivitäten dienen und daher keine Personen beeinträchtigt werden, die sich regelkonform verhalten (Solove 2011). Hier kann das Gefühl vermeintlicher Kontrolle schlicht durch die Einhaltung von Gesetzen entstehen, obwohl Maßnahmen zur Überwachung in vielen Fällen unabhängig von Verdachtsfällen geschehen.
Soziale Umwelt. Die soziale Umwelt spielt in zweierlei Hinsicht eine bedeutende Rolle für den Umgang von Konsument*innen mit ihren persönlichen Daten. Einerseits dient die soziale Umwelt oftmals als Referenz für das „richtige“ Verhalten in bestimmten Situationen und unterstützt Konsument*innen dabei, die ihre Einstellungen zu einem bestimmten Thema zu ermitteln. Tatsächlich konnten Studien bestätigen, dass Konsument*innen bei der Nutzung einer bestimmten Technologie eher ihre persönlichen Daten preisgeben, wenn sie dieses Verhalten bereits bei anderen beobachtet haben (Acquisti et al. 2012). Darüber hinaus können Konsument*innen in ihren datenschutzrelevanten Entscheidungen durch soziale Normen, Herdenverhalten sowie dem Vertrauen in andere Nutzer*innen von Plattformen und Reziprozitätsgedanken beeinflusst werden (Acquisti et al. 2012; Chellappa und Sin 2005; Schumann et al. 2014; White 2004). Schließlich kann auch das Bedürfnis nach dem Teilen persönlicher Informationen mit anderen Menschen maßgeblich beeinflussen, wie stark Konsument*innen auf Datenschutzaspekte achten (Carbone und Loewenstein 2020).
Habituation. Der Umgang von Konsument*innen mit ihren persönlichen Daten hängt nicht zuletzt davon ab, wie sehr sie sich an bestimmte Gegebenheiten und Situationen gewöhnen. So können datenschutzrelevante Probleme zwar in einer bestimmten Situation oder für einen bestimmten Zeitraum im Fokus der Aufmerksamkeit stehen (z. B. wenn ein Datenschutzskandal in den Medien aufbereitet wird), allerdings treten im Zeitverlauf andere Themen in den Vordergrund, während die datenschutzrelevanten Probleme ungelöst bleiben oder sich sogar unbemerkt weiterhin nachteilig für die Konsument*innen entwickeln (z. B. durch Agenda Setting). Dies führt u. a. dazu, dass sich Konsument*innen selbst an Umstände gewöhnen, die ihnen eigentlich schaden könnten (Adjerid et al. 2018). Darüber hinaus kann auch die genutzte technologische Plattform zu Gewöhnungseffekten führen und den Umgang mit den persönlichen Daten beeinflussen. So zeigen Melumad und Meyer (2020), dass Konsument*innen eher Persönliches auf sozialen Netzwerken teilen, wenn sie ein Smartphone statt eines PCs nutzen.
Wahrgenommene Vulnerabilität. Das Konzept der wahrgenommenen Vulnerabilität bzw. Verwundbarkeit beschreibt das von Konsument*innen wahrgenommene potenzielle Risiko, das mit der Offenlegung persönlicher Daten einhergeht (Aguirre et al. 2015; Awad und Krishnan 2006; Raab und Bennet 1998). Die wahrgenommene Verwundbarkeit entspringt der individuellen Befürchtung, dass andere (z. B. Unternehmen, Staaten, Betrüger) die Absicht hegen könnten, die persönlichen Daten von Konsument*innen zu deren Nachteil zu nutzen. Die jüngste Literatur, die sich der wahrgenommenen Verwundbarkeit intensiv gewidmet hat (Aguirre et al. 2015; Awad und Krishnan 2006; Martin und Murphy 2017), konnte nachweisen, dass diese einen beträchtlichen Einfluss darauf hat, wie Konsument*innen ihre eigene Privatsphäre erleben und beurteilen (Petronio 2002). Schließlich beeinflusst die wahrgenommene Verwundbarkeit subjektive Datenschutzbedenken (Dinev und Hart 2004).

4 Handlungsempfehlungen für Nutzer*innen und Gesetzgeber

Aus dem vorliegenden Beitrag wird klar, dass wichtige Dimensionen der digitalen Datenschutzkompetenz das Verständnis der Nutzer*innen für die tatsächliche Kontrolle über deren persönliche Daten, soziale Einflüsse, Habituationen und Vulnerabilität und Informationen sind. Auf Seiten des Gesetzgebers könnte man übergeordnet davon sprechen, dass neben rechtlichen Rahmenbedingungen und Standards sowie Kontrolle der Anbieter auch Maßnahmen zur Steigerung der digitalen Datenschutzkompetenz wichtig sind (Informations- und Bildungsangebote). Basierend auf diesen Überlegungen gestalten sich zahlreiche Möglichkeiten, um einen sicheren und verantwortungsvollen Umgang der Nutzer*innen mit den eigenen Daten zu fördern. Gesetzgeber, Verbraucherschutzorganisationen und öffentliche Institutionen können bspw. Unternehmen gesetzlich verpflichten oder dazu motivieren, ihre Kund*innen zu einem verantwortungsvollen Umgang mit persönlichen Daten zu unterstützen. Eine Darstellung von Handlungsoptionen für Konsument*innen und Gesetzgeber werden in Abb. 1 dargestellt.

5 Die Untersuchung der drei Privatsphäre-Gaps als Forschungsagenda

Der Literaturüberblick verdeutlicht, dass bereits zahlreiche Studien datenschutzrelevante Aspekte im Konsumentenverhalten untersuchten. Es wurde deutlich, dass die konsumentenpsychologische Forschung nützliche konzeptionelle Vorarbeit geleistet hat, die in zukünftigen empirischen Studien vertieft werden sollte. Bislang existiert allerdings noch kein Modell, das zeigt, wie verschiedene datenschutzrelevante Konsumentenreaktionen zueinander stehen und wie sich die aufgeführten Prozesse gegenseitig beeinflussen und die Reaktionen auslösen. Darüber hinaus wurden die verschiedenen Arten von Konsumentenreaktionen in datenschutzrelevanten Situationen nicht systematisch untersucht, obwohl diese Reaktionen paradoxerweise gegenläufige Effekte annehmen können: So kann beispielsweise das Gefühl von Kontrolle über die eigenen Daten einen positiven Effekt auf das Vertrauen gegenüber Unternehmen ausüben und sich in einer positiven Kaufabsicht und der bereitwilligen Preisgabe sensibler Daten widerspiegeln. Allerdings kann dieses Vertrauen auch zu einer Nachlässigkeit im Umgang mit den eigenen Daten führen. So kann ironischerweise das Gefühl von Kontrolle zu einem Kontrollverlust über die Daten führen.
Für eine spezifischere Untersuchung datenschutzrelevanter Aspekte im Konsumverhalten erscheint eine Abgrenzung der erstrebenswerten, erstrebten und erreichbaren Privatsphäre besonders fruchtbar (vgl. Abb. 2). Die subjektiv erstrebenswerte Privatsphäre kennzeichnet das Maß an Privatsphäre, das aus individuellen, politischen oder sozialen Norm- und Zielvorstellungen resultiert. Besonders die individuellen Normvorstellungen sind hierbei aus unserer Perspektive wichtig, da sich diese einerseits aus tiefergehenden Einstellungen speisen, andererseits auch aus dem Verhalten in anderen datenschutzrelevanten Bereichen. Unter der erstrebten Privatsphäre verstehen wir den Grad an Privatsphäre, den Konsument*innen allgemein oder in bestimmten Situationen anstreben. Er kann von verschiedenen Faktoren beeinflusst werden, die schon empirisch untersucht wurden und in diesem Artikel diskutiert wurden. Schließlich beschreibt die subjektiv erreichbare Privatsphäre das individuell wahrgenommene Maß an Privatsphäre, das allgemein oder in einer bestimmten Situation erreicht werden kann. Es ist stark abhängig vom Informationsstand der Konsument*innen.
Auf Basis der berichteten Literatur und diesen drei zu unterscheidenden Formen der Privatsphäre ergibt sich folgende übergeordnete Fragestellung, die in zukünftiger Forschung untersucht werden sollte: Welche situativen und kognitiven Verzerrungen erklären die Abweichungen zwischen erstrebenswerter, erstrebter und erreichbarer Privatsphäre von Konsument*innen sowie ihr datenschutzrelevantes Verhalten in konkreten Situationen? Für staatliche Institutionen ergibt sich die praktische Fragestellung, durch welche individuellen verhaltenswissenschaftlichen Interventionen und Bildungsmaßnahmen diese Lücken geschlossen werden können. Konkret ergibt sich Forschungsbedarf zu den folgenden drei Gaps der Privatsphäre bei digitalen Dienstleistungen.

5.1 Gap 1: Diskrepanz zwischen erstrebenswerter und erstrebter Privatsphäre

Zunächst sollte untersucht werden, wieso Konsument*innen für verschiedene Anwendungen sowie in verschiedenen Kontexten und Situationen unterschiedliche Maßstäbe an den Datenschutz anlegen. Ein geeignetes Beispiel ist der Unterschied im Umgang mit Datenschutzbedenken einiger Konsument*innen zwischen der Corona Warn-App und sozialen Netzwerken (Lasarov 2020). So lehnten im Zuge der Einführung der Corona Warn-App in Deutschland zahlreiche Konsument*innen eine Nutzung aus Gründen des Datenschutzes ab, teilten diese Meinung aber auf sozialen Netzwerken (z. B. Facebook, WhatsApp) (Lasarov 2020). Paradox an dieser Situation ist, dass Konsument*innen das erstrebte Maß an Privatsphäre für unterschiedliche Anwendungen inkonsistent beurteilten: für die sinnvolle Teilhabe an sozialen Netzwerken wird die Offenlegung zahlreicher privater Daten in Kauf genommen, während die Anforderungen an die Warn-App sehr hoch waren. Es kommt hinzu, dass der gesellschaftliche Nutzen der Corona Warn-App von zahlreichen Expert*innen und in den Medien als sehr hoch beurteilt wurde. Eine potenzielle Erklärung ergibt sich aus dem Ethical Intuitionism Model, wonach ein moralisches Urteil der rationalen Begründung vorgelagert ist. Eine höhere Bewertung des Datenschutzes kann also auch die nachgelagerte Rationalisierung dafür sein, wieso man das dafür genutzte Produkt ablehnt. Ferner ist auf normativer Ebene zu klären, welches Maß an Privatsphäre überhaupt „gut“ ist. Die Forschung zum Datenschutz konnte bisher bestätigen, dass ein hohes Maß an Privatsphäre mit einer Erhöhung der gesellschaftlichen Wohlfahrt verbunden ist (Acquisti et al. 2016; 2020; Varian 1996). Jedoch fehlen bislang Studien, die diese Lücke empirisch schließen.

5.2 Gap 2: Diskrepanz zwischen erstrebter und erreichbarer Privatsphäre

Die erstrebte Privatsphäre kann auch von der erreichbaren Privatsphäre abweichen. Diese Lücke wurde in der bisherigen Forschung besonders aus der Perspektive des Privatsphäre-Paradoxon untersucht, da Konsument*innen nicht in allen Situationen das höchstmögliche Maß an Privatsphäre suchen, sondern sich mit einem Maß an Privatsphäre zufriedengeben, das ihnen das gewünschte Maß an gesellschaftlicher Teilhabe ermöglicht (sog. Privatsphäre-Externalität) und auch der Verfolgung anderer persönlicher Interessen nicht im Wege steht (sog. Privacy-Personalization-Paradox). Auch hier ist weitere Forschung notwendig, die sich mit der spezifischen Entschlüsselung der Verzerrungen befasst.

5.3 Gap 3: Diskrepanz zwischen erstrebenswerter und erreichbarer Privatsphäre

In einigen Situationen können auch die erreichbare und die erstrebenswerte Privatsphäre divergieren. Sollte die erreichbare Privatsphäre deutlich hinter der erstrebenswerten Privatsphäre zurückfallen, entstehen mentale Konflikte. Gewährleistet beispielsweise ein Unternehmen wenig Datenschutz für ein bestimmtes Produkt (niedrige erreichbare Privatsphäre) in einem Bereich, bei dem Privatsphäre als sehr erstrebenswert gilt (hohe erstrebenswerte Privatsphäre, z. B. Gesundheit), entstehen bei Konsument*innen derartige Dissonanzen. Äußere Faktoren beeinflussen die Strategien, mit deren Hilfe Konsument*innen diese kognitiven Dissonanzen reduzieren können. Konsument*innen könnten bspw. das erstrebenswerte Maß an Privatsphäre (oder die Bedeutung von Privatsphäre insgesamt) für sich verringern, wenn sie das angebotene Produkt unbedingt möchten. Sie können allerdings auch das Produkt durch ein Substitut ersetzen oder zu einem anderen Anbieter wechseln, das bzw. der ihnen ein höheres Maß an erreichbarer Privatsphäre bietet. Außerdem können sie in bestimmten Fällen auch die erreichbare Privatsphäre im selben Unternehmen erhöhen, z. B. kurzfristig durch Extra-Zahlungen.

6 Fazit

Der vorliegende Artikel diskutiert verschiedene situative und kognitive Verzerrungen, die zur Erklärung der Diskrepanz zwischen den persönlichen Datenschutzbedenken und dem tatsächlichen, oft sorglosen Verhalten bei digitalen Dienstleistungen beitragen. Es wird allerdings deutlich, dass bisher kein übergeordnetes Modell existiert, das die Wechselwirkungen zwischen diesen Verzerrungen sowie den datenschutzrelevanten Konsequenzen untersucht und dabei eine in unseren Augen wichtige Differenzierung zwischen erstrebenswerter, erstrebter und erreichbarer Privatsphäre einbezieht. Dieser Beitrag soll daher zukünftige Forschung auf diesem Gebiet stimulieren.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Unsere Produktempfehlungen

HMD Praxis der Wirtschaftsinformatik

HMD liefert IT-Fach- und Führungskräften Lösungsideen für ihre Probleme, zeigt ihnen Umsetzungsmöglichkeiten auf und informiert sie über Neues in der Wirtschaftsinformatik (WI).

Literatur
Zurück zum Zitat Acquisti A, John LK, Loewenstein G (2013) What Is Privacy Worth? The Journal of Legal Studies 42(2):249–274CrossRef Acquisti A, John LK, Loewenstein G (2013) What Is Privacy Worth? The Journal of Legal Studies 42(2):249–274CrossRef
Zurück zum Zitat Acquisti A, Adjerid I, Balebako R, Brandimarte L, Cranor LF, Komanduri S, Wang Y (2017) Nudges for privacy and security: understanding and assisting users’ choices online. ACM Comput Surv 50(3):1–41. https://doi.org/10.1145/3054926CrossRef Acquisti A, Adjerid I, Balebako R, Brandimarte L, Cranor LF, Komanduri S, Wang Y (2017) Nudges for privacy and security: understanding and assisting users’ choices online. ACM Comput Surv 50(3):1–41. https://​doi.​org/​10.​1145/​3054926CrossRef
Zurück zum Zitat Brandimarte L, Acquisti A, Loewenstein G (2012) Misplaced Confidences. Social Psychological and Personality Science 4(3):340–347CrossRef Brandimarte L, Acquisti A, Loewenstein G (2012) Misplaced Confidences. Social Psychological and Personality Science 4(3):340–347CrossRef
Zurück zum Zitat Dehmel S, Kenning P, Wagner GG, Liedtke C, Micklitz HW, Riemenschneider L (2020) Die Wirksamkeit der Corona-Warn-App wird sich nur im Praxistest zeigen. Der Datenschutz ist nur eine von vielen Herausforderungen. Sachverständigenrat für Verbraucherfragen, Berlin, S 1–37 Dehmel S, Kenning P, Wagner GG, Liedtke C, Micklitz HW, Riemenschneider L (2020) Die Wirksamkeit der Corona-Warn-App wird sich nur im Praxistest zeigen. Der Datenschutz ist nur eine von vielen Herausforderungen. Sachverständigenrat für Verbraucherfragen, Berlin, S 1–37
Zurück zum Zitat Habib H, Colnago J, Gopalakrishnan V, Pearman S, Thomas J, Acquisti A, Cranor LF (2018) Away from prying eyes: analyzing usage and understanding of private browsing. Fourteenth Symposium on Usable Privacy and Security, S 159–175 Habib H, Colnago J, Gopalakrishnan V, Pearman S, Thomas J, Acquisti A, Cranor LF (2018) Away from prying eyes: analyzing usage and understanding of private browsing. Fourteenth Symposium on Usable Privacy and Security, S 159–175
Zurück zum Zitat Hoofnagle CJ, Urban JM (2014) Alan Westin’s privacy homo economicus. Wake For L Rev 49:261 Hoofnagle CJ, Urban JM (2014) Alan Westin’s privacy homo economicus. Wake For L Rev 49:261
Zurück zum Zitat Lockamy M, Mothersbaugh E (2020) PSYC 384 the effect of Instagram on appearance, self-esteem, and social approval. Longwood University, Longwood Lockamy M, Mothersbaugh E (2020) PSYC 384 the effect of Instagram on appearance, self-esteem, and social approval. Longwood University, Longwood
Zurück zum Zitat Martin K, Nissenbaum H (2016) Measuring privacy: an empirical test using context to expose confounding variables. Columbia Sci Technol Law Rev 18:176 Martin K, Nissenbaum H (2016) Measuring privacy: an empirical test using context to expose confounding variables. Columbia Sci Technol Law Rev 18:176
Zurück zum Zitat Norberg PA, Horne DR (2007) Privacy attitudes and privacy-related behavior. Psychology & Marketing 24(10):829–847CrossRef Norberg PA, Horne DR (2007) Privacy attitudes and privacy-related behavior. Psychology & Marketing 24(10):829–847CrossRef
Zurück zum Zitat Petronio S (2002) Boundaries of privacy: dialectics of disclosure. State University of New York Press, New York Petronio S (2002) Boundaries of privacy: dialectics of disclosure. State University of New York Press, New York
Zurück zum Zitat Schouten B, Tistarelli M, Garcia-Mateo C, Deravi F, Meints M (2008) Nineteen urgent research topics in biometrics and identity management. In: European workshop on biometrics and identity management. Springer, Berlin, Heidelberg, S 228–235CrossRef Schouten B, Tistarelli M, Garcia-Mateo C, Deravi F, Meints M (2008) Nineteen urgent research topics in biometrics and identity management. In: European workshop on biometrics and identity management. Springer, Berlin, Heidelberg, S 228–235CrossRef
Zurück zum Zitat Solove DJ (2011) Nothing to hide: the false tradeoff between privacy and security. Yale University Press, New Haven Solove DJ (2011) Nothing to hide: the false tradeoff between privacy and security. Yale University Press, New Haven
Zurück zum Zitat Trabandt M, Lasarov W (2020) Consumer Digital Responsibility – eine Einführung. In: Heidbrink L, Müller S (Hrsg) Consumer Social Responsibility. Zur gesellschaftlichen Verantwortung von Konsumenten. Metropolis, Marburg Trabandt M, Lasarov W (2020) Consumer Digital Responsibility – eine Einführung. In: Heidbrink L, Müller S (Hrsg) Consumer Social Responsibility. Zur gesellschaftlichen Verantwortung von Konsumenten. Metropolis, Marburg
Zurück zum Zitat Varian HR (1996) Economic aspects of personal privacy, privacy and self-regulation in the information age. National Telecommunications and Information Administration Report, Washington DC Varian HR (1996) Economic aspects of personal privacy, privacy and self-regulation in the information age. National Telecommunications and Information Administration Report, Washington DC
Zurück zum Zitat Webb TL, Sheeran P (2006) Does changing behavioral intentions engender behavior change? A meta-analysis of the experimental evidence. Psychol Bull 132(2):249–268CrossRef Webb TL, Sheeran P (2006) Does changing behavioral intentions engender behavior change? A meta-analysis of the experimental evidence. Psychol Bull 132(2):249–268CrossRef
Metadaten
Titel
Paradoxes Datenschutzverhalten
Diskrepanz zwischen Datenschutzbedenken und nachlässigem Umgang mit digitalen Dienstleistungen
verfasst von
Wassili Lasarov
Stefan Hoffmann
Publikationsdatum
18.02.2021
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
HMD Praxis der Wirtschaftsinformatik / Ausgabe 6/2021
Print ISSN: 1436-3011
Elektronische ISSN: 2198-2775
DOI
https://doi.org/10.1365/s40702-021-00706-2

Weitere Artikel der Ausgabe 6/2021

HMD Praxis der Wirtschaftsinformatik 6/2021 Zur Ausgabe