Skip to main content

Open Access 2022 | Open Access | Buch

Buchtitelbild

Selbstbestimmung, Privatheit und Datenschutz

Gestaltungsoptionen für einen europäischen Weg

herausgegeben von: Michael Friedewald, Dr. Michael Kreutzer, Marit Hansen

Verlag: Springer Fachmedien Wiesbaden

Buchreihe : DuD-Fachbeiträge

insite
SUCHEN

Über dieses Buch

In diesem Open-Access-Sammelband werden die aktuelle Herausforderungen für Privatheit und Datenschutz aufgezeigt, die durch die zunehmende Digitalisierung entstehen. Die Beitragsautoren analysieren, wie diese durch Governancemechanismen adressiert werden können. Als Alternative zu einem rein profitorientierten Digitalkapitalismus bzw. Digitalautoritarismus wird für einen eigenständigen europäischen Weg beim Datenschutz argumentiert, der auf eine gemeinwohlorientierte Technikentwicklung abzielt. Insbesondere befassen sich die Beiträge mit den Möglichkeiten für die Stärkung der Selbstbestimmung in der Datenökonomie und mit algorithmischen Entscheidungssystemen.

Inhaltsverzeichnis

Frontmatter

Open Access

Einleitung: Selbstbestimmung und Privatheit – Gestaltungsoptionen für einen europäischen Weg
Zusammenfassung
Digitalisierung stößt umfassende Wandlungsprozesse auf gesellschaftlicher, wirtschaftlicher und rechtlicher Ebene an. Übergreifend sind es vor allem fünf miteinander verschränkte, technologiegetriebene Trends, welche die zurzeit tiefgreifenden soziotechnischen Transformationsprozesse vorantreiben: Die Allgegenwart von Smartphones als dominierende Endgeräte der Informations- und Kommunikationstechnik, die Ausbreitung des Internet of Things, die Plattformökonomie, die Verbreitung von Social Networks und Fortschritte im Bereich künstlicher Intelligenz.
Michael Friedewald, Michael Kreutzer, Marit Hansen

Datenschutz unter den Rahmenbedingungen der existierenden Daten- und Plattformökonomie

Frontmatter

Open Access

Warum Wettbewerbspolitik auch die Privatsphäre berücksichtigen muss
Zusammenfassung
Europäische und deutsche Gesetzgeber:innen und Behörden sind sich einig, dass sie die negativen Folgen von Marktkonzentration begrenzen wollen. Doch inwieweit wirkt sich fehlender Wettbewerb auf den Schutz der Privatsphäre aus? Im Kontext des Facebook-Verfahrens werden v. a. zwei verschiedene Ansätze beleuchtet – einerseits, inwiefern Konzentration den Umfang der gesammelten bzw. genutzten Daten beeinflusst, und andererseits, wie Konzentration sich auf die Verhandlungsposition der Nutzer:innen auswirkt. Dieser Beitrag zeigt auf, dass der erste Ansatz nur spärlich empirisch gestützt ist, während der zweite weiterer konzeptioneller Ausarbeitung bedarf. Im Anschluss wird untersucht, inwieweit nicht nur Marktkonzentration, sondern fehlende Befähigung von Verbraucher:innen dazu führt, dass es keinen wirksamen Wettbewerb um besseren Datenschutz gibt. Beide Teile schließen mit politischen Handlungsempfehlungen ab.
Aline Blankertz

Privatheit in Zeiten der umfassenden Digitalisierung

Frontmatter

Open Access

Datenbasierte Sichtbarkeit: Gesellschaftsstrukturelle Bedingungen zeitgenössischer Technikgestaltung
Zusammenfassung
Dass wertorientierte Technikgestaltung kaum umhinkommt, die gesellschaftsstrukturellen Bedingungen mit zu reflektieren, unter denen sie agiert, ist bekannt. Der Vortrag überträgt diese Einsicht auf den Bereich der Privatheit, indem er die strukturhistorischen Konstellationen rekonstruiert, aus denen sich versch. Formen der informationellen Privatheit in unterschiedlichen Vergesellschaftungsphasen der Moderne jeweils herausgeschält haben. Bei den so identifizierten Privatheitsformen handelt es sich um a) Reputation Management; b) Rückzug; sowie c) individuelle Informationskontrolle. Basierend auf einer solchen Genealogie informationeller Privatheitspraktiken werden in einem weiteren Schritt die strukturellen Treiber zeitgenössischer Privatheit herausgearbeitet, deren Form solchermaßen als d) Unschärfegarantie erkennbar wird. Abschließend werden Konsequenzen diskutiert, die sich aus den somit herausgearbeiteten gesellschaftsstrukturellen Bedingungen zeitgenössischer Technikgestaltung ergeben.
Carsten Ochs

Open Access

Maschinelles Lernen und das Recht auf Nichtwissen
Zusammenfassung
Das Recht auf Nichtwissen ist ein Teil der informationellen Selbstbestimmung. Als Persönlichkeitsschutz wurde es bislang überwiegend aus medizinischer Sicht betrachtet, dort ist es anerkannt und wird angewendet. Durch den Output Maschineller Lernsysteme, die u. a. mit persönlichen Daten trainiert werden, kann das aufgeklärte Recht auf Nichtwissen ebenfalls bedroht werden. Selbstanalysen, Selbstoptimierungsvorschläge und ggf. Hinweise zur Anpassung, die auf diesem Wege erstellt werden, bergen Gefahren für die freie Entfaltung der Persönlichkeit und sozialisatorischer Beziehungen – die vermittelte Information ist irreversibel. Dieser Beitrag ordnet die technischen Möglichkeiten zu Selbstanalysen, Selbstoptimierungsvorschlägen und Prognosen durch Maschinelles Lernen ein und verknüpft diese mit einer philosophischen Betrachtung entlang folgender Fragestellung: Wie steht es um die Freiheit der Entscheidung, ob das Individuum durch Maschinelles Lernen berechnete, auf sich bezogene Analysen wissen sollen muss oder ob es sich dazu entschließen darf, diese nicht wissen zu wollen.
Michael Kreutzer, Johanna Mittermeier

Open Access

Verteilte Erreichbarkeit: Postdigitale Personalisierung durch Selfies als Gestaltungsaufgabe
Zusammenfassung
Personalisierung ist eine verbreitete Strategie in der digitalen Welt. In sozialen Netzen sammeln und verteilen Nutzer:innen persönliche Fragmente aus ihrem Leben, während Plattform-Unternehmen auf dieser Basis Angebote und Infrastrukturen personalisieren. Ziel des Aufsatzes ist es, in dieser Situation die These zu plausibilisieren, dass die Personalisierung aufseiten der Nutzer:innen eigenen Methoden und Zielen folgt. Dies soll beitragen zur Beantwortung der Frage, welche Weisen der Personalisierung vor einer möglichen Manipulation durch Plattformen geschützt werden sollten und welche Privatheit dabei helfen kann. Zu diesem Zweck skizziere ich erstens ein sozialtheoretisches Konzept, um Personalisierung als sozio-materiellen Aufbau von Erreichbarkeit verständlich zu machen. Personalisierung in diesem Sinne ist kein digitales Phänomen, sondern eine allgemeine Form der Identifikation menschlicher Wesen und Grundlage für persönliche Beziehungen aller Art. Zweitens präsentiere ich Ergebnisse einer autoethnografischen Studie zur Herstellung von Selfie-Fotografien, die eine mögliche Form der Personalisierung aufseiten der Nutzer:innen unter postdigitalen Bedingungen illustrieren. Die Selfie-Produktion erweist sich dabei als eine verteilte und artifizielle Weise der Gestaltung persönlicher Erreichbarkeit. Im Anschluss an diese Analysen bespreche ich drittens, welche spezifischen Schutzbedürfnisse sich daraus ergeben und welche Form des Privaten zu diesen passt.
Fabian Pittroff

Anonymität

Frontmatter

Open Access

Der Wert des Anonymen
Zusammenfassung
Das vorliegende Paper verhandelt Anonymität und Privatheit im Kontext des Internets. Wir fassen Anonymität als Differenzierung von Handlungskontexten durch Verschleierung von Identitätsmarkern. Autonomie wird mit Rössler verstanden als autonom-authentische Wahl und ihr Ausdruck in sozialem Handeln. Privatheit schützt diese Autonomie. Anonymität bezieht sich auf Privatheit technisch als kompensatorischer Schutz kontextdifferenziert gewünschten Wissens. Das Internet wird charakterisiert als Fernkommunikation, soziales Gedächtnis und Arena technischer Beobachtung. Anonymität und Privatheit werden auf die Kommunikationssituation im Internet bezogen, dabei wird herausgestellt, wie sich Darknets zu diesem Komplex verhalten. Letztlich werden einige Anmerkungen zum Wert einer „Kultur der Anonymität“ gemacht.
Robert Landwirth

Open Access

Online-Privatheitskompetenz und Möglichkeiten der technischen Umsetzung mit dem Anonymisierungsnetzwerk Tor
Zusammenfassung
Ziel der vorliegenden Arbeit ist die Erstellung einer Anonymitätsmatrix. Der Fokus liegt hierbei insbesondere in der Verbindung der technischen und psychologischen Komponenten der Betrachtung. Ausgangssituation ist die Verwendung einer Privacy Enhancing Technology, konkret dem Tor-Browser. So ist das Ziel, die Tor-Nutzergruppe in Bezug auf ihre Online-Privatheitskompetenz, Nutzungsweise und Grad der Anonymität zu erforschen. Hierzu wurde eine Online-Befragung (\(N = 120\)) sowie ein Leitfadeninterview mit einem Experten aus der IT-Sicherheitsforschung durchgeführt.
Alexandra Lux, Florian Platzer

Open Access

Deanonymisierung im Tor-Netzwerk – Technische Möglichkeiten und rechtliche Rahmenbedingungen
Zusammenfassung
Eine anonyme Nutzung des Internets wird durch die Verwendung sogenannter „Darknet-Technologien“ wie der Tor-Software ermöglicht und ist hierzulande grundrechtlich geschützt. Neben zahlreichen positiven Verwendungszwecken werden solche Technologien allerdings oft auch zur anonymen Begehung von Straftaten eingesetzt. Da ein Verbot von Anonymisierungstechnologien sowohl aus technischer, als auch aus rechtlicher Sicht abzulehnen ist, wendet sich dieser Beitrag den Möglichkeiten der Strafverfolgung im Tor-Netzwerk zu. Es werden Vorgehensweisen zur Identifizierung tatverdächtiger Personen vorgestellt und aus rechtlicher Perspektive bewertet, ob diese von den derzeit existierenden Ermittlungsbefugnissen der Strafverfolgungsbehörden gedeckt wären. Anhand dieser Erkenntnisse soll eine Diskussionsgrundlage für strafrechtliche Ermittlungen im Tor-Netzwerk geschaffen werden, ohne die Legitimität einer anonymen Nutzung des Internets grundsätzlich in Frage zu stellen.
Sandra Wittmer, Florian Platzer, Martin Steinebach, York Yannikos

Open Access

Anonymisierte Daten brauchen keinen Datenschutz – wirklich nicht?
Zusammenfassung
Gesetzliche Regelungen zum Datenschutz wie die DSGVO gehen davon aus, dass ein Schutzbedarf nur für personenbezogene Daten gilt, und anonymisierte Daten damit nicht dem Datenschutz unterliegen. Anonymität ist aber eine relative Eigenschaft, die u. a. vom Dateneigentümer abhängt. Daher kann sie auch in vielen Fällen wieder aufgehoben werden, wie einige in den letzten Jahren bekannt gewordene Beispiele zeigen. Die derzeitige Beschränkung des Datenschutzes auf personenbezogene Daten erscheint daher nicht angemessen, und es gibt verschiedene Ansätze, diese Herausforderung anzugehen. Zuerst einmal könnten auch anonymisierte Daten in der Gesetzgebung zum Datenschutz als schützenswert definiert werden, woraus sich die Forderung nach entsprechenden Maßnahmen wie einer Beschränkung der Weitergabe oder der Durchführung einer Datenschutz-Folgenabschätzung ergibt. Ein anderer bisher allerdings wenig verbreiteter Ansatz ist das gesetzliche Verbot einer Re-Identifikation. Ein gravierender Nachteil der Anonymisierung ist, dass sie dazu führt, dass die Betroffenenrechte wie das Recht auf Auskunft oder auf Löschung nicht mehr umsetzbar sind. Das führt zum dritten möglichen Lösungsansatz, der die Anonymisierung als Maßnahme zum Datenschutz komplett ablehnt. Als Grundlage für eine Lösung dieser Herausforderungen wird ergänzend eine Definition von „im erweiterten Sinne personenbezogenen Daten“ eingeführt.
Ralf Kneuper

Soziale Teilhabe

Frontmatter

Open Access

Digitales Lernen – Welche Rolle spielt die Privatheit der Daten von Schüler:innen bei der Nutzung von Lernsoftware?
Zusammenfassung
Die Nutzung von Smartphones und Tablets ermöglicht auch den Zugang zu Applikationen zum Lernen und Vertiefen von Schulinhalten. Allerdings werden dabei zwangsläufig eine große Anzahl persönlicher Daten gesammelt. Hierbei kann es sich um demografische Daten, administrative Informationen, Daten aus Interaktionen und individuelle Daten wie das Vorwissen oder Testergebnisse handeln. Da die Funktionsweise solcher Lernsysteme oftmals intransparent ist, stellt sich die Frage, inwiefern Kinder und Jugendliche die Bedrohung ihrer Privatheit in horizontaler (durch die Einblicke von Lehr:innen, Eltern und Mitschüler:innen in sensible Leistungsdaten) und vertikaler (durch die kommerzielle Nutzung und Weitergabe an Unternehmen) Hinsicht wahrnehmen. Im Rahmen einer empirischen Befragung von Schüler:innen sowie von Lehrkräften und Eltern wird deshalb untersucht, in welchem Umfang Lernsoftware in den Schulen und Zuhause genutzt wird, und, ob Kenntnisse über potenzielle Bedrohungen der persönlichen Daten durch die Speicherung und Weitergabe bei der Nutzung von Lernsoftware existieren und welche Schutzmaßnahmen im Zuge dessen ergriffen werden, um die eigenen Daten zu schützen.
Judith Meinert, Nicole C. Krämer

Open Access

Datenschutz- und Sicherheitsanalyse von Mobilen Learning Apps
Zusammenfassung
In den letzten Jahren hat die Popularität von mobilen Learning Apps für Kinder und Jugendliche stark zugenommen – insbesondere im Kontext der aktuell herrschenden Corona-Pandemie, in der der Präsenz-Schulbetrieb mehrfach stark eingeschränkt werden musste. Im Rahmen dieses Beitrags untersuchen wir, inwieweit Android Learning Apps vor dem Hintergrund der DSGVO die Privatheit ihrer Nutzenden (i. d. R. Minderjährige) gewährleisten bzw. Anforderungen an Datensicherheit erfüllen. Die Datengrundlage für die Untersuchung besteht aus 199 Learning Apps aus dem Google Play Store. Die Analyse unterteilt sich in zwei Schritte: die grobgranulare und die feingranulare Analyse. Die grobgranulare Analyse befasst sich mit Beobachtungen und statistischen Erkenntnissen, welche direkt aus den bereits gesammelten Metadaten der Apps ersichtlich sind. Weiterhin werden die Ergebnisse hinsichtlich Datenschutz und Datensicherheit kritisch hinterfragt, indem Metadaten bezüglich Datenschutzerklärung und Berechtigungen eingestuft werden. Die feingranulare Analyse baut auf der grobgranularen Analyse auf. Hierbei wird das Android Package (APK) mittels Tools zur statischen und dynamischen Analyse genauer betrachtet. Des Weiteren werden das Vorhandensein und die Qualität von Maßnahmen zur Absicherung des Datenverkehrs der ausgewählten Apps untersucht und bewertet. Wir stellen fest, dass viele Learning Apps Datenschutzrichtlinien oder sichere Datenübertragung bieten, die Apps auf unsichere Weise implementiert sind und oft eine zum Teil niedrige Codequalität vorweisen, was auf zusätzliche Cybersicherheits- und Datenschutzrisiken schließen lässt.
Sunny Dass, Michael Kreutzer, Linda Schreiber, Hervais Simo Fhom

Open Access

„das braucht die Technik nicht alles zu wissen“ – Digitale Datenerfassung im Spannungsfeld zwischen Privatheit, Datenschutz und gesellschaftlichem Auftrag
Zusammenfassung
Die Teilhabeplanung für Menschen mit Behinderung ist ein Instrument der Eingliederungshilfe, um soziale Partizipation und gleichberechtigte Teilhabe am Leben in der Gesellschaft zu fördern sowie die individuelle Selbstbestimmung zu ermöglichen. Im vorliegenden Beitrag wird auf Basis von 20 leitfadengestützten Interviews mit Personen aus dem Feld der Eingliederungshilfe dargelegt, wie die Praxis des Dokumentierens aussieht und unter welchen Umständen ggf. Informationen der Menschen mit Behinderungen zurückgehalten, d. h. nicht digital notiert werden. Dies soll Aufschluss darauf geben, welches Konzept von Privatheit die interviewten Personen vertreten. Zudem werden die Ergebnisse hinsichtlich der Datenschutzprinzipien diskutiert.
Diana Schneider

Open Access

Zum Konflikt zwischen Accessibility und Privacy
Zusammenfassung
Zunächst wird an konkreten Beispielen gezeigt, dass die digitale Welt für Menschen mit Behinderungen nicht problemlos zugänglich ist (Accessibility) und darüber hinaus unterschiedliche Konflikte zwischen Accessibility und Privacy bestehen. Zu den Konflikten tragen verschiedene Aspekte nicht hinreichender oder nicht vorhandener Accessibility wie Privacy bei. Die Ursachen für diese Situation liegen teilweise sehr früh und sehr tief in den Entwicklungsprozessen moderner Software und IT-Systeme, in mangelndem Bewusstsein wie fehlendem Wissen um entsprechende Anforderungen bei Entwickler:innen und Verantwortlichen. Eine Lösung dafür bietet der Europäische Standard EN 16234-1:2019 „e-Competence Framework (e-CF) – A common European Framework for ICT Professionals in all industry sectors“. In seiner neuesten Fassung werden unter anderem Accessibility und Privacy als „transversal aspects“ besonders hervorgehoben und alle IT-Fach- und Führungskräfte zu ihrer Berücksichtigung verpflichtet.
Irmhild Rogalla, Tilla Reichert

Fortentwicklung des Datenschutzrechts

Frontmatter

Open Access

Datenschutzrechtliche Gestaltungsmöglichkeiten jenseits der Ermächtigung des Individuums: Die Multi-Stakeholder-Datenschutz-Folgenabschätzung
Zusammenfassung
Die fortschreitende Digitalisierung umfasst immer mehr Bereiche des Alltagslebens. Die damit verbundenen Gefahren waren ein wesentlicher Grund für die Entstehung der Datenschutz-Grundverordnung (DS-GVO), mit der die Ermächtigung des Individuums verfolgt wurde. Ähnlich wie schon in der Vergangenheit in anderen Bereichen (etwa im Verbraucher- oder Umweltschutz), ist angesichts der komplexen Digitalisierungsprozesse in den letzten Jahren jedoch in zunehmendem Maße die Frage in den Vordergrund gerückt, ob und inwiefern sich ein wirksamer Datenschutz auf Grundlage eines individualistischen Konzepts in Form der Ermächtigung des Individuums realisieren lässt. Vor dem Hintergrund dieser Debatten diskutiert der vorliegende Beitrag die Herausforderungen, denen sich individualistische Datenschutz-Konzeptionen ausgesetzt sehen und anschließend anhand ausgewählter Teilbereiche des Datenschutzrechts Lösungsansätze, die über die Fokussierung auf das Individuum hinausgehen und die als eine Art Mittelweg zwischen individualistischen und kollektivistischen Ansätzen verstanden werden können. Im Zentrum der Gestaltungsvorschläge steht die sog. Multi-Stakeholder-Datenschutz-Folgenabschätzung, die gemeinsam mit weiteren überindividuellen Maßnahmen geeignet wäre, die Gefahren moderner Datenverarbeitungen in angemessener Weise zu adressieren.
Murat Karaboga

Open Access

Transparenz der polizeilichen Datenverarbeitung: Defizite und technische Lösungsansätze
Zusammenfassung
Dieser Beitrag untersucht aus einer rechts- und verwaltungswissenschaftlichen Perspektive Transparenzdefizite, die bei der Ausgestaltung der polizeilichen Datenerhebung und der weiteren Datenverarbeitung bestehen. Diese können nicht nur für die verdeckte Datenverarbeitung konstatiert werden, sondern auch bei der offenen Datenerhebung. Im Anschluss an diesen Befund werden mögliche Instrumente zur Steigerung von Transparenz analysiert.
Jan Fährmann, Hartmut Aden, Clemens Arzt

Open Access

Datenübertragbarkeit – Zwischen Abwarten und Umsetzen
Zusammenfassung
Mit der europäischen Datenschutzgrundverordnung wurde das Recht auf Datenübertragbarkeit eingeführt. Die Erwartungen an dieses neue Betroffenenrecht waren, dass es die informationelle Selbstbestimmung der Einzelnen stärken und Netzwerk-Effekte verringern kann. Basierend auf zwei qualitativen Studien mit Betroffenen und Unternehmen ziehen wir eine erste Bilanz. Unsere Ergebnisse zeigen, dass das Recht bisher in der Praxis kaum Relevanz hat. Aufgrund der geringen Nachfrage zögern Unternehmen, Schnittstellen bereitzustellen und Anfragen werden häufig per Hand beantwortet. Die Betroffenen wiederum sehen zwar theoretische Vorteile, aber Dienste, die den Import von Daten von Plattformen erlauben, sind rar und es besteht Skepsis gegenüber der Weitergabe umfangreicher Datensätze. Beide Gruppen sehen große Überschneidungen zwischen dem Recht auf Datenübertragbarkeit und dem Recht auf Auskunft. Für die Praxis scheint es daher sinnvoll, Hybridmodelle zu entwickeln, bei denen sowohl eine erklärende Auskunft als auch eine konfigurierbare Abrufmöglichkeit für die Daten bereitgestellt werden. Um in Zukunft die gewünschte Übertragung zwischen zwei Verantwortlichen zu ermöglichen, braucht es darüber hinaus Anreize zur Entwicklung von Schnittstellen sowie Vorgaben zu Formaten und Umfang.
Özlem Karasoy, Gülcan Turgut, Martin Degeling

Datenschutz durch Technikgestaltung

Frontmatter

Open Access

Digitale Selbstermächtigung. Hürden für Privatheit und Autonomie in einer algorithmisch konstruierten Wirklichkeit
Zusammenfassung
Digitalisierung und algorithmische Konstruktion der Gesellschaft orientieren sich (derzeit) einseitig vor allem an techno-ökonomischen und machtpolitischen Kriterien. Algorithmisierung und damit verbundene digitale Dynamiken verändern grundsätzliche Handlungs- und Strukturmuster, womit sich Fragen nach Privatheit und Autonomie der Nutzer:innen im Umgang mit Technik neu stellen. Im Beitrag werden Herausforderungen und Chancen digitaler Selbstermächtigung anhand von drei Dimensionen algorithmischer Konstruktion diskutiert: Algorithmen als Besitztümer, Algorithmen als Akteure und Algorithmen als Kontrollmittel. Sozial konstruierte Algorithmen agieren autonom, interagieren mit Nutzer:innen, sortieren und filtern für sie die Wirklichkeit, übernehmen gesellschaftliche Kontrollfunktionen. Selbstermächtigung im Bereich des Digitalen steht diesbezüglich nicht nur für eine Form der praktischen Befähigung, sondern schließt auch Reflexion und Bewertung des eigenen Handelns ein. Selbstermächtigung ist gleichzeitig an fremde Unterstützung gekoppelt und konstituiert sich in einem kollektiven Prozess.
Peter Biniok

Open Access

Zum Datenschutz gestupst? Gestaltungsorientierte Entwicklung von Privacy Nudges vor dem Hintergrund ethischer und rechtlicher Leitlinien
Zusammenfassung
Die Digitalisierung verändert unsere Gesellschaft, die Art wie wir miteinander kommunizieren und wie wir arbeiten. Dabei birgt Digitalisierung nicht nur Vorteile, sondern führt auch dazu, dass jedes Individuum durch sein Agieren in der digitalen Welt Datenspuren hinterlässt. Diese Daten werden gesammelt, aggregiert und ausgewertet, und das vielfach, ohne dass sich Individuen dessen bewusst sind. Hier kann das sogenannte Privacy Nudging genutzt werden, durch das Nutzende „angestupst“ werden, um ihr Verhalten so zu verändern, dass sie ihre eigenen Daten besser schützen. Bei der Gestaltung von Nudging Konzepten gibt es zahlreiche rechtliche, ethische und soziotechnische Hürden, die es zu berücksichtigen gilt. Hierzu existieren bisher keine einheitlichen Richtlinien und Empfehlungen. Entsprechend präsentiert der Beitrag eine integrative soziotechnische Gestaltungsperspektive für digitale privacy Nudges, indem Technik, Ethik und Recht nicht mehr nur isoliert betrachtet werden.
Sofia Marlena Schöbel, Sabrina Schomberg, Torben Jan Barev, Thomas Grote, Andreas Janson, Gerrit Hornung, Jan Marco Leimeister

Open Access

Conducting a Usability Evaluation of Decentralized Identity Management Solutions
Abstract
New approaches to identity management based on technologies such as blockchain and distributed ledgers are promoted as a chance to give users full control over their own identity data. Despite being often called the future of digital identity management, Decentralized Identity Management (DIdM) and Self-sovereign Identities (SSI) are still facing a number of challenges, usability being a major one: their concepts are too sophisticated for users and do not fit their mental models. We address this by conducting a study that analyses and evaluates the usability and practical applicability of some of the most advanced DIdM solutions. The results of the user tests reveal existing usability issues and outline the way they deprive end users of experiencing the entire range of claimed privacy and security benefits of these identity solutions.
Alina Khayretdinova, Michael Kubach, Rachelle Sellung, Heiko Roßnagel

Technische Ansätze

Frontmatter

Open Access

Ausprägungen von Uploadfiltern
Zusammenfassung
Uploadfilter sind in der jüngeren Vergangenheit Gegenstand von zahlreichen Diskussionen geworden, die teilweise verschiedene Aus-prägungen dieser Systeme vermischen und oft nur unzureichend auf die Herausforderungen und Limitierungen eingehen. In diesem Beitrag soll daher das Thema strukturiert werden, um die Möglichkeiten und Risiken, die bei einem Einsatz von Uploadfiltern entstehen, zu strukturieren. Diese Filter können entweder Inhalte wiedererkennen, was vergleichsweise einfach ist und niedrige Fehlerraten aufweist, oder sie sollen auch Ähnlichkeit erkennen können, wodurch die Fehler ansteigen. Wiedererkennen ist eine beispielsweise Aufgabe bei Urheberrechtsverletzungen, Ähnlichkeit bei Hate Speech. Die Fehlerraten reichen dabei vom Promille bei zu zweistelligen Prozenten und haben dadurch deutliche Auswirkungen auf die Praktikabilität und Auswirkungen der Lösungen. So kann ein autonomer Einsatz in sozialen Medien zu einer hohe Anzahl Fehleinschätzungen führen, was wiederum manuelle Kontrolle erfordert.
Martin Steinebach

Open Access

Modell der Reichweitenhierarchie: Gestaltungsdimensionen digitaler Souveränität
Zusammenfassung
Die gesetzgeberische Reichweite eines Staates ist die Voraussetzung zur Gewährleistung der Durchsetzung bestimmter Rechte. Die digitale Souveränität endet mit der Abgabe rechtlicher Durchsetzung. Falls Datensouveränität nicht gewährleistet werden kann, ergeben sich Problemfelder. Im folgenden Paper werden zunächst zwei der vorhandenen Problemfelder (Pattern of Life – Analyse und Industriespionage) erläutert und so die Notwendigkeit aufgezeigt, die einer digitalen Souveränität obliegt. Um diesen Problemen zu begegnen, wird ein Modell dargestellt, welches den notwendigen Unterbau zur Gewährleistung einer ausreichenden Reichweite gesetzlicher Initiativen im digitalen Raum beschreibt. Darauf aufbauend werden Handlungsempfehlungen gegeben, um die beschriebenen notwendigen Bedingungen zu realisieren.
Alexander Schäfer

Open Access

Let the Computer Say NO! The Neglected Potential of Policy Definition Languages for Data Sovereignty
Abstract
During interaction with today’s internet services and platform ecosystems, consumer data is often harvested and shared without their consent; that is, consumers seized to be the sovereigns of their own data with the proliferation of the internet. Due to the rapid and abundant nature of interactions in today’s platform ecosystems, manual consent management is impractical. To support development of semi-automated solutions for reestablishing data sovereignty, we investigate the use of policy definition languages as machine-readable and enforceable mechanisms for fostering data sovereignty. We conducted a realist literature review of the capabilities of policy definition languages developed for pertinent application scenarios (e.g., for access control in cloud computing). We consolidate extant literature into a framework of the chances and challenges of leveraging policy definition languages as central building blocks for data sovereignty in platform ecosystems.
Jan Bartsch, Tobias Dehling, Florian Lauf, Sven Meister, Ali Sunyaev

Open Access

Entwurfsmuster für die interdisziplinäre Gestaltung rechtsverträglicher Systeme
Zusammenfassung
Durch die Digitalisierung werden immer mehr Technologien entwickelt. Dabei gewinnt die soziotechnische Systementwicklung zunehmend an Bedeutung, in deren Rahmen nicht nur das technische System isoliert betrachtet wird, sondern auch der Nutzer und sein Umfeld. Insbesondere bei der Entwicklung rechtsverträglicher Systeme stehen Entwickler häufig aufgrund fehlenden rechtlichen Fachwissens vor großen Herausforderungen. Dies gilt insbesondere dann, wenn es um intelligente, selbstlernende Systeme geht. Diese Systeme sammeln, um die Qualität ihrer Dienste zu optimieren und Nutzerbedürfnissen zu entsprechen mithilfe leistungsfähiger Technologien große Mengen an personenbezogenen Daten, was Risiken für die informationelle Selbstbestimmung der Nutzer mit sich bringt. Um diesen Risiken entgegenzuwirken nutzen wir Anforderungs- und Entwurfsmuster. Ziel des Beitrags ist daher mittels eines multi-methodischen Ansatzes aufzuzeigen, welchen Beitrag interdisziplinäre Anforderungs- und Entwurfsmuster für die Entwicklung rechtsverträglicher und qualitativ hochwertiger KI-basierter Systeme leisten können. Um die Wirksamkeit der Muster zu untersuchen wurde mithilfe der Muster ein Lernassistent entwickelt und durch die Methode der Simulationsstudie evaluiert.
Ernestine Dickhaut, Laura Friederike Thies, Andreas Janson, Jan Marco Leimeister, Matthias Söllner

Open Access

Souveräne digitalrechtliche Entscheidungsfindung hinsichtlich der Datenpreisgabe bei der Nutzung von Wearables
Zusammenfassung
Wearables unterstützen ihre Nutzer:innen in unterschiedlichen Kontexten. Dabei erzeugen und nutzen sie eine Vielzahl von oft sehr persönlichen (Gesundheits-)Daten, ohne dass Nutzer:innen über die notwendigen Kenntnisse und Erfahrungen verfügen, um reflektierte Entscheidungen über die Nutzung dieser Daten treffen zu können. In der aktuellen Forschung fehlen Konzepte, die einen unreflektierten Datenaustausch vermeiden und reflektierte Entscheidungen unterstützen. In diesem Beitrag diskutieren wir gesellschaftliche Herausforderungen der digitalen Souveränität und zeigen mögliche Wege der Visualisierung persönlicher (Gesundheits-)Daten und der Interaktion mit einem System, das transparente Informationen über die Nutzung von Wearable-Daten liefert. Wir zeigen Möglichkeiten zur Visualisierung rechtlicher und datenschutzrechtlicher Informationen auf und diskutieren unsere Ideen für einen erlebbaren Datenschutz mit Gamifizierungskonzepten. Die Bereitstellung interaktiver und visueller Datenräume kann die Fähigkeit zur eigenständigen Selbstbestimmung für Datenpreisgaben stärken.
Arvid Butting, Niel Conradie, Jutta Croll, Manuel Fehler, Clemens Gruber, Dominik Herrmann, Alexander Mertens, Judith Michael, Verena Nitsch, Saskia Nagel, Sebastian Pütz, Bernhard Rumpe, Elisabeth Schauermann, Johannes Schöning, Carolin Stellmacher, Sabine Theis
Metadaten
Titel
Selbstbestimmung, Privatheit und Datenschutz
herausgegeben von
Michael Friedewald
Dr. Michael Kreutzer
Marit Hansen
Copyright-Jahr
2022
Electronic ISBN
978-3-658-33306-5
Print ISBN
978-3-658-33305-8
DOI
https://doi.org/10.1007/978-3-658-33306-5