Skip to main content
Top

2019 | OriginalPaper | Chapter

Computational Propaganda: Einsatz von Algorithmen zur Beeinflussung der öffentlichen Meinung

Author : Kerstin Liesem

Published in: Der Mensch im digitalen Zeitalter

Publisher: Springer Fachmedien Wiesbaden

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Sowohl im US-Präsidentschaftswahlkampf als auch im Vorfeld des BREXIT-Votums in Großbritannien im Jahre 2016 wurden algorithmengesteuerte Computerprogramme, sogenannte Social Bots, zur Stimmungsmache eingesetzt. Der vorliegende Beitrag diskutiert zunächst die Frage, ob Kommentare, die von Social Bots generiert wurden, von der Meinungsfreiheit nach Art. 5 Abs. 1 des deutschen Grundgesetzes (GG) geschützt sind. Daran anschließend beschäftigt sich der Beitrag mit den ethischen Implikationen einer algorithmengesteuerten Kommunikation und ihrem Einfluss auf die conditio humana. Abschließend wird analysiert, welchen Spielraum der Gesetzgeber hat, um gegen (potenzielle) Verzerrungen der öffentlichen Meinung durch Social Bots vorzugehen.

Dont have a licence yet? Then find out more about our products and how to get one now:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Footnotes
1
Forscher der University of British Columbia in Vancouver/Kanada beschäftigten sich bereits im Jahr 2011 wissenschaftlich mit dem Phänomen Social Bots (Boshmaf et al., S. 93–102).
 
2
Der Begriff Filter Bubbles geht auf den Internetaktivist Eli Pariser zurück. Er entwarf das Szenario, dass Nutzern von Suchmaschinen und Sozialen Netzwerken nur Informationen angezeigt würden, die auf ihre eigenen Vorlieben zugeschnitten seien und so ihre eigenen Meinungen und Einstellungen bestärkten. Die Nutzer befänden sich somit in einer Filterblase, in der sie mit Meinungen, die von der eigenen konvergierten, nicht konfrontiert würden (zum Begriff der Filter Bubbles, Pariser 2011). Allerdings spielte das Phänomen im Sozialen Netzwerk Facebook nach einer Studie der Süddeutschen Zeitung im deutschen Bundestagswahlkampf im Jahr 2017 keine Rolle (Hurtz und Tanriverdi 2017). Hermetisch abgeschottete Filterblasen von Anhängern der einzelnen Parteien konnten nicht nachgewiesen werden. Nach Auswertung von einer Million öffentlicher Facebook-Likes kam die Süddeutsche Zeitung zu dem Ergebnis, dass es vielmehr „spinnennetzartige“ Verbindungen zwischen fast allen Milieus um die Parteien gebe. Allein die Sphäre der AfD sei vergleichsweise isoliert.
 
3
Der Begriff Echo Chambers bezeichnet einen abgegrenzten Raum, in dem Meinungen stetig widerhallen und so verstärkt werden.
 
4
Wegen des erheblichen Manipulationspotenzials hatten sich die Parteien dafür ausgesprochen, keine Social Bots im deutschen Bundestagswahlkampf 2017 einsetzen zu wollen. Trotzdem hat ein Bundestagskandidat, der für die Partei „Freie Wähler“ antrat, Social Bots in seinem Wahlkampf eingesetzt – wie das ARD-Politmagazin report München aufdeckte (vgl. Mader 2017). Forscher der Universität Münster hatten – wie Report München berichtete – im Rahmen des Projekts PropStop den Fall näher untersucht und herausgefunden, dass der Bundestagskandidat auf diese Weise viele hundert Nachrichten verbreitet hat.
 
5
Allerdings ist die Studie von Botswatch umstritten. So kritisierte beispielsweise Netzpolitik.org, dass aus der Studie weder etwas über die Methodik („Was ist ein Bot?“) zu erfahren sei noch zu der Frage, wie groß der tatsächliche Einfluss von Bots auf die Debatte über den UN-Migrationspakt sei (Reuter 2018). Auch der Datenspezialist Luca Hammer hat die Studienergebnisse kritisch unter die Lupe genommen und auf seinem Twitter-Account seine kritische Bewertung geteilt. Bei einer Stichprobe mit dem Bot-Analysetool Hoaxy konnte er auf dem Hashtag #migrationspakt lediglich sechs Prozent mögliche Bots identifizieren. Diese hätten darüber hinaus keinen signifikanten Einfluss auf die Debatte gehabt (Reuter 2018).
 
Literature
go back to reference Beam, M. A. (2014). Automating the news: How personalized news recommender system design choices impact news reception. Communication Research, 41 (8), 1019–1041.CrossRef Beam, M. A. (2014). Automating the news: How personalized news recommender system design choices impact news reception. Communication Research, 41 (8), 1019–1041.CrossRef
go back to reference Boshmaf, Y. et al. (2011). The Socialbot Network. When Bots socialize for fame and money. Proceedings of the 27th Annual Computer Security Applications Conference, 93–102. Boshmaf, Y. et al. (2011). The Socialbot Network. When Bots socialize for fame and money. Proceedings of the 27th Annual Computer Security Applications Conference, 93–102.
go back to reference Cornils, M., Liesem, K. (2018). Stellungnahme des Mainzer Medieninstituts Stellungnahme zum Diskussionsentwurf eines Medienstaatsvertrages der Rundfunkkommission der Länder, 19–21. Cornils, M., Liesem, K. (2018). Stellungnahme des Mainzer Medieninstituts Stellungnahme zum Diskussionsentwurf eines Medienstaatsvertrages der Rundfunkkommission der Länder, 19–21.
go back to reference Drexl, J. (2017). Bedrohung der Meinungsvielfalt durch Algorithmen (2017). Wie weit reichen die Mittel der Medienregulierung. Zeitschrift für Urheber- und Medienrecht 7/2017, 529–543. Drexl, J. (2017). Bedrohung der Meinungsvielfalt durch Algorithmen (2017). Wie weit reichen die Mittel der Medienregulierung. Zeitschrift für Urheber- und Medienrecht 7/2017, 529–543.
go back to reference Hagendorff, T. (2019). Rassistische Maschinen? Übertragungsprozesse von Wertorientierungen zwischen Gesellschaft und Technik. 121 – 134. In: Rath, M., Krotz, F., & Karmasin, M. (Hrsg.), Maschinenethik, Normative Grenzen autonomer Syteme, 35 – 56. Wiesbaden: Springer VS.CrossRef Hagendorff, T. (2019). Rassistische Maschinen? Übertragungsprozesse von Wertorientierungen zwischen Gesellschaft und Technik. 121 – 134. In: Rath, M., Krotz, F., & Karmasin, M. (Hrsg.), Maschinenethik, Normative Grenzen autonomer Syteme, 35 – 56. Wiesbaden: Springer VS.CrossRef
go back to reference Howard, P., Kollanyi, B. (2016). Bots, #StrongerIn, and #Brexit: Computational Propaganda during the UK-EU-Referendum. Comprop, Research Note, 1 – 6. Howard, P., Kollanyi, B. (2016). Bots, #StrongerIn, and #Brexit: Computational Propaganda during the UK-EU-Referendum. Comprop, Research Note, 1 – 6.
go back to reference Just, N., Latzer, M. (2017). Governance by Algorithms: Reality Construction by Algorithmic Selection on the Internet. Media, Culture & Society, 39 (2), 238–258.CrossRef Just, N., Latzer, M. (2017). Governance by Algorithms: Reality Construction by Algorithmic Selection on the Internet. Media, Culture & Society, 39 (2), 238–258.CrossRef
go back to reference Kitchin, R. (2014). Big Data, new epistemologies and paradigm shifts. Big Data Society April–June 2014, 1–12. Kitchin, R. (2014). Big Data, new epistemologies and paradigm shifts. Big Data Society April–June 2014, 1–12.
go back to reference Latzer, M., Gewinner, J., Hollnbuchner, K., Just, N., & Saurwein, F. (2014). Algorithmische Selektion im Internet: Ökonomie und Politik automatisierter Relevanzzuweisung in der Informationsgesellschaft. Forschungsbericht. Abteilung Medienwandel & Innovation, Universität Zürich, IPMZ. Latzer, M., Gewinner, J., Hollnbuchner, K., Just, N., & Saurwein, F. (2014). Algorithmische Selektion im Internet: Ökonomie und Politik automatisierter Relevanzzuweisung in der Informationsgesellschaft. Forschungsbericht. Abteilung Medienwandel & Innovation, Universität Zürich, IPMZ.
go back to reference Milker, J. (2017). „Social Bots“ im Meinungskampf. Zeitschrift für Urheber- und Medienrecht 3/2017, 216–222. Milker, J. (2017). „Social Bots“ im Meinungskampf. Zeitschrift für Urheber- und Medienrecht 3/2017, 216–222.
go back to reference Murthy, D., Powell, A., Tinati, R., Anstead, N., Carr, L., Halford, S., & Weal, M. (2016). Automation, Algorithms, and Politics| Bots and Political Influence: A Sociotechnical Investigation of Social Network Capital. International Journal Of Communication, 10, 4952–4971. Murthy, D., Powell, A., Tinati, R., Anstead, N., Carr, L., Halford, S., & Weal, M. (2016). Automation, Algorithms, and Politics| Bots and Political Influence: A Sociotechnical Investigation of Social Network Capital. International Journal Of Communication, 10, 4952–4971.
go back to reference Neyland D. (2016). Bearing account-able witness to the ethical algorithmic system. Science, Technology and Human Values, 41 (1), 50–76.CrossRef Neyland D. (2016). Bearing account-able witness to the ethical algorithmic system. Science, Technology and Human Values, 41 (1), 50–76.CrossRef
go back to reference Pariser, E. (2011). The Filter Bubble: What the Internet is Hiding from You. New York: Penguin Press. Pariser, E. (2011). The Filter Bubble: What the Internet is Hiding from You. New York: Penguin Press.
go back to reference Pasquale, F. (2015). The Black Box Society. The Secret Algorithms That Control Money and Information. Harvard University Press.CrossRef Pasquale, F. (2015). The Black Box Society. The Secret Algorithms That Control Money and Information. Harvard University Press.CrossRef
go back to reference Saurwein, F., Just, N., & Latzer, M. (2015). Governance of Algorithms: Options and Limitations. Info, 17 (6), 35–49.CrossRef Saurwein, F., Just, N., & Latzer, M. (2015). Governance of Algorithms: Options and Limitations. Info, 17 (6), 35–49.CrossRef
go back to reference Saurwein, F. (2019). Automatisierung, Algorithmen, Accountability – Eine Governance Perspektive. In: Rath, M., Krotz, F.,& Karmasin, M. (Hrsg.), Maschinenethik, Normative Grenzen autonomer Systeme, 35–56. Wiesbaden: Springer VS.CrossRef Saurwein, F. (2019). Automatisierung, Algorithmen, Accountability – Eine Governance Perspektive. In: Rath, M., Krotz, F.,& Karmasin, M. (Hrsg.), Maschinenethik, Normative Grenzen autonomer Systeme, 35–56. Wiesbaden: Springer VS.CrossRef
go back to reference Ziewitz, M. (2016). Governing Algorithms: Myth, Mess, and Methods. Science, Technology & Human Values, 41 (1), 3–16.CrossRef Ziewitz, M. (2016). Governing Algorithms: Myth, Mess, and Methods. Science, Technology & Human Values, 41 (1), 3–16.CrossRef
Metadata
Title
Computational Propaganda: Einsatz von Algorithmen zur Beeinflussung der öffentlichen Meinung
Author
Kerstin Liesem
Copyright Year
2019
DOI
https://doi.org/10.1007/978-3-658-26460-4_9