Skip to main content
main-content

2022 | Buch

Statistische Datenanalyse im Journalismus

Fallstudien und wissenschaftliche Anforderungen zum Einsatz fortgeschrittener statistischer Methoden

herausgegeben von: Prof. Dr. Claus Weihs

Verlag: Springer Berlin Heidelberg

share
TEILEN
insite
SUCHEN

Über dieses Buch

Dieses Buch zeigt anhand von journalistischen Fallbeispielen, warum und wie fortgeschrittene statistische Analysemethoden eingesetzt werden können, um aussagekräftige journalistische Informationen aus Daten zu extrahieren. Gleichzeitig setzt das Buch einen Anforderungsrahmen für die datenjournalistische Arbeit bezüglich Datenkompetenz und -visualisierung, dem Einsatz von Algorithmen sowie daten-ethischen Anforderungen und der Überprüfung externer Studien.

Ziel ist es, die Qualität und Aussagekraft datenjournalistischer Arbeiten zu verbessern, welche, neben der angemessenen Erfassung und Aufbereitung von Daten, wesentlich von einer adäquaten Datenanalyse abhängen. Aber wie statistisch arbeiten Datenjournalist:innen heute eigentlich? Und wie statistisch können oder sollten sie arbeiten, um den Ansprüchen ihrer Leserschaft in Sachen Verständlichkeit gerecht zu werden, auch mit Blick auf deren unterschiedliches mathematisch-statisches Vorwissen? Das Buch zielt darauf ab, diese Fragen zu beantworten, indem es weiterführende statistische Methoden anhand von Fallstudien untersucht. Es verdeutlicht, warum diese Methoden auch im journalistischen Kontext oftmals problemangemessener sind und tiefer gehende Erkenntnisse liefern als vereinfachte Analysen und Basismethoden. Die Fallstudien decken dabei die wichtigsten statistischen Methoden ab: Verteilungen und Tests, Klassifikation, Regression, Zeitreihenanalyse, Clusteranalyse, Analyse von sequentiellen Daten ohne direkten Zeitbezug, Verwendung von Vorwissen und geplante Studien.

Inhaltsverzeichnis

Frontmatter

Einführung, Konzept und Grundlagen

Frontmatter
Kapitel 1. Einführung
Zusammenfassung
Dieses Kapitel motiviert das Buch und gibt eine kurze Inhaltsangabe. Außerdem werden kurz verschiedene datenanalytische Studientypen diskutiert sowie statistische Modelle und ihre Beurteilung.
Claus Weihs
Kapitel 2. CRISP-DM - Ein Konzept für die journalistische Datenanalyse?
Zusammenfassung
Das folgende Kapitel behandelt die Frage, inwiefern sich Methoden des industriellen Data Mining sinnvoll auf Arbeitsabläufe im Datenjournalismus übertragen lassen. Der Data-Mining-Standardprozess „CRISP-DM“ weist viele Gemeinsamkeiten mit für den Datenjournalismus typischen Arbeitsschritten auf. Ein wesentlicher Unterschied besteht jedoch in der Wahl der Analysemethoden: Im Datenjournalismus sind diese in der Regel wesentlich simpler als im Data Mining. Das zeigen sowohl die Literatur als auch Experteninterviews zum Thema. Eine starre Datenjournalismus-Leitlinie im Stil von „CRISP-DM“ sehen die meisten befragten Experten kritisch. Dafür sind die Projekte und Arbeitsabläufe zu divers. Damit ein inhaltlich richtiges und relevantes Endprodukt entsteht, wird zusätzlich vom Datenjournalisten viel eigenes Einschätzungsvermögen und Fachwissen verlangt, welches er in seiner Ausbildung – vielleicht mit Hilfe einer Leitlinie – erlernt und verinnerlicht hat.
Anna Behrend
Kapitel 3. Data Literacy
Zusammenfassung
Journalismus soll eine Welt erklären, die zunehmend von Daten getrieben wird. Kenntnisse der Datenerhebung und -analyse werden damit zur Basiskompetenz von Journalistinnen und Journalisten. Zentral ist dabei ein kritischer Umgang mit scheinbar objektiven Fakten. Dieser Beitrag zeigt, wie sich das Konzept der Data Literacy auf den Journalismus übertragen lässt und präsentiert erste Erfahrungen mit der Implementierung in die universitäre journalistische Bildung.
Katja Ickstadt, Henrik Müller, Henrike Weinert
Kapitel 4. Datengrafiken zwischen Nutzwert und Design
Was gelungene Visualisierungen im Datenjournalismus auszeichnet - und was dafür zu beachten ist.
Zusammenfassung
Im Journalismus können Datengrafiken die Berichterstattung auf vielfältige Weise bereichern. Damit dies gelingt, müssen sie valide und konzis erstellt sowie hochwertig und interessant gestaltet sein. Wissenschaftliche Gütekriterien werden sie dennoch in der Regel nicht erfüllen können, richten sie sich doch an ein diverses Publikum und werden viel flüchtiger rezipiert. Daher braucht es inhaltliche und optische Anreize. Denn für Personen ohne Expertise ist es mitunter herausfordernd, abstrakte Visualisierungen im Moment der Mediennutzung zu entschlüsseln. Diesen Kontext zu antizipieren, stellt daher eine weiteres wichtiges Qualitätsmerkmal dar.
Christina Elmer
Kapitel 5. Algorithmen im Fokus
Warum Datenjournalisten mit Algorithmen arbeiten - und sie in ihren Recherchen hinterfragen.
Zusammenfassung
Algorithmen beeinflussen den Journalismus zunehmend – als Werkzeug zur Verarbeitung und Darstellung von Datensätzen, aber auch als Gegenstand journalistischer Recherchen. Da Algorithmen immer mehr Bereiche der Gesellschaft prägen, müssen Redaktionen in der Lage sein, sie kritisch zu hinterfragen: Mit welchen Prinzipien lösen sie Probleme? Welche Personen haben sie mit welchem Ziel geschaffen? Und wie häufig kommen falsch positive und falsch negative Ergebnisse vor? Um diese Fragen zu beantworten, braucht es neue Fähigkeiten im Journalismus und neue Partnerschaften mit der Wissenschaft. Nicht selten bringen auch Experimente wertvolle Erkenntnisse - und helfen beim Erzählen.
Christina Elmer

Fallstudien

Frontmatter
Kapitel 6. (Bedingte) Verteilung und statistische Tests
Zusammenfassung
Bei einem Vergleich von Verteilungen ist es wichtig, sich mit Hilfe von bedingten Verteilungen auf den relevanten Teil einer Gesamtpopulation zu beschränken. Sonst sind Fehlschlüsse sehr wahrscheinlich. Verteilungsabstände können mit Hilfe von Abstandsmaßen in eine Reihenfolge gebracht werden. Diese Maße bieten auch die Möglichkeit, Hypothesen über Verteilungsabweichungen zu untersuchen.
Claus Weihs, Marcel Pauly
Kapitel 7. Zusammenhangsanalyse: Klassifikation
Zusammenfassung
Der Frage, unter welchen wirtschaftlichen und sozialen Bedingungen die AfD bevorzugt gewählt wird, gehen wir mit Hilfe der Konstruktion von Klassifikationsregeln nach. Dabei verwenden wir Entscheidungsbäume, weil sie einfach zu interpretieren sind. Schon einfache Bäume führen zu relativ zuverlässigen Vorhersagen.
Claus Weihs, Patrick Stotz
Kapitel 8. Zusammenhangsanalyse: Regression
Zusammenfassung
Die Identifikation wichtiger Einflussvariablen auf das Wahlergebnis einer Partei ist ein wichtiger Bestandteil jeder Wahlanalyse. Typische statistische Methoden sind, neben der Klassifikation, Korrelationsanalyse und Regression. In diesem Kapitel wird wiederum das journalistische Vorgehen der isolierten Betrachtung einzelner Einflüsse dem Vorgehen in der Statistik der gleichzeitigen Berücksichtigung aller möglichen Einflüsse gegenübergestellt. Dieses Mal warden Regressionsmodelle behandelt im Gegensatz zu Kapitel 7, wo Klassifikationsmodelle untersucht wurden.
Ana Moya, Marie-Louise Timcke, Claus Weihs
Kapitel 9. Zeitreihenanalyse: Modellentwicklung über die Zeit
Zusammenfassung
In diesem Kapitel stellen wir die wichtigsten Erkenntnisse einer täglich aktualisierten Zeitreihenanalyse der Corona (COVID-19) Infektionen von Frühjahr 2020 für Deutschland und Italien vor (1. Welle). Damit soll u. a. demonstriert werden, wie sich Methoden und Vorhersagen über die Zeit ändern können. Ziel ist die Vorhersage der Obergrenze der Anzahl Infektionen und des Zeitpunktes des Beginns derjenigen Phase des Infektionsverlaufs, wo die Infiziertenzahl kaum noch steigt (Stagnation). Die verwendeten Modelle werden diskutiert und die Veränderungen in der Vorhersage werden interpretiert.
Claus Weihs
Kapitel 10. Gruppenbildung: Clusteranalyse
Zusammenfassung
Das Bilden von Gruppen in Daten ist eine grundlegende Aufgabe der statistischen Datenanalyse. Bei unserem Beispiel von Zeitreihen der Platzierungen in den TOP 50 von Buchbestsellerlisten bereiten wir die Daten zusätzlich durch Glättung vor und interpretieren die gefundenen Cluster mit Hilfe von Klassifikationsverfahren. Auf der Basis dieser Analysen beantworten wir am Ende dieses Kapitels spezifische Fragen des Harenberg Verlags zu Bestsellerkarrieren wie z. B. „Gibt es DIE klassische Bestsellerkarriere?“.
Claus Weihs
Kapitel 11. Sequentielle Daten: Analyse von Radverkehrsnetzen
Zusammenfassung
In diesem Kapitel zeigen wir einen Vergleich verschiedener Netze von Fahrradrouten auf der Basis von GPS-Koordinaten. Ziel ist die Identifikation von Lücken im Radnetz der Stadt Berlin. Für eine Bestandsaufnahme der Nutzung des Fahrradnetzes wird ein Maß entwickelt, das die Übereinstimmung verschiedener Fahrradrouten quantifiziert. Mit Hilfe eines Dichtequotienten werden anschließend Bereiche in Berlin identifiziert, die viel mit dem Fahrrad befahren werden, aber wenig auf Radwegen.
Claus Weihs, Lilia Michailov
Kapitel 12. Datenerhebung: Verwendung von Vorwissen
Zusammenfassung
In dieser Studie werden Vorhersagebereiche der wöchentlichen Gesamtarbeitszeit von vollzeitbeschäftigten Universitätsprofessorinnen und -professoren aus Daten einer Umfrage aus dem Jahre 2016 und a-priori Informationen aus früheren Studien bestimmt. Die Ergebnisse von zwei unterschiedlichen statistischen Analysen werden verglichen. Dabei geht es ganz wesentlich darum zu zeigen, wie vor der Datenerhebung bekanntes Wissen (so genanntes a-priori Wissen) in einer Analyse mitberücksichtigt werden kann, wodurch die Repräsentativität erhöht wird, da die Ergebnisse nicht ausschließlich auf den Antworten der Teilnehmer der Umfrage basieren.
Claus Weihs, Tanja Hernández Rodríguez
Kapitel 13. Geplante Studien
Zusammenfassung
Dieses Kapitel demonstriert die Möglichkeiten statistischer Versuchsplanung in der journalistischen Wirkungsforschung.
Claus Weihs, Gerret von Nordheim

Qualitätsstandards

Frontmatter
Kapitel 14. Datenethik im Journalismus
Zusammenfassung
Fragen der Datenethik, die sich im Datenjournalismus stellen, lassen sich gut innerhalb bewährter ethischer Leitlinien bewerten, wenn Ähnlichkeiten zwischen Datenjournalismus und Datenwissenschaften erkannt und ausgenutzt werden. Es gibt wichtige Parallelen in den Aufgaben von Datenwissenschaftler*innen beim Erstellen von Reports zu denen von Journalist*innen. Darüber hinaus sind die Analysen von Datenwissenschaftler*innen, welche Journalist*innen als Information für ihre Artikel nutzen, ihrer Natur nach nicht anders als andere Quellen. Probleme der Datenethik für den Journalismus lassen sich deshalb anhand der relevanten Stellen des Pressekodex betrachten.
Der Schlüssel zu einem angemessenen Umgang liegt deshalb nach Meinung der Autor*innen darin, den Daten keine Sonderrolle in der journalistischen Arbeit zuzuweisen. Wie ein Interview, eine Reportage, eine Recherche ist jedes Datum, jede Analyse, jeder Report nichts weiter als eine Quelle! Mit diesem Ansatz wird im Abschnitt 14.3 auf die relevanten Ziffern des Pressekodex eingegangen. Zu jeder Ziffer wird anhand von Beispielen erläutert, wie Datenberichterstattung sich in den Rahmen des Kodex einfügt. Da das Buch während der COVID-19 Pandemie entstand und die datenbezogene Berichterstattung dabei einen bisher nicht erreichten Umfang annahm, stammen die meisten Beispiele aus der Pandemieberichterstattung.
Detlef Steuer, Ursula Garczarek
Kapitel 15. Qualitätsstandards: Checklisten als Hilfsmittel
Zusammenfassung
Die Bereitschaft und Fähigkeit von Journalisten - jenseits der Spezialisten aus Daten-, Wissenschafts- und Teilen des Wirtschaftsjournalismus -, sich mit Details von wissenschaftlichen Studien und Datensätzen vertraut zu machen, wird von Statistik-Experten tendenziell überschätzt. Dies mag beklagenswert erscheinen, verwundert aber insofern nicht, als der Journalistenberuf traditionell zunächst besondere Begabungen im Umgang mit kreativen Darstellungsformen, Sprache, Bildern und Tönen erfordert, und Doppelbegabungen, die diese mit mathematischen Fähigkeiten vereinen, eher selten sind. Eine erfolgversprechende Strategie, auch weniger wissenschaftsaffinen Journalisten dennoch ein Basiswissen über Studien und Statistik zu vermitteln, besteht in gestuften Handreichungen mit formalin Checklisten, die ohne große Vorkenntnisse und auch im hektischen Redaktionsalltag in die schnellen Arbeitsroutinen integriert werden können. Dieses Kapitel stellt entsprechende Checklisten vor, wie sie der Autor u.a. in einem internen Rechercheleitfaden für den WDR erarbeitet hat, auf dem auch Teile des folgenden Textes beruhen.
Holger Wormer
Kapitel 16. Daten und R-Programme
Zusammenfassung
In diesem Anhang werden Daten und R-Programme zu den Fallstudien in den Kapiteln 6 - 12 vorgestellt. Dabei werden die wichtigsten Daten und R-Programme, die dem Text zugrunde liegen, wiedergegeben. Damit sollte ein(e) Datenjournalist(in) die wesentlichen Ideen im Text selbst nachvollziehen können.
Claus Weihs
Backmatter
Metadaten
Titel
Statistische Datenanalyse im Journalismus
herausgegeben von
Prof. Dr. Claus Weihs
Copyright-Jahr
2022
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-64693-9
Print ISBN
978-3-662-64692-2
DOI
https://doi.org/10.1007/978-3-662-64693-9