Skip to main content

2001 | Buch

Grundkurs Statistik in den Sozialwissenschaften

Eine leicht verständliche, anwendungsorientierte Einführung in das sozialwissenschaftlich notwendige statistische Wissen

verfasst von: Volker Müller-Benedict

Verlag: VS Verlag für Sozialwissenschaften

insite
SUCHEN

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Was ist Statistik?
Zusammenfassung
Vor einigen Jahren haben viele in einer Gefahr geschwebt, von der sie vermutlich nichts gemerkt haben, weil es eine der typischen Gefahren war, die den schlechten Ruf der Statistik begründen:
25.7.92, Kölner Stadtanzeiger: „Im vergangenen Jahr erkrankten 115.000 Menschen an der Lebensmittelvergiftung durch Salmonellen“.
15.9.92, Westdeutsche Allgemeine: „Jedes fünfte Test-Ei enthielt Salmonellen... 200 Eier hatte die Universität Bochum untersucht“.
29.10.92, Rheinische Post: „Eine bundesweite Analyse von 6000 Proben ergab... in einem Fall Salmonellen in dem Dotter“ Ausgabe 6/1993, Der Spiegel: Titelgeschichte: „Die Hühner schlagen zurück.“ „In den alten Bundsländern hat sich von 1985 – 1992 die Zahl der amtlich registrierten Salmonellen-Vergiftungen nahezu versechsfacht, von rund 35.000 auf 200.000. Bei mehr als 90% aller Infektionen... wird die wahre Ursache vom Arzt nicht erkannt... Die wirkliche Zahl der Salmonellen-Opfer ist demnach seit 1985 von 300.000 auf zwei Millionen gestiegen“.
„Hamburgs Gesundheitsbehörde rechnet damit, dass möglicherweise jeder zehnte Bürger im Laufe des Jahres an einer Salmonellose erkrankt“. Das bedeutet bei 80 Mill. Einwohnern etwa 8 Millionen Erkrankte. (Ketteler 1997:40–42)
Wenn man diese Zeitungsmeldungen zusammennimmt, lag die Chance, an Salmonellen zu erkranken, in den Jahren 1992/93 zwischen 0,13% und 10%. Nach diesen Zahlensalat scheint die Frage berechtigt, ob es überhaupt möglich ist, die verschiedenen Untersuchungen und ihre Ergebnisse zu vergleichen. Liegt hier nicht ein Beispiel dafür vor, dass mit Statistik alles bewiesen werden kann?
Volker Müller-Benedict
Kapitel 2. Sozialwissenschaftliche Datensammlungen
Zusammenfassung
Wenn ein soziales Problem erforscht werden soll, werden Daten über dieses Problem erhoben. Sehr nützlich für die Erforschung ist es, wenn z.B. Daten aus früheren oder parallelen Forschungen zum selben Problem vorhanden sind. Dann können diese Daten mit den eigenen verglichen werden und daraus die eigenen Ergebnisse besser eingeschätzt werden. Neben den speziellen Daten eines Forschungsprojekts gibt es darüber hinaus soziale Umstände, die in fast jedem sozialwissenschaftlichen Forschungszusammenhang eine Rolle spielen und deshalb in fast jedem Projekt benötigt werden. Dazu gehören z.B. die Berufstätigkeit und das Einkommen, die soziale Schichtung, das politische Verständnis, die Familiensituation usw. Es ist deshalb ebenfalls sehr nützlich, wenn über diese übergreifenden sozialen Fragen regelmäßig aktuelle Daten vorhanden sind und bei einer zentralen Stelle gelagert werden.
Volker Müller-Benedict
Kapitel 3. Skalenniveau
Zusammenfassung
Statistische Auswertung baut auf Daten auf, die aus Beobachtungen gewonnen werden. Man kann auch dazu sagen, dass sie auf „Messungen“ beruht. Als erstes müssen deshalb einige Begriffe definiert werden, mit denen der Mess-Vorgang und die Daten weiter genauer beschreibbar sind.
Volker Müller-Benedict
Kapitel 4. Häufigkeiten
Zusammenfassung
Am Anfang jeder Auswertung steht eine Liste von Daten, die im Forschungsprozess erhoben worden sind, die sog. „Urliste“ oder die „Rohdaten“.
Volker Müller-Benedict
Kapitel 5. Lageparameter
Zusammenfassung
In diesem Kapitel wird damit begonnen, die Häufigkeitsverteilung von Daten mit Hilfe von Kennzahlen, sog. Parametern, zu beschreiben.
Volker Müller-Benedict
Kapitel 6. Streuungen
Zusammenfassung
Im vorangehenden Teil wurden Parameter, die die Häufung der Werte beschreiben, definiert. Hier geht es um Parameter, die die Streuung der Werte kennzeichnen. Mit beiden Angaben zusammen kann man sich schon ein ungefähres Bild einer Verteilung machen. Streuungs-Parameter sind Kennwerte, die die „Flachheit“ der Verteilung beschreiben: je größer der Parameter, desto „flacher“ die Verteilung. Dabei spielt der Vergleich der Häufigkeiten von Ausprägungen in bezug auf ihre Lage eine Rolle: sind z.B. links „mehr“ Werte als rechts oder in der Mitte? Das bedeutet, dass alle Streuungsmaße nur für mindestens Ordinalskalenniveau allgemeingültig verwendet werden können, da nominalskalierte Ausprägungen nur bis auf Ungleichheit definiert sind. Wenn man etwa die Reihenfolge der Konfessionen im Balkendiagramm (Abbildung 4.1) ändert — eine für nominalskalierte Daten erlaubte Operation — erhält man ein „breiteres“ Balkendiagramm und damit veränderte Streuungswerte. Damit sind Streuungsparameter für nominalskalierte Daten nicht eindeutig und deshalb nicht geeignet.
Volker Müller-Benedict
Kapitel 7. Die Normalverteilung und andere theoretische Verteilungen
Zusammenfassung
Nachdem in den letzten Abschnitten die Beschreibung empirisch erhobener Datensätze behandelt wurde, werden die nächsten beiden Abschnitte statistische Theorie behandeln. Diese Theorie ist aus folgenden Gründen notwendig:
1.
Zur Bestimmung der Möglichkeit und Genauigkeit induktiver Schlüsse (Inferenz-Statistik).
I.A. können nicht alle Personen befragt oder alle Objekte untersucht werden, über die auch eine Aussage gemacht werden soll, sondern nur eine kleine Zahl. Dann besteht das Problem eines induktiven Schlusses von einer kleinen Auswahl auf die Gesamtheit. Um diesen Schluss wissenschaftlich und nachvollziehbar zu gestalten, müssen die allgemeinen Grundlagen der Möglichkeiten eines solchen Schlusses theoretisch ermittelt werden
 
2.
Um theoretische, statistische Modelle bi- und multivariabler Verteilungen mit empirisch vorgefundenen Verteilungen vergleichen und damit Rückschlüsse auf real vorhandene Abhängigkeiten vornehmen zu können.
Das Erscheinungsbild der Daten, ihre Häufigkeitsverteilung, wird i.A. durch bestimmte real bestehende Abhängigkeiten erzeugt, d.h. es gibt meistens Ursachen dafür, warum Daten so verteilt sind und nicht anders. Spezielle Zusammenhänge von Ursachen und Wirkungen führen ganz ohne Daten zu Aussagen darüber, welche Art von Verteilungen diese Zusammenhänge erzeugen. Es ist deshalb nützlich, zunächst theoretisch Zusammenhänge zwischen bestimmten Ursachenkomplexen und den von ihnen erzeugten Häufigkeitsverteilungen zu bestimmen. Dann kann man einerseits aus empirischen Häufigkeitsverteilungen im Umkehrschluss auf Ursachenkonstellationen und andrerseits aus bestimmten vorliegenden Ursachenkomplexen auf bestimmte zu erwartende Verteilungen schließen.
 
Volker Müller-Benedict
Kapitel 8. Wahrscheinlichkeiten
Zusammenfassung
Im vorigen Kapitel wurden drei spezielle Häufigkeitsverteilungen dargestellt, nämlich theoretische Häufigkeitsverteilungen von Stichproben-Parametern. Um diese Stichproben-Verteilungen angeben zu können, war es notwendig, dass die wahren Parameter der Grundgesamtheit bekannt sind. Das ist nun aber in der sozialwissenschaftlichen Empirie selten der Fall, sondern man hat fast immer nur die Stichprobe vorliegen. Man muss also das umgekehrte Vorgehen wählen: die wahren Parameter aus der Stichprobe zu schätzen.
Volker Müller-Benedict
Kapitel 9. Konfidenzintervalle
Zusammenfassung
In diesem Abschnitt wird dargestellt, wie mit den in den beiden vorangehenden Teilen bereitgestellten Mitteln — den theoretischen Verteilungen und dem Wahrscheinlichkeits-Begriff — der Induktionsschluss von den Parametern der Stichprobe auf die wahren Parameter der Grundgesamtheit vollzogen werden kann.
Volker Müller-Benedict
Kapitel 10. Nominalskalierte Zusammenhangsmaße
Zusammenfassung
Bisher wurden im wesentlichen zwei Themen behandelt: 1. die Parameter eines einzigen Merkmals, also einer univariaten Verteilung, berechnet, und 2. statistische Modelle berechnet, mit denen man abschätzen kann, wie genau eine Verallgemeinerung ist, die diese an einer Stichprobe gewonnenen Parameter auf eine Population insgesamt überträgt. Im folgenden wird der Zusammenhang zwischen zwei Merkmalen Thema sein. Ein Zusammenhang zwischen sozialen Merkmalen festzustellen, ist der bei weitem häufigste Grund, aus dem Daten erhoben und statistische Verfahren auf sie angewendet werden. Empirische Untersuchungen möchten oft nicht nur feststellen, wie verbreitet ein bestimmtes Merkmal ist, sondern vor allem, welche Ursachen für seine Verbreitung sorgen. Als Beispiele seien genannt eine Untersuchung über Langzeitarbeitslose, die feststellen will, welche Bevölkerungsgruppen vor allem von Langzeitarbeitslosigkeit betroffen sind, oder eine Untersuchung über Rechtsextremismus, die feststellen will, welche persönlichen und sozialen Umstände damit zusammenhängen, dass ein Mensch Rechtsextremist wird.
Volker Müller-Benedict
Kapitel 11. Ordinalskalierte Zusammenhangsmaße
Zusammenfassung
In diesem Abschnitt geht es darum, wie der Zusammenhang zwischen zwei Merkmalen gemessen werden kann, wenn sie beide Ordinalskalenniveau besitzen. Die dafür geeigneten Maßzahlen heißen auch Rangkorrelationsmaße.
Volker Müller-Benedict
Kapitel 12. Korrelation und Regression
Zusammenfassung
In diesem Kapitel werden Zusammenhangsmaße für zwei metrische Merkmale behandelt. Bei den Zusammenhangsmaßen für kategoriale Daten aus den vorangehenden Kapiteln gab es eine Reihe von verschiedenen Maßen, unter denen, je nach dem Erkenntnisinteresse, eine Auswahl getroffen werden musste. Dieses Problem entfällt bei metrischen Daten, hier gibt es nur die zwei Maße Korrelation r und Determinationskoeffizient R2, die eine ähnliche inhaltliche Interpretation besitzen.
Volker Müller-Benedict
Backmatter
Metadaten
Titel
Grundkurs Statistik in den Sozialwissenschaften
verfasst von
Volker Müller-Benedict
Copyright-Jahr
2001
Verlag
VS Verlag für Sozialwissenschaften
Electronic ISBN
978-3-322-97099-2
Print ISBN
978-3-531-13635-6
DOI
https://doi.org/10.1007/978-3-322-97099-2