Skip to main content
main-content

Inhaltsverzeichnis

Frontmatter

I. Beschreibende Statistik (elementare Stichprobentheorie)

Zusammenfassung
In der beschreibenden Statistik sollen Untersuchungsergebnisse übersichtlich dargestellt werden. Daraus werden Kenngrößen abgeleitet, die über die zugrunde liegenden Untersuchungsergebnisse möglichst viel aussagen sollen. Diese Maßzahlen erweisen sich später in der beurteilenden Statistik als sehr nützlich.
Karl Bosch

II. Zufallszahlen und Testverteilungen

Zusammenfassung
In der beschreibenden Statistik haben wir Meßwerte (Stichprobenwerte) in Tabellen und Schaubildern übersichtlich dargestellt und aus ihnen Lageparameter, Streuungsmaße sowie die (empirische) Verteilungsfunktion abgeleitet. Wie diese Meßwerte im einzelnen gewonnen wurden, spielte dabei keine Rolle. Wichtig ist nur, daß es sich um Meßwerte desselben Merkmals handelt. Bei der Begriffsbüdung fällt sofort die Analogie zur Theorie der Zufallsvariablen in der Wahrscheinlichkeitsrechnung auf. So wurden bereits gleiche Sprechweisen (z.B. „Verteilungsfunktion“ und „Varianz“) benutzt. Um Verwechslungen auszuschließen, haben wir jedoch in der Stichprobentheorie den Zusatz „empirisch“ hinzugefügt. Das Analogon zum (empirischen) Mittelwert ist der Erwartungswert einer Zufallsvariablen. Er wird manchmal auch kurz als „Mittelwert“ bezeichnet. Man hat für die jeweiligen verschiedenen Größen dieselbe Bezeichnung gewählt, da sie unter speziellen Voraussetzungen in einem gewissen Zusammenhang stehen. Diesen Zusammenhang verdeutlicht bereits die Tatsache, daß die Axiome der Wahrscheinlichkeiten auf den entsprechenden Eigenschaften der relativen Häufigkeiten fundieren.
Karl Bosch

III. Schätzwerte für unbekannte Parameter

Zusammenfassung
In diesem Kapitel werden Verfahren behandelt, mit denen Näherungswerte für unbekannte Parameter ermittelt werden können. Dabei werden außerdem Aussagen darüber gemacht, wie gut diese Näherungswerte sind. Bevor wir dazu eine allgemeine Theorie entwickeln, wollen wir im ersten Abschnitt einige typische Beispiele betrachten, bei denen bereits das allgemeine Vorgehen erkennbar wird.
Karl Bosch

IV. Testtheorie

Zusammenfassung
Im Abschnitt 6 wurden mit Konfidenzintervallen Aussagen über unbekannte Parameter gemacht. Mit Hilfe von Parametertests sollen in diesem Abschnitt ähnliche Aussagen abgeleitet werden. Dabei werden die sog. Irrtumswahrscheinlichkeiten bei den möglichen Aussagen im Vordergrund stehen.
Karl Bosch

V. Varianzanalyse

Zusammenfassung
In der Varianzanalyse soll untersucht werden, ob ein oder mehrere Faktoren Einfluß auf ein betrachtetes Merkmal haben. Als Beispiele seien erwähnt: Die Wirkung verschiedener Unterrichtsmethoden auf die Leistung eines Schülers, die Auswirkung verschiedener Futtermittel auf die Gewichtszunahme von Tieren, der Einfluß verschiedener Düngemittel oder der Bodenbeschaffenheit auf den Ertrag sowie die Reparaturanfälligkeit eines Autos in Abhängigkeit vom Produktionstag.
Karl Bosch

VI. Korrelationsanalyse

Zusammenfassung
In Abschnitt 2.2 wurde die (empirische) Kovarianz sxy und der Korrelationskoeffizient r für zweidimensionale Stichproben definiert. Diese Begriffe sollen in diesem Abschnitt auf zweidimensionale Zufallsvariable (Grundgesamtheiten) übertragen werden. Anschließend werden Schätzwerte und Tests für den Korrelationskoeffizienten behandelt.
Karl Bosch

VII. Regressionsanalyse

Zusammenfassung
Bei der Korrelationsrechnung (s. Abschnitt 11) werden die beiden untersuchten Merkmale X und Y gleichrangig (symmetrisch) behandelt, wobei als Maß für den (linearen) Zusammenhang der Korrelationskoeffizient p der zweidimensionalen Grundgesamtheit dient. In der Regressionsanalyse dagegen möchte man von einem Merkmal auf ein anderes schließen. Dazu wird i.a. ein Merkmalwert — meistens x — als unabhängige Variable vorgegeben. Mit Hilfe dieses Wertes x sollen dann Aussagen (Prognosen) über den zweiten Merkmalwert y gemacht werden. Der Idealfall wäre ein funktionaler Zusammenhang y = f (x). Da es sich jedoch um ein Zufallsexperiment handelt, kann nicht erwartet werden, daß zwischen den beiden Merkmalen eine vollständige funktionale Abhängigkeit in der Form y = f(x) existiert.
Karl Bosch

VIII. Verteilungsunabhängige Verfahren

Zusammenfassung
Bei den bisher behandelten Verfahren hatten wir vorausgesetzt, daß der Typ der Verteilungsfunktionen der betrachteten Zufallsvariablen bekannt ist (z.B. Binomial-, Poisson-,Normalverteilung), oder aber daß der Stichprobenumfang n hinreichend groß ist, um mit Hilfe der Grenzwertsätze Näherungsformeln zu erhalten. Für großes n ist jedoch die Stichprobenerhebung i.a. zeit- und kostenaufwendig, insbesondere, wenn der betreffende Gegenstand bei der Untersuchung unbrauchbar wird wie etwa bei der Bestimmung der Brenndauer einer Glühbirne. Daher ist es naheliegend, nach Verfahren zu suchen, bei denen weder die Verteilungsfunktion der entsprechenden Zufallsvariablen bekannt noch der Stichprobenumfang groß sein muß. Einige dieser sog. verteilungsunabhängigen Verfahren sollen hier behandelt werden. Für alle Verfahren dieses Abschnitts wird vorausgesetzt, daß die Grundgesamtheit stetig verteilt ist.
Karl Bosch

Backmatter

Weitere Informationen