Skip to main content
main-content

Über dieses Buch

Dieses Buch umfasst genau den Stoff, der typischerweise in Klausuren zu Einführungsvorlesungen "Statistik" an wirtschaftswissenschaftlichen Fachbereichen abgeprüft wird. Es enthält mehr als 100 ehemalige Klausuraufgaben mit Lösungen auf der Verlagsseite, die das Klausurtraining erleichtern sollen. Weiterhin finden sich über 60 vollständig durchgerechnete und ausformulierte Beispiele und Fallstudien.

Inhaltsverzeichnis

Frontmatter

1. Einführung

Die Statistik hat einen schlechten Ruf. Tatsächlich aber betreiben wir alle täglich Statistik, wenn wir Erfahrungswerte zu Gesetzmäßigkeiten oder Tendenzaussagen verallgemeinern. Wie steht es um den Wahrheitsgehalt solcher Aussagen und Überzeugungen? Oder genauer: Wie groß ist die Wahrscheinlichkeit, dass sie zutreffen? Dadurch unterscheidet sich die Statistik als wissenschaftliche Methode von der Kaffeesatzleserei: Bei statistisch fundierten Aussagen versuchen wir, den Grad der Unsicherheit zu quantifizieren. Aus einer Reihe von beobachteten Einzelfällen, aus einer Stichprobe, versuchen wir, auf ein zugrunde liegendes Muster zu schließen. Einen solchen Schluss nennt man auch Induktion. Vor dem statistischen, induktiven Schluss steht häufig eine Deskription (Beschreibung) der Daten, dann sprechen wir von deskriptiver Statistik.
Uwe Hassler

2. Beschreibende Methoden univariater Datenanalyse

Nach der Klärung einiger Grundbegriffe werden wir Häufigkeitsverteilungen, Lagemaße und Boxplots kennenlernen, die allgemein geeignet sind, in Daten vorhandene Information zu verdichten. Eine solche Informationsverdichtung ist üblicherweise der erste Schritt zu einem Schluss auf unbekannte Eigenschaften.
Uwe Hassler

3. Weiterführende Methoden und Zusammenhangsanalysen

In diesem Kapitel werden einige Verfahren behandelt, die über eine elementare Charakterisierung von Eigenschaften eines Datensatzes hinausgehen. Insbesondere werden wir in den beiden letzten Abschnitten einen ersten Schritt in Richtung Zusammenhangsmessung bei bivariaten Daten (Beobachtungspaaren) unternehmen.
Uwe Hassler

4. Wahrscheinlichkeitsrechnung

Statistische Verfahren werden typischerweise verwendet, um von einer Stichprobe auf die Grundgesamtheit zu schließen. Interessiert ist man eigentlich an der Grundgesamtheit, aber oft lässt diese sich nicht in vollem Umfang beobachten. Eine Totalerhebung der Grundgesamtheit kann zu aufwendig sein (weil zu zeitintensiv oder zu kostspielig) oder auch technisch unmöglich (z. B. im Fall einer Verkehrskontrolle, bei welcher der Anteil des Alkohols im Blut einer Person gemessen werden soll). Deshalb werden oft nur Stichproben gezogen. Dabei ist darauf zu achten, dass die Stichprobe repräsentativ für die Grundgesamtheit ist und zufällig erhoben wird. Natürlich ist dann der statistische Schluss von der Stichprobe auf die Grundgesamtheit mit Unsicherheit behaftet. Wie kann diese Unsicherheit quantifiziert werden? Wie groß muss der Stichprobenumfang sein, damit die Unsicherheit innerhalb vorgegebener Grenzen bleibt? Die Beantwortung solcher Fragen verlangt Grundbegriffe der Wahrscheinlichkeitsrechnung als Fundament für die mathematische Erfassung des Zufalls.
Uwe Hassler

5. Zufallsvariablen und Verteilungen

In vielen Fällen ist man nicht an den eigentlichen Ergebnissen eines Zufallsvorgangs interessiert, sondern eher an Zahlen wie Gewinn oder Verlust, die mit den Ergebnissen verbunden sind. Solche Zufallsvariablen sind die theoretischen Entsprechungen der Merkmale \(X\) aus Kap. 2. Daher werden auch die dort eingeführten empirischen Lage- und Streuungsmaße nun ihre theoretischen Entsprechungen erhalten. Dabei werden wir wieder den diskreten Fall vom stetigen Fall unterscheiden und auch das Konzept der Verteilungsfunktion theoretisch neu auflegen.
Uwe Hassler

6. Verteilungsmodelle

Es sollen nun zuerst einige wichtige, in der Praxis häufig eingesetzte Verteilungsmodelle eher überblicksartig betrachtet werden. Insbesondere geben wir die Formeln für Erwartungswert und Varianz an. Dann widmen wir uns ausführlicher speziell der für das Weitere grundlegenden Normalverteilung und ihrer bivariaten Verallgemeinerung.
Uwe Hassler

7. Summen und Mittel von Stichprobenvariablen

Das arithmetische Mittel ist aus inhaltlicher Sicht von zentraler Bedeutung. Aber auch aus statistischer Sicht ist es von großer Wichtigkeit, weil das arithmetische Mittel näherungsweise einer Normalverteilung folgt. Dieser sog. zentrale Grenzwertsatz begründet die herausragende Stellung der Normalverteilung in der Statistik trotz des Umstandes, dass viele ökonomische Daten für sich genommen gar nicht normalverteilt sind. Daher werden wir auf den zentralen Grenzwertsatz in den nachfolgenden Kapiteln immer wieder zurückgreifen.
Uwe Hassler

8. Parameterschätzung

Mit der Ziehung von Stichproben und der Bildung bestimmter Stichprobenfunktionen möchte man möglichst gute Schlüsse über die Grundgesamtheit ziehen. Dabei unterstellt man für ein interessierendes Merkmal eine Verteilungsannahme. Unbekannt ist hingegen der Wert der Parameter der Verteilung, z. B. das \(\mu\) und \(\sigma\) bei Annahme der Normalverteilung, das \(\lambda\) bei einer Poisson-Verteilung, oder auch die Korrelation zwischen zwei Merkmalen. Der Schluss aus einer Stichprobe („Empirie“) auf Parameter eines unterstellten (Verteilungs-) Modells der Grundgesamtheit („Theorie“) macht das Wesen der induktiven Statistik aus.
Uwe Hassler

9. Konfidenzintervalle

Selbst wenn \(\widehat{\theta}\) ein „sehr guter“ Schätzer für \(\theta\) ist, so wird er den wahren Parameterwert in endlichen Stichproben nur mit Wahrscheinlichkeit null exakt treffen. Im Allgemeinen weiß man nicht, wie weit die Schätzung vom wahren Wert entfernt liegt. Nach dem Prinzip „Man trifft eine Fliege kaum mit einer Stecknadel, sondern eher mit einer Fliegenklatsche“ erfolgt der Übergang von der Punktschätzung zur Intervallschätzung: Man gibt einen Bereich an, der den unbekannten Parameterwert mit einer vorgegebenen Wahrscheinlichkeit überdeckt.
Uwe Hassler

10. Statistische Tests

Die bisherige Betrachtung bezog sich auf die Schätzung von Parametern (Punktschätzung und Intervallschätzung). Nun sollen Vermutungen, Behauptungen oder Hypothesen über Verteilungen oder Parameter anhand von Stichproben untersucht werden. Im Grunde geht es darum, bei Entscheidungen unter Unsicherheit eben die Unsicherheit zu quantifizieren. Diesen Bereich der Statistik nennt man (statistisches) Testen. Natürlich kann man seine Entscheidungen auch aus dem Bauch heraus fällen, und damit muss man nicht einmal schlecht liegen. Wenn es aber darum geht, Entscheidungen zu rechtfertigen, einem Geldgeber oder einer Vorgesetzten gegenüber, dann ist es unerlässlich, objektiv nachvollziehbare Kriterien heranzuziehen, und genau dies leistet die Statistik.
Uwe Hassler

11. Weitere spezielle Testprobleme

In diesem Kapitel untersuchen wir als Erstes Tests auf Gleichheit von Erwartungswerten, wobei es sich um Erwartungswerte aus einer verbundenen Stichprobe oder aus zwei oder mehreren unabhängigen Stichproben handeln kann. Als Zweites wenden wir uns einem Test zu, mit dem man Verteilungsannahmen über Stichprobenvariablen überprüfen kann. Letztlich werden Zusammenhangsanalysen in Form von Unabhängigkeits- und Unkorreliertheitstests vorgestellt. Um das Signifikanzniveau \(\alpha\) kontrollieren zu können, unterstellen wir wieder eine Zufallsstichprobe, d. h., die Stichprobenvariablen sind unabhängig und identisch verteilt.
Uwe Hassler

12. Das lineare Regressionsmodell

In diesem Kapitel werden die Bereiche Schätzen und Testen miteinander verbunden. Es soll die metrische Variable \(y\) in Abhängigkeit von der Variablen \(x\) untersucht werden. Dabei beschränken wir uns auf lineare Abhängigkeiten – daher auch der Begriff „Lineare Regression“. Die Annahme der Linearität hat ihren Vorteil in der Einfachheit und ist auch nicht unrealistisch, da viele Zusammenhänge zumindest näherungsweise linear sind oder durch geeignete Transformationen linearisiert werden können. Das Ziel der linearen Regression ist die Beschreibung der Struktur eines Zusammenhangs von zwei oder mehr Merkmalen aus einer verbundenen Stichprobe, die Überprüfung von theoretischen Zusammenhängen und die Prognose von Werten. Nach einer ausführlichen Diskussion der Einfachregression werden wir abschließend das Modell mit mehreren erklärenden Variablen betrachten. Die erklärenden Variablen werden in diesem Kontext oft Regressoren genannt. Das lineare Regressionsmodell ist das Instrument, welches in der sog. Ökonometrie und empirischen Wirtschaftsforschung am häufigsten zum Einsatz kommt.
Uwe Hassler

13. Tabellen zu Verteilungsfunktionen und Quantilen

Die Tabelle enthält die Werte der Verteilungsfunktion für ausgewählte Werte von \(p\), wobei die Unterteilung in Blöcke durch verschiedene \(n\) erfolgt.
$$\displaystyle F(x)=\mathrm{P}(X\leq x)=\sum_{i=0}^{x}\binom{n}{i}\,p^{i}\,(1-p)^{n-i}$$
Die Tabelle enthält die Werte der Verteilungsfunktion für ausgewählte Werte von \(\lambda\).
$$\displaystyle F(x)=\mathrm{P}(X\leq x)=\sum_{i=0}^{x}e^{-\lambda}\frac{\lambda^{i}}{i!}$$
Die Tabelle enthält ausgewählte Werte der Verteilungsfunktion \(\Phi\).
$$\displaystyle\Phi(z)=\mathrm{P}(Z\leq z)=\int_{-\infty}^{z}\frac{1}{\sqrt{2\pi}}e^{-x^{2}/2}\,\text{d}x$$
Die Tabelle enthält ausgewählte Quantile \(z_{p}\) mit \(\Phi(z_{p})=p\).
Die Tabelle enthält ausgewählte Quantile \(t_{p}(\nu)\) der \(t\)-Verteilung mit \(\nu\) Freiheitsgraden.
Die Tabelle enthält ausgewählte Quantile \(\chi_{p}^{2}(\nu)\) der \(\chi^{2}\)-Verteilung mit \(\nu\) Freiheitsgraden.
Die Tabelle enthält ausgewählte Quantile \(F_{p}(r,\nu)\) der \(F\)-Verteilung mit \(r\) und \(\nu\) Freiheitsgraden.
Uwe Hassler

Backmatter

Weitere Informationen

Premium Partner

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Best Practices für die Mitarbeiter-Partizipation in der Produktentwicklung

Unternehmen haben das Innovationspotenzial der eigenen Mitarbeiter auch außerhalb der F&E-Abteilung erkannt. Viele Initiativen zur Partizipation scheitern in der Praxis jedoch häufig. Lesen Sie hier  - basierend auf einer qualitativ-explorativen Expertenstudie - mehr über die wesentlichen Problemfelder der mitarbeiterzentrierten Produktentwicklung und profitieren Sie von konkreten Handlungsempfehlungen aus der Praxis.
Jetzt gratis downloaden!

Bildnachweise