Skip to main content

2016 | Buch

Statistik für Wirtschaftswissenschaftler

Eine realdatenbasierte Einführung mit SPSS

insite
SUCHEN

Über dieses Buch

Dieses Lehrbuch führt umfassend und praxisrelevant in die statistische Methodenlehre ein. Verfahren der Deskriptiven Statistik, der Explorativen Datenanalyse, der Stochastik, der Induktiven Statistik sowie der Multivariaten Statistik werden auf der Basis realer Daten mit Hilfe des Statistik-Programmpakets SPSS anschaulich und leicht verständlich vermittelt. In seiner konzeptionellen und inhaltlichen Anlage ist das Lehrbuch in idealer Weise als ein vorlesungsbegleitendes und selbststudienunterstützendes Kompendium für Studierende in wirtschafts- und sozialwissenschaftlichen Studiengängen geeignet.

Inhaltsverzeichnis

Frontmatter
1. Statistik
Zusammenfassung
Zielstellung. Das Ziel des ersten Kapitels besteht in einer punktuellen Vermittlung historischer Fakten zur Statistik, worin final die Bestimmung und die Erläuterung des modernen Statistikbegriffs eingeschlossen ist, der allerdings in der einschlägigen Literatur und in der statistischen Praxis unterschiedlich weit gefasst und interpretiert wird.
Gegenstand. Das erste Kapitel hat historische Notizen zur Statistik zum Gegenstand. Darin eingeschlossen sind sowohl Wortursprungserklärungen als auch ein kurzgefasster Überblick über traditionelle Teilgebiete und über aktuelle Neuerungstendenzen in der Statistik.
Peter P. Eckstein
2. Grundbegriffe
Zusammenfassung
Gegenstand. Das zweite Kapitel hat die inhaltliche Bestimmung und die paradigmatische Erläuterung statistischer Grundbegriffe zum Gegenstand, ohne die sowohl ein elementares Verständnis als auch ein sinnvoller sowie zielführender Einsatz der statistischen Verfahren und Methoden, die in den nachfolgenden Kapiteln skizziert und appliziert werden, nicht möglich ist.
Grundbegriffe. Im Kontext des ersten Kapitels wurde vermerkt, dass die Statistik eine historisch gewachsene wissenschaftliche Disziplin ist. Dies ist auch ein Grund dafür, warum die statistischen Grundbegriffe zu einem überwiegenden Teil ihren etymologischen Ursprung sowohl in der lateinischen als auch in der griechischen Sprache haben. Um den Zugang zu und den Umgang mit den Fachtermini zu erleichtern, werden die Fachbegriffe mit ihrer inhaltlichen Einführung auch kurz etymologisch erläutert. Darin eingeschlossen sind zudem die Fachtermini, die der englischen Sprache entlehnt sind und vor allem mit dem Einzug moderner Rechentechnik und einschlägiger Software Eingang in den statistischen Sprachgebrauch gefunden haben.
Peter P. Eckstein
3. Datenerhebung
Zusammenfassung
Gegenstand. Das dritte Kapitel hat eine elementare Einführung in ausgewählte, typische und häufig applizierte Verfahren einer statistischen Erhebung zum Gegenstand. Dabei stehen zwei Konzepte der statistischen Primärerhebung, die in der empirischen Wirtschafts- und Sozialforschung eine breite Anwendung erfahren, im Vordergrund. Es ist dies zum einem das sogenannte Urlistenkonzept und zum anderen das sogenannte Fragebogenkonzept. Die beiden paradigmatisch (grch.: paradeigma → Beispiel) skizzierten primärstatistischen Erhebungskonzepte können gleichsam als „Musterlösungen“ für eine Vielzahl praktischer Problemstellungen angesehen werden.
Zielstellung. Das Ziel dieses Kapitel besteht darin, anhand praktischer Problem- und Fragestellungen die beiden primärstatistischen Erhebungskonzepte paradigmatisch zu erläutern und zu demonstrieren. Aus didaktisch-methodischen Gründen ist in die Darstellung der Erhebungskonzepte eine problembezogene Erläuterung der statistischen Grundbegriffe, die im Kontext des zweiten Kapitels eingeführt wurden, eingeschlossen.
Peter P. Eckstein
4. SPSS Statistics
Zusammenfassung
Zielstellung. Das Ziel dieses Kapitels besteht in einer Vermittlung elementarer Kenntnisse im Arbeiten mit dem Programmpaket IBM SPSS Statistics, das im Kontext aller weiteren Betrachtungen der Einfachheit halber kurz nur mit SPSS bezeichnet wird. Die Abbreviaturen IBM und SPSS stehen für „International Business Machines Corporation“ und „Statistical Package for Social Sciences“. Die der fünften Auflage des vorliegenden Lehrbuches zugrunde liegende Version 23 des Moduls „SPSS Statistics“ ist ein umfassendes und leistungsfähiges Programmpaket zur Analyse, Modellierung und Vorhersage statistischer Daten.
Gegenstand. Den Gegenstand dieses Kapitels bilden Notizen zur Entwicklungsgeschichte und zur Produktfamilie von SPSS, zum Vorgang des Startens und Beendens von SPSS, zu den Arten und Zweckbestimmungen von SPSS Editoren, zur Nutzung des SPSS Viewer, zum Aufbau, zur Funktion und zur Handhabung von Dialogfeldern, zum Hilfesystem sowie zu den Optionen.
Peter P. Eckstein
5. Datendeskription
Zusammenfassung
Gegenstand. Der Gegenstand des fünften Kapitels besteht in einer elementaren und paradigmatischen (grch.: paradeigma → Musterbeispiel) Einführung in die statistische Deskription (lat.: descriptio → Beschreibung) empirisch erhobener Daten. Das Kernstück der Datendeskription bildet die univariate (lat: unus → eins + varia → Allerlei) statistische Verteilungsanalyse, die auf die Beschreibung der Häufigkeitsverteilung eines statistischen Erhebungsmerkmals abstellt. Dabei steht die Charakterisierung der Verteilung mit Hilfe geeigneter grafischer Darstellungen und/oder Verteilungsmaßzahlen im Vordergrund.
Zielstellung. Die Zielstellung dieses Kapitel besteht darin, Begriffe und Verfahren der univariaten Verteilungsanalyse zu erläutern und diese mit Hilfe von SPSS anhand realer Daten paradigmatisch zu demonstrieren und sachlogisch zu interpretieren.
Peter P. Eckstein
6. Stochastik
Zusammenfassung
Gegenstand. Das sechste Kapitel hat elementare Verfahren und Modelle der Stochastik zum Gegenstand, die heute zum Standardprogramm der statistischen Methodenlehre an Hochschulen und Universitäten gehören. Dabei werden einzig und allein aus didaktisch-methodischen Gründen bewusst einige mathematische Sachverhalte vereinfacht dargestellt.
Stochastik. Die Stochastik (grch.: stochastikos → im Erraten geschickt), die man hinsichtlich ihres Wortursprungs auch als die Kunst des geschickten Vermutens bezeichnen kann, ist eine wissenschaftliche Disziplin, die sowohl Verfahren und Modelle zur mathematischen Beschreibung von zufälligen Ereignissen mit Hilfe von Wahrscheinlichkeiten bereitstellt als auch Aussagen über deren Gesetzmäßigkeiten liefert.
Peter P. Eckstein
7. Statistische Induktion
Zusammenfassung
Motivation. Der Schluss vom Teil aufs Ganze unter Einbeziehung der Wahrscheinlichkeit ist die Grundidee der statistischen Induktion (lat.: inductio → das Hineinführen), die auch als Schließende, Konfirmatorische (lat.: confirmare → bestätigen) oder Inferentielle (engl.: inference → Schlussfolgerung) Statistik bezeichnet wird. Die Induktive bzw. die „vom Teil aufs Ganze schließende“ Statistik basiert auf mathematisch-statistischen Verfahren, mit deren Hilfe man anhand von Zufallsstichproben und unter Einbeziehung von Wahrscheinlichkeitsmodellen versucht, Aussagen über unbekannte Parameter bzw. Verteilungen von statistischen Grundgesamtheiten zu treffen.
Grundlagen. Die theoretischen Grundlagen der statistischen Induktion werden aus inhaltlicher und methodischer Sicht in die Stichprobentheorie, in die Schätztheorie und in die Testtheorie gegliedert. Diese inhaltlich begründete Dreiteilung gilt auch für die in der Induktiven Statistik applizierten Verfahren, die in den modernen Wirtschafts- und Sozialwissenschaften einen integralen Bestandteil für Entscheidungsfindungen unter Risiko darstellen. Die Verfahren der statistischen Induktion, die in diesem Kapitel appliziert werden, basieren auf realen Daten und werden anhand praktischer Sachverhalte paradigmatisch dargestellt und erläutert.
Peter P. Eckstein
8. Zusammenhangsanalyse
Zusammenfassung
Gegenstand. Dieses Kapitel hat Verfahren der statistischen Zusammenhangsanalyse zum Gegenstand, die in der empirischen Wirtschafts- und Sozialforschung häufig appliziert werden. In der statistischen Zusammenhangsanalyse, die stets sachlogisch zu begründen ist und keine Kausalitätsanalyse (lat.: causalis → ursächlich) ersetzt, steht das Messen der Intensität und/oder der Richtung von Zusammenhängen zwischen zwei oder mehreren Merkmalen mit Hilfe geeigneter Maßzahlen im Vordergrund.
Analysekonzepte. In Abhängigkeit davon, ob die Merkmalsausprägungen auf einer nominalen, ordinalen oder metrischen Skala statistisch erhoben wurden, unterscheidet man in der statistischen Methodenlehre zwischen der Kontingenzanalyse (lat.: contingentia → das Zusammenfallen von Ereignissen), der Rangkorrelationsanalyse und der Maßkorrelationsanalyse (lat.: con… → zusammen mit + relatio → Beziehung).
Peter P. Eckstein
9. Regressionsanalyse
Zusammenfassung
Gegenstand. Dieses Kapitel hat die statistische Regressionsanalyse (lat.: regressio → das Zurückführen, Rückgang (auf ein mittleres Niveau)) zum Gegenstand. Im Kontext einer Regressionsanalyse, die ein Teilgebiet der multivariaten (lat.: multus → vielfach + varia → Allerlei) Statistik ist, steht das Messen einseitig gerichteter statistischer Abhängigkeiten zwischen zwei oder mehreren Merkmalen mit Hilfe geeigneter Modelle und Maßzahlen im Vordergrund.
Kausalität. Analog zur statistischen Zusammenhangsanalyse gelten auch für eine statistische Regressionsanalyse die folgenden Prämissen: Eine statistische Regressionsanalyse ist stets sachlogisch zu begründen und ersetzt keine Kausalitätsanalyse (lat.: causalis → ursächlich). Mit Hilfe der Zusammenhangsanalyse und der Regressionsanalyse ist man stets nur in der Lage, Kausalitäten aufdecken und/oder bestätigen zu helfen.
Peter P. Eckstein
10. Zeitreihenanalyse
Zusammenfassung
Gegenstand. Die Zeitreihenanalyse hat die statistische Beschreibung und die kurzfristige statistische Vorhersage von zeitlich geordneten Merkmalswerten eines oder mehrerer metrischer Merkmale mit Hilfe mathematisch-statistischer Verfahren und Modelle zum Gegenstand. Im Unterschied zur Regressionsanalyse, die auf die Modellierung der statistischen Abhängigkeit eines zu erklärenden Merkmals von einem oder mehreren erklärenden Merkmalen abstellt, steht in der Zeitreihenanalyse die Modellierung der statistischen Abhängigkeit eines zeitlich geordneten metrischen Merkmals von der Zeit und/oder von seinen vorhergehenden und/oder nachfolgenden Werten im Vordergrund.
Zielstellung. Das Ziel dieses Kapitels besteht darin, anhand praktischer Sachverhalte paradigmatisch zu zeigen, wie in SPSS unter Verwendung grafischer und numerischer Verfahren die statistische Analyse von unterjährigen Zeitreihendaten bewerkstelligt werden kann. Dabei stehen Bau und Interpretation sowohl von methodisch einfachen als auch von methodisch anspruchsvollen Zeitreihenmodellen im Vordergrund. In die paradigmatischen Betrachtungen eingeschlossen ist die Verwendung der konstruierten Zeitreihenmodelle für kurzfristige statistische Vorausberechnungen.
Peter P. Eckstein
11. Faktorenanalyse
Zusammenfassung
Gegenstand. Dieses Kapitel hat eine elementare und paradigmatische Einführung in die Faktorenanalyse zum Gegenstand, die aus statistisch-methodischer Sicht in die Familie der multivariaten (lat.: multus → vielfach + varia → Allerlei) statistischen Analyseverfahren eingeordnet wird. Die Faktorenanalyse, die ursprünglich in der Psychologie (grch.: psyche → Seele + logos → Lehre) aus dem Bemühen erwuchs, ein besseres Verständnis des latenten (lat.: latens → verborgen) Begriffs „Intelligenz“ zu gewinnen, findet vor allem in der empirischen Wirtschafts- und Sozialforschung eine breite Anwendung.
Grundidee. Die Grundidee einer Faktorenanalyse besteht darin, aus einer bestimmten und meist größeren Anzahl beobachteter und „gleichartiger“ metrischer Merkmale aufgrund ihrer korrelativen Beziehungen eine kleinere Anzahl „neuer“ und voneinander unabhängiger Variablenkonstrukte in Gestalt von „Faktoren“ zu „extrahieren“. Ermöglichen diese extrahierten Faktoren eine sachlogisch plausibel zu benennende Klassifikation im Sinne einer „Namensgebung bzw. Taufe“, dann können sie die Basis für weitere statistische Analysen bilden.
Peter P. Eckstein
12. Clusteranalyse
Zusammenfassung
Gegenstand. Dieses Kapitel hat eine elementare und paradigmatische Einführung in die Clusteranalyse (engl.: cluster → Klumpen, Gruppe, Bündel) zum Gegenstand. Die Clusteranalyse wird aus statistisch-methodischer Sicht in die Familie der multivariaten (lat.: multus → vielfach + varia → Allerlei) Verfahren eingeordnet und erfährt vor allem in der empirischen Wirtschafts- und Sozialforschung eine breite Anwendung.
Grundidee. Die Grundidee einer Clusteranalyse besteht darin, eine wohldefinierte Menge von Objekten bzw. Merkmalsträgern, an denen jeweils eine wohldefinierte Menge von nominalen, ordinalen oder metrischen Merkmalen, die auch als Cluster- oder Gruppierungsmerkmale bezeichnet werden, statistisch erhoben wurden, so zu gruppieren, zu bündeln bzw. zu klassifizieren, dass die Objekte innerhalb einer Gruppe möglichst homogen bezüglich der Menge der Clustermerkmale und die Objekte unterschiedlicher Gruppen möglichst heterogen bezüglich der Menge der Clustermerkmale sind.
Peter P. Eckstein
Backmatter
Metadaten
Titel
Statistik für Wirtschaftswissenschaftler
verfasst von
Peter P. Eckstein
Copyright-Jahr
2016
Electronic ISBN
978-3-658-10221-0
Print ISBN
978-3-658-10220-3
DOI
https://doi.org/10.1007/978-3-658-10221-0