Skip to main content
main-content

Über dieses Buch

Dieses Lehrbuch führt umfassend und praxisrelevant in die statistische Methodenlehre ein. Verfahren der Deskriptiven Statistik, der Explorativen Datenanalyse, der Stochastik, der Induktiven Statistik sowie der Multivariaten Statistik werden auf der Basis realer Daten mit Hilfe des Statistik-Programmpakets SPSS anschaulich und leicht verständlich vermittelt. In seiner konzeptionellen und inhaltlichen Anlage ist das Lehrbuch in idealer Weise als ein vorlesungsbegleitendes und selbststudienunterstützendes Kompendium für Studierende in wirtschafts- und sozialwissenschaftlichen Studiengängen geeignet.

Inhaltsverzeichnis

Frontmatter

Kapitel 1. Statistik

Zielstellung. Das Ziel des ersten Kapitels besteht in einer punktuellen Vermittlung historischer Fakten zur Statistik, worin final die Bestimmung und die Erläuterung des modernen Statistikbegriffs eingeschlossen ist, der allerdings in der einschlägigen Literatur und in der statistischen Praxis unterschiedlich weit gefasst und interpretiert wird.
Gegenstand. Das erste Kapitel hat historische Notizen zur Statistik zum Gegenstand. Darin eingeschlossen sind sowohl Wortursprungserklärungen als auch ein kurzgefasster Überblick über traditionelle Teilgebiete und über aktuelle Neuerungstendenzen in der Statistik.
Wortursprung. Was heutzutage allgemein mit dem Begriff Statistik1 umschrieben bzw. belegt wird, bedeutet aus etymologischer2 Sicht nichts anderes als eine (in der Regel zahlenmäßig belegte) Zustandsbeschreibung natürlicher, gesellschaftlicher, ökonomischer, wissenschaftlicher oder theoretischer Phänomene, Vorgänge oder Prozesse.
Peter P. Eckstein

Kapitel 2. Grundbegriffe

Gegenstand. Das zweite Kapitel hat die inhaltliche Bestimmung und die paradigmatische Erläuterung statistischer Grundbegriffe zum Gegenstand, ohne die sowohl ein elementares Verständnis als auch ein sinnvoller sowie zielführender Einsatz der statistischen Verfahren und Methoden, die in den nachfolgenden Kapiteln skizziert und appliziert werden, nicht möglich ist.
Grundbegriffe. Im Kontext des ersten Kapitels wurde vermerkt, dass die Statistik eine historisch gewachsene wissenschaftliche Disziplin ist. Dies ist auch ein Grund dafür, warum die statistischen Grundbegriffe zu einem überwiegenden Teil ihren etymologischen Ursprung sowohl in der lateinischen als auch in der griechischen Sprache haben. Um den Zugang zu und den Umgang mit den Fachtermini zu erleichtern, werden die Fachbegriffe mit ihrer inhaltlichen Einführung auch kurz etymologisch erläutert. Darin eingeschlossen sind zudem die Fachtermini, die der englischen Sprache entlehnt sind und vor allem mit dem Einzug moderner Rechentechnik und einschlägiger Software Eingang in den statistischen Sprachgebrauch gefunden haben.
Peter P. Eckstein

Kapitel 3. Datenerhebung

Gegenstand. Das dritte Kapitel hat eine elementare Einführung in ausgewählte, typische und häufig applizierte Verfahren einer statistischen Erhebung zum Gegenstand. Dabei stehen zwei Konzepte der statistischen Primärerhebung, die in der empirischen Wirtschafts- und Sozialforschung eine breite Anwendung erfahren, im Vordergrund. Es ist dies zum einem das sogenannte Urlistenkonzept und zum anderen das sogenannte Fragebogenkonzept. Die beiden paradigmatisch skizzierten primärstatistischen Erhebungskonzepte können gleichsam als „Musterlösungen“ für eine Vielzahl praktischer Problemstellungen angesehen werden.
Zielstellung. Das Ziel dieses Kapitel besteht darin, anhand praktischer Problem- und Fragestellungen die beiden primärstatistischen Erhebungskonzepte paradigmatisch zu erläutern und zu demonstrieren. Aus didaktisch -methodischen Gründen ist in die Darstellung der Erhebungskonzepte eine problembezogene Erläuterung der statistischen Grundbegriffe, die im Kontext des zweiten Kapitels eingeführt wurden, eingeschlossen.
Peter P. Eckstein

Kapitel 4. SPSS Statistics

Zielstellung. Das Ziel dieses Kapitels besteht in einer Vermittlung elementarer Kenntnisse im Arbeiten mit dem Programmpaket IBM SPSS Statistics, das im Kontext aller weiteren Betrachtungen der Einfachheit halber kurz nur mit SPSS bezeichnet wird. Die Abbreviaturen IBM und SPSS stehen für „International Business Machines Corporation“ und „Statistical Package for Social Sciences“. Die der sechsten Auflage des vorliegenden Lehrbuches zugrundeliegende Version 25 des Moduls „SPSS Statistics“ ist ein umfassendes und leistungsfähiges Programmpaket zur Analyse, Modellierung und Vorhersage statistischer Daten.
Gegenstand. Den Gegenstand dieses Kapitels bilden Notizen zur Entwicklungsgeschichte und zur Produktfamilie von SPSS, zum Vorgang des Startens und Beendens von SPSS, zu den Arten und Zweckbestimmungen von SPSS Editoren, zur Nutzung des SPSS Viewer, zum Aufbau, zur Funktion und zur Handhabung von Dialogfeldern, zum Hilfesystem sowie zu den Optionen.
Einführung. Die elementaren und einführenden Bemerkungen sind lediglich auf die Inhalte und Funktionen von IBM SPSS Statistics 25 beschränkt, die für alle weiteren Betrachtungen von Bedeutung sind. Ausführliche Darstellungen hinsichtlich des Aufbaus und der Wirkungsweise von IBM SPSS Statistics 25 können zum Beispiel dem SPSS Hilfesystem entnommen werden.
Peter P. Eckstein

Kapitel 5. Datendeskription

Gegenstand. Der Gegenstand des fünften Kapitels besteht in einer elementaren und paradigmatischen Einführung in die statistische Deskription empirisch erhobener Daten. Das Kernstück der Datendeskription bildet die univariate statistische Verteilungsanalyse, die auf die Beschreibung der Häufigkeitsverteilung eines statistischen Erhebungsmerkmals abstellt. Dabei steht die Charakterisierung der Verteilung mit Hilfe geeigneter grafischer Darstellungen und / oder Verteilungsmaßzahlen im Vordergrund.
Zielstellung. Die Zielstellung dieses Kapitel besteht darin, Begriffe und Verfahren einer univariaten Verteilungsanalyse zu erläutern und diese mit Hilfe von SPSS anhand realer Daten paradigmatisch zu demonstrieren und sachlogisch zu interpretieren.
Peter P. Eckstein

Kapitel 6. Stochastik

Gegenstand. Das sechste Kapitel hat elementare Verfahren und Modelle der Stochastik zum Gegenstand, die heute zum Standardprogramm der statistischen Methodenlehre an Hochschulen und Universitäten gehören. Dabei werden einzig und allein aus didaktisch-methodischen Gründen bewusst einige mathematische Sachverhalte vereinfacht dargestellt.
Stochastik. Die Stochastik, die man hinsichtlich ihres griechischen Wortursprungs auch als die Kunst des geschickten Vermutens bezeichnen kann, ist eine wissenschaftliche Disziplin, die sowohl Verfahren und Modelle zur mathematischen Beschreibung von zufälligen Ereignissen mit Hilfe von Wahrscheinlichkeiten bereitstellt als auch Aussagen über deren Gesetzmäßigkeiten liefert.
Wahrscheinlichkeit. Eine Wahrscheinlichkeit ist dabei eine Maßzahl für den Grad der Gewissheit (bzw. Ungewissheit) des Eintretens von zufälligen Ereignissen, die per Definition stets nur Werte zwischen null und eins annehmen kann. Die Stochastik, deren Kernstück die Wahrscheinlichkeitsrechnung ist, bildet das Fundament für die Induktive Statistik, die ein Gegenstand des Kapitels 7 ist.
Peter P. Eckstein

Kapitel 7. Statistische Induktion

Motivation. Ein wahrscheinlichkeitstheoretisch begründeter Schluss vom Teil aufs Ganze ist die Grundidee einer statistischen Induktion, die auch als Schließende, Konfirmatorische oder Inferentielle Statistik bezeichnet wird. Die Induktive bzw. die „vom Teil aufs Ganze schließende“ Statistik basiert auf mathematisch- statistischen Verfahren, mit deren Hilfe man anhand von Zufallsstichproben und unter Einbeziehung von Wahrscheinlichkeitsmodellen versucht, Aussagen über unbekannte Parameter bzw. Verteilungen von bzw. in statistischen Grundgesamtheiten zu treffen.
Grundlagen. Die theoretischen Grundlagen einer statistischen Induktion werden aus inhaltlicher und methodischer Sicht in die Stichproben-, Schätz- und Testtheorie gegliedert. Diese inhaltlich begründete Dreiteilung gilt auch für die in der Induktiven Statistik applizierten Verfahren, die in den modernen Wirtschafts- und Sozialwissenschaften einen integralen Bestandteil für Entscheidungsfindungen unter Risiko darstellen. Die Verfahren der statistischen Induktion, die in diesem Kapitel appliziert werden, basieren auf realen Daten und werden anhand praktischer Sachverhalte paradigmatisch dargestellt und erläutert.
Peter P. Eckstein

Kapitel 8. Zusammenhangsanalyse

Gegenstand. Dieses Kapitel hat zusammenhangsanalytische Verfahren zum Gegenstand, die in der empirischen Wirtschafts- und Sozialforschung häufig appliziert werden. In einer statistischen Zusammenhangsanalyse, die stets sachlogisch zu begründen ist und keine Kausalitätsanalyse ersetzt, steht das Messen der Intensität und/oder der Richtung von Zusammenhängen zwischen zwei oder mehreren Merkmalen mit Hilfe geeigneter Maßzahlen im Vordergrund.
Analysekonzepte. In Abhängigkeit davon, ob die Merkmalsausprägungen auf einer nominalen, ordinalen oder metrischen Skala statistisch erhoben wurden, unterscheidet man in der statistischen Methodenlehre zwischen der Kontingenzanalyse, der Rangkorrelationsanalyse und der Maßkorrelationsanalyse.
Zielstellung. Das Ziel dieses Kapitels besteht darin, anhand praktischer Problemstellungen paradigmatisch zu zeigen, wie man unter Verwendung grafischer und numerischer Verfahren eine statistische Zusammenhangsanalyse a) für nominale und/oder ordinale Merkmale mit wenigen sich voneinander unterscheidenden Ausprägungen auf der Basis einer Kontingenztabelle bewerkstelligt, b) für ordinale Merkmale mit vielen sich voneinander unterscheidenden Ausprägungen bzw. für nicht normalverteilte metrische Daten eine Rangkorrelationsanalyse realisiert sowie c) für normalverteilte metrische Daten eine bivariate119 und eine partielle120 Maßkorrelationsanalyse bewerkstelligt.
Peter P. Eckstein

Kapitel 9. Regressionsanalyse

Gegenstand. Dieses Kapitel hat die statistische Regressionsanalyse zum Gegenstand. Im Kontext einer Regressionsanalyse, die ein Teilgebiet der multivariaten Statistik ist, steht das Messen einseitig gerichteter statistischer Abhängigkeiten zwischen zwei oder mehreren Merkmalen mit Hilfe geeigneter Modelle und Maßzahlen im Vordergrund.
Kausalität. Analog zur statistischen Zusammenhangsanalyse gelten auch für eine statistische Regressionsanalyse die folgenden Prämissen: Eine statistische Regressionsanalyse ist stets sachlogisch zu begründen und ersetzt keine Kausalitätsanalyse. Mit Hilfe der Zusammenhangsanalyse und der Regressionsanalyse ist man stets nur in der Lage, Kausalitäten aufdecken und / oder bestätigen zu helfen.
Zielstellung. Das Ziel dieses Kapitels besteht darin, anhand praktischer Problemstellungen paradigmatisch zu zeigen, wie unter Verwendung grafischer und numerischer Verfahren eine bivariate und eine multiple Regressionsanalyse mit Hilfe eines linearen und eines nichtlinearen Regressionsmodells bewerkstelligt werden kann. Dabei stehen der Bau eines Regressionsmodells und die Interpretation seiner Komponenten im Vordergrund.
Peter P. Eckstein

Kapitel 10. Zeitreihenanalyse

Gegenstand. Eine Zeitreihenanalyse hat die statistische Beschreibung und die kurzfristige statistische Vorhersage von zeitlich geordneten Merkmalswerten eines oder mehrerer metrischer Merkmale mit Hilfe mathematisch-statistischer Verfahren und Modelle zum Gegenstand. Im Unterschied zur Regressionsanalyse, die auf die Modellierung der statistischen Abhängigkeit eines zu erklärenden Merkmals von einem oder mehreren erklärenden Merkmalen abstellt, steht in einer Zeitreihenanalyse die Modellierung der statistischen Abhängigkeit eines zeitlich geordneten metrischen Merkmals von der Zeit und / oder von seinen vorhergehenden und / oder nachfolgenden Werten im Vordergrund.
Zielstellung. Das Ziel dieses Kapitels besteht darin, anhand praktischer Sachverhalte paradigmatisch zu zeigen, wie in SPSS unter Verwendung grafischer und numerischer Verfahren eine statistische Analyse von unterjährigen Zeitreihendaten bewerkstelligt werden kann. Dabei stehen Bau und Interpretation sowohl von methodisch einfachen als auch von methodisch anspruchsvollen Zeitreihenmodellen im Vordergrund. In die paradigmatischen Betrachtungen ist die Verwendung der konstruierten Zeitreihenmodelle für prognostische Zwecke in Gestalt kurzfristiger statistischer Vorausberechnungen eingeschlossen.
Peter P. Eckstein

Kapitel 11. Faktorenanalyse

Gegenstand. Dieses Kapitel hat eine elementare und paradigmatische Einführung in eine Faktorenanalyse zum Gegenstand, die aus statistisch-methodischer Sicht in die Familie der multivariaten statistischen Analyseverfahren eingeordnet wird. Eine Faktorenanalyse, die ursprünglich in der Psychologie aus dem Bemühen erwuchs, ein besseres Verständnis des latenten Begriffs „Intelligenz“ zu gewinnen, findet vor allem in der empirischen Wirtschafts- und Sozialforschung eine breite Anwendung.
Grundidee. Die Grundidee einer Faktorenanalyse besteht darin, aus einer bestimmten und meist größeren Anzahl beobachteter und „gleichartiger“ metrischer Merkmale aufgrund ihrer korrelativen Beziehungen eine kleinere Anzahl „neuer“ und voneinander unabhängiger Variablenkonstrukte in Gestalt von „Faktoren“ zu „extrahieren“. Ermöglichen diese extrahierten Faktoren eine sachlogisch plausibel zu benennende Klassifikation im Sinne einer „Namensgebung bzw. Taufe“, dann können sie die Basis für weitere statistische Analysen bilden.
Zielstellung. Das Ziel dieses Kapitels besteht darin, die Grundidee des methodisch anspruchsvollen Analysekonzepts einer Faktorenanalyse exemplarisch, verständlich und nachvollziehbar zu demonstrieren. In die elementaren Betrachtungen eingeschlossen ist eine kurze Erläuterung des analytischen Grundprinzips einerseits und eine kurze begriffliche und inhaltliche Darstellung der in praxi am häufigsten applizierten Analysetechniken andererseits.
Peter P. Eckstein

Kapitel 12. Clusteranalyse

Gegenstand. Dieses Kapitel hat eine elementare und paradigmatische Einführung in die Clusteranalyse zum Gegenstand. Die Clusteranalyse wird aus statistisch- methodischer Sicht in die Familie der multivariaten Verfahren eingeordnet und erfährt vor allem in der empirischen Wirtschafts- und Sozialforschung eine breite Anwendung.
Grundidee. Die Grundidee einer Clusteranalyse besteht darin, eine wohldefinierte Menge von Objekten bzw. Merkmalsträgern, an denen jeweils eine wohldefinierte Menge von nominalen, ordinalen oder metrischen Merkmalen, die auch als Cluster- oder Gruppierungsmerkmale bezeichnet werden, statistisch erhoben wurden, so zu gruppieren, zu bündeln bzw. zu klassifizieren, dass die Objekte innerhalb einer Gruppe möglichst homogen bezüglich der Menge der Clustermerkmale und die Objekte unterschiedlicher Gruppen möglichst heterogen bezüglich der Menge der Clustermerkmale sind.
Zielstellung. Das Ziel des Kapitels besteht darin, die Grundidee der methodisch anspruchsvollen und weitgefächerten clusteranalytischen Verfahren und Methoden einmal nur für ausgewählte Verfahren und für metrische Clustermerkmale an praktischen Sachverhalten exemplarisch, verständlich und nachvollziehbar zu demonstrieren.
Peter P. Eckstein

Backmatter

Weitere Informationen

Premium Partner

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Wieviel digitale Transformation steckt im Informationsmanagement? Zum Zusammenspiel eines etablierten und eines neuen Managementkonzepts

Das Management des Digitalisierungsprozesses ist eine drängende Herausforderung für fast jedes Unternehmen. Ausgehend von drei aufeinander aufbauenden empirischen Untersuchungen lesen Sie hier, welche generellen Themenfelder und konkreten Aufgaben sich dem Management im Rahmen dieses Prozesses stellen. Erfahren Sie hier, warum das Management der digitalen Transformation als separates Konzept zum Informationsmanagement zu betrachten
und so auch organisatorisch separiert zu implementieren ist. Jetzt gratis downloaden!

Bildnachweise