Skip to main content

2015 | Buch

Deskriptive Statistik und Explorative Datenanalyse

Eine computergestützte Einführung mit Excel, SPSS und STATA

insite
SUCHEN

Über dieses Buch

Dieses Lehrbuch führt praxisorientiert in die Grundlagen, Techniken und Anwendungs-möglichkeiten der deskriptiven Statistik ein und deckt alle wichtigen Aspekte einer Lehrveranstaltung zum Thema ab. Es behandelt die Basismethoden der uni- und bivariaten Verfahren, die mit Hilfe computerbasierter Berechnungen auf betriebswirtschaftliche Beispiele angewendet werden. Studierende gewinnen die Kompetenz, deskriptive Verfahren effizient in den Computerprogrammen Excel, SPSS und STATA anzuwenden, selbstständig Ergebnisse zu berechnen und vor allem zu interpretieren. Zugunsten eines intuitiven Ansatzes verzichtet das Buch dabei weitgehend auf mathematische Darstellungen und Herleitungen. Die vorliegende zweite Auflage wurde an die aktuellen Software-Updates angepasst und um ein neues Kapitel zur Indexrechnung ergänzt. Zahlreiche Aufgaben mit Lösungen unterstützen eine gezielte Prüfungsvorbereitung.

Inhaltsverzeichnis

Frontmatter
1. Statistik und empirische Forschung
Zusammenfassung
„Ich glaube keiner Statistik, die ich nicht selbst gefälscht habe.“ Obwohl solche Aussagen gerne kopfnickend, schmunzelnd oder sogar zustimmend aufgenommen werden scheint gerade die Statistik eine der zentralen Methoden zu sein, mit denen Aussagen belegt werden. Wie kommt es, dass der beschriebene Superlativ von Lügen – Statistiken – auf einmal zur Grundlage der Planung von Privatpersonen und Unternehmen wird? Auf diese Frage gibt dieses Kapitel Antwort. Zudem wird die Geschichte der Statistik kurz skizziert und der wesentliche Unterschied zwischen Deskriptiver und Induktiver Statistik erläutert. Danach wird die fundamentale Bedeutung der Statistik im Rahmen des Erkenntnisprozesses und der Modellbildung dargelegt.
Thomas Cleff
2. Vom Zahlenwust zum Datensatz
Zusammenfassung
In diesem Kapitel werden die einzelnen Maßnahmen der Untersuchungs- und Auswertungsphase dargestellt, in denen die Rohdaten (Rohinformationen) erhoben und diese durch deskriptive Auswertungsmethoden zur strategisch wichtigen Information verarbeitet werden. In vielen Unternehmen liegen wichtige Daten häufig bereits vor. Die Aufgabe, die ein Statistiker somit zu erfüllen hat, ist die „Bergung dieser Schätze“. Neben den Daten, die den Unternehmen aufgrund eigener Datensammlung zur Verfügung stehen, existieren viele öffentlich zugänglichen Datenbanken. Diese werden kurz vorgestellt. Danach werden die verschiedenen Skalenniveaus anhand praktischer Beispiele erläutert und gezeigt, wie die Rohdaten eines Beispieldatensatzes in kodierter Form für eine computergestützte Auswertung aufbereitet werden. Insbesondere wird detailliert auf besondere Probleme wie fehlende Werte (Antwortausfälle) und Ausreißer eingegangen. Die Inhalte werden in Übungsaufgaben vertieft.
Thomas Cleff
3. Vom Datensatz zur Information
Zusammenfassung
In ersten Auswertungsschritten werden häufig zunächst einzelne Variablen getrennt voneinander univariat analysiert. Es wird dargestellt, wie die Ergebnisse von vielen Einzelbeobachtungen so reduziert werden können, dass man einen realistischen und unverfälschten Eindruck über die befragten Eigenschaften erhält. Hierzu wird sowohl in die adäquaten grafischen Darstellungsmöglichkeiten und Häufigkeitstabellen sowie in die univariaten Parameter (Lage- und Streuungsparameter, Schiefe, Kurtosis) und in verschiedene Konzentrationsmaße eingeführt. Die Einführung erfolgt zunächst in einer intuitiven Herangehensweise, bevor eine Formel abgeleitet bzw. angegeben wird. Zum Abschluss wird gezeigt, wie sich die Kennzahlen leicht mit Hilfe des Computers (Excel, SPSS oder Stata) berechnen lassen. Die Inhalte werden in Übungsaufgaben vertieft.
Thomas Cleff
4. Bivariate Zusammenhänge
Zusammenfassung
Nachdem in ersten Auswertungsschritten gelernt wurde, wie man einzelne Variablen bzw. Merkmale einer Befragung getrennt voneinander – also univariat – untersuchen kann, erfolgt in diesem Kapitel die Darstellung der bivariaten Verfahren, mit deren Hilfe die Zusammenhänge zweier Variablen untereinander analysiert werden kann. Wie in der univariaten Statistik sind die anwendbaren Verfahren der Zusammenhangsmessung abhängig vom Skalenniveau der beiden betrachteten Merkmale bzw. Variablen. Es wird detailliert erklärt, welches Verfahren zur Zusammenhangsmessung bei welcher Kombination zweier Skalenniveaus verwendet werden darf. Darüber hinaus werden die einzelnen Verfahren (Phi; Cramers V, Kontingenzkoeffizient, Biseriale Rangkorrelation, Spearman (ρ), Kendalls Tau (τ), Punktbiseriales r, Korrelation nach Pearson (r), Partielle Korrelation) anhand praktischer Beispiele erläutert und deren Berechnung mit Hilfe von Excel, SPSS oder Stata dargestellt. Die Inhalte werden in Übungsaufgaben vertieft.
Thomas Cleff
5. Regressionsanalyse
Zusammenfassung
In diesem Kapitel erhält der Leser einen vertieften Einblick in die bivariate und multivariate Regressionsrechnung. Dieses Verfahren unterstellt nicht nur einen Zusammenhang zweier (oder mehrerer) metrischer Variablen, sondern auch die kausale Richtung des Zusammenhangs zwischen einer (mehrerer) unabhängigen und einer abhängigen Variablen. Es wird die Grundidee der Kleinste-Quadrate-Methode anhand eines praktischen Beispiels erläutert und gezeigt, wie sich die Regressionskoeffizienten berechnen. Wichtige Aspekte der Regressionsdiagnostik (Anpassungsgüte, Multikollinearität, Homoskedastizität, Autokorrelation, Ausreißer und deren Hebelwirkung) werden anschaulich erklärt. Auch auf die Besonderheiten nicht-linearer Regressionen und die Verwendung von Dummy-Variablen wird eingegangen. Zum Abschluss wird gezeigt, wie sich bi- und multivariate Regressionen mit Hilfe von Excel, SPSS oder Stata berechnen lassen. Die Inhalte werden in Übungsaufgaben vertieft.
Thomas Cleff
6. Zeitreihen- und Indexrechnung
Zusammenfassung
Bei vielen statistischen Verfahren beziehen sich Merkmalsausprägungen auf ein und denselben Zeitpunkt. Man spricht dann von Querschnittsanalysen. Werden die Daten hingegen zeitlich geordnet analysiert, spricht man von Zeitreihen- oder Längsschnittanalysen. Es sind vor allem Zeitreihen, die uns in der täglichen Presse immer wieder begegnen: Entwicklungen der Arbeitslosenquote, der Preise und des Wirtschaftswachstums sind Beispiele dafür. In diesem Kapitel wird deshalb die in der Praxis am häufigsten verwendete Technik der Längsschnittanalyse, nämlich die der Indexrechnung, anhand der Preis-, Mengen- und Wertindexrechnung (Laspeyres, Paasche, Fisher) erläutert. Dabei wird auf Besonderheiten der Warenkorbbildung, Deflationierung, Umbasierung und Verkettung von Indizes detailliert eingegangen. Die Inhalte werden in Übungsaufgaben vertieft.
Thomas Cleff
7. Clusteranalyse
Zusammenfassung
Vor allem in den wirtschaftswissenschaftlichen Disziplinen basieren viele strategische Überlegungen auf der Existenz von unterschiedlichen (Kunden-)Gruppen innerhalb einer Gesamtpopulation. Dem Rat des Mephistopheles folgend – es wird nächstens schon besser gehen, Wenn ihr lernt alles reduzieren Und gehörig klassifizieren (Goethe 1949, S. 201) benötigen Theoretiker und Praktiker objektive und nachvollziehbare Verfahren zur Abgrenzung homogener Gruppen innerhalb einer Gesamtheit von Beobachtungen. Diverse Techniken der Clusteranalyse können diese homogenen Gruppierungen liefern. In diesem Kapitel werden die Hierarchische Clusteranalyse und die Clusterzentrenanalyse genauer erläutert. Neben der Beschreibung der Grundidee der beiden Techniken, werden Vor- und Nachteile bei der Verwendung unterschiedlicher Distanzmaße und Fusionierungsalgorithmen dargelegt. Insbesondere wird auf die Gütekriterien zur Bewertung von Lösungen mit unterschiedlicher Clusteranzahl Wert gelegt. Zum Abschluss wird gezeigt, wie sich die Clusteranalyse mit Hilfe von SPSS oder Stata berechnen lässt. Die Inhalte werden in Übungsaufgaben vertieft.
Thomas Cleff
8. Faktorenanalyse
Zusammenfassung
Sozialwissenschaftliche Phänomene lassen sich häufig nicht durch eine einzige Variable allein beschreiben. Im Gegenteil bedarf es häufig der Verwendung eines ganzen Bündels von Variablen bzw. von Items, um Konstrukte wie z.B. die gewünschten Eigenschaften eines Produktes zu erfassen. Wichtiges Ziel einer empirischen Analyse ist dann die Reduzierung dieser Itembatterien auf die wesentlichsten Faktoren mit Hilfe der Faktorenanalyse. Letztere nutzt die Korrelation der einzelnen Items untereinander dazu, diese auf eine kleine Anzahl unabhängiger Faktoren zu aggregieren. Im Rahmen dieses Kapitels wird auf die unterstellten modelltheoretischen Annahmen unterschiedlicher Techniken der Faktorenanalyse (Hauptkomponentenanalyse, Hauptachsenanalyse) eingegangen und die weitere Vorgehensweise anhand der Hauptachsenanalyse genauer beschrieben. Hierzu gehört neben der Feststellung der Eignung eines Datensatzes in Bezug auf die Durchführung der Faktorenanalyse (Korrelationsmatrix, Inverse der Korrelationsmatrix, Anti-Image-Kovarianz-Matrix (AIC), Kaiser-Meyer-Olkin-Kriterium (KMO), Bartlett’s Test of Sphericity) auch die Interpretation der Ergebnisse (VARIMAX Rotation, Unrotierte und rotierte Faktormatrix, Koeffizientenmatrix der Faktorscores). Zum Abschluss wird gezeigt, wie sich die Faktorenanalyse mit Hilfe von SPSS oder Stata berechnen lässt. Die Inhalte werden in Übungsaufgaben vertieft.
Thomas Cleff
9. Lösungen der Übungsaufgaben
Zusammenfassung
Zur Vertiefung des Inhaltes sind jedem Kapitel Übungsaufgaben angefügt, die ein effizientes Selbststudium erleichtern sollen. Hierfür sind auf der Homepage des Verlages – neben anderen Zusatzmaterialien – Datensätze zur Verfügung gestellt. Mit ihnen können die Übungsaufgaben durchgerechnet werden. Die Lösungen der Aufgaben sowie die Lösungswege sind in diesem Kapitel dargestellt.
Thomas Cleff
Backmatter
Metadaten
Titel
Deskriptive Statistik und Explorative Datenanalyse
verfasst von
Thomas Cleff
Copyright-Jahr
2015
Verlag
Gabler Verlag
Electronic ISBN
978-3-8349-4748-2
Print ISBN
978-3-8349-4747-5
DOI
https://doi.org/10.1007/978-3-8349-4748-2