Zum Inhalt

Applied Statistics and Multivariate Data Analysis for Business and Economics

A Modern Approach Using R, SPSS, Stata, and Excel

  • 2025
  • Buch

Über dieses Buch

Dieses umfassende Lehrbuch stattet Studierende der Wirtschafts- und Betriebswirtschaft sowie Fachleute aus der Industrie mit grundlegenden Prinzipien, Techniken und Anwendungen angewandter Statistik, statistischer Tests und multivariater Datenanalyse aus. Anhand von Beispielen aus der realen Welt veranschaulicht sie die praktische Anwendung univarianter, bivariater und multivariater statistischer Methoden. Der Inhalt umfasst eine breite Palette von Themen, von der Datenerhebung und -skalierung über die Präsentation und grundlegende univariate Analyse quantitativer Daten bis hin zu fortgeschrittenen analytischen Techniken zur Erforschung multivariater Beziehungen. Das Buch behandelt systematisch alle Themen, die typischerweise in Universitätskursen über Statistik und fortgeschrittene angewandte Datenanalyse behandelt werden. Über die theoretische Diskussion hinaus bietet es praktische Anleitungen für den Einsatz statistischer Software-Tools wie Excel, SPSS, Stata und R. In dieser vollständig überarbeiteten und aktualisierten zweiten Ausgabe sind neue Abschnitte über logistische Regression enthalten, zusammen mit verbesserten Beispielen und Lösungen, die R für alle abgedeckten statistischen Methoden verwenden. Diese Ausgabe stellt eine solide Ressource für die Beherrschung angewandter Statistiken sowohl im akademischen als auch im professionellen Umfeld dar.

Inhaltsverzeichnis

  1. Frontmatter

  2. Chapter 1. Statistics and Empirical Research

    Thomas Cleff
    Das Kapitel vertieft sich in die Komplexität der Statistik und empirischen Forschung, indem es sich dem verbreiteten Misstrauen gegenüber Statistiken und der Bedeutung genauer statistischer Methoden widmet. Er diskutiert die historische Entwicklung statistischer Techniken, die Unterscheidung zwischen deskriptiver und induktiver Statistik und die entscheidende Rolle statistischer Modelle bei der Entscheidungsfindung. Der Text betont auch die Notwendigkeit, gegen statistische Trugschlüsse wachsam zu sein und die Bedeutung einer angemessenen statistischen Ausbildung zur Verbesserung der beruflichen Kompetenz.
  3. Chapter 2. From Disarray to Dataset

    Thomas Cleff
    Von der Sicherstellung, dass Ihr Computer für statistische Analysen bereit ist, bis hin zur Auswahl der richtigen Software bietet dieses Kapitel einen praktischen Leitfaden für Datenanalytiker und Forscher. Es vergleicht beliebte Statistiksoftware wie R, SPSS, Stata und Excel und hebt ihre Stärken und Schwächen hervor. Darüber hinaus vertieft es sich in die entscheidenden Schritte der Datenerhebung, Messskalen und der Handhabung fehlender Werte, was es zu einer unverzichtbaren Lektüre für jeden macht, der sich mit der Analyse statistischer Daten beschäftigt.
  4. Chapter 3. Univariate Data Analysis

    Thomas Cleff
    Das Kapitel "Univariate Data Analysis" vertieft sich in die Anfangsphase der Datenanalyse, wobei der Schwerpunkt auf der univariaten Analyse liegt. Am Beispiel einer Übersicht über Brotaufstriche wird gezeigt, wie jede Variable einzeln untersucht werden kann. Dazu müssen Messgrößen wie Mittelwert und Median berechnet und visuelle Darstellungen wie Häufigkeitstabellen und Histogramme erstellt werden. Das Kapitel diskutiert auch die Bedeutung von Statistiken bei der Zusammenfassung von Daten und hebt die potenziellen Probleme und Verzerrungen hervor, die sich aus verschiedenen Methoden der Datendarstellung ergeben können. Er betont die Notwendigkeit einer sorgfältigen Interpretation der Daten, um irreführende Schlussfolgerungen zu vermeiden.
  5. Chapter 4. Bivariate Association

    Thomas Cleff
    Das Kapitel vertieft sich in die bivariate Assoziationsanalyse, einen grundlegenden Aspekt der Datenanalyse, der über die univariate Untersuchung hinausgeht. Es werden Methoden zur Beurteilung von Assoziationen zwischen nominalen, ordinalen und metrischen Variablen unter Verwendung von Hilfsmitteln wie Eventualitätstabellen, Chi-Quadrat-Berechnungen und Korrelationskoeffizienten diskutiert. Der Text untersucht auch die Anwendung dieser Methoden in verschiedenen Softwaretools wie SPSS, R und Excel und liefert praktische Beispiele und Interpretationen. Darüber hinaus befasst er sich mit dem Konzept der falschen Korrelationen und betont, wie wichtig es ist, die zugrunde liegenden Ursachen von Datenbeziehungen zu verstehen. Das Kapitel soll die Fähigkeit des Lesers verbessern, bivariate Daten effektiv zu analysieren und zu interpretieren.
  6. Chapter 5. Classical Measurement Theory

    Thomas Cleff
    Das Kapitel vertieft sich in die klassische Messtheorie und beleuchtet die grundlegenden Techniken der deskriptiven und folgernden Statistik. Er diskutiert die Entwicklung statistischer Methoden von der Pionierarbeit früher Denker wie Jacob Bernoulli und Thomas Bayes bis hin zu modernen Anwendungen. Ein zentraler Schwerpunkt ist die Unterscheidung zwischen deskriptiven Statistiken, die Daten aus Grundgesamtheiten zusammenfassen, und folgernden Statistiken, die Vorhersagen auf der Grundlage von Stichproben treffen. Das Kapitel untersucht auch die Herausforderungen der Abtastung von Fehlern, veranschaulicht durch den berüchtigten Misserfolg der Literary Digest-Umfrage von 1936, und Nichtsampling-Fehlern, die Daten durch verschiedene Faktoren wie das Verhalten der Befragten und die Voreingenommenheit der Interviewer verzerren können. Es bietet Strategien zur Abmilderung dieser Fehler und betont die Bedeutung repräsentativer Stichproben und sorgfältiger Methoden zur Datenerhebung. Indem man sich dieser Komplexität annimmt, gibt das Kapitel den Forschern die Instrumente an die Hand, um die Zuverlässigkeit und Validität ihrer Ergebnisse zu verbessern.
  7. Chapter 6. Calculating Probability

    Thomas Cleff
    Das Kapitel "Berechnung der Wahrscheinlichkeit" geht auf die Feinheiten der Wahrscheinlichkeitsberechnung ein und beginnt mit einer Erklärung, warum häufig Stichproben anstelle der Erfassung von Daten einer ganzen Grundgesamtheit verwendet werden. Es stellt Schlüsselbegriffe wie Ergebnisse, elementare Ereignisse, Beispielraum und Ereigniskombinationen vor. Das Kapitel untersucht dann die drei wichtigsten Herangehensweisen an die Wahrscheinlichkeit: klassische, statistische und subjektive, wobei jeder seine eigene Methode zur Quantifizierung der Wahrscheinlichkeit hat. Die klassische Wahrscheinlichkeit geht von der gleichen Wahrscheinlichkeit aller Ergebnisse aus, während die statistische Wahrscheinlichkeit auf relativen Häufigkeiten beruht. Die subjektive Wahrscheinlichkeit hingegen beruht auf individuellen Einschätzungen. Das Kapitel behandelt auch die grundlegenden Regeln für die Berechnung der Wahrscheinlichkeit, einschließlich der Verwendung von Wahrscheinlichkeitsbäumen und Kombinatorik. Es schließt mit einer Diskussion der bedingten Wahrscheinlichkeit und des Bayes'schen Theorems, die eine solide Grundlage für das Verständnis der Wahrscheinlichkeitsberechnung in verschiedenen Zusammenhängen bilden.
  8. Chapter 7. Random Variables and Probability Distributions

    Thomas Cleff
    Das Kapitel behandelt Zufallsvariablen und Wahrscheinlichkeitsverteilungen und betont ihre Rolle bei der Festlegung von Schlussfolgerungen über Populationen aus Stichprobendaten. Aufbauend auf dem bisherigen Wissen über Wahrscheinlichkeitsprinzipien werden diskrete und kontinuierliche Verteilungen eingeführt, wobei der Schwerpunkt auf Binomial-, Poisson- und Normalverteilungen liegt. Der Text bietet detaillierte Erläuterungen zu jeder Verteilung, einschließlich ihrer Formeln und Anwendungen, und praktische Anleitungen zur Wahrscheinlichkeitsberechnung mittels Excel und Stata. Darüber hinaus unterstreicht er die Bedeutung des Verständnisses dieser Verteilungen für statistische Tests und Hypothesenprüfungen, was sie zu einer wertvollen Ressource für Forscher und Datenanalytiker macht.
  9. Chapter 8. Parameter Estimation

    Thomas Cleff
    Das Kapitel beginnt mit der Erinnerung an den Hauptzweck induktiver Statistiken: die Verallgemeinerung von Populationsparametern aus Stichprobendaten. Es werden zwei Arten von Schätzverfahren eingeführt: Punktabschätzung und Intervallabschätzung. Bei der Punkteschätzung werden Populationsparameter wie Mittelwert und Varianz anhand von Stichprobendaten geschätzt, während die Intervallschätzung einen Bereich bietet, innerhalb dessen der wahre Parameter wahrscheinlich fallen wird. Das Kapitel behandelt die Bedeutung der Stichprobengröße und den Standardfehler bei der Bestimmung der Genauigkeit von Schätzungen. Sie untersucht auch den zentralen Grenzwertsatz, der besagt, dass die Verteilung der Stichprobenmittel einer Normalverteilung nahe kommt, unabhängig von der Verteilung der Grundgesamtheit, da die Stichprobe ausreichend groß ist. Das Kapitel schließt mit praktischen Beispielen und Übungen, um das Verständnis dieser Konzepte zu stärken.
  10. Chapter 9. Hypothesis Testing

    Thomas Cleff
    Hypothese Testing Fundamentals vertieft die wesentlichen Techniken und Philosophien hinter statistischen Hypothesentests. Das Kapitel beginnt mit der Definition einer Hypothese und ihrer Rolle bei der Prüfung empirischer Daten, wobei es sich auf Karl Poppers Philosophie der Fälschung stützt. Er untersucht die Entwicklung von Testmodellen durch Neyman und Pearson und führt die Konzepte der Null- und Alternativhypothesen ein. Der Text diskutiert die Signifikanzniveaus und Fehlertypen und betont, wie wichtig es ist, sowohl Fehler des Typs I als auch Fehler des Typs II zu verstehen. Es bietet auch praktische Beispiele und Erklärungen zu verschiedenen Testmethoden, wie etwa t-Tests mit einer und zwei Stichproben, gepaarten t-Tests und nichtparametrischen Tests wie dem Wilcoxon Sign-Rank-Test. Das Kapitel schließt mit der Einführung komplexerer Methoden wie Varianzanalyse (ANOVA) und Kovarianzanalyse (ANCOVA), deren Anwendung in der Multifaktoranalyse hervorgehoben wird. Überall betont das Kapitel die Bedeutung sorgfältiger Datenanalyse und des angemessenen Einsatzes statistischer Tests, um sinnvolle Schlussfolgerungen zu ziehen.
  11. Chapter 10. Regression Analysis

    Thomas Cleff
    Das Kapitel beginnt mit einem Überblick über die Regressionsanalyse, die ihren Ursprung in Sir Francis Galtons Studie über das Erbsensamen hat. Sie vertieft sich in die Grundlagen der Regression, einschließlich des Konzepts der Korrelation und Kausalität. Das wichtigste Beispiel dafür ist ein Versandhaus, das Umsatzprognosen auf Grundlage verschiedener Faktoren wie Katalogbildgröße und vorherigen Verkäufen erstellt. Das Kapitel behandelt bivariate Regression, multiple Regression und die Bedeutung von Good-of-fit-Messgrößen wie dem Bestimmungskoeffizienten. Außerdem werden Regressionsdiagnosen diskutiert, einschließlich Hebeleffekte und Multikollinearität, und praktische Ratschläge zur Verbesserung von Regressionsmodellen gegeben. Das Kapitel endet mit Übungen, die die erlernten Konzepte untermauern.
  12. Chapter 11. Logistic Regression

    Thomas Cleff
    Logistische Regression ist eine statistische Methode zur Analyse binärer Ergebnisse, die sich von der OLS-Regression in ihrer Anwendung auf nichtlineare Beziehungen unterscheidet. Das Kapitel vertieft die theoretischen Grundlagen logistischer Regression, einschließlich des Einsatzes von Odds and Log-Odds, und demonstriert ihre praktische Anwendung am Beispiel der Challenger-Katastrophe. Durch den Vergleich der logistischen Regression mit der OLS-Regression und die Hervorhebung ihrer Vorteile bietet das Kapitel ein umfassendes Verständnis dieser wesentlichen statistischen Methode.
  13. Chapter 12. Time Series and Indices

    Thomas Cleff
    Das Kapitel beginnt mit der Erklärung des Einsatzes von Zeitreihenanalysen zur Umsatzvorhersage anhand unabhängiger Variablen. Sie unterscheidet zwischen Querschnitts- und Längsschnittsstudien, wobei sich Letztere auf Daten konzentrieren, die in aufeinanderfolgenden Zeitintervallen gemessen werden. Das Kapitel stellt dann verschiedene Arten von Indizes vor, einschließlich Preisindizes, die den Ausdruck von Preisänderungen im Laufe der Zeit vereinfachen. Er diskutiert die Berechnung von Preisverwandten und die Vorteile der Indexierung bei der Vergleichbarkeit dynamischer Entwicklungen. In diesem Kapitel werden auch Mengenindizes untersucht, die Veränderungen der Warenmenge messen, und Wertindizes, die Preis- und Mengendaten kombinieren. Darüber hinaus wird darin die Bedeutung der Anpassung von Zeitreihendaten an die Inflation behandelt, um reale Trends aufzuzeigen. Das Kapitel endet mit praktischen Übungen und Lösungen, die die diskutierten Konzepte untermauern.
  14. Chapter 13. Cluster Analysis

    Thomas Cleff
    Clusteranalyse ist eine explorative Datenanalyse, die dazu verwendet wird, Individuen oder Objekte mit ähnlichen Merkmalen zu homogenen Clustern zu gruppieren. Das Kapitel behandelt die Bedeutung der Clusteranalyse in verschiedenen Bereichen wie Astronomie und Ökonomie. Es führt hierarchische Clusteranalyse ein, die agglomerative und trennende Methoden sowie k-Mittel Clusteranalyse umfasst. Der Text erklärt Entfernungs- und Ähnlichkeitsmaße, Verknüpfungsmethoden und Kriterien zur Bestimmung der optimalen Anzahl von Clustern. Sie unterstreicht auch die Bedeutung der Standardisierung von Variablen und der Vermeidung von Multikollinearität. Zur Veranschaulichung der Konzepte werden praktische Beispiele und visuelle Hilfsmittel wie Dendrogramme und Geröllflächen verwendet. Das Kapitel schließt mit der Diskussion der Implementierung von Clusteranalysen mit Software wie SPSS, Stata und R und bietet Übungen zur Verbesserung des Verständnisses.
  15. Chapter 14. Factor Analysis

    Thomas Cleff
    Faktorenanalyse ist eine entscheidende Methode zur Vereinfachung komplexer Datensätze, indem Variablen auf zugrunde liegende Dimensionen oder Faktoren reduziert werden. Dieses Kapitel behandelt die Grundlagen der Faktoranalyse, einschließlich ihrer beiden primären Methoden: die Summierung der Itemwerte und die Faktoranalyse selbst. Es wird diskutiert, wie wichtig es ist, die Korrelationsmatrix zu überprüfen und die Anzahl der Faktoren mit Methoden wie dem Kaiser-Kriterium und dem Geröllplot zu bestimmen. Darüber hinaus wird in diesem Kapitel erläutert, wie Faktorbelastungen zu interpretieren sind und Faktormatrizen zu drehen sind, um eine klarere Interpretation zu ermöglichen. Praktische Beispiele wie die Analyse von Zahnpastatattribute und softwarespezifische Anweisungen für SPSS, Stata und R Commander werden bereitgestellt, um Verständnis und Anwendung zu verbessern.
  16. Backmatter

Titel
Applied Statistics and Multivariate Data Analysis for Business and Economics
Verfasst von
Thomas Cleff
Copyright-Jahr
2025
Electronic ISBN
978-3-031-78070-7
Print ISBN
978-3-031-78069-1
DOI
https://doi.org/10.1007/978-3-031-78070-7

Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.

    ADVERTORIAL

    KI ohne Großprojekt und Risiko starten

    Mit freundlicher Unterstützung von:
    • ​​​​​​​Dell Technologies, Intel und Microsoft.
    Bildnachweise
    Schmalkalden/© Schmalkalden, NTT Data/© NTT Data, Verlagsgruppe Beltz/© Verlagsgruppe Beltz, ibo Software GmbH/© ibo Software GmbH, Sovero/© Sovero, Axians Infoma GmbH/© Axians Infoma GmbH, Prosoz Herten GmbH/© Prosoz Herten GmbH, Stormshield/© Stormshield, MACH AG/© MACH AG, OEDIV KG/© OEDIV KG, Rundstedt & Partner GmbH/© Rundstedt & Partner GmbH, Doxee AT GmbH/© Doxee AT GmbH , Governikus GmbH & Co. KG/© Governikus GmbH & Co. KG, Vendosoft/© Vendosoft, Conceptboard Cloud Service GmbH/© Vendosoft, Videocast 1: Standbild/© Springer Fachmedien Wiesbaden, givve Bezahlkarte - digitale Effizienz trifft menschliche Nähe/© givve