Zum Inhalt

Fortgeschrittene Multivariate Analysemethoden

Eine anwendungsorientierte Einführung

  • 2026
  • Buch

Über dieses Buch

Wir leben in einer Welt der Daten. Daten allein aber sind wertlos, wenn wir nicht in der Lage sind, aus ihnen Informationen zu gewinnen. Um Informationen aus Daten zu extrahieren, sind Methoden der multivariaten Datenanalyse unerlässlich.
Dieses Lehrbuch bietet eine leicht verständliche Einführung in weiterführende Verfahren der multivariaten Datenanalyse, die vor allem in Master- und Doktoranden-Studiengänge häufig verwendet werden. Es ist anwendungsorientiert geschrieben, setzt nur wenige Kenntnisse in Mathematik und Statistik voraus und demonstriert jedes Verfahren mit numerischen Beispielen. Für die vierte Auflage wurden alle Kapitel aktualisiert und um zentrale Entwicklungen ergänzt, die für Einsteiger besonders wichtig sind. Neu aufgenommen wurde die Zeitreihenanalyse.
Das vorliegende Buch und das bereits in der 18. Auflage erschienene Buch Multivariate Analysemethoden der Autoren wurden im Jahr 2015 vom Berufsverband Deutscher Markt- und Sozialforscher e. V. (BVM) mit dem Preis der Deutschen Marktforschung ausgezeichnet, da sie die deutsche Marktforschungspraxis in den letzten Jahrzehnten nachhaltig geprägt haben.

Die im Buch behandelten Verfahren und die verwendeten Softwareprogramme:
Nichtlineare Regressionsanalyse – Zeitreihenanalyse – Strukturgleichungsanalyse (SGA) – Konfirmatorische Faktorenanalyse (KF) – Choice Based Conjoint Analyse (CBCA) – Künstliche Neuronale Netze – Multidimensionale Skalierung – Korrespondenzanalyse

Wichtige Berechnungen zu den Verfahren werden zunächst mit MS-Excel verdeutlicht und anschließend zu allen Verfahren ausführliche Fallbeispiele mit einschlägigen Software-Programmen gerechnet. Dabei werden die SGA und die KF mit AMOS und die CBCA mit Lighthouse Studio von Sawtooth gerechnet. Bei allen anderen Verfahren wird auf IBM SPSS zurückgegriffen.

Hilfestellungen für den Anwender:
Mit der Springer Nature Flashcards-App kann der eigene Lernfortschritt interaktiv kontrolliert und exklusive Inhalte genutzt werden. Die Webseite multivariate.de bietet weitere Informationen zu den Verfahren und eine Bestellmöglichkeit zu den Datensätzen und Syntaxdateien.

Inhaltsverzeichnis

  1. Frontmatter

  2. 1. Zur Verwendung dieses Buches

    Klaus Backhaus, Bernd Erichson, Rolf Weiber
    Das Kapitel bietet eine umfassende Einführung in fortgeschrittene multivariate Analysemethoden, die sich in strukturen-prüfende und strukturen-entdeckende Verfahren unterteilen lassen. Zunächst werden die Grundlagen und Anwendungsfelder dieser Methoden erläutert, wobei der Fokus auf ihrer Bedeutung in der empirischen Forschung und Praxis liegt. Im Mittelpunkt stehen Verfahren wie die nichtlineare Regressionsanalyse, Zeitreihenanalyse, Strukturgleichungsanalyse und Choice-Based-Conjoint-Analyse, die zur Überprüfung von Kausalzusammenhängen eingesetzt werden. Anschließend werden strukturen-entdeckende Methoden wie künstliche neuronale Netze, multidimensionale Skalierung und Korrespondenzanalyse behandelt, die zur Identifikation von Zusammenhängen in Daten dienen. Ein zentraler Aspekt ist die praktische Anwendung dieser Methoden mit Hilfe von Software wie IBM SPSS Statistics, wobei die Autoren besonders auf die Interpretation der Ergebnisse und die Vermeidung von Fehlinterpretationen eingehen. Zudem werden Fallbeispiele aus der Marktforschung und anderen Anwendungsbereichen genutzt, um die Methoden anschaulich zu vermitteln. Abschließend wird die Bedeutung der Methoden für datenbasierte Entscheidungen und die Notwendigkeit einer fundierten Hypothesenbildung betont. Das Kapitel eignet sich sowohl für Einsteiger als auch für Fortgeschrittene, die ihr Wissen über multivariate Analysemethoden erweitern möchten.
  3. Strukturen-prüfende Verfahren

    1. Frontmatter

    2. 2. Nichtlineare Regression

      Klaus Backhaus, Bernd Erichson, Rolf Weiber
      Dieser Fachbeitrag setzt sich intensiv mit der Nichtlinearen Regression auseinander und zeigt, wie sie die klassische lineare Regressionsanalyse erweitert. Zunächst wird der Unterschied zwischen linearen, linearisierbaren und intrinsisch nichtlinearen Modellen erläutert, wobei besonders auf die Flexibilität und Realitätsnähe nichtlinearer Ansätze eingegangen wird. Anhand zahlreicher Anwendungsbeispiele aus verschiedenen Disziplinen – von der Konsumfunktion über die Diffusionsforschung bis hin zur Thermodynamik – wird die Bandbreite der Methode verdeutlicht. Ein zentraler Fokus liegt auf der praktischen Umsetzung: Der Beitrag erklärt Schritt für Schritt, wie nichtlineare Modelle geschätzt werden, welche Herausforderungen dabei auftreten und wie Startwerte für iterative Algorithmen sinnvoll gewählt werden. Besonders detailliert wird die Anwendung der Nichtlinearen Regression am Beispiel einer Werbewirkungsanalyse dargestellt, bei der verschiedene nichtlineare Modelle (Quadratwurzel-, Potenz- und Exponentialmodell) miteinander verglichen und bewertet werden. Dabei wird nicht nur die statistische Güte der Modelle diskutiert, sondern auch ihre sachlogische Plausibilität. Ein weiteres Highlight ist die Einführung in Wachstumsmodelle wie das Logistische Modell, das Gompertz-Modell und das Bass-Modell, die zur Beschreibung von Diffusionsprozessen – etwa der Verbreitung von Mobilfunkverträgen – eingesetzt werden. Der Beitrag zeigt, wie diese Modelle mit Software wie SPSS oder Excel geschätzt und interpretiert werden können. Abschließend werden praktische Empfehlungen für die Durchführung von Nichtlinearen Regressionen gegeben, darunter Tipps zur Wahl von Startwerten, zur Vermeidung numerischer Probleme und zur Interpretation der Ergebnisse. Wer sich mit der Nichtlinearen Regression vertraut machen oder sein Wissen vertiefen möchte, findet hier eine fundierte und praxisnahe Anleitung, die sowohl theoretische Grundlagen als auch konkrete Anwendungsfälle abdeckt.
    3. 3. Zeitreihenanalyse

      Klaus Backhaus, Bernd Erichson, Rolf Weiber
      Das Kapitel führt systematisch in die Zeitreihenanalyse ein und erklärt, wie sie zur Analyse und Prognose zeitlicher Entwicklungen eingesetzt wird. Im Mittelpunkt steht die Regressionsanalyse als zentrales Instrument, das sowohl für einfache lineare als auch für komplexere nichtlineare Modelle genutzt werden kann. Zunächst werden die Grundlagen der Zeitreihenanalyse erläutert, darunter die Unterscheidung zwischen Querschnitts- und Längsschnittdaten sowie die Bedeutung von Prognosen für Entscheidungsprozesse. Anschließend werden verschiedene Modelle vorgestellt, darunter lineare und nichtlineare Trendmodelle wie das Quadratwurzel- oder logarithmische Modell, die zur Beschreibung von Wachstumsprozessen geeignet sind. Ein besonderer Fokus liegt auf der Berücksichtigung von Strukturbrüchen und saisonalen Schwankungen, die durch Dummy-Variablen modelliert werden können. Praktische Anwendungsbeispiele, wie die Analyse des Margarineabsatzes, veranschaulichen die Umsetzung der Modelle und zeigen, wie externe Faktoren wie Temperatur oder Bevölkerungsentwicklung in die Analyse einbezogen werden können. Abschließend werden Empfehlungen für die Erstellung von Prognosen gegeben, darunter die Visualisierung von Daten, die Auswahl geeigneter Modelle und die Berücksichtigung von Unsicherheiten durch Intervallprognosen. Das Kapitel bietet damit eine umfassende Anleitung für die Durchführung von Zeitreihenanalysen und die Erstellung fundierter Prognosen in wirtschaftlichen Kontexten.
    4. 4. Strukturgleichungsanalyse

      Klaus Backhaus, Bernd Erichson, Rolf Weiber
      Dieses Kapitel führt systematisch in die Strukturgleichungsanalyse ein, eine leistungsstarke Methode zur Überprüfung kausaler Zusammenhänge zwischen latenten Variablen wie Einstellungen, Kaufverhalten oder psychosozialen Konstrukten. Zunächst werden die grundlegenden Konzepte der Kausalanalyse erläutert, insbesondere die Unterscheidung zwischen manifesten und latenten Variablen sowie die Bedeutung theoretisch fundierter Hypothesen. Der Text erklärt detailliert den Aufbau eines vollständigen Strukturgleichungsmodells, das aus einem Strukturmodell für die kausalen Beziehungen zwischen latenten Variablen und zwei Messmodellen für die Operationalisierung dieser Variablen durch manifeste Indikatoren besteht. Besonders hervorgehoben wird die zentrale Rolle der Kovarianz- und Korrelationsmatrizen als Ausgangspunkt für die Parameterschätzung. Ein weiterer Schwerpunkt liegt auf den beiden Hauptansätzen der Strukturgleichungsanalyse: dem kovarianzanalytischen Ansatz, der simultan alle Modellparameter schätzt und sich besonders für die Überprüfung theoretisch fundierter Hypothesen eignet, sowie dem varianzanalytischen Ansatz, der sich durch seine Prognoseorientierung auszeichnet. Praktische Anwendungsbeispiele veranschaulichen die Umsetzung in Pfaddiagrammen und die Interpretation der Ergebnisse. Der Text geht detailliert auf die fünf zentralen Ablaufschritte der Analyse ein – von der Hypothesenbildung über die Modellspezifikation bis zur Beurteilung der Schätzergebnisse. Dabei werden wichtige Konzepte wie Modellidentifikation, Parameterschätzung mit Maximum-Likelihood-Methoden und die Bewertung der Modellgüte anhand verschiedener Fit-Indizes wie Chi-Quadrat, RMSEA und SRMR behandelt. Abschließend wird ein umfassendes Fallbeispiel aus dem Marketingbereich präsentiert, das die praktische Anwendung der Strukturgleichungsanalyse von der Datenerhebung bis zur Ergebnisinterpretation demonstriert. Leser erfahren nicht nur, wie sie Strukturgleichungsmodelle aufbauen und schätzen, sondern auch, wie sie die Qualität ihrer Modelle anhand statistischer Kriterien bewerten und potenzielle Fehlspezifikationen erkennen können.
    5. 5. Konfirmatorische Faktorenanalyse

      Klaus Backhaus, Bernd Erichson, Rolf Weiber
      Der Fachbeitrag führt in die Konfirmatorische Faktorenanalyse (KFA) ein und erklärt, wie hypothetische Konstrukte wie Kreativität, Vertrauen oder Zufriedenheit über Messmodelle operationalisiert und empirisch geprüft werden. Zunächst wird die Problemstellung latenter Variablen erläutert, die sich einer direkten Beobachtung entziehen, und die Notwendigkeit von Messmodellen mit reflektiven Indikatoren dargelegt. Der Text unterscheidet dabei klar zwischen reflektiven und formativen Messmodellen und zeigt auf, warum die KFA ausschließlich für reflektive Modelle geeignet ist. Anschließend werden die zentralen Schritte der KFA – von der Hypothesenbildung über die Modellspezifikation bis zur Parameterschätzung und Modellbeurteilung – systematisch dargestellt. Besonders detailliert wird auf die Identifikation der Modellstruktur, die Schätzverfahren (insbesondere die Maximum-Likelihood-Methode) sowie die Bewertung der Modellgüte eingegangen, wobei Gütekriterien wie Faktorreliabilität, durchschnittlich extrahierte Varianz (DEV) und das Fornell-Larcker-Kriterium für Diskriminanzvalidität erläutert werden. Ein zentraler Fokus liegt zudem auf den Unterschieden zwischen konfirmatorischer und explorativer Faktorenanalyse, die in einer übersichtlichen Tabelle gegenübergestellt werden. Praktische Anwendungsbeispiele, wie die Messung von Kreativitätspotenzialen in Unternehmen oder die Analyse von Vertrauen beim Online-Kauf, veranschaulichen die theoretischen Konzepte und zeigen, wie die KFA in der Forschung und Praxis eingesetzt wird. Der Beitrag schließt mit einer Schritt-für-Schritt-Anleitung zur Durchführung einer KFA mit dem Softwaretool IBM SPSS AMOS, inklusive der Erstellung von Pfaddiagrammen und der Interpretation der Ergebnisse. Ziel ist es, Lesern ein fundiertes Verständnis für die Anwendung der KFA zu vermitteln und sie in die Lage zu versetzen, Messmodelle selbstständig zu prüfen und zu validieren.
    6. 6. Choice-Based-Conjoint-Analyse (CBCA)

      Klaus Backhaus, Bernd Erichson, Rolf Weiber
      Die Choice-Based-Conjoint-Analyse (CBCA) ist eine etablierte Methode zur Messung von Konsumentenpräferenzen, die sich von traditionellen Conjoint-Verfahren durch ihre Fokussierung auf reale Auswahlentscheidungen unterscheidet. Der Fachbeitrag erklärt zunächst die Grundlagen der CBCA, insbesondere ihre Abgrenzung zur traditionellen Conjoint-Analyse (TCA), und geht auf die zentralen Unterschiede in Erhebungsdesign und Datenanalyse ein. Ein zentraler Schwerpunkt liegt auf der Gestaltung von Stimuli und Auswahlsituationen, wobei die Bedeutung der „None-Option“ als realitätsnahes Element hervorgehoben wird. Der Text erläutert detailliert die Spezifikation von Nutzen- und Auswahlmodellen, insbesondere das Logit-Choice-Modell, das die Grundlage für die Schätzung von Teilnutzenwerten bildet. Anhand eines praxisnahen Anwendungsbeispiels aus der Margarinebranche wird die gesamte Prozesskette der CBCA durchlaufen: von der Datenerhebung über die Maximum-Likelihood-Schätzung bis hin zur Interpretation der Ergebnisse. Dabei werden auch methodische Herausforderungen wie die Verankerung von Teilnutzenwerten, die Güteprüfung der Schätzungen und die Berücksichtigung von Heterogenität in den Präferenzen diskutiert. Ein weiterer wichtiger Aspekt ist die Anwendung der CBCA für Marktprognosen, wobei die Berechnung von Auswahlwahrscheinlichkeiten und deren Interpretation als Marktanteile im Mittelpunkt stehen. Der Beitrag geht zudem auf fortgeschrittene Ansätze wie den Hierarchischen Bayes-Ansatz und den Latent-Class-Ansatz ein, die eine disaggregierte Analyse von Präferenzstrukturen ermöglichen. Abschließend werden Limitationen der CBCA diskutiert, insbesondere die Herausforderungen bei der Schätzung individueller Nutzenwerte und die Anpassung von Prognosen an reale Marktbedingungen. Der Text kombiniert dabei theoretische Grundlagen mit praktischen Handlungsempfehlungen und bietet damit eine umfassende Orientierung für die Anwendung der CBCA in der Marktforschung.
  4. Strukturen-entdeckende Verfahren

    1. Frontmatter

    2. 7. Künstliche Neuronale Netze (KNN)

      Klaus Backhaus, Bernd Erichson, Rolf Weiber
      Künstliche Neuronale Netze (KNN) sind eine Klasse von Analyseverfahren, die sich besonders für die Untersuchung komplexer, nichtlinearer Zusammenhänge zwischen Variablen eignen – selbst wenn diese Zusammenhänge nichtlinear oder schwer vorhersehbar sind. Der Fachbeitrag erklärt zunächst die grundlegenden Prinzipien, wie KNN funktionieren, und zieht dabei Parallelen zum biologischen Nervensystem, um die Informationsverarbeitung in künstlichen Neuronen nachvollziehbar zu machen. Ein zentraler Fokus liegt auf der Unterscheidung zwischen überwachtem und unüberwachtem Lernen, wobei der Backpropagation-Algorithmus als zentrales Trainingsverfahren für überwachte Lernprozesse detailliert beschrieben wird. Dabei wird aufgezeigt, wie das Netz durch iterative Anpassung der Gewichte zwischen den Neuronen lernt, um die Abweichung zwischen vorhergesagten und tatsächlichen Werten zu minimieren. Ein weiterer Schwerpunkt ist die Gestaltung der Netztopologie, insbesondere die Festlegung der Anzahl verdeckter Schichten und Neuronen, sowie die Wahl geeigneter Aktivierungsfunktionen, die für die Modellierung nichtlinearer Zusammenhänge entscheidend sind. Praktische Anwendungsbeispiele – wie die Prognose von Aktienkursen oder die Klassifizierung von Kreditwürdigkeit – veranschaulichen, wie KNN in der Praxis eingesetzt werden können. Zudem wird auf typische Herausforderungen wie Overfitting oder die Wahl der Lernrate eingegangen, die für die erfolgreiche Implementierung von KNN entscheidend sind. Abschließend zeigt ein Fallbeispiel aus der Marktforschung, wie ein Multi-Layer-Perceptron (MLP) mit gängiger Software (z. B. IBM SPSS) trainiert und interpretiert wird, inklusive der Analyse von Gewichten und Wichtigkeiten der Eingabevariablen. Der Beitrag bietet damit nicht nur eine theoretische Einführung, sondern auch konkrete Handlungsanweisungen für die praktische Anwendung von KNN in verschiedenen Analysekontexten.
    3. 8. Multidimensionale Skalierung (MDS)

      Klaus Backhaus, Bernd Erichson, Rolf Weiber
      Das Kapitel führt in die Multidimensionale Skalierung (MDS) ein, eine Methode zur Visualisierung subjektiver Wahrnehmungen von Objekten in einem mehrdimensionalen Raum. Es wird erklärt, wie Objekte wie Produkte, Politiker oder Universitäten durch Personen auf verschiedenen Dimensionen beurteilt werden und wie diese Wahrnehmungen in räumlichen Konfigurationen dargestellt werden können. Der Text beleuchtet die beiden grundlegenden Ansätze zur Datenerhebung: die Bewertung von Objekteigenschaften und die direkte Einschätzung von Ähnlichkeiten zwischen Objekten. Besonders detailliert wird die nichtmetrische MDS behandelt, die mit Rangdaten arbeitet und keine Vorgabe von Eigenschaften erfordert. Ein zentraler Fokus liegt auf der praktischen Durchführung einer MDS-Analyse, beginnend mit der Messung von Ähnlichkeiten über die Wahl des Distanzmodells bis hin zur Ermittlung der optimalen Konfiguration. Dabei werden verschiedene Distanzmaße wie die Euklidische Metrik und die City-Block-Metrik gegenübergestellt und ihre Auswirkungen auf die Ergebnisse diskutiert. Ein besonderes Augenmerk gilt der Interpretation der Ergebnisse, insbesondere der Bestimmung der Anzahl der Dimensionen und der inhaltlichen Deutung der Achsen. Das Kapitel zeigt, wie die Güte einer MDS-Lösung mit dem STRESS-Maß bewertet wird und welche Kriterien für eine stabile und valide Lösung entscheidend sind. Abschließend wird die Einbindung von Präferenzdaten und Eigenschaftsurteilen in den Wahrnehmungsraum erläutert, um die Positionierung von Objekten und die Ableitung von Marktstrategien zu unterstützen. Mit zahlreichen Beispielen und Abbildungen wird die Theorie anschaulich illustriert, sodass Leser die Methode direkt in ihrer eigenen Forschung anwenden können.
    4. 9. Korrespondenzanalyse

      Klaus Backhaus, Bernd Erichson, Rolf Weiber
      Dieses Kapitel führt in die Korrespondenzanalyse ein, ein Verfahren zur grafischen Darstellung von Häufigkeiten qualitativer Merkmale in Kreuztabellen. Zunächst wird die Problemstellung erläutert, warum eine solche Visualisierung notwendig ist, insbesondere bei komplexen Datensätzen mit vielen Kategorien. Der Text erklärt, wie die Korrespondenzanalyse im Unterschied zur Kontingenzanalyse nicht nur statistische Zusammenhänge prüft, sondern diese direkt in einem gemeinsamen Raum (joint space) abbildet. Ein zentraler Fokus liegt auf der Erstellung und Interpretation von Zeilen- und Spaltenprofilen, die durch Normierung der Daten gewonnen werden. Die Autoren zeigen, wie diese Profile in einem Korrespondenzraum dargestellt werden und welche Rückschlüsse sich aus der Positionierung der Punkte ziehen lassen. Besonders hervorgehoben wird die Bedeutung der Inertia (Gesamtträgheit) als Maß für die Streuung in den Daten und wie diese durch die Einzelwertzerlegung in Dimensionen zerlegt wird. Ein weiterer Schwerpunkt liegt auf den verschiedenen Normalisierungsmethoden der Korrespondenzanalyse, darunter die symmetrische und asymmetrische Darstellung, die unterschiedliche Interpretationsmöglichkeiten bieten. Anhand eines praxisnahen Anwendungsbeispiels aus dem Automobilmarkt wird die Methode Schritt für Schritt durchgespielt: von der Erstellung der Kontingenztabelle über die Standardisierung der Daten bis hin zur grafischen Darstellung der Ergebnisse. Dabei werden auch die mathematischen Grundlagen erläutert, wie die Chi-Quadrat-Distanzen zwischen den Profilen berechnet werden und warum diese für die Interpretation entscheidend sind. Abschließend wird die Korrespondenzanalyse in den Kontext anderer multivariater Verfahren wie der Faktorenanalyse und der multidimensionalen Skalierung eingeordnet und ihre historischen Wurzeln in der französischen Datenanalyse beleuchtet. Das Kapitel bietet damit nicht nur eine theoretische Einführung, sondern auch eine praktische Anleitung zur Durchführung und Interpretation der Korrespondenzanalyse mit gängigen Softwaretools wie IBM SPSS.
  5. Backmatter

Titel
Fortgeschrittene Multivariate Analysemethoden
Verfasst von
Klaus Backhaus
Bernd Erichson
Rolf Weiber
Copyright-Jahr
2026
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-71696-0
Print ISBN
978-3-662-71695-3
DOI
https://doi.org/10.1007/978-3-662-71696-0

Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.