Fortgeschrittene Multivariate Analysemethoden
Eine anwendungsorientierte Einführung
- 2026
- Buch
- Verfasst von
- Klaus Backhaus
- Bernd Erichson
- Rolf Weiber
- Verlag
- Springer Berlin Heidelberg
Über dieses Buch
Wir leben in einer Welt der Daten. Daten allein aber sind wertlos, wenn wir nicht in der Lage sind, aus ihnen Informationen zu gewinnen. Um Informationen aus Daten zu extrahieren, sind Methoden der multivariaten Datenanalyse unerlässlich.
Dieses Lehrbuch bietet eine leicht verständliche Einführung in weiterführende Verfahren der multivariaten Datenanalyse, die vor allem in Master- und Doktoranden-Studiengänge häufig verwendet werden. Es ist anwendungsorientiert geschrieben, setzt nur wenige Kenntnisse in Mathematik und Statistik voraus und demonstriert jedes Verfahren mit numerischen Beispielen. Für die vierte Auflage wurden alle Kapitel aktualisiert und um zentrale Entwicklungen ergänzt, die für Einsteiger besonders wichtig sind. Neu aufgenommen wurde die Zeitreihenanalyse.
Das vorliegende Buch und das bereits in der 18. Auflage erschienene Buch Multivariate Analysemethoden der Autoren wurden im Jahr 2015 vom Berufsverband Deutscher Markt- und Sozialforscher e. V. (BVM) mit dem Preis der Deutschen Marktforschung ausgezeichnet, da sie die deutsche Marktforschungspraxis in den letzten Jahrzehnten nachhaltig geprägt haben.
Die im Buch behandelten Verfahren und die verwendeten Softwareprogramme:
Nichtlineare Regressionsanalyse – Zeitreihenanalyse – Strukturgleichungsanalyse (SGA) – Konfirmatorische Faktorenanalyse (KF) – Choice Based Conjoint Analyse (CBCA) – Künstliche Neuronale Netze – Multidimensionale Skalierung – Korrespondenzanalyse
Wichtige Berechnungen zu den Verfahren werden zunächst mit MS-Excel verdeutlicht und anschließend zu allen Verfahren ausführliche Fallbeispiele mit einschlägigen Software-Programmen gerechnet. Dabei werden die SGA und die KF mit AMOS und die CBCA mit Lighthouse Studio von Sawtooth gerechnet. Bei allen anderen Verfahren wird auf IBM SPSS zurückgegriffen.
Hilfestellungen für den Anwender:
Mit der Springer Nature Flashcards-App kann der eigene Lernfortschritt interaktiv kontrolliert und exklusive Inhalte genutzt werden. Die Webseite multivariate.de bietet weitere Informationen zu den Verfahren und eine Bestellmöglichkeit zu den Datensätzen und Syntaxdateien.
Inhaltsverzeichnis
-
Frontmatter
-
1. Zur Verwendung dieses Buches
Klaus Backhaus, Bernd Erichson, Rolf WeiberDas Kapitel bietet eine umfassende Einführung in fortgeschrittene multivariate Analysemethoden, die sich in strukturen-prüfende und strukturen-entdeckende Verfahren unterteilen lassen. Zunächst werden die Grundlagen und Anwendungsfelder dieser Methoden erläutert, wobei der Fokus auf ihrer Bedeutung in der empirischen Forschung und Praxis liegt. Im Mittelpunkt stehen Verfahren wie die nichtlineare Regressionsanalyse, Zeitreihenanalyse, Strukturgleichungsanalyse und Choice-Based-Conjoint-Analyse, die zur Überprüfung von Kausalzusammenhängen eingesetzt werden. Anschließend werden strukturen-entdeckende Methoden wie künstliche neuronale Netze, multidimensionale Skalierung und Korrespondenzanalyse behandelt, die zur Identifikation von Zusammenhängen in Daten dienen. Ein zentraler Aspekt ist die praktische Anwendung dieser Methoden mit Hilfe von Software wie IBM SPSS Statistics, wobei die Autoren besonders auf die Interpretation der Ergebnisse und die Vermeidung von Fehlinterpretationen eingehen. Zudem werden Fallbeispiele aus der Marktforschung und anderen Anwendungsbereichen genutzt, um die Methoden anschaulich zu vermitteln. Abschließend wird die Bedeutung der Methoden für datenbasierte Entscheidungen und die Notwendigkeit einer fundierten Hypothesenbildung betont. Das Kapitel eignet sich sowohl für Einsteiger als auch für Fortgeschrittene, die ihr Wissen über multivariate Analysemethoden erweitern möchten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungKap. 1 gibt einen Überblick zu den acht, in diesem Buch behandelten Methoden der multivariaten Datenanalyse. Dabei wird eine Strukturierung nach konfirmatorischen und explorativen Analyseverfahren vorgenommen: Die Strukturen-prüfende Verfahren (A) beinhalten die Verfahren: Nichtlineare Regressionsanalyse, Zeitreihenanalyse, Strukturgleichungsanalyse, Konfirmatorische Faktorenanalyse sowie Choice-Based-Conjoint-Analyse (CBCA). Als Strukturen-entdeckende Verfahren (B) werden bezeichnet: Künstliche Neuronale Netze (KNN), Multidimensionale Skalierung (MDS) und die Korrespondenzanalyse. Darüber hinaus gibt das Kapitel auch einen Überblick und eine kurze Erläuterung zu den im Buch verwendeten Programmsystemen. Während für die CBCA das Programmpaket Lighthouse Studio von Sawtooth herangezogen wurde, wurde alle anderen Verfahren mit dem Programmpaket von IBM SPSS gerechnet. -
Strukturen-prüfende Verfahren
-
Frontmatter
-
2. Nichtlineare Regression
Klaus Backhaus, Bernd Erichson, Rolf WeiberDieser Fachbeitrag setzt sich intensiv mit der Nichtlinearen Regression auseinander und zeigt, wie sie die klassische lineare Regressionsanalyse erweitert. Zunächst wird der Unterschied zwischen linearen, linearisierbaren und intrinsisch nichtlinearen Modellen erläutert, wobei besonders auf die Flexibilität und Realitätsnähe nichtlinearer Ansätze eingegangen wird. Anhand zahlreicher Anwendungsbeispiele aus verschiedenen Disziplinen – von der Konsumfunktion über die Diffusionsforschung bis hin zur Thermodynamik – wird die Bandbreite der Methode verdeutlicht. Ein zentraler Fokus liegt auf der praktischen Umsetzung: Der Beitrag erklärt Schritt für Schritt, wie nichtlineare Modelle geschätzt werden, welche Herausforderungen dabei auftreten und wie Startwerte für iterative Algorithmen sinnvoll gewählt werden. Besonders detailliert wird die Anwendung der Nichtlinearen Regression am Beispiel einer Werbewirkungsanalyse dargestellt, bei der verschiedene nichtlineare Modelle (Quadratwurzel-, Potenz- und Exponentialmodell) miteinander verglichen und bewertet werden. Dabei wird nicht nur die statistische Güte der Modelle diskutiert, sondern auch ihre sachlogische Plausibilität. Ein weiteres Highlight ist die Einführung in Wachstumsmodelle wie das Logistische Modell, das Gompertz-Modell und das Bass-Modell, die zur Beschreibung von Diffusionsprozessen – etwa der Verbreitung von Mobilfunkverträgen – eingesetzt werden. Der Beitrag zeigt, wie diese Modelle mit Software wie SPSS oder Excel geschätzt und interpretiert werden können. Abschließend werden praktische Empfehlungen für die Durchführung von Nichtlinearen Regressionen gegeben, darunter Tipps zur Wahl von Startwerten, zur Vermeidung numerischer Probleme und zur Interpretation der Ergebnisse. Wer sich mit der Nichtlinearen Regression vertraut machen oder sein Wissen vertiefen möchte, findet hier eine fundierte und praxisnahe Anleitung, die sowohl theoretische Grundlagen als auch konkrete Anwendungsfälle abdeckt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDurch die Nichtlineare Regression wird das Anwendungsspektrum der klassischen Regressionsanalyse erheblich erweitert. Es lassen sich nahezu beliebige Zusammenhänge (z. B. exponentielle, kubische, U-förmige) zwischen einer abhängigen und ein oder mehreren unabhängigen Variablen schätzen. Anwendungen hierzu finden sich z. B. im Rahmen der Werbewirkungsforschung (Abhängigkeit der Werbeerinnerung von der Zahl der Werbekontakte, Abhängigkeit der Absatzmenge von der Höhe des Werbebudgets oder in der Marktforschung bei der Untersuchung des Wachstums von neuen Produkten). Die Nichtlineare Regression ist allerdings mit einer Reihe von Problemen verbunden: Der Rechenaufwand ist um ein Vielfaches größer als bei der traditionellen Regressionsanalyse, da iterative Algorithmen für die Berechnung der Schätzwerte verwendet werden müssen. Ob diese Algorithmen konvergieren, hängt u. a. davon ab, welche Startwerte der Untersucher vorgibt. Es werden somit auch erhöhte Anforderungen an den Anwender gestellt. Ein weiterer Nachteil ist, dass die statistischen Tests, die bei der linearen Regressionsanalyse zur Prüfung der Güte des Modells oder der Signifikanz der Parameter verwendet werden, für die nichtlineare Regression nicht anwendbar sind. Die Vorgehensweise zur Nichtlinearen Regression wird zunächst anhand eines einfachen Anwendungsbeispiels verdeutlicht und anschließend für ein größeres Fallbeispiel mit Hilfe der Prozedur NLR in IBM SPSS gerechnet. -
3. Zeitreihenanalyse
Klaus Backhaus, Bernd Erichson, Rolf WeiberDas Kapitel führt systematisch in die Zeitreihenanalyse ein und erklärt, wie sie zur Analyse und Prognose zeitlicher Entwicklungen eingesetzt wird. Im Mittelpunkt steht die Regressionsanalyse als zentrales Instrument, das sowohl für einfache lineare als auch für komplexere nichtlineare Modelle genutzt werden kann. Zunächst werden die Grundlagen der Zeitreihenanalyse erläutert, darunter die Unterscheidung zwischen Querschnitts- und Längsschnittdaten sowie die Bedeutung von Prognosen für Entscheidungsprozesse. Anschließend werden verschiedene Modelle vorgestellt, darunter lineare und nichtlineare Trendmodelle wie das Quadratwurzel- oder logarithmische Modell, die zur Beschreibung von Wachstumsprozessen geeignet sind. Ein besonderer Fokus liegt auf der Berücksichtigung von Strukturbrüchen und saisonalen Schwankungen, die durch Dummy-Variablen modelliert werden können. Praktische Anwendungsbeispiele, wie die Analyse des Margarineabsatzes, veranschaulichen die Umsetzung der Modelle und zeigen, wie externe Faktoren wie Temperatur oder Bevölkerungsentwicklung in die Analyse einbezogen werden können. Abschließend werden Empfehlungen für die Erstellung von Prognosen gegeben, darunter die Visualisierung von Daten, die Auswahl geeigneter Modelle und die Berücksichtigung von Unsicherheiten durch Intervallprognosen. Das Kapitel bietet damit eine umfassende Anleitung für die Durchführung von Zeitreihenanalysen und die Erstellung fundierter Prognosen in wirtschaftlichen Kontexten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Zeitreihenanalyse dient neben der Beschreibung und Erklärung der zeitlichen Entwicklung einer Variablen insbesondere auch deren Prognose, d. h. der Schätzung von Werten dieser Variablen für zukünftige Zeitpunkte oder Perioden. Jede weitreichende Entscheidung basiert auf Prognosen. Die Zeitreihenanalyse ist daher für die Stützung von Entscheidungsproblemen jeglicher Art von großer Wichtigkeit. Für die Produktions- und Absatzplanung eines Herstellers ist z. B. von Wichtigkeit, wie sich seine Absatzmenge oder das Volumen seines Marktes langfristig entwickeln werden oder welchen periodischen Schwankungen diese Größen unterworfen sind. Die Darstellungen in diesem Kapitel konzentrieren sich auf die Durchführung von Zeitreihenanalysen mit Hilfe der linearen Regressionsanalyse. Sie ermöglicht die Erstellung von Punktprognosen sowie auch die Berechnung von Prognosefehlern und von Prognoseintervallen, innerhalb derer das vorhergesagte Ereignis mit einer festgelegten Wahrscheinlichkeit liegen wird. Die Vorgehensweise bei Zeitreihenanalysen wird für verschiedene Modelle verdeutlicht und auch für ein größeres Fallbeispiel gerechnet. Dabei wird auf die Prozeduren REGRESSION, CURVEFIT und NLR in IBM SPSS zurückgegriffen. -
4. Strukturgleichungsanalyse
Klaus Backhaus, Bernd Erichson, Rolf WeiberDieses Kapitel führt systematisch in die Strukturgleichungsanalyse ein, eine leistungsstarke Methode zur Überprüfung kausaler Zusammenhänge zwischen latenten Variablen wie Einstellungen, Kaufverhalten oder psychosozialen Konstrukten. Zunächst werden die grundlegenden Konzepte der Kausalanalyse erläutert, insbesondere die Unterscheidung zwischen manifesten und latenten Variablen sowie die Bedeutung theoretisch fundierter Hypothesen. Der Text erklärt detailliert den Aufbau eines vollständigen Strukturgleichungsmodells, das aus einem Strukturmodell für die kausalen Beziehungen zwischen latenten Variablen und zwei Messmodellen für die Operationalisierung dieser Variablen durch manifeste Indikatoren besteht. Besonders hervorgehoben wird die zentrale Rolle der Kovarianz- und Korrelationsmatrizen als Ausgangspunkt für die Parameterschätzung. Ein weiterer Schwerpunkt liegt auf den beiden Hauptansätzen der Strukturgleichungsanalyse: dem kovarianzanalytischen Ansatz, der simultan alle Modellparameter schätzt und sich besonders für die Überprüfung theoretisch fundierter Hypothesen eignet, sowie dem varianzanalytischen Ansatz, der sich durch seine Prognoseorientierung auszeichnet. Praktische Anwendungsbeispiele veranschaulichen die Umsetzung in Pfaddiagrammen und die Interpretation der Ergebnisse. Der Text geht detailliert auf die fünf zentralen Ablaufschritte der Analyse ein – von der Hypothesenbildung über die Modellspezifikation bis zur Beurteilung der Schätzergebnisse. Dabei werden wichtige Konzepte wie Modellidentifikation, Parameterschätzung mit Maximum-Likelihood-Methoden und die Bewertung der Modellgüte anhand verschiedener Fit-Indizes wie Chi-Quadrat, RMSEA und SRMR behandelt. Abschließend wird ein umfassendes Fallbeispiel aus dem Marketingbereich präsentiert, das die praktische Anwendung der Strukturgleichungsanalyse von der Datenerhebung bis zur Ergebnisinterpretation demonstriert. Leser erfahren nicht nur, wie sie Strukturgleichungsmodelle aufbauen und schätzen, sondern auch, wie sie die Qualität ihrer Modelle anhand statistischer Kriterien bewerten und potenzielle Fehlspezifikationen erkennen können.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungBei vielen Fragestellungen im praktischen und wissenschaftlichen Bereich geht es darum, kausale Abhängigkeiten zwischen bestimmten Merkmalen (Variablen) zu untersuchen. Werden mit Hilfe eines Datensatzes Kausalitäten überprüft, so wird allgemein von einer Kausalanalyse gesprochen. Im Rahmen der Kausalanalyse ist es von besonderer Wichtigkeit, dass der Anwender vor Anwendung des statistischen Verfahrens theoretisch fundierte oder sachlogische Überlegungen über die Beziehungen zwischen den Variablen anstellt. Hierbei ist auch zu bestimmen, ob Wechselbeziehungen zwischen diesen Variablen vorliegen, und ob diese Variablen direkt beobachtbar (manifest) oder nicht direkt beobachtbar (latent) sind (vgl. Abb. 4.1). Das vorliegende Kapitel konzentriert sich auf die Betrachtung von Kausalzusammenhängen zwischen latenten Variablen, die jeweils über sog. reflektive Messmodelle operationalisiert werden. Zur Analyse wird die Software IBM SPSS AMOS herangezogen. -
5. Konfirmatorische Faktorenanalyse
Klaus Backhaus, Bernd Erichson, Rolf WeiberDer Fachbeitrag führt in die Konfirmatorische Faktorenanalyse (KFA) ein und erklärt, wie hypothetische Konstrukte wie Kreativität, Vertrauen oder Zufriedenheit über Messmodelle operationalisiert und empirisch geprüft werden. Zunächst wird die Problemstellung latenter Variablen erläutert, die sich einer direkten Beobachtung entziehen, und die Notwendigkeit von Messmodellen mit reflektiven Indikatoren dargelegt. Der Text unterscheidet dabei klar zwischen reflektiven und formativen Messmodellen und zeigt auf, warum die KFA ausschließlich für reflektive Modelle geeignet ist. Anschließend werden die zentralen Schritte der KFA – von der Hypothesenbildung über die Modellspezifikation bis zur Parameterschätzung und Modellbeurteilung – systematisch dargestellt. Besonders detailliert wird auf die Identifikation der Modellstruktur, die Schätzverfahren (insbesondere die Maximum-Likelihood-Methode) sowie die Bewertung der Modellgüte eingegangen, wobei Gütekriterien wie Faktorreliabilität, durchschnittlich extrahierte Varianz (DEV) und das Fornell-Larcker-Kriterium für Diskriminanzvalidität erläutert werden. Ein zentraler Fokus liegt zudem auf den Unterschieden zwischen konfirmatorischer und explorativer Faktorenanalyse, die in einer übersichtlichen Tabelle gegenübergestellt werden. Praktische Anwendungsbeispiele, wie die Messung von Kreativitätspotenzialen in Unternehmen oder die Analyse von Vertrauen beim Online-Kauf, veranschaulichen die theoretischen Konzepte und zeigen, wie die KFA in der Forschung und Praxis eingesetzt wird. Der Beitrag schließt mit einer Schritt-für-Schritt-Anleitung zur Durchführung einer KFA mit dem Softwaretool IBM SPSS AMOS, inklusive der Erstellung von Pfaddiagrammen und der Interpretation der Ergebnisse. Ziel ist es, Lesern ein fundiertes Verständnis für die Anwendung der KFA zu vermitteln und sie in die Lage zu versetzen, Messmodelle selbstständig zu prüfen und zu validieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungBei vielen Problemstellungen sowohl in der Wissenschaft als auch in der Praxis sind Phänomene von Interesse, die sich einer direkten Beobachtbarkeit auf der empirischen Ebene entziehen, weshalb sie auch als hypothetische Konstrukte, theoretische Begriffe oder latente Variablen bezeichnet werden. Beispiele für solche hypothetischen Konstrukte sind etwa Autorität, Angst, Emotion, Einstellung, Intelligenz, Involvement, Kaufabsicht, Kreativität, Loyalität, Macht, Motivation, Qualität, Reputation, Stress, Vertrauen oder Zufriedenheit. Im Gegensatz zu beobachtbaren und direkt messbaren Größen, die auch als manifeste Variablen bezeichnet werden (z. B. Gewicht in kg; Umsatz in Euro; Blutdruck in mmHG), bedürfen latente Variablen eines Messmodells, mit dessen Hilfe sich empirische Messwerte für die latenten Variablen ermitteln lassen. Das vorliegende Kapitel konzentriert sich auf die Betrachtung von reflektiven Messmodellen. Zur Analyse wird die Software IBM SPSS AMOS herangezogen. -
6. Choice-Based-Conjoint-Analyse (CBCA)
Klaus Backhaus, Bernd Erichson, Rolf WeiberDie Choice-Based-Conjoint-Analyse (CBCA) ist eine etablierte Methode zur Messung von Konsumentenpräferenzen, die sich von traditionellen Conjoint-Verfahren durch ihre Fokussierung auf reale Auswahlentscheidungen unterscheidet. Der Fachbeitrag erklärt zunächst die Grundlagen der CBCA, insbesondere ihre Abgrenzung zur traditionellen Conjoint-Analyse (TCA), und geht auf die zentralen Unterschiede in Erhebungsdesign und Datenanalyse ein. Ein zentraler Schwerpunkt liegt auf der Gestaltung von Stimuli und Auswahlsituationen, wobei die Bedeutung der „None-Option“ als realitätsnahes Element hervorgehoben wird. Der Text erläutert detailliert die Spezifikation von Nutzen- und Auswahlmodellen, insbesondere das Logit-Choice-Modell, das die Grundlage für die Schätzung von Teilnutzenwerten bildet. Anhand eines praxisnahen Anwendungsbeispiels aus der Margarinebranche wird die gesamte Prozesskette der CBCA durchlaufen: von der Datenerhebung über die Maximum-Likelihood-Schätzung bis hin zur Interpretation der Ergebnisse. Dabei werden auch methodische Herausforderungen wie die Verankerung von Teilnutzenwerten, die Güteprüfung der Schätzungen und die Berücksichtigung von Heterogenität in den Präferenzen diskutiert. Ein weiterer wichtiger Aspekt ist die Anwendung der CBCA für Marktprognosen, wobei die Berechnung von Auswahlwahrscheinlichkeiten und deren Interpretation als Marktanteile im Mittelpunkt stehen. Der Beitrag geht zudem auf fortgeschrittene Ansätze wie den Hierarchischen Bayes-Ansatz und den Latent-Class-Ansatz ein, die eine disaggregierte Analyse von Präferenzstrukturen ermöglichen. Abschließend werden Limitationen der CBCA diskutiert, insbesondere die Herausforderungen bei der Schätzung individueller Nutzenwerte und die Anpassung von Prognosen an reale Marktbedingungen. Der Text kombiniert dabei theoretische Grundlagen mit praktischen Handlungsempfehlungen und bietet damit eine umfassende Orientierung für die Anwendung der CBCA in der Marktforschung.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm Gegensatz zur traditionellen Conjoint-Analyse erfolgt bei der Choice-Based Conjoint Analysis (Auswahlbasierte Conjoint-Analyse) eine Abfrage von Auswahlentscheidungen. Aus einer Menge von Alternativen (Choice Set) muss der Proband nur jeweils die am meisten präferierte Alternative auswählen, wobei meist auch die Option besteht, keine der Alternativen zu wählen. Dies ist für ihn nicht nur einfacher, sondern kommt auch seinem realen Entscheidungsverhalten (z. B. in Kaufsituationen) sehr viel näher als das Ranking oder Rating aller Alternativen im Choice Set, wie es die klassische Conjoint-Analyse verlangt. Die erhöhte Realitätsnähe wird allerdings mit einem Verlust an Information „erkauft“, da bei dieser Vorgehensweise die Präferenz nur noch auf nominalem Skalenniveau gemessen wird. Während bei der traditionellen Conjoint-Analyse die Schätzung meist durch Regression mit Dummy-Variablen erfolgt, kommt bei der CBCA die Maximum-Likelihood-Methode zur Anwendung. Dabei wird dem Verhalten der Probanden ein probabilistisches Entscheidungsmodell zugrunde gelegt. Wegen des geringeren Informationsgehalts ist es meist nur möglich, die Teilnutzenwerte aggregiert zu schätzen, während es bei der traditionellen Conjoint-Analyse üblich ist, sie individuell für jeden Probanden zu schätzen. Allerdings können auch im Rahmen der CBCA mit Hilfe des Latent Class-Ansatzes zielgruppenspezifische und mit Hilfe des sog. Hierarchical Bayes-Ansatzes individuelle Teilnutzenwerte geschätzt werden. Zur Analyse wird in diesem Kapitel das Softwarepaket „Lighthouse Studio“ von Sawtooth verwendet. Außerdem wird auch die Durchführung einer CBCA mit Hilfe von MS Excel gezeigt.
-
-
Strukturen-entdeckende Verfahren
-
Frontmatter
-
7. Künstliche Neuronale Netze (KNN)
Klaus Backhaus, Bernd Erichson, Rolf WeiberKünstliche Neuronale Netze (KNN) sind eine Klasse von Analyseverfahren, die sich besonders für die Untersuchung komplexer, nichtlinearer Zusammenhänge zwischen Variablen eignen – selbst wenn diese Zusammenhänge nichtlinear oder schwer vorhersehbar sind. Der Fachbeitrag erklärt zunächst die grundlegenden Prinzipien, wie KNN funktionieren, und zieht dabei Parallelen zum biologischen Nervensystem, um die Informationsverarbeitung in künstlichen Neuronen nachvollziehbar zu machen. Ein zentraler Fokus liegt auf der Unterscheidung zwischen überwachtem und unüberwachtem Lernen, wobei der Backpropagation-Algorithmus als zentrales Trainingsverfahren für überwachte Lernprozesse detailliert beschrieben wird. Dabei wird aufgezeigt, wie das Netz durch iterative Anpassung der Gewichte zwischen den Neuronen lernt, um die Abweichung zwischen vorhergesagten und tatsächlichen Werten zu minimieren. Ein weiterer Schwerpunkt ist die Gestaltung der Netztopologie, insbesondere die Festlegung der Anzahl verdeckter Schichten und Neuronen, sowie die Wahl geeigneter Aktivierungsfunktionen, die für die Modellierung nichtlinearer Zusammenhänge entscheidend sind. Praktische Anwendungsbeispiele – wie die Prognose von Aktienkursen oder die Klassifizierung von Kreditwürdigkeit – veranschaulichen, wie KNN in der Praxis eingesetzt werden können. Zudem wird auf typische Herausforderungen wie Overfitting oder die Wahl der Lernrate eingegangen, die für die erfolgreiche Implementierung von KNN entscheidend sind. Abschließend zeigt ein Fallbeispiel aus der Marktforschung, wie ein Multi-Layer-Perceptron (MLP) mit gängiger Software (z. B. IBM SPSS) trainiert und interpretiert wird, inklusive der Analyse von Gewichten und Wichtigkeiten der Eingabevariablen. Der Beitrag bietet damit nicht nur eine theoretische Einführung, sondern auch konkrete Handlungsanweisungen für die praktische Anwendung von KNN in verschiedenen Analysekontexten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Methodik der KNN lehnt sich an biologische Informationsverarbeitungsprozesse im Gehirn an. Dabei werden künstliche neuronale Netze gebildet, die in der Lage sind, selbstständig aus Erfahrung zu lernen. Die erlernten Strukturen bestehen aus miteinander verbundenen Knoten, den Neuronen, die Informationen verarbeiten und weiterleiten. Die Neuronen sind in Schichten organisiert, wobei jedes Neuron mit denen der nachgelagerten Schicht verbunden ist. Zum Erlernen von Strukturen wird das Netz zunächst in einer sog. Trainingsphase mit beobachteten Daten „gefüttert“. Dabei wird unterschieden zwischen Lernprozessen, bei denen die richtigen Ergebnisse bekannt sind und diese durch das Netz reproduziert werden sollen (überwachtes Lernen), und solchen, bei denen die richtigen Ergebnisse nicht bekannt sind und lediglich ein konsistentes Verarbeitungsmuster erzeugt werden soll (unüberwachtes Lernen). Nach der Trainingsphase ist das Netz konfiguriert und kann für die Analyse neuer Daten eingesetzt werden. KNN besitzen heute vor allem eine besonders hohe Relevanz für das sog. „deep learning“ im Rahmen der Künstlichen Intelligenz. Sie vermögen komplexe Muster in vorhandenen Daten (z. B. Finanzdaten, Verkaufsdaten) zu erkennen und lassen sich besonders vorteilhaft bei der Behandlung von schlecht strukturierten Problemstellungen einsetzen. Auch können nicht-lineare und komplexe Zusammenhänge ohne spezifisches Vorwissen über die etwaige Richtung der Zusammenhänge und das Ausmaß der Wirkungsbeziehungen zwischen einer Vielzahl von Variablen modelliert werden. Anwendungsgebiete sind die Klassifikationen von Objekten, Prognosen von Zuständen oder Probleme der Gruppenbildung. Hinsichtlich der Problemstellungen besteht auch eine Ähnlichkeit zur Clusteranalyse und zur Diskriminanzanalyse. Die Analyse eines KNN wird für ein größeres Fallbeispiel mit Hilfe der Prozedur Multi-Layer-Perceptron (MLP) in IBM SPSS durchgeführt. -
8. Multidimensionale Skalierung (MDS)
Klaus Backhaus, Bernd Erichson, Rolf WeiberDas Kapitel führt in die Multidimensionale Skalierung (MDS) ein, eine Methode zur Visualisierung subjektiver Wahrnehmungen von Objekten in einem mehrdimensionalen Raum. Es wird erklärt, wie Objekte wie Produkte, Politiker oder Universitäten durch Personen auf verschiedenen Dimensionen beurteilt werden und wie diese Wahrnehmungen in räumlichen Konfigurationen dargestellt werden können. Der Text beleuchtet die beiden grundlegenden Ansätze zur Datenerhebung: die Bewertung von Objekteigenschaften und die direkte Einschätzung von Ähnlichkeiten zwischen Objekten. Besonders detailliert wird die nichtmetrische MDS behandelt, die mit Rangdaten arbeitet und keine Vorgabe von Eigenschaften erfordert. Ein zentraler Fokus liegt auf der praktischen Durchführung einer MDS-Analyse, beginnend mit der Messung von Ähnlichkeiten über die Wahl des Distanzmodells bis hin zur Ermittlung der optimalen Konfiguration. Dabei werden verschiedene Distanzmaße wie die Euklidische Metrik und die City-Block-Metrik gegenübergestellt und ihre Auswirkungen auf die Ergebnisse diskutiert. Ein besonderes Augenmerk gilt der Interpretation der Ergebnisse, insbesondere der Bestimmung der Anzahl der Dimensionen und der inhaltlichen Deutung der Achsen. Das Kapitel zeigt, wie die Güte einer MDS-Lösung mit dem STRESS-Maß bewertet wird und welche Kriterien für eine stabile und valide Lösung entscheidend sind. Abschließend wird die Einbindung von Präferenzdaten und Eigenschaftsurteilen in den Wahrnehmungsraum erläutert, um die Positionierung von Objekten und die Ableitung von Marktstrategien zu unterstützen. Mit zahlreichen Beispielen und Abbildungen wird die Theorie anschaulich illustriert, sodass Leser die Methode direkt in ihrer eigenen Forschung anwenden können.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungFür viele Bereiche der sozialwissenschaftlichen Forschung ist es von großer Bedeutung, die subjektive Wahrnehmung von Objekten durch Personen (z. B. Wahrnehmung von Produkten durch Konsumenten, von Politikern durch Wähler, von Universitäten durch Studenten) zu bestimmen. Man geht davon aus, dass Objekte eine Position im Wahrnehmungsraum einer Person haben. Der Wahrnehmungsraum einer Person ist in der Regel mehrdimensional, d. h. Objekte werden von Personen im Hinblick auf verschiedene Dimensionen beurteilt (z. B. ein Auto nach Komfort, Sportlichkeit, Prestige). Die Gesamtheit der Positionen der Objekte im Wahrnehmungsraum in ihrer relativen Lage zueinander wird Konfiguration genannt. Zur Durchführung einer MDS wird in diesem Kapitel die in IBM SPSS implementierte Prozedur ALSCAL verwendet. -
9. Korrespondenzanalyse
Klaus Backhaus, Bernd Erichson, Rolf WeiberDieses Kapitel führt in die Korrespondenzanalyse ein, ein Verfahren zur grafischen Darstellung von Häufigkeiten qualitativer Merkmale in Kreuztabellen. Zunächst wird die Problemstellung erläutert, warum eine solche Visualisierung notwendig ist, insbesondere bei komplexen Datensätzen mit vielen Kategorien. Der Text erklärt, wie die Korrespondenzanalyse im Unterschied zur Kontingenzanalyse nicht nur statistische Zusammenhänge prüft, sondern diese direkt in einem gemeinsamen Raum (joint space) abbildet. Ein zentraler Fokus liegt auf der Erstellung und Interpretation von Zeilen- und Spaltenprofilen, die durch Normierung der Daten gewonnen werden. Die Autoren zeigen, wie diese Profile in einem Korrespondenzraum dargestellt werden und welche Rückschlüsse sich aus der Positionierung der Punkte ziehen lassen. Besonders hervorgehoben wird die Bedeutung der Inertia (Gesamtträgheit) als Maß für die Streuung in den Daten und wie diese durch die Einzelwertzerlegung in Dimensionen zerlegt wird. Ein weiterer Schwerpunkt liegt auf den verschiedenen Normalisierungsmethoden der Korrespondenzanalyse, darunter die symmetrische und asymmetrische Darstellung, die unterschiedliche Interpretationsmöglichkeiten bieten. Anhand eines praxisnahen Anwendungsbeispiels aus dem Automobilmarkt wird die Methode Schritt für Schritt durchgespielt: von der Erstellung der Kontingenztabelle über die Standardisierung der Daten bis hin zur grafischen Darstellung der Ergebnisse. Dabei werden auch die mathematischen Grundlagen erläutert, wie die Chi-Quadrat-Distanzen zwischen den Profilen berechnet werden und warum diese für die Interpretation entscheidend sind. Abschließend wird die Korrespondenzanalyse in den Kontext anderer multivariater Verfahren wie der Faktorenanalyse und der multidimensionalen Skalierung eingeordnet und ihre historischen Wurzeln in der französischen Datenanalyse beleuchtet. Das Kapitel bietet damit nicht nur eine theoretische Einführung, sondern auch eine praktische Anleitung zur Durchführung und Interpretation der Korrespondenzanalyse mit gängigen Softwaretools wie IBM SPSS.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Korrespondenzanalyse dient der Visualisierung komplexer Daten, weshalb sie zur Durchführung von Positionierungsanalysen verwendet wird. Sie kann auch als ein Verfahren der multidimensionalen Skalierung (vgl. Kap. 8) von nominal skalierten Variablen charakterisiert werden. Sie ermöglicht es, die Zeilen und Spalten einer zweidimensionalen Kreuztabelle (Kontingenztabelle) grafisch in einem gemeinsamen Raum darzustellen. Ein besonderer Vorteil der Korrespondenzanalyse liegt darin, dass sie kaum Ansprüche an das Skalenniveau der Daten stellt. Die Daten müssen lediglich nicht-negativ sein. Die Korrespondenzanalyse kann daher auch zur Quantifizierung qualitativer Daten verwendet werden. Da sich qualitative Daten leichter erheben lassen als quantitative Daten, kommt diesem Verfahren eine erhebliche praktische Bedeutung zu. Beispiel: Gegeben sei eine Häufigkeitstabelle, deren Zeilen Automarken betreffen und in deren Spalten wünschenswerte Merkmale von Autos (z. B. hohe Sicherheit, schönes Design) stehen. Die Zellen der Matrix sollen beinhalten, mit welcher Häufigkeit ein bestimmtes qualitatives Merkmal den verschiedenen Automarken im Rahmen einer empirischen Erhebung zugeordnet wurde. Marken und Merkmale lassen sich sodann mit Hilfe der Korrespondenzanalyse in einem gemeinsamen Raum als Punkte darstellen. Dadurch lässt sich dann erkennen, wie die Automarken relativ zueinander und in Bezug auf die Merkmale von den Käufern beurteilt werden. Zur Durchführung einer Korrespondenzanalyse wird in diesem Kapitel die in IBM SPSS implementierte Prozedur CORRESPONDENCE verwendet.
-
-
Backmatter
- Titel
- Fortgeschrittene Multivariate Analysemethoden
- Verfasst von
-
Klaus Backhaus
Bernd Erichson
Rolf Weiber
- Copyright-Jahr
- 2026
- Verlag
- Springer Berlin Heidelberg
- Electronic ISBN
- 978-3-662-71696-0
- Print ISBN
- 978-3-662-71695-3
- DOI
- https://doi.org/10.1007/978-3-662-71696-0
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.