Skip to main content

2016 | Buch

Multivariate Analysemethoden

Eine anwendungsorientierte Einführung

verfasst von: Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

Verlag: Springer Berlin Heidelberg

insite
SUCHEN

Über dieses Buch

Dieses Lehrbuch behandelt neun grundlegende Verfahren der multivariaten Datenanalyse in ausführlicher Weise. Dies sind die:

- Regressionsanalyse

- Zeitreihenanalyse

- Varianzanalyse

- Diskriminanzanalyse

- Logistische Regression

- Kontingenzanalyse

- Faktorenanalyse

- Clusteranalyse und

- Conjoint-Analyse.

Das Buch stellt geringstmögliche Anforderungen an mathematische Vorkenntnisse und bietet eine allgemein verständliche Darstellung anhand eines für alle Methoden verwendeten Fallbeispiels unter Verwendung von IBM SPSS für Windows. Die Autoren legen Wert auf konsequente Anwendungsorientierung und vollständige Nachvollziehbarkeit der zentralen Rechenoperationen durch den Leser. Jedes Verfahren kann unabhängig für sich durchgeführt werden. Ein besonderes Augenmerk liegt auf dem Aufzeigen von methodenbedingten Manipulationsspielräumen. Darüber hinaus werden jeweils in Form einer kurzen Einführung die Problemstellungen und Vorge

hensweisen von sieben weiteren Verfahren (Nichtlineare Regression, Strukturgleichungsmodelle, Konfirmatorische Faktorenanalyse, Neuronale Netze, Multidimensionale Skalierung, Korrespondenzanalyse und Auswahlbasierte Conjoint-Analyse) dargestellt. Diese werden in dem vertiefenden Band „Fortgeschrittene Multivariate Analyseverfahren“ ausführlich behandelt.

Der vorliegende Band richtet sich primär an

die Zielgruppe der Bachelor-Studierenden aller Fachrichtungen. Die Beispiele sind zwar aus dem Marketing-Bereich entnommen, die Darstellungen aber so einfach gehalten, dass die Verfahren sich leicht auf spezifische Fragen und Probleme in den unterschiedlichsten Anwendungsfeldern übertragen lassen. Über die Internetseite www.multivariate.de werden den Leserinnen und Lesern weitere

Serviceleistungen zur Verfügung gestellt.

In der 14. Auflage wurden alle Kapitel überarbeitet. Beispiele, soweit sie mit SPSS gerechnet wurden, sind auf die neueste SPSS-Version umgestellt worden und neue für den anwendungsorientierten Nutzer sinnvolle Auswertungsoptionen wurden ergänzt.

Anlässlich des 50. Kongresses der Deutschen Marktforschung des Berufsverbandes Deutscher Markt- und Sozialforscher e. V. (BVM) wurde das vorliegende Buch als das Lehrbuch ausgezeichnet, das die deutsche Marktforschungspraxis in den letzten Jahrzehnten nachhaltig geprägt hat.

Inhaltsverzeichnis

Frontmatter

Benutzungshinweise

Frontmatter
0. Zur Verwendung dieses Buches
Zusammenfassung
Mittels multivariater Analysemethoden werden mehrere Variablen simultan betrachtet und deren Zusammenhang quantitativ analysiert, sei es, um ihn zu beschreiben, zu erklären oder um zukünftige Entwicklungen zu prognostizieren. Einen Spezialfall bilden bivariate Analysemethoden, bei denen nur jeweils zwei Variablen betrachtet werden. Die Realität aber ist komplex und deren adäquate Abbildung macht daher in der Regel die Anwendung multivariater Verfahren erforderlich. Die Bewältigung des damit verbundenen oft recht hohen Rechenaufwandes bildet seit der Verfügbarkeit von leistungsfähigen Computern und geeigneter Software keinen Engpass mehr. Multivariate Analysemethoden sind daher heute eines der Fundamente der empirischen Forschung in den Realwissenschaften.
In diesem einleitenden Kapitel sollen zunächst
- einige Grundbegriffe geklärt werden,
- ein Überblick über die wichtigsten multivariaten Analysemethoden gegeben werden
- und ein Einstieg in das heute weit verbreitete Programmsystem IBM SPSS Statistics vermittelt werden.
Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

Grundlegende Verfahren der multivariaten Analyse

Frontmatter
1. Regressionsanalyse
Zusammenfassung
Die Regressionsanalyse bildet eines der flexibelsten und am häufigsten eingesetzten statistischen Analyseverfahren. Sie dient der Analyse von Beziehungen zwischen einer abhängigen Variablen und einer oder mehreren unabhängigen Variablen. Insbesondere wird sie eingesetzt, um
- Zusammenhänge quantitativ zu beschreiben und sie zu erklären,
- Werte der abhängigen Variablen zu schätzen bzw. zu prognostizieren.
Primäre Anwendungsbereiche betreffen die Untersuchung von Kausalbeziehungen wie auch die Unterstützung von Entscheidungen. Die Regressionsanalyse ist damit von eminenter Wichtigkeit für Wissenschaft und Praxis.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
2. Zeitreihenanalyse
Zusammenfassung
Bei der Datenanalyse wird generell zwischen der Analyse von Querschnittsdaten, die zu einem Zeitpunkt bei verschiedenen Untersuchungsobjekten erhoben wurden, und Zeitreihendaten (Längsschnittdaten), die zu verschiedenen Zeitpunkten erhoben wurden, unterschieden, wobei sich diese auch kombinieren lassen. Während die in diesem Buch behandelten Methoden primär der Querschnittsanalyse dienen, soll in diesem Kapitel gesondert auf die Zeitreihenanalyse eingegangen werden. Sie bildet ein wichtiges Anwendungsgebiet der im vorstehenden Kapitel behandelten Regressionsanalyse.
Die Zeitreihenanalyse dient neben der Beschreibung und Erklärung der zeitlichen Entwicklung einer Variablen Y insbesondere auch deren Prognose, d.h. der Schätzung von Werten dieser Variablen für zukünftige Zeitpunkte oder Perioden. Jede weitreichende Entscheidung basiert auf Prognosen. Die Zeitreihenanalyse ist daher für die Stützung von Entscheidungsproblemen jeglicher Art von großer Wichtigkeit. Hier soll nur ein Einblick in Grundlagen der Zeitreihenanalyse mit Hilfe des Instrumentariums der Regressionsanalyse gegeben werden.
Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber
3. Varianzanalyse
Zusammenfassung
Die Varianzanalyse ist ein Verfahren, das die Wirkung einer (oder mehrerer) unabhängiger Variablen auf eine (oder mehrere) abhängige Variablen untersucht. Für die unabhängigen Variablen, die auch als Faktoren oder Treatments bezeichnet werden, wird dabei lediglich Nominalskalierung verlangt, während die abhängige Variable (auch Zielvariable genannt) metrisches Skalenniveau aufweisen muss. Die Varianzanalyse ist das wichtigste multivariate Verfahren zur Aufdeckung von Mittelwertunterschieden und dient damit insbesondere der Auswertung von Experimenten. Das Kapitel behandelt sowohl die einfaktorielle (eine abhängige und eine unabhängige Variable) als auch die zweifaktorielle (eine abhängige und zwei unabhängige Variable) Varianzanalyse und erweitert die Betrachtungen im Fallbeispiel auf die Analyse mit zwei unabhängigen Faktoren (nominal skaliert) und zwei (metrisch skalierten) Kovariaten. Darüber hinaus werden auch die Kontrastanalyse und der Post hoc-Test behandelt.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
4. Diskriminanzanalyse
Zusammenfassung
Die Diskriminanzanalyse ist ein multivariates Verfahren zur Analyse von Gruppenunterschieden. Sie ermöglicht es, die Unterschiedlichkeit von zwei oder mehreren Gruppen hinsichtlich einer Mehrzahl von Variablen zu untersuchen, um Fragen folgender Art zu beantworten:
- ″Unterscheiden sich die Gruppen signifikant voneinander hinsichtlich der Variablen?″
- ″Welche Variablen sind zur Unterscheidung zwischen den Gruppen geeignet bzw. ungeeignet?″
Während die Analyse von Gruppenunterschieden primär wissenschaftlichen Zwecken dient, ist ein weiteres Anwendungsgebiet der Diskriminanzanalyse von unmittelbarer praktischer Relevanz. Es handelt sich hierbei um die Bestimmung oder Prognose der Gruppenzugehörigkeit von Elementen (Klassifizierung). Die Fragestellung lautet:
″In welche Gruppe ist ein ″neues″ Element, dessen Gruppenzugehörigkeit nicht bekannt ist, aufgrund seiner Merkmalsausprägungen einzuordnen?″
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
5. Logistische Regression
Zusammenfassung
Bei vielen Problemstellungen in Wissenschaft und Praxis treten immer wieder die folgenden Fragen auf:
- Welcher von zwei oder mehreren alternativen Zuständen liegt vor oder welches Ereignis wird eintreffen?
- Welche Faktoren eignen sich für die Entscheidung oder Prognose und welchen Einfluss haben sie auf das Zustandekommen eines Zustandes oder Ereignisses?
Häufig geht es dabei nur um zwei alternative Zustände oder Ereignisse, z.B. hat ein Patient eine bestimmte Krankheit oder nicht? Wird er überleben oder nicht? In anderen Fällen geht es um mehr als zwei Alternativen, z.B. welche Marke wird ein potentieller Käufer wählen oder welcher Partei wird ein Wähler seine Stimme geben? Zur Beantwortung derartiger Fragen kann die logistische Regression angewendet werden.
Die logistische Regression ähnelt hinsichtlich der Problemstellung der Diskriminanzanalyse. Der für den Anwender wesentliche Unterschied zwischen den beiden Verfahren besteht darin, dass die logistische Regression direkt Wahrscheinlichkeiten für das Eintreffen der alternativen Zustände oder der Zugehörigkeiten zu den einzelnen Gruppen liefert.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
6. Kreuztabellierung und Kontingenzanalyse
Zusammenfassung
Kreuztabellierung und Kontingenzanalyse dienen dazu, Zusammenhänge zwischen nominal skalierten Variablen aufzudecken und zu untersuchen. Typische Anwendungsbeispiele sind die Untersuchung von Zusammenhängen zwischen der Einkommensklasse, dem Beruf oder dem Geschlecht von Personen und ihrem Konsumverhalten oder die Überprüfung der Frage, ob der Bildungsstand oder die Zugehörigkeit zu einer sozialen Klasse einen Einfluss auf die Mitgliedschaft in einer bestimmten politischen Partei hat. Dabei auftretende Fragen können z.B. sein:
• Ist ein Zusammenhang zwischen den Variablen erkennbar und signifikant?
• Gibt es weitere Variablen, durch deren zusätzliche Betrachtung das vorherige Untersuchungsergebnis bestätigt, näher erläutert oder revidiert wird?
• Gibt es die Möglichkeit, eine Aussage über Stärke oder gar Richtung des Zusammenhangs zu treffen?
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
7. Faktorenanalyse
Zusammenfassung
Die explorative Faktorenanalyse ist ein Verfahren der multivariaten Analyse, das darauf gerichtet ist, Strukturen in großen Variablensets erkennen zu können. Große Variablensets sind oftmals dadurch gekennzeichnet, dass mit steigender Zahl der Variablen davon auszugehen ist, dass sich mehr und mehr Variablen überlappen. Statistisch drückt sich dies in Korrelationen zwischen den Variablen aus. Die exploratorische Faktorenanalyse (EFA) versucht, die Beziehungszusammenhänge in einem großen Variablenset insofern zu strukturieren, als sie Gruppen von Variablen identifiziert, die hoch miteinander korreliert sind und diese von weniger korrelierten Gruppen trennt. Die Gruppen von jeweils hoch korrelierten Variablen bezeichnet man auch als Faktoren. Neben der Strukturierungsfunktion wird die Faktorenanalyse auch zur Datenreduktion eingesetzt. Wir sprechen von einer Datenreduktion, wenn zusätzlich zur Strukturierung Ausprägungen für die strukturierten Faktoren (Faktorwerte) ermittelt werden. Liegen solche Faktorwerte vor, dann lassen sie sich anstelle der Originalwerte der Variablen verwenden.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
8. Clusteranalyse
Zusammenfassung
Die Clusteranalyse ist ein Verfahren zur Gruppierung der Fälle (Untersuchungsobjekte) in einem Datensatz. Zu diesem Zweck muss im ersten Schritt die Ähnlichkeit bzw. Unähnlichkeit (Distanz) zwischen den Fällen über ein geeignetes Maß festgestellt werden. Im zweiten Schritt ist der Fusionierungsalgorithmus zu bestimmen, mit dessen Hilfe die einzelnen Fälle sukzessive zu Gruppen (Cluster) zusammengefasst werden. Ziel ist es dabei, solche Untersuchungsobjekte zu Gruppen (Cluster) zusammenzufassen, die im Hinblick auf die betrachteten Eigenschaften oder Merkmale der Untersuchungsobjekte als möglichst homogen zu bezeichnen sind. Gleichzeitig sollten die Gruppen untereinander eine möglichst große Heterogenität aufweisen, d. h. möglichst unähnlich sein. Die Verfahren der Clusteranalyse können dabei sowohl Variable mit metrischem, nicht metrischem als auch gemischtes Skalenniveau verarbeiten.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
9. Conjoint-Analyse
Zusammenfassung
Die (traditionelle) Conjoint-Analyse ist ein Verfahren zur Analyse von ordinal gemessenen Präferenzen. In der Literatur finden sich für den Begriff „Conjoint-Analyse“ auch die Bezeichnungen „Conjoint Measurement“, „konjunkte Analyse“ oder „Verbundmessung“. Bei der Conjoint-Analyse werden die betrachteten Objekte in eine Rangordnung gebracht, die den persönlichen Objekt-Präferenzen einer Person entspricht. Das Verfahren bestimmt aus den erhobenen Rangdaten sog. metrische Teilnutzenwerte für die einzelnen Eigenschaftsausprägungen der Objekte. Durch diese soll der Beitrag einzelner Merkmale zum sog. Gesamtnutzen eines Objektes bestimmt werden. Dieser lässt sich durch Addition der Teilnutzenwerte errechnen. Die sich gemäß den errechneten Gesamtnutzenwerten ergebende Objekt-Reihenfolge sollte möglichst gut mit der erhobenen (empirischen) Objekt- Rangfolge übereinstimmen. Charakteristisch für Conjoint-Analysen ist ihr dekompositioneller Ansatz, d. h. dass sich die erhobenen Urteile einer Person zwar auf die Objekte in ihrer Gesamtheit beziehen, diese Gesamturteile dann aber dazu verwendet werden, die sog. Teilnutzenwerte pro Eigenschaftsausprägung zu errechnen. Die Conjoint-Analyse ist zunächst einmal eine Individualanalyse, durch die sich das Beurteilungsverhalten einer konkreten Person nachvollziehen lässt.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke

Fortgeschrittene Verfahren der multivariaten Analyse

Frontmatter
10. Nichtlineare Regression
Zusammenfassung
Die Nichtlineare Regression wird in diesem Kapitel auf acht Seiten in den wesentlichen Grundzügen behandelt, wobei die mittels Nichtlinearer Regression zu behandelnden Problemstellungen sowie die Vorgehensweise bei der Schätzung eines Wachstumsmodells skizziert werden und die Umsetzung mit SPSS kurz aufgezeigt wird. Mit Hilfe der Nichtlinearen Regression lassen sich nahezu beliebige Modellstrukturen schätzen. Anwendungen finden sich z. B. im Rahmen der Werbewirkungsforschung, in der Marktforschung oder bei der Untersuchung von Wachstumsmodellen. Allerdings können die Modellschätzungen aufgrund der nicht linearen Modellstrukturen nur mit Hilfe von iterativen Algorithmen berechnet werden. Ob diese Algorithmen konvergieren, hängt u. a. davon ab, welche Startwerte der Untersucher vorgibt. Es werden somit auch erhöhte Anforderungen an den Anwender gestellt. Die statistischen Tests, die bei der linearen Regressionsanalyse zur Prüfung der Güte des Modells oder der Signifikanz der Parameter verwendet werden, sind für die Nichtlineare Regression nicht anwendbar. Eine ausführliche Darstellung der Nichtlinearen Regression mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
11. Strukturgleichungsanalyse
Zusammenfassung
Die Strukturgleichungsanalyse (SGA) wird in diesem Kapitel auf sieben Seiten in den wesentlichen Grundzügen behandelt, indem die mittels SGA zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit AMOS aufgezeigt wird. Die SGA dient der Prüfung von komplexen Modellen, die z. B. aus mehreren abhängigen Variablen (endogene Variable), die auch untereinander in Beziehung stehen können, und mehreren unabhängigen Variablen (exogene Variable) bestehen. In diesem Kapitel wird der Fall betrachtet, dass die Variablen hypothetische Konstrukte darstellen, die nicht direkt beobachtet werden können (sog. latente Variable). Beispiele für hypothetische Konstrukte sind z. B. Einstellungen, Stress, Zufriedenheit, Emotionen, Attraktivität, Kultur, Vertrauen oder Intelligenz. Solche Konstrukte müssen durch geeignete Messmodelle operationalisiert werden. Die hier vorgestellte SGA schätzt dann simultan die Messmodelle der latenten Variablen und die Kausalbeziehungen zwischen den endogenen Variablen. Eine ausführliche Darstellung der SGA mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
12. Konfirmatorische Faktorenanalyse
Zusammenfassung
Die Konfirmatorische Faktorenanalyse (KFA) wird in diesem Kapitel auf sieben Seiten in den wesentlichen Grundzügen behandelt, indem die mittels KFA zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit AMOS aufgezeigt wird. Bei vielen Anwendungsfällen sind die interessierenden Variablen sog. hypothetische Konstrukte, die sich einer direkten Beobachtbarkeit entziehen und deshalb über Messmodelle operationalisiert werden müssen. Beispiele für hypothetische Konstrukte (latente Variable) sind z. B. Einstellungen, Stress, Zufriedenheit, Emotionen, Attraktivität, Kultur, Vertrauen oder Intelligenz. Die KFA unterstellt dabei, dass sich die latenten Variablen durch sog. reflektive Messmodelle operationalisieren lassen, die auf empirisch direkt messbaren Variablen (sog. Indikatorvariable) basieren. Die Indikatorvariablen müssen dabei so definiert werden, dass ihre Messwerte jeweils beispielhafte Manifestierungen des betrachteten hypothetischen Konstruktes darstellen. Die KFA dient der empirischen Prüfung von Messmodellen und basiert ebenso wie die explorative Faktorenanalyse auf dem Fundamentaltheorem der Faktorenanalyse. Weiterhin stellt die KFA einen „Spezialfall“ der Strukturgleichungsanalyse mit latenten Variablen dar. Eine ausführliche Darstellung der KFA mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
13. Auswahlbasierte Conjoint-Analyse
Zusammenfassung
Die Auswahlbasierte Conjoint-Analyse (ACA) wird in diesem Kapitel auf fünf Seiten in den wesentlichen Grundzügen behandelt, indem die mittels ACA zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit dem Programmpaket der Sawtooth Software Inc. (SSI) aufgezeigt wird. Wie die traditionelle Conjoint-Analyse, so dient auch die ACA der Analyse von Präferenzen. Aus einer Menge von Alternativen (Choice Set) muss ein Proband nur jeweils die am meisten präferierte Alternative auswählen, wobei meist auch die Option besteht, keine der Alternativen zu wählen. Dies ist für ihn nicht nur einfacher, sondern kommt auch seinem realen Entscheidungsverhalten (z. B. in Kaufsituationen) sehr viel näher als das Ranking aller betrachteten Objekte wie es die traditionelle Conjoint-Analyse erfordert. Die erhöhte Realitätsnähe wird allerdings mit einem Verlust an Information erkauft, da bei dieser Vorgehensweise die Präferenz nur noch auf nominalem Skalenniveau gemessen wird. Zur Schätzung der Nutzenbeiträge einzelner Merkmale (Teilnutzenwerte) muss daher ein anderes Schätzverfahren verwendet werden. Während bei der traditionellen Conjoint-Analyse die Schätzung meist durch Regression mit Dummy-Variablen erfolgt, kommt bei der ACA die Maximum-Likelihood-Methode zur Anwendung, die eine iterative Schätzung der Teilnutzenwerte vornimmt. Wegen des geringeren Informationsgehalts ist es meist nur möglich, die Teilnutzenwerte aggregiert zu schätzen, während es bei der traditionellen Conjoint-Analyse üblich ist, sie individuell für jeden Probanden zu schätzen. Eine ausführliche Darstellung der ACA mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./ Erichson, B./Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
14. Neuronale Netze
Zusammenfassung
Neuronale Netze werden in diesem Kapitel auf sieben Seiten in den wesentlichen Grundzügen behandelt, indem die mittels Neuronalen Netzen zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit SPSS aufgezeigt wird. In der Realität sind die Wirkungsbeziehungen zwischen Variablen häufig sehr komplex, wobei sich die Komplexität einerseits in einer großen Anzahl von miteinander verknüpften Einflussfaktoren äußert, andererseits darin, dass die Beziehungen zwischen den Variablen häufig nicht-linear sind. Auch kann der Anwender in vielen Fällen keine begründeten Hypothesen über die Art der Zusammenhänge aufstellen. In solchen Fällen sind sog. (Künstliche) Neuronale Netze von großem Nutzen, da der Anwender bei dieser Gruppe von Analyseverfahren nicht zwingenderweise eine Vermutung über den Zusammenhang zwischen Variablen treffen muss. Das bedeutet, dass weder eine kausale Verknüpfung zwischen Variablen postuliert noch die Verknüpfung zwingend als linear unterstellt werden muss. Außerdem können Neuronale Netze auch Variable mit unterschiedlichem Skalenniveau verarbeiten. Neuronale Netze ermitteln die Zusammenhänge zwischen Variablen selbständig durch einen Lernprozess und können dabei eine Vielzahl von Variablen berücksichtigen. Eine ausführliche Darstellung zu Neuronalen Netzen mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
15. Multidimensionale Skalierung
Zusammenfassung
Die Multidimensionale Skalierung (MDS) wird in diesem Kapitel auf acht Seiten in den wesentlichen Grundzügen behandelt, indem die mittels MDS zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit SPSS aufgezeigt wird. Die MDS umfasst Verfahren, mittels derer sich Objekte auf Basis ihrer Ähnlichkeiten oder Unähnlichkeiten gemeinsam in einem zwei- odermehrdimensionalen Raum darstellen lassen. Ein primäres Anwendungsgebiet bilden Positionierungsanalysen, mittels derer sich die subjektive Wahrnehmung von Objekten durch Personen (z. B. der Wahrnehmung von Produkten durch Konsumenten, von Politikern durch Wähler, von Universitäten durch Studenten) visualisieren lässt. Aus den erfragten Ähnlichkeiten zwischen den Objekten leitet die MDS Wahrnehmungsdimensionen ab, mit deren Hilfe sich die Objekte dann positionieren und grafisch darstellen lassen. Die MDS findet insbesondere dann Anwendung, wenn der Anwender keine oder nur vage Kenntnisse darüber hat, welche Eigenschaften für die subjektive Beurteilung von Objekten (z. B. Produktmarken, Unternehmen oder Politiker) von Relevanz sind. Eine ausführliche Darstellung der MDS mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
16. Korrespondenzanalyse
Zusammenfassung
Die Korrespondenzanalyse wird in diesem Kapitel auf neun Seiten in den wesentlichen Grundzügen behandelt, indem die mittels Korrespondenzanalyse zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit SPSS aufgezeigt wird. Die Korrespondenzanalyse dient zur Visualisierung komplexer Daten. Sie kann auch als ein Verfahren der multidimensionalen Skalierung von nominal skalierten Variablen charakterisiert werden und wird vor allem in der Marktforschung zur Durchführung von Positionierungsanalysen verwendet. Die Korrespondenzanalyse ermöglicht es, die Zeilen und Spalten einer zweidimensionalen Kreuztabelle (Kontingenztabelle) grafisch in einem gemeinsamen Raum darzustellen. Ein besonderer Vorteil der Korrespondenzanalyse liegt darin, dass sie kaum Ansprüche an das Skalenniveau der Daten stellt. Die Daten müssen lediglich nichtnegativ sein. Die Korrespondenzanalyse kann daher auch zur Quantifizierung qualitativer Daten verwendet werden. Da sich qualitative Daten leichter erheben lassen als quantitative Daten, kommt diesem Verfahren eine große praktische Bedeutung zu. Eine ausführliche Darstellung der Korrespondenzanalyse mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.
Klaus Backhaus, Bernd Erichson, Rolf Weiber, Wulff Plinke
Backmatter
Metadaten
Titel
Multivariate Analysemethoden
verfasst von
Klaus Backhaus
Bernd Erichson
Wulff Plinke
Rolf Weiber
Copyright-Jahr
2016
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-46076-4
Print ISBN
978-3-662-46075-7
DOI
https://doi.org/10.1007/978-3-662-46076-4