Skip to main content
main-content

Über dieses Buch

Dieses Lehrbuch behandelt, nach einer kurzen Einführung in die Grundlagen der Datenanalyse und das Analyseprogramm IBM SPSS für Windows, neun grundlegende Verfahren der multivariaten Datenanalyse in ausführlicher Weise. Dies sind die:

- Regressionsanalyse

- Zeitreihenanalyse

- Varianzanalyse

- Diskriminanzanalyse

- Logistische Regression

- Kontingenzanalyse

- Faktorenanalyse

- Clusteranalyse und

- Conjoint-Analyse.

Das Buch stellt geringstmögliche Anforderungen an mathematische Vorkenntnisse und bietet eine allgemein verständliche Darstellung. Ergänzt wird die Einführung in die Grundlagen der jeweiligen Methode durch ein Fallbeispiel, das unter Verwendung von IBM SPSS für Windows berechnet wird. Die Autoren legen Wert auf konsequente Anwendungsorientierung und vollständige Nachvollziehbarkeit der zentralen Rechenoperationen durch den Leser. Jedes Verfahren kann unabhängig für sich durchgeführt werden. Ein besonderes Augenmerk liegt auf dem Aufzeigen von methodenspezifischen Gestaltungsoptionen im Rahmen von IBM SPSS. Darüber hinaus werden jeweils in Form einer kurzen Einführung die Problemstellungen und Vorgehensweisen von sieben weiteren Verfahren (Nichtlineare Regression, Strukturgleichungsmodelle, Konfirmatorische Faktorenanalyse, Neuronale Netze, Multidimensionale Skalierung, Korrespondenzanalyse und Auswahlbasierte Conjoint-Analyse) dargestellt. Diese werden in dem vertiefenden Band „Fortgeschrittene Multivariate Analyseverfahren“ ausführlich behandelt.

Dieses Lehrbuch richtet sich primär an die Zielgruppe der Bachelor-Studierenden aller Fachrichtungen. Die Beispiele sind zwar aus dem Marketing-Bereich entnommen, die Darstellungen aber so einfach gehalten, dass die Verfahren sich leicht auf spezifische Fragen und Probleme in den unterschiedlichsten Anwendungsfeldern übertragen lassen. Weitere Serviceleistungen stehen den Leserinnen und Lesern auf einer Internetseite zur Verfügung.

In der 15. Auflage wurden alle Kapitel überarbeitet. Alle Fallbeispiele wurden mit der neuesten SPSS-Version (SPSS 25) berechnet und neue für den anwendungsorientierten Nutzer sinnvolle Auswertungsoptionen wurden ergänzt.

Anlässlich des 50. Kongresses der Deutschen Marktforschung des Berufsverbandes Deutscher Markt- und Sozialforscher e. V. (BVM) wurde die Vorauflage als das Lehrbuch ausgezeichnet, das die deutsche Marktforschungspraxis in den letzten Jahrzehnten nachhaltig geprägt hat.

Die Autoren

((hier die Autorenportraits))

Inhaltsverzeichnis

Frontmatter

Benutzungshinweise

Frontmatter

0. Zur Verwendung dieses Buches

Multivariate Analysemethoden betrachten simultan mehrere Variablen und analysieren den Zusammenhang zwischen diesen. Die quantitativen Analysen dienen dabei der Beschreibung, der Erklärung oder der Prognose zukünftiger Entwicklungen. Einen Spezialfall bilden bivariate Analysemethoden, bei denen nur jeweils zwei Variablen betrachtet werden. Eine adäquate Abbildung der Realität macht i. d. R. aber die Anwendung multivariater Analysemethoden erforderlich. Multivariate Analysemethoden bilden heute eines der Fundamente der empirischen Forschung in den Realwissenschaften. Das einleitende Kapitel zum Buch „Multivariate Analysemethoden“ liefert• eine Erklärung der zentralen Grundbegriffe der multivariaten Datenanalyse, die für das Verständnis aller Verfahren in gleichem Maße von Bedeutung sind (z. B. Typen von Variablen, Skalenniveau);• einen Überblick zu den wichtigsten multivariaten Analysemethoden, die in diesem Buch behandelt werden, wobei eine Unterscheidung nach Strukturen-prüfenden- und Strukturen-entdeckenden-Verfahren vorgenommen wird; • einen komprimierten Einstieg in das heute weit verbreitete Programmsystem IBM SPSS Statistics, das jeweils zur Rechnung der Fallbeispiele verwendet wird;• ergänzende Hinweise zur Verwendung von MS Excel zur Durchführung von multivariaten Datenanalysen.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

Strukturen-Prüfende Verfahren

Frontmatter

1. Regressionsanalyse

Die Regressionsanalyse bildet eines der flexibelsten und am häufigsten eingesetzten Verfahren der multivariaten Datenanalyse. Sie dient der Analyse von Beziehungen zwischen einer metrisch skalierten abhängigen Variablen und einer oder mehreren metrisch skalierten unabhängigen Variablen. Insbesondere wird sie eingesetzt, um• Zusammenhänge quantitativ zu beschreiben und zu erklären;• Werte der abhängigen Variablen zu schätzen bzw. zu prognostizieren.Primäre Anwendungsbereiche der Regressionsanalyse betreffen die Untersuchung von Kausalbeziehungen wie auch die Unterstützung von Entscheidungen. Die Regressionsanalyse ist damit von herausragender Bedeutung für Wissenschaft und Praxis.Das Kapitel verdeutlicht die Vorgehensweise der Regressionsanalyse anhand der fünf zentralen Ablaufschritte des Verfahrens unter Rückgriff auf ein einfaches Beispiel. Anschließend wird für ein größeres Fallbeispiel gezeigt, wie eine blockweise und eine schrittweise (multiple) Regressionsanalyse mit Hilfe von IBM SPSS gerechnet wird und welche Ergebnisoutputs dabei für die praktische Anwendung eine besonders zentrale Bedeutung besitzen. Die SPSS Outputs werden anwendungsbezogen interpretiert, sodass für den Leser eine Übertragbarkeit auf eigene Anwendungsfälle leicht möglich ist. Das Kapitel schließt mit wichtigen Anwendungsempfehlungen zur Durchführung einer Regressionsanalyse.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

2. Zeitreihenanalyse

Bei der Zeitreihenanalyse handelt es sich um ein wichtiges Anwendungsfeld der Regressionsanalyse, wenn die Werte von Variablen zu verschiedenen Zeitpunkten erhoben wurden (sog. Längsschnittdaten). In diesem Fall dient die Zeitreihenanalyse neben der Beschreibung und Erklärung der zeitlichen Entwicklung einer Variablen Y insbesondere auch deren Prognose, d. h. der Schätzung von Werten dieser Variablen für zukünftige Zeitpunkte oder Perioden. In der Praxis basieren vor allem in die Zukunft reichende Entscheidung auf Prognosen. Die Zeitreihenanalyse ist daher für die Stützung von Entscheidungsproblemen jeglicher Art von großer Wichtigkeit. Entsprechend existiert ein umfangreiches Arsenal von zum Teil sehr komplexen Methoden. In diesem Kapitel beschränken sich die Betrachtungen auf die Durchführung von Zeitreihenanalysen mit Hilfe der Regressionsanalyse.Das Kapitel erläutert die Grundlagen der Zeitreihenanalyse auf Basis des Instrumentariums der Regressionsanalyse. Es wird die Vorgehensweise anhand der fünf zentralen Ablaufschritte des Verfahrens unter Rückgriff auf ein einfaches Beispiel erläutert. Anschließend werden gängige nichtlineare Zeitreihenmodelle vorgestellt und deren Umsetzung mit IBM SPSS aufgezeigt. Für ein größeres Fallbeispiel wird gezeigt, wie eine lineare Trendanalyse um weitere Komponenten erweitert und mit Hilfe von IBM SPSS gerechnet werden kann. Die SPSS Outputs werden anwendungsbezogen interpretiert, sodass für den Leser eine Übertragbarkeit auf eigene Anwendungsfälle leicht möglich ist. Das Kapitel schließt mit wichtigen Anwendungsempfehlungen zur Durchführung der Zeitreihenanalyse.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

3. Varianzanalyse

Die Varianzanalyse untersucht die Wirkung einer (oder mehrerer) unabhängiger Variablen auf eine (oder mehrere) abhängige Variablen. Für die unabhängigen Variablen, die auch als Faktoren oder Treatments bezeichnet werden, ist dabei lediglich Nominalskalierung erforderlich, während die abhängige Variable (auch Zielvariable genannt) metrisches Skalenniveau aufweisen muss. Die Varianzanalyse ist das wichtigste multivariate Verfahren zur Aufdeckung von Mittelwertunterschieden und dient damit insbesondere der Auswertung von Experimenten.Das Kapitel verdeutlicht die Vorgehensweise der Varianzanalyse anhand der zentralen Ablaufschritte sowohl der einfaktoriellen (eine abhängige und eine unabhängige Variable) als auch der zweifaktoriellen (eine abhängige und zwei unabhängige Variablen) Varianzanalyse unter Rückgriff auf ein einfaches Beispiel. Anschließend werden in einem größeren Fallbeispiel die Betrachtungen auf die Analyse mit zwei unabhängigen Faktoren (nominal skaliert) und zwei (metrisch skalierten) Kovariaten erweitert. Die Berechnungen erfolgen mit Hilfe von IBM SPSS und die zugehörigen Outputs werden im Detail anwendungsbezogen interpretiert, sodass für den Leser eine Übertragbarkeit auf eigene Anwendungsfälle leicht möglich ist. Darüber hinaus werden auch die Kontrastanalyse und der Post-hoc-Test behandelt. Das Kapitel schließt mit wichtigen Anwendungsempfehlungen zur Durchführung der Varianzanalyse.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

4. Diskriminanzanalyse

Die Diskriminanzanalyse ist ein multivariates Verfahren zur Analyse von Gruppenunterschieden. Sie ermöglicht es, die Unterschiedlichkeit von zwei oder mehreren Gruppen hinsichtlich einer Mehrzahl von Variablen zu untersuchen, um insbesondere Fragen der folgenden Art zu beantworten:• Unterscheiden sich Gruppen signifikant voneinander hinsichtlich der Variablen?• Welche Variablen sind zur Unterscheidung zwischen vorgegebenen Gruppen besonders geeignet?Neben der Analyse von Gruppenunterschieden ist für die Anwendungspraxis die Bestimmung oder Prognose der Gruppenzugehörigkeit von Elementen (Klassifizierung) von besonders hoher Relevanz. Die Diskriminanzanalyse liefert hier Antwort auf folgende Frage: ″In welche Gruppe ist ein ‚neues‘ Element, dessen Gruppenzugehörigkeit nicht bekannt ist, aufgrund seiner Merkmalsausprägungen einzuordnen?″Das Kapitel verdeutlicht die Vorgehensweise der Diskriminanzanalyse anhand der zen-tralen Ablaufschritte des Verfahrens unter Rückgriff auf ein einfaches Beispiel. Anschließend wird für ein größeres Fallbeispiel gezeigt, wie eine simultane und eine schrittweise (multiple) Diskriminanzanalyse mit Hilfe von IBM SPSS gerechnet wird und welche Ergebnisoutputs dabei für die praktische Anwendung eine besonders zentrale Bedeutung besitzen. Die SPSS Outputs werden anwendungsbezogen interpretiert, sodass für den Leser eine Übertragbarkeit auf eigene Anwendungsfälle leicht möglich ist. Das Kapitel schließt mit wichtigen Anwendungsempfehlungen zur Durchführung einer Diskriminanzanalyse.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

5. Logistische Regression

Bei vielen Problemstellungen in Wissenschaft und Praxis treten immer wieder die folgenden Fragen auf:• Welcher von zwei oder mehreren alternativen Zuständen liegt vor oder welches Ereignis wird zukünftig eintreffen?• Welche Faktoren eignen sich für die Entscheidung oder Prognose und welchen Einfluss haben sie auf das Zustandekommen eines Zustandes oder Ereignisses?Häufig geht es dabei nur um zwei alternative Zustände oder Ereignisse. Typische Fragen sind etwa:• Hat ein Patient eine bestimmte Krankheit oder nicht? • Wie ist die Überlebenswahrscheinlichkeit bei einer schweren Krankheit?• Wird ein bestimmtes Produkt gekauft oder nicht?• Welcher Partei wird ein Wähler seine Stimme geben?Die logistische Regression kann auf solche Fragen eine Antwort geben. Obwohl die logistische Regression durchaus der Problemstellung der Diskriminanzanalyse ähnelt, so besteht der für den Anwender wesentliche Unterschied zwischen den beiden Verfahren darin, dass die logistische Regression direkt Wahrscheinlichkeiten für das Eintreffen der alternativen Zustände oder der Zugehörigkeiten zu den einzelnen Gruppen liefert.Das Kapitel verdeutlicht die Vorgehensweise der logistischen Regression anhand der zentralen Ablaufschritte des Verfahrens unter Rückgriff auf ein einfaches Beispiel. Behandelt werden dabei sowohl die binäre als auch die multinominale logistische Regression. Anschließend wird für ein größeres Fallbeispiel gezeigt, wie eine logistische Regression mit Hilfe von IBM SPSS gerechnet wird und welche Ergebnisoutputs dabei für die praktische Anwendung eine besonders zentrale Bedeutung besitzen. Die SPSS Outputs werden anwendungsbezogen interpretiert, sodass für den Leser eine Übertragbarkeit auf eigene Anwendungsfälle leicht möglich ist. Das Kapitel schließt mit wichtigen Anwendungsempfehlungen zur Durchführung einer logistischen Regression.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

6. Kreuztabellierung und Kontingenzanalyse

Kreuztabellierung und Kontingenzanalyse dienen dazu, Zusammenhänge zwischen nominal skalierten Variablen aufzudecken und zu untersuchen. Typische Anwendungsbeispiele sind etwa die Untersuchung, ob ein Zusammenhang zwischen Rauchen und Lungenkrebs besteht oder die Analyse von Zusammenhängen zwischen der Einkommensklasse, dem Beruf oder dem Geschlecht von Personen und ihrem Konsumverhalten oder auch die Überprüfung der Frage, ob der Bildungsstand sowie die Zugehörigkeit zu einer sozialen Klasse einen Einfluss auf die Mitgliedschaft in einer bestimmten politischen Partei hat. Dabei auftretende Fragen können z. B. sein:• Ist ein Zusammenhang zwischen den Variablen erkennbar und signifikant? • Gibt es weitere Variablen, durch deren zusätzliche Betrachtung das vorherige Untersuchungsergebnis bestätigt, näher erläutert oder revidiert wird? • Gibt es die Möglichkeit, eine Aussage über Stärke oder gar Richtung des Zusammenhangs zu treffen?Das Kapitel verdeutlicht die Vorgehensweise der Kontingenzanalyse anhand der zentralen Ablaufschritte des Verfahrens unter Rückgriff auf ein einfaches Beispiel. Anschließend wird für ein größeres Fallbeispiel gezeigt, wie eine Kreuztabelle mit Hilfe von IBM SPSS gerechnet werden kann und welche Ergebnisoutputs dabei für die praktische Anwendung eine besonders zentrale Bedeutung besitzen. Die SPSS Outputs werden anwendungsbezogen interpretiert, sodass für den Leser eine Übertragbarkeit auf eigene Anwendungsfälle leicht möglich ist. Das Kapitel schließt mit wichtigen Anwendungsempfehlungen zur Durchführung der Kontingenzanalyse.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

7. Faktorenanalyse

Die explorative Faktorenanalyse hat zum Ziel, Strukturen in großen Variablensets zu erkennen, die untereinander Korrelationen aufweisen. Sie versucht, die Beziehungszusammenhänge in einem Variablenset insofern zu strukturieren, als sie Gruppen von Variablen identifiziert, die hoch miteinander korreliert sind. Die Gruppen von jeweils hoch korrelierten Variablen werden als Faktoren bezeichnet. Neben der Strukturierungsfunktion wird die Faktorenanalyse auch zur Datenreduktion eingesetzt. Dabei wird zur Beschreibung von Sachverhalten eine Vielzahl von Variablen durch wenige Faktoren ersetzt. Bei Beschränkung auf zwei oder drei Faktoren wird eine grafische Darstellung (Mapping) ermöglicht.Das Kapitel verdeutlicht die Vorgehensweise der Faktorenanalyse anhand der zentralen Ablaufschritte des Verfahrens unter Rückgriff auf ein einfaches Beispiel. Anschließend wird für ein größeres Fallbeispiel gezeigt, wie eine Faktorenanalyse mit Hilfe von IBM SPSS gerechnet werden kann und welche Ergebnisoutputs dabei für die praktische Anwendung eine besonders zentrale Bedeutung besitzen. Die SPSS Outputs werden anwendungsbezogen interpretiert, sodass für den Leser eine Übertragbarkeit auf eigene Anwendungsfälle leicht möglich ist. Das Kapitel schließt mit wichtigen Anwendungsempfehlungen zur Durchführung einer Faktorenanalyse.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

8. Clusteranalyse

Die Clusteranalyse ist ein Verfahren zur Gruppierung von Untersuchungsobjekten (Fälle) in einem Datensatz. Zu diesem Zweck muss im ersten Schritt die Ähnlichkeit bzw. Unähnlichkeit (Distanz) zwischen den Fällen über ein geeignetes Maß festgestellt werden. Im zweiten Schritt ist der Fusionierungsalgorithmus zu bestimmen, mit dessen Hilfe die einzelnen Fälle sukzessive zu Gruppen (Cluster) zusammengefasst werden. Ziel ist es dabei, solche Untersuchungsobjekte zu Gruppen (Cluster) zusammenzufassen, die im Hinblick auf die betrachteten Eigenschaften oder Merkmale der Untersuchungsobjekte als möglichst homogen zu bezeichnen sind. Gleichzeitig sollten die Gruppen untereinander eine möglichst große Heterogenität aufweisen, d. h. möglichst unähnlich sein. Die Verfahren der Clusteranalyse können dabei sowohl Variablen mit metrischem, nicht metrischem als auch gemischtem Skalenniveau verarbeiten. Das Kapitel verdeutlicht die Vorgehensweise der Clusteranalyse anhand der zentralen Ablaufschritte des Verfahrens unter Rückgriff auf ein einfaches Beispiel. Anschließend wird für ein größeres Fallbeispiel gezeigt, wie eine Clusteranalyse mit Hilfe von IBM SPSS gerechnet werden kann und welche Ergebnisoutputs dabei für die praktische Anwendung eine besonders zentrale Bedeutung besitzen. Die SPSS Outputs werden anwendungsbezogen interpretiert, sodass für den Leser eine Übertragbarkeit auf eigene Anwendungsfälle leicht möglich ist. Das Kapitel schließt mit wichtigen Anwendungsempfehlungen zur Durchführung einer Clusteranalyse.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

9. Conjoint-Analyse

Die (traditionelle) Conjoint-Analyse ist ein Verfahren zur Analyse von Präferenzen. Insbesondere wird sie dazu verwendet, um herauszufinden, welche Produktattribute maßgeblich die Präferenz von Konsumenten bezüglich alternativer oder konkurrierender Produkte bestimmen und damit Einfluss auf die Kaufwahrscheinlichkeit haben. Mit ihr lassen sich daher wichtige Informationen für die Gestaltung von Produkten gewinnen. In der Literatur finden sich für den Begriff „Conjoint-Analyse“ auch die Bezeichnungen „Conjoint Measurement“, „konjunkte Analyse“ oder „Verbundmessung“. Bei der Conjoint-Analyse werden die betrachteten Objekte in eine Rangordnung gebracht, die den persönlichen Objekt-Präferenzen einer Person entspricht. Das Verfahren bestimmt aus den erhobenen Rangdaten sog. metrische Teilnutzenwerte für die einzelnen Eigenschaftsausprägungen der Objekte. Durch diese soll der Beitrag einzelner Merkmale zum sog. Gesamtnutzen eines Objektes bestimmt werden. Dieser lässt sich durch Addition der Teilnutzenwerte errechnen. Die sich gemäß der errechneten Gesamtnutzenwerte ergebende Objekt-Reihenfolge sollte möglichst gut mit der erhobenen (empirischen) Objekt-Rangfolge übereinstimmen. Charakteristisch für Conjoint-Analysen ist ihr dekompositioneller Ansatz, d. h., dass sich die erhobenen Urteile einer Person zwar auf die Objekte in ihrer Gesamtheit beziehen, diese Gesamturteile dann aber dazu verwendet werden, die sog. Teilnutzenwerte pro Eigenschaftsausprägung zu errechnen. Die Conjoint-Analyse ist eine Individualanalyse, durch die sich das Beurteilungsverhalten einer konkreten Person nachvollziehen lässt.Das Kapitel verdeutlicht die Vorgehensweise der Conjoint-Analyse anhand der zentralen Ablaufschritte des Verfahrens unter Rückgriff auf ein einfaches Beispiel. Anschließend wird für ein größeres Fallbeispiel gezeigt, wie eine Conjoint-Analyse mit Hilfe von IBM SPSS gerechnet werden kann und welche Ergebnisoutputs dabei für die praktische Anwendung eine besonders zentrale Bedeutung besitzen. Die SPSS Outputs werden anwendungsbezogen interpretiert, sodass für den Leser eine Übertragbarkeit auf eigene Anwendungsfälle leicht möglich ist. Das Kapitel schließt mit wichtigen Anwendungsempfehlungen zur Durchführung einer Conjoint-Analyse.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

Fortgeschrittene Verfahren der multivariaten Analyse

Frontmatter

10. Nichtlineare Regression

Die Nichtlineare Regression wird in diesem Kapitel auf sieben Seiten in den wesentlichen Grundzügen vorgestellt. Dabei werden die mittels Nichtlinearer Regression zu behandelnden Problemstellungen (z. B. die Vorgehensweise bei der Schätzung eines Wachstumsmodells) skizziert und die Umsetzung mit IBM SPSS kurz aufgezeigt. Mit Hilfe der Nichtlinearen Regression lassen sich nahezu beliebige Modellstrukturen schätzen. Anwendungen finden sich z. B. im Rahmen der Werbewirkungsforschung, in der Marktforschung oder bei der Untersuchung von Wachstumsmodellen. Allerdings können die Modellschätzungen aufgrund der nicht linearen Modellstrukturen nur mit Hilfe von iterativen Algorithmen berechnet werden. Ob diese Algorithmen konvergieren, hängt u. a. davon ab, welche Startwerte der Untersucher vorgibt. Es werden somit auch erhöhte Anforderungen an den Anwender gestellt. Die statistischen Tests, die bei der linearen Regressionsanalyse zur Prüfung der Güte des Modells oder der Signifikanz der Parameter verwendet werden, sind für die Nichtlineare Regression nicht anwendbar.Eine ausführliche Darstellung der Nichtlinearen Regression mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

11. Strukturgleichungsanalyse

Die Strukturgleichungsanalyse (SGA) wird in diesem Kapitel auf sieben Seiten in den wesentlichen Grundzügen vorgestellt, indem die mittels SGA zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit AMOS aufgezeigt wird. Die SGA dient der Prüfung von komplexen Modellen, die z. B. aus mehreren abhängigen Variablen (endogene Variablen), die auch untereinander in Beziehung stehen können, und mehreren unabhängigen Variablen (exogene Variablen) bestehen. In diesem Kapitel wird der Fall betrachtet, dass die Variablen hypothetische Konstrukte darstellen, die nicht direkt beobachtet werden können (sog. latente Variablen). Beispiele für hypothetische Konstrukte sind z. B. Einstellungen, Stress, Zufriedenheit, Emotionen, Attraktivität, Kultur, Vertrauen oder Intelligenz. Solche Konstrukte müssen durch geeignete Messmodelle operationalisiert werden. Die hier vorgestellte SGA schätzt dann simultan die Messmodelle der latenten Variablen und die Kausalbeziehungen zwischen den endogenen Variablen.Eine ausführliche Darstellung der Nichtlinearen Regression mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

12. Konfirmatorische Faktorenanalyse

Die Konfirmatorische Faktorenanalyse (KFA) wird in diesem Kapitel auf sieben Seiten in den wesentlichen Grundzügen vorgestellt, indem die mittels KFA zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit AMOS aufgezeigt wird. Bei vielen Anwendungsfällen sind die interessierenden Variablen sog. hypothetische Konstrukte, die sich einer direkten Beobachtbarkeit entziehen und deshalb über Messmodelle operationalisiert werden müssen. Beispiele für hypothetische Konstrukte (latente Variable) sind z. B. Einstellungen, Stress, Zufriedenheit, Emotionen, Attraktivität, Kultur, Vertrauen oder Intelligenz. Die KFA unterstellt dabei, dass sich die latenten Variablen durch sog. reflektive Messmodelle operationalisieren lassen, die auf empirisch direkt messbaren Variablen (sog. Indikatorvariable) basieren. Die Indikatorvariablen müssen dabei so definiert werden, dass ihre Messwerte jeweils beispielhafte Manifestierungen des betrachteten hypothetischen Konstruktes darstellen. Die KFA dient der empirischen Prüfung von Messmodellen und basiert ebenso wie die explorative Faktorenanalyse auf dem Fundamentaltheorem der Faktorenanalyse. Weiterhin stellt die KFA einen „Spezialfall“ der Strukturgleichungsanalyse mit latenten Variablen dar.Eine ausführliche Darstellung der Nichtlinearen Regression mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

13. Auswahlbasierte Conjoint-Analyse

Die Auswahlbasierte Conjoint-Analyse (ACA) wird in diesem Kapitel auf fünf Seiten in den wesentlichen Grundzügen vorgestellt, indem die mittels ACA zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit dem Programmpaket der Sawtooth Software Inc. (SSI) aufgezeigt wird. Wie die traditionelle Conjoint-Analyse, so dient auch die ACA der Analyse von Präferenzen. Aus einer Menge von Alternativen (Choice Set) muss ein Proband nur jeweils die am meisten präferierte Alternative auswählen, wobei meist auch die Option besteht, keine der Alternativen zu wählen. Dies ist für ihn nicht nur einfacher, sondern kommt auch seinem realen Entscheidungsverhalten (z. B. in Kaufsituationen) sehr viel näher als das Ranking aller betrachteten Objekte wie es die traditionelle Conjoint-Analyse erfordert. Die erhöhte Realitätsnähe wird allerdings mit einem Verlust an Information erkauft, da bei dieser Vorgehensweise die Präferenz nur noch auf nominalem Skalenniveau gemessen wird. Zur Schätzung der Nutzenbeiträge einzelner Merkmale (Teilnutzenwerte) muss daher ein anderes Schätzverfahren verwendet werden. Während bei der traditionellen Conjoint-Analyse die Schätzung meist durch Regression mit Dummy-Variablen erfolgt, kommt bei der ACA die Maximum-Likelihood-Methode zur Anwendung, die eine iterative Schätzung der Teilnutzenwerte vornimmt. Wegen des geringeren Informationsgehalts ist es meist nur möglich, die Teilnutzenwerte aggregiert zu schätzen, während es bei der traditionellen Conjoint-Analyse üblich ist, sie individuell für jeden Probanden zu schätzen.Eine ausführliche Darstellung der Nichtlinearen Regression mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

14. Neuronale Netze

Neuronale Netze werden in diesem Kapitel auf sieben Seiten in den wesentlichen Grundzügen vorgestellt, indem die mittels Neuronalen Netzen zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit SPSS aufgezeigt wird. In der Realität sind die Wirkungsbeziehungen zwischen Variablen häufig sehr komplex, wobei sich die Komplexität einerseits in einer großen Anzahl von miteinander verknüpften Einflussfaktoren äußert, andererseits darin, dass die Beziehungen zwischen den Variablen häufig nicht-linear sind. Auch kann der Anwender in vielen Fällen keine begründeten Hypothesen über die Art der Zusammenhänge aufstellen. In solchen Fällen sind sog. (Künstliche) Neuronale Netze von großem Nutzen, da der Anwender bei dieser Gruppe von Analyseverfahren nicht zwingenderweise eine Vermutung über den Zusammenhang zwischen Variablen treffen muss. Das bedeutet, dass weder eine kausale Verknüpfung zwischen Variablen postuliert noch die Verknüpfung zwingend als linear unterstellt werden muss. Außerdem können Neuronale Netze auch Variablen mit unterschiedlichem Skalenniveau verarbeiten. Neuronale Netze ermitteln die Zusammenhänge zwischen Variablen selbständig durch einen Lernprozess und können dabei eine Vielzahl von Variablen berücksichtigen.Eine ausführliche Darstellung der Nichtlinearen Regression mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

15. Multidimensionale Skalierung

Die Multidimensionale Skalierung (MDS) wird in diesem Kapitel auf acht Seiten in den wesentlichen Grundzügen vorgestellt, indem die mittels MDS zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit SPSS aufgezeigt wird. Die MDS umfasst Verfahren, mittels derer sich Objekte auf Basis ihrer Ähnlichkeiten oder Unähnlichkeiten gemeinsam in einem zwei- oder mehrdimensionalen Raum darstellen lassen. Ein primäres Anwendungsgebiet bilden Positionierungsanalysen, mittels derer sich die subjektive Wahrnehmung von Objekten durch Personen (z. B. der Wahrnehmung von Produkten durch Konsumenten, von Politikern durch Wähler, von Universitäten durch Studenten) visualisieren lässt. Aus den erfragten Ähnlichkeiten zwischen den Objekten leitet die MDS Wahrnehmungsdimensionen ab, mit deren Hilfe sich die Objekte dann positionieren und grafisch darstellen lassen. Die MDS kommt insbesondere dann zur Anwendung, wenn der Anwender herausfinden möchte, welche Eigenschaften für die subjektive Beurteilung von Objekten (z. B. Produktmarken, Unternehmen oder Parteien) von Relevanz sind.Eine ausführliche Darstellung der Nichtlinearen Regression mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

16. Korrespondenzanalyse

Die Korrespondenzanalyse wird in diesem Kapitel auf neun Seiten in den wesentlichen Grundzügen vorgestellt, indem die mittels Korrespondenzanalyse zu behandelnden Problemstellungen sowie die Vorgehensweise skizziert werden und die Umsetzung mit IBM SPSS aufgezeigt wird. Die Korrespondenzanalyse dient zur Visualisierung komplexer Daten. Sie kann auch als ein Verfahren der multidimensionalen Skalierung von nominal skalierten Variablen charakterisiert werden und wird vor allem in der Marktforschung zur Durchführung von Positionierungsanalysen verwendet. Die Korrespondenzanalyse ermöglicht es, die Zeilen und Spalten einer zweidimensionalen Kreuztabelle (Kontingenztabelle) grafisch in einem gemeinsamen Raum darzustellen. Ein besonderer Vorteil der Korrespondenzanalyse liegt darin, dass sie kaum Ansprüche an das Skalenniveau der Daten stellt. Die Daten müssen lediglich nichtnegativ sein. Die Korrespondenzanalyse kann daher auch zur Quantifizierung qualitativer Daten verwendet werden. Da sich qualitative Daten leichter erheben lassen als quantitative Daten, kommt diesem Verfahren eine große praktische Bedeutung zu. Eine ausführliche Darstellung der Nichtlinearen Regression mit der Berechnung eines umfangreichen Fallbeispiels findet der Leser in dem Buch von: Backhaus, K./Erichson, B./ Weiber, R.: Fortgeschrittene Multivariate Analysemethoden, 3. Aufl., Berlin Heidelberg 2016.

Klaus Backhaus, Bernd Erichson, Wulff Plinke, Rolf Weiber

Backmatter

Weitere Informationen

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Die Corporate Supply Strategy bei Phoenix Contact GmbH & Co. KG

Lesen Sie am Beispiel von Phoenix Contact, wie der Einkauf in einem weltweit agierenden Industrieunternehmen mit dezentralen Einkaufsstrukturen mit der 15M-Architektur der Supply-Strategie strategisch ausgerichtet werden kann.
Jetzt gratis downloaden!

Bildnachweise