Skip to main content
main-content

Über dieses Buch

Strukturgleichungsmodelle stellen das Standardinstrument zur empirischen Prüfung von hypothetisierten Beziehungen zwischen theoretischen Konstrukten (latenten Variablen) dar. Das Buch zeichnet den gesamten Prozess der Strukturgleichungsmodellierung von der Konzeptualisierung theoretischer Konstrukte über die Spezifikation von Messmodellen, die Reliabilitäts- und Validitätsprüfung mittels konfirmatorischer Faktorenanalyse bis hin zur Prüfung von kausalen Wirkungshypothesen auf Basis der Kovarianzstrukturanalyse sowie der Partial Least Squares-Pfadmodellierung nach.Die einzelnen Analysen werden so erläutert, dass geringstmögliche mathematische Vorkenntnisse erforderlich sind. Alle Arbeitsschritte werden an einem durchgehenden Fallbeispiel unter Verwendung von SPSS, AMOS und SmartPLS veranschaulicht. Zu allen Arbeitsschritten werden klare Anwendungsempfehlungen sowie Hinweise zum Umgang mit unerwarteten Analyseergebnissen gegeben. Die Verwendung der jeweiligen Software wird ausführlich durch Screenshots erläutert. Für die 3. Auflage wurde das Buch umfassend überarbeitet, um die jüngsten methodischen Entwicklungen abzudecken. Besonderer Fokus wurde auf die Ausführungen zur PLS-Pfadmodellierung und Darstellung alternativer Schätzverfahren der Kausalanalyse gelegt. Das Angebot wurde zudem um digitale Lernkarten (Flashcards) erweitert, welche es dem Leser ermöglichen, das Wissen aus dem Buch zu vertiefen.
Die ZielgruppenDas Buch richtet sich an Studierende und Lehrende in Master- und Doktorandenprogrammen sowie an Anwender aus der Unternehmens- und insbesondere Marktforschungspraxis. Es ist von besonderem Nutzen für alle, die Wirkungshypothesen zwischen latenten Variablen empirisch prüfen möchten. Das Fallbeispiel ist so allgemein gehalten, dass der Anwender die Analysen leicht auf spezifische Fragen und Probleme in seinen jeweiligen Anwendungsfeldern übertragen kann.Über die Internetseite www.strukturgleichungsmodellierung.de haben die Leserinnen und Leser Zugriff auf alle im Buch verwendeten Datensätze und Analyseskripte sowie weitere Serviceleistungen.

Inhaltsverzeichnis

Frontmatter

Grundlagen

Frontmatter

1. Bedeutung der Strukturgleichungsmodellierung

Zusammenfassung
In Kap. 1 wird zunächst der Prozess der Theorieprüfung anhand des Hempel-Oppenheim-Schemas in seiner Grundform erläutert. Die Abbildung von Ursache-Wirkungsbeziehungen im Sinne einer formalen Gleichungsstruktur erfolgt durch die Unterscheidung zwischen abhängigen (endogenen) und unabhängigen (exogenen) Variablen, wobei die unabhängigen Variablen als die Ursachen, Bedingungen oder allgemein Antezedenzen betrachtet werden, die die Wirkungen oder allgemein Konsequenzen bei einer oder mehreren abhängigen Variablen hervorrufen. Strukturgleichungsmodelle nehmen dabei eine kausale Interpretation der Beziehung zwischen unabhängigen und abhängigen Variablen vor.
Rolf Weiber, Marko Sarstedt

2. Kausalität und empirische Prüfung

Zusammenfassung
In der Wissenschaft besitzen die Bildung und empirische Prüfung von Modellen einen zentralen Stellenwert zur Erklärung und Prognose der unterschiedlichsten Sachverhalte in der Wirklichkeit. Voraussetzung dabei ist, dass klare und in einer Theorie oder in der Sachlogik begründete Vorstellungen über die Zusammenhänge eines betrachteten Sachverhalts vorliegen. Mit Hilfe der Strukturgleichungsmodellierung (SGM) können theoretisch oder sachlogisch postulierte Zusammenhänge oder Wirkbeziehungen einer empirischen Prüfung unterzogen werden. Den Ausgangspunkt der SGM bilden damit immer eine empirisch prüfbare Theorie oder sachlogisch begründete Zusammenhänge, wobei das theoretisch formulierte Beziehungsgefüge zwischen Konstrukten im Rahmen der SGM in eine formale Gleichungsstruktur überführt wird.
Da die Annahme der Kausalität für die SGM elementar ist, werden in Kap. 2 der Begriff der Kausalität, verschiedene Kausalitätsformen und deren empirische Prüfbarkeit einer genaueren Betrachtung unterzogen und die Kovarianz bzw. Korrelation als notwendige Bedingung für Kausalität herausgestellt.
Rolf Weiber, Marko Sarstedt

3. Methoden der Strukturgleichungsanalyse (SGA)

Zusammenfassung
Nach einem Überblick zu den Methoden der Strukturgleichungsanalyse werden in Abschn. 3.2 die Grundlagen der Pfadanalyse sowie der Kausalanalyse dargestellt und anhand von einfachen Beispielen erläutert. In Abschn. 3.3 werden sodann die Charakteristika und Ablaufschritte von Strukturgleichungsmodellen mit latenten Variablen allgemein dargestellt und mit dem kovarianzanalytischen (LISREL; AMOS) und dem varianzanalytischen Ansatz (Partial Least Squares-Ansatz; PLS) die beiden gegensätzlichen Vorgehensweisen bei der Modellschätzung, die im Bereich der Kausalanalyse bestehen, in ihren Grundzügen vorgestellt und abschließend einem zusammenfassenden Vergleich unterzogen. Die detaillierte Anwendung von AMOS und SmartPLS unter Rückgriff auf das in Kap. 4 dargestellte Fallbeispiel erfolgt dann in den Kap. 5, 6, 7, 8, 9, 10 und 11 (AMOS) bzw. in Kap. 15 (PLS).
Rolf Weiber, Marko Sarstedt

Kausalanalyse

Frontmatter

4. Hypothesen- und Modellbildung

Zusammenfassung
Kap. 4 bildet den Einstieg in Teil II des Buches (Kausalanalyse) und erläutert nochmals kurz die acht Schritte des allgemeinen Ablaufprozesses der Strukturgleichungsmodellierung. Anschließend wird in Abschn. 4.2 das Fallbeispiel aufgezeigt, an Hand dessen die Ablaufschritte erläutert werden. In diesem Fallbeispiel geht ein Hotelbesitzer der Frage nach, ob sich seine in der Vergangenheit gemachten Erfahrungen hinsichtlich der die Kundenbindung beeinflussenden Größen (Kundenzufriedenheit, Anbieterwechselbarrieren und Preis) auch empirisch bestätigen lassen. Die für das Fallbeispiel erhobenen Indikatoren zur Messung der einzelnen hypothetischen Konstrukte sind in Abschn. 4.3 zusammengefasst.
Rolf Weiber, Marko Sarstedt

5. Konstrukt-Konzeptualisierung

Zusammenfassung
Die Strukturgleichungsmodellierung mit latenten, also nicht direkt beobachtbaren, Variablen (Konstrukten) erfordert im Ausgangspunkt die Existenz eines zu prüfenden Hypothesensystems, welches die unterstellten Wirkbeziehungen zwischen den Konstrukten abbildet. Während das sachlogisch abgeleitete Hypothesensystem des Fallbeispiels bereits in Kap. 4 aufgezeigt wurde, wenden sich die Kap. 5 und 6 der Konzeptualisierung sowie der Operationalisierung zu und erläutern diese beiden Ablaufschritte der Kausalanalyse allgemein sowie anhand des Fallbeispiels.
Um eine empirische Prüfung zu ermöglichen, müssen die hypothetischen Konstrukte eines Hypothesensystems zunächst genau beschrieben und definiert werden. Dieses Vorgehen wird in Kap. 5 behandelt und als Konzeptualisierung bezeichnet. Das Ziel der Konzeptualisierung ist es, ein Konstrukt so eindeutig zu definieren, dass auf dieser Basis im zweiten Schritt eine Operationalisierung vorgenommen werden kann.
Rolf Weiber, Marko Sarstedt

6. Konstrukt-Operationalisierung

Zusammenfassung
Nach der Konzeptualisierung sind die hypothetischen Konstrukte einer empirischen Messung zugänglich zu machen. Zu diesem Zweck müssen Messmodelle für die latenten Variablen entwickelt werden, durch die die betrachteten endogenen und exogenen latenten Variablen messbar gemacht werden können. Die Betrachtungen in Kap. 6 (Operationalisierung) konzentrieren sich dabei auf reflektive Messmodelle, während formative Messmodelle in Kap. 12 behandelt werden. Durch Messmodelle werden die hypothetischen Konstrukte operationalisiert, d. h. es werden Anweisungen entwickelt, mit deren Hilfe ein hypothetisches Konstrukt über beobachtbare Sachverhalte (Indikatoren) gemessen werden kann. Im Rahmen der Operationalisierungsüberlegungen wird neben der Frage der Generierung von potenziellen Messindikatoren und der Festlegung der Messvorschrift mit reflektiven, formativen oder Single-Item-Messansätzen auch die Frage der Skalierung über Ratingskalen im Detail adressiert.
Rolf Weiber, Marko Sarstedt

7. Güteprüfung reflektiver Messmodelle

Zusammenfassung
In Kapitel 7 wird die Güteprüfung bei reflektiven Messmodellen allgemein sowie anhand des Fallbeispiels erläutert. Die Güteprüfung reflektiver Messmodelle wird dabei auf die Reliabilitäts- und die Validitätsprüfung fokussiert. Im Rahmen der Reliabilitätsprüfung werden sowohl Gütekriterien der ersten Generation (Cronbachs Alpha, Inter-Item-Korrelation, Item-to-Total-Korrelation, explorative Faktorenanalyse u. a.) als auch der zweiten Generation (Konfirmatorische Faktorenanalyse) behandelt. Die Validitätsprüfung ist in Abschn. 7.3 dann auf die Prüfung von Inhalts-, Kriteriums- und Konstruktvalidität konzentriert. Die Verwendung von formativen Messmodellen findet der Leser in Kap. 12, wobei auch hier auf das Fallbeispiel aus Kap. 4 zurückgegriffen wird.
Hinweise zur Durchführung der in Abschn. 7.2.2.3 dargestellten konfirmatorischen Faktorenanalyse für das Fallbeispiel mit AMOS findet der Leser in Abschn. 8.3.
Rolf Weiber, Marko Sarstedt

8. Modellschätzung mit AMOS

Zusammenfassung
Im fünften Schritt des in Abschn. 4.1 dargestellten allgemeinen Ablaufprozesses der Strukturgleichungsmodellierung (Kausalanalyse) erfolgt die Schätzung der Modellparameter sowie in folgenden Schritten die Evaluation und Interpretation der gewonnenen Schätzergebnisse. Die Kap. 8, 9, 10, und 11 fokussieren dabei den sog. kovarianzanalytischen Ansatz (LISREL, AMOS) zur Parameterschätzung, während der varianzanalytische Ansatz (PLS) in Kap. 15 behandelt wird.
Im Rahmen der Kovarianz-Strukturanalyse wird versucht, die empirische Varianz-Kovarianzmatrix (S) der manifesten Messvariablen durch eine modelltheoretische Varianz-Kovarianzmatrix (\( \hat{\varSigma} \)) möglichst gut abzubilden. Im Vorfeld der Modellschätzung ist jedoch eine Prüfung und Aufbereitung des Datensatzes vorzunehmen, bei der insbesondere Ausreißer eliminiert, fehlende Werte ersetzt und Verteilungsannahmen geprüft werden. In Kap. 8 werden hierzu entsprechende Hinweise gegeben und die Schätzung der Modellparameter mit AMOS anhand des Fallbeispiels aus Abschn. 4.2 erläutert. In Abschn. 8.3 werden dann Hinweise zur Pfadmodellierung mit AMOS gegeben. Dabei wird schrittweise die Vorgehensweise des Einsatzes von AMOS für das verwendete Fallbeispiel aufgezeigt.
Rolf Weiber, Marko Sarstedt

9. Evaluation des Gesamtmodells

Zusammenfassung
Kap. 9 stellt Ansätze zur Evaluation des Gesamtmodells für die mit AMOS für das Fallbeispiel gewonnenen Ergebnisse vor. Dabei erfolgt zunächst die Evaluation des Gesamtmodells mittels inferenzstatistischer (z. B. Likelihood-Ratio-Test; Root-Mean-Square-Error of Approximation-RMSEA; Chi-Quadrat-Test) und deskriptiver Gütekriterien (z. B. Root-Mean-Square-Residual-RMR; Goodness-of-Fit-Maße). Anschließend werden Gütekriterien aufgezeigt, die der vergleichenden Evaluation alternativer Modelle dienen, wobei sowohl inkrementelle Fitmaße (z. B. Normed-Fit-Index; Comparative-Fit-Index; Inkremental Fit-Index) als auch Kriterien zur Beurteilung der Modellsparsamkeit (z. B. Parsimony-Normed-Fit-Index; Akaike-Information-Criterion; Expected-Cross-Validation-Index) vorgestellt werden.
Rolf Weiber, Marko Sarstedt

10. Ergebnisinterpretation

Zusammenfassung
In Kap. 10 erfolgt die Interpretation der gewonnenen Parameterschätzungen vor dem Hintergrund der mit dem formulierten Kausalmodell definierten Hypothesen. Dabei ist neben der Bedeutsamkeit und statistischen Signifikanz einzelner Wirkbeziehungen insbesondere auch die Plausibilität der Ergebnisse zu berücksichtigen. Es wird für das Fallbeispiel aus Abschn. 4.2 eine beispielhafte Ergebnisinterpretation und Hypothesenprüfung vorgenommen.
Rolf Weiber, Marko Sarstedt

11. Modifikation der Modellstruktur

Zusammenfassung
Bei praktischen Anwendungen stellt sich häufig die Frage, welche Maßnahmen ergriffen werden können, um eine Modellverbesserung etwa durch bisher nicht berücksichtigte Wirkbeziehungen vorzunehmen. Unter Rückgriff auf die vorliegenden Daten werden in Kap. 11 Hinweise zur Modifikation der Modellstruktur und der im Fallbeispiel aufgestellten Hypothesen unter Verwendung von AMOS mit Hilfe des sog. Modification-Index gegeben.
Rolf Weiber, Marko Sarstedt

Verfahrensvarianten und Erweiterungen

Frontmatter

12. Formative Messmodelle

Zusammenfassung
Formative Messmodelle basieren auf einem völlig anderen „Weltbild“ als reflektive Messmodelle, da sie unterstellen, dass ein Konstrukt aus seinen Indikatoren geformt wird, während reflektive Messmodelle davon ausgehen, dass die Messvariablen das betrachtete Konstrukt reflektieren und damit Folgen bzw. Konsequenzen der Wirksamkeit des Konstruktes in der Wirklichkeit darstellen. Daher unterscheidet sich die Analyse formativer Messmodelle grundlegend vom reflektiven Fall.
Vor obigem Hintergrund werden in Kap. 12 zunächst die zentralen Besonderheiten formativer Messmodelle herausgearbeitet (z. B. Messfehlerproblematik, Multikollinearität, Identifizierbarkeit) und darauf aufbauend deren Konstruktionsprozess erläutert. Dabei wird nicht nur die Operationalisierung formativer Messmodelle behandelt, sondern auch die – im Vergleich zu reflektiven Messmodellen – Besonderheiten der Güteprüfung aufgezeigt. Abschließend wird anhand eines sog. MIMIC-Modells die Spezifizierung eines formativen Messmodells mit Hilfe von AMOS bezogen auf das in Abschn. 4.2 dargestellte Fallbeispiel vorgestellt.
Rolf Weiber, Marko Sarstedt

13. Second-Order-Faktorenanalyse (SFA)

Zusammenfassung
Bei den meisten hypothetischen Konstrukten wird unterstellt, dass diese anhand von beobachtbaren Indikatoren über reflektive Messmodelle (Kap. 6) oder formative Messmodelle (Kap. 12) erfasst werden können. Solche Konstrukte werden auch als Konstrukte erster Ordnung bezeichnet. Demgegenüber existieren aber auch vielfältige Beispiele für Konstrukte zweiter oder auch höherer Ordnung. Diese liegen dann vor, wenn hypothetische Konstrukte nicht direkt über Messmodelle mit manifesten Variablen gemessen werden, sondern deren Folgewirkungen auf einer oder mehreren vor- bzw. nachgelagerten Ebenen ebenfalls latente Variable darstellen.
Zur Analyse von Konstrukten höherer Ordnung wird üblicherweise die Faktorenanalyse höherer Ordnung genutzt. In Kap. 13 werden die Grundlagen zur Second-Order-Faktorenanalyse (SFA) dargestellt und deren Ablaufschritte aufgezeigt. Die Durchführung einer SFA mit Hilfe von AMOS 27 (vgl. Abschn. 8.3) wird unter Rückgriff auf das Fallbeispiel in Abschn. 4.2 erläutert und in Abschn. 13.3 gezeigt, wie die Ergebnisse zu interpretieren sind.
Rolf Weiber, Marko Sarstedt

14. Mehrgruppen-Kausalanalyse (MGKA)

Zusammenfassung
Die in Kap. 14 behandelte Multi-Group-Analysis (MGA) ermöglicht die simultane Schätzung eines Kausalmodells über mehrere (Befragungs-)Gruppen hinweg. Entspricht das betrachtete Kausalmodell einem konfirmatorischen Faktorenmodell, so wird von Mehrgruppen-Faktorenanalyse (MGFA) gesprochen, während die Betrachtung eines vollständigen Kausalmodells als Mehrgruppen-Kausalanalyse (MGKA) bezeichnet wird.
Die zentrale Besonderheit derartiger (gruppenvergleichender) Analysen ist darin zu sehen, dass ein Vergleich der Schätzergebnisse zwischen den Gruppen nur zulässig ist, wenn unterstellt werden kann, dass die Konstrukte des Kausalmodells in allen Gruppen auch den gleichen Sachverhalt messen; es muss Messinvarianz vorliegen. In Abschn. 14.2 wird deshalb ein umfassender Prüfprozess vorgestellt, durch den die unterschiedlichen Stufen der Messinvarianz (metrische Messinvarianz, skalare Messinvarianz, Messfehler-Invarianz, partielle Messinvarianz) geprüft werden.
In Abschn. 14.4 werden Hinweise zur Durchführung einer Multi-Group-Analysis mit AMOS gegeben. Da die Vorgehensweise grundsätzlich der im Eingruppenfall (Abschn. 8.3) entspricht, konzentrieren sich die Betrachtungen auf die bei der MGA auftretenden Besonderheiten.
Rolf Weiber, Marko Sarstedt

15. Kausalanalyse mit PLS

Zusammenfassung
In Kap. 15 werden zur Verdeutlichung welchen Sachverhalts? Sachverhaltes – aufbauend auf dem allgemeinen Vergleich zwischen dem kovarianzanalytischen Ansatz (LISREL) und dem varianzanalytischen Ansatz (PLS) in Abschn. 3.3.4 – die zentralen Unterschiede des PLS-Ansatzes im allgemeinen Prozess der Strukturgleichungsmodellierung herausgearbeitet. Anschließend werden die Gütekriterien zur Beurteilung von PLS-Modellen getrennt nach den Messmodellen (bzw. dem äußeren Modell) und dem Strukturmodell (bzw. dem inneren Modell) aufgezeigt und damit Hinweise zur Evaluation von PLS-Modellschätzungen gegeben. Dabei wird auch auf die sog. Bootstrapping-Methode eingegangen, mit deren Hilfe die Signifikanzen aller Modellparameter bestimmt werden können. Diese allgemeinen Ausführungen werden dann in Abschn. 15.3 auf das Kausalmodell des in Abschn. 4.2 dargestellten Fallbeispiels übertragen und eine Modellschätzung mit Hilfe des Softwarepakets SmartPLS durchgeführt. Abschließend wird ein Vergleich der Schätzergebnisse für das Fallbeispiel mit AMOS (Kap. 10) und mit SmartPLS vorgenommen.
Rolf Weiber, Marko Sarstedt

16. Alternative Schätzverfahren für Komponentenmodelle

Zusammenfassung
Die Anfänge der Strukturgleichungsmodellierung mit latenten Variablen wurden vor allem durch den kovarianzanalytische Ansatz (LISREL; AMOS) dominiert. Mittlerweile hat aber auch PLS als ein komponentenbasierter Schätzansatz für Strukturgleichungsmodelle eine nicht minder hohe Bedeutung erlangt. Neben dem PLS-Ansatz hat die Methodenforschung mittlerweile eine Reihe weiterer komponentenbasierter Strukturgleichungsmodelle hervorgebracht. Ein sehr vielversprechendes Verfahren ist dabei die Generalized Structured Component Analysis (GSCA), welche im Gegensatz zu PLS ein globales Optimierungskriterium definiert und damit einen wesentlichen Kritikpunkt des PLS-Ansatzes aufgreift. Die GSCA wird in Abschn. 16.1 vergleichend zu PLS (Kap. 15) kurz vorgestellt und die Möglichkeiten der Modellevaluation mit GSCA aufgezeigt. Neben der GSCA wird mit der Universellen Strukturgleichungsmodellierung (USM) in Abschn. 16.2 ein weiterer komponentenbasierter Schätzansatz vorgestellt, der nicht nur eine prüfende, sondern gleichzeitig auch eine entdeckende Modellierung von Strukturgleichungsmodellen ermöglicht.
Rolf Weiber, Marko Sarstedt

17. Anwendungsprobleme der Kausalanalyse und Lösungsansätze

Zusammenfassung
Bei der praktischen Durchführung von Kausalanalysen treten häufig Problemfelder auf, die im Wesentlichen auf den Prozess der Datengenerierung zurückzuführen sind und im Ergebnis vor allem zu verzerrten Schätzergebnissen führen. In diesem Kapitel werden deshalb Ansätze aufgezeigt, mit deren Hilfe diese Problemfelder zum einen analysiert und zum anderen auch (weitgehend) neutralisiert oder zumindest relativiert werden können.
Aufgrund ihrer besonderen Bedeutung werden in diesem Kapitel die Themen Common Method Variance, Multikollinearität sowie Mehrebenen-Problematik einer detaillierten Betrachtung unterzogen und hierzu auch zentrale Lösungsansätze zur Beherrschung dieser Problemfelder aufgezeigt. Demgegenüber werden die Probleme der Heterogenität der Erhebungsdaten, die Wirksamkeit von Interaktions- und Moderatoreffekten sowie die Robustheit der Parameterschätzung nur in ihrem Kern dargestellt, und es wird vor allem auf Lösungsvarianten in der Literatur hingewiesen, die aber nicht im Detail behandelt werden.
Rolf Weiber, Marko Sarstedt

Backmatter

Weitere Informationen