Skip to main content

2009 | Buch | 3. Auflage

Methodik der empirischen Forschung

herausgegeben von: Sönke Albers, Daniel Klapper, Udo Konradt, Achim Walter, Joachim Wolf

Verlag: Gabler Verlag

insite
SUCHEN

Inhaltsverzeichnis

Frontmatter

Forschungsstrategie

1. Großzahlige empirische Forschung

Mit dem folgenden Beitrag soll ein Überblick über Ablauf und Methoden großzahliger empirischer Forschung gegeben werden. Ausgehend vom kritischen Rationalismus als Erkenntnisgrundlage konzentriert sich der Artikel auf empirische betriebswirtschaftliche Forschung als angewandte Sozialwissenschaft. Grundzüge qualitativer und quantitativer Forschungsmethoden werden erläutert und entsprechend ihrem Beitrag zur Theoriebil­dung geordnet. Zuletzt geht der Beitrag auf potentielle Fehler quantitativer Forschung ein und steckt damit den Bezugsrahmen der folgenden Buchbeiträge ab.

Felix Riesenhuber
2. Experimente

Bevor empirische Daten vorliegen und Hypothesen getestet werden können, bedarf es einer fundierten und nach wissenschaftlichen Kriterien durchgeführten Datenerhebung. In der wirtschafts- und sozialwissenschaftlichen Forschung finden in diesem Zusammenhang Verfahren, wie z.B. das Interview oder die schriftliche Befragung, eine weite Verbreitung (Bortz und Döring 1995, S. 237 ff.; Schulze und Holling 2004, S.166 ff.). In diesem Kapitel soll nun auf eine weitere Form der empirischen Datenerhebung eingegangen werden, die bisher vor allem in den Wirtschaftswissenschaften eine eher geringe Anwendung findet: die experimentelle Erhebung, kurz: das Experiment.

Oliver Rack, Timo Christophersen
3. Erkenntnisgewinnung durch Fallstudien

Fallstudien im Sinne der qualitativen empirischen Sozialforschung sind ein komplexer und hinsichtlich der Wahl der Datenerhebungsmethoden offener Forschungsansatz. Fallstudien im Speziellen bzw. qualitative Forschungsmethoden allgemein haben auf der internationalen Ebene in den vergangenen zweieinhalb Dekaden wachsenden Zuspruch erfahren (Sutton 1997, S. 98 f.). Herausragende Arbeiten mit entscheidenden Impulsen für Forschritt und Innovation in den Wirtschafts- und Sozialwissenschaften sind qualitativer Natur (beispielhaft sei verwiesen auf Porter 1991; Kaplan und Norton 1996; Ghoshal und Bartlett 1990; Mintzberg 1979). Die Herausgeber hochrangiger Zeitschriften dieser Wissenschaftsbereiche unterstützen daher explizit qualitative Forschungsarbeiten und fordern zum Einreichen entsprechender Manuskripte auf (Lee 2001; Daft und Lewin 1990).

Andreas Borchardt, Stephan E. Göthlich

Datensammlung

4. Verfahren der Datenerhebung

Daten stellen die Grundlage eines empirischen Forschungsprojektes dar. Durch ihre Nutzung werden entscheidungsrelevante Informationen generiert. Unter dem Begriff der

Datenerhebung

wird die systematische und gezielte Aktivität zur Beschaffung von In­formationen verstanden (Hammann und Erichson 2000, S. 81).

Maria Kaya
5. Messen und Skalieren von Sachverhalten

In der Umgangssprache wird immer dann vom Messen gesprochen, wenn ein unbekannter Gegenstand mit einem bekannten Gegenstand, dem Messinstrument, verglichen wird. Allgemein bekannte Messinstrumente sind beispielsweise Waagen, Uhren, Lineale oder auch „Radarfallen“. Im vorliegenden Artikel befindet sich eine kurze Einführung zum Begriff und Prozess des Messens aus der Perspektive eines Sozialwissenschaftlers. Daran anschließend werden im Hauptteil des Beitrags mit Rating-Skalen und dem Skalierungsverfahren nach Likert repräsentative Skalierungsverfahren vorgestellt. Hiermit werden dem Leser wichtige Grundlagen für die Konstruktion eines Messinstrumentes einer empirisch quantitativen Erhebung vermittelt.

Bert Greving
6. Möglichkeiten der Stichprobenbildung

Im Ablauf des empirischen Forschungsprozesses stellt sich nach der Festlegung der Datenerhebungsmethode und der entsprechenden Skalierung der zu untersuchenden Merkmale die Frage nach der Auswahl der Erhebungseinheiten, bei denen die Daten erhoben werden sollen. Diese Datenerhebung kann als Voll- oder Teilerhebung durchgeführt werden.

Maria Kaya, Alexander Himme
7. Subjektive versus objektive Erfolgsmaße

Die Messung von Erfolg stellt einen zentralen Baustein in vielen Forschungsbereichen wie bspw. der Marketingforschung, der Forschung zum strategischen Management oder auch der Forschung zur Arbeits- und Organisationspsychologie dar (Venkatraman und Ramanujam 1987; Jenner 2000; Ailawadi, Dant und Grewal 2004; Wall, Michie, Patterson, Wook, Sheehan, Clegg und West 2004). Während in den beiden erstgenannten Forschungsfeldern der Schwerpunkt eher auf der Messung der Erfolgswirksamkeit von Marketingkonstrukten wie z.B. Marktorientierung, Innovativität und Kundenzufriedenheit (Harris 2001; Ailawadi, Dant und Grewal 2004) sowie auf der Messung des übergeordneten Konstrukts des Unternehmenserfolgs liegt (Dess und Robinson 1984; Gerhart et al. 2000), fokussiert die Personalforschung eher auf die Messung der individuellen Arbeitsleistung (Heneman, 1986; Bommer, Johnson, Rich, Podsakoff und MacKenzie 1995; Rich, Bommer, MacKenzie, Podsakoff und Johnson 1999).

Anne Bachmann
8. Die Erfassung latenter Konstrukte mit Hilfe formativer und reflektiver Messmodelle

In den Wirtschafts- und Sozialwissenschaften beschäftigt man sich häufig mit Fragestellungen, bei denen auf theoretischer Ebene Abhängigkeiten zwischen Variablen modelliert werden. Diese Abhängigkeiten werden dann anhand eines Datensatzes empirisch überprüft (Ghauri und Grönhaug 2002). Beispielsweise könnte der kausale Zusammenhang zwischen dem Kaufpreis eines Produkts und dessen Herstellungskosten von Interesse sein (Backhaus, Erichson, Plinke und Weiber 2003, S. 339). Eine Überprüfung dieser Aussage unter Zuhilfenahme empirischen Datenmaterials ist verhältnismäßig leicht durchzuführen. Es handelt sich nämlich sowohl beim Kaufpreis als auch bei den Herstellungskosten um Konstrukte, die unmittelbar messbar sind und aus diesem Grunde als manifeste Variable bezeichnet werden.

Timo Christophersen, Christian Grape
9. Zum Umgang mit fehlenden Daten in großzahligen empirischen Erhebungen

Großzahliges, quantitativ auswertbares Datenmaterial stellt heute die Grundlage zahlreicher, wenn nicht gar der meisten Studien und Forschungsarbeiten in den Wirtschafts- und Sozialwissenschaften dar. Typisch in Bereichen wie beispielsweise der Organisations- und Marketingforschung oder der Volkswirtschaftslehre sind Umfragen, Panels oder Zeitreihen, die diese Grundlage bilden. Werden Daten nicht in einem kontrollierten oder experimentellen Umfeld gewonnen, geht mit der Datenerhebung regelmäßig das Problem fehlender Werte einher: Die Probanden antworten nicht auf alle gestellten Fragen, sodass Lücken in den für die Auswertung vorgesehenen Datenmatrizen verbleiben. Diese Lücken bergen die Gefahr, dass es bei der Analyse zu Verzerrungen und in der Konsequenz zu Fehlschlüssen und Fehlentscheidungen kommt. Die Standardverfahren der Statistiksoftware ignorieren dieses Problem und nehmen implizit an, der Anwender hätte eine vollständige Datentabelle geliefert. Fehlende Daten stellen damit eines der fundamentalen Probleme empirischer Arbeit dar und sind zudem ein Problem, das durch den Einsatz von Statistiksoftware allein nicht gelöst werden kann. Dennoch werden noch immer zahlreiche großzahlige empirische Studien veröffentlicht, ohne dass darin über das Ausmaß fehlender Werte und die Art und Weise, wie mit ihnen umgegangen wurde, berichtet wird. In der Folge verlieren diese Arbeiten an Überzeugungskraft. Der folgende Aufsatz will dazu beitragen, die Problematik fehlender Daten stärker in das Bewusstsein der Anwender zu rücken, und eröffnet — unter bewusstem Verzicht auf mathematische Ausführungen — einen schnellen Einstieg in die Thematik.

Stephan E. Göthlich
10. Common Method Variance und Single Source Bias

Ein beim Design von Erhebungsstudien zu beachtender Aspekt ist die Vermeidung von systematischen Messfehlern, insbesondere der Common Method Variance (Ernst 2003, S. 1250, Podsakoff et al. 2003). Es ist weitestgehend akzeptiert, dass Korrelationen zwischen mit der gleichen Methode gemessenen Variablen durch Common Method Variance aufgebläht werden können. Podsakoff et al. (2003, S. 879) schreiben: “Most researchers agree that common method variance [...] is a potential problem in behavioral research”. Bagozzi et al. (1991, S. 422) führen dies noch weiter aus: “A hypothesis might be rejected or accepted because of excessive error in measurement, not necessarily because of inadequacy or adequacy of theory”.

Florian Söhnchen

Struktur entdeckende Verfahren

11. Multidimensionale Skalierung

Multidimensionale Skalierung (MDS) umfasst eine Gruppe von Skalierungsmethoden, die Messungen von Ähnlichkeiten bzw Unähnlichkeiten zwischen Paaren von Objekten als Distanzen zwischen Punkten in einem niedrigen multidimensionalen Raum wiedergibt (Borg/Groenen 2005, S. 3). MDS dient dabei insbesondere der bildlichen Darstellung der Nähe oder Distanz von verschiedenen Objekten, wobei die Struktur dieser Darstellung zunächst unbekannt sein kann und erst durch die Anwendung der MDS erkennbar wird (Davison 1992, S. 1). Weiterhin können mit MDS-Verfahren auch Präferenzentscheidungen grafisch verdeutlicht werden, wenn sich bspw. die Frage stellt, wie ein spezielles Produkt im Verhältnis zu den jeweiligen Produkten von Wettbewerbern wahrgenommen wird und wo sich der Idealpunkt eines Konsumenten befindet. Die daraus gewonnenen Erkenntnisse lassen sich dann für Marketingentscheidungen wie bspw. für die Produktpositionierung nutzen (Green/Carmone 1969, S. 331 f.; DeSarbo/Rao 1984, S. 179 ff.).

Christian Rohrlack
12. Fuzzy Clustering mit Hilfe von Mixture Models

Die Clusteranalyse stellt ein in den unterschiedlichsten Wissenschaften häufig benutztes Verfahren zur Einteilung einer Menge von Objekten in Klassen dar (Aldenderfer und Blashfield 1984, S. 7 ff.). Das Ziel ist es hierbei vorrangig, Objekte möglichst homogenen Klassen (Segmenten) zuzuordnen, um so segmentspezifische Erkenntnisse zu gewinnen. So werden beispielsweise Kunden in möglichst homogene Segmente eingeteilt, um diese dann spezifisch mit Marketingmaßnahmen zu adressieren. Typischerweise werden hierfür noch immer Verfahren angewendet, welche die unbeobachtete Heterogenität der der Analyse zugrunde liegenden Daten nicht berücksichtigen. Realistischer ist jedoch die Annahme, dass unterschiedliche Quellen zur Heterogenität der Daten führen. Diese Quellen sind jedoch aufgrund fehlender Informationen häufig nicht beobachtbar (Abbildung 12.1).

Silvia Boßow-Thies, Michel Clement
13. Sequenzdatenanalyse

Für eine Analyse von Längsschnittdaten werden vorwiegend Verfahren aus der Panelanalyse verwendet. Voraussetzungen sind in der Regel für alle Fälle gleichlange Zeitintervalle und ein metrisches Skalenniveau der betrachteten Variablen. Bei vielen Fragestellungen sind diese Voraussetzungen aber nicht gegeben und die Verfahren deshalb eher ungeeignet. Der Anwender muss nach anderen Methoden Ausschau halten, beispielsweise wenn lediglich verschiedene nominal skalierte Zustände des Untersuchungsobjektes über die Zeit hinweg erhoben werden. Möchte man z.B. die Entwicklung der Organisationsstruktur über die Zeit hinweg untersuchen, so lässt sich diese kaum in ein metrisches Skalenniveau bringen, vielmehr können lediglich die verschiedenen Ausprägungen beschrieben werden. Tabelle 13.1 gibt ein fiktives Beispiel einer solchen Entwicklung in Anlehnung an die verschiedenen Pfade amerikanischer Unternehmen zur globalen Struktur (Stopford und Wells 1972). Zwei Dinge fallen bei diesem Beispiel auf: Erstens sind die Perioden nicht direkt vergleichbar. Während bei Unternehmen A drei verschiedene Phasen vorliegen, verlief die Entwicklung bei Unternehmen B über vier Phasen. Auch die Länge der Perioden variiert und kann nicht direkt zwischen Unternehmen A und B verglichen werden. Zweitens ist in diesem Fall auch die für die Panelanalyse klassische Prognose nicht das Hauptziel der Untersuchung, sondern vielmehr die Untersuchung der Ähnlichkeit solcher Pfade. Erhebt man diese Entwicklung der Organisationsstruktur für eine Vielzahl von Unternehmen, so stellt sich die Frage, wie diese aggregiert werden könnten, um Typen oder Entwicklungsmuster zu erhalten. Festzuhalten ist, dass über klassische Verfahren der Panelanalyse solche Daten nur schwer ausgewertet werden können.

Torsten Biemann

Grundlegendes zur Bestimmung von Zusammenhängen

14. Logik und Kritik des Hypothesentestens

Hypothesentestende Verfahren werden immer dann benötigt, wenn von einer Stichprobe auf eine Population geschlossen werden soll. Regression, t-Test usw. sind weit verbreitet, trotzdem bestehen Fehlkonzeptionen und Missverständnissen bezüglich deren Aussagekraft und Logik. Oakes (1986) beispielsweise legte Wissenschaftlern folgende Fragen vor (Übersetzung durch den Autor):

Untersucht wird die Wirkung einer Trainingsmaßnahme auf die Arbeitsleistung.

Verglichen werden eine Experimental- und eine Kontrollgruppe (pro Gruppe n=20).

Überprüft werden die Ergebnisse anhand eines t-Tests (t=2,7; FG=18; p=.01).

Nullhypothese

: Es gibt keinen Unterschied zwischen den Gruppen.

Experimentalhypothese

: Es besteht ein Unterschied zwischen den Gruppen.

Torsten Biemann
15. Nachweis und Behandlung von Multikollinearität

Multikollinearität bezeichnet eine lineare Abhängigkeit zwischen zwei oder mehr unabhängigen Variablen. Es handelt sich dabei um ein zentrales Problem bei regressionsbasierten, statistischen Analysen, das beim empirischen Arbeiten häufig unterschätzt wird. Liegt Multikollinearität vor, so kann dies zu stark negativen Auswirkungen auf die Aussagekraft des Regressionsmodells führen (u.a. Farrar und Glauber 1967; Gunst 1983; Ofir und Khuri 1986). So sind Schätzergebnisse der Regressionskoeffizienten möglicherweise weit von den tatsächlichen, aber unbekannten Parametern entfernt — was deutlichen Über- oder Unterschätzungen entsprechen würde. Auch sind hohe Varianzen bzw. Standardfehler eine Folge von Multikollinearität, die letztendlich auch dazu führen können, dass die Koeffizienten Vorzeichen annehmen, die theoretischen Überlegungen widersprechen. Trotz unplausibler Werte für die Regressionskoeffizienten muss aber nicht zwangsläufig eine Beeinträchtigung der Schätzgüte auftreten (Steffen 1994, S. 6), was in der Praxis dazu führen kann, dass man sich in „falscher Sicherheit“ wiegt. Eine Adressierung des Problems Multikollinearität ist daher beim empirischen Arbeiten von besonderer Bedeutung.

Holger Schneider
16. Moderatoren und Mediatoren in Regressionen

In vielen Modellen der empirischen wirtschaftswissenschaftlichen Forschung, der Psychologie oder allgemein der Sozialforschung finden sich Wirkungsbeziehungen zwischen unabhängigen und abhängigen Variablen, die von einer weiteren unabhängigen Variablen beeinflusst oder übertragen werden. Ungeachtet des breiten Auftretens dieser auch Interaktions- und Mediationseffekte genannten Zusammenhänge in der Forschungspraxis werden sie in der sich mit Methoden der multiplen Regression befassenden einschlägigen Literatur vernachlässigt. In diesem Beitrag werden die grundlegenden Überlegungen und Vorgehensweisen zur Berechnung und Interpretation dieser Effekte dargelegt und anhand eines Beispiels demonstriert. Im Abschnitt 2 wird die Behandlung von Moderatorvariablen besprochen, im Abschnitt 3 wird der Umgang mit Mediationsbeziehungen und kombinierten Effekten von Moderatoren und Mediatoren dargestellt. Abschließend werden einige Hinweise zur weiterführenden Literatur gegeben.

Dirk Müller
17. Endogenität und Instrumentenschätzer

In der klassischen Regressionsanalyse wird vorausgesetzt, dass ein Modell formuliert werden kann, bei dem Ursache und Wirkung exakt voneinander getrennt sind. Es gibt eine oder mehrere unabhängige Variablen, die modellexogen sind und die auf eine modellendogene abhängige Variable wirken. Ein Störterm nimmt alle unsystematischen Einflüsse auf und weist keinerlei Abhängigkeiten von den unabhängigen Variablen auf.

Dennis Proppe

Grundlegende Verfahren zur Bestimmung von Zusammenhängen

18. Logistische und Ordinale Regression

Untersuchungsmodelle mit nominal oder ordinal skalierten abhängigen Variablen können mit der linearen Regression nicht sinnvoll berechnet werden, da die vom Modell gelieferten Ergebnisse nicht immer im Wertebereich der abhängigen Variablen liegen. Wird z.B. der Kauf (Kodierung der abhängigen Variablen y=1) oder Nicht-Kauf (y=0) eines Produktes betrachtet, so lassen sich Werte unter null oder über eins nicht sinnvoll interpretieren. Als multivariate Analysemethode kann im Fall nominal skalierter abhängiger Variablen die logistische Regression verwendet werden. Ist zusätzlich die Reihenfolge der Kategorien der abhängigen Variablen sinnvoll interpretierbar, dann sollte die ordinale Regression angewendet werden.Skalenniveaus bestehen.

Christian Rohrlack
19. Conjoint-Analysen

Die Conjoint-Analyse ist zuerst in der Psychologie in den sechziger Jahren des vorigen Jahrhunderts eingesetzt worden (Luce und Tukey 1964). Green und Rao (1971) führten die Methode Anfang der siebziger Jahre in die Marketing-Literatur ein. Befragungen von Marktforschungsinstituten (Hartmann und Sattler 2002; Wittink, Vriens und Burhenne 1994) zeigen die große Bedeutung, die Conjoint-Analysen in der praktischen Anwendung heutzutage zukommt.

Alexander Himme
20. Discrete-Choice-Modelle

Bei einer Vielzahl von praktischen Problemstellungen stehen das Verständnis und die Modellierung von Wahlverhalten im Vordergrund. Beispielsweise sind Unternehmen daran interessiert, das Markenwahlverhalten ihrer Konsumenten besser zu verstehen und gegebenenfalls zu prognostizieren. Hierbei stehen Fragen im Vordergrund hinsichtlich der Wahrscheinlichkeit, mit der einzelne Marken gekauft werden, und hinsichtlich der Einflussgrößen, die diese Markenwahl determinieren. Es gilt daher die Wahlentscheidung zu erklären. Da es sich hierbei um eine diskrete Variable handelt, d.h. Kauf oder Nicht-Kauf einer Marke, führen klassische Regressionsansätze zu falschen Ergebnissen. Abhilfe schaffen sog. Discrete-Choice-Modelle. Hierbei werden als abhängige Variablen, wie die Bezeichnung “Discrete” vermuten lässt, nicht stetige, sondern diskrete Variablen betrachtet. Es kann somit die Wahl einer bestimmten Marke („Choice“) modelliert werden.

Jarg Temme
21. Prinzipien der Panelanalyse

Paneldaten umfassen zeitlich aufeinander folgende Beobachtungen mehrerer Beobachtungsträger und verfügen damit sowohl über Querschnitts- als auch Längsschnittscharakter. Die Analysemethoden für solche Paneldaten sind mit der steigenden Verfügbarkeit des Datenmaterials stets erweitert und verfeinert worden, so dass diese mittlerweile zum Standard-Repertoire der empirischen Forschung zählen.

Arne Schröder
22. Hazard-Raten-Modelle

Regressionsansätze gehören zu den Standardmethoden der empirischen Forschung. Im Mittelpunkt ihrer An#wendung steht dabei die Suche nach Einflussfaktoren, die die Ausprägung einer beobachteten, abhängigen Variable erklären. Dieses Vorgehen wird in der Logistischen Regression um die Frage erweitert, ob ein Ereignis überhaupt eintritt (siehe den Beitrag von Rohrlack zur Logistischen Regression in diesem Buch). Hazard-Raten-Modelle, in ihrer parametrischen Form auch Hazard-Regressionen genannt, ergänzen einen weiteren Analyseaspekt: Sie untersuchen nicht nur,

ob

ein Ereignis eintritt, sondern auch

nach welcher Zeitdauer.

Kerstin Reimer, Christian Barrot
23. Mehrgleichungsmodelle: Schätzmethoden und Anwendungsperspektiven

Die meisten ökonometrischen Beziehungsanalysen benötigen zur Erklärung realistischer Zusammenhänge mehrere Gleichungen. Diese können auf unterschiedliche Art und Weise miteinander verbunden sein. In den gängigen Fachbüchern der Ökonometrie werden vor allem volkswirtschaftliche Beispiele zu makro- oder mikroökonomischen Gleichgewichten herangezogen. Nach dem „Lüdecke-Modell“ ist bspw. der Konsum einer Volkswirtschaft abhängig vom Einkommen und dem Konsum vergangener Perioden. Zugleich ist das Einkommen selbst eine Funktion aus Konsum und anderen volkswirtschaftlichen Größen wie den Investitionen (Frohn 1995, S. 2 f.). Konsum und Einkommen sind innerhalb des Modells sowohl endogene als auch exogene Variable. Damit entstehen Interdependenzen zwischen den Gleichungen. Ein Beispiel aus der Betriebswirtschaft stellt die Modellierung der Preisbildung eines Produktes dar. Zunächst ist eine geeignete Produktnachfragefunktion notwendig, die die Nachfrage in Abhängigkeit des Produktpreises und des Budgets betrachtet. Der Nachfragefunktion steht die Angebotsfunktion gegenüber, welche durch die Produktions- und Kostenstruktur des Anbieters beeinflusst wird. In diesem Beispiel führt die Gleichgewichtsbeziehung zwischen Angebot und Nachfrage über die optimale Preissetzung zu Interdependenzen zwischen den Gleichungen.

Marisa Schlichthorst
24. Analyse kausaler Wirkungszusammenhänge mit Hilfe von Partial Least Squares (PLS)

Bei der Schätzung von Strukturgleichungsmodellen wurden Konstrukte bislang vielfach fehlerhaft konzipiert und operationalisiert. Vor diesem Hintergrund soll der vorliegende Beitrag zeigen, wie mit dem Partial-Least-Squares-Ansatz (PLS) komplexe Modelle analysiert werden können, die weder auf normalverteilten Daten noch auf einer hohen Fallzahl beruhen und deren Komponenten sich jeweils aus unterschiedlichen inhaltlichen Facetten zusammensetzen.

Silvia Boßow-Thies, Gregor Panten

Erweiterte Verfahren zur Bestimmung von Zusammenhängen

25. Eine anwendungsbezogene Einführung in die Hierarchische Lineare Modellierung (HLM)

Die Hierarchische Lineare Modellierung (HLM) stellt ein statistisches Verfahren zur Auswertung von Daten mit hierarchischer Struktur dar. Eine solche Struktur liegt vor, wenn ein Datensatz Variablen auf verschiedenen Untersuchungsebenen wie z.B. Variablen bezüglich Mitarbeitern (Individualebene), Teams (Gruppenebene) und Unternehmen (Organisationsebene) enthält. So lässt sich, wie in Abbildung 25.1 für eine ZweiEbenen-Untersuchung beispielhaft dargestellt, mittels HLM eine Vielzahl möglicher Variablenzusammenhänge analysieren: (a) Zusammenhänge zwischen Variablen auf unterschiedlichen Untersuchungsebenen, z.B. zwischen dem Führungsstil eines Projektleiters (G) und dem individuellen Commitment der Teammitglieder (Y), (b) Fall (a) ergänzt um Variablenzusammenhänge auf gleicher Ebene, z.B. der Beziehung zwischen der individuellen Leistungsmotivation (X) und dem Commitment eines Teammitglieds, und (c) Zusammenhänge zwischen Variablen derselben Untersuchungsebene moderiert durch Einflüsse einer anderen Untersuchungsebene, z.B. zwischen individueller Leistungsmotivation und Commitment eines Teammitglieds bei Berücksichtigung des Führungsstils des Projektleiters.

Sascha G. Walter, Oliver Rack
26. Simultane Schätzung von Choice-Modellen und Segmentierung

Wirkungszusammenhänge im Marketing sind dadurch gekennzeichnet, dass sich die einzelnen Wirtschaftssubjekte verschieden verhalten. Besondere Bedeutung kommt dieser Tatsache bei Choice-Modellen (Modelle zur Abbildung des Auswahlentscheidungsverhaltens) zu, da bei einer großen Zahl von (Auswahl-)Entscheidungssituationen kaum noch Wirtschaftssubjekte identische Entscheidungen treffen. Würde man jedoch alle Wirtschaftssubjekte einzeln betrachten, müsste man für jedes Wirtschaftssubjekt die Modellparameter individuell schätzen, was mehrere Beobachtungen pro Wirtschaftssubjekt erfordert. Daher versucht man, die Wirtschaftssubjekte zu segmentieren, d.h. in Gruppen zusammenzufassen.

Markus Horenburger
27. Spatial Analysis

Bei Untersuchungen über die Reaktion von (potenziellen) Kunden wird traditionell unterstellt, dass sich die betrachteten Einheiten unabhängig voneinander verhalten. Wie Studien gezeigt haben, ist diese Annahme aber nicht immer gerechtfertigt. Vielmehr führen soziale Beeinflussungsprozesse wie z.B. Nachbarschaftseffekte (Case 1991), Mund-zu-Mund-Propaganda (Granovetter 1973) oder soziale Ansteckung (Van den Bulte und Lilien 2001) dazu, dass sich räumlich nahe gelegene Einheiten ähnlich verhal­ten. Da Interdependenzbeziehungen dieser Art aufgrund der Multidimensionalität des Raumes jedoch schwierig zu messen und abzubilden sind, bleibt dies in der ökonometri­schen Modellierung oft unberücksichtigt.

Sina Henningsen
28. Schätzung von Marketing-Modellen mit simulationsbasierten Verfahren

In der aktuellen Marketingforschung haben statistische Verfahren eine große Bedeutung erlangt. Ohne die Kenntnis von neuesten Methoden der Ökonometrie ist es so gut wie unmöglich, anspruchsvolle empirische Studien durchzuführen. Die Modellierung von Marketingreaktionen erfordert die Berücksichtigung von Heterogenität (Konsumenten reagieren unterschiedlich auf Marketing), Endogenität (Unternehmen setzen ihre Marketingbudgets nicht zufällig), dynamischen Effekten (Marketing wirkt über einen längeren Zeitraum) oder nichtlinearen Reaktionsfunktionen (Sättigungseffekte im Marketing). Somit stößt das einfache lineare Modell im Marketing an seine Grenzen. Ein Ansatz zur schätztechnischen Bewältigung dieser vier Probleme sind Verfahren der Schätzung mit Methoden der numerischen Simulation. Besonders hervorzuheben sind in diesem Zusammenhang hierarchische Bayes-Ansätze (HB) und die Schätzung mittels Maximum Simulated Likelihood (MSL).

Dennis Proppe
29. Die Persistenzmodellierung als Methode zur Schätzung von langfristigen Marketingwirkungen

Der Einsatz von Marktreaktionsmodellen ermöglicht, die Wirkung von Marketingmaßnahmen zu quantifizieren. Dabei erweist sich die Berücksichtigung von Dynamiken als besondere Herausforderung, da Marketingwirkungen nicht nur zeitgleich, sondern auch zu späteren Zeitpunkten eintreten können. Das Verhalten der Marktteilnehmer bedingt die zeitliche Wirkungsentwicklung, so dass zwischen kurz- und langfristigen Wirkungen unterschieden werden kann. Insofern verlangt die Erfolgsbeurteilung von Marketingmaßnahmen auf Basis eines Modells die explizite Berücksichtigung von Wirkungsdynamiken.

Tobias Maria Günter
30. Event-Studies

Das Ziel jeder Maßnahme eines Unternehmens ist die Steigerung des Unternehmensgewinns und damit auch des Unternehmenswertes am Markt. Wie sehr eine einzelne Maßnahme der Unternehmenswert beeinflusst, kann intern beispielsweise mit Hilfe von Discounted-Cash-Flow-Modellen ermittelt werden. Dieses Vorgehen erfordert jedoch interne Daten und führt abhängig von der individuellen Risikoeinschätzung zu unterschiedlichen Bewertungen (Brealey, Myers und Allen, 2008, S. 88 ff.). Eine objektive Bewertung ist für Dritte nicht möglich. Einen alternativen Ansatz bietet die Event-StudyMethode, die zur Schätzung von Kapitalmarktreaktionen eingesetzt wird. Der Aktienkurs stellt ein einheitliches Maß für die Bewertung eines Unternehmens dar. Reagieren die Kapitalmärkte auf eine Unternehmensnachricht mit Kursauf- oder abschlägen, so können diese Reaktionen allgemein beobachtet und bewertet werden.

Björn Goerke

Ergebnisgüte

31. Gütekriterien der Messung: Reliabilität, Validität und Generalisierbarkeit

Bei jeder empirischen Untersuchung stellt sich die Frage nach der Qualität des Messvorgangs, die den Untersuchungserfolg und die Aussagefähigkeit der Ergebnisse entscheidend beeinflusst. Messfehler sind bei jedem Messvorgang, z.B. bei Persönlichkeitstests in der Psychologie oder Einstellungsfragebögen im Marketing, unvermeidbar. Daher muss es bei Messungen das Ziel sein, die Messqualität zu beurteilen und Messfehler zu minimieren. Traditionell werden in diesem Zusammenhang in der klassischen Testtheorie Haupt- und Nebengütekriterien betrachtet (Fisseni 2004, S. 46; Lienert und Raatz 1994, S. 7).

Alexander Himme
32. Nichtparametrische Testverfahren

In den 50er Jahren wurde in zahlreichen Publikationen zu nichtparametrischen Testverfahren die hohe Effizienz dieser Verfahren im Vergleich zu parametrischen Verfahren nachgewiesen (Büning und Trenkler 1994, S. 1). Nichtparametrische Verfahren finden Anwendung, wenn die Annahmen parametrischer Tests verletzt sind. Dies begründet sich durch die weniger restriktiven Annahmen nichtparametrischer Testverfahren (Sprent 1989, S. 3 f.).

Daniel Reuschenbach
33. Bootstrapping und andere Resampling-Methoden

Das Ziel dieses Beitrages ist es, einen Überblick über das Thema „Resampling“ unter besonderer Berücksichtigung des Bootstrapping im Zusammenhang mit der statistischen Datenanalyse zu geben. Einführend erfolgt zunächst eine allgemeine Beschreibung und Einordnung des Resampling.

Kerstin Reimer
34. Ausgewählte Verfahren der Holdout- und Kreuzvalidierung

Oftmals erweist sich bei der Aufstellung von Erklärungsmodellen die Auswahl der am besten geeigneten Spezifikation als nicht einfach. Im Regelfall stehen verschiedene Modellvarianten und Variablensätze zur Auswahl. Die Beurteilung, welche Kombination die beste Erklärungsgüte besitzt, ist dabei diffizil (Breiman und Spector 1992). In der Regel wird darauf vertraut, anhand der Residual-Methode den Datenfit der einzelnen Varianten zu beurteilen. Orientiert man sich dabei lediglich an dem Datenfit unter Benutzung eines einzelnen Datensatzes, so kann es zum so genannten „overfitting“ kommen. Dabei wird der Fehler des Modells systematisch unterschätzt. In Abbildung 34.1 wird dieses Phänomen grafisch dargestellt.

Jan Kuhlmann
35. Prognosegütemaße

Der Blick in die Zukunft fasziniert Menschen seit jeher. Egal, ob man Aussagen zur Erderwärmung, zu Wahlen oder zu Aktienkursen trifft — eine breite Aufmerksamkeit ist gesichert. Dies kann sich jedoch immer dann in ein Problem umkehren, wenn die Güte der getroffenen Prognosen unzureichend ist und rein gar nicht mit den tatsächlich eintretenden Ereignissen übereinstimmt. Besonders krasse Fehlprognosen werden gern von der Presse aufgegriffen, entsprechende Beiträge (z.B. über das Versagen von Bank-Analysten) entbehren meist nicht einer gewissen Schadenfreude (Tabelle 35.1).

Christian Barrot
Backmatter
Metadaten
Titel
Methodik der empirischen Forschung
herausgegeben von
Sönke Albers
Daniel Klapper
Udo Konradt
Achim Walter
Joachim Wolf
Copyright-Jahr
2009
Verlag
Gabler Verlag
Electronic ISBN
978-3-322-96406-9
Print ISBN
978-3-8349-1703-4
DOI
https://doi.org/10.1007/978-3-322-96406-9