Skip to main content
main-content

Über dieses Buch

Der neue BORTZ-SCHUSTER rechnet (sich) für Sie! Denn er wurde in der 7. Auflage komplett überarbeitet, ergänzt und didaktisch verbessert – jetzt mit brandneuen Online-Zusatzmaterialien! An Bewährtem wurde festgehalten: Dieses Lehrbuch ist DIE Grundlage im Bachelorstudium, denn es ist alles Prüfungsrelevante drin, von Elementarstatistik über varianzanalytische Methoden bis zu multivariaten Methoden und Übungsaufgaben helfen bei der Prüfungsvorbereitung. Es ist weiterhin auch DAS Nachschlagewerk im Masterstudium und in der Forschung: Beispiele aus dem psychologischen Forschungsalltag helfen beim Nachvollziehen von Berechnungen und ein Glossar liefert schnell die wichtigsten Begriffsdefinitionen. NEUES wurde sinnvoll ergänzt, die Didaktik optimiert: Die neue Auflage ist neu strukturiert, kürzere Kapitel sorgen für einen klareren Aufbau. Die Grundlagen werden für Einsteiger verständlicher und ausführlicher dargestellt. Markierungen kennzeichnen Vertiefungskapitel. Hinweise zu EDV-Anwendungen sind systematisch in Kästen hervorgehoben. Und besonders interessant für Anwender und die Prüfungsvorbereitung: Eine neue begleitende Website enthält Anleitungen für die Berechnung der im Buch enthaltenen Beispiele mit Statistikprogrammen (SPSS-Syntax) sowie Lerntools für Studierende und Materialien (Abbildungen und Folien) für Dozenten. Der BORTZ-SCHUSTER ist und bleibt ein unerlässliches Statistik-Lehrbuch für Studierende der Psychologie und Sozialwissenschaften, für Wissenschaftler und für Anwender.

Inhaltsverzeichnis

Frontmatter

Deskriptiv-und Inferenzstatistik

Frontmatter

Kapitel 1. Empirische Forschung und Skalenniveaus

Statistik ist ein wichtiger Bestandteil empirischwissenschaftlichen Arbeitens, der sich mit der Zusammenfassung und Darstellung von Daten befasst. Darüber hinaus stellt die Statistik den empirischen Wissenschaften Verfahren zur Verfügung, mit denen objektive Entscheidungen über die Brauchbarkeit von wissenschaftlichen Hypothesen getroffen werden können.
Jürgen Bortz, Christof Schuster

Kapitel 2. Statistische Kennwerte

Die Anwendung statistischer Verfahren setzt voraus, dass quantitative Informationen über den jeweiligen Untersuchungsgegenstand bekannt sind. Die Aussage: „Herr X ist neurotisch“ mag zwar als qualitative Beschreibung der genannten Person informativ sein; präziser wäre diese Information jedoch, wenn sich die Ausprägung des Neurotizismus durch eine bestimmte Zahl kennzeichnen ließe, die beispielsweise Vergleiche hinsichtlich der Ausprägungsgrade des Neurotizismus bei verschiedenen Personen ermöglicht.
Jürgen Bortz, Christof Schuster

Kapitel 3. Grafische Darstellungen vonMerkmalsverteilungen

Ausgehend von den Bearbeitungszeiten in Tab. 2.1 fragen wir, wie man deren Verteilung sinnvoll darstellen kann, sodass gewisse Aspekte, welche in den Messwerten enthalten sind, möglichst einfach herausgestellt werden können. Durch die Berechnung von Kennwerten können wir bereits wichtige Aspekte der Daten ausdrücken. In diesem Kapitel wollen wir aber die Daten bzw. deren Verteilung analysieren, wobei in erster Linie grafische Darstellungen zum Einsatz kommen sollen.
Jürgen Bortz, Christof Schuster

Kapitel 4. Wahrscheinlichkeitstheorie

Begriffe wie „wahrscheinlich“ finden nicht nur in der Statistik, sondern auch in der Umgangssprache Verwendung. Man hält es beispielsweise für „sehr wahrscheinlich“, dass am nächsten Wochenende in Berlin die Sonne scheinen wird, oder man nimmt an, dass ein Pferd in einem bestimmten Rennen mit einer Wahrscheinlichkeit von 90% siegen wird.
Jürgen Bortz, Christof Schuster

Kapitel 5. Wahrscheinlichkeitsverteilungen

Nach den Ausführungen in Abschn. 4.1.1 verstehen wir unter einem Zufallsexperiment einen Vorgang, dessen Ergebnis ausschließlich vom Zufall abhängt. Im Zusammenhang mit Wahrscheinlichkeitsverteilungen spricht man von sog. „Zufallsvariablen“. Wir geben zunächst folgende Definition: Definition 5.1 Zufallsvariable. Eine Zufallsvariable ist eine Funktion, die den Ergebnissen eines Zufallsexperimentes (d. h. Elementarereignissen oder Ereignissen) reelle Zahlen zuordnet.
Jürgen Bortz, Christof Schuster

Kapitel 6. Stichprobe und Grundgesamtheit

Kapitel 3 stellt Verfahren vor, mit deren Hilfe die in einer Stichprobe angetroffene Merkmalsverteilung beschrieben werden kann, wobei Fragen der Generalisierbarkeit der Ergebnisse ausgeklammert wurden. Die meisten empirischen Untersuchungen sind jedoch darauf gerichtet, allgemeingültige Aussagen zu formulieren, die über die Beschreibung einer spezifischen Gruppe von Untersuchungseinheiten hinausgehen. Wir wollen deshalb in diesem Kapitel das Grundprinzip erklären, wie auf der Basis von Ergebnissen, die an einer verhältnismäßig kleinen Personen-oder Objektgruppe ermittelt wurden, induktiv allgemein gültige Aussagen formuliert werden können. Der sich hiermit befassende Teilbereich der Statistik wird als Inferenz- oder schließende Statistik bezeichnet.
Jürgen Bortz, Christof Schuster

Kapitel 7. Hypothesentesten

Statistische Kennwerte wie das arithmetische Mittel oder die Standardabweichung werden als Punktschätzungen berechnet, um eine Stichprobe hinsichtlich der zentralen Tendenz bzw. der Variabilität ihrer Messwerte zu beschreiben. Wir wissen jedoch, dass diese Punktschätzungen mehr oder weniger genau sind, wobei die Unsicherheit eines Stichprobenkennwertes als Schätzwert eines Populationsparameters durch seinen Standardfehler bzw. die Berechnung des entsprechenden Konfidenzintervalls bestimmt werden kann.
Jürgen Bortz, Christof Schuster

Kapitel 8. Tests zur Überprüfung von Unterschiedshypothesen

Mit Hilfe des z -Tests haben wir in Kap. 7 die Logik des Hypothesentestens eingeführt. Der z -Test basierte auf der sicherlich nur selten erfüllten Annahme, dass die Standardabweichung der Rohwerte in der Population bekannt ist. Diese Annahme mag in Einzelfällen nicht unrealistisch sein. Sie hatte aber vor allem den Zweck, die Erklärung des Hypothesentestens zu vereinfachen, denn bei bekannter Standardabweichung ist nur der μ -Parameter – im Beispiel der wahre Mittelwert der Schülerleistungen, welche mit der neuen Lehrmethode erzielt wurden – unbekannt. Sind die für den z -Test gemachten Annahmen erfüllt, und gilt zugleich die Nullhypothese, dann ist die Verteilung der Rohwerte bzw. der Prüfgröße vollständig bekannt, und alle Berechnungen – einschließlich der Berechnung der Teststärke – können mit Hilfe der z -Transformation durchgeführt werden.
Jürgen Bortz, Christof Schuster

Kapitel 9. Analyse von Häufigkeiten

Zur Analyse von Häufigkeiten werden sog. Χ2-Methoden (lies: Chi-Quadrat-Methoden) eingesetzt, die typischerweise vorliegen, wenn Objekte oder Personen entsprechend eines oder mehrererMerkmale kategorisiert werden. Häufig sind die Kategorien nicht geordnet. In diesem Fall handelt es sich bei den zu besprechenden Verfahren um die Analyse der Häufigkeiten von nominalen Variablen. Man spricht deshalb auch von „Nominaldatenverfahren“.
Jürgen Bortz, Christof Schuster

Kapitel 10. Korrelation

Häufig besteht eine paarweise Beziehung zwischen zwei Beobachtungen, sodass die vorliegenden Daten einer einfachen Stichprobe von Beobachtungspaaren entsprechen. Beispielsweise wird die Schwere einer psychiatrischen Symptomatik für jeden Patienten sowohl vor als auch nach einer Behandlung erhoben, oder der Erfolg einer psychotherapeutischen Paartherapie wird sowohl vom Ehemann als auch von der Ehefrau beurteilt.
Jürgen Bortz, Christof Schuster

Kapitel 11. Einfache lineare Regression

Erst wenn wir wissen, dass zwei Merkmale miteinander zusammenhängen, kann das eine Merkmal zur Vorhersage des anderen eingesetzt werden. Besteht beispielsweise zwischen dem Alter, in dem ein Kind die ersten Sätze spricht, und der späteren schulischen Leistung ein gesicherterZusammenhang, könnte der Schulerfolg aufgrund des Alters, in dem die Sprachentwicklung einsetzt, vorhergesagt werden. Vorhersagen wären – um weitere Beispiele zu nennen – ebenfalls möglich,wenn zwischen der Abiturnote und dem späteren Studienerfolg, der Tüchtigkeit von Menschen und ihrer Beliebtheit, der Selbsteinschätzung von Personen und ihrerBeeinflussbarkeit, den politischenEinstellungen der Eltern und den politischen Einstellungen der Kinder, demGeschlecht undKunstpräferenzen von Personen usw. Zusammenhänge bestehen.
Jürgen Bortz, Christof Schuster

VarianzanalytischeMethoden

Frontmatter

Kapitel 12. Einfaktorielle Versuchspläne

Bevor wir uns mit dem Grundprinzip der einfaktoriellen Varianzanalyse befassen, sollen die Begriffe (1) abhängige Variable, (2) Faktor und (3) Treatment erläutert werden. Mit der abhängigen Variablen bezeichnen wir dasjenige Merkmal, welches mit einer Varianzanalyse untersucht wird. Wir registrieren beispielsweise, dass Versuchspersonen auf einer Skala zur Erfassung der Einstellung zum marktwirtschaftlichen System Unterschiede aufweisen und fragen uns, wie diese Unterschiede zustande kommen. Variablen, die als Erklärung der Einstellungsunterschiede verwendet werden können, werden unabhängige Variablen oder Faktoren genannt. Bezogen auf das Einstellungsbeispiel sind die soziale Schicht der Versuchspersonen, ihre Parteizugehörigkeit, berufliche Position, die Ausbildung, die Einstellung der Eltern usw. Faktoren, die potenziell Unterschiede auf der abhängigen Variablen erzeugen können.
Jürgen Bortz, Christof Schuster

Kapitel 13. Kontraste und Mehrfachvergleiche für einfaktorielle Versuchspläne

Führt eine einfaktorielle Varianzanalyse zu einem signifikanten F -Wert, können wir hieraus schließen, dass sich die p Mittelwerte in irgendeinerWeise signifikant unterscheiden. Eine differenziertere Interpretation der Gesamtsignifikanz wird – ausgenommen beim Fall p = 2 – erst möglich, wenn wir wissen, welche Mittelwerte sich von welchen anderen Mittelwerten signifikant unterscheiden. So wäre es beispielsweise denkbar, dass sich unter den Mittelwerten ein „Ausreißer“ befindet, der zu einem signifikanten F -Wert geführt hat, und dass sich die übrigen Mittelwerte nicht signifikant voneinander unterscheiden.
Jürgen Bortz, Christof Schuster

Kapitel 14. Zweifaktorielle Versuchspläne

Führt eine einfaktorielle Varianzanalyse zu keinem signifikanten Ergebnis, so kann dies auf folgende Ursachen zurückgeführt werden:
  • Das Treatment übt tatsächlich keinen Einfluss auf die abhängige Variable aus.
  • Die Fehleranteile sind im Vergleich zur Treatmentwirkung zu groß.
Jürgen Bortz, Christof Schuster

Kapitel 15. Kontraste für zweifaktorielle Versuchspläne

Wie bei der einfaktoriellen Varianzanalyse können auch im Rahmen zweifaktorieller Varianzanalysen a priori formulierte Kontrasthypothesen geprüft bzw. Unterschiede zwischen Mittelwerten a posteriori durch Scheffé-Tests genauer analysiert werden.
Jürgen Bortz, Christof Schuster

Kapitel 16. Drei-undmehrfaktorielle Versuchspläne

Die Frage, wie eine abhängige Variable durch drei unabhängige Variablen beeinflusst wird, können wir mit der dreifaktoriellen Varianzanalyse untersuchen. Diese Analyse zerlegt die totale Quadratsumme in die folgenden, voneinander unabhängigen Anteile:
  • Drei Haupteffekte A , BundC.
  • Drei Interaktionseffekte AB , ACundBC.
  • Einen Interaktionseffekt 2. Ordnung ABC.
  • Fehler
Jürgen Bortz, Christof Schuster

Kapitel 17. Hierarchische Versuchspläne

Die bisher behandelten, mehrfaktoriellen Versuchspläne sind dadurch charakterisierbar, dass allen möglichen Faktorstufenkombinationen eine Zufallsstichprobe zugewiesen wird. Derartige Versuchspläne bezeichnen wir als vollständige Versuchspläne.
Jürgen Bortz, Christof Schuster

Kapitel 18. Versuchsplänemit Messwiederholungen

Eine sehr vielseitig einsetzbareVersuchsanordnung sieht vor, dass bei jedem Untersuchungsobjekt – anders als in den bisher besprochenen Untersuchungsplänen – nicht nur eine, sondern mehrere, z. B. p Messungen, erhoben werden. Wiederholte Messungen an den Versuchspersonen werden z.B. in der Therapieforschung benötigt, um die Auswirkungen einer Behandlung durch Untersuchungen vor, während und nach der Therapie zu ermitteln, in der Gedächtnisforschung, um den Erinnerungsverlauf erworbener Lerninhalte zu überprüfen, in der Einstellungsforschung, um die Veränderung von Einstellungen durch Medieneinwirkung zu erkunden, oder in der Wahrnehmungspsychologie, um mögliche Veränderungen in der Bewertung von Kunstprodukten nach mehrmaligem Betrachten herauszufinden. Wie die genannten Beispiele verdeutlichen, sind Messwiederholungsanalysen vor allem dann indiziert, wenn es um die Erfassung von Veränderungen über die Zeit geht. Das allgemeine Problem der Erfassung von Veränderung wird ausführlich bei Gottmann (1995) behandelt.
Jürgen Bortz, Christof Schuster

Kapitel 19. Kovarianzanalyse

In Kapitel 14 haben wir im Rahmen mehrfaktorieller Versuchspläne die Möglichkeit erörtert, durch die Einführung mehrerer Faktoren die Fehlervarianz zu reduzieren. Dieser Ansatz benötigt jedoch mit steigender Faktoren-und Faktorstufenzahl rasch eine große Stichprobe.Wir benötigenweniger Versuchspersonen, wenn jede Person unter mehreren Faktorstufen beobachtet wird (Messwiederholungen). Nachteilig kann sich bei Messwiederholungsplänen die Möglichkeit auswirken, dass die Versuchspersonen durch wiederholte Untersuchungen zu sehr beansprucht werden, was zu Motivations-und Aufmerksamkeitsabnahme bzw. allgemein zu Sequenzeffekten führen kann, wodurch die Interpretation einer Untersuchung erschwertwird.
Jürgen Bortz, Christof Schuster

Kapitel 20. Lateinische Quadrate und verwandte Versuchspläne

Eine Möglichkeit, mit minimaler Anzahl von Personen drei Haupteffekte testen zu können, stellen die sog. lateinischen Quadrate dar, die in Abschnitt 20.1 besprochen werden. Sollen möglichst ökonomisch mehr als drei Haupteffekte überprüft werden, können griechisch-lateinische Quadrate bzw. hyperquadratische Anordnungen eingesetzt werden, s. Abschnitt 20.2. Durch die Verbindung quadratischer Anordnungen mit Messwiederholungsanalysen resultieren Versuchspläne, mit denen unter anderem Sequenzeffekte kontrolliert werden können. Diese Versuchspläne werden in Abschnitt 20.3 besprochen.
Jürgen Bortz, Christof Schuster

Multivariate Methoden

Frontmatter

Kapitel 21. Partielle Korrelation undmultiple lineare Regression

Die multiple lineare Regression erweitert die in Kap. 11 besprochene, einfache lineare Regression, indem sie die Berücksichtigung von mehr als einer Prädiktorvariablen ermöglicht. Die multiple Regression sowie die partielle Korrelation können eingesetzt werden, um den Einfluss von Drittvariablen in der Analyse von Variablenbeziehungen zu „kontrollieren“, d. h., statistisch konstant zu halten.
Jürgen Bortz, Christof Schuster

Kapitel 22. Allgemeines lineares Modell

Für die wichtigsten in Teil I und Teil II dieses Buches behandelten Verfahren soll im Folgenden ein integrierender Lösungsansatz dargestellt werden, der üblicherweise als das „allgemeine lineare Modell“ (ALM) bezeichnet wird. Das Kernstück dieses von J. Cohen (1968a) bzw. Overall und Spiegel (1969) eingeführten Modells ist die multiple Korrelation bzw. die lineare multiple Regression, die wir in den letzten Abschnitten kennengelernt haben. Im ALM wird der Anwendungsbereich der multiplen Korrelationsrechnung in der Weise erweitert, dass in einer Analyse nicht nur intervallskalierte, sondern auch nominalskalierte Merkmale (bzw. beide Merkmalsarten gleichzeitig) berücksichtigt werden können. Hierfür ist es allerdings erforderlich, dass die nominalskalierten Merkmale zuvor in einer für multiple Korrelationsanalysen geeigneten Form verschlüsselt werden
Jürgen Bortz, Christof Schuster

Kapitel 23. Faktorenanalyse

Der herausragende Stellenwert der Faktorenanalyse ist für viele Fachdisziplinen, vor allem für die psychologische Forschung, unstrittig. Zum Anwendungsfeld der Faktorenanalyse gehören hauptsächlich explorative Studien, in denen für die wechselseitigen Beziehungen vieler Variablen ein einfaches Erklärungsmodell gesucht wird. Insofern unterscheidet sich die Faktorenanalyse von den bisher behandelten Verfahren, die in hypothesenprüfenden Untersuchungen einzusetzen sind. Die für hypothesenprüfende Untersuchungen typische Unterteilung von Merkmalen in unabhängige und abhängige Variablen entfällt bei der Faktorenanalyse. Ihr primäres Ziel besteht darin, einem größeren Variablensatz eine ordnende Struktur zu unterlegen.
Jürgen Bortz, Christof Schuster

Kapitel 24. Pfadanalyse

Mit der Pfadanalyse werden anhand empirischer Daten a priori formulierte Kausalhypothesen zur Erklärung vonMerkmalszusammenhängen geprüft. Diese aus erkenntnistheoretischer Sicht höchst attraktive Perspektive hat zu einer starken Verbreitung dieser Methode in den Sozialwissenschaften, der Ökonometrie und der Medizin geführt. Die Pfadanalyse wurde bereits in den 1920er Jahren in ihren Grundzügen entwickelt (S.Wright, 1921). Alle Variablenbeziehungen werden in der Pfadanalyse als linear angenommen. Deswegen ist die Pfadanalyse eng verwandt mit der linearen Regressionsanalyse.
Jürgen Bortz, Christof Schuster

Kapitel 25. Clusteranalyse

Die Clusteranalyse ist – ähnlich wie die Faktorenanalyse – ein heuristisches Verfahren. Sie wird eingesetzt zur systematischen Klassifizierung der Objekte einer gegebenen Objektmenge. Die durch einen festen Satz von Merkmalen beschriebenen Objekte (Personen oder andere Untersuchungsobjekte) werden nach Maßgabe ihrer Ähnlichkeit in Gruppen (Cluster) eingeteilt, wobei die Cluster intern möglichst homogen und extern möglichst gut voneinander separierbar sein sollen.
Jürgen Bortz, Christof Schuster

Kapitel 26. Multivariate Mittelwertvergleiche

In Kap. 8 wurden Verfahren behandelt, die Unterschiedshypothesen für zwei abhängige oder unabhängige Stichproben überprüfen ( t -Test). Die Verallgemeinerung dieses Ansatzes auf den Vergleich mehrerer Stichproben führte zur Varianzanalyse, mit der in vielfältiger Weise Mittelwertunterschiede zwischen Stichproben, die sich in Bezug auf die Stufen einer oder mehrerer unabhängiger Variablen unterscheiden, überprüft werden können. Charakteristisch für diese Verfahren ist der univariate Ansatz , d. h. die Analyse der Varianz von nur einer abhängigen Variablen.
Jürgen Bortz, Christof Schuster

Kapitel 27. Diskriminanzanalyse

Die in Kapitel 26 behandelten multivariaten Mittelwertvergleiche ermöglichen eine Überprüfung der Unterschiedlichkeit von Stichproben in Bezug auf mehrere abhängige Variablen. Fragen wir beispielsweise, ob sich das Erziehungsverhalten von Eltern verschiedener sozialer Schichten unterscheidet, wenden wir für den Fall, dass das Erziehungsverhalten durch mehrere Variablen erfasst wird (und nur so lässt sich dieses komplexe Merkmal sinnvoll operationalisieren), eine einfaktorielle, multivariate Varianzanalyse an. Bei signifikantem Ergebnis behaupten wir, dass das Erziehungsverhalten, das – um einige Beispiele zu nennen – in den Teilaspekten Strafverhalten, Belohnungsverhalten, Aufgeschlossenheit gegenüber kindlicher Emotionalität, Fürsorgeverhalten und Kontakthäufigkeit erfasst werden könnte, schichtspezifisch sei. Wie aber kann ein solches Ergebnis insbesondere hinsichtlich der Bedeutung der einzelnen Teilaspekte des Erziehungsverhaltens interpretiert werden?
Jürgen Bortz, Christof Schuster

Kapitel 28. Kanonische Korrelationsanalyse

Während die multiple Korrelation den Zusammenhang zwischen mehreren Prädiktoren und einem Kriterium überprüft, wird durch die kanonische Korrelationsanalyse die Beziehung zwischen mehreren Prädiktoren und mehreren Kriteriumsvariablen ermittelt. Die kanonische Korrelationsanalyse, die vonHotelling (1935, 1936) entwickelt wurde, ist somit anwendbar, wenn es um die Bestimmung des Zusammenhangs zwischen zwei Variablenkomplexen geht.
Jürgen Bortz, Christof Schuster

Backmatter

Weitere Informationen

Premium Partner

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Blockchain-Effekte im Banking und im Wealth Management

Es steht fest, dass Blockchain-Technologie die Welt verändern wird. Weit weniger klar ist, wie genau dies passiert. Ein englischsprachiges Whitepaper des Fintech-Unternehmens Avaloq untersucht, welche Einsatzszenarien es im Banking und in der Vermögensverwaltung geben könnte – „Blockchain: Plausibility within Banking and Wealth Management“. Einige dieser plausiblen Einsatzszenarien haben sogar das Potenzial für eine massive Disruption. Ein bereits existierendes Beispiel liefert der Initial Coin Offering-Markt: ICO statt IPO.
Jetzt gratis downloaden!

Bildnachweise