Skip to main content
main-content

Über dieses Buch

Dieses Standardwerk für statistische Methoden in den Biowissenschaften und der Medizin stellt leicht verständlich, anschaulich und praxisnah sowohl Studenten und Dozenten als auch Praktikern alle notwendigen Methoden zur gezielten und umsichtigen Datengewinnung, -analyse und -beurteilung zur Verfügung. Neben Hinweisen und Empfehlungen zur Planung und Auswertung von Studien ermöglichen zahlreiche Beispiele, Querverweise, weiterführende Hinweise sowie ein ausführliches Sachverzeichnis einen breit gefächerten Zugang zur Statistik. Ein Verzeichnis zahlreicher Anwendungsbeispiele erleichtert dem neugierigen Anwender und Praktiker den Einstieg.

Auch in der 17. Auflage erfolgten an vielen Stellen Präzisierungen und vertiefende Ergänzungen, u.a. zu Konfidenzintervallen für Variationskoeffizienten und Referenzwerte, zur Überprüfung von Defektraten, dem Ausschluss von Nullergebnissen oder der Formulierung von Hypothesen hinsichtlich Äquivalenz, Überlegenheit oder Nicht-Unterlegenheit. Der Abschnitt zur logistischen Regression wurde ergänzt um die Erstellung von Nomogrammen zur Unterstützung von Modellrechnungen sowie um Hinweise zur Güte der Klassifikation (ROC-Analyse) und die Anwendung des Modells im Propensity-Score Matching. Im Abschnitt zu den Modellen der Überlebenszeitanalyse ist nun ein Hinweis auf das parametrische Gompertz-Modell aufgenommen und zu der Modellrechnung (Prognose) aus dem Cox-Modell wird auf die anschauliche Darstellung mit Nomogrammen verwiesen. Viele Abbildungen und das Sachverzeichnis wurden überarbeitet, das Literaturverzeichnis wurde aktualisiert.

Das frei verfügbare Programm R ist ein leicht erlernbares und flexibel einzusetzendes Werkzeug, mit dem der Prozess der Datenanalyse verstanden und gestaltet werden kann. Die Anwendung und der Nutzen des R-Programms werden in diesem Buch anhand zahlreicher Beispiele veranschaulicht.

Das Buch dient zum Lernen, Nachschlagen und Anwenden bei unterschiedlichen Vorkenntnissen und breit gestreuten Interessen und richtet sich somit an jeden, der an der Auswertung korrekt gewonnener Daten interessiert ist – insbesondere Biologen, Mediziner, Ingenieure und weitere Naturwissenschaftler – sowohl in der Hochschule als auch in der Praxis.

Inhaltsverzeichnis

Frontmatter

Kapitel 1. Grundlagen zur Planung

Zusammenfassung
Das erste Kapitel schildert das Umfeld und die wichtigsten Ziele der Statistik. Die wesentlichen Voraussetzungen wissenschaftlicher Arbeitstechnik sind in zwei Übersichten zusammengefasst. Grundlage der empirischen Forschung sind häufig Beobachtungsstudien, zu deren Planung Hinweise auf fehlervermeidende Maßnahmen gegeben werden. Die Unterscheidung zwischen deskriptiven, explorativen und konfirmatorischen Studienansätzen ist für die Wahl geeigneter statistischer Methoden von entscheidender Bedeutung. Letztlich wird der Weg von Beobachtungen zu wissenschaftlich nutzbaren Daten durch geeignete Strukturierung und Skalierung der Informationen beschrieben.
Jürgen Hedderich, Lothar Sachs

Kapitel 2. Grundlagen aus der Mathematik

Zusammenfassung
Ganz ohne Mathematik geht es nicht! Das zweite Kapitel erinnert, präzisiert und vertieft mathematisches Schulwissen. Neben den Grundrechenarten werden große Zahlen anschaulich gemacht und es wird auf die Risiken von Rundungen hingewiesen. Die kurze Zusammenfassung zur Mengenlehre ist eine Hilfe für das Verständnis von Wahrscheinlichkeiten (Kapitel 4). Das Rechnen mit Matrizen ist insbesondere bei der Lösung linearer Gleichungssysteme (Kapitel 8) erforderlich. Die Verteilung von Zufallsvariablen (Kapitel 5) wird durch Funktionen beschrieben. Neben dem Modell der Normalverteilung kommt der Binomialverteilung eine zentrale Bedeutung in der Angewandten Statistik zu. Daher werden auch Grundlagen der Kombinatorik an zahlreichen Beispielen erklärt.
Jürgen Hedderich, Lothar Sachs

Kapitel 3. Deskriptive Statistik

Zusammenfassung
Einen Überblick über die numerischen und graphischen Verfahren der beschreibenden Statistik gibt das dritte Kapitel. Abhängig vom Skalenniveau weisen einführende Übersichten den Weg zur Zusammenfassung von Daten über absolute und relative Häufigkeiten, Prozent-, Median- und Quantilwerte, Mittelwerte und diverse Streuungsmaße. Besonderheiten bei der Beschreibung von Wachstumsverläufen, der Erfassung der Präzision von Messungen (Fehlerrechnung) sowie bei der Bestimmung von Konzentrations- und Zusammenhangsmaßen werden an vielen Beispielen dargelegt. Neben der einfachen linearen Regression werden auch spezielle Ansätze zur robusten linearen Regression, der nichtlinearen Regression und der nichtparametrischen Regression behandelt. Simpson’s Paradox und andere Beispiele zeigen auch in diesem Kapitel das Nebeneinander von Anschaulichem und „Vertraxtem“.
Jürgen Hedderich, Lothar Sachs

Kapitel 4. Wahrscheinlichkeiten

Zusammenfassung
Das vierte Kapitel hilft bei dem Umgang mit Wahrscheinlichkeiten anhand zahlreicher Beispiele aus unterschiedlichen Bereichen. Jede Wahrscheinlichkeit kann als Erwartungswert einer relativen Häufigkeit bei „sehr vielen“ Wiederholungen bzw. Beobachtungen angesehen werden. Dabei führt die Interpretation der bedingten Wahrscheinlichkeit bei stochastisch abhängigen Beobachtungen häufig zu überraschenden Ergebnissen, die auch an acht Beispielen zum Bayesschen Theorem gezeigt werden. Hinweise zum diagnostischen Test in klinischen Anwendungen und zu speziellen Maßzahlen aus der Epidemiologie zeigen Einsatzbereiche dieses Teilgebietes der Mathematik.
Jürgen Hedderich, Lothar Sachs

Kapitel 5. Zufallsvariablen, Verteilungen

Zusammenfassung
Zufallsvariablen bilden die Brücke zwischen der Wahrscheinlichkeitsrechnung und der Angewandten Statistik. Das fünfte Kapitel behandelt zunächst die theoretischen Aspekte, insbesondere die Kennzeichnung von Verteilungen durch die Parameter Erwartungswert und Varianz. Darauf aufbauend werden häufig verwendete Verteilungsmodelle für diskrete und stetige Zufallsvariablen vorgestellt:
die Binomialverteilung, die Poisson-Verteilung und insbesondere die Normalverteilung stehen im Vordergrund. Aber auch spezielle Verteilungen, wie die gestutzte Normalverteilung, die Extremwertverteilung und die Gamma-Verteilung werden an Beispielen dargestellt. Es folgen die so genannten Testverteilungen, die für das Verständnis von Konfidenzbereichen (Kapitel 6) und Hypothesentests (Kapitel 7) notwendig sind. Den Abschluss bildet eine kurze Vorstellung der Verteilung zweidimensionaler Zufallsvariablen.
Jürgen Hedderich, Lothar Sachs

Kapitel 6. Schätzen

Zusammenfassung
Das Schätzen von Parametern zur Kennzeichnung der Verteilung einer Zufallsvariablen ist Gegenstand des sechsten Kapitels. Aus kritischer Distanz, mit viel Sachverstand und dem notwendigen statistischen Grundwissen aus den vorangehenden Kapiteln, sollen verlässliche Ergebnisse auf der Grundlage von Zufallsstichproben gewonnen werden. Die Herleitung von Schätzern mit wünschenswerten Eigenschaften kann nach verschiedenen Ansätzen erfolgen. Insbesondere das Maximum-Likelihood-Verfahren wird ausführlich an einigen Modellen mit Beispielen gezeigt. Neben den Punktschätzungen wird die Unsicherheit bei der Schätzung durch Vertrauensbereiche (Konfidenzintervalle) begrenzt. Zu Anteilswerten, Raten, Erwartungswerten, Quantilen (Median) und Varianzen werden Intervallschätzungen aufgeführt, wobei in der Regel auch die Begründung für die notwendige Fallzahl genannt wird, um eine vorgegebene Güte der Schätzung einzuhalten. Eine kurze Beschreibung von Schätzungen nach dem Bayes-Ansatz schließt das Kapitel ab.
Jürgen Hedderich, Lothar Sachs

Kapitel 7. Hypothesentest

Zusammenfassung
Das siebente Kapitel ist „Kern“ des Buches. Es beschreibt einführend und sehr detailliert den statistischen Test: Grundprinzip, Hypothesen, Voraussetzungen, Berechnung und Interpretation anhand zahlreicher, ausführlich dargestellter Beispiele. Gegeben werden zahlreiche Hinweise zur Prüfung von Nullhypothesen, zum P-Wert (pro und contra), zur Teststärke (Power), zum erforderlichen Stichprobenumfang sowie zur Interpretation der Ergebnisse, auch bei teilweise oder nicht erfüllten Voraussetzungen. Das Kapitel ermöglicht dem Praktiker eine Orientierung bei der Methodenwahl und eine kritische Bewertung eigener Analysen. Neben der Prüfung von Erwartungswerten und Varianzen unter den entsprechenden Verteilungsannahmen (t-Test, Varianzanalyse, multiple paarweise Vergleiche und multipler Hypothesentest) werden auch parameterfreie Methoden (Wilcoxon-Test, Rangvarianzanalyse oder Bootstrap-Verfahren) erklärt. Zahlreiche Beispiele zum Vierfeldertest (Risikoabschätzung) und zur Analyse von Kontingenztafeln zeigen die vielfältigen Methodenansätze bei der Analyse von Anteilswerten (Häufigkeiten) mit der Chiquadrat-Statistik. Den Abschluss bilden Testverfahren zur Bewertung von Zusammenhängen zwischen Zufallsvariablen: Korrelation und Regression.
Jürgen Hedderich, Lothar Sachs

Kapitel 8. Statistische Modellbildung

Zusammenfassung
Ziel der Modellbildung ist es, den Zusammenhang zwischen mindestens zwei Zufallsvariablen zu modellieren und Schätzungen der Modellparameter unter Berücksichtigung einer Zufallskomponente zu gewinnen. Das achte Kapitel gibt eine detaillierte Einführung am Beispiel der (multiplen) linearen Regression. Besonderes wird auf das Problem der Kollinearität, der Heteroskedastizität und auf den Einfluss extremer Beobachtungen hingewiesen. Darauf aufbauend werden Modellansätze zur verallgemeinerten linearen Regression, insbesondere die logistische Regression für dichotome Zielgrößen und die Poisson-Regression am Beispiel von Raten und für dreidimensionale Kontingenztafeln vorgestellt. Auch die Modellbildung für Clusterdaten und Verlaufsdaten (Messwiederholungen) durch gemischt lineare Modelle oder verallgemeinerte Schätzgleichungen wird an Beispielen gezeigt. Ausführlich wird die Analyse von Überlebenszeiten behandelt. Neben der univariaten Beschreibung (Kaplan-Meier Verfahren) und vergleichenden Bewertung von Ereigniszeiten mit der Logrank-Statistik, werden für die Modellbildung parametrische Regressionsansätze und das Cox-Regressionsmodell mit Anwendungsbeispielen vorgestellt.
Jürgen Hedderich, Lothar Sachs

Kapitel 9. Einführung in R

Zusammenfassung
Mit R steht ein umfangreiches, frei verfügbares Programmsystem für die Datenanalyse zur Verfügung. Mit der kurzen und recht kompakten Einführung im neunten Kapitel findet der interessierte Anwender statistischer Methoden einen schnellen Einstieg, auch wenn die zahlreichen Befehle und Funktionen zur Steuerung des Programmablaufes (Skript) zunächst verwirren. Mit dem Verständnis der wichtigsten Objekte und Funktionen können die Beispiele aus dem Buch nachgerechnet oder für die eigenen Fragestellungen modifiziert und ergänzt werden. Die R-Skripte zu zahlreichen Beispielen, Funktionen, Tabellen und Graphiken stehen auch auf der Verlagsseite des Buches zur Verfügung.
Jürgen Hedderich, Lothar Sachs

Backmatter

Weitere Informationen

Premium Partner

    Bildnachweise