Skip to main content

2020 | Buch | 1. Auflage

Statistische Datenanalyse für Physiker

verfasst von: Prof. Dr. Gerhard Bohm, Prof. Dr. Günter Zech

Verlag: Springer Berlin Heidelberg

insite
SUCHEN

Über dieses Buch

Aufwändige Experimente, große Datenmengen und zunehmende Rechenleistung moderner Computer haben die statistische Datenanalyse zu einem wichtigen Instrument in der physikalischen Forschung gemacht.

Dieses Buch bietet Physikern vom Bachelor bis zur Promotion (und danach) eine kompakte, aber fundierte Darstellung der von ihnen benötigten statistischen Methoden. Dabei wird besonderer Wert darauf gelegt, den LeserInnen anhand zahlreicher Beispiele und Abbildungen ein intuitives Verständnis der statistischen Grundlagen sowie der resultierenden Anwendungsmöglichkeiten zu vermitteln.

Nach einer Einführung in die Grundlagen der Wahrscheinlichkeitsrechnung werden die gängigen statistischen Methoden und Verfahren der Datenanalyse vorgestellt: das Likelihood-Konzept, die Methode der kleinsten Quadrate, die Fehlerrechnung, sehr detailliert die Parameterschätzung, die Entfaltung verzerrter Daten sowie Hypothesen- und Gütetests, Monte-Carlo-Simulation und Bootstrap-Verfahren.

Das Werk eignet sich auch als Einstiegslektüre für die Verwendung von statistischer Datenanalyse in anderen Naturwissenschaften.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Wahrscheinlichkeit
Zusammenfassung
Viele Vorgänge in der Natur laufen stochastisch ab, sodass ihre Ergebnisse nur mit entsprechenden Wahrscheinlichkeiten vorausgesagt werden können. In der Quantenmechanik ist das eine grundlegende Eigenschaft. So ist bei instabilen Atomkernen der genaue Zerfallszeitpunkt prinzipiell unbestimmt.
Gerhard Bohm, Günter Zech
Kapitel 2. Wahrscheinlichkeitsverteilungen
Zusammenfassung
Statistische Verteilungen ordnen Zufallsereignissen Wahrscheinlichkeiten zu. Wir unterscheiden zwischen kontinuierlichen und diskreten Verteilungen, wobei in unseren Anwendungen die Zufallsereignisse durch fortlaufende Zahlen charakterisiert werden können.
Gerhard Bohm, Günter Zech
Kapitel 3. Hilfsmethoden
Zusammenfassung
In diesem Kapitel werden zwei wichtige Methoden skizziert, die häufig in der Datenanalyse benötigt werden. Beide sind konzeptionell sehr einfach, ihre Anwendung benötigt aber u.U. erhebliche Rechenzeit.
Gerhard Bohm, Günter Zech
Kapitel 4. Fehlerrechnung
Zusammenfassung
Eine Messung, deren Genauigkeit man nicht kennt, ist ziemlich nutzlos, denn nur wenn diese bekannt ist, sind wir in der Lage, Voraussagen zu machen, Voraussagen zu überprüfen und Messergebnisse verschiedener Experimente zusammenzufassen.
Gerhard Bohm, Günter Zech
Kapitel 5. Likelihood und Parameterschätzung
Zusammenfassung
Wir wenden uns nun der inferentiellen (schätzenden) Statistik zu. Die Statistik beschäftigt sich mit der Analyse stochastischer Daten, die in der Regel aus Stichproben bestehen, deren Elemente zufällig aus einer Verteilung gezogen sind. Eine wichtige Aufgabe der Statistik ist es, unbekannte, freie Parameter der Verteilung zu schätzen, wie z.B. die mittlere Lebensdauer eines instabilen Teilchens aus einer Stichprobe von Zerfallszeiten, wobei die Form der Verteilung als exponentiell vorgegeben ist.
Gerhard Bohm, Günter Zech
Kapitel 6. Weitere Methoden der Parameterschätzung
Zusammenfassung
Bevor das Likelihood-Verfahren entwickelt wurde, bestimmten Forscher Parameter mit der allgemeineren Methode der kleinsten Quadrate, die von Laplace, Legendre und Gauß parallel um 1800 entwickelt und auf astronomische Messungen angewandt wurde. Sie ist immer noch das am häufigsten angewandte Schätzverfahren. Daneben spielt die Momentenmethode eine Rolle. Ihre Anwendung ist besonders einfach.
Gerhard Bohm, Günter Zech
Kapitel 7. Spezielle Anwendungen der Parameterschätzung
Zusammenfassung
In diesem Kapitel diskutieren wir Anwendungsbeispiele und besondere Verfahren der Parameterschätzung, die in der Praxis eine wichtige Rolle spielen.
Gerhard Bohm, Günter Zech
Kapitel 8. Entfaltung
Zusammenfassung
Messapparaturen sind nie perfekt, und dementsprechend geben Histogramme der Messergebnisse verzerrte Daten wieder. In aller Regel kennt man die Detektoreigenschaften und weiß deshalb, wie Daten stochastisch verändert werden. Entfaltungsverfahren haben die Aufgabe, die Deformation so weit wie möglich rückgängig zu machen.
Gerhard Bohm, Günter Zech
Kapitel 9. Hypothesentests und Signifikanz von Signalen
Zusammenfassung
Um zu entscheiden, ob eine Hypothese, das ist typischerweise eine theoretische Vorhersage, richtig ist, muss sie anhand von Messungen überprüft werden. Wenn die Messdaten in Form von Histogrammen vorliegen, kann das z.B. anhand der Größe 2, Formel (6.2), geschehen. Wenn ihr Wert im Vergleich zur Zahl der Bins groß ist, spricht das gegen die Gültigkeit der Hypothese, oder weist eventuell auf Probleme bei der Messung hin.
Gerhard Bohm, Günter Zech
Backmatter
Metadaten
Titel
Statistische Datenanalyse für Physiker
verfasst von
Prof. Dr. Gerhard Bohm
Prof. Dr. Günter Zech
Copyright-Jahr
2020
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-61391-7
Print ISBN
978-3-662-61390-0
DOI
https://doi.org/10.1007/978-3-662-61391-7