Zum Inhalt

1000 Jahre Stochastik

Band 1: Von den Anfängen bis 1920

  • 2026
  • Buch

Über dieses Buch

Dieses Buch über die Geschichte der Stochastik von den ersten Anfängen bis etwa 1920 deckt einen Zeitraum ab, in dem einerseits die verschiedenen Teilgebiete dieser Disziplin noch einigermaßen überblickbar sind, andererseits der immer noch fortschreitende Prozess der Durchdringung von wissenschaftlichen wie auch alltäglichen Aktivitäten durch Denkweisen und Methoden aus Wahrscheinlichkeitsrechnung und Statistik deutlich erkennbar wird.

Die Entwicklung der mathematischen Theorie ist bis zum Übergang in die Wahrscheinlichkeitstheorie des 20. Jahrhunderts ausführlich und weitgehend elementar dargelegt. Der vielfachen Vernetzung der Stochastik entsprechend wird in diesem Werk aber auch ein besonderes Gewicht auf ihre Bezüge und Anwendungen in Wissenschaft, Wirtschaft und Gesellschaft gelegt, wie sie sich ab dem 18. Jahrhundert entfaltet haben und immer noch die moderne Praxis der Wahrscheinlichkeitsrechnung und Statistik prägen. Dies betrifft neben dem klassischen Bereich der Glücksspiele statistische Methoden in Demographie oder Anthropometrie, Elemente der Versicherungsmathematik, Verfahren der Fehlerausgleichung, kinetische Gastheorie, aber auch die philosophische Diskussion von Wahrscheinlichkeitskonzepten, deren Wurzeln bis in die griechische Antike zurückreichen.

Inhaltsverzeichnis

  1. Frontmatter

  2. 1. Einleitung

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Die Stochastik als mathematisches Teilgebiet, in dem Wahrscheinlichkeitsrechnung, Statistik und weitere Anwendungsgebiete zusammengefasst sind, ist eine relativ junge Disziplin. Ganz bescheidene Rudimente im mathematischen Sinn zeigen sich erst ab dem Hochmittelalter, etwa mit Beiträgen von Al-Biruni und Wibold. In diesem einleitenden Kapitel wird auf die ersten Anfänge und den eigentlichen Beginn im Briefwechsel zwischen Fermat und Pascal gegen Mitte des 17. Jahrhunderts verwiesen, es erfolgt eine Klärung des modernen Begriffs „Stochastik“, und es wird eine Übersicht über die verschiedenen Kapitel dieses Buches gegeben. Die bestehende Literatur zur Geschichte der Stochastik wird ausführlich gewürdigt, und schließlich erfolgen Hinweise zur Lektüre.
  3. 2. Vorgeschichte: qualitative und quantitative Aspekte von Zufall undWahrscheinlichkeit

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Viele Entwicklungsschritte im Begriff des qualitativ Wahrscheinlichen erfolgten bereits in der griechischen Antike, deren Ergebnisse, von sprachlichen Umformungen und neuen Anwendungen abgesehen, bis ins 17. Jahrhundert Bestand hatten. Dies betrifft besonders die Ausführungen von Platon und Aristoteles in deren Reaktion auf Lehrmeinungen der Sophisten und die Rezeption durch spätere Autoren. Aristoteles’ Dogma von dem wissenschaftlicher Erkenntnis unzugänglichen Bereich des Zufälligen hemmte freilich die Ausprägung einer mathematischen Durchdringung des Zufälligen. Vom mathematischen Standpunkt aus sind das Lehrgedicht De vetula aus dem 13. Jahrhundert mit einer ausführlichen Diskussion der Punktesummen aus drei Würfeln sowie erste Beiträge zum Teilungsproblem ab der zweiten Hälfte des 14. Jahrhunderts besonders bemerkenswert. Ebenfalls im 14. Jahrhundert findet man in singulärer Weise bei Oresme die Herstellung eines Zusammenhangs zwischen relativer Häufigkeit und Aspekten des Wahrscheinlichen.
  4. 3. Historischer Rahmen I: vom Spätmittelalter bis zur Französischen Revolution

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    In diesem Kapitel wird der allgemeinhistorische Rahmen für die Geschichte der Stochastik vom 15. Jahrhundert bis hin zur französischen Revolution skizziert. Besonderes Augenmerk wird dabei auf die wissenschaftliche und wirtschaftliche Entwicklung in der Renaissance, in der Zeit der wissenschaftlichen Revolution und in der anschließenden Aufklärung gelegt. Besonders die Einführung des Buchdrucks um 1450, die Veröffentlichung von De revolutionibus orbium coelestium (1543) durch Nicolaus Copernicus sowie die erste Ausgabe der Philosophiae naturalis principia mathematica (1687) von Isaac Newton waren bedeutende wissenschaftliche Wegmarken.
  5. 4. Risiko, Versicherungswesen, Absterbeordnungen und mathematische Behandlung von Glücksspielproblemen bis Pascal und Huygens

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Eine zusammenhängende Entwicklung der mathematischen Behandlung zufälliger Ereignisse beginnt erst mit dem Briefwechsel zwischen Pascal und Fermat von 1654. Anders als Pascal und Fermat betrachtet Huygens in seinem 1756 veröffentlichten Traktat, der auf der Grundlage eines „gerechten Spiels" Gewinnerwartungen und dementsprechende Spieleinsätze bestimmt, seine Glücksspielrechnung als Anwendungsgebiet der von Viète und Descartes geschaffenen neuen Algebra. Das durch Lotterien nahegelegte Los- und damit äquivalente Urnenmodell erlaubt die rechnerische Behandlung weiterer risikobehafteter Problembereiche, wie von Leibrenten, Versicherungen oder Erbschaften. Der intellektuelle und wirtschaftliche Hintergrund der Zeit fördert diesen Prozess. Auch durch Erfahrungen mit Spekulationsgeschäften, etwa auf künftige Preisentwicklungen, in den vorangehenden Jahrzehnten wird diese Entwicklung vorbereitet. Die monetäre Bewertung von ungewissen Optionen führt zu einer Entdämonisierung des Zufalls, Spiele werden als äquivalent zu risikobehafteten Geschäften gesehen.
  6. 5. Jakob Bernoullis Ars conjectandi als Beginn einer mathematischen Stochastik

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Auch wenn die wesentlichen Ideen von Jakob Bernoulli in Fachkreisen bekannt und schon in entsprechende Publikationen eingeflossen sind, beeinflusst sein Hauptwerk, das 1713 postum erscheint, die Weiterentwicklung von einer Glücksspiel- zu einer Wahrscheinlichkeitsrechnung in besonders nachhaltiger Weise. Bernoulli entwickelt den Erwartungsbegriff von Huygens weiter zum mathematischen Wahrscheinlichkeitsbegriff und erzielt so wesentliche Vereinfachungen. Dabei verbindet Bernoulli die schon früher verwendeten epistemischen Wahrscheinlichkeitsbegriffe mit quantitativen Abzählungen von Chancen: Das klassische Maß der Wahrscheinlichkeit für ein Ereignis ist das Verhältnis der für das Ereignis zählenden positiven Fälle zur Anzahl aller Fälle. Wo eine Zählung von für ein Ereignis günstigen und ungünstigen Fällen nicht möglich ist, will Jakob Bernoulli durch die Ermittlung der relativen Häufigkeit für das Eintreten eines Ereignisses auf der Grundlage des von ihm bewiesenen schwachen Gesetzes der großen Zahlen Ersatz schaffen. Er glaubt damit für alle Ereignisse, die menschliche Entscheidungen unter Unsicherheit vor allem in wirtschaftlichen und gesellschaftlichen Bereichen betreffen, Wahrscheinlichkeiten im Rahmen einer „Vermutungskunst", „ars conjectandi“, ermitteln zu können.
  7. 6. Das 18. Jahrhundert: die Zeit nach Jakob Bernoulli bis zum Auftreten von Laplace

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Als Konsequenz der Lehre von Jakob Bernoulli ergibt sich der Eindruck, dass praktisch alle Bereiche der menschlichen Erfahrung und Erkenntnis einer Wahrscheinlichkeitsbetrachtung unterworfen werden können. Diese Vorstellung fällt bei den gegebenen intellektuellen Rahmenbedingungen der Aufklärung auf fruchtbaren Boden. Entsprechend erzielt die Wahrscheinlichkeitsrechnung im 18. Jahrhundert Fortschritte in verschiedensten Richtungen: Anwendungen auf Rechtsfälle, wirtschaftliche Fragen, zufälligen Fehlern unterworfene Beobachtungswerte, Versicherungen, Bevölkerungsstatistiken. Spezifische analytische Handwerkszeuge für Wahrscheinlichkeitsprobleme, wie etwa erzeugende Funktionen und Differenzengleichungen, werden erarbeitet. De Moivre gelingt eine wesentliche Verschärfung der Abschätzung in Bernoullis „Theorema aureum“ durch seine Herleitung einer asymptotischen Normalverteilung für Trefferzahlen bei wiederholten Zufallsexperimenten beträchtlicher Anzahl. Bayes entwickelt nach 1760 die Idee der inversen Wahrscheinlichkeiten, die sich später als sehr nützlich für Fragen des statistischen Schließens erweist.
  8. 7. Laplaces Théorie analytique

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Laplaces stochastisches Werk bildet, entsprechend den Idealen der Aufklärung, den Höhepunkt einer universell einsetzbaren Wissenschaft für praktisch alle Lebensbereiche, andererseits weist es aufgrund seiner analytischen Relevanz auch bereits Aspekte einer über die Anwendungen deutlich hinausreichenden „Théorie analytique“ auf. Besonders wichtig sind hierbei die von Laplace in großer Allgemeinheit erzielten Approximationen an „Funktionen großer Zahlen“, sowohl für die Wahrscheinlichkeitsverteilungen von Summen von Zufallsgrößen (entsprechend dem später so genannten zentralen Grenzwertsatz) wie auch für inverse Wahrscheinlichkeiten, die erste Ansätze zur asymptotischen Statistik ermöglichen. Ausgestattet mit einem reichen Inventar an Methoden gelingt es Laplace, Probleme aus einem weitgespannten Bereich anzugehen: Mischungsprobleme bei Urnen, Hypothesentests bezüglich konstanter Erscheinungen, die durch stochastische Schwankungen verdeckt sind, Profite von Versicherungsunternehmungen, stichprobenartige Volkszählungen, bis hin zu der Frage, welche Schlüsse aus Mehrheitsentscheidungen bezüglich des tatsächlichen Sachverhalts gezogen werden können.
  9. 8. Historischer Rahmen II: von der Französischen Revolution bis zum ersten Weltkrieg

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Entsprechend einer häufig aufgegriffenen Idee wird auch in dieser Darstellung der allgemeinen historischen Entwicklung bereits mit der Französischen Revolution 1789 eine wesentliche Zäsur angenommen und dann für den Zeitraum von 125 Jahren bis zum Beginn des ersten Weltkriegs ein „langes 19. Jahrhundert“ angesetzt. Aus Sicht der Wirtschafts- und Wissenschaftsgeschichte ist die industrielle Revolution mit ihren Auswirkungen auf die sich rasant entwickelnden Technik- und Naturwissenschaften einschließlich der Medizin für diesen Zeitraum wesentlich bestimmend. Jedoch werden Naturwissenschaften und Mathematik ebenso durch die sich aus dem Erbe der Aufklärung entwickelnden philosophischen Strömungen und die einschneidenden Reformen im Bildungswesen beeinflusst.
  10. 9. Fehlerrechnung im 18. und 19. Jahrhundert

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Die Theorie der Beobachtungsfehler hat die vorrangige Zielsetzung, die wahren Werte physikalischer Konstanten zu bestimmen. Die bereits im 18. Jahrhundert begonnenen Bestrebungen, fehlerbehaftete Beobachtungen mit stochastischen Methoden zu behandeln, erfahren durch die Diskussion der Methode der kleinsten Quadrate gemäß Gauß und Laplace einen entscheidenden Impuls. Andererseits werden solche Bestrebungen auch von der praktischen Seite her, durch neu entwickelte Messinstrumente und umfangreiche geodätische wie astronomische Projekte, angetrieben. Aus heutiger Sicht bereitet die Fehlerrechnung die spätere Schätztheorie in der Statistik vor und gibt ihrerseits wichtige Impulse für die Wahrscheinlichkeitstheorie. Im Zentrum stehen dabei die asymptotischen Betrachtungen von Laplace, gestützt auf seine Version des zentralen Grenzwertsatzes, wie auch die beiden „Begründungen“ von Gauß für die Überlegenheit der Methode der kleinsten Quadrate, durch die auch die Normalverteilung eine wesentliche Rolle erhält.
  11. 10. Die weitere Entwicklung im 19. Jahrhundert

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Die Wahrscheinlichkeitsrechnung nach Laplace beinhaltet einerseits eine Konsolidierung der Theorie, andererseits einen weiteren Ausbau der Anwendungen. Zudem gewinnen Betrachtungen nach dem Vorbild von Laplaces Essai philosophique zunehmendes Interesse. Als Konsequenz der verstärkten philosophischen Reflexion werden zunehmend stochastische Erörterungen von Einzelfallentscheidungen, etwa Gerichtsurteilen, abgelehnt und Anwendungen auf Massenerscheinungen, etwa im Versicherungswesen, wesentlich vorangetrieben. In der Theorie bedeutet das eine verstärkte Beschäftigung mit Grenzwertsätzen. In diesem Sinne sind besonders die Beiträge von Poisson und später von Chebyshev und Markov zum schwachen Gesetz der großen Zahlen und zum zentralen Grenzwertsatz hervorzuheben. Die Herausbildung nationaler Eigenheiten im Rahmen der stochastischen Forschung und Lehre ist ebenfalls ein Kennzeichen der Zeit nach Laplace. Neben Chebyshevs „St.-Petersburg-Schule“ wird auf entsprechende Entwicklungen in anderen europäischen Ländern eingegangen.
  12. 11. Von der kinetischen Gastheorie zur statistischen Physik

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Die kinetische Gastheorie entwickelt sich während der zweiten Hälfte des 19. Jahrhunderts als eine neue Anwendung der Wahrscheinlichkeitsrechnung, die allerdings in der Regel mit relativ elementaren kombinatorischen und approximativen Methoden auskommt. Von Krönig bis hin zu Maxwell und Boltzmann wird die simple Vorstellung von Gasen als Ansammlungen von kleinen elastischen Kügelchen immer mehr verallgemeinert und gleichzeitig bezüglich ihrer stochastischen Modellierung immer abstrakter, sodass der Anwendungsbereich der Theorie weit über die der idealen Gase hinausgeht. Die genauere Ausgestaltung dieser Wahrscheinlichkeitskonzepte im mathematischen Sinne läuft auf die Untersuchung von Häufigkeitsmaßen im Phasenraum hinaus, was freilich auch mit erheblichen Konsistenzproblemen behaftet ist. Die insbesondere von Boltzmann propagierte Bestimmung von Wahrscheinlichkeiten durch Rückführung auf diskrete Urnenmodelle bereitet den konzeptionellen Boden für die spätere Quantenstatistik, auf deren Anfänge ebenfalls eingegangen wird. Erheblichen Einfluss auf die statistische Physik hat auch die Theorie der Brownschen Bewegung ab ca. 1905.
  13. 12. Von der Fehlerrechnung zur Untersuchung natürlicher Schwankungen, oder: von Quetelet bis Karl Pearson

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Die zunehmende Eigenständigkeit der Statistik als stochastische Disziplin ist wesentlich den vermehrten Aktivitäten bei Volkszählungen und weiteren staatlich veranlassten Untersuchungen zu verdanken, die verstärkt im 19. Jahrhundert einsetzen. In diesem Rahmen sind auch die Beiträge Quetelets zu sehen, der im wahrscheinlichkeitstheoretischen Sinne noch stark dem Vorbild der Fehlertheorie verhaftet ist. Galton, der den Übergang vom Queteletschen Paradigma des „homme moyen" hin zur Betrachtung natürlicher Variationen vollzieht, ist die erste wichtige Persönlichkeit der sogenannten „englischen statistischen Schule“ mit den weiteren bedeutenden Vertretern Edgeworth und Karl Pearson. Die Leistungen dieser Wissenschaftler liegen besonders im Themenbereich der Regression und Korrelation. Zudem finden sich bei Edgeworth wie Pearson wichtige Beiträge zur Anpassung nicht-normaler Verteilungen an Daten und zu Hypothesentests. Maßgebliche deutsche Vertreter, die mit ähnlicher Ausrichtung arbeiten, sind Fechner und Lexis, wobei letzterer ein weiteres wichtiges Problem der Zeit, die Frage nach der Stabilität von Beobachtungsfrequenzen, im Rahmen seiner Dispersionstheorie bearbeitet.
  14. 13. Erste Schritte im Übergang zur modernen Wahrscheinlichkeitstheorie

    Hans Fischer, Richard Pulskamp, Ivo Schneider
    Zusammenfassung
    Die Wahrscheinlichkeitstheorie entwickelt sich nach 1900 zumindest ansatzweise in eine Richtung, die der allgemeinen Beschreibung der Moderne durch die Kennzeichen der Selbstreferenz und des Strebens nach weitestmöglicher Ausweitung ihres Kontingenzbereichs entspricht. Dies betrifft besonders erste Versuche zur Axiomatisierung, die freilich durch von Mises’ Kollektivtheorie eine bewusst nicht-formale Kontrastierung erhalten. In den Arbeiten von Lyapunov um 1900 erhält der zentrale Grenzwertsatz Unabhängigkeit von inner- wie außermathematischen Anwendungen. Die von Borel initiierten Arbeiten zur starken Konvergenz gehen von einer für praktische Anwendungen irrelevanten und mathematisch völlig neuen Situation aus. Auch die Versuche zur Abschwächung des Paradigmas der Unabhängigkeit durch Markov dienen zunächst nicht dem Zweck der Ausweitung von Anwendungen, sondern dem Bestreben nach innermathematischen Verallgemeinerungen.
  15. Backmatter

Titel
1000 Jahre Stochastik
Verfasst von
Hans Fischer
Richard Pulskamp
Ivo Schneider
Copyright-Jahr
2026
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-72368-5
Print ISBN
978-3-662-72367-8
DOI
https://doi.org/10.1007/978-3-662-72368-5

Die PDF-Dateien dieses Buches entsprechen nicht vollständig den PDF/UA-Standards, bieten jedoch eingeschränkte Bildschirmleseunterstützung, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen zur einfachen Navigation sowie durchsuchbaren und auswählbaren Text. Nutzer von unterstützenden Technologien können Schwierigkeiten bei der Navigation oder Interpretation der Inhalte in diesem Dokument haben. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Kumavision/© Kumavision, Noriis Network AG/© Noriis Network AG, tts GmbH/© tts GmbH, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data