ten great ideas about chancePersi Diaconis, Brian Skyrms

Princeton University Press 2018, 272 Seiten, 19,64 €
ISBN 978-0691174167

In diesem Buch geht es um die begriffliche Präzisierung von Zufall und Wahrscheinlichkeit. Es ist aus einer Vorlesung entstanden, die die Autoren, ein Mathematiker und ein Philosoph, über etliche Jahre an der Stanford University gehalten haben. Vorausgesetzt werden Grundkenntnisse der Wahrscheinlichkeitstheorie, wie sie in Deutschland ansatzweise schon in der Schule, auf jeden Fall aber in einführenden Stochastik- oder Statistikvorlesungen vermittelt werden. Das Buch richtet sich an ein allgemeines Publikum, die idealen Leser sollten aber bereit sein, sich auch auf etwas kompliziertere Gedankengänge einzulassen. In der Beschreibung der zentralen Ideen zur begrifflichen Erfassung von Zufall folgen die Autoren verschiedenen historischen Entwicklungslinien. Jedes der zehn Kapitel
Measurement
• Judgment
• Psychology
• Frequency
• Mathematics
• Inverse Inference
• Unification
• Algorithmc Randomness
• Physical Chance
• Induction
 
ist einer Idee gewidmet und stellt auch die wichtigsten Personen vor, die an der Entwicklung dieser Idee beteiligt waren. Am Ende jedes Kapitels gibt es eine kurze Zusammenfassung sowie meist noch kurze Anhänge, in die technisch aufwändigere Zusatzinformationen ausgelagert wurden.

Das Buch startet mit der Idee Erfolgswahrscheinlichkeiten dadurch zu messen, dass man die Gesamtheit aller Möglichkeiten in gleichwahrscheinliche Fälle aufteilt und dann abzählt, in wie vielen dieser Fälle man erfolgreich ist. Erstaunlicherweise haben die Griechen zu dieser Frage noch nichts beigetragen, obwohl sie den Zufall als Begriff sowie auch Glücksspiele kannten. Einer der ersten Autoren, bei dem die Idee zu finden ist, ist Gerolamo Cardano (1501–1576). Sie wurde von Pascal, Fermat und Huygens weiterentwickelt und von Jacob Bernoulli 1713 in seinem Buch „Ars Conjectandi“ systematisiert niedergelegt. Eine wichtige Größe, die man aus den berechneten Wahrscheinlichkeiten ableitet, ist der Erwartungswert. Die Berechnung von Erfolgswahrscheinlichkeiten durch Abzählen gleichwahrscheinlicher Fälle setzt Symmetrien in der Beschreibung aller Möglichkeiten voraus, die in realistischen Szenarien nicht gegeben sind. Die zweite Idee, die die Autoren erläutern, ist die der kohärenten Einschätzungen, wie sie von Frank P. Ramsay (1903–1930) und Leonard J. Savage (1917–1971) entwickelt wurde. Dabei geht man von Wetten auf zukünftige Ereignisse aus, die man je nach Erwartungswert als fair, günstig oder ungünstig einschätzt. So ein Satz von Einschätzungen heißt kohärent, wenn es nicht möglich ist, einen Satz Wetten auszuwählen, die alle fair oder günstig sind, aber insgesamt auf jeden Fall zu einem Verlust führen. Man kann zeigen, dass die durch kohärente Einschätzungen gewonnenen Wahrscheinlichkeiten dieselben mathematischen Eigenschaften haben, wie die aus Symmetrieüberlegungen gewonnenen.

Das relativ kurze dritte Kapitel ist der insbesondere von Amos Tversky (1937–1996) und Daniel Kahnemann (geb. 1934) untermauerten Einsicht gewidmet, dass die Einschätzung von Wahrscheinlichkeiten durch psychologische Einflussgrößen verändert wird.

Schon den frühen Wahrscheinlichkeitstheoretikern waren die Limitierungen der Messung von Wahrscheinlichkeiten durch Aufteilung in gleichwahrscheinliche Fälle bewusst. Daher versuchten sie Wahrscheinlichkeiten mit Häufigkeiten in Verbindung zu setzen. Jacob Bernoulli’s „Schwaches Gesetz der großen Zahlen“ ist ein Beispiel für so eine Verbindung. Kapitel vier ist dem Versuch gewidmet, Wahrscheinlichkeiten durch Häufigkeiten zu beschreiben.

Im fünften Kapitel beschreiben die Autoren das, was in vielen Stochastikvorlesungen ganz an den Anfang gesetzt wird: Die mathematische Modellierung von Wahrscheinlichkeiten als Funktionen auf Mengensystem durch Andrei Kolmogorov (1903–1987). Sie erlaubt es, Wahrscheinlichkeiten komplexer Ereignisse aus Wahrscheinlichkeiten einfacher Ereignisse zu berechnen, auch wenn diese nicht durch Symmetrieüberlegungen gewonnen wurden.

Das sechste Kapitel ist ein Herzstück des Buches. In ihm beschreiben die Autoren die auf Thomas Bayes (1701–1761) zurückgehende und von Pierre-Simon Laplace (1749–1827) weiterentwickelte Idee, wie man aus den Ergebnissen einer Reihe von Experiments Rückschlüsse auf die zugrundeliegenden Wahrscheinlichkeiten ziehen kann. Dabei gehen sie auch auf philosophische Implikationen ein und erläutern, warum Bayes mit seiner Idee die Statistik zu einem Teil der Wahrscheinlichkeitstheorie gemacht hat.

Der Ansatz von Bayes setzt die Existenz von Wahrscheinlichkeiten voraus, die man in einer physikalischen Welt durchaus anzweifeln kann. Unter der Überschrift Vereinigung erklären Diaconis und Skyrms die Idee von Bruno de Finetti (1906–1985), eine Eigenschaft der Einschätzungen von Wahrscheinlichkeiten von Ergebnisfolgen anzugeben, die garantiert, dass sie sich verhalten als ob sie aus einem Bayesschen Modell gewonnen wären: Man muss nur sicherstellen, dass es nicht auf die Reihenfolge der Ergebnisse ankommt.

Schon in dem Versuch Wahrscheinlichkeiten über Häufigkeiten zu definieren (Kapitel 4) ist die Frage, was denn eine Zufallsfolge von Zahlen sein soll, von zentraler Bedeutung. Im achten Kapitel wird der Ansatz von Per Martin-Löf (geb. 1942), Zufallsfolgen mithilfe von Konzepten der algorithmischen Berechenbarkeit zu beschreiben, in den Mittelpunkt gestellt.

Im neunten Kapitel geht es nicht wirklich um eine Idee, sondern mehr um die Einsicht, dass Wahrscheinlichkeiten eine zentrale Rolle in der physikalischen Beschreibung der Welt spielen. Als Beispiele werden die statistische Mechanik und natürlich die Quantenmechanik erläutert, in der Wahrscheinlichkeiten schon Teil der mathematischen Modellbildung sind.

Im letzten Kapitel beleuchten die Autoren den Skeptizismus des Philosophen David Hume (1711–1776) gegenüber dem Schließen von der Vergangenheit auf die Zukunft. Daran haben sich Wissenschaftler und Wissenschaftsphilosophen gleichermaßen abgearbeitet. Diaconis und Skyrms legen dar, wieso sie die Antworten von Bayes und de Finetti für die überzeugendensten halten.

Das vorliegende Buch ist kein Buch über mathematische Wahrscheinlichkeitstheorie oder Statistik. Es stellt Denkansätze zum Wesen des Zufalls vor und setzt sie zueinander in Beziehung. Die interdisziplinäre Natur des Buches ist herausfordernd, aber die Anstrengung lohnt sich. Die Lektüre ist wirklich spannend und vermittelt eine Vorstellung davon, warum Wahrscheinlichkeitstheorie und Statistik so erfolgreich in der Modellierung der Welt sind, obwohl gar nicht klar ist, was Zufall letztendlich ist und ob es ihn überhaupt gibt.

Rezension: J. Hilgert (Uni Paderborn)

Quelle: Springer Verlag, Mathematische Semesterberichte, März 2018, Band 65, S. 125-127. Mit freundlicher Genehmigung des Verlags.