statistik und intuition

Statistik und Intuition
Alltagsbeispiele kritisch hinterfragt

Katharina Schüler

Springer Spektrum Verlag (14. Januar 2016)
Taschenbuch, 312 Seiten, 14,99 €

ISBN-10: 3662478471
ISBN-13: 978-3662478479

Eine schier unglaubliche Anzahl von statistischen Daten und Interpretationen beschreibt und durchleuchtet die Autorin in ihrem Buch und es gelingt ihr hervorragend die Problematik der unkritischen Rezeption von Statistiken deutlich zu machen.

Auf rund 230 Seiten werden prägnante Beispiele aus den fünf Bereichen Politik (u. a. Steuerschätzungen, Arbeitslosigkeit), Wirtschaft (u. a. Armutsberichte), Wissen und Technik (u. a. Pünktlichkeit bei der Deutschen Bahn, Klimaschutzkosten), Gesundheit (u. a. Schweinegrippe, EHEC usw.) und Gesellschaft (u. a. Statistik beim Fußball, „Edathy-Theorem“ und bedingte Wahrscheinlichkeiten) untersucht und auf ihre Aussagekraft analysiert. Häufig weist die Autorin nach, dass die Schlussfolgerungen aus Daten fragwürdig oder gar unzulässig sind. Dabei geht es nur selten um relativ einfache handwerkliche Fehler, die auch ein Laie noch erkennen kann.

Einige Beispiele sollen zeigen, wie schwierig es – auch für einen sehr interessierten und statistisch vorgebildeten – Zeitungsleser ist, Zusammenhänge richtig einzuordnen.

Das Unterkapitel 2.2 handelt von statistischen Daten zur Arbeitslosigkeit. Untersucht werden zunächst  „Arbeitslosenquoten“ (bei denen es ja nur um einfache Prozentrechnung geht). Warum man hier in Zeitungsberichten unterschiedliche Zahlen finden kann, liegt daran, dass z. B. die Begriffe „arbeitslos“ und „erwerbslos“ nicht dasselbe bedeuten und außerdem vom Statistischen Bundesamt und der Bundesagentur für Arbeit unterschiedliche Definitionen verwendet werden. Aber nicht nur der Zähler des Quotienten ist also nicht eindeutig festgelegt, auch für den Nenner (die Anzahl aller Erwerbspersonen) existieren unterschiedliche Angaben und Bezugsgrößen. Internationale Vergleiche, etwa innerhalb der EU, sind zudem problematisch, da auch die Länder noch unterschiedliche Definitionen verwenden!

Das Unterkapitel 2.5 hat Korruptionsindizes zum Thema. Hier wird von der Autorin deutlich gemacht, dass die für einen „normalen“ Zeitungsleser so klar scheinende Aussagekraft von Länderranglisten gar nicht so klar ist. Aber selbst wenn dieser hier weitere Quellen hinzuziehen würde, dürfte die Analyse für ihn nicht einfach sein – es sei denn, er hat doch einige statistische Kenntnisse. Denn er müsste dazu wissen, dass Methoden der Korrelationsrechnung zur Erfassung solcher Ranglisten benutzt werden und dass für die Punkte in der Rangliste Konfidenzintervalle verwendet werden und dass – laut Autorin – weitere methodische Fehler enthalten sind.

Beide Beispiele machen wohl deutlich, dass man doch sehr vorsichtig mit den gern und überall in den Medien angeführten Statistiken sein muss. Allerdings zeigen nicht nur diese beiden Beispiele aus dem Buch, dass selbst der verständige Konsument solcher statistischer Daten, Tabellen und Grafiken gar nicht in der Lage ist, diese zu hinterfragen. Auch der Autorin ist dies meist nur deshalb möglich, weil sie die den Veröffentlichungen zugrunde liegenden Arbeiten – und manchmal auch noch weitere zusätzliche – studiert hat und oft erst dadurch einschätzen kann, ob die Datengrundlage und die darauf beruhenden Interpretationen richtig sind. Einmal resümiert die Autorin:  „… zeigt auch, wie einfach es manchmal ist, die Wahrheit herauszufinden, indem man nicht nur Pressemitteilungen liest, sondern auch die Originalstudien“ (S. 102). Dem mag man gerne zustimmen – aber an der Realität dürfte das wohl vorbei gehen. Hier in diesem Buch wird am Ende eines jeden Abschnitts „zum Nachlesen“ eine kleine Liste von Originalstudien angegeben (die aber meist nicht als Internetquellen zitiert sind).

Dieses Buch kann nichtsdestotrotz sehr dabei helfen, angemessenes statistisches Denken zu fördern. So werden mehrfach die wichtigen Begriffe Hypothese, Test und statistische Signifikanz kritisch analysiert. Die Autorin formuliert sehr prägnant und einleuchtend, deshalb seien hier einige Zitate angeführt: „Wer erst in die Daten blickt und danach seine Hypothesen aufstellt, kann damit nichts beweisen. Nur wenn in neuen Daten dieselben Muster auftauchen, sind die Hypothesen bestätigt.“ (S. 66)
„Passende Zahlen auszusuchen und unpassende zu verschweigen mag in der Politik akzeptiert sein, aber ein wissenschaftliches Vorgehen ist es nicht.“ (S. 69)
„Signifikanz spielt für die empirische Forschung eine erhebliche Rolle. Experimentell arbeitende Wissenschaftler stellen Forschungshypothesen auf. Dann erheben oder messen sie Daten und testen auf Signifikanz. ... Nur dann ist eine konfirmatorische, eine Hypothesen bestätigende Analyse möglich, und die Ergebnisse sind belastbar. Im Gegensatz dazu steht die explorative, Hypothesen generierende Analyse. Sie sucht in Daten nach Mustern, die zuvor noch nicht beschrieben wurden. Auch das ist erlaubt, aber das Problem dabei ist: Wer lange genug sucht, findet immer irgendetwas.“ (S. 109/110)

Auf ca. 50 Seiten (im letzten Kapitel) stellt die Autorin das „Handwerkszeug“ zusammen, mit dem Statistiken allgemein erstellt werden und hier von ihr überprüft wurden. Dabei geht es von mehr elementaren Kenntnissen wie Skalentypen, Prozenten, Mittelwerten und Streuungsmaßen weiter über statistische Tests und Konfidenzintervalle bis hin zu Zeitreihen, Korrelation und Regression. Diese grundlegenden statistischen Begriffe und Verfahren werden kurz und klar und damit gut verständlich dargestellt. Wer die im Buch behandelten Fallanalysen besser verstehen will, dem sei empfohlen, mit dem Studium dieses Kapitels zu beginnen.

Rezension: Hartmut Weber (Kassel)