Statistik als Leitplanke in der Unsicherheit
Die Disziplin der Statistik hat durch die Coronakrise einen regelrechten „Boom“ erfahren. Eine Flut von Analysen, Kurven und Kennziffern will dazu beitragen, die Pandemie zu erklären und politische Maßnahmen zu begründen. Das gelingt mehr oder weniger gut.
Viele Analysen vermitteln den Eindruck, als wüsste man zu jedem Zeitpunkt, wo wir gerade in der Pandemie stehen und wie sie sich entwickelt. Aber unser Wissen hat in weiten Teilen bestenfalls den Charakter von Leitplanken – es grenzt ab, wo unser Nicht-Wissen beginnt, ist aber keinesfalls so präzise, wie die exakt verlaufenden Kurven glauben lassen.
Erstens sind alle Daten mit Unsicherheit behaftet. Das gilt auch für die daraus abgeleiteten Kennziffern – eine Reproduktionszahl R lässt sich eben beispielsweise nur auf +/- 0,2 genau schätzen. Ob R bei 1,1 oder 1,2 liegt, macht allerdings über den Verlauf weniger Wochen bereits einen enormen Unterschied aus. Zweitens stellt die Statistik zwar Werkzeuge bereit, um das Ausmaß dieser Unsicherheit zu schätzen. Diese setzen aber insbesondere voraus, dass die Daten repräsentativ sind. Bis heute ist das nicht der Fall; die vorhandenen Daten liefern kein unverzerrtes Bild der Pandemie.
Transparenz und Aktualität der Zahlen sind in einer Krisensituation verständliche Wünsche.
Man befriedigt sie nicht, indem man schlechte Daten immer weiter knetet und interaktiv visualisiert – es heißt so schön, „even garbage looks good in colors“. Fallzahlen, Reproduktionsraten, 7-Tage-Inzidenz sind nicht nutzlos, aber ihre Aussagekraft wird nicht immer angemessen bewertet. Schon für Expert:innen ist es herausfordernd, aus der Vielzahl teils widersprüchlicher Informationen, die in unterschiedlichem Ausmaß mit Fehlern behaftet sind, ein halbwegs klares Bild der Lage zu erkennen. Für Laien ist erst recht nicht immer nachvollziehbar, wie die Daten „gelesen“ werden können.
Wenn es „nur“ darum geht, Methoden zu verstehen, dann sind eine gewisse mathematisch Grundbildung und die im Internet verfügbaren Ressourcen im Wesentlichen ausreichend. Das RKI erläutert seine Berechnungen sehr detailliert in Methodenpapieren. Zusammen mit meinen Kollegen von der „Unstatistik“ habe ich zudem eine kleine Serie verfasst, die recht allgemein verständlich erklärt, was sich hinter den Corona-Kenzahlen verbirgt.
Aber es geht weniger um die Formeln im Detail. Viel wichtiger ist es zu erkennen, was in den Daten steckt und was durch Interpretation der Daten hinzugefügt wird: Daten und die Bedeutung von Daten sind nicht dasselbe.
Um sich dieser Herausforderung anzunähern, sind zwei Fragen von großer Bedeutung:
Messen wir richtig und messen wir das Richtige?
Zunächst spielt die Frage nach der Nutzbarkeit der Daten eine Rolle, die von der Qualität der Messung abhängt. Sind die Daten repräsentativ, sind sie verzerrt, gibt es über die Zeit oder über Regionen hinweg Unterschiede in der Datenerhebung? Messen die Daten das, was sie messen sollen? Sind beispielsweise bestätigte Fälle eine gute Messung der Infizierten in dem Sinne, dass sie hochgerechnet werden können – und wenn nein, warum nicht? Lassen sich Informationen darüber finden, wie solchen Messproblemen gegengesteuert wird, oder wird das Problem überhaupt nicht thematisiert?
Zweitens stellt sich die Frage nach der Relevanz. Daten über Fallzahlen, Intensivpatienten oder Verstorbene werden Tag für Tag berichtet und analysiert, weil sie verfügbar sind, aber sind sie das (einzig) Relevante? Sicherlich nicht. Wünschenswert wären mindestens genauso hochfrequente und feinräumige Daten über die Auswirkung der Pandemie auf andere Lebensbereiche: Bildung, Einkommen, insbesondere mit Blick auf schwächere Mitglieder unserer Gesellschaft, Wirtschaft, Umwelt… Es ist alles andere als einfach, solche Daten zu generieren. Das Statistische Bundesamt unternimmt mit seinen „Experimentellen Daten“ inzwischen einige sehr ermutigende Schritte in diese Richtung, die weitaus mehr Aufmerksamkeit verdienen.
Dennoch mangelt es noch immer an gesichertem,umfassendem Wissen über die Pandemie. Und wer dies als Experte offen und ehrlich zugibt, riskiert Akzeptanzverluste.
Dahinter steckt im Kern eine falsche Erwartungshaltung an das, was Daten leisten können.
Auf der einen Seite wird unterschätzt, wie wertvoll qualitativ hochwertige Daten sind. Stattdessen glaubt man, viel helfe viel und mehr Daten bedeuteten automatisch mehr Wissen. Aber wer durch eine unbekannte Landschaft navigiert, dem ist nicht mit einer Landkarte geholfen, die an manchen Stellen jeden Grashalm abbildet und an anderen quadratkilometerweite weiße Flecken aufweist. Stattdessen wäre eine etwas gröbere Karte, die zumindest Straßen, Flüsse und Ortschaften vollständig und maßstabsgetreu abbildet, wesentlich nützlicher. Ein Mehr an unnötiger Information bringt keinen Mehrwert.
Auf der anderen Seite wird überschätzt, was Datenanalyse leisten kann. Zwar spricht nichts gegen anspruchsvolle Methoden, wenn hochdimensionale Daten mit komplexen Mustern vorliegen. Gerade Verfahren der KI neigen jedoch dazu, auch Muster zu finden, die reiner Zufall sind und möglicherweise keinen Beitrag zur Beantwortung der offenen Fragen leisten. Letztlich steht und fällt alles mit der Qualität der Daten.
Es bleibt also Unsicherheit. Aber ist das schlimm? Anders gefragt: Wenn Datenanalyse alle Unsicherheit beseitigen und alle Entscheidungen berechnen könnte, wozu bräuchten wir dann Politiker oder Entscheider? Wozu bräuchten wir dann die Entscheidungsfreiheit des einzelnen?
Umgang mit Unsicherheit heißt nicht, dass man Unsicherheit komplett beseitigen muss. Gesichertes Wissen kann auch bedeuten, zu wissen, was man weiß und wo noch Wissenslücken bestehen. Genau dort beginnt Eigenverantwortung: Die Fähigkeit und die Bereitschaft, unter Unsicherheit zu entscheiden. Das erfordert Mut, insbesondere den Mut, Fehler zu machen.
Manchmal müssen Entscheidungen auf Basis schlechter Daten getroffen werden, weil keine Zeit ist, auf bessere Daten und mehr Informationen zu warten. Das entschuldigt nicht die Versäumnisse der letzten Monate, in denen sich die Datenlage weit weniger stark verbessert hat, als es aufgrund der Vorschläge von uns Datenexpert:innen hätte geschehen können. Dass wir immer noch kein laufendes repräsentatives Monitoring der Pandemie haben, ist mindestens zum Teil auch ein Kommunikationsproblem der Statistiker:innen – wir haben es bisher nicht geschafft zu vermitteln, dass man gute Daten nicht nur für die Wissenschaft und die Forschung braucht, sondern dass sie auch für die tägliche Überwachung und Steuerung der Krise unverzichtbar sind.
Wir sollten uns gerade in einer Situation großer Unsicherheit bewusst machen, dass es leicht ist, Entscheidungen im Nachhinein als falsch anzuprangern. Entscheidungen müssen im Lichte dessen beurteilen, was zum Zeitpunkt der Entscheidung bekannt war. Nur so können wir zu einer Entscheidungs- und einer Fehlerkultur gelangen, die uns resilienter macht gegenüber zukünftigen Krisensituationen.