Stat-Up News

Was hat sich getan in der Welt von Stat-Up? Hier finden Sie alle Neuigkeiten: Statistikgespräche, unsere Meinung zu reißerischen Studien und spannende neue Projekte.

Sie suchen nach etwas bestimmtem? Springen Sie direkt zur richtigen Kategorie

  • Welche Projekte hat STAT-UP abgeschlossen, welche an Land gezogen, wo kann man Katharina Schüller live erleben?
  • Im Statistik-Blog schreiben wir über spannende Erkenntnisse, überraschende Entdeckungen und schrecklich falsche Interpretationen.
  • Genauso unterhaltsam sind die Radiosendungen auf DRadio Wissen und anderen Sendern.
  • Suchen sie nur eine bestimmte Sendung zum Nachhören zu Hause? Finden Sie sie im Archiv des Statistikgesprächs.
Schließen

Vor wenigen Wochen wurde sie wieder entfacht, die ewige Debatte über die vermeintliche Sinnhaftigkeit der Homöopathie. Dass die Fronten zu diesem Thema verhärtet sind, ist altbekannt.

Statistisch gesehen ist weder nachzuweisen, dass die Globuli-Medizin heilt, noch dass sie nicht heilt.

Aufhänger der Homöopathie-Debatte war ein misslungener Tweet der Techniker Krankenkasse (TK). Nachdem sie von einem Twitter-Nutzer aufgefordert wurde, Studien zu präsentieren, die die Wirkung der Homöopathie beweisen, entgegnete die Krankenkasse etwas pampig, dass der Nutzer doch bitte Studien liefern solle, die die Wirkung der Homöopathie widerlegen. Der Shitstorm folgte prompt und keinesfalls in homöopathischen Dosen. Inmitten des üblichen Schlagabtausches ließen auch Anhänger der Fraktion „Mit Statistik kann man alles beweisen“ nicht lange auf sich warten. Richtig ist: Mit Statistik kann man Nichts nicht beweisen.

Weiterlesen

Moment – handelt es sich hier um einen Fall gnadenloser Selbstüberschätzung der Statistikerin? Das Gegenteil ist der Fall. Den wissenschaftlichen Nachweis des Gegenteils (nämlich einer Nichtwirksamkeit) zu fordern, nur weil man die eigene Sache (die Wirksamkeit) nicht beweisen kann, ist nicht nur in der Medizin schwer umstritten – es ist vielmehr statistisch nicht möglich. Das Konzept des statistischen Testens beruht darauf, von der Nullhypothese („es gibt keinen Effekt“) auszugehen – ähnlich wie bei Gericht, wo im Idealfall der Angeklagte so lange als unschuldig gilt, bis man ihm seine Schuld, die Alternativhypothese („es gibt einen Effekt“) nachweisen kann. So wie das hohe Gericht nur Ausschnitte aus dem Umfeld der Tat zur Urteilsfindung heranziehen kann und praktisch niemals alle (potenziellen!) Beweismittel, muss auch der Statistiker auf die Aussagekraft von Stichproben vertrauen und braucht dafür klare Regeln. Warum? Weil Menschen gelegentlich zufällig gesunden und wir im Nachhinein entscheiden müssen, ob dies trotz, wegen oder völlig unabhängig von der verabreichten Therapie geschehen ist.

Umgekehrt funktioniert dieser Schluss aber nicht. In der Statistik gibt es bloß einen „Freispruch zweiter Klasse“ aus Mangel an Beweisen.  Somit ist die Forderung der TK nach Studien, die eine Nicht-Wirksamkeit der Homöopathie belegen, wissenschaftlicher Blödsinn.

Aber warum fordern Wissenschaftler ständig, dass man Wirksamkeit erst beweisen muss – steckt dahinter doch nur die Pharma-Lobby, die ihre Pfründe verteidigen will gegen die sanften Homöopathen? Auch das ist weit gefehlt. Stellen wir uns doch einmal vor, es ginge stattdessen um eine Chemotherapie. Folgt man der Argumentationslinie, dass Menschen mit dieser Therapie behandelt werden sollten, weil das Medikament ja wirken könnte (und wir es bloß noch nicht wissen), so würden Patienten ohne Not starken Nebenwirkungen ausgesetzt. Statistisches Testen ist also Schadensbegrenzung. Man reduziert den „Fehler 1. Art“, dass eine behauptete Wirkung tatsächlich gar nicht vorliegt, auf ein Minimum zu Gunsten des „Fehlers 2. Art“, dass eine tatsächliche Wirkung nicht erkannt wird. Die allgemeine Lebenserfahrung – man denke an die mittelalterlichen „Heilpraktiken“, die wohl in Summe mehr Menschen getötet als kuriert haben – zeigt, dass dieses Prinzip als wissenschaftliche Grundregel (nicht in jedem Einzelfall) von Entscheidungsfindung unter Unsicherheit funktioniert.

Die Sinnlosigkeit ihrer Antwort fiel selbst der TK irgendwann auf. Doch da war es für Reaktionen schon zu spät, denn es ging ums liebe Geld. Schließlich werden homöopathische Behandlungen aus den Beiträgen aller TK-Versicherten bezahlt.  Homöopathie-Gegner protestierten, dass sie „wirkungslose Zuckerkügelchen“ zwangsweise mitfinanzierten.

Um die behauptete Wirkungslosigkeit zu „beweisen“, führen sich regelmäßig Menschen zu Demonstrationszwecken ganze Globuli-Fläschchen auf Ex zu Gemüte, nur um danach sagen zu können: „Ich lebe noch.“ Mit einer Packung Ibuprofen würde sich das vermutlich keiner trauen. Und unwissenschaftlich ist es noch dazu, denn wieder landet man beim Einzelfall statt beim statistischen Beweis.

Nun sieht sich allerdings die Homöopathie als Lehre, deren konkretes Vorgehen die vom Individuum abhängt. Nur weil etwas bei den einen nicht funktioniere, bedeute das eben nicht, dass es bei den anderen wirkungslos sei. Immerhin haben verschiedene Studien, zum Missfallen so mancher Homöopathen, kürzlich festgestellt, dass es zwischen homöopathischen Globuli und Placebos keinen großen Unterschied gibt. Ein bisschen „Wirkung“ gibt es also doch.

Die Wirkung von Placebos wird in der Medizin oft belächelt. Man behandelt Patienten ohne Wirkstoffe und arbeitet stattdessen mit dem Glauben an die Wirksamkeit des „Medikaments“. Dass Glaube Berge versetzen kann, ist nachweislich mehr als nur ein tröstlicher Spruch.  Viele Studien, in denen Patienten lediglich Placebos erhielten, jedoch unter der Annahme, es seien echte Medikamente, dokumentierten Verbesserungen im Krankheitsbild. Von Migräne oder Husten bei viralen Infekten bis zu Depressionen und bipolaren affektiven Störungen reichen die Anwendungsgebiete solcher Scheinmedikamente. Selbst wenn also der Erfolg der Homöopathie rein auf dem Placebo-Effekt basiert, warum ist es dann verwerflich, dass Menschen diese Therapie in Anspruch nehmen, sofern sie an die Wirksamkeit der Behandlung glauben?

Es ist überhaupt nicht verwerflich, solange die Homöopathie ihre Grenzen erkennt. Eine Tumorbehandlung mit Globuli statt mit einer Chemo-Therapie sollte auf keinen Fall von Krankenkassen unterstützt werden. Verglichen mit den Kosten voreiliger Verschreibungen von Antibiotika ohne sichere Prognose und der unerwünschten Nebenwirkung zunehmender Antibiotikaresistenzen sind die „Zuckerkügelchen“ aber nicht nur billiger, sondern auch gesünder.

 

(Dieser Artikel erschien im Mai 2017 in der Printausgabe von "Tichys Einblick".)

Schließen

2017 ist ein Super-Wahljahr in Deutschland. Nach dem Saarland wird in Schleswig-Holstein und in Nordrhein-Westfalen abgestimmt, im Herbst im Bund. Doch schon die jüngste Abstimmung hat gezeigt, dass die Umfragen und das Ergebnis wieder auseinanderklafften.

Woran es liegt, dass die Prognose so oft in die Hose geht.

Nach Brexit und Trump-Triumph sollten wir uns eigentlich nicht mehr wundern, dass bei Kopf-an-Kopf-Rennen oft das berühmte „Zünglein an der Waage“ entscheiden kann.  Auch im Fall Saarland lautet die erste Mahnung der Statistiker deshalb, die Abweichung von Prognosen und Realität nicht zu dramatisieren. Die aktuellste Umfrage lag schließlich für alle Parteien außer der CDU innerhalb des üblichen Prognosefehlers von +/- 3 Prozentpunkten.

Weiterlesen

Jede Prognose ist mit Unsicherheit behaftet. Sogar die besten Prognosen unterliegen der Gefahr, von der Wirklichkeit stark abzuweichen, auch wenn große Abweichungen nicht besonders wahrscheinlich sind. Unmöglich sind sie nicht. Schließlich beruht jede Prognose auf einer Stichprobe, und die kann aus verschiedensten Gründen ganz anders sein als die Gesamtheit aller Wähler. Der wichtigste Einflussfaktor ist, dass Wahlprognosen auf Befragungen von Wahlberechtigten basieren, aber das sind am Ende nicht die tatsächlichen Wähler.

Um diese Unsicherheitsfaktoren bei Wahlprognosen zu minimieren, verwenden die Forschungsinstitute spezielle Gewichtungsverfahren. Insbesondere wird die Gruppe der Unentschlossenen gewichtet, also solche, die bei der Befragung angegeben haben, noch nicht zu wissen, ob sie wählen gehen bzw. wen sie wählen würden. Somit ist nicht ersichtlich, ob die Unentschlossenen letzten Endes in der Statistik als Wähler oder Nichtwähler erscheinen. Als verschiedene Gewichtungsfaktoren werden für die Prognose insbesondere historische Entwicklungen, also das Wahlverfahren bei der letzten Wahl, herangezogen. Aber es werden auch andere denkbare Effekte auf die Diskrepanz zwischen Wahlabsicht und tatsächlichem Wahlverhalten berücksichtigt. 

Das heißt: Nicht nur die Stichprobe selbst ist nur ein mehr oder weniger genaues Abbild der Wahlberechtigten. Sondern auch die Methode, wie man die Wahlberechtigten in tatsächliche Wähler umrechnet, beruht auf Schätzungen. Das lässt man gerne unter den Tisch fallen, so lange die Hochrechnung gut funktioniert, weil solche Gewichtungsverfahren das „Betriebsgeheimnis“ der Forschungsinstitute sind. Wenn sich aber das Wahlverhalten ziemlich stark ändert, können sich die Fehlerquellen potenzieren und dann liegt man eben daneben. Gerade in einem kleinen Bundesland kann so etwas deutliche Auswirkungen haben.

Schon bei den Landtagswahlen im Saarland 2012 wurde ein Kopf-an-Kopf Rennen zwischen CDU und SPD prognostiziert. Im Wahlergebnis siegte die CDU (35,2%) mit deutlichem Vorsprung gegenüber der SPD (30,6%), bei einer Wahlbeteiligung von 61,6%. Die anschließende Wählerwanderungsanalyse von Infratest dimap zeigte, dass die CDU rund 12.000 Wähler an die Gruppe der Nichtwähler verloren hatte, die SPD weitere 7.000. Die Nichtwähler waren somit die eigentlichen Wahlsieger.

Im Jahr 2017 zeigt sich ein ganz anderes Bild. Diesmal konnte die CDU 28.000 Nichtwähler mobilisieren, die SPD wenigstens 13.000. 8.000 SPD-Wähler wanderten zur CDU ab, vermutlich diejenigen, die die Gefahr einer Rot-Rot Koalition abwenden wollten. Dank der Nicht-mehr-Nichtwähler kann das Saarland nun eine Wahlbeteiligung von 69,7% aufweisen, den höchsten Wert seit mehr als 20 Jahren.

Daraus lässt sich folgern, dass das historische Wahlverhalten keine gute Prognose für die Gewichtungsfaktoren liefert. Unsere Parteienlandschaft hat sich in den letzten Jahren zu stark verändert; vielmehr müsste man sich fragen, was schiefliefe, wenn der Wähler nicht auf Phänomene wie die AfD oder die Schwäche und das Wiedererstarken der FDP auf Bundesebene reagieren würde. 

Wurde also über die letzten Jahre von einer sinkenden Wahlbeteiligung ausgegangen, zeigen sich in den letzten Jahren wieder steigende Tendenzen. Würden die Wahlforschungsinstitute solche aktuellen Trends stärker berücksichtigen und historisches Verhalten weniger stark, so könnten sie ihre Vorhersagegenauigkeit wohl verbessern. Vielleicht sollten die Institute die Wähler einfach öfter fragen, wie wahrscheinlich sie denn überhaupt wählen und nicht nur, wen sie wählen, wenn sie wählen.

Hilfreich wären zudem mehr Umfragen in engerer zeitlicher Taktung – denn in den letzten zwei Wochen vor der Wahl zeigte sich einen Trend in Richtung des tatsächlichen Wahlergebnisses. Knapp zwei Wochen vor der Wahl lagen CSU und SPD nur einen Prozentpunkt auseinander, drei Tage vor der Wahl dann schon fünf Prozentpunkte. Hätte man diesen Trend einfach fortgeschrieben (was statistisch auch etwas riskant ist und keinesfalls empfohlen werden soll), dann hätte man deutlich näher am tatsächlichen Ergebnis gelegen.

Oder man verabschiedet sich gleich von den doch recht statischen Umfragen und arbeitet zukünftig mehr mit Wahlbörsen, an denen die Teilnehmer virtuell mit Parteiaktien handeln. Weil dort alle paar Minuten ein neues Stimmungsbild entsteht, lassen sich Trends und Stimmungsschwankungen deutlicher ablesen. Zwar haben auch Wahlbörsen ihre Schwächen, aber wenn man sie mit den traditionellen Umfragen kombiniert, könnte ein umfassenderes und vielleicht auch präziseres Bild entstehen.

 

(Dieser Artikel erschien im April 2017 in der Printausgabe von "Tichys Einblick".)

Schließen

"Stadt, Land, Daten? Digitalisierung bedeutet: Wissen steht in bisher ungeahntem Umfang zur Verfügung. Daten lassen sich auf neuartige Weise sammeln, verknüpfen und auswerten. Damit verändern sich Kommunikations- und Entscheidungsprozesse in Städten und Stadtforschung. Ob und wie Gamification, Wikis, Prognosemärkte & Co. neues Wissen für die Stadt schaffen können, untersucht diese ExWoSt-Studie."

Details wie die ausführliche Darstellung von Ziel und Konzept der Studie finden Sie auf der Internetseite des Auftraggebers BBSR (Bundesinstitut für Bau-, Stadt- und Raumforschung).

Schematische Darstellung des geplanten Vorgehens in der ExWoSt-Studie: "Smart Cities - Gamification, Prognosemärkte, Wikis & Co: Neues Wissen für die Stadt"

 

Gemeinsam mit Studio|Stadt|Region, der Urban Progress GmbH und dem Lehrstuhl für Raumentwicklung der Technischen Universität München führt STAT-UP diese Studie im Rahmen des Forschungsprogramms ExWoSt (Experimenteller Wohnungs- und Städtebau) durch.

In den USA gibt es seit 1966 den Equal Pay Day. Dieser Tag markiert symbolisch, bis zu welchem Tag die Frauen unentgeltlich arbeiten müssten, wenn sie für den Rest des Jahres denselben Lohn wie Männer bekommen würden. In Deutschland wurde dieser Tag 2008 ebenfalls ins Leben gerufen. Und leider ist er erstaunlich weit von Neujahr weg: Dieses Jahr wäre es erst am Ende des ersten Jahresquartals am 20. März gewesen.

Weiterlesen ...

Statistiken sollen solide sein, aber sie können sich auch auf hauchdünne Angelegenheiten beziehen. Beispielsweise auf unsere Haare. Oder auf das meist noch schwerer Greifbare, nämlich das Geld, welches mit unseren Haaren verdient wird.

Weiterlesen ...

Zeit, nach 25 Jahren Bilanz zu ziehen: Geht aus statistischer Sicht immer noch ein merkbarer Graben zwischen beide Landesteile Deutschlands, oder ist die Wiedervereinigung bereits erfolgreich abgeschlossen?

Weiterlesen ...

Gesellschaftliche Folgeschäden von Statistical Illiteracy

Statistik ist ein Mittel zur Entscheidungsfindung unter Unsicherheit. (C. R. Rao, 1997)

Analytics = the scientific process of transforming data into insight for making better decisions (Institute for Operations Research and the Management Sciences INFORMS, 2014)

Konferenzbeitrag von Katharina Schüller

„The sexy job in the next ten years will be statisticians“, behauptete Hal Varian, der Chefökonom von Google, im Jahr 2009. In einer Informationsgesellschaft spricht man gerne von Analytics oder Data Science, mit der Begründung, da ginge es nicht bloß um Statistik, sondern vielmehr um Algorithmen, um Informatik, um Machine Learning und vor allem: um richtig große Datenmengen. Um Big Data. Ich will mich nicht aufhalten damit, die Vorstellung zu korrigieren, Statistik beschränke sich auf das Berechnen von Mittelwerten aus 30 Beobachtungen oder auf das Nachschlagen von Normalverteilungsquantilen in dicken, verstaubten Tabellenwerken. Vielmehr interessiert mich die Frage, welche Erwartung durch Analytics, das „neue Kleid“ der Statistik, geweckt wird und warum diese Erwartung nicht nur falsch, sondern sogar schädlich ist.

Weiterlesen ...