Zur Bedeutsamkeit empirischer Befunde: Signifikanz in Zeiten von Big Data

Referent: Prof. Dr. Ingo Klein, Lehrstuhl für Statistik und Ökonometrie

Das Wörtchen „signifikant“ hat Konjunktur. Signifikanz – das ist das Siegel, das wissenschaftliche Artikel brauchen, um glaubwürdig zu sein. Liefert ein Experiment ein signifikantes Ergebnis, dann wird daraus häufig geschlossen, dass die hinter der Arbeit stehende Hypothese mit hoher Wahrscheinlichkeit korrekt ist. Aber um die Aussagekraft eines Ergebnisses beurteilen zu können, reicht die Signifikanz alleine nicht aus. Ein typisches Ergebnis aus statistischen Erhebungen lautet beispielweise „Eine gute Abiturnote führt im Durschnitt zu einer signifikant besseren Punktzahl in einer Klausur“. Diese Aussage entstammt der Anwendung eines statistischen Tests und wird getroffen mittels des sog. p-Wertes. Wenn der kleiner ist als z.B. 5% wird das obige Ergebnis als richtig akzeptiert. p-Werte haben aber das Problem, dass sie beliebig klein werden können, wenn nur der Stichprobenumfang ausreichend erhöht wird. Für große Datensätze, also Big Data, scheint somit jede noch so kleine Differenz plötzlich signifikant zu werden.

In seinem Vortrag geht Ingo Klein daher der Frage nach, ob signifikant auch tatsächlich inhaltlich wichtig bedeutet? Wenn nicht, wie kann man überhaupt inhaltlich wichtig von signifikant abgrenzen? Im Einzelnen werden Probleme der rituellen Anwendung statistischer Tests und teils bekannte, teils neue Lösungen für die Messung der inhaltlichen Stärke von statistischen Effekten diskutiert.

Weitere Impressionen der Veranstaltung finden Sie hier.