In den letzten Monaten war ich fasziniert von der Replikationskrise rund um das Thema Social Priming. Ich recherchiere nicht über Social Priming und behaupte nicht viel darüber zu wissen, abgesehen von dem, was ich gelesen habe. Aber Social Priming scheint eines dieser Felder in der Psychologie zu sein, die für eine Zeit lang alles andere als "empfangene Weisheit" sind, um dann kontrovers zu werden, da neue Forschungsgruppen zunehmend Schwierigkeiten haben, die Ergebnisse von Kernanhängern zu replizieren.
Ich wurde an diese Replikationskrise erinnert, als ich eine neue Studie von der University of Queensland in Australien las. Die Forscher Morgan Tear und Mark Nielsen führten eine ziemlich typische Reihe von Experimenten durch, bei denen die Teilnehmer gewalttätige und gewaltfreie Videospiele spielten und in Bezug auf ihr prosoziales oder helfendes Verhalten mit der Aufgabe "Stift fallen lassen" getestet wurden. Wenn Sie damit nicht vertraut sind, macht das Experiment eine Serie von "versehentlich" Fallenlassen einer Reihe von Stiften und wartet darauf, ob der Teilnehmer hilft, sie aufzuheben. Die Ergebnisse zeigten, dass das Spielen gewalttätiger Videospiele wenig Einfluss auf das Verhalten hatte.
Nun, dies ist eine Replikation der "alten Schule" (dh vor dem Brown gegen EMA, 2011 Supreme Court Fallentscheidung) Forschungsdesigns und hat alle typischen Warzen dieser Art von Studien. College-Studenten spielen Videospiele für ein relativ kurzes Intervall, allein. Die "Stift fallen" -Aufgabe, würde ich sagen, ist wahrscheinlich nur vage nützlich, um die Art von prosozialem Verhalten und Empathie zu erfassen, an der wir uns für die reale Welt interessieren. Also nimm es für das, was es wert ist. Nichtsdestoweniger ist es eine relativ einfache Replikation einiger Arbeiten, die behaupten, dass gewalttätige Spiele diese helfenden Verhaltensweisen abschwächen und auf der Grundlage dieser Old-School-Studien ihre Ergebnisse nicht reproduzieren.
Was sollen wir daraus machen? Die Frage, ob gewalttätige Spiele helfende oder prosoziale Verhaltensweisen wirklich verringern, bleibt umstritten. Dies fügt zu einem Haufen von bereits ziemlich gemischten Forschungsergebnissen hinzu und, wie bereits erwähnt, ist es schwierig, diese Art von Oldschool-Studien wirklich auf reale Phänomene zu verallgemeinern (die Mehrheitsmeinung des Obersten Gerichtshofs strich sie in Brown beiseite) v EMA aus gutem Grund). Aber die Frage einer Replikationskrise ist potenziell aufschlussreich.
Ich glaube, wir ziehen es vor, die Wissenschaft, ja sogar die Sozialwissenschaft, in einer Art Vakuum zu betrachten, das vor dem Druck der Politik und der gesellschaftlichen Narrative geschützt ist. Aber ich denke, das ist falsch. Wie John Ioannidis in seinem Klassiker "Warum die meisten publizierten Forschungsergebnisse falsch sind" dargelegt, ist es sehr üblich, dass eine Forschungsidee auf vollen Touren läuft, obwohl im ontologischen Sinne die Forschungsidee falsch ist. Insbesondere wenn eine Forschungsidee zu einer bereits existierenden sozialen Erzählung passt ("gewalttätige Videospiele sind schlecht"), kann der Druck auf die wissenschaftliche Gemeinschaft, die soziale Erzählung zu unterstützen, intensiv sein (Zeuge Fredric Werthams Beteiligung am Comic-Schrecken der 1950er Jahre) zum Beispiel). Insbesondere angesichts des methodischen Flexibilitätsproblems der Sozialwissenschaften, in dem eine Vielzahl von Datenanalyseoptionen es den Forschern erlauben können, selbst in gutem Glauben Ergebnisse zu wählen, die ihren Hypothesen am besten entsprechen, bedeutet dies wahrscheinlich sehr wenig, dass einige Forschungsgruppen die gleichen Ergebnisse erzielen und über. Die Frage wird, ob externe Gruppen, insbesondere diejenigen, die skeptischer sind, die Ergebnisse reproduzieren können.
Ich bin offensichtlich kein Physiker, aber ich würde mir vorstellen, dass in der Physik selbst eine einzige fehlgeschlagene Replikation Anlass zur Bestürzung geben würde. Innerhalb der Sozialwissenschaften müssen wir uns fragen: Wie viele fehlgeschlagene Replikationen braucht es, um eine Theorie zu fälschen? In diesem Sinne können Techniken wie Meta-Analyse tatsächlich schädlich sein, argumentiere ich, indem ich gescheiterte Replikationen für eine Illusion der Konsistenz wegglätte. Stellen Sie sich vor, wir führen zum Beispiel 100 Studien zu einer bestimmten Theorie mit gleicher Stichprobengröße durch. Die Hälfte von ihnen hat statistisch signifikante Effekte mit einer Effektstärke von r = .20. Der Rest ist genau null mit r = .00. Ist das ein Feld, das wir als empfangene Weisheit feiern sollten? Nein, würde ich nicht sagen, aber alles zu einer Meta-Analyse zusammenfassen, und man erhält einen durchschnittlichen Effekt von r = .10, den viele Forscher gerne (vielleicht sogar eigennützig) als bedeutungsvoll hageln würden.
Als Verfasser dieses Fehlers zu replizieren, kann es schwierig sein, Fehler bei der Replikation zu erhalten. Man muss sich fragen, wie viele andere Wiederholungsversuche niemals das Licht der Welt erblicken und uns (und der Öffentlichkeit) eine falsche Sicht auf die "Wahrheit" der Forschungsergebnisse geben. Ich bin der Meinung, dass wir mehr tun müssen, um die Kultur der Forschungspsychologie zu verändern, die sich zu lange dem Null-Faktor widersetzt hat und die Ergebnisse nicht reproduzierte.