Wissenschaft korrigiert sich selbst. Ein Grundsatz, an dem auch auf der Weltkonferenz für Forschungsintegrität niemand so richtig rütteln wollte. Die Fähigkeit zur Selbstkorrektur in der Wissenschaft sei eine der Juwelen in der Krone der Menschheit, betonte die niederländische Wissenschaftsministerin Jet Bussemaker in ihrer Rede zum Auftakt der Konferenz in Amsterdam. Staatliche Kontrollen würden dagegen mehr Gefahr als Nutzen in sich tragen.
Auf ihren Kronjuwelen ausruhen kann die Wissenschaftswelt sich allerdings nicht. Seit den 50er-Jahren verdoppelt sich die Anzahl wissenschaftlicher Publikationen im Schnitt alle neun Jahre. Wie soll die Selbstkorrektur da noch mitkommen? Eine Frage, auf die es am ersten Konferenztag viele verschiedene Antworten gab. Von Forschungsinstituten, Verlegern oder Wissenschaftlern wie Jelte Wicherts. Sein Team von der Universität Tilburg hat eine Methode entwickelt, die kleine Verschönerungen in der Statistik von Publikationen aufdeckt:
"Statcheck ist ein automatischer Computeralgorithmus, den wir entwickelt haben, um die Statistik in Fachpublikationen aus der Psychologie serienmäßig zu prüfen. Er rechnet die angegebenen Werte nach und zeigt Fehler an."
Eine Bilanz, unter die man nicht einfach einen Strich ziehen kann
Knapp die Hälfte aller Statcheck kontrollierten Veröffentlichungen geben den Wert, an dem die Aussagekraft eines Ergebnisses festgemacht wird, den p-Wert, in mindestens einem Fall falsch an. In jedem achten Artikel verändert das die Signifikanz eines Ergebnisses. Eine Bilanz, unter die die Niederländischen Forscher nicht einfach einen Strich ziehen wollten.
"Pubpeer ist ein Internetforum, auf dem man wissenschaftliche Veröffentlichungen kommentieren kann. Es ist sehr bekannt, weil dadurch viele Fälle von wissenschaftlichem Fehlverhalten aufgedeckt worden sind. Einer meiner Studenten schlug vor, wir könnten unsere Statcheck-Ergebnisse dort posten. Wir haben fünfzigtausend Artikel kommentiert, und wieder hatte die Hälfte falsche p-Werte. Das hat ganz schön für Wirbel gesorgt."
Vielversprechende Technik
Viele Kollegen waren begeistert. Manche zurecht verärgert: Der automatische Statistik-Prüfer erkennt nicht, wenn ein p-Wert mit verfeinerten Methoden berechnet wurde und markiert sie als "inkonsistent". Damit werden ausgerechnet solche Forscher fälschlich abgestraft, die ihre Statistik besonders sorgfältig berechnet haben.
Trotz dieses Verbesserungspotenzials hat der Algorithmus insgesamt breite Anerkennung gefunden. Das Fachmagazin "Psychological Science" benutzt ihn inzwischen als Teil des Peer Review Prozesses. Elsevier und PlosOne könnten sich demnächst anschließen.
Auch die Verlage selber ergreifen Maßnahmen – wenn auch weniger provokative, erklärt Keith Wollmann, Vice-President of Operations bei Cell Press.
"Oft will man in der Forschung ein Experiment das veröffentlicht wurde wiederholen und dann von dort aus weiter arbeiten. Aber die Frage ist immer – sind die Angaben in der Veröffentlichung dafür detailliert genug?"
In naturwissenschaftlichen Magazinen sind die Methodenteile oft auf eine halbe Seite beschränkt. Das macht es zwar leichter und schneller, eine Arbeit zu lesen, reicht in der Regel aber nicht, um einen Versuch selber zu wiederholen. Die Magazine der Cell-Press-Gruppe haben jetzt einen ausführlichen Anhang, in dem die angewandten Methoden entsprechend detaillierter Vorgaben beschrieben werden. Das bedeutet erstmal mehr Arbeit.
"Natürlich freuen sich die Autoren nie über extra Arbeit. Aber wenn man sie davon überzeugen kann, dass es zum Besten der Wissenschaft ist, dann werden sie es tun."
Forscher tragen noch immer die Hauptverantwortung
Das sollten sie besser auch. In einer Umfrage, die im Vorfeld der Konferenz durchgeführt wurde, gab die Mehrheit der rund 800 Teilnehmer an, die Hauptverantwortung für einwandfreie Wissenschaft läge bei den Forschenden selber. Der Grundsatz bleibt: Wissenschaft korrigiert sich selbst. Aber die Möglichkeiten, wie sie es tun kann, muss sie weiterhin ausbauen.