Die Sprache des Wissenschafts-Betrugs

Auch in der Wissenschaft gibt es Betrug. Zum Beispiel werden Daten geschönt oder gar frei erfunden. Nun konnten Forscher zeigen, dass sich betrügerische Studien von ehrlichen Studien ganz subtil unterscheiden, und zwar in der Sprache.

Auf einem Paper prangt ein grosser, rotter «RETRACED»-Stempel. Bild in Lightbox öffnen.

Bildlegende: Retraced – zurückgezogen: Immer wieder fliegen Betrüger auf, die reihenweise Forschungsresultate fälschten. Hier eine Studie von Diederik Stapel. SRF, Pascal Biber

Der niederländische Psychologe Diederik Stapel erlangte 2011 zweifelhafte Berühmtheit: Er hatte die Daten von über 50 Studien geschönt, gefälscht oder gar ganz erfunden. Der Kommunikationswissenschaftler David Markowitz von der Stanford University in den USA hat diese Studien daraufhin mit älteren Studien von Diederik Stapel verglichen, bei denen der Psychologe noch nichts geschönt hatte. Das Resultat: Diederik Stapels Sprache unterschied sich in seinen betrügerischen Studien, zum Beispiel verwendete er weniger Adjektive, dafür aber mehr methodisches Vokabular.

Zu viel wissenschaftlicher Jargon

Jetzt wollte David Markowitz herausfinden, ob sich linguistische Eigenarten für wissenschaftliche Betrüger ganz allgemein finden lassen würden. Er verglich dazu mehr als 250 wegen Betrug zurückgezogene Studien aus ganz verschiedenen Forschungsfeldern mit jeweils einer nicht zurückgezogenen Studie desselben Jahres in derselben wissenschaftlichen Zeitschrift.

Zusatzinhalt überspringen

Gesammelte Widerrufe

Der Blog «Retraction Watch» sammelt und veröffentlicht Widerrufe von wissenschaftlichen Artikeln. Die beiden Gründer und Wissenschaftsjournalisten Adam Marcus und Ivan Oransky recherchieren zudem, warum die jeweiligen Artikel zurückgezogen wurden.

Und tatsächlich: In den zurückgezogenen Studien fand sich zum Beispiel noch mehr wissenschaftlicher Jargon als sowieso schon in wissenschaftlichen Studien zu finden ist. Die betrügerischen Studien waren zudem abstrakter, komplizierter, wortreicher und allgemein weniger leserfreundlich geschrieben.

Kein Betrugsdetektor

An einer einzelnen Studie kann man einen Betrug zwar nicht an der Sprache erkennen. Aber im Durchschnitt der untersuchten über 500 Studien gab es signifikante Unterschiede. Als Betrugsdetektor taugt das Computerprogramm trotzdem nicht, dazu ist die Treffsicherheit des Algorithmus noch viel zu schlecht. Ein solcher Detektor sei allerdings auch gar nicht das Ziel gewesen, sagt David Markowitz. Ihm sei es darum gegangen, überhaupt erst einmal die relevanten sprachlichen Unterschiede dingfest zu machen.

Für eine praktische Anwendung müsste der Algorithmus nun von Computerwissenschaftlern verbessert werden. Aber auch dann wird er wohl nur eine von verschiedenen Methoden bleiben, Betrügern auf die Spur zu kommen. Andere Methoden spüren bereits heute mit grösserer Treffsicherheit zum Beispiel statistische Unregelmässigkeiten in den Daten auf. Interessant bleibt der sprachliche Unterschied zwischen ehrlichen und betrügerischen Studien allemal.

Sendungsbeitrag zu diesem Artikel