Selbstredend werden Studien häufig auch mit einer bestimmten Absicht und nicht zwingend »ergebnisneutral« durchgeführt. Um nicht gar zu unkritisch mit den Ergebnissen von Studien umzugehen, eignet sich allein schon die fast triviale Erkenntnis, dass beileibe nicht alle Studien, die durchgeführt werden, auch zur Veröffentlichung kommen. Möchte man beispielsweise den überragenden Nutzen eines Medikaments mit einer Studie nachweisen und sollte bei einigen dieser Studien herauskommen, dass der Nutzen nicht hoch oder gar niedrig ist, warum sollte eine solche Studie das Licht der wissenschaftlichen Öffentlichkeit erblicken? Experten schätzen demnach, dass nur etwa die Hälfte der Forschungsergebnisse veröffentlicht wird. Kündigt sich bei einer Studie womöglich an, dass sie nicht die »erhofften« Ergebnisse bringt, warum sollte man sie weiterführen, wenn man doch andere Ergebnisse braucht? Also: Abbruch und Ablage.
Ein Forscherteam um den Psychologen Brian Nosek hat sich einmal die Mühe gemacht, bei hundert psychologischen Studien deren Reproduzierbarkeit zu überprüfen, das heißt, sie haben anerkannte, in Fachzeitschriften veröffentlichte Studien erneut durchgeführt. Ergebnis: Während 97 Prozent der Originalstudien sogenannte signifikante Ergebnisse zeigten, zeigten sich bei der Wiederholung in nur noch 36 Prozent, also in weniger als der Hälfte, signifikante Ergebnisse. Das Forscherteam weist fairerweise darauf hin, dass auch Wiederholungsstudien durch Zufälle oder andere Einflüsse zu anderen Ergebnissen kommen können. Es sei aber doch auffällig gewesen, dass sich insbesondere als überraschend verkündete Ergebnisse nicht haben reproduzieren lassen.
Es geht nicht darum, Studien unter Generalverdacht zu stellen oder ihren möglichen Nutzen zu verneinen. Es geht aber darum, dass der kritische Blick nicht enden sollte, nur weil irgendwo »Studie« darübersteht, gefolgt von jeder Menge Zahlen, die in der Regel nur statistikaffine Menschen nachvollziehen können. Und wir sollten durchaus auch sensibler werden, wenn jemand wieder das Wort »Studie« wie eine Trumpfkarte auf den Diskussionstisch haut. Man darf da auch mal nachfragen.
Hier mal ein herrliches Beispiel:
»Sehen ist Glauben«? – Auch Lachse nehmen menschliche Emotionen wahr!
Seeing is believing. The effect of brain images on judgments of scientific reasoning, so heißt eine Arbeit von David P. McCabe und Alan D. Castel. Man hat Probanden unter anderem Artikel, auch fiktionale Artikel, aus dem Bereich der Neurobiologie vorgelegt, einmal ganz ohne grafische Darstellung, einmal unterlegt mit Bildern von Hirnscans oder Balkendiagrammen. Es zeigte sich, dass die Artikel, auch ausgedachte Artikel, die nach dem Vorbild echter Arbeiten geschrieben wurden (!), in der Solidität ihrer Argumentation am besten eingeschätzt wurden, wenn sie Bilder von Hinaufnahmen enthielten.
Dazu passt eine Studie, die angeblich belegt, dass auch Lachse menschliche Emotionen wahrnehmen können, indem man in ihrem Hirnscan Aktivität nachweisen konnte. So könnte jedenfalls die Wiedergabe einer Studie im Psycho-Industrie-Bereich lauten. Dem Lachs wurden Fotografien von Menschen in sozialen Situationen präsentiert, in denen auch ein gewisser emotionaler Inhalt erkennbar war, und – das Gehirn des Lachses hat reagiert! Auch hier lohnt sich ein Blick in die Studie, die in der »Zeitschrift« Journal of Serendipitous an Unexpected Results veröffentlicht wurde, was so viel heißt wie »Zeitschrift für zufällige und unerwartete Ergebnisse«. Auch hier: Vorsicht! Von dieser Zeitschrift gibt es nur eine einzige Ausgabe mit einem einzigen Artikel.
Neural Correlates of Interspecies Perspective Taking in the Post-Mortem Atlantic Salmon: An Argument For Proper Multiple Comparisons Correction heißt die »Studie«. Schaut man hinein, fällt zunächst auf, dass n = 1. Es wurde also nur ein Lachs untersucht – und das, interessanterweise, auch post mortem, Zustand nach Gefriertruhe. Ein toter Lachs, dem Fotos vorgelegt werden und der dann eine fMRI-Untersuchung (funktionale Magnetresonanztomografie) durchlief? Spätestens an der Stelle würden dann wohl (fast) alle stutzig. Bennett hat dennoch für die Studie 2012 den Ig-Nobelpreis gewonnen. Dieser »ignobel«-Preis (was so viel wie »unwürdig« heißt) wird seit 1991 an der Harvard Universität verliehen. Laut Jury gibt es den Preis »für Leistungen, die die Menschen erst zum Lachen bringen und dann zum Nachdenken«.
Und so ist es mit der »Lachs-Studie«, die zwar satirisch daherkommt, aber einen ernsten Hintergrund hat. In der fünf Minuten dauernden Studie zeigte sich eine erhöhte Hirnaktivität in einem 81 Kubikmillimeter großen Bereich des Gehirns. Allerdings: Solche Signale sind reine Zufallsprodukte, das sogenannte statistische Hintergrundrauschen. Nun dürften die wenigsten von uns überhaupt verstehen, was das eigentlich für Untersuchungen sind, die sogenannten Hirnscans, deren bunte oder schwarz-weiße Bilder uns gerne, auch während einschlägiger Psycho-Shows präsentiert werden.
Die Untersuchung heißt funktionelle Magnetresonanztomografie (fMRT) oder englisch: functional magnetic resonance imaging (fMRI). Aber was passiert da, wenigstens in etwa nachvollziehbar? Ein fMRT-Bild ist kein Foto, das Neuronen bei der direkten Arbeit, also Aktionspotenziale, zeigt, sondern lediglich eine vermehrte Durchblutung. Heutzutage basieren alle MR-Studien auf dem sogenannten BOLD-Kontrast (BOLD für Blood Oxygen Level Dependent). Dazu wird das Bild in sogenannte Voxel, Bildpunkte, unterteilt. Ein Signal aus einem Bildpunkt mit einem inhomogenen Magnetfeld fällt geringer aus als jenes in einem Bildpunkt mit homogener Magnetfeldverteilung. Sauerstoffreiches Blut nun ist in etwa ähnlich magnetisiert wie das umgebende Gewebe, daher haben wir ein sehr homogenes Magnetfeld und man hat ein starkes MR-Signal. Bei sauerstoffarmem Blut verhält es sich genau umgekehrt. So kann mittels des Signals der Unterschied in der Durchblutung gemessen werden, allerdings nur in Kapillaren und venösen Gefäßen, da arterielle Gefäße schon in Ruhe einen Sauerstoffgehalt von nahezu 100 Prozent haben. Die Signaländerungen nach neuronaler Aktivität sind zudem sehr gering, liegen im Bereich von 1 bis 5 Prozent. Daher ist es für bedeutsame Ergebnisse elementar, dass möglichst viele Signale, die eben nicht ursächlich mit der neuronalen Aktivität zusammenhängen, das heißt falsch positive Signale, aus den Datensätzen entfernt werden. Dafür sind unterschiedlichste statistische Korrekturmaßnahmen erforderlich.
Es ist wichtig, zu verstehen, dass hier nicht einfach ein Foto einer Realität gemacht wird, sondern dass es eine Fülle von Signalen gibt, die von einem Computer »verrechnet« werden, bis zu einem für uns sichtbaren Bild, das wiederum interpretiert werden muss. Es muss also sehr viel gerechnet und korrigiert werden, sonst erkennt unter Umständen eben auch ein toter Lachs menschliche Emotionen. Nach Aussage von Bennett besteht ein großes Problem darin, dass etliche Forschungsarbeiten ohne notwendige Korrekturen veröffentlicht würden. Bennett und seine Kollegen sprechen gar von 25–40 % der Wissenschaftler, die in guten Fachjournalen veröffentlichen und diese Korrekturen nicht vornähmen.
Wir haben also sehen können, dass man auch den Auswertungen bunter Hirnbilder nicht immer ohne Weiteres glauben darf. Genauso verhält es sich eben auch, wenn das als »Studie« kraftvoll auf den Tisch gehämmert wird. So, als sei die präsentierte Aussage über jeden Zweifel erhaben, wenn man nur das Wort »Studie« voranstellt. Auch die Medien scheinen »Studie« allzu oft mit guter Wissenschaft gleichzusetzen. Und es ist sogar noch komplizierter: Es gibt Studien, die gut oder schlecht sein können, aber wer von uns hat schon Zeit, Muße oder Lust, in die Studien auch nur ansatzweise hineinzusehen? Insofern sind wir dann auch noch darauf angewiesen, dass das jemand anderes für uns tut, die Studie gut versteht und ihre Aussagen für uns treffend zusammenfasst. Aber auch hierbei ist eben Vorsicht geboten. Da es so viele Studien gibt, kann man vielleicht fast immer eine finden, die den eigenen Zwecken dient, und sie entsprechend »zurechtziehen«. Aber wer macht sich schon die Mühe, in die Studie hineinzuschauen. Meine Güte, man hat ja auch och einen Alltag! Aber vielleicht hilft es schon, wenn man bei dem Wort »Studie« nicht sofort das kritische Denken einstellt, sondern - wenn einen etwas sehr wundert oder interessiert - doch mal nachzufragen und ggf. nachzuforschen.
Veränderter Auszug aus: Pflichthofer, Diana: »Die Psychoindustrie« (2024)
McCabe, David P.; Castel, Alan D.: Seeing is Believing. The Effect of Brain Images on Judgments of Scientific Reasoning. In: Cognition, Vol 107, Nr.1, 2008, S. 343-352
Becker, Matthias: Die Grenzen der Forschungsfreiheit. Wie Politik und Wirtschaft die freie Forschung gefährden, 23.05.2019
Nosek (2015): Estimating the Peproducibility of Psychological Science
https://www.science.org/doi/10.1126/science.aac4716
https://www.deutschlandfunkkultur.de/die-grenzen-der-forschungsfreiheit-wie-politik-und-100.html
Bennett, Craig M.; Baird, Abigail A.; Miller, Michael B.; Wolford, George L.: Neural Correlates of Interspecies Perspective Taking in the Post-Mortem Atlantic Salmon.
http://prefrontal.org/files/posters/Bennett-Salmon-2009.pdf