Zum Inhalt springen

Ich publiziere, also bin ich

Spannung zwischen Publikationsdruck und guter Wissenschaft

«Veröffentliche oder gehe unter» ist das aktuell vorherrschende Prinzip bei (Nachwuchs-) Wissenschaftler*innen. «Publiziere so viele Studien wie möglich, am besten mit signifikanten Ergebnissen». Was ist problematisch daran und welche Konsequenzen hat das für die Wissenschaft?

Von Madita Schindler
Lektoriert von Anja Blaser und Jovana Vicanovic
Illustriert von Shaumya Sankar

Möchten junge Wissenschaftler*innen eine Karriere in der Forschung einschlagen, werden aktuell immer noch vorwiegend quantitative Indizes wie die Anzahl der Publikationen in renommierten Fachzeitschriften – sogenannten Journals – verwendet, um die Qualifikation der Bewerbenden zu prüfen (Abele-Brehm & Bühner, 2016). Das bedeutet, dass Wissenschaftler*innen, die sehr viele Artikel in anerkannten Fachzeitschriften publizierten, prinzipiell bessere Chancen auf eine Karriere in der Forschung haben. Als Konsequenz entsteht ein immenser Druck, möglichst viel zu publizieren (Abele-Brehm & Bühner, 2016). Dieser Umstand wird in wissenschaftlichen Kreisen als «publish or perish» bezeichnet – veröffentliche oder gehe unter (Van Dalen, 2021). Die Verwendung der Anzahl der Publikationen im Bewerbungsverfahren wirkt auf den ersten Blick nicht unvernünftig, denn viele Artikel bedeuten viele Forschungsprojekte und somit mehr Qualifikation für eine Karriere in der Forschung. Aber auf den zweiten Blick ergeben sich jedoch Probleme. Um das zu verstehen, ist es wichtig, die Hintergründe zur Veröffentlichung in wissenschaftlichen Fachzeitschriften zu kennen.

«Publikationen sind das Hauptbewertungskriterium wissenschaftlicher Leistung und stellen damit eine wesentliche Bedingung für eine erfolgreiche wissenschaftliche Karriere dar.»

Domes et al., 2018, S. 2

Vom Manuskript zur Publikation

Bevor ein Artikel veröffentlicht wird, muss zunächst ein Manuskript bei der Zeitschrift eingereicht werden (Domes et al., 2018). Dieses Manuskript wird nun von der Redaktion auf inhaltliche Passung zum Journal geprüft. Anschliessend durchläuft es einen sogenannten «Peer Review»: Es wird von zwei bis drei unabhängigen Reviewer*innen (Wissenschaftler*innen, die Spezialist*innen im gleichen Fachbereich sind) bezüglich inhaltlicher Korrektheit, wissenschaftlicher Standards, Erkenntnisgewinn und weiterer Kriterien bewertet. Der Artikel kann ganz abgelehnt werden, oder eventuell werden Verbesserungsvorschläge gegeben und er kann erneut eingereicht werden. Wenn ein Manuskript das Gutachten besteht und von der Redaktion angenommen wird, wird es im Journal veröffentlicht. Dieser Prozess des Peer Reviews kann oftmals bis zu einem Jahr dauern. Eine solche Qualitätsprüfung ist angesichts des hohen wissenschaftlichen Standards absolut notwendig (Domes et al., 2018).

Dennoch gibt es hier ein Problem: De facto werden signifikante Studienergebnisse, welche eine vorher aufgestellte Hypothese bestätigen, wahrscheinlicher publiziert als nicht signifikante (François et al., 2020). Aus wissenschaftlicher Sicht ist die Veröffentlichung von negativen, also nicht signifikanten Ergebnissen ebenso wichtig wie die von positiven. Insgesamt ist aber die Mehrheit der veröffentlichten Befunde positiv, obwohl die meisten Studien wegen zu kleiner Stichprobengrössen gar nicht signifikant werden dürften (François et al., 2020).

«On one hand, the overwhelming majority of published findings are statistically significant […]. On the other hand the overwhelming majority of published studies are underpowered and, thus, theoretically unlikely to obtain results that are statistically significant.»

Nelson et al., 2018, S. 514

Ein enormer Druck

Es existiert unter Wissenschaftler*innen also ein enormer Druck zu publizieren, wobei signifikante Ergebnisse bessere Chancen auf ein positives Gutachten haben, da Herausgeber*innen von Journals ungern Nulleffekte publizieren (Krammer & Svecnik, 2020). Dieser Umstand hat – abgesehen vom psychischen Druck für die Forschenden – auch negative Auswirkungen auf wissenschaftliche Qualitätsstandards und die Forschungspraxis.

Auswirkungen auf die Wissenschaft

Eine Folge ist, dass der Anreiz für innovative Fragestellungen und Hypothesen gering ist (Hanitzsch, 2016). Einige Forschende wollen mit geringstmöglichem Aufwand eine maximale Anzahl von Publikationen erreichen. «Revolutionäre» Ideen sind aufwendiger zu erforschen und die Ergebnisse sind weniger wahrscheinlich signifikant als die von Folgestudien ohne viel Erkenntnisgewinn zu bereits gut erforschten Fragestellungen (Hanitzsch, 2016). Deshalb werden oft unoriginelle, aber aufgrund der guten methodischen Umsetzung «publishable» Manuskripte eingereicht. Die Folge ist laut Hanitzsch (2016) dann «Normalwissenschaft und konzeptionelle Stagnation».

Des Weiteren gibt es einen – nicht ganz eindeutigen – Zusammenhang zwischen Publikationsdruck und der bewussten oder unbewussten Verwendung fragwürdiger Forschungspraktiken (François et al., 2020). Solche Methoden umfassen unter anderem «p-Hacking» (nachträgliche Anpassung der Testparameter, um den p-Wert künstlich unter die 5 Prozent Grenze zu drücken und ein signifikantes Ergebnis zu erhalten) und «HARKing» (Hypothesising after the results are known, also eine Hypothese erst aufzustellen, nachdem die Ergebnisse bekannt sind). Diese Methoden sind nach wissenschaftlichen Standards nicht erlaubt, allerdings unter Umständen schwer nachzuverfolgen. Ihre Verwendung hat negative Auswirkungen auf die Gesamtdatenlage und auf die Qualität von Wissenschaft allgemein (François et al., 2020).

Welche Massnahmen sollten ergriffen werden, um das Spannungsfeld zu reduzieren?

Was kann nun getan werden, um die Spannung zwischen Publikationsdruck und wissenschaftlicher Qualitätssicherung aufzulockern? Nach Frey und Osterloh (2014) muss das Problem auf institutioneller Ebene angegangen werden. Ein Vorschlag, um den Publikationsdruck zu verringern, kommt von Abele-Brehm und Bühner (2016): Statt quantitative Indizes könnten beispielsweise in Berufungsverfahren die wichtigsten drei Publikationen der letzten fünf Jahre, ausgewählt durch den*die Bewerber*in, herangezogen werden, welche dann in der Berufungskommission diskutiert werden. So wird der Fokus mehr auf die Qualität der Studien und weniger auf die blosse Anzahl der Publikationen gelegt (Abele-Brehm & Bühner, 2016). Der aktuelle Trend geht bereits in diese Richtung: An der Ludwig-Maximilians-Universität München wurde zum Beispiel die Anzahl erforderlicher Publikationen für eine kumulative Promotion auf zwei Artikel festgelegt (Schönbrodt & Scheel, 2017).

Ein weiterer Ansatzpunkt ist die Open Science Bewegung. Open Science bezeichnet eine Wissenschaftspraxis, die auf transparentes, zugängliches Wissen setzt und bei der alle Wissenschaftler*innen, Studierende oder Interessierte – sprich die Öffentlichkeit – Zugriff auf Forschungsdaten haben (Schönbrodt & Scheel, 2017). Zur Würdigung gibt es hier die Möglichkeit, Studien mit Open Science Badges zu kennzeichnen (Schönbrodt & Scheel, 2017).

Peer Review

Reviewer*innen sind Wissenschaftler*innen, die Spezialist*innen im gleichen Fachbereich sind wie die Autor*innen des Papers (Domes et al., 2018). Es werden üblicherweise mindestens zwei Reviewer*innen durch das Editorial Office des Journals ausgewählt. Sie arbeiten unentgeltlich und haben in der Regel zwei bis sechs Wochen Zeit, das Manuskript zu überprüfen und unabhängige Gutachten mit konkreten Verbesserungsvorschlägen zu verfassen. Reviewer*innen haben einen grossen Einfluss auf die Veröffentlichung des Artikels, da sich der*die Redakteur*in oft an ihre Empfehlung hält (Domes et al., 2018).

Eine zentrale Praktik von Open Science ist die sogenannte Präregistrierung von Studien (Krammer & Svecnik, 2020). Dabei werden vor der Durchführung der Studie die Hypothesen, Methoden und Analyseverfahren öffentlich festgelegt, sodass nachträgliche Änderungen nachvollziehbar werden. Dadurch wird beispielsweise die Verwendung von p-Hacking und HARKing erschwert. Eine Präregistrierung könnte nach Krammer und Svecnik (2020) nicht nur von den Forschenden selbst durchgeführt, sondern auch von Journals in den Peer Review-Prozess eingebunden werden. Ein vorläufiges Manuskript würde hier nach Planung der Studie und vor der eigentlichen Durchführung eingereicht. Wenn das Manuskript vorläufig angenommen wird, kann die Studie theoretisch unabhängig von den Ergebnissen veröffentlicht werden. Sogenannte Registered Reports würden es ermöglichen, auch nicht signifikante Studien leichter zu publizieren (Krammer & Svecnik, 2020).

Ein weiteres Kernelement ist Open Data: Die Offenlegung von (Roh-)Daten unter Wahrung des Datenschutzes (Krammer & Svecnik, 2020). So können alle Auswertungsschritte besser nachvollzogen und überprüft werden (Krammer & Svecnik, 2020). Beispiele für Open Data-Plattformen für psychologische Forschung sind PsychData oder Data.World – Psychology.

Fazit

Das Problem «publish or perish» wird in wissenschaftlichen Kreisen seit mehreren Jahren diskutiert. In Bezug auf die optimale Strategie und die Verantwortung der beteiligten Parteien gibt es teilweise Uneinigkeiten. Worüber aber übereingestimmt wird, ist, dass aktuell ein Spannungsfeld besteht, welches es aufzulösen gilt.


Zum Weiterlesen

Conradi, F. (2021). Publish or perish: Publikationsdruck gefährdet die wissenschaftliche Forschung. Berliner Zeitung. https://www.berliner-zeitung.de/wochenende/publish-or-perish-viele-publikationen-richten-mehr-schaden-als-nutzen-an-li.160022

Schrum, A., & von Aster, E. (2021). Publish or perish – Publizieren in der Wissenschaft. SWR2. https://www.swr.de/swr2/wissen/publish-or-perish-publizieren-in-der-wissenschaft-swr2-wissen-2021-02-06-100.html

Waaijer, C. J., Teelken, C., Wouters, P. F., & van der Weijden, I. C. (2018). Competition in science: Links between publication pressure, grant pressure and the academic job market. Higher Education Policy, 31(2), 225–243. doi: 10.1057/s41307-017-0051-y

Literatur

Abele-Brehm, A. E., & Bühner, M. (2016). Überlegungen zur Optimierung von Berufungsverfahren in der Psychologie. Psychologische Rundschau, 67 (4), 262–275. https://doi.org/10.1026/0033-3042/a000333

Conradi, F. (2021). Publish or Perish: Publikationsdruck gefährdet die wissenschaftliche Forschung. Berliner Zeitung. https://www.berliner-zeitung.de/wochenende/publish-or-perish-viele-publikationen-richten-mehr-schaden-als-nutzen-an-li.160022

Domes, G., Ditzen, B., & Bart, J. (2018). Wissenschaftliches Publizieren in der Psychologie. Springer. https://doi.org/10.1007/978-3-662-56683-1_

François, K., Coessens, K., Vinckier, N., & Van Bendege, J. P. (2020). Regulating Academic Pressure: From Fast to Slow. Journal of Philosophy of Education, 54 (5), 1419–1442. https://doi.org/10.1111/1467-9752.12493

Frey, B. S., & Osterloh, M. (2014). Schlechte Behandlung des wissenschaftlichen Nachwuchses und wie man das ändern könnte. Ökonomenstimme. Verfügbar unter: http://oekonomenstimme.org/a/757

Hanitzsch, T. (2016). Impact und Normalwissenschaft – Die Fachzeitschrift als Treiber einer neuen Wissenschaftskultur. Publizistik, 61, 41–50. https://doi.org//10.1007/s11616-015-0250-8

Krammer, G., & Svecnik, E. (2020). Open Science als Beitrag zur Qualität in der Bildungsforschung. Zeitschrift für Bildungsforschung, 10, 263–278. https://doi.org/10.1007/s35834-020-00286-z

Nelson, L. D., Simmons, J., & Simonsohn, U. (2018). Psychology´s Renaissance. Annual Review of Psychology, 69, 511–534. https://doi.org/10.1146/annurev-psych-122216-011836

Schönbrodt, F. D., & Scheel, A. (2017). FAQ zu Open Data und Open Science in der Sportpsychologie. Zeitschrift für Sportpsychologie, 24 (4), 134–139. https://doi.org/10.1026/1612-5010/a000217

Schrum, A., & Von Aster, E. (2021). Publish or perish – Publizieren in der Wissenschaft. SWR2. https://www.swr.de/swr2/wissen/publish-or-perish-publizieren-in-der-wissenschaft-swr2-wissen-2021-02-06-100.html

Van Dalen, H. P. (2021). How the publish-or-perish principle divides a science: the case of economists. Scientometrics, 126, 1675–1694. https://doi.org/10.1007/s11192-020-03786-x

Waaijer, C. J., Teelken, C., Wouters, P. F., & van der Weijden, I. C. (2018). Competition in science: Links between publication pressure, grant pressure and the academic job market. Higher education policy, 31(2), 225–243. https://doi.org/10.1057/s41307-017-0051-y

Waaijer, C. J., Teelken, C., Wouters, P. F., & van der Weijden, I. C. (2018). Competition in science: Links between publication pressure, grant pressure and the academic job market. Higher education policy, 31(2), 225–243. https://doi.org/10.1057/s41307-017-0051-y

Bisher keine Kommentare

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit deinem WordPress.com-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

%d Bloggern gefällt das: