Informationspraxis mitgestalten?
Hier steht, wie's geht!
DOI: https://doi.org/10.11588/ip.2020.2.74406
Peer-Review im Rampenlicht: Ein prominentes Fallbeispiel
Zusammenfassung
Durch die Coronavirus-Pandemie im Jahr 2020 sind nicht nur wissenschaftliche Erkenntnisse, sondern auch deren Begutachtungen in das öffentliche Rampenlicht gerückt. Insbesondere das Preprint der Arbeitsgruppe um Christian Drosten und die öffentlichen Gutachten dazu haben viel Aufmerksamkeit erhalten. Dieses spezielle Open Peer-Review-Verfahren wird analysiert, um in der Diskussion um die Zukunft interner Wissenschaftskommunikation als praktisches Fallbeispiel zu dienen. Es zeigt sich, dass ein solches Verfahren auch völlig frei von einer sammelnden oder koordinierenden Stelle erfolgreich und bereichernd ablaufen kann. Nichtsdestotrotz müssen solche Prozesse künftig zumindest infrastrukturell besser organisiert sein.
Schlüsselwörter
Peer-Review, Open Peer-Review, Interne Wissenschaftskommunikation, Preprint, Open Science
Peer review in the spotlight: A prominent case study
Abstract
The coronavirus pandemic in 2020 has brought not only scientific findings but also their assessments into the public spotlight. In particular, the preprint of the working group around Christian Drosten and the public reviews on it have received a lot of attention. This particular open peer review process is being analysed to serve as a practical case study in the discussion on the future of scholarly communication. It turns out that such a process can be successful and enriching even without a collecting or coordinating authority. Nevertheless, such processes must be better organized in the future, at least in infrastructural terms.
Keywords
Peer Review, Open Peer Review, Scholarly Communication, Preprint, Open Science
Veröffentlichung: 28.09.2020 in Informationspraxis Bd. 6, Nr. 2 (2020)
Inhaltsverzeichnis
1 Einleitung
Die Coronavirus-Pandemie hat Einfluss auf uns alle und die Gesellschaft als Ganzes. Sie verändert unser Miteinander im Privaten und Beruflichen, aber auch unsere Sichtweisen und Wahrnehmungsbereiche. Dazu gehört unter anderem auch, dass Wissenschaft deutlich mehr in den gesellschaftlichen Fokus gerückt ist. Das gilt nicht nur inhaltlich, also konkret die Pandemie betreffend, sondern auch was das wissenschaftliche Arbeiten und die wissenschaftliche Praxis angeht. Nicht zuletzt dank des Podcasts “Coronavirus-Update” (https://www.ndr.de/corona-update) mit Christian Drosten, dem Leiter der Virologie in der Berliner Charité zur Zeit der COVID-19-Pandemie, ist nun auch weit über die akademische Welt hinaus bekannt, was ein Preprint und was Peer-Review ist. Bonfadelli schrieb schon 2017:
“Die Grenzen zwischen den vormals getrennten wissenschaftlichen und gesellschaftlichen Öffentlichkeiten […] verschwimmen in diesen neuen Foren der Wissenschaftskommunikation.” (Bonfadelli, 2017, S. 4)
Die Inhalte selbst und auch die Begriffe und Prozesse der internen Wissenschaftskommunikation1 rücken immer mehr ins Rampenlicht. Es sind also nicht mehr nur die Forschungsergebnisse selbst im Fokus, sondern auch die Wege dorthin. Die bekanntesten und prägendsten Beispiele der letzten Monate in diesem Kontext sind die zwei fest mit den Namen Streeck und Drosten verbundenen Preprints (Streeck et al., 2020, Jones et al., 2020, P1). Mit dem erstgenannten Preprint von Streeck und den Lessons Learned daraus beschäftigen sich Breznau et al. (2020). In dieser Arbeit wird das zweitgenannte Preprint von der Arbeitsgruppe um Drosten als Fallbeispiel herangezogen und genauer betrachtet. Dabei geht es jedoch explizit nicht um die mediale Verarbeitung und Darstellung, sondern um die internen Wissenschaftskommunikationspraktiken, die auch extern ihre Wirkung entfalteten. Dafür wird zunächst das Preprint mit seinen Rahmenbedingungen näher betrachtet, bevor auf die dazugehörenden Gutachten, die als Open Peer-Reviews erschienen sind, eingegangen wird. Die Fragestellungen dabei sind: Wie lief der Peer-Review-Prozess im Fallbeispiel genau ab und welche Fragen und Herausforderungen leiten sich daraus für die interne Wissenschaftskommunikation ab?
Vor dem Einstieg in das Fallbeispiel werden im Folgenden die wichtigsten verwendeten Begriffe und Abläufe in aller Kürze dargelegt. Abbildung 1 zeigt den klassischen Weg einer Publikation vom Beginn des Schreibens (oben) bis hin zur fertigen Publikation in einer Fachzeitschrift (unten), wie er nicht nur in der Medizin, sondern unter anderen auch in MINT-Fachgebieten durchlaufen wird. MINT steht für Mathematik, Informatik, Naturwissenschaft und Technik. Hier wird ein Manuskript verfasst und in mehreren Runden informellem Feedback immer wieder zu einem neuen Entwurf überarbeitet. In diesen Stadien spricht man von Arbeitspapier (Working Paper), Entwurf (Draft) oder Diskussionspapier (Discussion Paper). Die Feedbackrunden können innerhalb einer Arbeitsgruppe oder, durch gezieltes Teilen mit externen Fachkolleg*innen, sogenannten Peers, auch im erweiterten Kreis stattfinden.
Der Entwurf, der erstmals bei einem Verlag eingereicht wird, wird Preprint genannt. Das passiert in vielen Fällen nicht öffentlich nachverfolgbar. Das Preprint wird beim Verlag dann einem Peer-Review-Verfahren, genauer gesagt einem Pre-Publication Peer-Review-Verfahren, unterzogen, das heißt, die Begutachtung des Manuskripts ist dessen Veröffentlichung vorgelagert. Von der*dem Herausgeber*in angefragte Fachkolleg*innen fungieren dabei als Gutachter*innen, lesen und bewerten das Manuskript aus fachlicher Perspektive, erstellen jeweils ein Gutachten (Peer-Review) und geben eine Empfehlung an den*die Herausgeber*in, auf deren Basis diese*r eine Gesamtentscheidung trifft. Übliche Empfehlungsoptionen sind: “akzeptieren wie vorgelegt”, “akzeptieren mit kleinen Überarbeitungen”, “akzeptieren mit weitreichenden Überarbeitungen” und “ablehnen” (Mittermaier, 2020, Starck, 2018, S. 22-25). Mehrere Runden Peer-Review beim Verlag sind genauso möglich wie mehrere Runden informelles Feedback vor der Einreichung.2 Peer-Review soll, so der Grundgedanke, die wissenschaftliche Qualität des veröffentlichten Manuskripts sicherstellen (Mittermaier, 2020).
Die Version des Manuskripts, die der Verlag zur Veröffentlichung annimmt, wird Postprint genannt. Sie ist inhaltlich identisch mit der späteren finalen Veröffentlichung des Manuskripts beim Verlag, der sogenannten Verlagsversion.
Einer der Kritikpunkte am Peer-Review-Verfahren ist, dass dieses sehr viel Zeit in Anspruch nehmen kann und so die Verbreitung neuer Erkenntnisse verzögert (Mittermaier, 2020). In der Medizin dauert es im Mittel 12 Wochen und bei 8% der Manuskripte ist das Verfahren auch nach 6 Monaten noch nicht abgeschlossen (Huisman & Smith, 2017, Tabelle 2). Bereits in 12 Wochen kann jedoch viel passieren, insbesondere in einer brisanten Situation wie der Coronavirus-Pandemie. Der Mehrwert von Vorveröffentlichungen aktueller Ergebnisse wird hier besonders deutlich. Die SARS-Epidemie in 2003 hatte beispielsweise schon geendet, bevor 93% der relevanten Manuskripte dazu in Zeitschriften erschienen waren (Peiperl, 2018, Xing et al., 2010). Manche stellen sogar die Frage, ob Peer-Review unter solchen Bedingungen überhaupt noch eine Rolle spielt (Packer, 2020).3 In einigen Fachgebieten wird das Preprint vor der oder zeitgleich zur Einreichung bei einer Fachzeitschrift auf einem sogenannten Preprint-Server veröffentlicht, um dessen Inhalt zeitnah und ohne die zeitlich Verzögerung durch das Peer-Review-Verfahren frei zugänglich zu machen (Hoy, 2020). Man spricht von einer Vorveröffentlichung, da der Begriff Veröffentlichung in der internen Wissenschaftskommunikation bisher nicht mit “öffentlich machen”, sondern mit “peer-reviewt” gleichgesetzt wird (Tennant et al., 2017). Neben der schnellen Verbreitung wird damit ermöglicht schon vor dem verlagsgebundenen Peer-Review iterativ Feedback von Peers zu erhalten und das Manuskript vor der Einreichung zu verbessern. Als Folge gibt es vielleicht nicht nur ein einzelnes Preprint, sondern viele Versionen davon (Hoy, 2020). Ross-Hellhauer (2019) verwendet deshalb den Begriff Pre-Review-Manuskripte. Mit diesem Begriff ließe sich die bei einem Verlag eingereichte Version (Preprint) sprachlich von den anderen Versionen, also den anderen Pre-Review-Manuskripten abheben.
Die Dauer ist bei Weitem nicht der einzige Kritikpunkt am Peer-Review-Verfahren, allerdings gibt es auch nicht nur das eine Verfahren und die Kritikpunkte variieren teilweise (Mittermaier, 2020, Starck, 2018, S. 39-42). Am verbreitetsten sind 1) das Single-Blind Peer-Review-Verfahren, bei dem die Autor*innen die Gutachter*innen nicht kennen, 2) das Double-Blind Peer-Review-Verfahren, bei dem Autor*innen und Gutachter*innen sich gegenseitig nicht kennen, und 3) das Open Peer-Review-Verfahren (Mittermaier, 2020, Starck, 2018, S. 43-49). Für letzteres gibt es keine allgemeingültige Definition, sondern es ist als Überbegriff für verschiedene Aspekte eines offenen Peer-Review-Verfahrens zu verstehen. Dazu können unter anderem die Offenlegung der Autor*innen und Gutachter*innen im Prozess, die Veröffentlichung der Peer-Reviews als sogenannte Open Peer-Reviews und das bereits angesprochene Teilen von Preprints zählen (Ross-Hellhauer, 2019).
Bei Open Peer-Review-Verfahren bei Verlagen wird in der Regel für eine gewisse Struktur Sorge getragen, das kann die Einladung von Gutachter*innen oder die zentrale Sammlung, Verknüpfung und Veröffentlichung der Open Peer-Reviews sein. Als Beispiele dafür seien hier der Verlag Copernicus (https://publications.copernicus.org), die Fachzeitschrift Informationspraxis (https://journals.ub.uni-heidelberg.de/index.php/ip) und die Publikationsplattform F1000Research (https://f1000research.com) genannt. Es gibt jedoch auch dezentrale Ansätze zur Bündelung von Open Peer-Reviews, wie zum Beispiel PubPeer (https://pubpeer.com), PREreview (https://prereview.org) und ScienceOpen (https://www.scienceopen.com). Einige Preprint-Server, wie medRχiv (https://medrxiv.org), bieten selbst zumindest eine Kommentarfunktion an, über die kürzeres Feedback gegeben und zentral gebündelt werden kann.
2 Ein Fallbeispiel
Nach diesem allgemeinen Abriss über Peer-Review soll als konkretes Fallbeispiel das Preprint von der Arbeitsgruppe um Christian Drosten betrachtet werden, die sich für den Weg der Vorveröffentlichung des Manuskripts als Preprint entschieden haben. Dieses und dessen Open Peer-Reviews stehen im Fokus dieses Abschnitts. Die dazugehörigen Daten wurden dabei in einer Excel-Tabelle festgehalten, werden hier teilweise präsentiert und können bei Zenodo (https://doi.org/10.5281/zenodo.3949571) vollständig abgerufen werden.
2.1 Das Preprint
Das Preprint, das den Titel “An analysis of SARS-CoV-2 viral load by patient age” trägt, wurde am 29.04.2020 auf einer Webseite der Charité vorveröffentlicht und über die sozialen Medien, unter anderem von Drosten selbst, verbreitet. Die freie Verfügbarkeit des Preprints ermöglichte es nun anderen Wissenschaftler*innen dieses zu lesen und einem Open Peer-Review zu unterziehen. Das hohe mediale Interesse rückte diesen Prozess ins öffentliche Rampenlicht.
Das Preprint wurde weder gleichzeitig bei einem Verlag eingereicht, also auch nicht bei einem Verlag mit Open Peer-Review-Verfahren vorveröffentlicht, noch erfolgte die Vorveröffentlichung auf einem dedizierten Preprint-Server. Das Preprint erschien stattdessen auf einer Webseite der Berliner Charité. Drosten spricht die offensichtlichste daraus resultierende Konsequenz selbst an, die fehlende persistente Zitierbarkeit, und sagt im Podcast dazu:
“Ich habe eigentlich etwas gemacht, dass auch andere Arbeitsgruppen durchaus so machen, einfach ein Preprint auf die eigene Homepage stellen, bevor man ihn einreicht. Das ist in Ordnung. Damit erreicht man dasselbe – die Wertigkeit des Preprints ist exakt das Gleiche, hat nur Nachteile für denjenigen, der das macht: Man kriegt keine COI-Nummer [sic!]. Das heißt, ein Preprint auf dem Preprint-Server ist formal wissenschaftlich zitierbar, ein Preprint auf einer Homepage ist eher nicht so leicht zitierbar.” (Hennig & Drosten, 04.06.2020, Seite 9)
Darüber hinaus können sich noch andere Nachteile ergeben, wie geringere Auffindbarkeit und somit Sichtbarkeit, z.B. durch eine fehlende Indexierung in wissenschaftlichen Suchmaschinen. Wobei sich die Autor*innen dieses spezielle Preprints nicht über fehlende Sichtbarkeit beschweren können. Insgesamt gibt es vier Versionen des Preprints. Diese sind in Tabelle 1 aufgelistet. Sie wurden zu verschiedenen Daten und an verschiedenen Orten veröffentlicht und die Liste der Autor*innen variiert.
Autor*innen | Datum der Veröffentlichung | Plattform | |
---|---|---|---|
P1 | Terry C. Jones, Barbara Mühlemann, Talitha Veith, Marta Zuchowski, Jörg Hofmann, Angela Stein, Anke Edelmann, Victor Max Corman, Christian Drosten | 29.04.2020 | zoonosen.charite.de |
P2 | Terry C. Jones, Barbara Mühlemann, Talitha Veith, Marta Zuchowski, Jörg Hofmann, Angela Stein, Anke Edelmann, Victor Max Corman, Christian Drosten | 30.04.2020 | virologie-ccm.charite.de |
P3 | Terry C. Jones, Barbara Mühlemann, Talitha Veith, Guido Biele, Marta Zuchowski, Jörg Hofmann, Angela Stein, Anke Edelmann, Victor Max Corman, Christian Drosten | 02.06.2020 | virologie-ccm.charite.de |
P4 | Terry C. Jones, Barbara Mühlemann, Talitha Veith, Guido Biele, Marta Zuchowski, Jörg Hofmann, Angela Stein, Anke Edelmann, Victor Max Corman, Christian Drosten | 09.06.2020 | medrxiv.org |
P1 ist das ursprüngliche Preprint, welches am 29.04.2020 auf einer Webseite der Charité veröffentlicht und zur Grundlage der Open Peer-Reviews wurde. P2 erschien schon einen Tag danach auf einer anderen Webseite der Charité und enthält, laut Vermerk im Preprint selbst, kleinere Updates. P3 und P4 sind inhaltlich identisch und die überarbeitete Version aufgrund der Open Peer-Reviews, welche im Folgendem diskutiert werden. Mit Biele ist in diesen Versionen ein neuer Autor hinzugekommen. Während P3 gut einen Monat (34 Tage) nach P1 auf derselben Webseite der Charité wie P2 veröffentlicht wurde, erschien P4 eine weitere Woche später auf dem dedizierten Preprint-Server medRχiv und hat somit als einzige der Versionen einen persistenten Identifikator.
2.2 Die Open Peer-Reviews
Die von Drosten angesprochenen Konsequenzen einer Vorveröffentlichung auf einer Webseite können beim hier betrachteten Preprint um einen weiteren Punkt erweitert werden: die Problematik des Auffindens der dazu verfassten Open Peer-Reviews. Diese verteilen sich über verschiedene Webseiten und Preprint-Server und sind bei Recherchen nur schwer auffindbar. Dafür gibt es verschiedene Gründe. Da das Preprint auf einer Webseite ohne Kommentarfunktion und ohne Funktionalität für den Upload von Peer-Reviews, egal ob Open oder Closed, bereitgestellt wurde, gab es keine dedizierte Sammelstelle für diese. Die breite mediale und öffentliche Aufmerksamkeit, die das Preprint genoss, machte die Suchergebnisse einer Phrasensuche nach dem Titel in Google unübersichtlich, da diese dadurch hauptsächlich von journalistischen Inhalten geprägt sind. Durch die Abwesenheit eines persistenten Identifikators muss mit einer Phrasensuche nach dem Titel gearbeitet werden. Dies hätte die Suchergebnisse in Google reduzieren können, da journalistische Inhalte (leider) eher selten persistente Identifikatoren wissenschaftlicher Artikel beinhalten. Auch eine Recherche in Google Scholar gestaltete sich schwierig, da sich dort Reviews nicht von anderen Artikeln unterscheiden lassen, die das Preprint lediglich zitieren. Bereits am 12.07.2020 zählte Google Scholar ganze 43 Zitate.
Zur Identifikation der Open Peer-Reviews wurde daher in dieser Recherche an drei Stellen angesetzt: 1) Das bekannteste Open Peer-Review von McConway & Spiegelhalter (2020, R1) zitiert seinerseits vier weitere Open Peer-Reviews. 2) Drosten twitterte am 25.05.2020 eine Anfrage der Bild, die vier kritische Stimmen zum Preprint zitierte. 3) Phrasensuchen nach dem Titel des Preprints in Google Scholar, die zwischen dem 25.06.2020 und dem 12.07.2020 durchgeführt wurden. Beim letzten Ansatz wurden reine Zitate des Preprints direkt ausgeschlossen. Um sich als Peer-Review zu qualifizieren, musste eine explizite Auseinandersetzung und Bewertung der Herangehensweisen und Methoden des Preprints erkennbar sein und der Fokus des Artikels auch darauf liegen. Die Ergebnisse dieser drei Ansätze sind in den Tabellen 2 und 3 aufgeführt.
Titel | Gutachter*innen mit Affiliationen | Fachdisziplinen der Gutach-ter*innen | ||
---|---|---|---|---|
R1 | Is SARS-CoV-2 viral load lower in young children than adults? Jones et al provide evidence that it is (in spite of their claims to the contrary). | Kevin McConway; David Spiegelhalter (The Open University; University of Cambridge) | Angewandte Statistik | |
R2 | A discussion and reanalysis of the results reported in Jones et al. (2020) | Leonhard Held (University of Zurich) | Biostatistik | |
R3 | R3v1 - R3v7 | Open Review Report of Jones et al. (2020) | Dominik Liebl (Universität Bonn) | Statistik |
R4 | R4v1 - R4v2 | A Critical Assessment of Some Recent Work on COVID-19 | Jörg Stoye (Cornell University) | Wirtschafts-wissenschaft |
R5 | Children Have Lower SARS-CoV-2 Viral Loads Than Adults | David Curtis (University College London) | Psychiatrische und statistische Genetik | |
R6 | Generating Evidence in the Age of COVID-19: Transmission of SARS-CoV-2 by Children | Jay Kaufman; Jeremy Labrecque; Joanna Merckx (McGill University; Erasmus Medical Center) | Epidemiologie |
Diese Liste aus insgesamt sechs Open Peer-Reviews zu P1, und stellenweise P2, hat keinen Anspruch auf Vollständigkeit und kann diesen aufgrund der angesprochenen Problematik auch nicht haben. Zudem wird in dieser Arbeit keine inhaltliche Untersuchung und Bewertung, weder der verschiedenen Versionen des Preprints noch der Open Peer-Reviews, vorgenommen. Der Fokus liegt vielmehr auf den Verknüpfungen, dem Ablauf, dem Vorgehen, den Parametern und den Gutachter*innen. Entsprechend sind die sechs Open Peer-Reviews mit einigen Rahmendaten aufgeführt. Neben dem Titel, den Gutachter*innen samt ihren Affiliationen und Fachdisziplinen, dem persistenten Identifikator, wenn vorhanden, und dem Datum der Veröffentlichung, wird auch die Anzahl der Tage zwischen der Veröffentlichung von P1 und der ersten Veröffentlichung des jeweiligen Open Peer-Reviews dargestellt.
Bei den Gutachter*innen und ihren Fachdisziplinen fällt besonders auf, dass R4 von einem fachfremden Wissenschaftler verfasst wurde. Es ist fraglich, ob ein Wirtschaftswissenschaftler bei einem verlagsgebundenen Peer-Review-Verfahren als Gutachter für eine virologische Arbeit angefragt worden wäre. Der Begriff des Peers hat sich hier also, gefördert durch die breite Aufmerksamkeit, über die fachlichen Grenzen hinweg erweitert. Was die Publikationsorte betrifft, wurden, bis auf R1, alle Open Peer-Reviews auf Preprint-Servern veröffentlicht, jedoch haben nur R4, R5 und R6 einen persistenten Identifikator.
Datum der Veröffentlichung | Tage seit P1 | Identifikator | Plattform | Preprint | |
---|---|---|---|---|---|
R1 | 25.05.2020 | 26 | medium.com | P1/P2 | |
R2 | 06.05.2020 | 7 | osf.io | P1 | |
R3 | 22.05.2020 | 23 | osf.io | P1 | |
R4 | 21.05.2020 | 22 | arXiv-ID | arxiv.org | P1/P2 |
R5 | 23.05.2020 | 24 | DOI | perprints.org | P1 |
R6 | 28.05.2020 | 29 | DOI | osf.io | P1 |
Bei klassischen Peer-Review-Verfahren in Verlagen ist die Länge der Zeitspanne zwischen der Einreichung und der Veröffentlichung von großem Interesse für Autor*innen, aber auch für die Wissenschaft als Ganzes. Ist sie zu kurz, kann ein inhaltlich tiefgreifendes Peer-Review in Frage gestellt werden, ist sie zu lang, hält das die Verbreitung neuer wissenschaftlicher Erkenntnisse auf und gefährdet zudem die Chance der Autor*innen diese als erstes zu präsentieren (Heesen & Bright, 2020).
Die Zeitspanne zwischen der Veröffentlichung des Preprints P1 und dem Erscheinen der Open Peer-Reviews lässt sich am ehesten mit der Zeitspanne zwischen der Einreichung beim Verlag und der ersten Entscheidung vergleichen, also der Dauer des ersten Peer-Reviews. Huisman & Smith (2017) finden dafür einen gemittelten Wert von 8 Wochen in der Medizin, wobei in 28% der Fälle bereits innerhalb eines Monats eine erste Antwort erfolgt (Huisman & Smith, 2017, Tabelle 1). Die hier dargestellten Open Peer-Reviews wurden alle innerhalb von einem Monat verfasst und veröffentlicht, wie Abbildung 2 illustriert. Diese konsistente Schnelligkeit ist sicher auch der Brisanz des Themas geschuldet, hatte aber, laut Drosten, keinen negativen Einfluss auf deren Qualität.4
Eine weitere Beobachtung kann man bei den Interaktionen und Verknüpfungen zwischen den verschiedenen Open Peer-Reviews machen. Dafür bedarf es eines genaueren Blicks in deren Versionen und Inhalte. Von R3, dem Review von Liebl, gibt es aktuell sieben Versionen. Am 22.05.2020 wurde die erste Version R3v1 veröffentlicht, die siebte R3v7 folgte am 28.05.2020, also sechs Tage später. Hervorgehoben sei an dieser Stelle die Version R3v3, die am 24.05.2020 erschien und erstmals auf die Reviews R2 und R4 verwies. Auch von R4, dem Review von Stoye, gibt es mehr als eine Version. R4v1 wurde am 21.05.2020 veröffentlicht und am 28.05.2020, also sieben Tage später, folgte R4v2. Offenbar wurde R4v1 von Liebl, dem Autor von R3, kommentiert und so verbessert, was in R4v2 mündete, in dem Liebl für seinen Hinweis gedankt wird. Neue Fußnote 4 aus R4v2 von Stoye (2020, R4): “I thank Dominik Liebl for alerting me to the parametric nature of their tests. Liebl (2020) also reports further inconsistencies in the analysis.” Es bildete sich quasi eine Dynamik unter den Gutachter*innen, die in R1, welches R2, R3, R4 und R5 zitiert, gipfelte und dort auch den Bereich der Preprint-Server verließ.
Wie genau Liebl seinen Kommentar zu R4 vorgebracht hat und was dieser enthielt, war nicht recherchierbar. Hier zeigt sich eine Problematik, die sich auch auf das Peer-Review von P1 erstreckt. Abseits der in Tabelle 2 gelisteten Open Peer-Reviews gab es weitere Kommentare, Feedback und Peer-Reviews, die entweder, wie oben bereits angesprochen, nicht recherchierbar waren oder nicht öffentlich stattfanden, also zum Beispiel als E-Mail direkt an die Autor*innen gingen. Der in P3 neu hinzugekommene Autor Biele hat sich beispielsweise offenbar direkt mit seinen Kommentaren zu P1 an die Autor*innen gewandt, die diese fundiert fanden und ihn baten Co-Autor zu werden.5 Ein Vorgang, der in einem klassischen Closed Peer-Review-Verfahren so nicht hätte passieren können.
Im Gegensatz zu klassischen Peer-Reviews, die der Zulassung zur Veröffentlichung in einer Fachzeitschrift dienen, benannten die hier vorgestellten Open Peer-Reviews zwar klar die Probleme und Schwächen des Preprints, gaben am Ende aber keine Gesamtbeurteilung, wie “ablehnen” oder “akzeptieren mit weitreichenden Überarbeitungen”. Am deutlichsten wird jedoch R1 und empfiehlt das Preprint zu depublizieren.
Zusammenfassend lässt sich sagen, dass der geführte Diskurs an sich, im Gegensatz zu einigen medialen Darstellungen, durchaus der gängigen wissenschaftlichen Praxis des Peer-Reviews folgte,6 es allerdings auch davon abweichende Komponenten gab. Zu letzteren zählt bereits die simple Tatsache, dass es mindestens sechs Open Peer-Reviews und einen fundierten direkten Kommentar gab. Üblich sind hingegen ein bis drei Peer-Reviews. Des Weiteren waren die Open Peer-Reviews nicht anonym und hatten eher den Charakter eigener Manuskripte und Preprints, in Bezug auf deren Struktur und Aufbau7 und die Veröffentlichungsorte.8
Im Gegensatz zu verlagsgebundenen Open Peer-Reviews, waren die hier betrachteten Gutachten verteilt publiziert, nicht einfach recherchierbar und auch nicht an einer Stelle zusammen gesammelt. Hier kann man sich die Frage stellen, wie Open ein Open Peer-Review ist, wenn er nicht unmittelbar auffindbar und mit dem Preprint verknüpft ist.
Des Weiteren gab es auch direkt an die Autor*innen gerichtete Kommentare und Feedback. Im klassischen Closed Peer-Review nicht vorstellbar, bei Open Peer-Review durchaus. Das ist einerseits eine Öffnung, auch was das informelle Feedback angeht, andererseits aber auch eine Schließung, da diese direkte Kommunikation nicht öffentlich ist, was auch einer fehlenden Kommentarfunktion beim Preprint selbst geschuldet sein kann. Zudem wird noch weniger nachvollziehbar, ob Feedback berücksichtigt wurde. Im Closed Peer-Review sieht zumindest der*die Herausgeber*in, ob alles Relevante adressiert wurde. Ebenfalls anders waren die kurzen Zeitspannen zwischen der Veröffentlichung des Preprints und den Veröffentlichungen der Open Peer-Reviews sowie die Interaktion und das gegenseitige Zitieren der Gutachter*innen.
Am vorläufigen Ende dieses im Rampenlicht stattgefundenen Open Peer-Reviews steht das überarbeitete und auf einem Preprint-Server veröffentlichte Preprint P4, welches nun bei einem Verlag zum Peer-Review eingereicht wird. An dieser Stelle sei die Frage erlaubt, welchen Mehrwert das nun folgende verlagsgebundenes Peer-Review zusätzlich zum bereits durchgeführten und gänzlich frei, also ohne koordinierende Stelle, abgelaufenen Open Peer-Review noch liefern wird. Die Nachverfolgbarkeit des Verlaufs des Open Peer-Reviews, wie es in diesem Fallbeispiel möglich war und gezeigt wurde, ist in geschlossenen verlagsgebundenen Peer-Review-Verfahren nie und in nicht verlagsgebundenen Open Peer-Review-Verfahren eher selten gegeben. Allerdings konnte eine vollständige Nachverfolgbarkeit aufgrund fehlender Verknüpfungen nicht erreicht werden. Die hohe Anzahl der Open Peer-Reviews und das mediale Echo machen das hier betrachtete Open Peer-Review-Verfahren zudem zu einem besonders ungewöhnlichen und spannenden Fallbeispiel.
3 Für die Zukunft
Das prominente Fallbeispiel bestätigt, dass Open Peer-Review-Verfahren zum einen funktionieren und auch völlig frei von einer sammelnden oder koordinierenden Stelle, egal ob ein Verlag oder eine andere Plattform, stattfinden und zum anderen auch mit Vorveröffentlichungen und direkt veröffentlichten Open Peer-Reviews arbeiten können. Auf dieser Basis darf Pre-Publication Peer-Review als Standard hinterfragt werden. Heesen & Bright (2020) gehen noch weiter und argumentieren für eine Abschaffung des Pre-Publication Peer-Reviews. Sie sehen darin vermehrt Vorteile sehen. An die Stelle von Pre-Publication Peer-Reviews könnten alternative und schnellere Formen der Pre-Publication-Qualitätssicherung treten (Kwon, 2020) während das eigentliche Open Peer-Review-Verfahren der Vorveröffentlichung nachgelagert wird. Neben schon oft diskutierten Vor- aber auch Nachteilen von Open Peer-Reviews, fanden sich in der Fallstudie weniger beachtete Effekte, wie das Einbinden von eher fachfremden Gutachter*innen, das Gewinnen neuer Autor*innen und die Interaktion und Verknüpfung der Gutachten und Gutachter*innen untereinander. Der Begriff des Peers hat sich erweitert und Open Peer-Reviews wurden selbst wie Preprints gehandhabt und veröffentlicht.
Feedback und Austausch sind bereits ab dem ersten geschriebenen und geteilten Absatz ein essenzieller Bestandteil des wissenschaftlichen Schreibprozesses. Verlagsgebundene Peer-Review-Methoden versuchen das zu formalisieren, und haben den Anspruch, diesen Prozess unabhängig zu gestalten, dazu gehört auch die Einladung von Gutachter*innen ohne Interessenskonflikte. Die Übergänge sind jedoch fließend. Wenn beispielsweise Autor*innen schon vor der Einreichung entfernte Fachkolleg*innen um informelles Feedback oder Anregungen zu ihrem Manuskript bitten, die auch als Gutachter*innen im Peer-Review-Verfahren des Verlags hätten fungieren können.9 An dieser Stelle ergibt sich die Frage, ab wann ein informelles Feedback zum Peer-Review wird, wenn kein Verlag mehr im Spiel ist. Inhaltliche und formale Kriterien, die das Gutachten selbst betreffen, können hier genauso angeführt werden wie die Formalisierung und eine gewisse angestrebte Unabhängigkeit.
Insgesamt kann das Fallbeispiel als Lehrstück für öffentliche interne Wissenschaftskommunikation betrachtet werden. Das mediale Echo und die Aufbereitung durch Medien werden sicher ihrerseits Gegenstand eigener Arbeiten werden. Die Problematik der schwierigen Auffindbarkeit der Open Peer-Reviews im Fallbeispiel aufgrund einer breiten Streuung und fehlenden Verlinkung oder Sammelstelle, kann dort hineinspielen. Man kann sich dabei fragen, wie offen ein Open Peer-Review-Prozess ist, bei dem man die Gutachten recherchieren muss oder vielleicht gar nicht findet. Den Anfang dabei macht das Preprint, welches auf einen Preprint-Server und nicht nur auf eine Webseite gehört. Preprint-Server müssen hierfür dann mehr als nur Kommentarfunktionen anbieten. Der Upload eines eigenen Gutachtens auf denselben oder einen anderen Preprint-Server, das dann mit dem begutachteten Preprint als dezentrale Lösung verlinkt oder in einer anderen Sammelstelle zusammengeführt wird, könnte ein anzustrebendes Ziel sein (Breznau et al., 2020, Lesson Learned 5). Ein Beispiel dafür ist eine neu entwickelte Open Peer-Review-Plattform für Preprints, die sich mit der Corona-Pandemie befassen (Johansson und Saderi, 2020, https://outbreaksci.prereview.org).
Die Sichtbarmachung der Interaktionen zwischen Akteuren, Preprint und Open Peer-Reviews und die Versionierungen von Preprint und Open Peer-Reviews weisen noch weiter, wenn man beispielsweise an lebende Dokumente denkt. Interne Wissenschaftskommunikation hält bisher leider noch immer an der gedruckten oder finalen digitalen Veröffentlichung fest, während die Wissenschaft selbst ihre eigenen Erkenntnisse stets überprüft, anpasst oder verwirft (Shanahan, 2015).
Nichtsdestotrotz zeigt das Fallbeispiel, dass interne Wissenschaftskommunikation nicht langsam, verschlossen, geradlinig und intransparent sein muss. Sie kann im Gegenteil auch schnell, offen, interaktiv und transparent sein mit allen daraus resultierenden Konsequenzen, wie Nachvollziehbarkeit des Diskurses, aber auch Sichtbarmachung umgeworfener Thesen und gemachter Fehler. Hier stellt die in diesem Moment im Rampenlicht stehende interne Wissenschaftskommunikation die externe Wissenschaftskommunikation vor neue Herausforderungen. Wissenschaftliche Arbeits- und Denkweisen müssen neben den Ergebnissen mitvermittelt werden. Dabei müssen auch simplifizierende Annahmen weichen und erklärt werden. Dazu zählen beispielsweise die Annahmen, dass begutachtete Fachzeitschriften ausschließlich vertrauenswürdige Wissenschaft publizieren und vertrauenswürdige Wissenschaft ausschließlich in begutachteten Fachzeitschriften erscheint (Vazire, 2020). Dass Peer-Review fehlbar ist,10 gehört genau so offen kommuniziert wie die Existenz von Preprints und die Vermittlung, wie mit diesen umzugehen ist.
Offene interne Wissenschaftskommunikation hat diesen Vermittlungsprozess angestoßen und wird künftig unweigerlich von ihm begleitet. Entsprechend müssen sich die internen Wissenschaftskommunikationsprozesse wandeln ohne dabei die notwendigen Ansprüchen zu senken oder gar hinter der externen Wissenschaftskommunikation anzustehen, wie dies z.B. bei der sogenannten Heinsberg-Studie eingetreten ist.11 Offene interne Wissenschaftskommunikation erfordert zudem mehr Transparenz bei Daten, Prozessen, Begutachtungsstatus, Gutachten und eine Verknüpfung all dieser Komponenten. Der Fokus externer Wissenschaftskommunikation verlagert sich dabei unweigerlich: weg von ergebnisorientierter und hin zu prozessorientierter Kommunikation.
Zusammenfassend lässt sich aus der Fallstudie ableiten, dass Peer-Review in diesem Fall sehr wohl funktioniert hat und relevant war, obwohl oder vielleicht gerade weil das Open Peer-Review sich nicht an alte Strukturen gehalten hat. Wenn Peer-Review nicht Gatekeeper ist, sondern auf passenden Infrastrukturen veröffentlichte Preprints begleitet, können schnelle Verbreitung neuer wissenschaftlicher Erkenntnisse und wissenschaftliche Begutachtung sich gegenseitig bereichern.
4 Quellen
Bonfadelli, Heinz, Fähnrich, Birte, Lüthje, Corinna, Milde, Jutta, Rhomberg, Markus & Schäfer, Mike S. (2017). Das Forschungsfeld Wissenschaftskommunikation. In: Bonfadelli, Heinz, Fähnrich, Birte, Lüthje, Corinna, Milde, Jutta, Rhomberg, Markus & Schäfer, Mike S. (Hg.). Forschungsfeld Wissenschaftskommunikation. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-12898-2_1
Breznau, Nate (2020). Science by press conference: What the Heinsberg Study on COVID-19 demonstrates about the dangers of fast, open science. LSE Impact Blog, 20.08.2020. https://blogs.lse.ac.uk/impactofsocialsciences/2020/08/20/science-by-press-conference-what-the-heinsberg-study-on-covid-19-demonstrates-about-the-dangers-of-fast-open-science/
Breznau, Nate, Fischer, Caroline, Havemann, Johanna, Heck, Tamara, Mayer, Katja, Peters, Isabella, Schrögel, Philipp, Stutz, Hans Henning (2020). Open Science, aber richtig! Was wir aus der Heinsberg-Studie lernen können. https://doi.org/10.31222/osf.io/54zx2 [Stand 15.07.2020]
Curtis, David (2020, R5). Children Have Lower SARS-CoV-2 Viral Loads Than Adults. https://doi.org/10.20944/preprints202005.0367.v1 [Stand 23.05.2020]
Frick, Claudia (2017). How to Publish – From finished manuscript to publication in a scientific journal. [Folien eines Trainings am Forschungszentrum Jülich vom 12.09.2020]. http://hdl.handle.net/2128/15670
Gloning, Thomas (2011). Interne Wissenschaftskommunikation im Zeichen der Digitalisierung. Formate, Nutzungsweisen, Dynamik. In: Gloning, T. & Fritz, G. (Hg.). Digitale Wissenschaftskommunikation – Formate und ihre Nutzung. Gießener Elektronische Bibliothek. Gießen: Universitätsbibliothek Gießen, 3–33. http://nbn-resolving.de/urn:nbn:de:hebis:26-opus-82275
Heesen, Remco & Bright, Liam Kofi (2020). Is Peer Review a Good Idea? The British Journal for the Philosophy of Science. https://doi.org/10.1093/bjps/axz029
Held, Leonhard (2020, R2). A discussion and reanalysis of the results reported in Jones et al. (2020). https://osf.io/bkuar/ [Stand 06.05.2020]
Hennig, Korinna & Drosten, Christian (27.03.2020). Die Forschung braucht jetzt ein Netzwerk. Coronavirus-Update Folge 23. https://www.ndr.de/nachrichten/info/coronaskript152.pdf
Hennig, Korinna & Drosten, Christian (26.05.2020). Das Leben nach draußen verlagern. Coronavirus-Update Folge 43. https://www.ndr.de/nachrichten/info/coronaskript200.pdf
Hennig, Korinna & Drosten, Christian (04.06.2020). Viruslast-Studie durch Update bestätigt. Coronavirus-Update Folge 46. https://www.ndr.de/nachrichten/info/coronaskript206.pdf
Hoy, Matthew B. (2020). Rise of the Rxivs: How Preprint Servers are Changing the Publishing Process. Medical Reference Services Quarterly 39, 1, 84–89. https://doi.org/10.1080/02763869.2020.1704597
Huisman, Janine & Smith, Jeroen (2017). Duration and quality of the peer review process: the author’s perspective. Scientometrics 113, 1, 633–650. https://doi.org/10.1007/s11192-017-2310-5
Johansson, Michael A. und Saderi, Daniela (2020). Open peer-review platform for COVID-19 preprints. Nature 579, 29. https://doi.org/10.1038/d41586-020-00613-4
Jones, Terry C., Mühlemann, Barbara, Veith, Talitha, Zuchowski, Marta, Hofmann, Jörg, Stein, Angela, Edelmann, Anke, Corman, Victor Max & Drosten, Christian (2020, P1). An analysis of SARS-CoV-2 viral load by patient age. https://zoonosen.charite.de/fileadmin/user_upload/microsites/m_cc05/virologie-ccm/dateien_upload/Weitere_Dateien/analysis-of-SARS-CoV-2-viral-load-by-patient-age.pdf [Stand 29.04.2020]
Jones, Terry C., Mühlemann, Barbara, Veith, Talitha, Zuchowski, Marta, Hofmann, Jörg, Stein, Angela, Edelmann, Anke, Corman, Victor Max & Drosten, Christian (2020, P2). An analysis of SARS-CoV-2 viral load by patient age. https://virologie-ccm.charite.de/fileadmin/user_upload/microsites/m_cc05/virologie-ccm/dateien_upload/Weitere_Dateien/analysis-of-SARS-CoV-2-viral-load-by-patient-age-v2.pdf [Stand 30.04.2020]
Jones, Terry C., Mühlemann, Barbara, Veith, Biele, Guido, Zuchowski, Marta, Hofmann, Jörg, Stein, Angela, Edelmann, Anke, Corman, Victor Max & Drosten, Christian (2020, P3). An analysis of SARS-CoV-2 viral load by patient age. https://virologie-ccm.charite.de/fileadmin/user_upload/microsites/m_cc05/virologie-ccm/dateien_upload/Weitere_Dateien/Charite_SARS-CoV-2_viral_load_2020-06-02.pdf [Stand 02.06.2020]
Jones, Terry C., Mühlemann, Barbara, Veith, Biele, Guido, Zuchowski, Marta, Hofmann, Jörg, Stein, Angela, Edelmann, Anke, Corman, Victor Max & Drosten, Christian (2020, P4). An analysis of SARS-CoV-2 viral load by patient age. https://doi.org/10.1101/2020.06.08.20125484 [Stand 09.06.2020]
Kaufman, Jay S., Labrecque, Jeremy A. & Merckx, Joanna (2020, R6). Generating Evidence in the Age of COVID-19: Transmission of SARS-CoV-2 by Children. https://doi.org/10.31219/osf.io/86hta [Stand 18.06.2020 (aktualisiert, zuerst am 28.05.2020 veröffentlicht)]
Kwon, Diana (2020). How swamped preprint servers are blocking bad coronavirus research. Nature 581, 130-131. https://doi.org/10.1038/d41586-020-01394-6
Liebl, Dominik (2020, R3). Open Review Report of Jones et al. (2020). https://osf.io/cdnsk/ [Stand 28.05.2020 (Version 7, erste Version am 22.05.2020 veröffentlicht)]
Lüthje, Corinna (2017). Interne informelle Wissenschaftskommunikation. In: Bonfadelli, H., Fähnrich, B., Lüthje, C., Milde, J., Rhomberg, M. & Schäfer, M. (Hg.). Forschungsfeld Wissenschaftskommunikation. Wiesbaden: Springer, 109–124. https://doi.org/10.1007/978-3-658-12898-2_6
McConway, Kevin & Spiegelhalter, David (2020, R1). Is SARS-CoV-2 viral load lower in young children than adults? Jones et al provide evidence that it is (in spite of their claims to the contrary). https://medium.com/@d_spiegel/is-sars-cov-2-viral-load-lower-in-young-children-than-adults-8b4116d28353 [Stand 25.05.2020]
Mittermaier, Bernhard (2020). Quo vadis Peer Review? BIT online 23, 2, 149-155. http://hdl.handle.net/2128/24905
Nicholas, Kimberly A. & Gordon, Wendy S. (2011). A quick guide to writing a solid peer review. Eos, Transactions American Geophysical Union 92, 2), 233-234. https://doi.org/10.1029/2011EO280001
Packer, Milton (2020). Does Peer Review Still Matter in the Era of COVID-19? Medpage Today 13.05.2020. https://www.medpagetoday.com/blogs/revolutionandrevelation/86465
Peiperl, Larry (2018). Preprints in medical research: Progress and principles. PLoS Medicine 15, 4, e1002563. https://doi.org/10.1371/journal.pmed.1002563
Ross-Hellhauer, Tony (2019). What is open peer review? A systematic review. F1000Research 6, 588. https://doi.org/10.12688/f1000research.11369.2
Smedsrød, Bård & Longva, Leif (2020). The costly prestige ranking of journals. Ravnetrykk 39, 60–66. https://doi.org/10.7557/15.5507
Shanahan, Daniel R. (2015). A living document: reincarnating the research article. Trials 16, 151, https://doi.org/10.1186/s13063-015-0666-5
Starck, J. Matthias (2018). Peer Review für wissenschaftliche Fachjournale. Wiesbaden: Springer. https://doi.org/10.1007/978-3-658-19837-4
Stoye, Jörg (2020, R4). A Critical Assessment of Some Recent Work on COVID-19. https://arxiv.org/abs/2005.10237v2 [Stand 27.05.2020 (Version 2, erste Version am 21.05.2020 veröffentlicht)]
Streeck, Hendrik, Schulte, Bianca, Kuemmerer, Beate, Richter, Enrico, Hoeller, Tobias, Fuhrmann, Christine, Bartok, Eva, Dolscheid, Ramona, Berger, Moritz, Wessendorf, Lukas, Eschbach-Bludau, Monika, Kellings, Angelika, Schwaiger, Astrid, Coenen, Martin, Hoffmann, Per, Noethen, Markus, Eis-Huebinger, Anna-Maria, Exner, Martin, Schmithausen, Ricarda, Schmid, Matthias & Hartmann, Gunther (2020). Infection fatality rate of SARS-CoV-2 infection in a German community with a super-spreading event. https://doi.org/10.1101/2020.05.04.20090076 [Stand 02.06.2020 (Version 2, erste Version am 02.05.2020 veröffentlicht)]
Tennant, Jonathan P., Dugan, Jonathan M., Graziotin, Daniel, Jacques, Damien C., Waldner, François, Mietchen, Daniel, Elkhatib, Yehia, Collister, Lauren B., Pikas, Christina K., Crick, Tom, Masuzzo, Paola, Caravaggi, Anthony, Berg, Devin R., Niemeyer, Kyle E., Ross-Hellauer, Tony, Mannheimer, Sara, Rigling, Lillian, Katz, Daniel S., Greshake Tzovaras, Bastian, Pacheco-Mendoza, Josmel, Fatima, Nazeefa, Poblet, Marta, Isaakidis, Marios, Irawan, Dasapta Erwin, Renaut, Sébastien, Madan, Christopher R., Matthias, Lisa, Kjær, Jesper Nørgaard, O’Donnell, Daniel Paul, Neylon, Cameron, Kearns, Sarah, Selvaraju, Manojkumar, Colomb, Julien (2017). A multi-disciplinary perspective on emergent and future innovations in peer review. F1000Research, 6, 1151. https://doi.org/10.12688/f1000research.12037.3
Vazire, Simine (2020). Peer-Reviewed Scientific Journals Don't Really Do Their Job – The rapid sharing of pandemic research shows there is a better way to filter good science from bad. Wired 25.06.2020. https://www.wired.com/story/peer-reviewed-scientific-journals-dont-really-do-their-job/
Xing, Weijia, Hejblum, Gilles, Leung, Gabriel M. & Valeron, Alain-Jacques (2010). Anatomy of the Epidemiological Literature on the 2003 SARS Outbreaks in Hong Kong and Toronto: A Time-Stratified Review. PLoS Medicine 7, 5, e1000272. https://doi.org/10.1371/journal.pmed.1000272
Mit interner Wissenschaftskommunikation ist hier die formale interne Wissenschaftskommunikation gemeint. Vgl. Gloning (2011), S. 4-9, sowie Lüthje (2017), S. 111: “Scholarly communication bzw. interne Wissenschaftskommunikation besteht aus der formalen und der informellen Kommunikation. Formale Kommunikation umfasst die wissenschaftliche Publikation bzw. wissenschaftsöffentliche Kommunikation […]. Sie betrifft das Verfassen und Publizieren von wissenschaftlichen Texten, die legitimen Textsorten (Monographie, Buchkapitel, Zeitschriftenartikel) und Medien sowie alle dazugehörigen Praktiken (z.B. Peer-Review, Herausgabe, Zitationsregeln, formaler Aufbau der Texte etc.) […].”↩︎
Die Abbildung auf Folie 33 von Frick (2017) illustriert die Perspektive der Autor*innen und Abbildung 1 von Nicholas & Gordon (2011) die der Gutachter*innen.↩︎
Drosten fragt: “Können wir uns eigentlich so ein System in so einer Situation noch leisten?” (Hennig & Drosten, 27.03.2020, Seite 3), während Smedsrød & Longva (2020) sogar zu dem Schluss kommen, dass das klassische geschlossene Peer-Review-Verfahren in der aktuellen Situation sogar unethisch ist.↩︎
Drosten: “Und die Kritik, die geübt wurde, die wurde genauso geübt wie auch in einem geschlossenen Begutachtungsverfahren.” (Hennig & Drosten, 04.06.2020, Seite 9)↩︎
Drosten: “Ein Statistiker hat uns so fundiert geschrieben, dass wir gesagt haben, das ist so gut, was du uns vorschlägst, möchtest du nicht in unser Team aufgenommen werden für dieses Paper? Möchtest du nicht Co-Autor sein? Der hat zugestimmt.” (Hennig & Drosten, 26.05.2020, Seite 2)↩︎
“Die zentralen Bestandteile des Kerngeschäftes [interner Wissenschaftskommunikation] sind zum einen das Verfassen und Publizieren von […] Erkenntnissen, zum anderen die prinzipiengesteuerte Rezeption wissenschaftlicher Darstellungen sowie schließlich ihre öffentliche Kritik und Diskussion. Information, Kritik und Kontroverse sind somit wesentliche Kommunikationsformen im Kernbereich der internen Wissenschaftskommunikation.” Gloning (2011), S. 4-5, und “Was in den Medien mitunter als ‘Streit’ unter Forschenden deklariert wird, ist ein notwendiger Prozess der Erkenntnissicherung und beruht auf dem Prinzip des Peer-Review.” Breznau et al. (2020)↩︎
Dies gilt insbesondere für R6, welches sich in Umfang und Detailgrad nochmal deutlich abhebt. Durchweg haben die Open Peer-Reviews jedoch einen Titel, enthalten Angaben zu den Gutachter*innen und deren Affiliationen, wie es selten für Peer-Reviews, jedoch für Manuskripte üblich ist.↩︎
Auch wenn die Open Peer-Reviews vermutlich nicht zur Begutachtung und Veröffentlichung bei einem Verlag eingereicht werden, sind diese doch auf Preprint-Servern erschienen. Der Benutzung des Begriffs Preprint löst sich hier deutlich von der rein sprachlich engen Bindung an eine gedruckte Veröffentlichung bei einem Verlag.↩︎
Der in P3 hinzugekommene Autor Biele hätte beispielsweise anstatt als Autor auch als Gutachter im Rahmen des Peer-Reviews beim Verlag in Erscheinung treten können.↩︎
Der Blog Retraction Watch, https://retractionwatch.com/, sammelt zurückgezogene Veröffentlichungen. Die Liste der Retractions in Zusammenhang mit COVID-19 umfasste bereits im Juli 2020 beispielsweise zwei Artikel aus der renommierten Fachzeitschrift The Lancet, welche Peer-Review durchführt, https://retractionwatch.com/retracted-coronavirus-covid-19-papers/.↩︎
Dies wird bei Breznau (2020) deutlich. Die Studie Streeck et al. (2020) erschien erst nach der ihre Ergebnisse verkündenden Pressekonferenz.↩︎
AutorInnen
-
Claudia Frick, c.frick@fz-juelich.deForschungszentrum Jülich, Zentralbibliothek