gms | German Medical Science

GMS Medizin — Bibliothek — Information.

Arbeitsgemeinschaft für Medizinisches Bibliothekswesen (AGMB)

ISSN 1865-066X

Qualitätssicherung bei Open-Access-Zeitschriften und Predatory Publishing

Quality assurance for open access journals and predatory publishing

Fachbeitrag Open Access

Suche in Medline nach

  • corresponding author Jasmin Schmitz - ZB MED – Informationszentrum Lebenswissenschaften, Köln, Deutschland

GMS Med Bibl Inf 2019;19(1-2):Doc09

doi: 10.3205/mbi000434, urn:nbn:de:0183-mbi0004343

Veröffentlicht: 10. September 2019

© 2019 Schmitz.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Der vorliegende Beitrag behandelt die Qualitätssicherung von Open-Access-Zeitschriften und geht dabei auf die Praktiken von „Predatory Journals“ (Raubjournale) ein. Hier werden unterschiedliche Ansätze diskutiert, die zum Identifizieren von unseriösen Zeitschriften herangezogen werden können, einschließlich der Vor- und Nachteile.

Schlüsselwörter: Open Access, Raubjournal, Raubverlag, Peer Review, Qualitätssicherung

Abstract

The article discusses quality assurance processes for open access journals and practices of “predatory journals”. Several approaches to identify deceptive journals are discussed along with their advantages and disadvantages.

Keywords: open access, predatory journals, predatory publishing, peer review, quality assurance


Auswahl von Zeitschriften

Die Publikation wissenschaftlicher Ergebnisse ist das zentrale Element für das Fortkommen in der Wissenschaft. In vielen Fachdisziplinen wird die wissenschaftliche Kommunikation vorwiegend über Publikationen in Fachzeitschriften organisiert. Zu Beginn des Publikationsprozesses steht somit die Auswahl einer zum Forschungsgegenstand passenden Zeitschrift, die häufig auch an die Frage des Publikationsweges gekoppelt ist. Forschende müssen sich entscheiden, ob eine Publikation Open Access veröffentlicht werden soll, und wenn ja, auf welchem Weg. Grundsätzlich stehen zwei Optionen zur Verfügung:

1.
Der Goldene Weg zum Open Access mit der Publikation in einer originären Open-Access-Zeitschrift oder einer Zeitschrift mit einer Open-Access-Option, auch hybride Zeitschrift genannt. Diese Entscheidung beeinflusst die Auswahl an Zeitschriften insofern, dass entsprechende Optionen vom Verlag angeboten werden müssen, wenn man einen dieser Wege realisieren will.
2.
Der Grüne Weg zum Open Access mit der elektronischen Zweitveröffentlichung von bereits erschienenen, meist in einer Closed-Access-Zeitschrift veröffentlichten Publikation.

Während bei den meisten Forschenden im Hinblick auf die Veröffentlichung in einer etablierten Closed-Access-Zeitschrift keine Fragen zum Thema Qualitätssicherung auftauchen, außer der mit dem Peer-Review-Verfahren verbundenen üblichen Kritik wie z.B. Begutachtungsdauer, wenig hilfreiche Gutachten etc., ist bei der Veröffentlichung in einer Open-Access-Zeitschrift (originär oder mit Open-Access-Option) dieser Punkt häufig mit Fragen verbunden. Über die Gründe lässt sich nur spekulieren. In informellen Gesprächen wird immer wieder deutlich: Viele Forschende verlassen sich bei der Wahl der Zeitschrift offensichtlich auf Altbewährtes und schauen dabei in erster Linie auf lang bestehende fachspezifische Zeitschriftenlisten und -rankings, wie den Journal Citation Reports (JCR) und den hiermit veröffentlichten Journal Impact Factor (JIF), oder auf die Erfassung der Zeitschrift in Datenbanken wie PubMed, was eine hohe Verbreitung in relevanten Leserkreisen sicherstellt. Vielen ist dabei nicht bewusst, dass Open-Access-Zeitschriften längst sowohl im JCR als auch in PubMed Eingang gefunden haben [1]. Darüber hinaus bietet die Digitalisierung neue Möglichkeiten, so auch die schnelle Gründung einer Zeitschrift. Dies hinterlässt eventuell den Eindruck einer gewissen Beliebigkeit, wenngleich diese Zeitschriften ihre Berechtigung haben, weil sie fachliche Lücken schließen, oder neue Publikationskanäle erst schaffen. Zu nennen sind hier regional oder landessprachlich fokussierte Publikationsorgane für eine bestimmte Disziplin.

Die Medienberichterstattung [2] im Sommer 2018 und die sich daran anschließende Diskussion über Predatory Publishing und unseriöse Zeitschriften, die zwar Publikationsgebühren verlangen, aber dafür keine verlegerische Leistung und Qualitätssicherung bieten, haben hier sicherlich ihren Teil zur Skepsis beigetragen.

Zwar ist vor der Einreichung eines Manuskripts bei einer noch relativ unbekannten Open-Access-Zeitschrift eine gesunde Skepsis angezeigt, grundsätzlich wenden Closed-Access- und Open-Access-Zeitschriften aber die gleichen Qualitätssicherungsmaßnahmen an.


Qualitätssicherung bei Open-Access- und Closed-Access-Zeitschriften

Die Qualität der in Fachzeitschriften publizierten wissenschaftlichen Ergebnisse wird über das Peer-Review-Verfahren sichergestellt. Nach einer ersten allgemeinen Prüfung durch die Herausgebenden, inwieweit der Beitrag zur thematischen Ausrichtung der Zeitschrift passt und ob Formalien eingehalten wurden, bewerten zwei bis drei Fachwissenschaftlerinnen oder -wissenschaftler das eingereichte Manuskript im Hinblick auf Neuheit, Eignung der Methodik sowie ihre korrekte Anwendung, Schlüssigkeit der Ergebnisse, Nachvollziehbarkeit der Schlussfolgerungen, Lesbarkeit und bei Arbeit mit Patienten oder Tieren auch ethische Aspekte. Hauptziel des Peer-Review-Verfahrens ist die Bereitstellung von kollegialem Feedback und Anregungen zur Verbesserung des Manuskripts. Grob unterscheiden lassen sich hier die zwei Varianten „single blind peer review“ und „double blind peer review“. Bei Variante 1 kennen die Begutachtenden die Namen der Autorinnen und Autoren, umgekehrt aber nicht. Bei Variante 2 sind die Namen wechselseitig unbekannt [3]. Im Zusammenhang mit Open Access und insbesondere auch im Kontext von Open Science wird in den letzten Jahren verstärkt auch „Open Peer Review“ diskutiert, also die Öffnung des Peer-Review-Prozesses zur Erhöhung der Transparenz des Begutachtungsverfahrens. Mit der Öffnung wird die Erwartung verbunden jene Probleme zu überwinden, die gerade mit der Anonymität im Peer-Review-Verfahren einhergehen. Beispielsweise werden Gutachten sorgfältiger und objektiver verfasst, wenn sie anschließend veröffentlicht werden. Tatsächlich ist „Open Peer Review“ ein Oberbegriff, der für unterschiedliche Grade der Öffnung zu unterschiedlichen Stadien des Begutachtungsprozesses steht [4], allerdings produziert die Öffnung wiederum neue Probleme, für die es Lösungen zu finden gilt. So scheint die Transparenz teilweise das Einwerben von Gutachten zu erschweren [5].

Grundsätzlich lassen sich bezüglich der Qualitätssicherung keine Unterschiede zwischen Closed-Access- und Open-Access-Zeitschriften feststellen. Tatsächlich bezog sich die ursprüngliche Forderung nach Open Access gemäß der Budapester Erklärung ausdrücklich auf Peer-Review-Zeitschriften [6]. Mit dem Aufkommen von Open Science und der Idee, den Forschungsprozess in Gänze zu öffnen, wurde das Prinzip „Openness“ auch auf andere Publikationen wie Forschungsdaten, Forschungssoftware, etc. übertragen.


Predatory Publishing und Predatory Journals

Im Gegensatz zu seriösen Zeitschriften stehen sogenannte Predatory Journals. Letztere nutzen das für viele Open-Access-Zeitschriften übliche Prinzip der Finanzierung über Publikationsgebühren für sich aus, bieten allerdings kaum bis keine verlegerische Leistungen an und verzichten auf eine gründliche Qualitätssicherung mittels Peer Review oder führen diese nur zum Schein durch. Wichtigste Geschäftspraxis hierbei ist der massenhafte Versand von E-Mails mit der Bitte zur Einreichung eines Beitrags oder Mitarbeit im Herausgebergremium. Letzteres soll der Zeitschrift Seriosität verleihen, aber viele Herausgebergremien von Predatory Journals sind schlichtweg erfunden oder ohne Wissen der dort benannten Wissenschaftlerinnen und Wissenschaftler zusammengestellt und weisen eine starke Konzentration auf ein bestimmtes Land, mitunter auch eine bestimmte Einrichtung auf.

Es finden sich mittlerweile zahlreiche Beispiele, bei denen Forschende mit ihrer Einreichung von Nonsense-Artikeln erfolgreich waren und teilweise auch amüsant über ihre Erfahrungen berichten [7], [8]. Predatory Journals sind aber insbesondere deshalb problematisch, weil durch sie ungeprüfte Ergebnisse dauerhaft im Web verfügbar gemacht werden und Laien zwischen geprüften und nicht geprüften Ergebnissen kaum unterscheiden können. Zudem fallen vor allem unerfahrene Wissenschaftlerinnen und Wissenschaftler, aber nicht nur diese, immer wieder auf das unlautere Geschäftsgebaren herein. Neben finanzieller Verluste – die in manchen Teilen der Erde sicherlich noch schwerer wiegen als in Westeuropa – wird der Artikel, an dem mitunter mehrere Monate gearbeitet wird, für den Aufbau der wissenschaftlichen Reputation unbrauchbar. Zudem geraten redliche Wissenschaftlerinnen und Wissenschaftler dadurch möglicherweise in Misskredit. Gleichzeitig wird unredlich Forschenden die Möglichkeit zur ungeprüften Publikation gegeben. Insgesamt wird Predatory Publishing als Argument gegen die Open-Access-Bewegung angebracht [9].


Quantifizierung des Predatory Publishing

Besondere Aufmerksamkeit hat das Thema Predatory Publishing im Sommer 2018 durch eine umfangreiche mediale Berichterstattung erhalten [2]. Wenngleich der Begriff „Fake Science“ unglücklich gewählt war, hat die Berichterstattung ihren Teil zur Bewusstseinsbildung beigetragen. Es wurde unter anderem behauptet, dass ca. 5.000 deutsche Wissenschaftlerinnen und Wissenschaftler in Predatory Journals veröffentlicht hätten. Eine sich daran anschließende Detailanalyse [10] des Datenmaterials konnte diese Zahlen relativieren und zeigen, dass die meisten dieser Wissenschaftlerinnen und Wissenschaftler in erster Linie Täuschungsopfer waren und nur wenige Predatory Journals gezielt im Rahmen ihrer Publikationsstrategie nutzten. Zudem stammten viele betroffene Wissenschaftlerinnen und Wissenschaftler aus der anwendungsorientierten Forschung, darunter auch Personen, welche die Wissenschaft längst verlassen haben. Legt man die Zahlen des Statistischen Bundesamts zugrunde, wären gerade mal 1,7% des wissenschaftlichen Personals betroffen [11]. Betrachtet man die Ebene der Zeitschriften weltweit, so hat das Thema aber durchaus Relevanz. Eine Analyse für den Zeitschriftenmarkt für das Jahr 2014 über Predatory Open Access kommt zu dem Schluss, dass 8.000 Zeitschriften mit insgesamt 420.000 Artikel erschienen sind [12]. Stellt man dem die Gesamtzahl der in diesem Jahr erschienen Zeitschriften (ca. 60.000) und die Anzahl der publizierten Artikel (2,3 Millionen) gegenüber, so zeigt sich, dass ein nicht geringer Anteil (13% der Zeitschriften und 18% der publizierten Publikationen) als problematisch einzustufen ist [11]. Somit besteht weiterhin Aufklärungs- und Unterstützungsbedarf.


Ansätze zur Identifikation von Predatory Journals

Mit der Entscheidung für Open Access ist also seit dem Aufkommen von Predatory Journals nun auch die Frage verbunden: „Wie finde ich eine thematisch passende Open-Access-Zeitschrift, die gleichzeitig seriös ist?“ Diese Frage stellt sich einerseits für Wissenschaftlerinnen und Wissenschaftler, die ihre Ergebnisse veröffentlichen möchten, andererseits aber auch bei Bibliotheken, die ihre Nutzenden bei der Auswahl einer Zeitschrift unterstützen oder diese in ihre Nachweissysteme aufnehmen möchten. Es kristallisieren sich mittlerweile folgende Ansätze heraus:

1.
Konsultation von White Lists

White Lists sind Übersichten für solche Zeitschriften, die gemeinhin als seriös gelten. Der Vorteil von White Lists ist, dass sie eine schnelle Orientierung bieten, weil diese Zeitschriften bereits als seriös identifiziert wurden. Der Nachteil ist allerdings, dass White Lists immer Lücken aufweisen und somit unter Umständen Zeitschriften, die (noch) nicht auf dieser Liste sind, indirekt benachteiligen, wenngleich sie seriöse Absichten haben.

Als Beispiel für eine White List wird immer wieder das Directory of Open Access Journals (DOAJ) genannt. Zeitschriftenbetreiber melden ihre Zeitschriften im DOAJ an, indem sie einen Fragebogen ausfüllen. Anschließend prüft ein Team von Freiwilligen mit Expertise im wissenschaftlichen Publikationswesen die Angaben und entscheidet über eine Aufnahme [13]. Da in der Vergangenheit auch Zeitschriften Eingang in das Directory gefunden haben, die man durchaus als unseriös bezeichnen kann oder die nach kurzer Zeit ihren Betrieb eingestellt haben, wurde im Jahr 2015 von DOAJ eine Reakkreditierungsaktion gestartet, bei der sich alle vor 2014 angemeldeten Zeitschriften erneut anmelden mussten. Im Zuge dessen wurden viele Zeitschriften aus dem DOAJ entfernt [14].

Ein weiteres Beispiel für eine White List ist die Aufstellung von Zeitschriften des Nationalen Kontaktpunkts für Open Access, die auf Grundlage von Zitationsindikatoren erstellt wurde [15]. Hauptkritikpunkt hier ist allerdings, dass es sich bei den etwa 700 Zeitschriften definitiv nur um eine Auswahl handelt und viele relevante Publikationsorgane dort nicht vertreten sind.

2.
Konsultation von Black Lists

Im Gegensatz zu den White Lists verzeichnen Black Lists solche Zeitschriften, die sich als unseriös einstufen lassen. Die bekannteste Black List ist die sogenannte „Beall’s List“, benannt nach dem amerikanischen Bibliothekar Jeffrey Beall, der auch die Begriffe „Predatory Publishing“ und „Predatory Journals“ geprägt hat. In seinem Blog „Scholarly Open Access“ veröffentlichte Beall Aufstellungen mit vermeintlich unseriösen Verlagen und Zeitschriften. Die Listen sind mittlerweile offline gestellt, aber in diversen Webarchiven noch zu finden [16]. Zudem wird diese Liste auf der Plattform „Stop Predatory Journals“ anonym weiter geführt [17]. Hauptkritikpunkt an der Beall’s List war die stark subjektive Färbung und dass die der Liste zugrundeliegenden Auswahlkriterien nicht klar benannt wurden. Diesem Kritikpunkt versucht der Informationsanbieter Cabells International mit seiner Black List zu begegnen, die als subskriptionspflichtiges Produkt vertrieben wird und deren Kriterien öffentlich zugänglich sind [18]. Abgesehen von der Frage, ob man die Bewertung von Zeitschriften tatsächlich in den Händen eines kommerziellen Informationsanbieters sehen möchte, sind Black Lists auch deshalb problematisch, weil sie unter Umständen Zeitschriften benachteiligen, die zwar seriöse Absichten haben, aber gängigen Publikationsstandards im jeweiligen Feld noch nicht entsprechen. Verbunden mit der Tatsache, dass ein „Vergessen“ im Internet nahezu unmöglich ist, haftet ein entsprechendes Label möglicherweise noch lange an einer Zeitschrift und verhindert so eventuell ihren Erfolg.

3.
Konsultation von neutralen Listen oder Datenbanken

Es gibt eine Reihe von Listen oder Plattformen, die zwar ursprünglich für andere Zwecke entstanden sind, die aber auch zur Überprüfung der Seriosität einer Zeitschrift herangezogen werden können. Von Interesse sind hier insbesondere solche Plattformen, die umfangreiche Informationen über Zeitschriften sammeln. Als Beispiel kann die Plattform Quality Open Access Market (QOAM, https://www.qoam.eu/) gesehen werden, die im Unterschied zum DOAJ auch hybride Zeitschriften, also Subskriptionszeitschriften mit einer Open-Access-Option aufnimmt. Neben Basisinformationen über eine Zeitschrift, die sich in erster Linie aus Informationen speisen, welche auf der Webseite einer Zeitschrift zu finden sind, bündelt QOAM auch Erfahrungswerte von Autorinnen und Autoren sowie von Reviewern. Insgesamt handelt es sich um ein Crowdsourcing-Projekt, bei dem Freiwillige, vor allem aus dem Bibliotheks-, aber auch Verlagsbereich, Informationen zusammentragen [19]. Da das Projekt vom persönlichen Engagement Einzelner lebt, liegen nicht für jede einzelne Zeitschrift Informationen vor und die Detailtiefe variiert.

In der Diskussion werden häufig alle Zeitschriften, die in den großen fachübergreifenden Datenbanken wie Web of Science, Scopus und Medline ausgewertet werden, generell als seriös eingestuft und damit quasi als White Lists betrachtet [20]. Untersuchungen zeigen, dass auch in diese Datenbanken, wenn auch zu einem sehr geringen Prozentsatz, Zeitschriften Eingang gefunden haben, die sich als weniger seriös einstufen lassen [21]. Das Hauptproblem dabei ist allerdings, dass diese Datenbanken bei der Bewertung von neuen Zeitschriften nicht hilfreich sind, weil es mitunter Jahre dauern kann, bis eine Zeitschrift in diese Datenbanken aufgenommen wird.

4.
Anwendung von Kriterien

Wenngleich Black Lists und White Lists eine vermeintlich einfache Orientierung bieten, zeigt sich, dass diese aus den bereits oben genannten Gründen nicht unproblematisch sind. Kriterienlisten zur Einschätzung der Seriosität einer Zeitschrift hingegen haben den Vorteil, dass sie die Bewertung dem Betrachtenden überlassen und über eine Gewichtung der Kriterien auch sichergestellt werden kann, solche Zeitschriften nicht zu benachteiligen, die zwar seriöse Absichten haben, aber (noch) nicht über professionell wirkende Geschäftsprozesse verfügen. Viele Bibliotheken, aber auch Zeitschriften von Fachgesellschaften, listen mittlerweile Kriterien auf, mittels derer man wahlweise seriöse oder unseriöse Zeitschriften erkennen kann. Die vielleicht bekannteste Kriterienliste ist die von „Think. Check. Submit.“ (https://thinkchecksubmit.org/), die sich explizit an Forschende richtet. Die Liste ist relativ knapp gehalten und weist in erster Linie Kriterien auf, welche die Transparenz des Review- und Publikationsverfahrens betreffen. Darüber hinaus dient als Kriterium, ob die Autorin oder der Autor mit bestimmten Aspekten der Zeitschrift vertraut ist, z.B. Name der Herausgebenden und Bekanntheit einzelner Artikel, was aber gerade für unerfahrene Forschende oft schwierig einzuschätzen ist. Umso wichtiger ist hierbei der Hinweis, dass nie ein Kriterium alleine, sondern nur ein Zusammenspiel aller Kriterien den Ausschlag für eine Bewertung geben sollte. Im Rahmen eines Workshops von ZB MED – Informationszentrum Lebenswissenschaften im Dezember 2018, der sich explizit an mit Open Access befasste Personen aus wissenschaftlichen Bibliotheken richtete, wurde der Versuch der Erstellung einer Kriterienliste vorgenommen [22]. Die Kriterien betreffen dabei die Ebenen Transparenz hinsichtlich der Geschäftsprozesse, den Grad an Professionalität sowie die Glaubwürdigkeit der bereitgestellten Informationen. Dabei sollten Kriterien zusätzlich auch in harte und weiche Kriterien gewichtet werden, die jeweils ein starkes oder schwaches Signal für die (fehlende) Seriosität einer Zeitschrift darstellen. Harte Kriterien zeigen relativ deutlich, ob es sich um eine unseriöse Zeitschrift handelt, weiche Kriterien belegen dies unter Umständen erst im Zusammenspiel mit anderen Kriterien. Ein erfundener Journal Impact Factor wäre zum Beispiel ein hartes Kriterium für die fehlende Seriosität einer Zeitschrift. Die Dauer des Peer-Review-Verfahrens wäre dagegen ein weiches, weil von außen schwer zu beurteilen ist, welcher Zeitraum tatsächlich für die Begutachtung angemessen ist, es sei denn, es sind nur wenige Tage. Häufig fehlt hier aber der Zugang zu Autorinnen und Autoren, die ihre Erfahrungen im Hinblick auf das Peer Review mitteilen können. Es zeigte sich auch, dass die Publikationspraxis je nach Fachgebiet variiert und daher eine unterschiedliche Kriteriengewichtung vorgenommen werden sollte. Beispielsweise ist die DOI-Vergabe in den Geisteswissenschaften weniger verbreitet, während sie in den Lebenswissenschaften zum Standard gehört.

Im Rahmen des Workshops wurde auch herausgearbeitet, dass ein paralleles Hinzuziehen von Black Lists und White Lists sowie neutralen Listen in Betracht gezogen werden kann, um erste Einschätzungen zu bestätigen oder zu revidieren. Eine Kombination der Ansätze ist somit durchaus möglich, wobei die Listen dann zu einem Kriterium von vielen werden und sich deren Nachteile damit deutlich abschwächen lassen. Die Heranziehung von beispielsweise Black Lists als nur ein Kriterium unter vielen wird auch als notwendig erachtet, weil diese Listen, insbesondere wenn sie im Fall von „Stop Predatory Journals“ anonym geführt sind, auch schnell unterwandert werden können.

Ein Vergleich [23] von unterschiedlichen Listen zeigt, dass es Zeitschriften gibt, die sowohl auf einer Black List als auch auf einer White List zu finden sind. Diese Ergebnisse stellen die ausschließliche Verwendung von Listen bei der Prüfung von Zeitschriften ebenfalls in Frage.


Kriterienlisten in der Praxis

Es wird schnell deutlich, dass die Arbeit mit Kriterienlisten einen deutlichen Mehraufwand bedeutet. Gerade für wissenschaftliche Bibliotheken, die ihren Wissenschaftlerinnen und Wissenschaftlern bei diesem Thema Unterstützung anbieten möchten, ist diese Mehrarbeit deshalb lohnend, um den kaum quantifizierbaren Graubereich von „gut gedacht – schlecht gemacht“ Zeitschriften gerecht zu werden sowie gleichzeitig den Bedarf der Wissenschaftlerinnen und Wissenschaftler im Blick zu behalten, neue Publikationskanäle und Leserkreise für ihre Ergebnisse zu erschließen. Grundsätzlich empfiehlt es sich also, so ebenfalls ein Ergebnis des Workshops, angewendete Kriterien aufzulisten und die daraus gezogenen Schlüsse zu dokumentieren. Einerseits um den Wissenschaftlerinnen und Wissenschaftlern eine solide Entscheidungsgrundlage bereitzustellen, andererseits auch, um für sich selbst eine Art Sammlung zu erstellen, die künftige Einschätzungen erleichtert. Zudem werden so subjektive Färbungen oder individuelle Gewichtungen bei solchen Punkten transparent, die Interpretationsspielraum bieten. Bei einzelnen Zeitschriften kann zudem hierüber eine mögliche Entwicklung hin zur Professionalisierung nachvollzogen werden.


Fazit

Grundsätzlich wenden seriöse Open-Access-Zeitschriften die gleichen Qualitätssicherungsverfahren an wie Closed-Access-Zeitschriften, sind also nicht per se minderwertiger. Bei der Beschäftigung mit Predatory Journals zeigt sich schnell, dass ein nicht quantifizierbarer Graubereich von Zeitschriften existiert, die zwar seriöse Absichten haben, deren Auftreten aber (noch) nicht den gängigen Publikationsstandards entspricht. Mit der Konsultation von Black Lists und White Lists, als zwei diskutierte Ansätze um seriöse und unseriöse Zeitschriften zu identifizieren, wird man diesem Bereich nicht gerecht, weil diese Listen per Definition eine eindeutige Bewertung vornehmen. Sinnvoller scheint hier die Anwendung von Kriterienlisten, die zwar Black Lists und White Lists mit einbeziehen, diese allerdings nur als ein Kriterium von vielen aufführen. Kriterien lassen sich zudem gewichten und Kriterienlisten sind darüber hinaus anpassbar an fachliche Publikationsstandards.


Anmerkung

Interessenkonflikte

Die Autorin erklärt, dass sie keine Interessenkonflikte in Zusammenhang mit diesem Artikel hat.


Literatur

1.
Barbaro A, Zedda M, Gentili D, Greenblatt RL. The presence of High-impact factor Open Access Journals in Science, Technology, Engineering and Medicine (STEM) disciplines. JLIIS. 2015;6(3):57-75. Verfügbar unter: https://www.jlis.it/article/view/11257 Externer Link
2.
Krause T, Langhans K. Tausende Forscher publizieren in Pseudo-Journalen. Süddeutsche Zeitung. 19. Juli 2018. Verfügbar unter: https://www.sueddeutsche.de/wissen/wissenschaft-tausende-forscher-publizieren-in-pseudo-journalen-1.4061005 Externer Link
3.
Wilson J, et al. Peer review: The nuts and bolts. A guide for early career resarchers. Sense about Science; 2017. (Standing up for Science; 3). Verfügbar unter: https://senseaboutscience.org/wp-content/uploads/2016/09/peer-review-the-nuts-and-bolts.pdf Externer Link
4.
Ross-Hellauer T. What is open peer review? A systematic review. F1000Res. 2017;6:588. DOI: 10.12688/f1000research.11369.2 Externer Link
5.
Schmidt B, Ross-Hellauer T, van Edig X, Moylan EC. Ten considerations for open peer review. F1000Res. 2018;7:969. DOI: 10.12688/f1000research.15334.1 Externer Link
6.
Budapest Open Access Initiative. Read the Budapest Open Access Initiative. [aufgerufen am 20.05.2019]. Verfügbar unter: https://www.budapestopenaccessinitiative.org/read Externer Link
7.
Bohannon J. Who’s afraid of peer review? Science. 2013 Oct;342(6154):60-5. DOI: 10.1126/science.342.6154.60 Externer Link
8.
Neuroskeptic. Predatory Journals Hit By ‘Star Wars’ Sting. Principia Scientific International. 2017 Jul 25. Verfügbar unter: https://principia-scientific.org/predatory-journals-hit-by-star-wars-sting/ Externer Link
9.
Beall J. Predatory publishers are corrupting open access. Nature. 2012 Sep;489(7415):179. DOI: 10.1038/489179a Externer Link
10.
Pössel M. Abzock-Zeitschriften, Datenauswertung Teil 1: Methoden, Ländervergleich, Gesamtzahl. Spektrum der Wissenschaften – SciLogs. 22. Juli 2018. Verfügbar unter: https://scilogs.spektrum.de/relativ-einfach/abzock-zeitschriften-den-daten-auf-der-spur/ Externer Link
11.
Arbeitskreis Open Access der Leibniz-Gemeinschaft. Handreichung Predatory Publishing. Oktober 2018. Verfügbar unter: https://www.leibniz-gemeinschaft.de/fileadmin/user_upload/Bilder_und_Downloads/Forschung/Open_Science/Handreichung_PredatoryPublishing_2018.pdf Externer Link
12.
Shen C, Björk BC. ‘Predatory’ open access: a longitudinal study of article volumes and market characteristics. BMC Med. 2015 Oct;13:230. DOI: 10.1186/s12916-015-0469-2 Externer Link
13.
About DOAJ (Directory of Open Access Journals). [aufgerufen am 20.05.2019]. Verfügbar unter: https://doaj.org/about Externer Link
14.
Directory of Open Access Journals (DOAJ).The Reapplications project is officially complete. 13.12.2017 [aufgerufen am 20.05.2019]. Verfügbar unter: https://blog.doaj.org/2017/12/13/the-reapplications-project-is-officially-complete/ Externer Link
15.
Jobmann A. Meist-zitierte Open-Access-Zeitschriften. [aufgerufen am 20.05.2019]. Verfügbar unter: https://oa2020-de.org/pages/frequentlycitedoajournals/ Externer Link
16.
List of standalone Journals. Scholarly Open Access on WordPress.com. [aufgerufen am 20.05.2019]. Verfügbar unter: https://web.archive.org/web/20170111172309/https:/scholarlyoa.com/individual-journals/ Externer Link
17.
Stop Predatory Journals. 2018 [aufgerufen am 20.05.2019]. Verfügbar unter: https://predatoryjournals.com/ Externer Link
18.
Toutloff L. Cabells Blacklist Criteria v 1.1. [aufgerufen am 20.05.2019]. Verfügbar unter: https://blog.cabells.com/2019/03/20/blacklist-criteria-v1-1/ Externer Link
19.
About QOAM – Quality Open Access Market. [aufgerufen am 20.05.2019]. Verfügbar unter: https://www.qoam.eu/about Externer Link
20.
Matumba L, Maulidi F, Balehegn M, Abay F, Salanje G, Dzimbiri L et al. Blacklisting or Whitelisting? Deterring Faculty in Developing Countries from Publishing in Substandard Journals. Journal of Scholarly Publishing. 2019;50(2):83-95. DOI: 10.3138/jsp.50.2.01 Externer Link
21.
Demir SB. Scholarly databases under scrutiny. Journal of Librarianship and Information Science. 2018 Jun 29. DOI: 10.1177/0961000618784159 Externer Link
22.
Schmitz J, Adolph C, Arning U, Hackenberg EM, Müller E. Bericht zum Vernetzungsworkshop zu Predatory Publishing bei ZB MED. [aufgerufen am 20.05.2019]. Verfügbar unter: http://zbmedblog.de/bericht-zum-vernetzungsworkshop-zu-predatory-publishing-bei-zb-med/ Externer Link
23.
Strinzel M, Severin A, Milzow K, Egger M. Blacklists and Whitelists To Tackle Predatory Publishing: a Cross-Sectional Comparison and Thematic Analysis. MBio. 2019 Jun;10(3):e00411-19. DOI: 10.1128/mBio.00411-19 Externer Link