gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Jenseits des Impact-Faktors – Was leisten alternative Metriken für Publikationen?

Leitartikel Alternative Metriken

Suche in Medline nach

  • corresponding author Götz Fabry - Albert-Ludwig-Universität Freiburg, Abt. für Med. Psychologie, Freiburg/Brg, Deutschland; GMS Journal for Medical Education, stellv. Schriftleiter, Erlangen, Deutschland
  • corresponding author Martin R. Fischer - Klinikum der Universität München, Institut für Didaktik und Ausbildungsforschung in der Medizin, München, Deutschland; GMS Journal for Medical Education, Schriftleiter, Erlangen, Deutschland

GMS J Med Educ 2017;34(2):Doc27

doi: 10.3205/zma001104, urn:nbn:de:0183-zma0011042

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2017-34/zma001104.shtml

Eingereicht: 26. April 2017
Überarbeitet: 26. April 2017
Angenommen: 26. April 2017
Veröffentlicht: 15. Mai 2017

© 2017 Fabry et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Leitartikel

Manchen unserer Leser ist vielleicht schon aufgefallen, dass einige Artikel in der JME seit kurzer Zeit mit einem „Donut“ markiert sind, einem Ring mit ein- oder mehrfarbigen ineinander verschlungenen Strängen und einer Zahl in der Mitte. Es handelt sich dabei um das Emblem der Firma Altmetrics.com [http://www.altmetric.com], die sich nach dem Sammelbegriff für Verbreitungsindikatoren wissenschaftlicher Publikationen jenseits des Impact Faktors („alternative metrics“ oder „altmetrics“) benannt hat [1], [2]. Der Donut zeigt an, in welchen Online-Medien auf den Artikel Bezug genommen wurde. Je mehr Farben der Ring enthält, desto größer ist die Zahl der verschiedenen, auf den Artikel verweisenden Medien. Ausgewertet werden dabei allgemeine Nachrichtenportale und Zeitungen, die wissenschaftliche Bibliographieplattform Mendeley, Webseiten für Post-Publication Peer Review (z.B. Publons, siehe unten), Zitationen in Scopus (der vom Verlag Elsevier betriebenen Literaturdatenbank), Wikipedia, Blogs, soziale Medien wie Facebook und Twitter, YouTube und viele andere Quellen. Die Zahl in der Mitte des Rings wird als „Aufmerksamkeits-Score“ bezeichnet und ist ein gewichtetes Maß für die Reichweite des jeweiligen Artikels in den ausgewerteten Medien (genauere Angaben zur Berechnung finden sich hier: https://goo.gl/jSLn1Y vgl. [3]). Ein Klick auf das Symbol führt zu einer Webseite, auf der die genaue, auch geographische Verteilung der medialen Aktivitäten aufgeschlüsselt ist.

Welche Bedeutung hat diese Form der Auswertung und der alternative Score? Zunächst einmal ist er Ausdruck eines, wenn auch sehr zeitverzögert und langsam einsetzenden Wandels in der wissenschaftlichen Kommunikation [4]. Die Produktivität und Qualität von Wissenschaftlerinnen und Wissenschaftlern wird derzeit in erster Linie an ihren Publikationen gemessen. Die Form dieser Publikationen ist trotz des ansonsten alle Bereiche unseres Lebens durchdringenden digitalen Wandels bemerkenswert konstant geblieben. Nach wie vor werden wissenschaftliche Erkenntnisse als Artikel in Zeitschriften veröffentlicht, die vielfach noch nach Bänden, Ausgaben und Seitenzahlen organisiert sind, auch wenn sie – zumindest im Bereich der Medizin und der Naturwissenschaften – kaum mehr auf Papier gedruckt werden. Und auch das wissenschaftliche Gratifikationssystem orientiert sich weiterhin an diesen Strukturen: Immer noch ist es die Zahl der Artikel mit möglichst großem Einfluss („Impact“), die für die Karriere eines Wissenschaftlers entscheidende Bedeutung hat. Gemessen wird der Einfluss bislang fast ausschließlich mit dem Impact-Faktor, einer Maßzahl, die angibt, wie häufig Artikel aus einer Zeitschrift in den vorangegangenen zwei Jahren von anderen wissenschaftlichen Zeitschriften zitiert worden sind [5]. Der Impact-Faktor als Maß der Forschungsleistung, insbesondere einzelner Wissenschaftler wird zunehmend kritisch gesehen: In der San Francisco Declaration on Research Assessment (DORA) aus dem Jahr 2012 fordern mittlerweile über 500 Organisationen und über 12.000 Wissenschaftlerinnen und Wissenschaftler u.a., den Impact-Faktor und vergleichbare Journal-Metriken nicht zur Beurteilung der Qualität individueller Artikel oder ihrer Autoren bzw. zu deren Einstellung oder (Be-) Förderung zu nutzen [http://www.ascb.org/dora/], [6]. Gleichzeitig ist aber kaum erkennbar, dass sich hier in absehbarer Zeit echte Veränderungen vollziehen würden, obwohl es mittlerweile zu den verschiedenen Aspekten der traditionellen Publikationspraxis durchaus alternative Vorgehensweisen gibt.

So etabliert sich in den letzten Jahren das „Post Publication Peer Review“ (PPPR) als Alternative zum herkömmlichen „Pre Publication Peer Review“ [7]. Die Gründe dafür liegen auf verschiedenen Ebenen. So gibt es bislang kaum Evidenz dafür, dass das traditionelle Peer Review-Verfahren die Qualität von Manuskripten tatsächlich verbessert, was allerdings auch an den methodischen Schwierigkeiten liegt, die eine dementsprechende Forschung erschweren [8]. Kürzlich wurde eine Studie durchgeführt, die diese Fragestellung an den Zeitschriften der Plattform BMC untersuchte, auf der die sogenannte Pre-Publication-History, also alle Gutachten zum Manuskript sowie die Antworten der Autoren veröffentlicht werden [9]. Dabei zeigte sich, dass die Gutachter insgesamt nur relativ wenige Änderungsvorschläge machten. Während diese Vorschläge mehrheitlich zu einer qualitativen Verbesserung der Manuskripte führte, gab es aber auch Vorschläge, die die Manuskripte verschlechterten. Außerdem übersahen die Gutachter viele Schwächen und Fehler in den Manuskripten, die bereits mit einfachen Tools, z.B. Checklisten auf Grundlage des CONSORT-Statements [10] hätten entdeckt werden können. Weitere Kritikpunkte beziehen sich auf die Verzögerung der Publikation, die durch das vorgeschaltete Peer Review Verfahren entstehen kann, sowie auf die Tatsache, dass in der Regel nur zwei bis drei Gutachter am Begutachtungsprozess beteiligt sind, deren fachliche Expertise zudem nicht immer bekannt oder transparent ist [7].

Mittels PPPR, für das es mit dem kürzlich online gegangenen Portal „AMEE MedEdPublish“ auch in der Medical Education Community ein Beispiel gibt [www.mededpublish.org], sollen diese Schwächen vermieden werden. Manuskripte werden dabei ohne vorherige Begutachtung bzw. wie im Fall von MedEdPublish, nach einer eher formalen, redaktionellen Prüfung, sofort veröffentlicht. Im Anschluss an die Publikation werden die Manuskripte dann von den Lesern bewertet, wobei es hier ein breites Spektrum an Vorgehensweisen gibt. Im Fall von MedEdPublish kann jeder, der sich auf der Plattform registriert hat, den Artikel begutachten und bewerten. Die damit verbundene Hoffnung ist die, dass durch die Beteiligung einer potentiell unbegrenzten Zahl von Gutachtern die Zuverlässigkeit und Validität der Bewertung zunimmt. Allerdings gibt es zusätzlich auch ein Panel von offiziellen Gutachtern, deren Bewertung nach einem festgelegten Zeitraum darüber entscheidet, ob ein Artikel eine Empfehlung erhält, die – so zumindest der Plan der Initiatoren – dann dazu führen soll, dass ein solcher Artikel in PubMed Central indexiert wird. Damit wäre er dann Publikationen in Zeitschriften mit herkömmlichem Peer Review und PubMed-Listung gleichgestellt und wäre zumindest mancherorts auch karriereförderlich verwertbar.

Neben dieser Form des PPPR, die das traditionelle Peer Review ersetzen soll, wird der Begriff aber auch verwendet, um alle Formen der Kritik bzw. Kommentierung eines Artikels zu erfassen, die nach der Veröffentlichung stattfinden, auch dann, wenn der Artikel bereits ein klassisches Peer Review durchlaufen hat. Dass das durchaus notwendig ist, zeigt sich immer wieder an Publikationsskandalen. So wurden etwa Unstimmigkeiten in hochrangig publizierten Arbeiten zur Stammzellforschung von bekannten Bloggern aufgedeckt, die schließlich zur Rücknahme der Artikel führten [11]. Zwar gibt es in Form von Leserbriefen auch bisher schon die Möglichkeit, Artikel zu kritisieren oder zu kommentieren, allerdings wirkt diese Form wissenschaftlicher Kommunikation angesichts der Möglichkeiten des Internets eher anachronistisch. Leserbriefe werden, wenn überhaupt, oft mit erheblicher Verzögerung veröffentlicht und führen auch nicht immer zu einer Antwort der Autoren, geschweige denn zu einer Reaktion der Zeitschriften, die zudem auch noch einen Interessenskonflikt haben, kritische Leserbriefe überhaupt zu veröffentlichen [12].

Insofern ist es naheliegend, Kritik und Diskussion wissenschaftlicher Arbeiten ins Internet zu verlagern. Was sich selbstverständlich anhört ist allerdings nicht so trivial, wie es scheint. Denn wo und wie genau soll diese Diskussion und Kommentierung stattfinden? Wie soll etwa bekannten Schwierigkeiten der Kommunikation in sozialen Netzwerken (z.B. Polemik und überzogene Kritik im Schutz von Anonymität bzw. von Fake-Profilen) begegnet werden? Wer wird sich mit welcher Motivation an dieser Diskussion beteiligen?

Für die Frage nach dem Ort der Diskussion zeichnen sich bereits Lösungen ab z.B. in Form sozialer Netzwerke für die Wissenschaft wie ResearchGate [www.researchgate.net] und Academia [www.academia.edu]. Auf diesen Plattformen können Wissenschaftler unter anderem ihre Publikationen zur Verfügung stellen, die Publikationen anderer lesen und kommentieren, sowie – analog zu einem Forum – verschiedene Themen diskutieren. Auf ResearchGate wird aus diesen Aktivitäten sowie der Resonanz darauf eine Maßzahl („RG Score“) berechnet, die – zumindest nach Auffassung der Firma – die Reputation des jeweiligen Wissenschaftlers innerhalb der Plattform und möglicherweise auch darüber hinaus wiedergibt. Wissenschaftliche Studien zu ResearchGate zeigen, dass die sozialen und netzwerkbezogenen Funktionen der Plattform bislang kaum genutzt werden, sondern fast ausschließlich die Möglichkeit, wissenschaftliche Artikel zu verbreiten (die dazu allerdings erst auf die Plattform hochgeladen werden müssen, was hinsichtlich des Urheberrechts in vielen Fällen nicht unproblematisch ist) [13]. Interessant ist die Frage, in wieweit die Zahl der Lesezugriffe auf ResearchGate (die ebenfalls in den RG Score eingehen) mit anderen Maßzahlen, z.B. der Zahl der Zitationen korreliert ist. In einer kürzlich dazu durchgeführten Studie zeigte sich zum einen, dass auf der Plattform jüngere Arbeiten gegenüber älteren Arbeiten stärker vertreten sind, und dass zudem die jüngeren Arbeiten häufiger gelesen werden. Ein Vergleich der Lesezugriffe auf ResearchGate mit der Zahl der Zitationen in der Literaturdatenbank Scopus sowie der Zahl der Leser auf der wissenschaftlichen Bibliographieplattform Mendeley ergab nur niedrige Korrelationen, was die Autoren dahingehend interpretieren, dass hier möglicherweise tatsächlich unterschiedliche Zielgruppen erfasst werden [14]. Das wiederum würde bedeuten, dass die jeweiligen Maßzahlen dieser verschiedenen Medien und Plattformen unterschiedliche Aspekte der Verbreitung und Resonanz von Wissenschaft erfassen und somit durchaus ihre jeweilige Berechtigung haben könnten [15].

So beliebt ResearchGate, Academia und Mendeley mittlerweile auch sein mögen: Aus wissenschaftlicher Sicht unbefriedigend ist die Tatsache, dass hinter diesen Plattformen jeweils privatwirtschaftliche Unternehmen mit entsprechenden Verwertungsinteressen stehen, die hinsichtlich ihres Geschäftsgebahrens nicht transparent sind. Daher erscheint das 2013 von PubMed gestartete Projekt „PubMed Commons“ als wesentlich vielversprechender. Jeder Autor, der eine Veröffentlichung hat, die in PubMed gelistet ist, kann sich über einen kostenlos erhältlichen NCBI-Account für diesen Dienst anmelden. Dann hat man die Möglichkeit, jeden Artikel, der in PubMed verzeichnet ist, zu kommentieren. Das Kommentarfeld befindet sich unmittelbar unter dem Artikelabstract in PubMed und die Kommentare werden jedem angezeigt, der den Artikel in PubMed aufruft. Daher können auch alle Artikel des JME (bzw. der ZMA) ab dem Jahrgang 2005 auf diese Art und Weise kommentiert und diskutiert werden. Augenscheinlich wird allerdings von dieser Möglichkeit noch kein Gebrauch gemacht und auch sonst ist die Intensität des Austauschs auf PubMed Commons bisher gering. Die Gründe dafür muss man nicht lange suchen: Angesichts der notorischen Zeitknappheit werden die wenigsten Wissenschaftler die Notwendigkeit verspüren, hier aktiv zu werden, zumal es dafür – abgesehen von der Befriedigung ideeller Motive und wissenschaftlichen Interesses – keine Gratifikationen gibt, die sich karierreförderlich auswirken könnten. Darüber hinaus werden auch noch weitere Gründe diskutiert, die in ähnlicher Form auch in den sozialen Netzwerken insgesamt eine Rolle spielen. So könnten sich insbesondere junge Wissenschaftler durchaus die Frage stellen, in wieweit sie sich etwa mit der dann öffentlichen Kritik an einem Artikel bereits arrivierter Kollegen zukünftige Karrierechancen verbauen. Die soziale Dynamik könne sich zudem negativ etwa im Sinne von Stereotypisierungen oder geschlechterbezogenen Verzerrungen auswirken [16]. Solche Überlegungen machen deutlich, dass auch das PPPR mit einigen Nachteilen einhergehen kann, was auch ein wichtiger Grund dafür ist, dass die JME derzeit noch am verblindeten Pre-Publication-Peer-Review festhält.

Zumindest was die Gratifikation für das Erstellen eines wissenschaftlichen Peer Reviews angeht (sowohl für Pre- als auch für Post- Publication) wird ebenfalls an Lösungen gearbeitet. Auf dem Portal Publons [publons.com] kann man sich als Gutachter registrieren und dann seine Gutachtertätigkeit öffentlich dokumentieren. Da bereits viele große Verlage mit diesem Portal zusammenarbeiten (u.a. Springer, Thieme, BMJ) wird einem nach Abschluss der Begutachtung bereits routinemäßig angeboten, das Gutachten dort zu dokumentieren. Dabei sind je nach Vereinbarung mit den Zeitschriften verschiedene Formen der Dokumentation möglich: Von der rein quantitativen und anonymen Angabe, wie viele Reviews gemacht wurden bis hin zur Dokumentation des Volltextes des Gutachtens. Auch wenn ein Verlag oder eine Zeitschrift noch keine Absprache mit Publons getroffen hat (wie das derzeit noch für die JME der Fall ist), können die Gutachten dort quantitativ dennoch dokumentiert werden. Auch auf Publons gibt es ein Punktesystem, mit dem die Gutachtertätigkeit honoriert wird und das sich, jedenfalls nach den Vorstellungen der Firmengründer, förderlich auf die Karriere oder zumindest die Anerkennung im akademischen Umfeld auswirken soll [17].

Dieser kursorische Überblick über einige Online-Aktivitäten, die in den Altmetrics-Donut und -Score einfließen verdeutlicht, dass sich jenseits von wissenschaftlichen Artikeln und dem vielfach kritisierten Impact-Faktor vielgestaltige wissenschaftliche Aktivitäten entfalten, deren Potential – einerseits – derzeit noch nicht ausgeschöpft wird und deren Bedeutung – andererseits – momentan noch nicht wirklich eingeschätzt werden kann [18]. Dennoch erscheint es sinnvoll und notwendig, diese Aktivitäten zu erfassen und sich daran zu beteiligen, soweit es die eigenen Möglichkeiten und Ressourcen zulassen. In diesem Sinne möchten wir jedenfalls alle unsere Autorinnen und Autoren, Gutachterinnen und Gutachter, Leserinnen und Leser dazu auffordern, auf ihre Arbeiten in anderen Medien und Netzwerken hinzuweisen, damit die fachliche Diskussion zu intensivieren und – nicht zuletzt – die Aufmerksamkeit für die JME zu vergrößern [19].


Interessenkonflikt

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Buschman M, Michalek A. Are alternative metrics still alternative? Bull Ass Inform Sci Technol. 2013;39(4):35-39. DOI: 10.1002/bult.2013.1720390411 Externer Link
2.
Chisolm MS. Altmetrics for medical educators. Acad Psychiatry. 2016. DOI: 10.1007/s40596-016-0639-3 Externer Link
3.
Trueger NS, Thoma B, Hsu CH, Sullivan D, Peters L, Lin M. The altmetric score: a new measure for article-level dissemination and impact. Ann Emerg Med. 2015;66(5):549-553. DOI: 10.1016/j.annemergmed.2015.04.022 Externer Link
4.
Bartling S, Friesike S. Towards another scientific revolution. In: Bartling S, Friesike S (Hrsg). Opening science - The evolving guide on how the internet is changing research, collaboration and scholarly publishing. Heidelberg: Springer Open; 2014. S.3-15. https://doi.org/10.1007/978-3-319-00026-8_1 Externer Link
5.
Garfield E. The history and meaning of the Journal Impact Factor. JAMA. 2006;295(1):90-93. DOI: 10.1001/jama.295.1.90 Externer Link
6.
Alberts B. Impact Factor Distortions. Science. 2013;340(6134):787. DOI: 10.1126/science.1240319 Externer Link
7.
Teixeira da Silva JA, Dobránszki J. Problems with traditional science publishing and finding a wider niche for post-publication peer review. Account Res. 2015;22(1):22-40. DOI: 10.1080/08989621.2014.899909 Externer Link
8.
Jefferson T, Rudin M, Brodney Folse S, Davidoff F. Editorial peer review for improving the quality of reports of biomedical studies. Cochrane Database Syst Rev. 2007;(2):MR000016. DOI: 10.1002/14651858.mr000016.pub3 Externer Link
9.
Hopewell S, Collins GS, Boutron I, Cook J, Shanyinde M, Wharton R, Shamseer L, Altman DG. Impact of peer review on reports of randomised trials published in open peer review journals: retrospective before and after study. BMJ. 2014;349:g4145. DOI: 10.1136/bmj.g4145 Externer Link
10.
Schulz AF, Altman DG, Moher D, CONSORT Group. CONSORT 2010 Statement: updated guidelines for reporting parallel group randomised trials. BMC Med. 2010;8:18. DOI: 10.1186/1741-7015-8-18 Externer Link
11.
Knoepfler P. Reviewing post-publication peer review. Trends Genet. 2016;31(5):221-223. DOI: 10.1016/j.tig.2015.03.006 Externer Link
12.
Schriger DL, Altman DG. Inadequate post-publication review of medical research. BMJ. 2010;341:c3803. DOI: 10.1136/bmj.c3803 Externer Link
13.
Nicholas D, Herman E, Jamali H, Rodríguez-Bravo B Boukacem-Zeghmouri C, Dobrowolski T, Pouchot S. New ways of building, showcasing, and measuring scholarly reputation. Learn Publ. 2015;28(3):169-183. DOI: 10.1087/20150303 Externer Link
14.
Thelwall M, Kousha K. ResearchGate articles: age, discipline, audience size and impact. J Ass Inform Sci Technol. 2017;68(2):468-479. DOI: 10.1002/asi.23675 Externer Link
15.
Costas R, Zahedi Z, Wouters P. Do "altmetrics" correlate with citations? Extensive comparison of altmetric indicators with citations from a multidisciplinary perspective. J Ass Inform Sci Technol. 2015;66(10):2003-2019. DOI: 10.1002/asi.23309 Externer Link
16.
Bastian H. A stronger post-publication culture is needed for better science. PLOS Med. 2014;11(12):e1001772. DOI: 10.1371/journal.pmed.1001772 Externer Link
17.
van Noorden R. The scientists who get credit for peer review. Nature News 9.10.2014; http://www.nature.com/news/the-scientists-who-get-credit-for-peer-review-1.16102 DOI: 10.1038/nature.2014.16102 Externer Link
18.
Bornmann L. Do altmetrics point to the broader impact of research? An overview of benefits and disadvantages of altmetrics. J Infometrics. 2014;8:895-903. DOI: 10.1016/j.joi.2014.09.005 Externer Link
19.
Kwok R. Altmetrics make their mark. Nature. 2013;500:491-493. DOI: 10.1038/nj7463-491a Externer Link