gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Kritische Bewertung von RCTs nach einem EBM-Grundkurs im dritten Studienjahr im Vergleich zur Expertenbewertung

Artikel Evidenzbasierte Medizin

  • corresponding author B. Buchberger - Universität Duisburg-Essen, Fakultät für Wirtschaftswissenschaften, Lehrstuhl für Medizinmanagement, Essen, Deutschland
  • J.T. Mattivi - Universität Duisburg-Essen, Fakultät für Wirtschaftswissenschaften, Lehrstuhl für Medizinmanagement, Essen, Deutschland
  • C. Schwenke - SCO:SSiS, Schwenke Consulting: Strategies and Solutions in Statistics, Berlin, Deutschland
  • C. Katzer - Universität Duisburg-Essen, Fakultät für Wirtschaftswissenschaften, Lehrstuhl für Medizinmanagement, Essen, Deutschland
  • H. Huppertz - Universität Duisburg-Essen, Fakultät für Wirtschaftswissenschaften, Lehrstuhl für Medizinmanagement, Essen, Deutschland
  • J. Wasem - Universität Duisburg-Essen, Fakultät für Wirtschaftswissenschaften, Lehrstuhl für Medizinmanagement, Essen, Deutschland

GMS J Med Educ 2018;35(2):Doc24

doi: 10.3205/zma001171, urn:nbn:de:0183-zma0011712

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2018-35/zma001171.shtml

Eingereicht: 21. März 2017
Überarbeitet: 25. November 2017
Angenommen: 31. Januar 2018
Veröffentlicht: 15. Mai 2018

© 2018 Buchberger et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Einleitung: Ein wesentliches Ziel von Kursen in evidenzbasierter Medizin (EBM) ist die Verbesserung von Fähigkeiten für adäquates Lesen und Interpretieren medizinischer Fachliteratur. Hinsichtlich der Konzeption ist es wichtig, unterschiedliche Ausbildungsgrade zu berücksichtigen.

Ziel: Primäres Ziel war die Untersuchung der Anwendbarkeit verschiedener Instrumente zur Bewertung der methodischen Qualität von publizierten Studien durch Studenten im dritten Studienjahr nach einem Kurzlehrgang in EBM. Sekundäre Ziele waren Übereinstimmung mit Experten-Bewertungen sowie Kenntnisse und Kompetenzen der Studenten.

Methoden: Vier Veranstaltungen zur EBM von jeweils 90 Minuten wurden für Medizinmanagement- und Medizinstudenten mit dem Fokus auf die kritische Bewertung von Literatur in Hinblick auf ein Bias-Risiko durchgeführt. Am Ende bewerteten die Studenten fünf Publikationen über randomisierte klinische Studien (RCTs) mit fünf verschiedenen Instrumenten; die Ergebnisse wurden mit Bewertungen von Experten verglichen.

Ergebnisse: Insgesamt nahmen 167 Studenten an den EBM-Kursen teil. Im Vergleich zu den Experten-Bewertungen zeigten die Bewertungen der Studenten eine nicht systematische Über- und Unterschätzung des Bias-Risikos ohne erkennbare Richtung. Die Übereinstimmung mit den Experten-Bewertungen reichte von 66% bis über 80%. Für die RCTs zeigte sich, dass die Auswahl des Instruments einen Einfluss auf die Übereinstimmungsrate zwischen studentischen und Experten-Bewertungen hatte (p=0,0158). Bei drei RCTs konnte ein Einfluss des Instruments auf die Übereinstimmungsrate festgestellt werden (jeweils p<0,05).

Diskussion: Die Ergebnisse stehen in starkem Widerspruch zu denen vieler anderer, vergleichbarer Erhebungen. Gründe können in der mangelnden Motivation der Studenten für die Pflichtveranstaltung liegen. Es ist aber auch möglich, dass der Vergleich mit einem Referenzstandard als Ergänzung zu Selbstauskünften zu Objektivität führte.

Schlussfolgerung: Nicht graduierte Studenten sollten mit den Prinzipien der EBM so früh wie möglich vertraut gemacht werden, ebenso mit Forschungsmethoden und der Lektüre von wissenschaftlichen Publikationen. Für ein tieferes Verständnis scheint klinische Erfahrung eine unverzichtbare Voraussetzung zu sein. Auf der Basis unserer Ergebnisse empfehlen wir, Veranstaltungen zur EBM und kritischen Bewertung mindestens zweimal im Studienverlauf und mit größerer Intensität kurz vor dem Abschluss durchzuführen.

Schlüsselwörter: Kritische Bewertung, evidenzbasierte Medizin, randomisierte kontrollierte Studie, Training, nicht graduierte Studenten


1. Einleitung

Der Bekanntheitsgrad von evidenzbasierter Medizin (EBM) nimmt weltweit zu, und die Akzeptanz für das Konzept wächst. Im Januar 2007 führte das British Medical Journal eine Online-Abstimmung zu den 15 bedeutendsten medizinischen Meilensteinen durch, und EBM erreichte Platz sieben, unmittelbar hinter Keimtheorie und oraler Empfängnisverhütung, aber vor Computern und medizinischer Bildgebung [1], [2]. Die Förderung einer Kultur der EBM und ihre Implementierung in die Praxis setzt jedoch die Fähigkeit zur Identifizierung und kritischen Bewertung von Literatur voraus [3], [4], [5]. Gewisse Kenntnisse über Wahrscheinlichkeit und Statistik sind dafür zwingend erforderlich, wie auch für das Verständnis von Leitlinien und Evidenz-Synthesen, die Bewertung von Marketing- und Werbemaßnahmen der Industrie, Interpretation von Ergebnissen eines Screening-Tests oder der Lektüre von wissenschaftlichen Publikationen, um auf dem neuesten Stand der Entwicklung von Behandlungen zu bleiben; darüber hinaus sind Kenntnisse der Biostatistik notwendig, um numerische Daten zu analysieren, Patienten über Behandlungsrisiken aufzuklären, und nicht zuletzt, um auf Situationen vorbereitet zu sein, in denen Patienten Literatur unterschiedlichster Qualität aus dem Internet präsentieren [6], [7]. Tatsächlich stellt sich die Frage nicht länger, ob EBM unterrichtet werden soll, sondern wie [8] und wann. Abgesehen von verschiedenen pädagogischen Methoden wie z.B. „Training-on-the-job“, problembasiertem oder selbstgesteuertem Lernen [9] kann das Konzept der EBM als Ganzes, aber auch getrennt nach einzelnen der fünf Schritte vermittelt werden; diese sind:

1.
Stellen einer klinischen Frage,
2.
Suche nach der besten Evidenz,
3.
kritische Bewertung der Evidenz,
4.
Anwenden der Evidenz bei Patienten,
5.
Selbstbewertung [8].

Es gibt eine große Anzahl von Kursen zur Einführung in Datenbankrecherchen durch Bibliothekare [9] oder in Lerngruppen zum Trainieren der kritischen Bewertung von Literatur [9], [10], [11]. Um den Wissenszuwachs durch den Besuch von EBM-Kursen zu messen, sind objektive Methoden von größerem Wert als Selbstbewertungen, die zu erheblichen Überschätzungen führen [12], [13].

In früheren Studien wurde der Effekt von EBM-Kursen überwiegend durch Selbstauskünfte der Teilnehmer gemessen [4], [11] oder in Form von Fragebögen mit Multiple-Choice-Fragen [14]. Zusätzlich zu Selbstbewertungen war das Ziel der vorliegenden Studie eine gewisse Objektivität infolge des Vergleichs von Bewertungen durch Studenten mit Experten-Bewertungen als Referenzstandard.

Primäres Ziel war die Untersuchung der Anwendbarkeit verschiedener Instrumente zur Bewertung der methodischen Qualität von publizierten Studien durch Studenten im dritten Studienjahr nach einem Kurzlehrgang in EBM. Sekundäre Ziele waren Übereinstimmung mit Experten-Bewertungen sowie Kenntnisse und Kompetenzen der Studenten.


2. Methoden

Es wurden Medizinstudenten der medizinischen Fakultät unmittelbar nach Abschluss der Vorklinik und Studenten im Masterprogramm Medizinmanagement der wirtschaftswissenschaftlichen Fakultät der Universität Duisburg-Essen in die Untersuchung eingeschlossen. Im Kontext einer Vorlesungsreihe zur Gesundheitsökonomie, durchgeführt durch den Lehrstuhl für Medizinmanagement und Pflichtveranstaltung für Medizinstudenten, wurden den Studenten im Wintersemester 2013/2014 in vier Veranstaltungen zu jeweils 90 Minuten die Prinzipien der EBM vermittelt. Die Anzahl der Teilnehmer war auf 20 Studenten pro Termin beschränkt. Ein Glossar mit Begriffen zur Schnellsuche wurde ausgehändigt (siehe Anhang 1 [Anh. 1]).

2.1. Beschreibung von Instrumenten und Experten

Auf der Basis eines Health Technology Assessment Berichts wurde der Fokus auf generische Instrumente publiziert nach dem Jahr 2000 zur Komponentenbewertung der Qualität von Evidenz gerichtet [15]. Mit einem Instrument zur Komponentenbewertung werden alle Aspekte, die zu Bias führen können, wie z.B. Randomisierung oder Art der Verblindung erfasst. Fünf Instrumente wurden eingesetzt [16], [17], [18], [19], [20], die sich in der Anzahl von Domänen, Fragen innerhalb von Domänen und Antwortmöglichkeiten unterschieden (siehe Tabelle 1 [Tab. 1]).

In einem zweiten Schritt wurden die Studenten gebeten, das Gesamtrisiko für Bias auf einer fünfstufigen Likert-Skala (sehr gering, gering, mäßig, hoch, sehr hoch) auf der Basis der einzelnen Biasrisiko-Bewertungen zu beurteilen. Jeder Student hatte fünf Publikationen über fünf randomisierte kontrollierte Studien (RCTs) auszuwerten. Die Bewertung von fünf RCTs durch fünf Instrumente ergab 25 Kombinationen von RCTs mit Instrumenten. Um den Aufwand für die Studenten zu reduzieren, musste jede RCT nur mit einem Instrument, das zufällig ausgewählt war, bewertet werden, soadass jeder Student lediglich fünf Auswertungen vornehmen musste. Dabei wurde mithilfe einer Permutation sichergestellt, dass jede RCT mit jedem Instrument durch dieselbe Anzahl von Studenten bewertet wurde.

Parallel dazu wurden die fünf RCTs von fünf Experten mit jeweils einem Instrument, das zufällig zugeteilt wurde, bewertet (siehe Tabelle 2 [Tab. 2] zur Zuordnung von Bewertungsinstrument und RCT zu Experten). Diese Bewertungen dienten als Referenz-Standard (Goldstandard). Die Experten mussten folgende Kriterien erfüllen: Unabhängigkeit von der Universität Duisburg-Essen, mehr als zehnjährige Erfahrung in der kritischen Bewertung von klinischen Studien, berufliche Position mit der Verantwortung für derartige Bewertungen.

2.2. Veranstaltungen

Zu Beginn wurde das Konzept der EBM und seine fünf Schritte anhand eines Einzelfallbeispiels detailliert vorgestellt. Wesentliche Begriffe wurden theoretisch und nach traditionellem pädagogischen Ansatz erklärt: interne und externe Validität, Qualitätsparameter wie Randomisierung, verdeckte Gruppenzuteilung, Verblindung, Drop-out/lost to follow-up, intention-to-treat (ITT)-Analyse, Evidenzlevel von Studiendesigns, PICO-Schema und verschiedene Arten von Bias. Zusätzlich wurde die Struktur von wissenschaftlichen Publikationen erläutert und auf Textabschnitte hingewiesen, in denen die Beschreibung oder Diskussion von Validitätsaspekten üblicherweise erfolgt.

Im Anschluss daran führten die Studenten eine praktische Übung auf Basis der gegebenen Informationen durch. Als Hilfe wurde eine Folie gezeigt, auf der ein Glossar mit Begriffen zur Schnellsuche abgebildet war (siehe Anhang 1 [Anh. 1]).

Die zweite Veranstaltung began mit einer Wiederholung und Vertiefung der gewonnenen Kenntnisse. Zu diesem Zweck wurden die Teilnehmer gebeten, sich in Gruppen aufzuteilen und Schlüsselbegriffe Qualitätsparametern zuzuordnen. Im Anschluss an interne Diskussionen fand mittels Flipchart eine Posterpräsentation statt, während der die zugeordneten Begriffe und Qualitätsparameter den jeweils anderen Gruppen erläutert werden mussten. Zum weiteren Verständnis wurden Simulationen von Randomisierung, Verblindung, verdeckter Gruppenzuteilung, Stratifizierung, Drop-out/ lost to follow-up und verschiedenen Arten von Analysen wie z.B. ITT durchgeführt.

In der dritten Veranstaltung wurden zunächst die Komponentensysteme zur Qualitätsbewertung vorgestellt und einzelne Fragen zu den Instrumenten diskutiert. Anschließend wendeten die Teilnehmer die Systeme auf quasi zufällig ausgewählte RCTs zu den häufigsten chronischen Erkrankungen gemäß Definition der WHO an, und die Ergebnisse wurden diskutiert.

In der letzten Veranstaltung wurden die Fähigkeiten der Studenten durch Anwendung der Komponentensysteme auf ein weiteres Set von kürzlich publizierten RCTs getestet. Auch hier wurde mittels Permutation sichergestellt, dass die Zuordnung von Instrumenten zu den RCTs balanciert war. Die Analysen der methodischen Studie basieren auf diesen Bewertungen.

2.3. Analyse

Die Häufigkeiten der Bewertungen der Medizin- und Medizinmanagementstudenten wurden für jede RCT und jedes Instrument berechnet. Zusätzlich wurden die Übereinstimmungsraten zwischen den Teilnehmern und den Experten bestimmt. Eine Übereinstimmung lag vor, wenn die Bewertung des Teinehmers um maximal einen Punkt auf der Likert-Skala von der Bewertung des Experten abwich. Generalisierte Schätzgleichungen (Generalized estimation equations) wurden verwendet, um den Einfluss des Instruments, der Studentengruppe und der RCT auf die Übereinstimmungsrate zu untersuchen. In einer zweiten Analyse wurde der Effekt des Instruments und der Studentengruppe pro RCT untersucht. In einer weiteren Analyse wurde der Einfluss der Faktoren „Erfahrung mit kritischen Bewertungen“ und „Englischkenntnisse“ untersucht. Alle Analysen wurden mit der Software SAS 9.2 (SAS Institute Inc., Cary, NC, USA) durchgeführt.


3. Ergebnisse

Insgesamt nahmen 167 Studenten an den EBM-Kursen teil, von denen 142 Medizinstudenten im dritten Studienjahr und 25 Studenten des Masterprogramms Medizinmanagement waren (siehe Tabelle 3 [Tab. 3]).

Die Untersuchung des primären Zielparameters, Anwendbarkeit verschiedener Instrumente zur Bewertung von methodischer Studienqualität, erbrachte weder Evidenz zur Verständlichkeit der Instrumente, noch zu den ggf. vorhandenen Hinweisen zum Gebrauch der Instrumente oder zur Dauer des Bewertungsprozesses.

Hinsichtlich der sekundären Zielparameter werden lediglich signifikante Ergebnisse zur Übereinstimmung mit Experten-Bewertungen berichtet. In Abbildung 1 [Abb. 1] sind die prozentualen Anteile der fünf Bewertungen nach RCT und Instrument der Medizinstudenten dargestellt.

Der schwarze Balken stellt die Expertenbewertung dar; z.B. identifizierte der Experte für RCT 1 [21] ein hohes Potential für Bias, für RCT 2 [22] mit dem IQWiG-Instrument ein niedriges Potential für Bias. Die Höhe des Balkens zeigt den Anteil der Bewertungen der Studenten gemäß der Likert-Skala. Die Höhe des schwarzen Balkens zeigt, wieviele Studenten die gleiche Bewertung wie der Experte wählten. Die Bewertungen der gleichen Studie durch verschiedene Experten mit verschiedenen Instrumenten wiesen einige Variabilität auf. Um dem Rechnung zu tragen, wurde als Übereinstimung der Studentenbewertungen mit den Expertenbewertungen eine Toleranz von +/-1 Punkt auf der Likert-Skala als gleich akzeptiert. Der Großteil der Bewertungen zeigte eine Übereinstimmungsrate im Bereich von 66% bis über 80% und wurde als adäquat angesehen.

In Tabelle 4 [Tab. 4] sind die Übereinstimmungsraten für die „Übereinstimmung mit +/-1“ nach Studentengruppe für die verschiedenen RCTs und die fünf Instrumente dargestellt. Über die RCTs hinweg zeigte sich ein deutlicher Effekt durch die Wahl des Instruments auf die Übereinstimmung (p=0.0158), wohingegen die Studentengruppe und die verschiedenen RCTs keinen Einfluss zeigten (p=0.3856, bzw. p=0.2425). In den Analysen nach RCT zeigte sich ein Einfluss des Instruments auf die Übereinstimmungsrate in den RCTs 1, 2 und 3 (p=0.0146, p=0.0263 und p<0.0001). Für den Endpunkt „Übereinstimmung +/-1“ wurde kein Einfluss der Faktoren „Erfahrung mit kritischen Bewertungen“ und „Englischkenntnisse“ gefunden. Zu beachten ist dabei, dass viele Details in den Publikationen mit sehr unterschiedlicher Detailtiefe beschrieben waren. So wurde z.B. zur Randomisierung in einem Fall ausgeführt: „the allocation code was concealed in sequentially numbered, opaque, sealed envelopes“ [21], in einer anderen Publikation wurde lediglich erwähnt, dass eine Randomisierung durchgeführt wurde ohne Nennung weiterer Details [23].


4. Diskussion

Eine nicht systematische Über- und Unterschätzung des Bias-Risikos ohne erkennbare Richtung konnte im Vergleich der Experten-Bewertungen mit Studenten-Bewertungen festgestellt werden. Dies entspricht auf gewisse Weise den Antworten, die die Studenten am Ende der vier Veranstaltungen zur EBM auf die Frage nach gewonnenen Kenntnissen gaben: 73% der Medizinstudenten bewerteten diese als schwach oder gering. Unsere Ergebnisse stehen in starkem Widerspruch zu denen vieler anderer Erhebungen am Ende von EBM-Kursen für nicht graduierte Studenten. In einem Vorher-Nachher-Vergleich konnten Weberschock et al. [14] einen signifikanten Leistungsanstieg bei 124 deutschen Medizinstudenten im dritten Studienjahr von 2,37 Score-Punkten vor dem Seminar und 9,85 Score-Punkten nach dem Seminar beobachten (95% KI [8,94; 10,77], p<0,001). In einer kontrollierten Studie zeigten Ghali et al. [11] einen signifikanten Unterschied für Literaturrecherche (p<0.002) und Fähigkeiten zur kritischen Bewertung (p<0.0002) zwischen Medizinstudenten aus Boston, die entweder vier Veranstaltungen zur EBM oder traditionelle Lehrveranstaltungen zu unterschiedlichen klinischen Themengebieten besucht hatten. Einem systematischen Review [4] über den Effekt von Lehrveranstaltungen zu kritischer Bewertung mit zehn eingeschlossenen klinischen Studien zufolge sowie einem vor kurzem publizierten Review [9] mit 14 eingeschlossenen RCTs über Lehrmethoden der EBM für Medizinstudenten konnte in allen Studien ein Anstieg der Kompetenzen nach der Intervention festgestellt werden. Ein Grund für diese Unterschiede im Vergleich zu den Ergebnissen der vorliegenden Studie kann die Selbstselektion hoch motivierter Teilnehmer im Gegensatz zu unseren Studenten, die eine Pflichtveranstaltung besuchten, sein. Zusätzlich dazu war die Objektivität der Evaluationen nicht immer gegeben, die aus vollständigen Selbstauskünften, einer Art Fragebogen mit Multiple-Choice-Fragen [14] und validierten Tests bestanden. Wie von Fritsche et al. 2002 [24] angeführt, die die Effekte von EBM-Kursen auf Experten, postgraduierte Ärzte und Medizinstudenten verglichen, ist eine objektive Evaluation von EBM-Kursen schwierig aber unentbehrlich, denn die Korrelation zwischen subjektiver Wahrnehmung von Wissen und objektiver Bewertung ist schwach [3].

In unserer Studie wurden die Bewertungen der Studenten mit einem Referenzstandard verglichen, der von Experten gesetzt war und daher eine gewisse Objektivität garantierte, die zugegebenermaßen immer auch durch individuelle Erfahrungen und Ansichten geprägt ist; zusätzlich wurden Eigenangaben über den Wissenszuwachs erhoben.

Da jeder Experte nur jeweils eine Studie mit einem Instrument bewertete, konnte die Reliabilität nicht getestet werde. An dieser Stelle sei erwähnt, dass Reliabilität und Validität der meisten gängigen Bewertungsinstrumente nicht überprüft sind [25]. Mit Ausnahme von zwei Instrumenten [16], [20] trifft das auch auf die in der vorliegenden Studie verwendeten Instrumente zu. Bei der Bewertung des Risk-of-Bias-Tool der Cochrane Collaboration [16] stellten Hartling et al. [26] eine große Spannweite der Interrater-Reliabilität bei Expertenbewertungen in einzelnen Domänen fest, die von leicht bis substantiell reichte (gewichtetes κ=0,13-0,74). Aufgrund der Tatsache, dass die Autoren alle in demselben Institut und Review-Team arbeiten, vermuten sie eine deutlich größere Variabilität zwischen verschiedenen Forschungseinrichtungen. Als Erklärung für die große Spannweite in den Übereinstimmungen zwischen Bewertern diskutieren die Autoren den Bedarf für verständliche und detaillierte Ausfüllhinweise, um die Reliabilität zu verbessern [26].

Wie der Abbildung 1 [Abb. 1] zu entnehmen ist, führen die unterschiedlichen Instrumente zu unterschiedlichen Expertenbewertungen derselben Studie. Grund dafür können die verschiedenen Domänen sein, zusätzliche Informationen, die durch manche Instrumente erhoben werden, aber auch die unterschiedliche Tiefe von Fragen. Es mag zu diskordanten Schlussfolgerungen führen, wenn gewisse Aspekte durch manche Instrumente nicht abgefragt werden, anstelle dessen aber andere. Um diese Unsicherheit zu berücksichtigen, wurde eine weniger enge Definition von Übereinstimmung in der Weise vorgenommen, dass eine Bewertung +/- einen Punkt als Übereinstimmung gewertet wurde. Selektionsbias in Form von Publikationsbias und Berichtsbias kann für alle oben beschriebenen Studien angenommen werden, in denen eindeutig positive Effekte von EBM-Kursen festgestellt wurden.

Das Ausmaß und die Verständlichkeit, mit der einzelne Punkte in den Publikationen beschrieben waren, variierte stark und stellte zum Teil eine unlösbare Aufgabe für unerfahrene nicht graduierte Studenten dar, die auch zu einer Verzerrung der Analyse geführt haben kann.

Es ist bemerkenswert, dass die Beschreibung mancher Aspekte in höher rangigen Zeitschriften (RCT 3 and 4 [27], [23]), die die Einhaltung spezieller Statements zur Berichtsqualität erfordern, für die Studenten weniger verständlich waren als die in Zeitschriften mit einem geringeren Einfluss. Auf die Tatsache, dass eine kritische Bewertung immer auch Subjektivität durch Interpretation beinhaltet, genauso wie auch Scoringsysteme lediglich objektiv erscheinen, aber eine explizite oder implizite Gewichtung ohne empirische Basis [28] bedeuten, sei an dieser Stelle hingewiesen.

Die Anzahl von fünf verschiedenen Bewertungsinstrumenten mag zu hoch gewesen sein. Andererseits führte die Wiederholung von Begriffen auch zu größerer Vertrautheit, und es wurde lediglich Schritt 3 des EBM-Konzepts detailliert behandelt, wodurch die Wissensleistung stark fokussiert war. Insbesondere kann das Trainieren von Schritt 1, der Formulierung einer Forschungsfrage, die operationalisiert werden kann, für nicht graduierte Studenten ohne Erfahrung in wissenschaftlichem Arbeiten viel Zeit beanspruchen. Dasselbe gilt für Schritt 2, der Literaturrecherche in elektronischen Datenbanken.

Das von uns gewählte separate Unterrichten der kritischen Bewertung ist weit verbreitet und auch bekannt als „Journal Club“, für den Teilnehmer unter der Anleitung eines Experten Artikel kritisch lesen und bewerten [4]. Um auf dem neuesten Stand zu bleiben, müssen klinisch tätige Ärzte täglich zahlreiche Artikel lessen, und um das bewältigen zu können, ist ein Training erforderlich [29]. Aus diesem Grund und aufgrund von Empfehlungen dieses Formats für das Unterrichten von EBM unter bestimmten Bedingungen [10] wurde Schritt 3 des EBM-Konzepts in den Fokus genommen. Allerdings wurden dadurch andere Schwierigkeiten hervorgerufen, denn kritische Bewertung schließt Kenntnisse in Epidemiologie, Informatik und Biostatistik ein [9].

Obwohl der Besuch von Vorlesungen in Epidemiologie und Psychologie, in denen anteilig auch Statistik gelehrt wird, in den ersten beiden Studienjahren in Deutschland verpflichtend ist, berichteten 69% unserer Medizinstudenten über schwache oder geringe Kenntnisse in Statistik und/oder Epidemiologie, was zeigt, dass Einstellungen gegenüber einer Sache und Kenntnisse nicht in gleicher Weise verteilt sind, und dass das Unterrichten von EBM die Bedürfnisse unterschiedlich Lernender berücksichtigen muss [8]. Möglicherweise sind Schritt 1 und 2 des EBM-Konzepts für eine Einführung und zur Förderung einer wissenschaftlichen Denkweise besser geeignet. Als Alternative dazu und auch, um dem Vorwurf einer Loslösung von klinischer Praxis zu begegnen [30], kann das Unterrichten von Schritt 4, der Anwendung der Evidenz auf einzelne Fälle, in Betracht gezogen werden. Allerdings ist das bei nicht Graduierten, denen praktische Erfahrung fehlt und für die das konkrete Ziel nur eine vage Idee darstellt, kaum sinnvoll. Diese Tatsache wird durch langjährige Erfahrungen aus Duke und Stanford unterstrichen, die zu einem Curriculum führten, in dem klinisches Training Bedingung für Forschungerfahrungen ist, weil Studenten dadurch besser darauf vorbereitet sind, das klinische und translationale Potential ihrer Forschungsprojekte zu verstehen [31]. Um Unvoreingenommenheit und eine bessere Bewertung zu erreichen, wäre es ebenfalls günstig, wenn Studenten mit dem ganzen Entwicklungsprozess einer klinischen Studie und der Bedeutung seiner einzelnen Aspekte vertraut wären [32].

Die Fähigkeit, medizinische Literatur zu identifizieren und kritisch zu bewerten, ist unabdingbare Voraussetzung dafür, die beste verfügbare Evidenz bei klinischen Entscheidungen anwenden zu können [13]. Ohne Hintergrundwissen in Methodik und Statistik sind Ärzte einem hohen Risiko ausgesetzt, Evidenz falsch zu interpretieren, wodurch Behandlungsfehler und unerwünschte Ereignisse hervorgerufen werden [28].

Swift et al. [6] untersuchten die Ansichten von 130 Ärzten über Aus- und Weiterbildungsmaßnahmen in Statistik und deren Bedarf für die tägliche Praxis. Als Studenten hatten mehr als die Hälfte der Befragten (60%) den Wert des Fachs für die ärztliche Arbeit unterschätzt, wohingegen die Mehrheit (73%) die Bedeutung im Laufe ihrer Karriere erkannt hatte. Entgegen der wachsenden Überzeugung hinsichtlich der Relevanz von EBM liegt Evidenz für weiterhin bestehende Wissenslücken bei grundlegenden statistischen Konzepten unter praktizierenden Ärzten und in der Medizin forschenden Wissenschaftlern vor [32]. Ebenfalls fehlt es bei einer Mehrheit des Gesundheitspersonals, inklusive von Ärzten, translationalen Forschern, Pflegepersonal und anderen Gesundheitsfachberufen, an Basiswissen über methodologische Schlüsselbegriffe und Quellen der EBM [12], [13]. Um diese Situation zu verbessern, müssen insbesondere Studenten dabei unterstützt werden, die Überzeugung von der Bedeutung dieser Fächer für die klinische Praxis gewinnen zu können [32]. Es bleibt zu hoffen, dass zukünftige Ärzte Forschungsergebnisse besser bewerten können und dazu beitragen, den klinischen Bereich durch Forschung voranzubringen [33].


Danksagung

Wir danken Tobias Goeke, Angelika Gohlke, Anja Hagen, Beate Lux und Monika Nothacker für ihre Experten-Bewertungen.


Ethische Genehmigung

Inhalt und Struktur des Seminars waren durch den Dekan genehmigt. Es gab keinen Kontakt zu Patienten.


Interessenkonflikt

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Godlee F. Milestones on the long road to knowledge. BMJ. 2007;344:s2. DOI: 10.1136/bmj.39062.570856.94 Externer Link
2.
Meskó B. Medical Milestones on the long road to knowledge. [Internet]. 2007. [cited 2015 Sept 09]. Zugänglich unter/available from http://scienceroll.com/2007/01/18/medical-milestones-on-the-long-road-to-knowledge/ Externer Link
3.
Khan KS, Awonuga A, Dwarakanath LS, Taylor R. Assessments in evidence-based medicine workshops: loose connection between perception of knowledge and its objective assessment. Med Teach. 2001;23(1):92-94. DOI: 10.1080/01421590150214654 Externer Link
4.
Norman GR, Shannon SI. Effectiveness of instruction in critical appraisal (evidence-based medicine) skills: a critical appraisal. Can Med Assoc J. 1998;158(2):177-181.
5.
Horsley T, Hyde C, Santesso N, Parkes J, Milne R, Stewart T. Teaching critical appraisal skills in healthcare settings. Cochrane Database Syst Rev. 2011;(11):CD001270. DOI: 10.1002/14651858.CD001270pub2 Externer Link
6.
Swift L, Miles S, Price GM, Shepstone L, Leinster SJ. Do doctors need statistics? Doctors' use of and attitudes to probability and statistics. Stat Med. 2009;28(15):1969-1981. DOI: 10.1002/sim.3608 Externer Link
7.
Altman DG, Bland JM. Improving doctors' understanding of statistics. J Royal Stat Soc. 1991;154(2):223-267. DOI: 10.2307/2983040 Externer Link
8.
Straus SE, Green ML, Bell DS, Badgett R, Davis D, Gerrity M, Ortiz E, Shaneyfeldt TM, Whelan C, Mangrulkar R; Society of General Internal Medicine Evidence-Based Medicine Task Force. Evaluating the teaching of evidence based medicine: conceptual framework. BMJ. 2004;329(7473):1029-1032. DOI: 10.1136/bmj.329.7473.1029 Externer Link
9.
Ilic D, Maloney S. Methods of teaching medical trainees evidence-based medicine: a systematic review. Med Educ. 2014;48(2):124-135. DOI: 10.1111/medu.12288 Externer Link
10.
Coomarasamy A, Khan KS. What is the evidence that postgraduate teaching in evidence based medicines changes anything? A systematic review. BMJ. 2004;329(7473):1017. DOI: 10.1136/bmj.329.7473.1017 Externer Link
11.
Ghali WA, Saitz R, Eskew AH, Gupta M, Quan H, Hershman WY. Successful teaching in evidence-based medicine. Med Educ. 2000;34(1):18-22. DOI: 10.1046/j.1365-2923.2000.00402.x Externer Link
12.
Young JM, Glasziou P, Ward JE. General practitioners' self rating of skills in evidence based medicine: validation study. BMJ. 2002;324(7343):950-951. DOI: 10.1136/bmj.324.7343.950 Externer Link
13.
Ugolini D, Casanova G, Ceppi M, Mattei F, Neri M. Familiarity of physicians, translational researchers, nurses, and other health professionals with evidence-based medicines terms and resources. J Canc Educ. 2014;29(3):514-521. DOI: 10.1007/s13187-014-0631-0 Externer Link
14.
Weberschock TB, Ginn TC, Reinhold J, Strametz R, Krug D, Bergold M, Schulze J. Change in knowledge and skills of Year 3 undergraduates in evidence-based medicine seminars. Med Educ. 2005;39(7):665-671. DOI: 10.1111/j.1365-2929.2005.02191.x Externer Link
15.
Dreier M, Borutta B, Stahmeyer J, Krauth C, Walter U. Vergleich von Bewertungsinstrumenten für die Studienqualität von Primär- und Sekundärstudien zur Verwendung für HTA-Berichte im deutschsprachigen Raum. Schriftenreihe Health Technology Assessment, Bd. 102. Köln: Deutsches Institut für Medizinische Dokumentation und Information (DIMDI); 2010.
16.
Higgins JP, Green S. Cochrane Handbook for Systematic Reviews of Interventions 5.1.0. Oxford, UK: The Cochrane Collaboration; 2011.
17.
Hill CL, La Valley MP, Felson DT. Secular changes in the quality of published randomized clinical trials in Rheumatology. Arthritis Rheumatism. 2002;46(3):779-784. DOI: 10.1002/art.512 Externer Link
18.
Huwiler-Müntener K, Jüni P, Junker C, Egger M. Quality of reporting of randomized trials as a measure of methodologic quality. JAMA. 2002;287(21):2801-2804. DOI: 10.1001/jama.287.21.2801 Externer Link
19.
IQWiG. Früherkennungsuntersuchung von Sehstörungen bei Kindern bis zur Vollendung des 6. Lebensjahres. Abschlussbericht. Nr. 32. Köln: IQWiG-Berichte; 2008.
20.
Thomas BH, Ciliska D, Dobbins M, Micucci S. A process for systematically reviewing the literature: providing the research evidence for public health nursing interventions. Worldview Evidence-based Nurs. 2004;1(3):176-184. DOI: 10.1111/j.1524-475X.2004.04006.x Externer Link
21.
Balegar VK, Kluckow M. Furosemide for packed red cell transfusion in preterm infants: a randomized controlled trial. J Pediatr. 2011;59(6):913-918. DOI: 10.1016/j.jpeds.2011.05.022 Externer Link
22.
Vlug MS, Wind J, Hollmann MW, Ubbink DT, Cense HA, Engel A, Gerhards MF, van Wagensveld BA, van der Zaag ES, van Geloven AA, Sprangers MA, Cuesta MA, Bemelman WA, LAFA study group. Laparoscomy in combination with fast track multimodal management is the best perioperative strategy in patients undergoing colonic surgery. Ann Surg. 2011;254(6):868-875. DOI: 10.1097/SLA.0b013e31821fd1ce Externer Link
23.
Mega JL, Braunwald E, Wiviott SD, Bassand JP, Bhatt DL, Bode C, Burton P, Cohen M, Cook-Bruns M, Fox KAA, Goto S, Murphy SA, Plotnikov AN, Schneider D, Sun X, Verheugt FW, Gibson CM. ATLAS ACS 2–TIMI 51 Investigators. N Engl J Med. 2012;366(1):9-19. DOI: 10.1056/NEJMoa1112277 Externer Link
24.
Fritsche L, Greenhalgh T, Falck-Ytter Y, Neumayer HH, Kunz R. Do short courses in evidence based medicine improve knowledge and skills? Validation of Berlin questionnaire and before and after study of courses in evidence based medicine. BMJ. 2002 325:1338-1341. DOI: 10.1136/bmj.325.7376.1338 Externer Link
25.
Hartling L, Hamm M, Milne A, Vandermeer B, Santaguida PL, Ansari M, Tsertsvadze A, Hempel S, Shekelle P, Dryden DM. Validity and inter-rater reliability testing of quality assessment instruments. (Prepared by the University of Alberta Evidence-based Practice Center under Contract No. 290-2007-10021-I.) AHRQ Publication No. 12-EHC039-EF. Rockville, MD: Agency for Healthcare Research and Quality; 2012. Zugänglich unter/available from: www.effectivehealthcare.ahrq.gov/reports/final.cfm
26.
Hartling L, Ospina M, Liang Y, Dryden DM, Hooton N, Krebs Seida J, Klassen TP. Risk of bias versus quality assessment of randomised controlled trials: cross sectional study. BMJ 2009;339:b4012. DOI: 10.1136/bmj.b4012 Externer Link
27.
Martins N, Morris, Kelly PM. Food incentives to improve completion of tuberculosis treatment: randomized trial in DILI, Timor-Leste. BMJ. 2009;339:b4248. DOI: 10.1136/bmj.b4248 Externer Link
28.
Buchberger B, von Elm E, Gartlehner G, Huppertz H, Antes G, Wasem J, Meerpohl JJ. Assessment of risk of bias in controlled studies. Bundesgesundheitsbl Gesundheitsforsch Gesundheitsschutz. 2014;57(12):1432-1438. DOI: 10.1007/s00103-014-2065-6 Externer Link
29.
Kulier R, Gee H, Khan K. Five steps from evidence to effect: exercising clinical freedom to implement research findings. BJOG. 2008;115:1197-1202. DOI: 10.1111/j.1471-0528.2008.01821.x Externer Link
30.
Kulier R, Gülmezoglu AM, Zamora J, Plana MN, Carroli G, Cecatti JG, Germar MJ, Pisake L, Mittal S, Pattinson R, Wolomby-Molondo JJ, Bergh AM, May W, Souza JP, Koppenhoefer S, Khan KS. Effectiveness of a clinically integrated e-learning course in evidence-based medicine for reproductive health training. JAMA. 2012;308(21):2218-2225. DOI: 10.1001/jama.2012.33640 Externer Link
31.
Laskowitz DT, Drucker RP, Parsonnet J, Cross PC, Gesundheit N. Engaging students in dedicated research and scholarship during medical school: the long term experiences at Duke and Stanford. Acad Med. 2010;85(3):419-428. DOI: 10.1097/ACM.0b013e3181ccc77a Externer Link
32.
Miles S, Price GM, Swift L, Shepstone L, Leinster SJ. Statistics teaching in medical school: opinion of practicing doctors. BMC Med Educ. 2010;10:75. DOI: 10.1186/1472-6920-10-75 Externer Link
33.
Vereijken MW, Kruidering-Hall M, de Jong PG, de Beaufort AJ, Dekker FW. Scientific education early in the curriculum using a constructivist approach on learning. Perspect Med Educ. 2013;2(4):209-215. DOI: 10.1007/s40037-013-0072-1 Externer Link
34.
Merenstein D, Murphy M, Fokar A, Hernandez RK, Park H, Nsouli H, Sanders ME, Davis BA, Niborski V, Tondu F, Shara NM. Use of fermented dairy probiotic drink containing lactobacillus casei (DN-114 001) to decrease the rate of illness in kids: the DRINK study. A patient-oriented, double-blind, cluster-randomized, placebo-controlled, clinical trial. Eur J ClinNutr. 2010;64(7):669-677. DOI: 10.1038/ejcn.2010.65 Externer Link