gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

DOPS (Direct Observation of Procedural Skills) im studentischen Skills-Lab: Funktioniert das? Eine Analyse der Performanz klinischer Fertigkeiten und der curricularen Nebeneffekte

Artikel Prüfungen

Suche in Medline nach

  • corresponding author Christoph Profanter - Medizinische Universität Innsbruck, Univ. Klinik für Visceral-, Transplantations- und Thoraxchirurgie, Innsbruck, Österreich
  • author Alexander Perathoner - Medizinische Universität Innsbruck, Univ. Klinik für Visceral-, Transplantations- und Thoraxchirurgie, Innsbruck, Österreich

GMS Z Med Ausbild 2015;32(4):Doc45

doi: 10.3205/zma000987, urn:nbn:de:0183-zma0009879

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2015-32/zma000987.shtml

Eingereicht: 14. Januar 2014
Überarbeitet: 19. Dezember 2014
Veröffentlicht: 15. Oktober 2015

© 2015 Profanter et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Zielsetzung: Die suffiziente Vermittlung und Prüfung klinisch-praktischer Fertigkeiten bereits während des Medizinstudiums gewinnt zunehmend an Bedeutung. Im Rahmen des chirurgischen Pflichtpraktikums an der Medizinischen Universität Innsbruck wurde untersucht, ob das Teaching mittels DOPS im Skills-Lab Setting überhaupt funktioniert, zu welcher Performanz von klinischen Fertigkeiten DOPS (direct observation of procedural skills) im Vergleich zu einem Tutor-System (1 ärztlicher Tutor à 5 Studierende) führen und welche curricularen Side-Effects zu beobachten sind.

Methoden: Im Sommersemester 2013 (Monate April – Juni) wurden im Rahmen einer prospektiv randomisierten Studie 4 kompetenzlevelbasierte Skills mittels DOPS (Gruppe A) und einem klassischen Tutor System (Gruppe B) in einwöchigen Kleingruppen-Kursen gelehrt und mittels OSCE (objective structured clinical examination) geprüft:

Chirurgische Abdominaluntersuchung, Harnkatheteranlage (Phantom), rektal-digitale Untersuchung (Phantom), Handhabung zentralvenöser Katheter.

In die Studie wurden 193 Studierende inkludiert. Insgesamt wurden 756 Einzel-OSCE´s durchgeführt, davon entfielen auf die DOPS-Gruppe 209 (27,6%) und auf die Tutor-Gruppe 547 (72,3%).

Ergebnisse: Die Beobachtung der Performanz zeigt sehr gute Resultate in beiden Gruppen. Im ersten Monat wies die DOPS Gruppe gegenüber der Tutorgruppe einen statistisch signifikanten (p<0,05) Performanzunterschied von rund 95% versus 88% an vollständig erfüllten OSCE-Items auf. In den Folgemonaten glichen sich die Performanzen beider Gruppen weitgehend an und betrugen in beiden Gruppen rund 90%.

Bei den praktischen Fertigkeiten zeigte sich eine hohe Übereinstimmung zwischen DOPS- und OSCE-Resultaten (positive Ergebnisse: DOPS 92,4%, OSCE 90,8%).

Diskussion: Die Studiendaten zeigen, dass DOPS eine hohe Performanz klinischer Fertigkeiten erbringen und im studentischen Skills-Lab Setting gut funktionieren. Durch die hohe Übereinstimmung von DOPS- und OSCE-Ergebnissen im Assessment praktischer Fertigkeiten könnte man überlegen, DOPS auch als alleiniges Assessment-Tool im studentischen Skills-Lab einzusetzen.

Die zeitbedingte Annäherung der Performanzraten nach initialer Überlegenheit der DOPS-Gruppe könnte auf eine Wechselwirkung zwischen DOPS und klassischem Tutorsystem zurückzuführen sein: die DOPS-Elemente scheinen das Tutoring und die Performanz insgesamt verbessert zu haben.

Verglichen mit einem Kleingruppenunterricht bieten DOPS im studentischen Skills-Lab bei gleichem Personal- und Zeitaufwand zusätzlich strukturiertes Feedback und Assessment.

Schlussfolgerung: Zusammenfassend zeigt die vorliegende Studie, dass DOPS eine ressourcenschonende, effiziente Methode in der didaktischen Vermittlung klinisch-praktischer Fertigkeiten darstellt. Die Effekte der DOPS auf die universitären/klinischen Institutionen reichen weit über die unmittelbare positive Beeinflussung der Performanz hinaus.

Schlüsselwörter: DOPS, skills lab, WBA (workplace based assessment), curricular side effects


Einleitung

Die suffiziente Vermittlung und Prüfung klinisch-praktischer Fertigkeiten bereits während des Medizinstudiums gewinnt vor dem Hintergrund sich wandelnder Anforderungen im Gesundheitswesen und geplanter Reformen der Medizinerausbildung zunehmend an Bedeutung [1], [2], [3], [http://kpj.meduniwien.ac.at/fileadmin/kpj/oesterreichischer-kompetenzlevelkatalog-fuer-aerztliche-fertigkeiten.pdf]. So wurde beispielsweise in Österreich vor kurzem der ein Kompetenzlevelkatalog für ärztliche Fertigkeiten an allen drei staatlichen Medizinuniversitäten implementiert [4]. Knapper werdende Zeit- und Personalressourcen stellen für die universitäre Lehre besondere Herausforderungen dar. Lehrformate und didaktische Methoden werden sich in Zukunft nicht nur durch ihre Güte im Hinblick auf die Performanz auszeichnen müssen, sondern auch Aspekte der Kosteneffizienz werden mehr in den Fokus des Interesses rücken [5], [6], [7], [8].

Über die Effizienz diverser Lehr- und Prüfungsmethoden zum Erwerb klinisch-praktischer Fertigkeiten wird in der aktuellen Literatur viel diskutiert [9], [10], [11], [12], [13]. MiniCEX (mini clinical evaluation exercise) und DOPS (direct obeservation of clinical skills) haben als Workplace-Based-Assessment (WBA)-Instrumente schon länger Eingang in die Ausbildung vor allem junger Mediziner gefunden [14], [15], [16], [17], [18], [19], [20], [21], [22], [23]. In jüngster Zeit findet dieses Format auch Anwendung als WBA am Ende des Medizinstudiums [24]. Ob DOPS auch in einem studentischen Skills-Lab-Setting etwa am Beginn des klinischen Studienabschnitts ein funktionierendes Instrument im Teaching und Assessment klinischer Skills sein können, ist derzeit in der Literatur nicht hinreichend geklärt [24]. Ebenfalls ungeklärt ist die Frage, ob wiederholtes Prüfen, etwa mittels DOPS, einem herkömmlichen Üben hinsichtlich der Performanz praktischer Fertigkeiten überlegen ist. Karpicke und Blunt kamen auf dem Gebiet kognitiver Skills in einer prospektiv randomisierten Studie zum Ergebnis, dass repetitives Prüfen elaborativem Lernen überlegen ist [25]. Übertragen auf ein studentisches Skills-Lab würden DOPS das repetitive Prüfen, ein traditioneller Kleingruppenunterricht mit Tutoren das elaborative Lernen darstellen. DOPS stellen im Prinzip ein Assessmentinstrument im Kontext eines Arbeitsplatzes dar [14], [15]. Simulation ist ein zuverlässiges Instrument, um eine studentengerechte Lernumgebung im Sinne eines simulierten Workplace zu schaffen [26].

Wir haben in einer prospektiv randomisierten Studie folgende Fragestellungen untersucht:

  • Funktionieren DOPS in einem studentischen Skills-Lab-Setting überhaupt?
  • Ermöglichen DOPS im Vergleich zu einem Tutorsystem eine Verbesserung der Performanz kompetenzlevelbasierter praktischer Fertigkeiten?
  • Wie stellt sich die Assessmentqualität von DOPS in diesem Setting dar?

Zusätzlich wurden auch relevante Begleitaspekte, sogenannte curriculare Side-Effects, welche sich durch die Implementierung der DOPS ergeben haben, analysiert.


Methoden

Setting/Studiendesign

Im Zeitraum von April 2013 bis Juni 2013 wurde an der MUI (Medizinische Universität Innsbruck) im Rahmen des chirurgischen Praktikums eine prospektiv randomisierte Studie durchgeführt. Das Studienkonzept wurde vor Beginn der Studie der Ethikkommission der MUI zur Kenntnis gebracht, von dieser wurden keine Einwände gegen die Durchführung in der eingereichten Form erhoben.

Neben der federführenden Univ. Klinik für Visceral-, Transplantations- und Thoraxchirurgie (VTT) sind folgende klinische Institutionen, nach jeweiliger Klinikgröße anteilig, am chirurgischen Praktikum beteiligt: Univ. Klinik für Anästhesie und Intensivmedizin, Univ. Klinik für Unfallchirurgie, Univ. Klinik für Orthopädie, Univ. Klinik für Herzchirurgie, Univ. Klinik für Gefäßchirurgie, Univ. Klinik für Plastische, Rekonstruktive und Ästhetische Chirurgie, Univ. Klinik für Urologie, Univ. Klinik für Neurochirurgie.

Es wurden insgesamt 193 Studierende einer Jahrgangskohorte (n=258) in die Studie eingeschlossen. Die Studierenden wurden in 2 Gruppen randomisiert. In beiden Gruppen wurden vier kompetenzlevelbasierte praktische Fertigkeiten vermittelt: Chirurgische Abdominaluntersuchung, Harnkatheteranlage, rektal-digitale Untersuchung, Handhabung zentralvenöser Katheter. Gruppe A wurde mittels DOPS gelehrt und geprüft, ausschließlich von Dozenten der VTT. Die Vergleichsgruppe B wurde mit einem Tutorsystem unterrichtet, von Dozenten aller anderen oben angeführten Institutionen. Das Tutorsystem war ein Kleingruppenunterricht, bei dem ein die ganze Zeit anwesender ärztlicher Tutor die Studierenden unterrichtet bzw. betreut ohne näher definierte didaktische Struktur oder Methode.

Randomisierung/Kursdesign

Die Randomisierung in Gruppe A „DOPS“ und Gruppe B „Tutor“ fand im Rahmen der Anmeldung nach dem Zufallsprinzip statt. Dafür wurde die Reihenfolge der Anmeldung herangezogen (beginnend bei 1, ungerade Zahl DOPS, gerade Zahl Tutor). Es ergab sich eine Ausgangsgruppengröße für die Auswertung von je n=109. Die Kurse fanden in Kleingruppen zu maximal 5 Studierenden zeitlich parallel, jedoch räumlich getrennt statt. Die Dauer jedes Skills-Lab Kurses betrug insgesamt 5 Tage, pro Tag 90 Minuten. Am ersten Tag erhielten alle Studierenden gemeinsam eine theoretische Unterweisung in den vier Skills anhand detailliert ausgearbeiteter Handouts für die Lehrenden. An den folgenden Tagen 2 bis 4 fand, nach Gruppen getrennt, der praktische Unterricht statt. In den DOPS-Gruppen wurde repetitiv geprüft, mit dem Ziel (mindestens) 6 DOPS pro Student. Am Tag 5 wurden die Studierenden einem OSCE (objective structured clinical examination) mit vier Stationen unterzogen, entsprechend den genannten Skills. Die verfügbare Zeit für eine OSCE-Station betrug 5 Minuten. Die OSCE-Prüfungsbögen korrespondierten inhaltlich 1:1 mit den Handouts für die Lehrenden (siehe Abbildung 1 [Abb. 1]).

Ein-/Ausschlusskriterien

Das Einschlusskriterium für die Studie war die Anmeldung zur curricularen Pflichtveranstaltung „Chirurgisches Praktikum“. Um die Validität der Daten zu garantieren wurde penibel darauf geachtet, dass es zu keiner Vermischung der Gruppen während der Kurswoche kam. Folgende Ausschlusskriterien wurden bereits vor Studienbeginn festgelegt:

1.
Gruppenvermischung/eigenmächtiges Wechseln der Gruppe (z.B. DOPS 1 Tag in Tutorgruppe)
2.
Studierende der DOPS-Gruppe, welche mehr als einen Tag während des Kurses abwesend waren (DOPS Mindestanzahl nicht erreichbar)
3.
Erasmus-Studenten, da diese nicht an Prüfungen teilnehmen müssen und dazu auch nicht verpflichtet werden können.
Skills/Materialien/Assessment

Die Skills Harnkatheter und rektale Untersuchung wurden an Phantomen der Firma Limbs and Things, Modelle Katheterisierungssimulator und Rectal Examination Trainer MK2 gelehrt und geprüft. Die Fertigkeit chirurgische Abdominaluntersuchung wurde im Kurs anhand der Studierenden gegenseitig gelehrt. Für den OSCE wurden studentische Schauspieler herangezogen, die von Oberärzten und fortgeschrittenen Assistenten der VTT eingeschult wurden. Die Fertigkeit ZVK wurde anhand von realen Modellen von Subclaviakatheter (ZVK1)und Port-a-Cath (ZVK2), welche an den Universitätskliniken Innsbruck im klinischen Alltag verwendet werden, gelehrt und geprüft.

Beim OSCE waren hinsichtlich der Gruppenzuteilung der Prüflinge sowohl Prüfer als auch Schauspieler geblindet.

Die vier OSCE-Prüfungsbögen wurden nach dem in Innsbruck üblichen Design erstellt (siehe Abbildung 1 [Abb. 1]). Form, Items und Layout der DOPS-Formulare entsprachen dem der Originalpublikationen von Norcini und Darzi [14], [15].

Datenauswertung/Statistik

Bei der Auswertung der OSCE-Daten wurde der Cut-Off zur Kalkulation der Performanz zwischen „vollständig erfüllt“ und „teilweise bzw. nicht erfüllt“ gelegt. Somit wurden nur Item-Ergebnisse der Kategorie „vollständig erfüllt“ als positiv gewertet. Die einzelnen Items wurden bei der OSCE-Auswertung entsprechend der Gliederung des Prüfungsbogens in zwei Fraktionen aufgegliedert: eine Fraktion „Skills“, sozusagen die reinen technischen Fertigkeiten der Aufgabenstellung und in eine Fraktion „Kommunikation“. Die OSCE-Ergebnisse wurden für jede Fertigkeit einzeln und nach Monaten getrennt ausgewertet und die Ergebnisse in absoluten Zahlen (Punkten) und %-Werten ausgedrückt.

Die statistische Auswertung der OSCE-Ergebnisse erfolgte mittels t-Test. Ein p<0,05 wurde als statistisch signifikant gewertet.

Die DOPS-Auswertung erfolgte ebenfalls aufgetrennt in eine Skills-Fraktion mit den Items „Vorbereitung/Nachsorge/Sicherheit“, „Technische Fertigkeit“, „Klinische Urteilsfähigkeit“, „Organisation und Effizienz“ und eine kommunikative Fraktion, welche die restlichen Items wie „Professionelles Verhalten“ umfasste.

Bei der Auswertung der DOPS wurden die Ergebnisse in den Kategorien „erwartungsgemäß“ und „überdurchschnittlich“ als positiv gewertet und addiert. Die jeweiligen Prozentwerte wurden kalkuliert und den OSCE Ergebnissen gegenübergestellt.

Schulungen/Ressourcen

Sämtliche Tutoren und Prüfer waren fortgeschrittene Assistenzärzte oder habilitierte Oberärzte. Alle erhielten eine spezifische Einschulung auf OSCE, die Dozenten der VTT zusätzlich im Rahmen dieser Schulungen eine Einschulung auf DOPS. Besonderes Augenmerk wurde dabei auf die Erzielung einer ausreichend hohen Trennschärfe in der Beurteilung sowohl bei DOPS als auch OSCE gelegt. Zeit- und Personalaufwand wurden im Studiendesign in beiden Gruppen als ident festgelegt. Daraus resultierte die Zielvorgabe von insgesamt 6 DOPS pro Student (d.h. 2 pro Tag). Gerechnet auf eine 5er Gruppe und 90 Minuten pro Tag ergab dies eine Dauer von 9 Minuten pro DOPS als Summe von Beobachtungs- und Feedbackzeit.


Ergebnisse

Von den 193 Studierenden umfasste die DOPS-Gruppe 52 (26,9%) Studierende, die Tutorgruppe 141 (73,1%) Studierende. Insgesamt wurden 756 Einzel-OSCE´s durchgeführt, davon entfielen auf die DOPS-Gruppe 209 (27,6%) und auf die Tutorgruppe 547 (72,3%). Von den 193 Studierenden absolvierten 180 (93,3%) jeweils alle 4 Einzel-OSCE´s, 13 (6,7%) Studierende weniger als 4. Da diese Studierenden eindeutig einer Gruppe (DOPS oder Tutor) nach den oben angeführten Kriterien zuzuordnen waren, wurden diese in der Wertung belassen. In der DOPS-Gruppe bzw. in der Tutorgruppe absolvierten 90,8% bzw. 89,8% alle OSCE-Stationen.

Der Unterschied der Gruppengrößen (DOPS n=52, Tutor n=141) erklärt sich aus der Bereinigung der Datensätze durch obige Ausschlusskriterien: Dabei stellten der Gruppenshift von DOPS-System in Richtung Tutosystem und nicht verwertbare DOPS-Bögen die häufigsten Gründe dar, darüberhinaus sind einige „DOPS-Gruppen“ gar nicht zum Praktikum erschienen und somit gänzlich ausgefallen.

OSCE Skills

Über das gesamte Semester betrachtet ergibt sich zwischen beiden Gruppen kein Unterschied an positiven OSCE-Ergebnissen: 90,8% (DOPS) versus 89% (Tutor).

Analysiert man die Prüfungsergebnisse der einzelnen Monate, so ergibt sich ein differenzierteres Bild: im April war die DOPS-Gruppe der Tutorgruppe mit 94,1% gegenüber 87,5% statistisch signifikant (p < 0,05) überlegen. In den folgenden Monaten glichen sich die OSCE-Resultate beider Gruppen weitgehend an. So betrugen die Prozentsätze an vollständig erfüllten Skills im Mai für die DOPS-Gruppe 91,2%, für die Tutorgruppe 91,1%, im Juni 89,3% versus 90,8% (siehe Abbildung 2 [Abb. 2]).

Auch in der getrennten Auswertung der einzelnen Fertigkeiten in den Folgemonaten Mai und Juni lässt sich kein wirklicher Trend erkennen, in beiden Gruppen liegen die Prozentwerte eng beieinander. So betrugen die prozentuellen Mittelwert im Mai für DOPS-Gruppe 91%, für die Tutor-Gruppe 90,8%, im Juni 90% versus 90,5% respektive.

OSCE Kommunikation

Die Analyse der kommunikativen Fähigkeiten ergibt ein insgesamt schlechtes Abschneiden in beiden Gruppen. So lagen die prozentuellen Mittelwerte über alle Monate bei 76,6% (DOPS) und 78,4% (Tutor).

DOPS/Übereinstimmung DOPS-OSCE

Insgesamt wurden 320 DOPS durchgeführt. Die Auswertung der Skills-bezogenen DOPS-Items ergab in Summe 92,4% positive Ergebnisse, welche gut mit den 90,8% positiven OSCE-Ergebnissen der DOPS-Gruppe übereinstimmten

Bei den kommunikativen Items wurden bei den DOPS 91,3% positive Ergebnisse erreicht. Hier fand sich eine wesentlich schlechtere Übereinstimmung mit den positiven OSCE-Ergebnissen von 76,6% (siehe Tabelle 1 [Tab. 1]).

Ressourcen

Es ergab sich erwartungsgemäß pro Student berechnet kein Unterschied hinsichtlich Zeit- und Personalaufwand (Studiendesign). In beiden Gruppen wurden jeweils 5 Studierende pro Tag 90 Minuten von einem Dozenten geprüft (DOPS-Gruppe) bzw. betreut (Tutor-Gruppe). Der zeitliche Aufwand der Personalteachings betrug insgesamt 6 Stunden. Von einem Instruktor wurden die Dozenten/Prüfer in unterschiedlich großen Gruppen (bis etwa max. 15 Personen) unterrichtet, VTT-Dozenten und Dozenten der anderen Institutionen jeweils getrennt.


Diskussion

DOPS führen im studentischen Skills-Lab Setting zu einer hohen Performanz klinischer Fertigkeiten. Verglichen mit dem Tutorsystem zeigte sich ein statistisch signifikanter Performanzunterschied (p<0,05) zugunsten der DOPS-Gruppe jedoch nur im ersten Monat des Semesters (April). In den Monaten Mai bis Juni und über das gesamte Semester gerechnet war dann kein signifikanter Unterschied in den Ergebnissen mehr feststellbar (siehe Abbildung 2 [Abb. 2] und Tabelle 1 [Tab. 1]). Daraus lässt sich schließen, dass DOPS in einem studentischen Skills-Lab Setting gut funktionieren und einem Tutorsystem (Kleingruppenunterricht) mit ausschließlich akademischen Lehrern hinsichtlich der Performanz zumindest ebenbürtig sind.

Unsere Daten zeigen bei den Skills eine hohe Übereinstimmung zwischen DOPS- und OSCE-Ergebnissen. Wir wagen daraus mit aller Vorsicht abzuleiten, dass

in einem studentischen Skills-Lab Setting DOPS als Assessment, zumindest im Sinne einer pass/fail Beurteilung, ausreichend sein können. Das würde bedeuten, dass man auf einen OSCE bei vergleichbarer Assessmentqualität für dieses Setting verzichten und sich dadurch einiges an Personal- und Zeitressourcen sparen könnte. Unter der Voraussetzung „Prüfungszeit ist auch Lehrzeit“ könnten so in gleicher Zeit entweder mehr Skills vermittelt werden oder die Kurse zeitlich (beispielsweise um einen Tag) verkürzt werden. Dies stellt unserer Meinung nach einen interessanten curricularen Nebeneffekt der DOPS-Implementierung in der studentischen Lehre dar. Gegenüber dem Tutorsystem bieten DOPS bei gleichem Personal- und Zeitaufwand den wesentlichen Vorteil, neben der Vermittlung von praktischen Fertigkeiten auch strukturiertes Feedback und Assessment liefern zu können.

Die zeitliche Annäherung der Skills-Performanzraten nach initialer Überlegenheit der DOPS-Gruppe erklärt sich möglicherweise mit einer Wechselwirkung der DOPS auf das Tutorsystem. Mit fortschreitender mentaler Verankerung bei den Dozenten/Prüfern flossen offenbar DOPS-Elemente insbesondere das Feedback und das repetitive Prüfen ins Tutoring ein und führten möglicherweise zu einer Angleichung der Unterschiede. Ursprünglich war geplant, dass ausschließlich Dozenten der Allgemeinchirurgie (VTT) die DOPS-Gruppen betreuen sollten und Dozenten aller anderen mitbeteiligten Kliniken die Tutorgruppen. Dies ließ sich aus praktisch-organisatorischen Gründen nur in den Anfangswochen des Semesters aufrechterhalten, in der Folge mussten VTT-Dozenten häufig auch Tutorgruppen, dennoch immer räumlich getrennt, betreuen.

Im Gegensatz zu den positiven Performanzraten bei den handwerklichen Skills sind die OSCE-Resultate bei den kommunikativen Fertigkeiten mit rund 77% positiven Prüfungsergebnissen in beiden Gruppen deutlich schlechter. Das zeigt einerseits das Erreichen einer gewissen Prüfungstrennschärfe, was ein besonderer Schwerpunkt bei den Schulungen war. Andererseits zeigen diese Daten klar, dass gerade hier bei den Studierenden offenbar gröbere Defizite vorliegen. Daraus ergibt sich ein klarer didaktischer Handlungsbedarf hinsichtlich einer Intensivierung der Vermittlung kommunikativer Fertigkeiten. Mit welcher Methode das geschehen soll bleibt offen. Eigentlich hätten wir uns von der DOPS-Gruppe hier bessere Werte erwartet. Die bewusste Fokussierung auf die handwerkliche Performanz im Rahmen der Studie stellt möglicherweise eine Erklärung für die schlechteren OSCE-Ergebnisse dar, nicht jedoch für die schlechtere Übereinstimmung DOPS-OSCE bei den kommunikativen Fertigkeiten im Vergleich zu den eigentlichen Skills.


Schlussfolgerung

Zusammenfassend stellen DOPS im studentischen Skills-Lab eine funktionierende und effiziente Methode in der didaktischen Vermittlung klinischer Skills dar. Durch die hohe Übereinstimmung zwischen DOPS und OSCE bei den praktischen Fertigkeiten könnte man überlegen, DOPS auch als alleiniges Assessment-Tool in diesem Setting zur Beurteilung der Performanz einzusetzen. Darüberhinaus scheint die DOPS-Implementierung auch die didaktische Kultur universitärer Institutionen positiv zu beeinflussen.


Interessenkonflikt

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Frenk J, Chen L, Bhutta ZA, Cohen J, Crisp N, Evans T, Fineberg H, Garcia P, Ke Y, Kelley P, Istnasamy B, Meleis A, Naylor D, Pablos-Mendez A, Reddy S, Scrimshaw S, Sepulvenda J, Serwadda D, Zurayk H. Health professionals for a new century: transforming education to strenghten health systems in an interdependent world. Lancet. 2010;376(9756):1923-1958. DOI: 10.1016/S0140-6736(10)61854-5 Externer Link
2.
Mann KV. Theoretical perspectives in medical education: past experience and future possibilities. Med Educ. 2011;45(1):60-68. DOI: 10.1111/j.1365-2923.2010.03757.x Externer Link
3.
Epstein RM. Assessment in medical education. N Engl J Med. 2007;356(4):387-396. DOI: 10.1056/NEJMra054784 Externer Link
4.
Frank JR. The CanMEDS 2005 physician competency framework. Better standards. Better physicians. Better care. Ottawa: The Royal College of Physicians and Surgeons of Canada; 2005.
5.
Finucane P, Shannon W, McGrath D. The financial costs of delivering problem-based learning in a new, graduate-entry medical programme. Med Educ. 2009;43(6):594-598. DOI: 10.1111/j.1365-2923.2009.03373.x Externer Link
6.
Neville AJ. Problem-based learning and medical education forty years on. A review of its effects on knowledge and clinical performance. Med Princ Pract. 2009;18(1):1-9. DOI: 10.1159/000163038 Externer Link
7.
Norman SR, Schmidt HG. Effectiveness of problem-based learning curricula: theory, practice and paper darts. Med Educ. 2000;34(9):721–728. DOI: 10.1046/j.1365-2923.2000.00749.x Externer Link
8.
Yaqinuddin A. Problem-based learning as an instructional method. J Coll Physicians Surg Pak. 2013;23(1):83-85. DOI: 01.2013/JCPSP.8385 Externer Link
9.
Colliver JA. Effectiveness of problem-based learning curricula: research and theory. Acad Med. 2000;75(3):259-66. DOI: 10.1097/00001888-200003000-00017 Externer Link
10.
Bannister SL, Hilliard RI, Regehr G, Lingard L. Technical skills in pediatrics: a qualitative study of acquisition, attitudes and assumptions in the neonatal intensive care unit. Med Educ. 2003;37(12):1082-1090. DOI: 10.1111/j.1365-2923.2003.01711.x Externer Link
11.
Remmen R, Derese A, Scherpbier A, Denekens J, Hermann I, van der Vleuten C, Van Royen P, Bossaert L. Can medical schools rely on clerkships to train students in basic clinical skills? Med Educ. 1999;33(8):600-605. DOI: 10.1046/j.1365-2923.1999.00467.x Externer Link
12.
McGaghie WC, Issenberg SB, Cohen ER, Barsuk JH, Wayne DB. Does simulation-based medical education with deliberate practice yield better results than traditional clinical education? A meta-analytic comparative review of the evidence. Acad Med. 2011;86(6):706-711. DOI: 10.1097/ACM.0b013e318217e119 Externer Link
13.
Buss B, Krautter M, Möltner A, Weyrich P, Werner A, Jünger J, Nikkendei C. Can the Assessment Drives Learning" effect be detected in clinical skills training? – Implications for curriculum design and reource planning. GMS Z Med Ausbild. 2012;29(5):Doc70. DOI: 10.3205/zma000840 Externer Link
14.
Norcini JJ, Blank LL, Duffy FD, Fortna GS. The MiniCEX: A method for assessing clinical skills. Ann Intern Med. 2003;138(6):476-481. DOI: 10.7326/0003-4819-138-6-200303180-00012 Externer Link
15.
Darzi A, Mackay S. Assessment of surgical competence. Qual Health Care. 2003;10:64-69.
16.
Norcini J, Burch V. Workplace-based assessment as an educational tool: AMEE Guide Nr. 31. Med Teach. 2007;29(9):855-871. DOI: 10.1080/01421590701775453 Externer Link
17.
Wragg A, Wade W, Fuller G, Cowan G, Mills P. Assessing the performance of specialist registrars. Clin Med. 2003;3(2):131-134. DOI: 10.7861/clinmedicine.3-2-131 Externer Link
18.
Miller A, Archer J. Impact of workplace based assessment on doctor´s education and performance: a systematic review. BMJ. 2010;341:c5064. DOI: 10.1136/bmj.c5064 Externer Link
19.
Govaerts MJ, Schuwirth LW, Van der Vleuten CP, Muijtjens AM. Workplace-based assessment: effects of rather expertise. Adv in Health Sci Educ. 2011;16(2):151-165. DOI: 10.1007/s10459-010-9250-7 Externer Link
20.
Pelgrim EA, Kramer AW, Mokkink HG, van der Vleuten CP. The process of feedback in workplace-based learning: organistation, delivery, continuity. Med Educ. 2012;46(6):604-612.
21.
Norcini J. The power of feedback. Med Educ. 2010;44(1):16-17. DOI: 10.1111/j.1365-2923.2009.03542.x Externer Link
22.
Mitchell C, Bhat S, Herbert A, Baker P. Workplace-based assessments of junior doctors: do scores predict training difficulties? Med Educ. 2011;45(12):1190-1198. DOI: 10.1111/j.1365-2923.2011.04056.x Externer Link
23.
Bindal N, Goodyear H, Bindal T, Wall D. DOPS assessment: A study to evaluate the experience and opinions of trainees and assessors. Med Teach. 2013;35(6):e1230-e1234. DOI: 10.3109/0142159X.2012.746447 Externer Link
24.
McLeod R, Mires G, Ker J. Direct observed procedural skills assessment in the undergraduate setting. Clin Teach. 2012;9(4):228-232. DOI: 10.1111/j.1743-498X.2012.00582.x. Externer Link
25.
Karpicke JD, Blunt JR. Retrieval practice produces more learning elaborative studying with concept mapping. Science. 2011;331(6018):772-775. DOI: 10.1126/science.1199327 Externer Link
26.
Ker J, Bradley P. Simulation in Medicine Education Booklet. Understanding Medical Education Series. Ediburgh: ASME; 2007.