gms | German Medical Science

Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA)

05.10. - 08.10.2011, München

Ein formativer OSCE als Feedbackinstrument im Interdisziplinären PJ-Vorbereitungskurs – Der „PJ-Führerschein“ des AACHENER MODELLSTUDIENGANGS MEDIZIN

Vortrag

  • corresponding author presenting/speaker Melanie Simon - RWTH Aachen, Medizinische Fakultät, Studiendekanat, Aachen, Deutschland
  • author Sasa Sopka - RWTH Aachen, Medizinische Fakultät, Skillslab AIXTRA, Aachen, Deutschland
  • author Sonja Finsterer - RWTH Aachen, Medizinische Fakultät, Studiendekanat, Aachen, Deutschland
  • author Wolfgang Dott - RWTH Aachen, Medizinische Fakultät, Studiendekanat, Aachen, Deutschland
  • author Stefan Beckers - RWTH Aachen, Medizinische Fakultät, Skillslab AIXTRA, Aachen, Deutschland

Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA). München, 05.-08.10.2011. Düsseldorf: German Medical Science GMS Publishing House; 2011. Doc11gma048

DOI: 10.3205/11gma048, URN: urn:nbn:de:0183-11gma0481

Published: September 26, 2011

© 2011 Simon et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution License (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.en). You are free: to Share – to copy, distribute and transmit the work, provided the original author and source are credited.


Outline

Text

Fragestellung: Im AACHENER MODELLSTUDIENGANG wird Studierenden seit 2008 ein interdisziplinärer PJ-Vorbereitungskurs angeboten, der vor Beginn des Praktischen Jahres (PJ) stattfindet. Seit 2011 wird der Kurs durch eine formative OSCE-Prüfung ergänzt [1]. Ziel ist es, den Studierenden ein Feedback bezüglich ihrer praktischen Fertigkeiten zu geben, welches den Lerneffekt des Kurses erhöhen und die Selbsteinschätzung der eigenen Fertigkeiten verbessern soll.

Methoden: Die Prüfziele der Stationen wurden durch Dozenten mittels Blueprint identifiziert (siehe Abbildung 1 [Abb. 1]) und die Checklisten mit einem globalen Rating erstellt [2], [3]. Die Bestehensgrenzen wurden durch ein modifiziertes Standard Setting Verfahren durch ein Expertenteam festgelegt [4], [5]. Die Ergebnisse der OSCE wurden pseudonymisiert direkt mit den Werten der Selbsteinschätzung der Studierenden verglichen.

Ergebnisse: Im Anschluss an den Kurs haben die Teilnehmer einen OSCE-Parcours mit 7 Stationen durchlaufen. Die Teilnehmer haben den Parcours mit einem durchschnittlichen Ergebnis von 81,4%±6,3 (n=17) absolviert. Die Stationen EKG-Interpretation und Kreislauf waren mit einem Ergebnis von 68%±12,6 bzw. 13,6 (n=17) die schwierigsten. 8 Studierende haben bei jeweils einer Station die Bestehensgrenze nicht erreicht. Zwischen der Selbsteinschätzung der Studierenden und dem Ergebnis der OSCE ergaben sich Diskrepanzen. Bei der Evaluation gaben die PJler an, dass die OSCE ihre Selbsteinschätzung verbessert habe (2,1±1,3; n=17; 1=stimme völlig zu, 6=stimme absolut nicht zu). Die Teilnehmer würden die Teilnahme an der Prüfung mit der Note (1,5±0,9; n=17) weiterempfehlen (siehe Abbildung 2 [Abb. 2]).

Schlussfolgerung: Die OSCE ist eine sinnvolle Ergänzung des PJ-Vorbereitungskurses, die von den Studierenden angenommen und weiterempfohlen wird. Die Studierenden können ihre Fertigkeiten danach besser einschätzen als vorher. Die Diskrepanzen zwischen der Selbsteinschätzung und der Performance in der OSCE stellen die Selbsteinschätzung praktischer Fertigkeiten als Messinstrument für den Lerneffekt des Kurses in Frage (siehe Abbildung 3 [Abb. 3]).


Literatur

1.
Harden RM, Gleeson FA. Assessment of clinical competence using an objective structured clinical examination (OSCE). Med Educ. 1979;13(1):41-54. DOI: 10.1111/j.1365-2923.1979.tb00918.x External link
2.
Nikendei C, Jünger J. OSCE - praktische Tipps zur Implementierung einer klinisch-praktischen Prüfung. GMS Z Med Ausbild. 2006;23(3).Doc47. Zugänglich unter: http://www.egms.de/static/de/journals/zma/2006-23/zma000266.shtml External link
3.
Hodges B, McIlroy JH. Analytic global OSCE ratings are sensitive to level of training. Med Educ. 2003;37(1):1012-1016. DOI: 10.1046/j.1365-2923.2003.01674.x External link
4.
Angoff WH. Scales, norms, and equivalent scores. In: Thorndike RL (Hrsg). Educational measurement (2nd ed.). Washington, DC: American Council on Education; 1971. S.508-600.
5.
Friedman Ben-David M. Standard setting in student assessment. AMEE Med. Educ. Guide No. 18. Dundee: AMEE; 2000.