gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Eine simulationsbasierte OSCE mit Fallpräsentation und Fernbewertung – Entwicklung eines Prototyps

Artikel Prüfungen

Suche in Medline nach

  • author Lisa Bußenius - Universitätsklinikum Hamburg-Eppendorf, III. Medizinische Klinik, Hamburg, Deutschland
  • corresponding author Sigrid Harendza - Universitätsklinikum Hamburg-Eppendorf, III. Medizinische Klinik, Hamburg, Deutschland

GMS J Med Educ 2023;40(1):Doc12

doi: 10.3205/zma001594, urn:nbn:de:0183-zma0015945

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2023-40/zma001594.shtml

Eingereicht: 6. Oktober 2022
Überarbeitet: 14. Dezember 2022
Angenommen: 10. Januar 2023
Veröffentlicht: 15. Februar 2023

© 2023 Bußenius et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Simulationsbasierte Prüfungsformate verbessern die Möglichkeit, Kompetenzen von Medizinstudierenden während ihrer Performanz bewerten zu können. Zusätzlich ermöglicht die Videoaufzeichnung von Simulationen eine Bewertung ohne Anwesenheit von Prüfenden (Fernbewertung), was Vorteile für Prüfende, Studierende und Prüfungsorganisierende bietet. Wir beschreiben den simulationsbasierten Prototyp einer OSCE inklusive Bewertung der Kompetenzen der Studierenden ohne Anwesenheit von Prüfenden, welcher entwickelt wurde, um eine konventionelle OSCE an der medizinischen Fakultät der Universität Hamburg zu ersetzen. Die Prüfung beinhaltet zwei Phasen: eine Sprechstundenphase mit vier simulierten Patient*innen und eine Fallpräsentationsphase, in der vier Studierende jeweils zwei Fälle vorstellen. Alle Gespräche aus der Sprechstunden- und Fallpräsentationsphase sollen auf Video aufgenommen und von klinischen Prüfenden nach Anschauen der Videos bewertet werden. Fortgeschrittene Medizinstudierende (8. Semester) sollen hinsichtlich ihres klinischen Wissens sowie ihrer Ärzt*innen-Patient*innen-Kommunikation, Clinical-Reasoning-Kompetenz und Patient*innenmanagement-Kompetenz bewertet werden. Wir stellen detaillierte Pläne für die simulationsbasierte OSCE und einen Ablaufplan für die Organisation zur Verfügung. Bei der Pilotierung des Projektes trafen wir auf zwei größere Hindernisse in Bezug auf rechtliche Einschränkungen hinsichtlich der Prüfungsdauer und der Videoaufzeichnung. Dadurch können wir Tipps für die erfolgreiche Implementierung dieses Prüfungsprototyps geben. Wenn erfolgreich umgesetzt, wird eine Abwesenheit der Prüfenden und spätere Bewertung der Videos den Studierenden dabei helfen, sich auf ihr Anamnesegespräch oder die Fallpräsentation zu konzentrieren, die zeitlichen Einschränkungen von Prüfenden reduzieren und außerdem eine randomisierte Bewertung ermöglichen. Etablierte Instrumente für die Kompetenzbewertung statt OSCE-Checklisten zu verwenden ist ein weiteres Merkmal dieses simulationsbasierten OSCE-Prototyps. Rechtliche Fragen können vermieden werden, wenn man den Prototypen als formative Prüfung einsetzt, sollten aber im Vorfeld geklärt werden, wenn die OSCE als summative Prüfung geplant wird.

Schlüsselwörter: Fernbewertung, Kompetenz, OSCE, Prüfung, Simulation


1. Hintergrund

Mit dem Nationalen Kompetenzbasierten Lernzielkatalog für das Medizinstudium [1] werden die medizinischen Curricula in Deutschland zunehmend kompetenzbasiert. Dies erfordert in der Folge die Entwicklung kompetenzbasierter Prüfungsformate. Zurzeit werden objektive strukturierte klinische Prüfungen (OSCEs) – Checklisten-basierte Prüfungen in Anwesenheit von Prüfenden – zur Bewertung der Fähigkeiten von Medizinstudierenden eingesetzt [2]. Um Kompetenzen zu bewerten, können simulationsbasierte Prüfungen mit einem ganzheitlicheren Bewertungsansatz eine größere Aufgabenkomplexität in einem authentischeren Setting erfassen, was den Studierenden ermöglicht, ihre Leistung zu zeigen [3]. Darüber hinaus erlauben Videoaufnahmen von Simulationen eine Fernbewertung, was den Einfluss der Prüfenden auf die Leistungen der Studierenden reduziert [4]. Auch ermöglicht zeitunabhängiges Bewerten eine flexible Arbeitsplanung, was den mit OSCEs verbundenen logistischen Aufwand und die Kosten verringern kann [5]. Um die Kompetenzen fortgeschrittener Medizinstudierender in einer summativen Prüfung bewerten zu können, haben wir einen simulationsbasierten OSCE-Prototyp mit der Option einer Bewertung ohne Anwesenheit von Prüfenden (Fernbewertung) entwickelt.


2. Ziel

Unser Hauptziel war es, eine traditionelle OSCE durch eine simulationsbasierte OSCE zu ersetzen, um eine Bewertung der Kompetenzen der Studierenden zu ermöglichen. Wir nutzen einen evidenzbasierten Ansatz [6], um einen OSCE-Prototyp für diesen Zweck zu entwickeln. Unsere Zielgruppe waren fortgeschrittene Medizinstudierende (4. Studienjahr), welche bereits das nötige Wissen, sowie die Fähigkeiten und Einstellungen erlernt haben, um in einem simulierten Setting handeln zu können.


3. Entwicklung des Prototyps

Für unser Projekt wählten wir eine OSCE am Ende eines Lernmoduls am Ende des 4. Studienjahres im Rahmen des integrierten Modellstudiengangs Medizin Hamburg [7]. Am Ende dieses Moduls müssen die Studierenden in der Lage sein, mit Patient*innen zu kommunizieren und detaillierte Anamnesen zu erheben, Differentialdiagnosen auf der Grundlage von diagnostischen Befunden zu diskutieren und therapeutisches Vorgehen vorzuschlagen. Das vorgesehene Modul umfasst medizinische Themen rund um das Abdomen und Retroperitoneum aus den klinischen Disziplinen Gastroenterologie, Allgemeinchirurgie, Nephrologie und Urologie. Die abschließende OSCE mit rund 200 Studierenden findet an zwei Tagen statt und umfasst sieben fünfminütige Stationen und Checklisten zur Bewertung des klinischen Wissens und der Kommunikationsfähigkeiten.

Das Ziel der Neugestaltung der OSCE war es, das klinische Wissen und die kommunikativen Fähigkeiten der Studierenden zu messen, indem ihre Kompetenz in der Ärzt*innen-Patient*innen-Kommunikation, ihre Clinical-Reasoning-Kompetenz und ihre Patient*innenmanagement-Kompetenz bewertet werden, während gleichzeitig die klinischen Inhalte des Moduls abgedeckt werden. Zu diesem Zweck konzipierten wir vier Stationen, die Begegnungen von Ärzt*innen und Patient*innen simulieren (Phase 1: Konsultation), und vier Stationen, die Patient*innenfallpräsentationen in Übergabesituationen simulieren (Phase 2: Präsentation), basierend auf ähnlichen Schritten, die in einer validierten kompetenzbasierten Simulation eines ersten Tages im Krankenhaus [6] verwendet wurden (siehe Abbildung 1 [Abb. 1]). In Phase 1 (Konsultation) rotieren acht Studierende durch vier sechsminütige Stationen in zwei parallelen Parcours, A und B. Die Studierenden, die ihren Startpositionen zufällig zugewiesen werden, treffen auf unterschiedliche Fälle aus jeder der vier klinischen Disziplinen in den beiden Parcours. Zu den Aufgaben der Studierenden an jeder Station gehören die fokussierte Anamneseerhebung bei simulierten Patient*innen und die Besprechung von Testergebnissen, die während des Patient*innengesprächs präsentiert werden. Alle Begegnungen werden auf Video aufgezeichnet, was eine Fernbewertung ermöglicht. Neben der jeweiligen medizinisch-inhaltlichen Korrektheit können auch die Kompetenzen im Bereich Clinical Reasoning und der Ärzt*innen-Patient*innen-Kommunikation mit spezifischen Fragebögen aus der Ferne bewertet werden [8], [9]. In Phase 2 (Präsentation) werden die Gruppen A und B zusammengelegt, sodass sich zwei Studierende in einem Raum zu einer jeweils sechsminütigen Übergabe treffen. Gruppe B rotiert in die entgegengesetzte Richtung von Gruppe A, um eine gleichmäßige Mischung von Studierendenpaaren sicherzustellen. Alle Studierenden präsentieren (p) und empfangen (e) je zwei Patient*innen, so dass in dieser Phase alle vier Disziplinen abgedeckt sind (z. B. in Runde 1 präsentiert (p) Student*in 1 einen gastroenterologischen Fall an Student*in 8, welche*r ihn empfängt (e), während in Runde 2 Student*in 8 einen nephrologischen Fall an Student*in 3 präsentiert (p), welche*r ihn empfängt (e)). Die Aufgabe der Studierenden umfasst die Präsentation und Diskussion jedes Falles, um zu einer Schlussfolgerung bezüglich des Patient*innenmanagements zu gelangen. Analog zu Phase 1 werden in Phase 2 alle Übergaben auf Video aufgezeichnet, was eine Fernbeurteilung ermöglicht. Neben der Bewertung des medizinischen Wissens der Studierenden werden auch die Kommunikationskompetenz [9], [10], das Clinical Reasoning [8] und das Patient*innenmanagement [11] der präsentierenden und empfangenden Studierenden bewertet.

Mit einer Minute für den Wechsel zwischen den Ärzt*innen-Patient*innen-Begegnungen und zwischen jeder Übergabe sowie zwei Minuten für den Wechsel von Phase 1 (Konsultation) zu Phase 2 (Präsentation) dauert die simulationsbasierte OSCE 56 Minuten. Bei überlappenden Phasen (d. h., wenn Gruppe 1 in die Präsentationsphase startet, kann eine neue Gruppe mit der Konsultationsphase beginnen) können 100 Studierende an einem Tag während der normalen Arbeitszeit mit angemessenen Pausen für die simulierten Patient*innen geprüft werden (siehe Abbildung 2 [Abb. 2]). Mit Fernbewertung müssen keine klinischen Fachprüfer*innen währenddessen anwesend sein und können die Bewertung durchführen, wenn sie keine klinischen Verpflichtungen haben. Alle Studierenden erhalten acht verschiedene Bewertungen, vier aus Phase 1 und vier aus Phase 2, d. h. zwei aus jeder Disziplin (siehe Tabelle 1 [Tab. 1]).


4. Fallstricke und Tipps für die Implementierung

Wir haben die simulationsbasierte OSCE als summatives Assessment im Juli 2019 mit 186 Studierenden pilotiert [12]. Aufgrund der zeitlichen Beschränkungen in der Prüfungsordnung unserer medizinischen Fakultät hatten wir jedoch nur 42 Minuten Zeit, um sieben Fächer in unsere Bewertung einzubeziehen. Daher konnten wir unser geplantes Design mit den zwei Phasen, das 56 Minuten benötigt hätte, nicht umsetzen. Tipp 1: Wenn Sie diesen Prototyp mit einer Konsultations- und einer Präsentationsphase mit Wechselzeiten einsetzen möchten, finden Sie heraus, ob es in der Prüfungsordnung Ihrer medizinischen Fakultät Beschränkungen für die Prüfungszeit gibt. In unserem Fall mussten wir uns an das traditionelle OSCE-Format halten und die Präsentationsphase streichen.

Außerdem durften wir die Gespräche, die die Studierenden mit den simulierten Patient*innen führten, aus rechtlichen Gründen an unserer medizinischen Fakultät nicht filmen. Daher konnte die Fernbewertung, ein Hauptmerkmal der Bewertung in unserem Prototyp, nicht stattfinden. Tipp 2: Wenn Sie die Fernbewertung einsetzen möchten, klären Sie mit Ihrer Rechtsabteilung, ob es möglich ist, Videos von Studierenden für die Fernbewertung aufzunehmen. Tonbandaufnahmen könnten eine Alternative sein, wenn diese erlaubt sind.

Immerhin konnten wir den Kerngedanken unseres Projekts beibehalten, indem wir Elemente einer Simulation in das traditionelle OSCE-Format einführten. Die Studierenden betraten die Untersuchungsräume, ohne zu wissen, welche medizinischen Inhalte der vier klinischen Disziplinen sie bei bestimmten simulierten Patient*innen erwarten würden, was gute Fähigkeiten bei der Anamneseerhebung erfordert. Tipp 3: Passen Sie die Patient*innenfälle an reale Fälle an und entwickeln Sie sie gemeinsam mit erfahrenen Kliniker*innen, um die inhaltliche Validität zu erhöhen [13].

Anstelle von Videobewertungen mussten unsere Prüfer*innen für ihre Bewertungen im Raum anwesend sein, griffen aber nicht in die Studierenden-Patient*innen-Kommunikation ein. Außerdem konnten die Prüfer*innen aufgrund der Prüfungsordnung der Medizinischen Fakultät Hamburg, die eine bestimmte Punktzahl pro OSCE-Station vorschreibt, die von uns für die Konsultationsphase geplanten Bewertungsinstrumente für die Clinical-Reasoning-Kompetenz [8] und Patient*innen-Kommunikationskompetenz [9] nicht einsetzen. Statt nur medizinische Inhalte zu bewerten, konnten wir zumindest Aspekte von Clinical Reasoning und Kommunikation zusätzlich zu den medizinischen Inhalten in unsere üblichen OSCE-Checklisten integrieren. Als zusätzliches Lehrforschungsprojekt durften Bewerter*innen mit psychosozialem Hintergrund mit in die Prüfungsräume, um die Kommunikationskompetenz der Studierenden mit der Global Rating Scale [9] zu beurteilen. Tipp 4: Bevor Sie die vorgeschlagenen Instrumente zur Kommunikationskompetenz, zum Clinical Reasoning und zum Patient*innenmanagement einsetzen, überprüfen Sie, ob diese in Ihrer Prüfungsordnung für die summative Bewertung zulässig sind.

Aufgrund der prüfungsrechtlichen Bestimmungen an der Medizinischen Fakultät Hamburg konnten wir die simulationsbasierte OSCE mit kompetenzbasierter Fernbewertung nicht als Ersatz für unsere übliche summative OSCE durchführen. Teile der Simulation, d. h. Konsultationen und Fallpräsentationen mit Fernbewertung des Clinical Reasonings, der Kommunikationskompetenz und des Patient*innenmanagements, wurden jedoch bereits an anderer Stelle erfolgreich durchgeführt [8], [9], [10], [11]. Der vorgeschlagene Prototyp funktioniert sogar als telemedizinisches Format, das wir in einem erweiterten Format als formatives Assessment inklusive Feedback implementiert haben [13]. Die zeitunabhängige Fernbeurteilung lässt sich gut mit den Dienstplänen der Prüfer*innen vereinbaren. Zu den weiteren Vorteilen der Fernbewertung gehört, dass die Videos in einer randomisierten Reihenfolge bewertet werden können, um Verzerrungen durch Reihenfolgeeffekte zu vermeiden [14], und dass die Prüfer*innen nach eigenem Ermessen Pausen einlegen können, um mögliche „Prüfenden-Ermüdung“ zu verringern [15]. Darüber hinaus hilft die Verblindung der Studierenden bezüglich des Inhalts der Stationen, sie auf reale Konsultationen vorzubereiten, bei denen die Ursache für das Problem eines Patienten bzw. einer Patientin unbekannt ist. Außerdem erfordert die Fernbewertung weniger Personal vor Ort, während die Prüfung stattfindet. Wenn die Einführung dieses OSCE-Formats in Erwägung gezogen wird, empfiehlt es sich, die zu erwartenden Hindernisse, wie z. B. die begrenzte Prüfungszeit oder mögliche rechtliche Probleme mit dem Filmen oder der Datenspeicherung, im Vorfeld der Planung zu klären.


Förderung

Diese Arbeit entstand im Studierendenauswahl-Verbund (stav), welcher vom Bundesministerium für Bildung und Forschung im Zeitraum von Juli 2018 bis Dezember 2021 gefördert wurde (Förderkennzeichen 01GK1801A). Der Förderer spielte keine Rolle im Studiendesign und bei der Erhebung, Analyse und Interpretation der Daten oder dem Verfassen des Manuskripts.


Ethik

Die Unbedenklichkeit der Studie sowie die Übereinstimmung mit der Erklärung von Helsinki wurde von der Ethik-Kommission der Ärztekammer Hamburg bestätigt (Referenz-Nummer: WF-047/16). Die Anonymität der Teilnehmenden wurde garantiert.


Danksagung

Wir danken allen teilnehmenden Medizinstudierenden, Schauspielern und Schauspielerinnen, Prüfern und Prüferinnen sowie dem Dekanat der Medizinischen Fakultät Hamburg für ihre Unterstützung bei der Pilotierung dieses Prüfungsformats.


Interessenkonflikt

Die Autorinnen erklären, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Fischer MR, Bauer D, Mohn K, NKLM-Projektgruppe. Finally finished! National competence based catalogues of learning objectives for undergraduate medical education (NKLM) and dental education (NKLZ) ready for trial. GMS J Med Educ. 2015;32(3):Doc35. DOI: 10.3205/zma000977 Externer Link
2.
Newble D. Techniques for measuring clinical competence: objective structured clinical examinations. Med Educ. 2004;38(2):199-203. DOI: 10.1111/j.1365-2923.2004.01755.x Externer Link
3.
Rotthoff T, Kadmon M, Harendza S. It does not have to be either or! Assessing competence in medicine should be a continuum between an analytic and a holistic approach. Adv Health Sci Educ Theory Pract. 2021;26(5):1659-1673. DOI: 10.1007/s10459-021-10043-0 Externer Link
4.
Yeates P, Cope N, Hawarden A, Bradshaw H, McCray G, Homer M. Developing a video-based method to compare and adjust examiner effects in fully nested OSCEs. Med Educ. 2019;53(3):250-263. DOI: 10.1111/medu.13783 Externer Link
5.
Vivekananda-Schmidt P, Lewis M, Coady D, Morley C, Kay L, Walker D, Hassell AB. Exploring the use of videotaped objective structured clinical examination in the assessment of joint examination skills of medical students. Arthritis Rheum. 2007;57(5):869-876. DOI: 10.1002/art.22763 Externer Link
6.
Prediger S, Schick K, Fincke F, Fürstenberg S, Oubaid V, Kadmon M, Berberat PO, Harendza S. Validation of a competence-based assessment of medical students' performance in the physician's role. BMC Med Educ. 2020;20:6. DOI: 10.1186/s12909-019-1919-x Externer Link
7.
Rheingans A, Soulos A, Mohr S, Meyer J, Guse AH. The Hamburg integrated medical degree program iMED. GMS J Med Educ. 2019;36(5):Doc52. DOI: 10.3205/zma001260 Externer Link
8.
Fürstenberg S, Helm T, Prediger S, Kadmon M, Berberat PO, Harendza S. Assessing clinical reasoning in undergraduate medical students during history taking with an empirically derived scale for clinical reasoning indicators. BMC Med Educ. 2020;20:368. DOI: 10.1186/s12909-020-02260-9 Externer Link
9.
Bußenius L, Kadmon M, Berberat PO, Harendza S. Evaluating the Global Rating scale's psychometric properties to assess communication skills of undergraduate medical students in video-recorded simulated patient encounters. Patient Educ Couns. 2022;105(3):750-755. DOI: 10.1016/j.pec.2021.06.001 Externer Link
10.
Gärtner J, Bußenius L, Schick K, Prediger S, Kadmon M, Berberat PO, Harendza S. Validation of the ComCare index for rater-based assessment of medical communication and interpersonal skills. Patient Educ Couns. 2022;105(4):1004-1008. DOI: 10.1016/j.pec.2021.07.051 Externer Link
11.
Brätz J, Bußenius L, Brätz I, Grahn H, Prediger S, Harendza S. Assessment of final-year medical students’ entrustable professional activities after education on an interprofessional training ward: A case-control study. Perspect Med Educ. 2022;11:266-272. DOI: 10.1007/s40037-022-00720-0 Externer Link
12.
Bußenius L, Harendza S. Are different medical school admission tests associated with the outcomes of a simulation-based OSCE? BMC Med Educ. 2021;21:263. DOI: 10.1186/s12909-021-02703-x Externer Link
13.
Harendza S, Gärtner J, Zelesniack E, Prediger S. Evaluation of a telemedicine-based training for final-year medical students including simulated patient consultations, documentation, and case presentation. GMS J Med Educ. 2020;37(7):Doc94. DOI: 10.3205/zma001387 Externer Link
14.
Burt J, Abel G, Elmore N, Campbell J, Roland M, Benson J, Silverman J. Assessing communication quality of consultations in primary care: initial reliability of the Global Consultation Rating Scale, based on the Calgary-Cambridge Guide to the Medical Interview. BMJ Open. 2014;4:e004339. DOI: 10.1136/bmjopen-2013-004339 Externer Link
15.
McLaughlin K, Ainslie M, Coderre S, Wright B, Violato C. The effect of differential rater function over time (DRIFT) on objective structured clinical examination ratings. Med Educ. 2009;43(10):989-992. DOI: 10.1111/j.1365-2923.2009.03438.x Externer Link