gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

„Fit fürs M3-Examen“ – Projektbericht zu einem telemedizinischen Training mit Simulationspatient*innen, Peers und Prüfenden für den Dritten Abschnitt der Ärztlichen Prüfung

Artikel Telemedizin

  • corresponding author Sigrid Harendza - Universitätsklinikum Hamburg-Eppendorf, III. Medizinische Klinik, Hamburg, Deutschland
  • Lisa Bußenius - Universitätsklinikum Hamburg-Eppendorf, III. Medizinische Klinik, Hamburg, Deutschland
  • Julia Gärtner - Universitätsklinikum Hamburg-Eppendorf, III. Medizinische Klinik, Hamburg, Deutschland
  • Miriam Heuser - Albert-Ludwigs-Universität Freiburg, Medizinische Fakultät, Studiendekanat, Freiburg, Deutschland
  • Jonathan Ahles - Albert-Ludwigs-Universität Freiburg, Medizinische Fakultät, Studiendekanat, Freiburg, Deutschland
  • Sarah Prediger - Universitätsklinikum Hamburg-Eppendorf, III. Medizinische Klinik, Hamburg, Deutschland

GMS J Med Educ 2023;40(2):Doc17

doi: 10.3205/zma001599, urn:nbn:de:0183-zma0015997

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2023-40/zma001599.shtml

Eingereicht: 6. November 2022
Überarbeitet: 11. Januar 2023
Angenommen: 6. Februar 2023
Veröffentlicht: 17. April 2023

© 2023 Harendza et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Hintergrund: Den dritten Abschnitt der Ärztlichen Prüfung (M3) absolvieren Medizinstudierende als zweitägige mündlich-praktische Prüfung. Es sind vor allem Anamnesefähigkeiten und schlüssige Fallpräsentationen zu demonstrieren. Ziel dieses Projektes war es, ein Training zu etablieren, in dem Studierende ihre kommunikativen Fähigkeiten in Anamnesegesprächen und ihre Clinical-Reasoning-Fähigkeiten in fokussierten Fallvorstellungen erproben können.

Methoden: Im neu entwickelten Training führten PJ-Studierende in der Rolle von Ärzt*innen vier telemedizinische Anamnesegespräche mit Simulationspatient*innen (SP). Zu zwei SPs erhielten sie weitere Befunde und stellten diese in einer Fallübergabe vor, in der sie zwei SPs übergeben bekamen, die sie selbst nicht gesehen hatten. Eine*n der beiden gehörten SPs stellte jede*r in einer Fallbesprechung mit einer Oberärztin vor. Feedback erhielten die Teilnehmenden von den SPs zu ihren kommunikativen und interpersonellen Fähigkeiten mit dem ComCare-Bogen und von der Oberärztin zur Fallpräsentation. Es nahmen 62 PJ-Studierende der Universitäten Hamburg und Freiburg im September 2022 teil und evaluierten das Training.

Ergebnisse: Die Teilnehmenden hielten das Training zur Examensvorbereitung für sehr geeignet. Das Feedback der SPs zur Kommunikation und der Oberärztin zu den Clinical-Reasoning-Fähigkeiten erhielt in der Wichtigkeit für die Studierenden die höchsten Bewertungen. Die Teilnehmenden schätzten die Übungsmöglichkeit für strukturierte Anamneseerhebung und Fallpräsentation sehr und wünschten sich mehr solcher Angebote im Studium.

Schlussfolgerung: Im telemedizinischen Training lassen sich wesentliche Elemente des Dritten Abschnitts der Ärztlichen Prüfung mit Feedback abbilden und es kann standortunabhängig angeboten werden.

Schlüsselwörter: Examen, formative Prüfung, Simulation, Telemedizin, Training


1. Einleitung

Das Humanmedizinstudium in Deutschland endet, egal, ob es als Regelstudiengang oder als Modellstudiengang absolviert wurde, gemäß der Approbationsordnung mit dem sogenannten Dritten Abschnitt der Ärztlichen Prüfung (M3) (§ 30 ÄApprO, siehe [http://www.gesetze-im-internet.de/_appro_2002/BJNR240500002.html]). Es handelt sich dabei um eine mündlich-praktische Prüfung, die an zwei Tagen stattfindet. Der erste Prüfungstag ist für „die praktische Prüfung mit Patientenvorstellung“ (§ 30 Abs. 1 ÄApprO) vorgesehen. Im M3-Examen hat „der Prüfling fallbezogen zu zeigen, dass er die während des Studiums erworbenen Kenntnisse in der Praxis anzuwenden weiß […], über die notwendigen Fähigkeiten und Fertigkeiten […] in der ärztlichen Gesprächsführung verfügt“ (§ 30 Abs. 3 ÄApprO) und sich gemäß der „allgemeinen Regeln ärztlichen Verhaltens gegenüber dem Patienten […] zu verhalten weiß“ (§ 30 Abs. 3 S. 10 ÄApprO). Insbesondere soll der Prüfling zeigen, „dass er die Technik der Anamneseerhebung [… und] der grundlegenden Laboratoriumsmethoden beherrscht und […] ihre Resultate beurteilen kann, […] in der Lage ist, die Informationen, die zur Stellung der Diagnose erforderlich sind, zu gewinnen und anzufordern, die unterschiedliche Bedeutung und Gewichtung für die Diagnosestellung zu erkennen und im Rahmen differentialdiagnostischer Überlegungen kritisch zu verwerten“ (§ 30 Abs. 3 S. 2-3 ÄApprO). Dieser Prozess wird als Clinical Reasoning bezeichnet [1], [2], [3] und stellt die Grundlage ärztlichen Denkens und Handelns dar. Die Prüfenden für die M3-Prüfung werden vom Landesprüfungsamt des jeweiligen Bundeslandes auf Vorschlag der Universitäten bestellt und sind in der Regel mindestens Fachärzt*innen. Zur ihren Aufgaben gehören die Gewährleistung des ÄApprO-gerechten Ablaufs der Prüfung und die Benotung der Prüfung sowie eine Dokumentation des Prüfungsinhaltes.

Während des Studiums ist die Möglichkeit zur Vorbereitung auf diese Art der mündlich-praktischen Prüfung sehr limitiert, da der größte Teil der Semester-Prüfungen als Multiple-Choice-Klausuren oder Objective Structured Clinical Examinations (OSCEs) abgehalten werden, sogar in relativ neu gegründeten Hochschulen [4]. Auch gibt es in deutschsprachigen medizinischen Curricula bisher nur wenige publizierte Unterrichtsformate, mit deren Unterstützung Clinical Reasoning explizit erlernt bzw. geübt wird [5], [6], [7], [8], [9], [10], [11], [12], [13], obwohl die Einführung von Clinical Reasoning in medizinische Curricula im europäischen Hochschulraum explizit gefordert wird [14] und es international bereits seit 1991 ein Standardwerk – inzwischen in zweiter Auflage [15] – sowie weitere didaktische Anleitungen für das Unterrichten von Clinical Reasoning gibt [16], [17]. Ein erklärendes Modell für Clinical Reasoning, wie auch viele andere Entscheidungsprozesse, ist die sogenannte Dual-Prozess-Theorie [18], [19]. Während der intuitive Denkweg beispielsweise in Multiple-Choice-Fragen angewendet und damit implizit erlernt wird [20], lässt sich der analytische Denkweg, wenn er nicht explizit gelehrt wird, beispielsweise durch das Verhalten von ärztlichen Vorbildern in Falldiskussionen beobachten, wenn diese ihre Arbeitshypothesen und weiteren diagnostischen oder therapeutischen Schritte begründen. Dass diese beiden Denkwege im ärztlichen Alltag intermittierend genutzt werden und dass sowohl beim intuitiven als auch beim analytischen Denken typische kognitive Fehler auftreten, ist ebenfalls untersucht [21], [22]. Die Anwendung von Clinical Reasoning lässt sich sowohl in Anamnesegesprächen [23], [24] als auch bei Fallpräsentationen überprüfen [5], [25].

Von einigen medizinischen Fakultäten und auch von kommerziellen Firmen bzw. ärztlichen Standesvertretungen werden zwar Seminare zur Vorbereitung auf den dritten Abschnitt der Ärztlichen Prüfung angeboten, um sich mit den spezifischen Gegebenheiten der Prüfungssituation vertraut zu machen. Hierbei liegt jedoch meist kein besonderer Fokus auf der ärztlichen Kommunikation und dem Clinical Reasoning. Die ärztliche Kommunikation ist jedoch wesentlicher Bestandteil bei den M3-Prüfungsteilen, die an bzw. mit Patient*innen erfolgen, und Clinical Reasoning ist eine entscheidende Voraussetzung für fokussierte Fallpräsentationen und -diskussionen, was sowohl am Krankenbett als auch ohne Patient*innenbeteiligung an weiteren Fällen ein inhaltlich wichtiger Teil der M3-Prüfung ist. Ziel dieses Projektes war es daher, ein Training zu entwickeln, das PJ-Studierende gegen Ende ihres Praktischen Jahres durchlaufen können, um ihre kommunikativen Fähigkeiten in fokussierten Anamnesegesprächen und ihre Clinical-Reasoning-Fähigkeiten für die fokussierte Vorstellung von Patient*innen zu erproben sowie ein Feedback hierzu zu erhalten. Damit soll den PJ-Studierenden eine bedarfsgerechtere, an der Ausprägung der eigenen Kompetenzen in diesen beiden Bereichen orientierte Vorbereitung für die mündlich-praktische Prüfung ermöglicht werden.


2. Projektbeschreibung

Im Jahr 2020 haben wir im Centrum zur Entwicklung und Prüfung ärztlicher Kompetenzen am Universitätsklinikum Hamburg-Eppendorf ein kompetenzbasiertes Telemedizin-basiertes Training für PJ-Studierende entwickelt [26]. Dieses Training beinhaltete eine telemedizinische Sprechstunde mit vier Schauspielpatient*innen pro Teilnehmer*in, die Patient*innendokumentation und das Anordnen weiterer Diagnostik mittels einer elektronischen Patient*innenakte sowie eine Fallpräsentation pro Teilnehmer*in in einer digitalen Fallbesprechung mit einem Oberarzt bzw. einer Oberärztin. Es stellt eine telemedizinische Weiterentwicklung von zwei vorherigen Projekten dar, in denen wir, basierend auf wesentlichen Kompetenzfacetten für ärztliche Berufsanfänger*innen [27], [28] ein Trainingsformat für einen simulierten ersten Arbeitstag entwickelten und validierten [29], [30]. Das bisher etablierte telemedizinische Trainingsformat [26] wurde für das „Fit fürs M3-Examen“-Training wie folgt umgestaltet (siehe Abbildung 1 [Abb. 1]).

Für das Training hatten alle Teilnehmenden vorab ein schriftliches Briefing über den inhaltlichen und technischen Ablauf inklusive weiterer Unterlagen aus dem Clinical-Reasoning-Kurs des UKE [5] für eine fokussierte Anamnese und begründete Fallvorstellung erhalten. Die wesentlichen Aspekte hierzu wurden in einem persönlichen Briefing durch die Organisatorin des Trainings wiederholt und die Teilnehmenden hatten Gelegenheit Fragen zu stellen. In der ersten Phase (Sprechstunde) fand, analog zum bisherigen Telemedizin-basierten Training [26], eine telemedizinische Sprechstunde mit vier Schauspielpatient*innen pro Teilnehmer*in statt. Es nahmen pro Runde jeweils acht Studierende gleichzeitig am Training teil (Gruppe A und Gruppe B), wobei die Patient*innenfälle für Gruppe A und B verschieden waren. Abbildung 2 [Abb. 2] zeigt einen Simulationspatienten im telemedizinischen Setting mit Tablet; insgesamt wurden acht Tablets benötigt. Alle Patient*innenfälle wurden gemäß realer Patient*innen aus der Notaufnahme des Universitätsklinikums Hamburg-Eppendorf gestaltet und beinhalteten internistische und chirurgische Krankheitsbilder, die häufig im dritten Abschnitt der Ärztlichen Prüfung vorkommen. Außerdem waren alle Patient*innenfälle neben einer Hauptbeschwerde ebenfalls wieder mit einer persönlichen Situation gestaltet, die eine kommunikative Herausforderung darstellte [26]. Die Rollen wurden mit professionellen Schauspielerinnen und Schauspielern, die speziell für die jeweiligen Rollen ausgewählt waren, besetzt und von SH und SP für die Anamnesegespräche und das Ausfüllen der Bewertungsbögen trainiert (siehe Anhang 1 [Anh. 1]). Es waren maximal zehn Minuten für jedes Anamnesegespräch vorgesehen. Alle Gespräche wurden auf Video aufgezeichnet. Nach jeder Begegnung mit den Simulationspatient*innen wurde den Teilnehmenden der entsprechende Befund der körperlichen Untersuchung zur Verfügung gestellt und bis zum nächsten Gespräch waren fünf Minuten Zeit, in denen die Teilnehmenden den Fall unter Hinzunahme der körperlichen Untersuchung weiter durchdenken konnten. Die Simulationspatient*innen füllten nach jedem Gespräch elektronisch den ComCare-Bogen aus, ein validiertes Instrument zur Messung von kommunikativen und interpersonellen Kompetenzen [31], [32], das offene und geschlossene Fragen enthält. Hierfür wurden ebenfalls acht Tablets benötigt. Die Ergebnisse dieser Bögen mit der quantitativen Auswertung der Items sowie ihrem persönlichen Feedback erhielten die Teilnehmenden nach Ende des Trainings.

Nach Ende der telemedizinischen Sprechstunde erhielten die Teilnehmenden in einer zweiten Phase (Fallvorbereitung) für zwei ihrer vier Patient*innen weitere Befunde, z. B. weitere Laborwerte, EKG, Röntgenbilder oder andere Befunde. Außerdem erhielten sie für die beiden Patient*innen jeweils ein elektronisches Formular, in dem sie für die Strukturierung der Patient*innenvorstellung mehrere Differentialdiagnosen dokumentieren sollten. Für jede Differentialdiagnose sollten sie anschließend in zwei Feldern („bestätigende Aspekte“ bzw. „widersprechende Aspekte“) diejenigen Informationen notieren, die aus der Anamnese, der körperlichen Untersuchung und den zusätzlichen diagnostischen Befunden die jeweils gestellte Differentialdiagnose wahrscheinlicher bzw. unwahrscheinlicher machten. Dieses elektronische Formular wurde nach dem Vorbild eines virtuellen Patient*innenprogramms zum Training von Clinical Reasoning entwickelt [33]. Abschließend sollten die Teilnehmenden notieren, mit welcher Arbeitsdiagnose sie jeweils die beiden Fälle übergeben wollten und außerdem mit einem Schieberegler (von „sehr unsicher“ bis „sehr sicher“) vermerken, wie sicher sie sich nach dem argumentativen Gewichten der Differentialdiagnosen mit der jeweiligen Arbeitsdiagnose fühlten (siehe Abbildung 3 [Abb. 3]).

In der dritten Phase (Fallübergabe) berichteten die Teilnehmenden der Gruppe A den Teilnehmenden der Gruppe B in verschiedenen Runden von jeweils einem ihrer beiden Patient*innen und vice versa, wobei für jedes Gespräch die Teilnehmenden so virtuell verschoben wurden, dass sie auf jeweils neue Gesprächspartner*innen trafen. Hierfür wurden vier Laptops benötigt. Die jeweils hörende Person nahm in diesen Peer-Fallübergaben damit die Rolle einer prüfenden Person ein. Ihre Aufgabe war es, den jeweils gehörten Fall zu verstehen und mit der vorstellenden Person zu diskutieren, um später selbst in der Lage zu sein, einen der gehörten Fälle strukturiert vorstellen zu können. Dieses Vorgehen sollte die Situation einer tatsächlichen Übergabe simulieren und damit gleichzeitig das Augenmerk auf die wesentlichen Dinge eines Falles lenken. Im Briefingtext hatten alle Teilnehmenden ein Beispiel für eine fokussierte Vorstellung erhalten, in dem aufgezeigt war, wie man die bestätigenden und widersprechenden Aspekte aus dem elektronischen Formular für die klinische Argumentation im Abwägen der Differentialdiagnosen nutzen kann. Für jedes Fallübergabegespräch standen sechs Minuten zur Verfügung. Die Fallübergabegespräche wurden ebenfalls per Video aufgezeichnet.

In der vierten Phase (Fallpräsentation und -besprechung) trafen sich alle acht Teilnehmenden der Gruppen A und B digital mit einer Oberärztin per Laptop. Die Teilnehmenden erhielten zuvor die Information, welchen der beiden gehörten Patient*innen sie vorstellen sollten. Die Patient*innen wurden einzeln aufgerufen und die Teilnehmenden hatten dann zehn Minuten Zeit, die Patient*innen jeweils vorzustellen, mit der Oberärztin und den Peers zu diskutieren, wesentliche Befunde (z. B. EKGs oder Röntgenbilder) gemeinsam anzuschauen und die Fälle im Hinblick auf weitere erforderliche Diagnostik und Therapie medizinisch aufzulösen. Außerdem erhielten die Teilnehmenden von der Oberärztin ein Feedback zu ihrer klinischen Argumentation. Zum Abschluss erfolgte ein Debriefing zum Training mit den jeweils acht Teilnehmenden einer Runde in Form einer Gruppendiskussion. Auch diese beiden Phasen wurden videographiert. Die Diskussion wurden für die Auswertung der Beiträge verbatim transkribiert.

Im September 2022 nahmen an zwei Tagen insgesamt 62 Studierende (47 von der Universität Hamburg und 15 von der Universität Freiburg) kurz vor Abschluss ihres Praktischen Jahres an dem Training „Fit fürs M3-Examen“ teil. Ihr mittleres Alter betrug 27,6±3,7 Jahre. Von den 62 Teilnehmenden waren 80,6% weiblich, 19,4% männlich. Die Studierenden waren mittels digitaler Information oder per E-Mail über die Möglichkeit zur Teilnahme an diesem freiwilligen Training informiert worden und die Anmeldung erfolgte nach dem Windhundverfahren. Die Einladung der Hamburger Studierenden war aus logistischen Gründen zwei Wochen früher erfolgt als die Einladung der Freiburger Studierenden. Für die wissenschaftliche Begleitung dieses Projektes lag eine Genehmigung der Ethik-Kommission der Ärztekammer Hamburg vor (Referenz-Nummer: PV3649) und die Studierenden willigten schriftlich zur Teilnahme ein. Zur Evaluation des Trainings erhielten die Teilnehmenden nach dem Debriefing einen digitalen Fragebogen, in dem sie Fragen zu ihrem eigenen Erleben im Training, zum Training insgesamt sowie zu dessen Teilaspekten und zur Organisation des Trainings auf einer 5-stufigen Likert-Skala beantworteten (1: trifft nicht zu, 2: trifft eher nicht zu, 3: teils/teils, 4: trifft eher zu, 5: trifft vollkommen zu).


3. Ergebnisse

Die Studierenden erreichten in der Bewertung ihrer kommunikativen und interpersonellen Kompetenzen durch die Simulationspatient*innen im ComCare durchschnittlich 4,15±0,45 Punkte von maximal 5 Punkten (siehe Tabelle 1 [Tab. 1]). Insbesondere wurden die „Verwendung verständlicher Sprache“ (4,71±0,32), die „nachvollziehbare Erläuterung nächster diagnostischer und therapeutischer Schritte“ (4,41±0,41) und „aufmerksames Zuhören“ (4,29±0,52) von den Simulationspatient*innen am höchsten bewertet. Das Item „Der Arzt/die Ärztin hat sich für mich als Mensch und für mein Umfeld interessiert“ erhielt mit 3,45±0,67 aus Perspektive der Simulationspatient*innen die niedrigste Bewertung.

Im Erleben der Trainingssituation schätzen die Studierenden sich am sichersten im Umgang mit den Patient*innen (4,08±0,86) und am wenigsten sicher im klinischen Denken (3,31±0,88) ein (siehe Tabelle 2 [Tab. 2]). Sie betrachteten die Patient*innenfälle zum Üben von differentialdiagnostischem Denken und die Gespräche mit den Simulationspatient*innen zum Üben fokussierter Anamnese als sehr nützlich (4,85±0,41 und 4,76±0,50). Das Feedback der Simulationspatient*innen zu den eigenen Kommunikationsfähigkeiten und das Feedback der Dozentin zur Präsentation eines Patient*innenfalls waren den Teilnehmenden bei dem Training sehr wichtig (4,79±0,49 und 4,90±0,31). In den Freitextkommentaren der Evaluation fanden sich das konstruktive Feedback der Simulationspatient*innen und der Dozentin sowie die Vielfältigkeit und Tiefe der realen Patient*innenfälle ebenfalls als wesentliche Punkte. Außerdem wurden die offene Lernatmosphäre und der Rollenwechsel in die Position einer prüfenden Person (als Hörer*in einer Übergabe) als hilfreich empfunden. Aus den Debriefing-Gruppen ließ sich entnehmen, dass die Teilnehmenden wesentliche Prinzipien des Clinical Reasoning für sich erkannt hatten („[…] dass […], so lange man seine Entscheidungen […] begründen kann, […] alles in Ordnung ist und […] man sich keinen Stress machen muss, wenn man Dinge nicht weiß, sondern seine Idee einfach erläutert“; „dass man [sein Konzept], falls es nicht schlüssig ist, dann halt nochmal hinterfragen [muss]“). Außerdem zeigte sich, dass für viele Teilnehmende offenbar im PJ wenig Möglichkeit bestanden hatte, strukturierte Fallvorstellungen zu üben oder auch Sorgen bestanden, kein adäquates Feedback zu erhalten („ich hatte leider nie eigene Patienten [um] mal eine strukturierte Vorstellung zu machen“; „richtiger fachlicher Austausch und sichere Antworten von Oberärzten haben mir leider sehr gefehlt“; „[…] je nach Person, die die Visite leitet, überlegt man sich vielleicht auch zweimal, [ob man einen Patienten vorstellt], weil es vielleicht manchmal auch schwierig ist bei manchen Persönlichkeiten“).

Insgesamt bewerteten die Teilnehmenden das „Fit fürs M3-Examen“-Training mit der Schulnote 1,2±0,41. Sie waren mit der organisatorischen Kommunikation und den organisatorischen Abläufen sehr zufrieden (4,76±0,50), ebenso mit den technischen Abläufen des Trainings (4,25±0,88). Die Veranstaltung hielten sie zur Vorbereitung auf das M3-Examen für sehr gut geeignet (4,56±0,65) und würden die Veranstaltung ihren Kommiliton*innen empfehlen (4,88±0,33). Als Gründe für die Weiterempfehlung wurden unter anderem genannt: „[…] weil man Selbstvertrauen gewinnt und merkt, dass man nicht alles wissen muss“; „[…] weil man die Rolle des Hörenden und anschließend des Präsentierenden einnimmt“; „[…] weil Fehler nicht als Problem, sondern als Chance zum Lernen der systematischen Herangehensweise gewertet werden.“


4. Diskussion und Schlussfolgerung

Die Bewertungen der Simulationspatient*innen und die Rückmeldungen der Studierenden zeigen, dass die beiden wesentlichen Ziele des Trainings, den Teilnehmenden eine Rückmeldung über ihre Kommunikationskompetenz im Patient*innengespräch und über ihre Clinical-Reasoning-Kompetenz zu geben, erreicht wurde. Das neu gestaltete Training fürs M3-Examen ermöglichte es den Teilnehmenden aus deren Sicht, die eigenen kommunikativen Fähigkeiten und die Fähigkeiten des Clinical Reasonings zu erproben, sodass sie mit dem entsprechenden Feedback die Vorbereitungen für ihre mündlich-praktische Prüfung bedarfsgerechter gestalten können. Wie die Ergebnisse des ComCare-Bogens zeigen, erzielten die Studierenden in den kommunikativen Aspekten gute Ergebnisse, während bei einigen interpersonellen Aspekten noch Verbesserungsbedarf besteht. Das zusätzliche Feedback der Simulationspatient*innen wurde von den Teilnehmenden des Trainings als sehr hilfreich empfunden. Das deckt sich mit den Erkenntnissen, dass Feedback von Simulationspatient*innen dazu beiträgt, die kommunikativen Fähigkeiten von Studierenden zu verbessern [34]. Auch die Interaktion mit den Simulationspatient*innen selbst erlebten die Teilnehmenden des Trainings aufgrund der Authentizität der Fälle als nützlich für ihr eigenes Lernen. Dass Interaktionen mit Simulationspatient*innen auch schon während der Interaktion zur professionellen Entwicklung beitragen, konnte in einer anderen Studie gezeigt werden [35].

Durch den Rollen- und damit auch den Perspektivwechsel von der sprechenden zur hörenden und wieder zur sprechenden Person erlebten die Teilnehmenden, wie sie berichteten, in der Diskussion mit ihren Peers wesentliche Aspekte des Clinical Reasonings im Hinblick auf die Fokussierung und Begründung bei der Vorstellung von Patient*innenfällen, wie sie für das mündlich-praktische Examen erforderlich sind. Eine Metaanalyse zu Rückmeldungen, die Studierende im Rahmen von Prüfungen zu ihrer klinischen Performanz erhalten hatten, zeigte in Bezug auf die Nützlichkeit dieser Rückmeldungen für das eigene Lernen und die persönliche Weiterentwicklung sehr unterschiedliche und zum Teil wenig nutzbringende Resultate [36]. Das Peer-Feedback innerhalb der Falldiskussionsphase unseres Trainings wurde vor allem durch den Rollenwechsel als sehr nützlich für die Verbesserung der eigenen Fallpräsentationsfähigkeiten befunden. Das Feedback der Dozentin zur Patient*innenvorstellung und dem Clinical-Reasoning-Prozess war den Teilnehmenden ebenfalls für ihr eigenes Lernen sehr wichtig, da für viele Teilnehmende im Studium offenbar wenig Möglichkeit bestanden hatte, Clinical Reasoning und Fallpräsentationen mit Feedback zu üben. Mit entsprechenden Dozierendentrainings zu Clinical Reasoning [37] sollte es mit angemessenem Aufwand relativ leicht möglich sein, Studierenden auch zu anderen Zeitpunkten ihres Studiums Lernmöglichkeiten zu Clinical Reasoning und Fallpräsentation anzubieten, so dass sie ein Training wie in diesem Projekt noch besser zur Selbstüberprüfung ihrer Fähigkeiten nutzen könnten. Allerdings wurden diverse Aspekte identifiziert, die der Implementierung eines longitudinalen Clinical-Reasoning-Curriculums entgegenstehen [38] und die an den verschiedenen Standorten individuell betrachtet werden müssen, um Clinical Reasoning erfolgreich umzusetzen. Sollte die Implementierung eines Clinical-Reasoning-Curriculums schwierig sein, so scheint zumindest regelmäßiges Feedback von Dozierenden oder auch Peers für das Erlernen von Kommunikation und anderen klinischen Fähigkeiten hilfreich zu sein [39], [40], [41].

Auch wenn an dem Training in einem ersten Durchlauf nur eine kleine Stichprobe von 62 freiwilligen Studierenden von zwei medizinischen Fakultäten teilgenommen hat, konnte bereits gezeigt werden, dass die intendierten Lernziele aus Sicht der Teilnehmenden erreicht wurden. Es ist anzunehmen, dass sich diese Ergebnisse auch auf eine größere Stichprobe übertragen lassen. Das Training trägt durch sein Format und entsprechendes Feedback dazu bei, dass die Studierenden im Hinblick auf Kommunikation und klinisch gut argumentierter Fallpräsentation ihre persönlichen Fähigkeiten reflektieren, mögliche Defizite identifizieren und damit aus ihrer Sicht ihre eigenen Schwerpunkte in der Vorbereitung auf das mündlich-praktische Examen besser setzen können. Als weitere, bisher noch nicht genutzte Elemente des Trainings wären auch noch eine individuelle Analyse der Anamnese- und Falldiskussionsvideos mit individuellem Feedback durch Dozierende oder Peers möglich. Aufgrund des telemedizinischen Trainingsansatzes kann das Training sehr leicht, wie in dieser Studie demonstriert, überregional und standortunabhängig angeboten werden.


Förderung

Dieses Projekt wurde durch die Joachim Herz Stiftung unterstützt.


Ethik

Dieses Projekt wurde in Übereinstimmung mit der Erklärung von Helsinki durchgeführt und die Ethik-Kommission der Ärztekammer Hamburg genehmigte die Studie und bestätigte ihre Unbedenklichkeit. Das Projekt schloss ein schriftliches Einverständnis der Teilnehmenden zur Studienteilnahme inklusive der digitalen Aufzeichnung und einer Aufbewahrung aller erhobenen Unterlagen für mindestens zehn Jahre ein und die Teilnahme war freiwillig und anonymisiert (Referenz-Nummer: PV3649).


Danksagung

Wir danken den Medizinstudierenden der Universitäten Hamburg und Freiburg, die am Training teilgenommen haben, und den Schauspielerinnen und Schauspielern Theresa Berlage, Jantje Billker, Christian Bruhn, Claudia Claus, Christiane Filla, Uwe Job, Thomas Klees, Frank Thomé. Vielen Dank für die Fotografie (Abbildung 2) an Axel Kirchhof.


Interessenkonflikt

Die Autor*innen erklären, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Elstein AS, Schwartz A. Clinical problem solving and diagnostic decision making: selective review of the cognitive literature. BMJ. 2002;324(7339):729-732. DOI: 10.1136/bmj.324.7339.729 Externer Link
2.
Durning S, Artino AR Jr, Pangaro L, van der Vleuten CP, Schuwirth, L. Context and clinical reasoning: understanding the perspective of the expert's voice. Med Educ. 2011;45(9):927-938. DOI: 10.1111/j.1365-2923.2011.04053.x Externer Link
3.
Kassirer JP, Wong JB, Kopelman RI. Learning Clinical Reasoning. 2nd ed. Baltimore: Lippincott Williams & Wilkins Health; 2009.
4.
Winkelmann A, Schendzielorz J, Maske D, Arends P, Bohne C, Hölzer H, Harre K, Nübel J, Otto B, Oess S. The Brandenburg reformed medical curriculum: study locally, work locally. GMS J Med Educ. 2019;36(5):Doc49. DOI: 10.3205/zma001257 Externer Link
5.
Harendza S, Krenz I, Klinge A, Wendt U, Janneck M. Implementation of a Clinical Reasoning Course in the Internal Medicine trimester of the final year of undergraduate medical training and its effect on students’ case presentation and differential diagnostic skills. GMS J Med Educ. 2017;34(5):Doc66. DOI: 10.3205/zma001143 Externer Link
6.
Koenemann N, Lenzer B, Zottmann JM, Fischer MR, Weidenbusch M. Clinical Case Discussions – a novel, supervised peer-teaching format to promote clinical reasoning in medical students. GMS J Med Educ. 2020;37(5):Doc48. DOI: 10.3205/zma001341 Externer Link
7.
Braun LT, Borrmann KF, Lottspeich C, Heinrich DA, Kiesewetter J, Fischer MR, Schmidmaier R. Scaffolding clinical reasoning of medical students with virtual patients: effects on diagnostic accuracy, efficiency, and errors. Diagnosis (Berl). 2019;6(2):137-149. DOI: 10.1515/dx-2018-0090 Externer Link
8.
Klein M, Otto B, Fischer MR, Stark R. Fostering medical students‘ clinical reasoning by learning from errors in clinical case vignettes: effects and conditions of additional prompting procedures to foster self-explanations. Adv Health Sci Educ Theory Pract. 2019;24(2):331-351. DOI: 10.1007/s10459-018-09870-5 Externer Link
9.
Djermester P, Gröschke C, Gintrowicz R, Peters H, Degel A. Bedside teaching without bedside – an introduction to clinical reasoning in COVID-19 times. GMS J Med Educ. 2021;38(1):Doc14. DOI: 10.3205/zma001410 Externer Link
10.
Zottmann JM, Horrer A, Chouchane Am Huber J, Heuser S, Iwaki L, Kowalski C, Gartmeier M, Berberat PO, Fischer MR, Weidenbusch M. Isn’t here just there without a “t” – to what extent can digital Clinical Case Discussions compensate for the absence of face-to-face teaching? GMS J Med Educ. 2020;37(7):Doc99. DOI: 10.3205/zma001392 Externer Link
11.
Hege I, Kononowicz A, Kiesewetter J, Foster-Johnson L. Uncovering the relation between clinical reasoning and diagnostic accuracy – an analysis of learner’s clinical reasoning process in virtual patients. PLoS One. 2018;13(10):e0204900. DOI: 10.1371/journal.pone.0204900 Externer Link
12.
Schuelper N, Ludwig S, Anders S, Raupach T. The impact of medical students’ individual teaching format choice on the learning outcome related to clinical reasoning. JMIR Med Educ. 2019;5(2):e13386. DOI: 10.2196/13386 Externer Link
13.
Middeke A, Anders S, Schuelper M, Raupach T, Schuelper N. Training of clinical reasoning with a Serious Game versus small-group problem-based learning: a prospective study. PLoS One. 2018;13(9):e0203851. DOI: 10.1371/journal.pone.0203851 Externer Link
14.
Parodis I, Andersson L, Durning SJ, Hege I, Knez J, Kononowicz AA, Lidskog M, Petreski T, Szopa M, Edelbring S. Clinical reasoning needs to be explicitly addressed in health professions curricula: recommendations from a European consortium. Int J Environ Res Public Health. 2021;18(21):11202. DOI: 10.3390/ijerph182111202 Externer Link
15.
Kassirer JP, Wong JB, Kopelman RI. Learning Clinical Reasoning. 2nd ed. Baltimore: Lippincott Williams & Wilkins Health; 2010.
16.
Kassirer JP. Teaching clinical reasoning: case-based and coached. Acad Med. 2010;85(7):1118-1124. DOI: 10.1097/acm.0b013e3181d5dd0d Externer Link
17.
Schmidt HG, Mamede S. How to improve the teaching of clinical reasoning: a narrative review and a proposal. Med Educ. 2015;49(10):961-973. DOI: 10.1111/medu.12775 Externer Link
18.
Pelaccia T, Tardif J, Triby E, Charlin B. An analysis of clinical reasoning through a recent and comprehensive approach: the dual-process theory. Med Educ Online. 2011;16(1):Article 5890. DOI: 10.3402/meo.v16i0.5890 Externer Link
19.
Marcum JA. An integrated model of clinical reasoning: dual-process theory of cognition and metacognition. J Eval Clin Pract. 2012;18(5):954-961. DOI: 10.1111/j.1365-2753.2012.01900.x Externer Link
20.
Freiwald T, Salimi M, Khaljani E, Harendza S. Pattern recognition as a concept for multiple-choice questions in a national licensing exam. BMC Med Educ. 2014;14:232. DOI: 10.1186/1472-6920-14-232 Externer Link
21.
Norman G, Monteiro S, Sherbino J. Is clinical cognition binary or continuous? Acad Med. 2013;88(8):1058-1060. DOI: 10.1097/ACM.0b013e31829a3c32 Externer Link
22.
Norman G, Sherbino J, Dore K, Wood T, Young M, Gaissmaier W, Kreuger S, Monteiro S. The etiology of diagnostic errors: a controlled trial of system 1 versus system 2 reasoning. Acad Med. 2014;89(2):277-284. DOI: 10.1097/ACM.0000000000000105 Externer Link
23.
Haring CM, Cools BM, van Gurp PJM, van der Meer JWM, Postma CT. Observable phenomena that reveal medical students’ clinical reasoning ability during expert assessment of their history taking: a qualitative study. BMC Med Educ. 2017;17(1):147. DOI: 10.1186/s12909-017-0983-3 Externer Link
24.
Fürstenberg S, Helm T, Prediger S, Kadmon M, Berberat PO, Harendza S. Assessing clinical reasoning in undergraduate medical students during history taking with an empirically derived scale for clinical reasoning indicators. BMC Med Educ. 2020;20(1):368. DOI: 10.1186/s12909-020-02260-9 Externer Link
25.
Fagundes EDT, Ibiapina CC, Alvim CG, Fernandes RAF, Carvalho-Filho MC, Brand BLP. Case presentation methods: a randomized controlled trial of the one-minute preceptor versus SNAPPS in a controlled setting. Perspect Med Educ. 2020;9(4):245-250. DOI: 10.1007/s40037-020-00588-y Externer Link
26.
Harendza S, Gärtner J, Zelesniack, Prediger S. Evaluation of a telemedicine-based training for final-year medical students including simulated patient consultations, documentation, and case presentation. GMS J Med Educ. 2020;37(7):Doc94. DOI: 10.3205/zma001387 Externer Link
27.
Wijnen-Meijer M, van der Schaaf M, Nillesen K, Harendza S, Ten Cate O. Essential facets of competence that enable trust in medical graduates: a ranking study among physician educators in two countries. Perspect Med Educ. 2013;2(5-6):290-297. DOI: 10.1007/s40037-013-0090-z  Externer Link
28.
Fürstenberg S, Schick K, Deppermann J, Prediger S, Berberat PO, Kadmon M, Harendza S. Competencies for first year residents – physicians’ views from medical schools with different undergraduate curricula. BMC Med Educ. 2017;17(1):154. DOI: 10.1186/s12909-017-0998-9 Externer Link
29.
Wijnen-Meijer M, van der Schaaf M, Booij E, Harendza S, Boscardin C, van Wijngaarden J, Ten Cate Th J. An argument-based approach to the validation of UHTRUST: can we measure how recent graduates can be trusted with unfamiliar tasks? Adv Health Sci Educ Theory Pract. 2013;18(5):1009-1027. DOI: 10.1007/s10459-013-9444-x Externer Link
30.
Prediger S, Schick K, Fincke F, Fürstenberg S, Oubaid V, Kadmon M, Berberat PO, Harendza S. Validation of a competence-based assessment of medical students’ performance in the physician’s role. BMC Med Educ. 2020;10(1):6. DOI: 10.1186/s12909-019-1919-x Externer Link
31.
Gärtner J, Prediger S, Harendza S. Development and pilot test of ComCare - a questionnaire for quick assessment of communicative and social competences in medical students after interviews with simulated patients. GMS J Med Educ. 2021;38(3):Doc68. DOI: 10.3205/zma001464 Externer Link
32.
Gärtner J, Bußenius L, Schick K, Prediger S, Kadmon M, Berberat PO, Harendza S. Validation of the ComCare index for rater-based assessment of medical communication and interpersonal skills. Patient Educ Couns. 2022;105(4):1004-1008. DOI: 10.1016/j.pec.2021.07.051 Externer Link
33.
Waechter J, Allen J, Lee CH, Zwaan L. Development and pilot testing of a data-rich clinical reasoning training and assessment tool. Acad Med. 2022;97(10):1484-1488. DOI: 10.1097/ACM.0000000000004758 Externer Link
34.
Qureshi AA, Zehra T. Simulated patient’s feedback to improve communication skills of clerkship students. BMC Med Educ. 2020;20(1):15. DOI: 10.1186/s12909-019-1914-2 Externer Link
35.
Lovink A, Groenier M, van der Niet A, Miedema H, Rethans JJ. The contribution of simulated patients to meaningful student learning. Perspect Med Educ. 2021;10(6):341-6. DOI: 10.1007/s40037-021-00684-7 Externer Link
36.
Scarff CE, Bearman M, Chiavaroli N, Trumble S. Trainees’ perspectives of assessment messages: a narrative systematic review. Med Educ. 2019;53(3):221-33. DOI: 10.1111/medu.13775 Externer Link
37.
Dhaliwal G. Developing teachers of clinical reasoning. Clin Teach. 2013;10(5):313-317. DOI: 10.1111/tct.12082 Externer Link
38.
Sudack M, Adler M, Durning SJ, Edelbring S, Frankowska A, Hartmann D, Hege I, Huwendiek S, Sobočan M, Thiessen N, Wagner FL, Kononowicz AA. Why is it so difficult to implement a longitudinal clinical reasoning curriculum? A multicenter interview study on the barriers perceived by European health profession educators. BMC Med Educ. 2021;21(1):575. DOI: 10.1186/s12909-021-02960-w Externer Link
39.
Björklund K, Stenfors T, Nilsson GH, Leanderson C. Multisource feedback in medical students’ workplace learning in primary health care. BMC Med Educ. 2022;22(1):401. DOI: 10.1186/s12909-022-03468-7 Externer Link
40.
Dewan M, Norcini J. A purpose driven fourth year of medical school. Acad Med. 2018;93(4):581-585. DOI: 10.1097/ACM.0000000000001949 Externer Link
41.
Gilkes L, Kealley N, Frayne J. Teaching and assessment of clinical diagnostic reasoning in medical students. Med Teach. 2022;44(6):650-656. DOI: 10.1080/0142159X.2021.2017869 Externer Link