gms | German Medical Science

Gemeinsame Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA) und des Arbeitskreises zur Weiterentwicklung der Lehre in der Zahnmedizin (AKWLZ)

30.09. - 03.10.2015, Leipzig

Entwicklung eines Tools zur Qualitätssicherung des Feedbacks von Simulationspatienten

Meeting Abstract

Gemeinsame Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA) und des Arbeitskreises zur Weiterentwicklung der Lehre in der Zahnmedizin (AKWLZ). Leipzig, 30.09.-03.10.2015. Düsseldorf: German Medical Science GMS Publishing House; 2015. DocV334

doi: 10.3205/15gma068, urn:nbn:de:0183-15gma0683

Veröffentlicht: 31. August 2015

© 2015 Thrien et al.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen. Er darf vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden. Lizenz-Angaben siehe http://creativecommons.org/licenses/by-nc-nd/3.0/.


Gliederung

Text

Fragestellung/Einleitung: Der Einsatz von Simulationspatient/innen (SP) ist ein fester Bestandteil der Medizinischen Lehre [1]. Als Argument dient u.a. die Möglichkeit, den Studierenden ein qualifiziertes Feedback (FB) geben zu lassen [2], [3]. Die Effektivität von FB hängt maßgeblich von der FB-Kompetenz der FB-Geber/innen ab [4], [5], [6]. Die Sicherung der Qualität des FB von SP ist daher ein Faktor der Qualitätssicherung der Medizinischen Lehre. Es existieren bereits mehrere Instrumente [7], [8], [9], [10], [11], die aber von einem großen Teil der Mitglieder des Ausschusses Simulationspatienten der GMA nicht als zufriedenstellend bzw. übertragbar auf die Situation in der D-A-CH-Region empfunden wurden. So wurde ein Prozess angestoßen, einen Beobachtungbogen zu entwickeln, der im deutschsprachigen Raum in möglichst vielen Settings eingesetzt werden kann.

Methoden: Im Rahmen mehrerer GMA-Tagungen und SkillsLab-Symposien wurden Workshops veranstaltet, in denen Items aus vorhandenen validierten und nicht validierten Instrumenten (MaSP [7], mQSF [8], NESP [9], Mannheimer Checkliste zur Videoanalyse [10], Inter-Rater-Report, Connecticut [11]) sowie von den Teilnehmer/innen der Workshops als relevant erachtete Items diskutiert wurden. Diese wurden während der Workshops sowie in Arbeitsgruppen zwischen den Tagungen konsentiert und 2014 in Hamburg am Beispiel von drei live durchgeführten SP-Gesprächssimulationen von den WS-Teilnehmer/innen getestet. Außerdem wurde ein Manual erstellt, das die Bedeutung einzelner Items erläutert.

Eine vorläufige Version des Tools wurde von studentischen Tutoren der Charité pilotiert und ein Erfahrungsbericht beim SkillsLab-Symposium in Halle vorgestellt [12].

Ergebnisse: Entstanden ist ein Beobachtungsbogen mit 23 Items mit den Kategorien Haltung, Struktur, Inhalt sowie einer Kategorie mit Items, die nur bei Dozenten-/Moderationsfunktion des SP infrage kommen. 14 Items werden mit einer 5-stufigen Likert-Skala bewertet, sieben Items werden binär bewertet, bei zwei Items ist anzugeben, ob Ereignisse nicht, ein- bis dreimal oder mehr als dreimal eingetreten sind. Bei allen Items kann „nicht anwendbar“ ausgewählt werden, da das konkrete Vorgehen beim FB nicht an allen Standorten vollkommen deckungsgleich ist. Des Weiteren enthält der Bogen eine offene Frage, die ggf. zur Reflexion und weiteren Schulung der/des SP anregen soll.

Diskussion/Schlussfolgerung: Die ersten Einsätze deuten darauf hin, dass ein praktikables und hilfreiches tool zur Beurteilung der Qualität des FB von SP entstanden ist. Um eine akzeptable Inter-Rater-Reliabilität erreichen zu können, scheint das Manual unabdingbar zu sein. Dies mag an den häufig eingesetzten 5-stufigen Skalen liegen, kann aber durchaus auch in der Natur der Sache begründet sein, da kommunikatives Handeln immer Interpretationsspielräume lässt. Inwieweit das Instrument einer wissenschaftlichen Überprüfung standhält, soll eine multizentrische Validierungsstudie zeigen.


Literatur

1.
Kruppa E, Jünger J, Nikendei C. Einsatz innovativer Lern- und Prüfungsmethoden an Medizinischen Fakultäten der Bundesrepublik Deutschlang – Eine Bestandaufnahme. Dtsch Med Wochenschr. 2009;134:371-372. DOI: 10.1055/s-0028-1124008 Externer Link
2.
Nikendei C, Zipfel S, Roth C, Löwe B, Herzog W, Jünger J. Kommunikations- und Interaktionstraining im psychosomatischen Praktikum: Einsatz von standardisierten Patienten. Psychother Psych Med. 2003;53:440-445. DOI: 10.1055/s-2003-43388 Externer Link
3.
Wündrich M, Peters J, Philipsen A, Kopasz M, Berger M, Voderholzer U. Einsatz von Simulationspatienten in den Lehrfächern Psychiatrie und Psychotherapie: Eine kontrollierte Pilotstudie. Nervenarzt. 2008;79:1273–1782. DOI: 10.1007/s00115-008-2493-3 Externer Link
4.
Archer JC. State of the science in health professional education: effective feedback. Med Educ. 2010;44(1):101–108. DOI: 10.1111/j.1365-2923.2009.03546.x Externer Link
5.
Pelgrim EA, Kramer AW, Mokkink HG, van der Vleuten CP. Reflection as a component of formative assessment appears to be instrumental in promoting the use of feedback; an observational study. Med Teach. 2013;35(9):772-778. DOI: 10.3109/0142159X.2013.801939 Externer Link
6.
Parkes J, Abercrombie S, McCarty T. Feedback sandwiches affect perceptions but not performance. Adv Health Sci Educ. 2013;18(3):397–407. DOI: 10.1007/s10459-012-9377-9 Externer Link
7.
Wind LA, van Dalen J, Muijtjens AM, Rethans JJ. Assessing simulated patients in an educational setting: the MaSP (Maastricht Assessment of Simulated Patients). Med Educ. 2004;38(1):39–44. DOI: 10.1111/j.1365-2923.2004.01686.x Externer Link
8.
Schlegel C, Woermann U, Rethans JJ, van der Vleuten C. Validity evidence and reliability of a simulated patient feedback instrument. BMC Med Educ. 2012;12:6. DOI: 10.1186/1472-6920-12-6 Externer Link
9.
Bouter S, van Weel-Baumgarten E, Bolhuis S. Construction and Validation of the Nijmegen Evaluation of the Simulated Patient (NESP): Assessing Simulated Patients' Ability to Role-Play and Provide Feedback to Students. Acad Med. 2013;88(2):253–259. DOI: 10.1097/ACM.0b013e31827c0856 Externer Link
10.
Strohmer R. QS-Checkliste für Videoanalyse UMM. Medizinische Fakultät Mannheim, Universität Heidelberg. Unveröffentlicht
11.
Pfeiffer C, Palten B, McNally T, Sousa MF, Kosowicz L. Inter-Rater Report Clinical Skills Assessment Program. University of Connecticut. Unveröffentlicht
12.
Freytag J, Kampel B, Fritz AH, Strohmer R, Thrien C. Erfahrungsbericht zum Einsatz eines neuen Tools zum Assessment von SP-Feedback. X. Internationales SkillsLab Symposium (iSLS) 2015. Halle/Leipzig: Universität Leipzig; 2015.