gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Richtig geraten – ob und wie Medizinstudierende ihre richtigen Diagnosen fehlbegründen

Artikel Virtuelle Patienten

  • corresponding author Leah T. Braun - Ludwig-Maximilians-Universität (LMU) Munich, Klinikum der Universität München, Medizinische Klinik und Poliklinik IV, München, Deutschland; Ludwig-Maximilians-Universität (LMU) Munich, Klinikum der Universität München, Institut für Didaktik und Ausbildungsforschung in der Medizin, München, Deutschland
  • author Katharina F. Borrmann - Ludwig-Maximilians-Universität (LMU) Munich, Klinikum der Universität München, Institut für Didaktik und Ausbildungsforschung in der Medizin, München, Deutschland
  • author Christian Lottspeich - Ludwig-Maximilians-Universität (LMU) Munich, Klinikum der Universität München, Medizinische Klinik und Poliklinik IV, München, Deutschland
  • author Daniel A. Heinrich - Ludwig-Maximilians-Universität (LMU) Munich, Klinikum der Universität München, Medizinische Klinik und Poliklinik IV, München, Deutschland
  • author Jan Kiesewetter - Ludwig-Maximilians-Universität (LMU) Munich, Klinikum der Universität München, Institut für Didaktik und Ausbildungsforschung in der Medizin, München, Deutschland
  • author Martin R. Fischer - Ludwig-Maximilians-Universität (LMU) Munich, Klinikum der Universität München, Institut für Didaktik und Ausbildungsforschung in der Medizin, München, Deutschland
  • author Ralf Schmidmaier - Ludwig-Maximilians-Universität (LMU) Munich, Klinikum der Universität München, Medizinische Klinik und Poliklinik IV, München, Deutschland

GMS J Med Educ 2019;36(6):Doc85

doi: 10.3205/zma001293, urn:nbn:de:0183-zma0012937

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2019-36/zma001293.shtml

Eingereicht: 28. Januar 2019
Überarbeitet: 4. Mai 2019
Angenommen: 6. Juni 2019
Veröffentlicht: 15. November 2019

© 2019 Braun et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Zielsetzung: Diagnostizieren ist eine der zentralen Kompetenzen im klinischen Alltag. Die Diagnosekompetenz wird häufig anhand der Diagnoserichtigkeit gemessen. Es wird implizit angenommen, dass einer richtigen Diagnose ein richtiger Diagnoseprozess zugrunde liegt und dass nicht geraten wird, obwohl dies bisher nie empirisch überprüft wurde. Die Häufigkeit und die Art von Fehlern im studentischen Diagnoseprozess bei richtigem Diagnoseergebnis wurden in dieser Studie analysiert.

Methodik: 148 Medizinstudierende im klinischen Studienabschnitt bearbeiteten 15 virtuelle Patientenfälle. Nach jedem Fall wurden sie aufgefordert, eine finale Diagnose zu stellen und diese zu begründen. Diese Begründungen wurden inhaltsanalytisch ausgewertet und jeweils einer der drei folgenden Kategorien zugeordnet:

1.
korrekte Diagnosebegründung,
2.
fehlerhafte Begründung der Diagnose und
3.
zufällig richtig geratene Diagnosen.

Ergebnisse: Bei 2080 ausgewerteten Diagnoseprozessen wurde 1135 Mal die richtige Diagnose gestellt. Die Analyse der dazugehörigen Diagnosebegründungen ergab, dass

1.
92% (1042) Begründungen korrekt waren,
2.
7% (80) fehlerhaft waren und
3.
1% (13) der Diagnosen richtig geraten wurden.

Ursachen für fehlerhafte Diagnoseprozesse waren in erster Linie mangelndes pathophysiologisches Wissen (50%) sowie mangelnde diagnostische Fähigkeiten (30%).

Schlussfolgerung: In der Regel ist bei korrekt gestellter Diagnose auch der Diagnoseprozess korrekt. Die Rate an geratenen Diagnosen ist mit 1% sehr gering. Dennoch liegt ca. jeder 14. richtigen Diagnose eine falsche Diagnosebegründung und damit ein falscher Diagnoseprozess zugrunde. Zum Assessment der Diagnosekompetenz sollten daher das Diagnoseergebnis und der Diagnoseprozess erfasst werden.

Schlüsselwörter: Klinische Entscheidungsfindung, Diagnosefehler, qualitative Forschung, virtuelle Patienten


Einleitung

Während eines durchschnittlichen Arbeitsalltags sieht ein Allgemeinmediziner durchschnittlich 45 Patienten [1] und trifft dabei viele diagnostische Entscheidungen. Die Rate für einen in der Klinik tätigen Arzt dürfte ähnlich aussehen. Dies verdeutlicht, wie wichtig Diagnosekompetenz im klinischen Alltag ist. Aufgrund dessen ist die Diagnosekompetenz ebenso eines der zentralen Themen in der medizindidaktischen Forschung und Bestandteil des medizinischen Curriculums.

Diagnosekompetenz kann über verschiedene Parameter erfasst werden: Eine häufige Methode ist es, die Diagnoserichtigkeit als Ergebnisparameter zu erfassen (häufig binär codiert: richtig vs. falsch) [2], [3], [4]. Zur Erfassung der Prozessqualität des Diagnostizierens kann zum Beispiel Diagnoseeffizienz (Anzahl der richtig getroffenen Diagnosen im Verhältnis zur aufgebrachten Zeit) angewendet werden [2]. Zur aussagekräftigen Erfassung des verbesserten diagnostischen Wissens sollte neben Faktenwissen auch das konditionale und prozedurale Wissen erfasst werden (Bsp. 3-Komponenten-Test) [5]. Zur optimalen Erfassung der Diagnosekompetenz ist es hilfreich, verschiedene Assessment-Methoden zu kombinieren, so beispielsweise das Diagnoseergebnis und einen der oben genannten Parameter zur Erfassung des Diagnoseprozesses – Ilgen [6] betont, dass Diagnosekompetenz nicht mit der Stellung einer richtigen Diagnose endet, sondern auch der dazu gehörige Diagnoseprozess eine Rolle spielt. Auch aus der Analyse der Ursachen von Diagnosefehlern [7] oder der kognitiven Schritte während des Diagnostizierens [8] kann auf die Diagnosekompetenz bzw. die Defizite in der klinischen Entscheidung rückgeschlossen werden. Die Ursachen, die zu Fehldiagnosen führen, wurden in Anlehnung an Grabers Klassifikation [9] auch für Medizinstudierende untersucht [7]: Es gibt acht verschiedene kognitive Gründe für falsche Diagnosen: mangelnde diagnostische Fähigkeiten (beispielsweise in der Interpretation eines EKGs), mangelndes Wissen, die Herstellung von falschen Kausalzusammenhänge zwischen Befunden, das Ziehen von falschen Schlussfolgerungen, Verwechslung von ähnlich wirkenden Diagnosen (z.B. Myokarditis und Endokarditis), voreilige Schlussfolgerungen, Über- und Unterschätzen von Befunden sowie Ratlosigkeit. Ein Problem ist hier allerdings, dass bisher nicht bekannt ist, wie viele der richtig gestellten Diagnosen nur aus Zufall richtig geraten wurden oder ob diesen richtigen Diagnosen ein fehlerhafter Diagnoseprozess zu Grunde liegt.

Während über den Diagnoseprozess und die Begründungen bei Fehldiagnosen schon relativ viel bekannt ist, gibt es bisher nur wenige Untersuchungen bei richtig gestellten Diagnosen. Bisher wurde angenommen, dass einem richtigen Diagnoseergebnis ein richtiger Diagnoseprozess mit richtiger Diagnosebegründung zugrunde liegt, jedoch unseres Wissens nie empirisch überprüft.

Vor diesem Hintergrund sollte die folgende Forschungsfrage beantwortet werden: Wie vielen eigentlich richtig gestellten Diagnosen liegt eine fehlerhafte Diagnosebegründung zugrunde und welche Fehlerarten sind das? Wie viele der korrekt gestellten Diagnosen wurden richtig geraten?

Zur Beantwortung der Frage wurden die Diagnosebegründungen von Medizinstudierenden in einem kontrollierten Setting qualitativ ausgewertet.


Methodenteil

Studiendesign und Probanden

In diesem Artikel werden die qualitativen Daten einer großen, randomisierten Interventionsstudie, in der die Einflüsse verschiedener Scaffolding-Maßnahmen (Repräsentations-Prompts, Strukturierte Reflexion und Feedback) auf die Diagnosekompetenz von Medizinstudierenden untersucht wurden, dargestellt. Die quantitative Auswertung dieser Studie ist Teil einer anderen Publikation [10].

Im Sommer 2017 bearbeiteten 151 fortgeschrittene Medizinstudierende im klinischen Studienabschnitt der Ludwig-Maximilians-Universität und der Technischen Universität München 15 internistische virtuelle Patienten-Fälle auf der elektronischen Lernplattform CASUS [11]. Alle Probanden nahmen freiwillig an der Studie teil. Voraussetzung zur Teilnahme war der Abschluss des internistischen Moduls (6. und 7. Fachsemester). Die Probanden wurden über Rundmails und Aushänge auf die Studie aufmerksam gemacht. Die Fälle wurden im Vorhinein sorgfältig mit 10 Studierenden pilotiert. Nach einem soziodemografischen Fragebogen, einem Vorwissenstest und einem Einführungsvideo, in dem die technischen Besonderheiten der Lernplattform erläutert wurden, bearbeiteten die Probanden 15 Fälle, abgesehen von einer Kontrollgruppe, die nur 10 Fälle bearbeitete. Die Probanden hatten nach der Anamnese und der körperlichen Untersuchung in jedem Fall Zugriff auf eine virtuelle Patientenakte mit verschiedenen technischen Untersuchungen (wie z.B. einem Labor, einem EKG oder einem Röntgenbild). Abschließend mussten die Probanden ihre finale Diagnose benennen und begründen. Eine beispielhafte Typologie zweier Fälle nach Huwendiek et al. ist in Tabelle 1 [Tab. 1] dargestellt [12]. Alle Probanden erhielten eine finanzielle Aufwandsentschädigung von 30 Euro für die Teilnehme. Für die Studie wurde von der Ethikkommission der LMU München eine Unbedenklichkeitsbescheinigung ausgestellt (Nummer 75-16).

Auswertung und Statistik

Die richtigen Diagnosen wurden im Vorhinein von den Fallautoren (LB und KB) sowie einem Expertenteam bestehend aus vier Ärzten für alle Fälle festgelegt. Des Weiteren wurde festgelegt, welche Angaben (technische Untersuchungen und Schlüsselbegriffe) in den Diagnosebegründungen enthalten sein müssen, um diese als richtig zu klassifizieren.

Alle Diagnosebegründungen, bei denen die richtige Diagnose genannt wurde, wurden zuerst explorativ gelesen. Nachdem ein Codierschema entwickelt worden war, wurden alle Begründungen einer der drei folgenden Kategorien zugeordnet: korrekte Begründung, fehlerhafte Begründung und geratene Diagnosen. In die Kategorie „korrekte Begründungen“ wurden alle Begründungen eingeordnet, in der keine falschen Aussagen getroffen wurden. In die Kategorie „fehlerhafte Begründungen“ wurden alle Begründungen eingeordnet, die in irgendeiner Form einen eindeutigen objektiven Fehler enthielten wie beispielsweise ein falsch befundetes EKG oder eine falsche pathophysiologische Erklärung von Symptomen. Zur Kategorie „geratene Diagnosen“ wurden nur Begründungen gezählt, in denen die Probanden explizit geschrieben haben, dass sie die Diagnose geraten hatten.

Die Definitionen der drei Kategorien sowie passende Beispiele werden in Tabelle 2 [Tab. 2] gezeigt.

Alle fehlerhaften Begründungen wurden zudem von zwei der Autoren (LB und RS) gemeinsam diskutiert und einer weiteren Kategorie zugeordnet. Die fehlerhaften Begründungen wurden danach unterteilt, welche Aspekte falsch waren. Die Kategorisierung erfolgte in Anlehnung an die Klassifikation für Diagnosefehler bei Medizinstudierenden [7]. Es konnten vier Kategorien unterschieden werden: fehlende diagnostische Fähigkeiten bezüglich der Interpretation von technischen Untersuchungsbefunden, mangelndes pathophysiologisches Wissen, falsche Kausalzusammenhänge und eine generelle Unsicherheit bei der Diagnosestellung.

Die statistische Auswertung erfolgte mit SPSS 25.


Ergebnisse

Probandencharakterisierung

148 von 151 Teilnehmer bearbeiteten alle Fälle und wurden in die Datenauswertung eingeschlossen. Die Probanden waren im Durchschnitt 25,3 (SD=3,3) Jahre alt und hatten 3,3 (SD=1,0) Monate klinische Erfahrung. Die Abiturdurchschnittsnote lag bei 1,6 (SD=0,6), die Note im Schein „Innere Medizin“ bei 2,2 (SD=1,3) und die mündliche und schriftliche Physikumsnote bei 2,3 (SD=1,0) bzw. 2,5 (SD=0,9).

Diagnoserichtigkeit und Formen der Diagnosebegründungen

Insgesamt wurden über 2.000 Diagnoseprozesse erfasst, davon endeten 814 mit einer Fehldiagnose. Bei 1.135 Diagnoseprozessen wurde die korrekte Diagnose gestellt.

Ein Großteil der Diagnosebegründungen bei richtig gestellter Diagnose (zwischen 86 und 100%) war korrekt, abgesehen von Fall 7 (Herzinsuffizienz), in dem nur 70% der Begründungen korrekt waren. Es zeigte sich kein Zusammenhang zwischen der allgemeinen Schwierigkeit eines Falls – widergespiegelt anhand der Lösungsrichtigkeit in den Fällen – und der Rate an fehlerhaften Begründungen (siehe Tabelle 3 [Tab. 3]). Für alle Fälle gilt, dass fast keine der korrekten Lösungen erraten wurden: Die Rate an zufällig richtig geratenen Diagnosen lag zwischen 0 und 4,5% pro Fall (siehe Tabelle 3 [Tab. 3]). Die Diagnosebegründungen verbesserten sich nicht bei thematisch ähnlichen Fällen mit gleicher Diagnose.

Über alle Fälle hinweg waren 80 Begründungen fehlerhaft (7%). Diese wurden den vier oben genannten Kategorien zugeordnet. Beispiele für alle Kategorien sind in Tabelle 4 [Tab. 4] gezeigt. Mangelndes pathophysiologisches Wissen war mit 50% (40 von 80 Fehlern) der häufigste Fehler in den Begründungen, gefolgt von mangelnden diagnostischen Fähigkeiten (30%).


Diskussion

In dieser Studie konnte gezeigt werden, dass hinter 7% der richtig gestellten Diagnosen ein fehlerhafter Diagnoseprozess steckt. Vier verschiedene Ursachen bedingen diese Fehler: Mangelndes pathophysiologisches Wissen, mangelnde diagnostische Fähigkeiten, falsche Kausalzusammenhänge sowie die Unfähigkeit durch den Diagnoseprozess die diagnostische Unsicherheit abzubauen.

Bei Betrachtung der Ergebnisse sind folgende Aspekte auffällig: Die Anzahl an richtig geratenen Diagnosen ist sehr gering und zwar deutlich unter der statistisch zu erwartenden Ratewahrscheinlichkeit: Die Fälle hatten (abgesehen von Fall 10 und 15) alle das Leitsymptom Dyspnoe, zu welchem nur eine begrenzte Anzahl an Diagnosen in Frage kommt – wenn von exotischen Diagnosen und atypischen Verläufen abgesehen wird.

Jeder Fall wurde so konzipiert, dass nach der Anamnese 3 mögliche Differentialdiagnosen wahrscheinlich waren; die weiteren Informationen (körperliche Untersuchung und technische Untersuchung) unterstützten dann in jedem Fall eine bestimmte Diagnose. Daher kann von einer ungefähren Ratewahrscheinlichkeit von ca. 30 % ausgegangen werden. Dennoch haben sehr wenige Probanden zufällig die richtige Diagnose genannt. Hinter fast allen genannten Diagnosen steht also ein durchdachter Diagnoseprozess. In einer anderen Studie konnte auch für fehlerhafte Diagnosen gezeigt werden, dass nur eine geringe Anzahl auf völlige Unkenntnis zurückgeht [7]. Dies ist insgesamt ein gutes Ergebnis: Diagnosen werden auch in experimentellen und virtuellen Settings nicht erraten, sondern fußen in der Regel auf einem durchdachten – wenn zum Teil auch fehlerhaften – Diagnoseprozess.

Ähnlich zu den Ursachen für Diagnosefehler konnten auch in dieser Studie ähnliche Fehlerquellen ausgemacht werden. Mangelndes Wissen und mangelnde diagnostische Fähigkeiten dürfen als Fehlerquelle trotz der diesbezüglich recht widersprüchlichen Studienlage [9], [13] nicht unterschätzt werden und sollten im medizinischen Curriculum adressiert werden.

Insgesamt hat sich bestätigt, dass die Erfassung des Diagnoseprozesses wichtig ist, da die Nennung einer korrekten Diagnose nicht immer auf einen fehlerlosen Diagnoseprozess schließen lässt. Für zukünftige Studien im Bereich der klinischen Entscheidungsfindung gilt also, dass sowohl Diagnoseergebnis als auch Diagnoseprozess erfasst werden sollten, um ein umfassendes Bild von der Diagnosekompetenz einer Person zu gewinnen. Computergestützte Verfahren der Textauswertung könnten hier hilfreich sein.

Trotz der hohen Anzahl von über 2.000 analysierten Diagnoseprozessen sind die Ergebnisse dieser Studie auf den Bereich der Inneren Medizin limitiert und sollten auch mit Fällen aus anderen Fachgebieten repliziert werden. Zudem können nur Aussagen zu den Diagnoseprozessen von Medizinstudierenden getroffen werden; es können keine Rückschlüsse auf andere Expertise-Stufen geschlossen werden.

Vorteilhaft ist, dass durch die Methodik und das Studiendesign die Diagnoseprozesse nicht gestört wurden – wie es beispielsweise bei der Nutzung von Laut-Denk-Protokollen der Fall sein kann [14]. Für Lehrzwecke wäre es zukünftig wünschenswert, wenn neben Feedback zur Falllösung bei der Bearbeitung virtueller Patientenfälle auch ein individuelles Feedback zu den Diagnosebegründungen gegeben werden könnte.


Konklusion

In dieser Studie wurden erstmals die Diagnosebegründungen bei korrekter Diagnosestellung in einem kontrollierten Setting an Medizinstudierenden untersucht. 7% der korrekten Diagnosen liegt ein fehlerhafter Diagnoseprozess zugrunde, 1% der Diagnosen wurden richtig geraten.


Interessenkonflikt

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Rieser S. Ärztemonitor: Zufrieden - aber es fehlt an Zeit. Dtsch Arztebl Int. 2014;111(29-30):1278.
2.
Braun LT, Zottmann JM, Adolf C, Lottspeich C, Then C, Wirth S, Fischer MR, Schmidmaier R. Representation scaffolds improve diagnostic efficiency in medical students. Med Educ. 2017;51(11):1118-1126. DOI: 10.1111/medu.13355 Externer Link
3.
Mamede S, van Gog T, Sampaio AM, de Faria RM, Maria JP, Schmidt HG. How can students' diagnostic competence benefit most from practice with clinical cases? The effects of structured reflection on future diagnosis of the same and novel diseases. Acad Med. 2014;89(1):121-127. DOI: 10.1097/ACM.0000000000000076 Externer Link
4.
Ilgen JS, Bowen JL, McIntyre LA, Banh KV, Barnes D, Coates WC, Druck J, Fix ML, Rimple D, Yarris LM, Eva KW. Comparing diagnostic performance and the utility of clinical vignette-based assessment under testing conditions designed to encourage either automatic or analytic thought. Acad Med. 2013 Oct;88(10):1545-51. DOI: 10.1097/ACM.0b013e3182a31c1e Externer Link
5.
Schmidmaier R, Eiber S, Ebersbach R, Schiller M, Hege I, Holzer M, Fischer MR. Learning the facts in medical school is not enough: which factors predict successful application of procedural knowledge in a laboratory setting? BMC Med Educ. 2013;13:28. DOI: 10.1186/1472-6920-13-28 Externer Link
6.
Ilgen JS, Eva KW, Regehr G. What's in a Label? Is Diagnosis the Start or the End of Clinical Reasoning? J Gen Intern Med. 2016;31(4):435-437. DOI: 10.1007/s11606-016-3592-7 Externer Link
7.
Braun LT, Zwaan L, Kiesewetter J, Fischer MR, Schmidmaier R. Diagnostic errors by medical students: results of a prospective qualitative study. BMC Med Educ. 2017;17(1):191. DOI: 10.1186/s12909-017-1044-7 Externer Link
8.
Kiesewetter J, Ebersbach R, Gorlitz A, Holzer M, Fischer MR, Schmidmaier R. Cognitive problem solving patterns of medical students correlate with success in diagnostic case solutions. PLoS One. 2013;8(8):e71486. DOI: 10.1371/journal.pone.0071486 Externer Link
9.
Graber ML, Franklin N, Gordon R. Diagnostic error in internal medicine. Arch Intern Med. 2005;165(13):1493-1499.
10.
Braun LT, Borrmann KF, Lottspeich C, Heinrich DA, Kiesewetter J, Fischer MR, Schmidmaier R. Scaffolding clinical reasoning of medical students with virtual patients: effects on diagnostic accuracy, efficiency, and errors. Diagnosis (Berl). 2019;6(2):137-149. DOI: 10.1515/dx-2018-0090 Externer Link
11.
Fischer MR, Schauer S, Gräsel C, Baehring T, Mandl H, Gärtner R, Scherbaum W, Scriba PC. Modellversuch CASUS. Ein computergestütztes Autorensystem für die problemorientierte Lehre in der Medizin [CASUS model trial. A computer-assisted author system for problem-oriented learning in medicine]. Z Arztl Fortbild (Jena). 1996 Aug;90(5):385-9.
12.
Huwendiek S, De leng BA, Zary N, Fischer MR, Ruiz JG, Ellaway R. Towards a typology of virtual patients. Med Teach. 2009;31(8):743-748. DOI: 10.1080/01421590903124708 Externer Link
13.
Zwaan L, de Bruijne M, Wagner C, Thijs A, Smits M, van der Wal G, Timmermann DR. Patient record review of the incidence, consequences, and causes of diagnostic adverse events. Arch Iintern Med. 2010;170(12):1015-1021.
14.
Konrad K. Lautes Denken. Handbuch qualitative Forschung in der Psychologie. Heidelberg: Springer; 2010. p.476-490. DOI: 10.1007/978-3-531-92052-8_34 Externer Link