gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Wirken sich unterschiedliche medizinische Curricula auf das selbst eingeschätzte klinische Denken von Studierenden aus?

Forschungsarbeit Humanmedizin

  • corresponding author Kirsten Gehlhar - Carl von Ossietzky Universität Oldenburg, Fakultät für Medizin und Gesundheitswissenschaften, Oldenburg, Deutschland
  • author Kathrin Klimke-Jung - Ruhr-Universität Bochum, Bochum, Deutschland
  • author Christoph Stosch - Universität zu Köln, Köln, Deutschland
  • author Martin R. Fischer - Klinikum der LMU München, Institut für Didaktik und Ausbildungsforschung in der Medizin, München, Deutschland

GMS Z Med Ausbild 2014;31(2):Doc23

doi: 10.3205/zma000915, urn:nbn:de:0183-zma0009152

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2014-31/zma000915.shtml

Eingereicht: 2. Juli 2013
Überarbeitet: 13. März 2014
Angenommen: 2. April 2014
Veröffentlicht: 15. Mai 2014

© 2014 Gehlhar et al.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.de). Er darf vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden.


Zusammenfassung

Zielsetzung: Das klinische Denken ist eine zentrale Grundlage des ärztlichen Handelns und sollte durch das Studium in den humanmedizinischen Studiengängen gefördert werden. Welche Lehr- und Lernformen hierzu vor allem beitragen, ist bis heute allerdings noch nicht abschließend gezeigt. Zur Messung der wissensunabhängigen Komponente des klinischen Denkens wurde das Diagnostic Thinking Inventory (DTI) entwickelt. Die vorliegende Pilotstudie untersucht, ob dieses Instrument dazu geeignet ist, Unterschiede im klinischen Denken von Studierenden in unterschiedlichen Ausbildungsabschnitten dreier medizinischer Curricula aufzuzeigen.

Methodik: Das Diagnostic Thinking Inventory (DTI) umfasst 41 Items in zwei Subskalen („Flexibilität des Denkens“ und „Strukturierung des Wissens“). Jedes Item enthält eine Aussage oder Feststellung über das klinische Denken in Form eines Stammes und darunter jeweils eine 6-Punkt-Skala an deren beiden Enden gegensätzliche Aussagen stehen. Zwischen diesen beiden Extremen sollen die Probanden ihr eigenes klinisches Denken einordnen. Die deutsche Übersetzung des DTI wurde von 247 freiwilligen Studierenden aus drei Fakultäten und verschiedenen klinischen Semestern ausgefüllt. In einem quasi experimentellen Design waren 219 Teilnehmer aus Regel- und Modellstudiengängen in Nordrheinwestfalen beteiligt, genauer aus dem 5., 6. und 8. Semester des Modellstudiengangs der Universität Witten/Herdecke (UW/H), aus dem Modell- (7. und 9. Semester) und Regelstudiengang (7. Semester) der Ruhr-Universität Bochum (RUB) und aus dem Modellstudiengang (9. Semester) der Universität zu Köln (UzK). Die gewonnenen Daten wurden quantitativ ausgewertet.

Ergebnisse: Die Reliabilität des Gesamt-Fragebogens war gut (Cronbachs alpha zwischen 0,71 und 0,83); die Reliabilität der Subskalen lag zwischen 0,49 und 0,75. Die unterschiedlichen Gruppen wurden mittels Mann-Whitney Test miteinander verglichen. Dabei wurden signifikante Unterschiede sowohl zwischen Semesterkohorten innerhalb einer Fakultät als auch zwischen Studierenden vergleichbarer Jahrgänge unterschiedlicher Fakultäten gemessen. Innerhalb des Modellstudiengangs an der UW/H nahm die Punktzahl vom 5. zum 6. und vom 5. zum 9. Semester zu. Zwischen den einzelnen Kohorten der RUB konnten weder Unterschiede zwischen Modell- und Regelstudiengang noch zwischen dem 7. und dem 9. Semester des Modellstudiengangs gemessen werden. Vergleicht man alle beteiligten höchsten Semester, so erreicht das 8. Semester an der UW/H die größte Punktzahl, die signifikant höher ist als die des 9. Semesters an der RUB oder auch des 9. Semesters an der UzK. Das 9. Semester der RUB liegt signifikant höher als das 9. Semester der UzK.

Diskussion: Die deutsche Fassung des DTI misst selbst eingeschätzte Unterschiede im diagnostischen Denken bei Studierenden aus unterschiedlichen Semestern und aus verschiedenen medizinischen Modell- und Regelstudiengängen mit zufriedenstellender Zuverlässigkeit. Die Ergebnisse lassen sich vor dem Hintergrund der unterschiedlichen Curricula diskutieren. Damit eignet sich der DTI für weiterführende Untersuchungen, die dann mit den unterrichtsmethodischen Charakteristika und Outcomes verschiedener Curricula korreliert werden können.

Schlüsselwörter: clinical thinking, clinical reasoning, PBL, diagnostic thinking inventory


Einleitung

Das klinische Denken ist eine zentrale Komponente ärztlicher Kompetenz. Eine optimale Patientenversorgung hängt von der sorgfältigen Analyse der vom Patienten gegebenen Informationen und der Abwägung zwischen dem Nutzen und den Risiken von diagnostischen Tests und Therapien ab.

Daher hat auch jede universitäre Ausbildung von Medizinstudierenden das Ziel, Absolventen mit guten klinischen Denkfähigkeiten auszubilden. Doch ob eine bestimmte Form des Unterrichts diese Fähigkeiten besonders gut fördert, ist bis heute nicht eindeutig nachgewiesen.

Klinische Probleme unterscheiden sich grundsätzlich von wohlstrukturierten Aufgaben. Zu Beginn des Prozesses liegen noch nicht alle notwendi¬gen Informationen vor, und die Art eines Problems kann sich während des diagnostisch-therapeutischen Prozesses (Anamnese und Untersuchung) dynamisch verändern. Es handelt sich um komplexes Problemlösen, weil es keine standardi¬sier¬ten Vorge¬hensweisen gibt, die sicher zu einer Lösung führen; stattdessen sind sie für jedes Problem einzigartig, und der Arzt kann nie ganz sicher sein, dass die gefundene Lösung auch tatsächlich die richtige ist [1], [2].

Modelle klinischen Denkens

In der Ausbildungsforschung wird seit den 70er Jahren intensiv auf diesem Gebiet gearbeitet. Das Ziel ist, besser beschreiben zu können, welche Prozesse während des klinischen Denkens ablaufen und wie sich Experten von Novizen unterscheiden. Daraus sollen Schlüsse gezogen werden, die aufzeigen, wie man klinisches Denken besser unterrichten kann.

Im Laufe dieser Zeit wechselten viele Konzepte zur Erklärung des Expertise-Erwerbs im klinischen Denken einander ab und wurden weiterentwickelt [3]. Ein Konzept ist z.B. das der sogenannten „illness scripts“ [4]. Letztere sind Repräsentationen von Problemen, z.B. von Krankheiten, Syndromen oder Gruppen von Krankheiten zusammen mit den Bedingungen, unter denen sie auftreten, ihren Manifestationen, Diagnosen und Therapiekonzepten, ebenso wie ihre pathophysiologischen Grundlagen.

Andere Modelle betonen, dass medizinische Expertise besonders durch intensive Praxiserfahrungen erreicht wird [5], [6]. Es konnte empirisch gezeigt werden, dass Fähigkeiten, die sich dem klinischen Problemlösen zuordnen lassen, bei Experten elaborierter sind als bei Novizen [7]. Dabei zeigte sich z.B., dass Expertenwissen v.a. durch Wahrscheinlichkeiten verknüpft ist [4], oder dass es geprägt ist von Mustern, die spontan erkannt und dann wiederum hypothetisch-deduktiv bestätigt werden [2]. Des Weiteren sind Experten besser in der Anwendung von sogenannten „semantic qualifiers“, die ein Symptom auf einer bipolaren Skala einordnen oder in der Qualität von in einer Patientengeschichte erkannten Schlüsselmerkmalen [8].

Daneben ist das klinische Denken aber auch von Inhalt und Kontext abhängig [9] und Expertise auf einem Gebiet bedeutet nicht ein vergleichbares Können in einer anderen Spezialdisziplin oder in einem anderen Patientenfall. Selbst innerhalb eines Gebietes ist Expertise nicht generalisierbar [10], [11].

All diese Ansätze werden nicht mehr als sich gegenseitig ausschließend angesehen [12]. Experten nutzen demzufolge parallel sowohl analytische (deduktive, kontrollierte) als auch nicht-analytische Prozesse (unbewusste, spontane) zur Lösung ihrer Patientenfälle, denn das effektive klinische Problemlösen basiert einerseits auf klaren Abläufen der Informationssammlung, Hypothesenbildung und Hypothesentestung. Andererseits ist zur Diagnosestellung eine Kenntnis der zugrundeliegenden Mechanismen notwendig, und dieses Wissen muss problembezogen integriert und mental organisiert werden. Das Wiedererkennen von Mustern beschleunigt das Wiederabrufen. Beide Prozesse ergänzen sich und es findet ein bidirektionaler Austausch oder Informationsfluss statt [13].

Unterricht im klinischen Denken?

Die Frage, wie man Studierende in diesen komplexen Fähigkeiten optimal unterrichten kann, ist bis heute aus gutem Grund nicht eindeutig beantwortet.

Studierende, denen beispielsweise die Methode der Heuristik für konkurrierende Hypothesen (Bayes‘ Theorem) beigebracht wurde, konnten diese Methode nach der Unterrichtseinheit zwar gut anwenden, scheiterten später in der Klinik jedoch an der Übertragung dieses abstrakten Modells in die Praxis [14]. In anderen Studien konnte gezeigt werden, dass sich die Arbeit an didaktisch ausgewählten Patientenfällen mit Fehlern und elaboriertem Feedback oder an Fallbeispielen mit Instruktion positiv auf das klinische Denken in der jeweiligen Versuchssituation auswirkt [15], [16], [17].

Zwei Lehr- und Lernumgebungen haben sich bisher fast übereinstimmend als effektiv zur Förderung des klinischen Denkens erwiesen: einerseits problemorientiertes Lernen (PbL) und klinische Praktika/klinische Erfahrung.

PbL soll deshalb dazu beitragen, dass Studierende besser das klinische Denken erlernen [18], [19], [20], da im PbL der Problemlöseprozess besonders gut erlernt und geübt wird [21]. PbL verbindet Inhalt mit Kontext, und die Anwendung von Wissen auf klinische Probleme fördert die Entwicklung von zusammenhängenden, pahophysiologischen Konzepten [21], [22]. Eine Meta-Analyse [23] zur Frage, welche Unterrichtsformen das klinische Denken fördern können, fand zwei Untersuchungen, die zeigen, dass sich Studierende durch PbL im kritischen Denken verbessern [24], [25], und dass sie gegenüber anderen Studierenden akkuratere, zusammenhängende und umfassendere Erklärungen für medizinische Probleme liefern [22]. Allerdings ist kritisches Denken nicht notwendigerweise mit klinischem Denken gleichzusetzen.

Die konkrete klinische Erfahrung mit Patienten ist ein weiterer unverzichtbarer Faktor für die Entwicklung klinischen Denkens. Erstens müssen Studierende ihre erlernten Fähigkeiten auch üben [26], zweitens wird klinisches Denken stark durch Erfahrung beeinflusst [12] und ist eine Konsequenz von sich daraus entwickelndem multidimensionalem Wissen. Es hat sich gezeigt, dass der Entwicklungsstand von Studierenden oft eher ihrer klinischen Erfahrung z.B. durch Famulaturen als dem Studienjahr entspricht [27], [28].

Auf Basis dieser Erkenntnisse lässt sich vermuten, dass traditionelle Curricula, in denen Fächer oft isoliert unterrichtet werden, kein oder nur wenig PbL eingesetzt wird und klinische Erfahrung erst später und oft in geringerem Umfang stattfindet, die Studierenden weniger Gelegenheit haben, das klinische Denken zu lernen und zu üben.

Messung des klinischen Denkens

Um das klinische Denken per Selbsteinschätzung zu messen, wurde 1990 von Bordage und Marsden ein entsprechendes Inventar entwickelt [29], das sog. Diagnostic Thinking Inventory (DTI). Bis dahin wurden Inventare verwendet, die z.B. kritisches (nicht klinisches) Denken gemessen haben. Probanden mussten dabei mündlich oder schriftlich ihre Denkprozesse erläutern oder es wurde die Lösung von konkreten klinischen Problemen getestet. Das DTI ist dagegen ein Instrument, das unabhängig vom Kontext die selbst eingeschätzte Flexibilität des Denkens und die Strukturierung des Wissens misst und zwischen Medizinern verschiedener Ausbildungsstufen differenzieren kann. Es besteht aus 41 Items, in denen die Probanden ihr Denken in vorgegebenen Situationen auf einer Skala einschätzen. Die Antworten wiederum repräsentieren eine bestimmte Stufe des klinischen Denkens. Dies wurde ursprünglich anhand von 270 Versuchspersonen in unterschiedlichen Ausbildungsstadien von Erstsemester-Studierenden bis hin zu erfahrenen Ärzten untersucht. Es konnten signifikante Unterschiede zwischen den Studierenden und den Ärzten aufgezeigt werden, die Unterschiede innerhalb der Ärzte mit verschieden großer Erfahrung waren dagegen nicht signifikant.

Das DTI-Inventar wurde in den nachfolgenden Jahren in verschiedenen Studien eingesetzt und validiert [30] und auch im Zusammenhang mit anderen kognitiven oder psychometrischen Tests untersucht [31].

Insgesamt sind die bisherigen mit dem DTI erlangten Studienergebnisse nicht einheitlich. In der Mehrheit der Studien verbessern sich allerdings durch Unterricht zum klinischen Problemlösen, zu Fehlern bei der Diagnosefindung, durch Bearbeitung von Patientenfällen, Teilnahme an diagnostischen Fallbesprechungen oder zunehmende Studiendauer die DTI-Ergebnisse von Studierenden signifikant [32], [33], [34], [35], [36]. In zwei anderen Studien zeigte sich dagegen keine Verbesserung im DTI durch die vorgenommenen Interventionen [26], [37].

Das Inventar misst die Selbsteinschätzung der Probanden über Art und Struktur ihres klinischen Denkens, nicht jedoch ihre tatsächliche Diagnosefähigkeit. Daher ist die Korrelation zwischen Ergebnissen des DTI und gelösten Fällen oder erstellten Diagnosen oft nur gering [6], [32]. Zur Erstellung der korrekten Diagnose muss zusätzlich zur Fähigkeit zum klinischen Denken auch eine entsprechende Wissensbasis im jeweiligen Fachgebiet und klinische Erfahrung kommen.

Zielsetzung

Die Medizincurricula der verschiedenen Fakultäten unterscheiden sich deutlich in ihren Zielsetzungen und Schwerpunkten. Alle wollen jedoch – auf jeweils unterschiedlichen Wegen – gute Ärztinnen und Ärzte ausbilden. Längerfristig muss daher gezeigt werden, inwieweit sich verschiedene Curricula auf den Erwerb des klinischen Denkens als ärztliche Kernkompetenz auswirken. In einem ersten Schritt wurde in dieser Pilotstudie an drei verschiedenen Medizinischen Fakultäten in NRW untersucht, inwiefern Unterschiede zwischen Studierenden verschiedener Curricula einerseits und zwischen unterschiedlichen Ausbildungsstufen andererseits zu messen sind.

Folgende Fragestellungen sollten beantwortet werden:

1.
Kann mittels DTI nachgewiesen werden, ob die Kompetenz des klinischen Denkens in der Selbsteinschätzung der Studierenden im Laufe des Studiums zunimmt?
2.
Bestehen Unterschiede in der Selbsteinschätzung bezüglich des klinischen Denkens zwischen Studierenden verschiedener Studiengänge und Curricula?

Es wäre zu vermuten, dass die Kompetenz des klinischen Denkens im Laufe des Studienfortschritts, also mit steigender Semesterzahl zunimmt. Unterschiede bei Studierenden unterschiedlicher Curricula würden sich zeigen, wenn sich z.B. die Anteile der Elemente wie PbL oder klinische Praktika unterscheiden. Die Studierenden der UW/H und des Modellstudiengangs der RUB durchlaufen Modellcurricula, die u.a. durch problemorientiertes Lernen (PbL) von Beginn an und - besonders an der UW/H – durch lange und zahlreiche klinische Praktika gekennzeichnet sind. An der UW/H ist PbL das zentrale Element in den ersten vier Semestern. Zusätzlich ist an der UW/H der Anteil an curricular verankerter klinischer Erfahrung von allen Studiengängen am höchsten. Ab der zweiten Hälfte des vierten Semesters bis zum Praktischen Jahr werden allein 46 Wochen in klinischen Blockpraktika und sechs Wochen in allgemeinmedizinischen Hospitationen verbracht.

Die beiden Studiengänge an der RUB unterscheiden sich hinsichtlich ihres Curriculums. Der Regelstudiengang hat ein fächerbezogenes traditionelles Curriculum mit einer sechswöchigen PbL-Insel im 4. Semester. Der Modellstudiengang, ist themenbasiert aufgebaut und praxisbezogen. PbL ist ein strukturierendes Studienelement in den ersten vier Semestern und wird danach studienbegleitend in den Semestern 5, 8 und 9 angeboten. Auch bezüglich ihrer Studierendenzahl unterscheiden sich die beiden Studiengänge. Während pro Studienjahr 42 Studierende in den Modellstudiengang aufgenommen werden, studieren im Regelstudiengang ca. 200 Studierende pro Jahr. Die Befragung schloss jeweils alle anwesenden Studierenden im 7. und 9. Semester des Modellstudiengangs ein sowie zwei Seminargruppen der Lehrveranstaltung für Allgemeinmedizin im Regelstudiengang des 7. Semesters.

Der Modellstudiengang in Köln bietet PbL nur in einem (ersten) Semester und später nur in einzelnen Fächern an.


Methodik

Teilnehmer, Erhebungsinstrument

Zur Messung der Selbsteinschätzung der wissensunabhängigen Komponente des klinischen Denkens wurde das DTI (Diagnostic Thinking Inventory) herangezogen. Dazu wurde der ins Deutsche übersetzte Fragebogen, der freundlicherweise von Dr. Stieger [36] zur Verfügung gestellt wurde, in Modellstudiengängen an drei Fakultäten in Nordrhein-Westfalen (Bochum, Köln und Witten/Herdecke) und einem Regelstudiengang (Bochum) in maschinenlesbarer Form eingesetzt.

Zur Beantwortung der Frage nach der Verbesserung des klinischen Denkens im Laufe des Studiums wurden unterschiedliche Semester eines Studiengangs mit einbezogen. Dies war für den Modellstudiengang der UW/H und im Modellstudiengang an der RUB der Fall. Zur Messung der Unterschiede im selbst eingeschätzten klinischen Denken zwischen Studierenden verschiedener Studiengänge und Curricula wurden fortgeschrittene Studierende an allen drei Standorten vor dem Praktischen Jahr befragt. An der UW/H stand zum Zeitpunkt der Studie nur ein 8. Semester als höchstes Semester vor PJ-Beginn zur Verfügung, da diese Studierenden zu einer Zeit ihr Studium begonnen hatten, als nur zum Sommersemester Einschreibungen möglich waren. An der RUB und an der UzK konnten Studierenden des 9. Semesters einbezogen werden (Studienbeginn zum Wintersemester).

Die Fragebögen wurden an den beteiligten Universitäten im Zeitraum von Oktober bis Dezember 2010 zu jeweils einem Zeitpunkt in Präsenzveranstaltungen ausgeteilt und direkt wieder eingesammelt, in denen das jeweilige Semester möglichst vollständig anwesend war.

Die Studierenden wurden direkt vor dem Austeilen des Fragebogens über den Zweck des Projektes aufgeklärt, die Teilnahme erfolgte freiwillig und die Befragung war anonym. Eine gesonderte Einwilligungserklärung wurde von den Teilnehmern nicht ausgefüllt.

Auf Wunsch wurde den Studierenden nach der Auswertung ihre erreichte Punktzahl mit entsprechenden Erläuterungen mitgeteilt. Dazu mussten sie die Nummer des Fragebogens angeben, den sie ausgefüllt hatten, die Ergebnisse wurden dann unter der Fragebogennummer zur Verfügung gestellt.

Instrument

Der DTI-Fragebogen misst die Selbsteinschätzung der wissensunabhängigen Komponente des klinischen Denkens und besteht aus insgesamt 41 Fragen (Beispielfragen siehe Tabelle 1 [Tab. 1]). Dabei lassen sich 20 Fragen der Subskala „Flexibilität des Denkens“ und 21 Fragen der Subskala „Strukturierung des klinischen Denkens“ zuordnen (Beispiele s. unten). Die Flexibilität des Denkens bildet die Fähigkeit des Teilnehmers ab, während des Diagnoseprozesses auf die richtige Diagnose zu kommen und flexibel neue Informationen zu verarbeiten. Die Struktur des Denkens spiegelt wider, wie gut das klinische Wissen, auf das während des Diagnoseprozesses zurückgegriffen wird, organisiert und verfügbar ist. Jede Frage besteht aus einem Fragenstamm (meist einer Feststellung) und einer Antwortskala. Die Antwortskala bietet zwei entgegengesetzte Antworten/Aussagen zu der Eingangsfeststellung mit sechs Auswahlfeldern zum Ankreuzen dazwischen. Die Teilnehmer sollen das Feld ankreuzen, das am besten ihre Einstellung auf der Skala zwischen den Antwortmöglichkeiten widerspiegelt. Die Fragen sind willkürlich „linksbündig“ bzw. „rechtsbündig“, d.h. die Antwort, die ein weiter fortgeschrittenes klinisches Denken wiedergibt, ist unterschiedlich mal links oder rechts aufgeführt.

Beispiel für eine Frage aus der Subskala Flexibilität (siehe Abbbildung 1 [Abb. 1]).

Beispiel für eine Frage aus der Subskala Struktur (siehe Abbildung 2 [Abb. 2]).


Auswertung

Alle ausgefüllten Fragebögen wurden gescannt und mittels Analysesoftware (FormPro, Version 2.5) eingelesen. Zur Auswertung wurden nur diejenigen Fragebögen einbezogen, bei denen alle Fragen eindeutig beantwortet worden waren.

Die erreichten Punkte wurden ausgerechnet, indem den Antwortfeldern die Werte 1 bis 6 zugeordnet wurden. Die Antwort, die das ausgeprägteste klinische Denken darstellte, erhielt jeweils die höchste Punktzahl. Es wurden sowohl die erreichte Punktzahl (maximal waren 246 Punkte erreichbar) als auch die Subskalen Flexibilität (max. 120 Punkte) und Struktur (max. 126 Punkte) für jeden Teilnehmer berechnet.

Für die Ermittlung der internen Konsistenz des DTI wurde Cronbachs alpha berechnet. Die Effektstärke wurde als Cohens d berechnet.

Alle Daten wurden mittels SPSS 19.0 statistisch ausgewertet. Da die Daten nicht normalverteilt waren (Überprüfung mittels Kolmogorov-Smirnov Anpassungstest), wurden die einzelnen Gruppen gegeneinander mittels des Mann-Whitney-Test auf Unterschiede geprüft. Für alle Tests wurde ein Signifikanzniveau von 5% gewählt. Eine Bonferroni-Korrektur des alpha-Fehlers war bei der Zahl der durchgeführten Vergleiche nicht notwendig.


Ergebnisse

Fragebögen

An den Umfragen beteiligten sich zwischen 48% und 78% der befragten Studierenden. Zwischen 71% und 95% der ausgefüllten Fragebögen waren vollständig und korrekt ausgefüllt und auswertbar.

Die auswertbaren Fragebögen der Testkohorten setzten sich wie folgt zusammen (siehe Tabelle 1 [Tab. 1] und 2 [Tab. 2]).

Intrafakultärer Vergleich

In einer ersten Auswertung der drei Jahrgänge der Universität Witten/Herdecke (UW/H) und der drei Kohorten der Ruhr-Universität Bochum sollte überprüft werden, ob mittels des DTI signifikante Unterschiede in der Selbsteinschätzung des klinischen Denkens zwischen verschiedenen Jahrgängen eines Curriculums bzw. gleichen Jahrgängen verschiedener Curricula gemessen werden können.

Im Idealfall sollten die Fähigkeiten im klinischen Denken mit steigender Semesterzahl zunehmen. Bei den Studierenden der UW/H (sieh Abbildung 3 [Abb. 3]) wird so eine Zunahme im mittels DTI selbst eingeschätzten klinischen Denken mit steigender Semesterzahl deutlich, der Anstieg vom 5. zum 8. Semester ist signifikant und hat eine hohe Effektstärke. Eine Zunahme vom 5. zum 6. Semester mit mittlerer Effektstärke zeigt sich ebenfalls, während sich kein signifikanter Unterschied zwischen dem 6. und dem 8. Semester messen lässt.

Wenn die Veranstaltungen eines Modellstudiengangs das klinische Denken besser fördern als die in einem Regelstudiengang, dann sollten sich Unterschiede zwischen Kohorten nach gleicher Studiendauer in unterschiedlichen Curricula zeigen.

Ein Vergleich der Studierenden im 7. Semester an der RUB konnte jedoch keinen Unterschied zwischen Studierenden im Regel- und solchen im Modellstudiengang nachweisen. Es gab auch keine Zunahme der erreichten Punkte im DTI bei Studierenden im Modellstudiengang vom 7. zum 9. Semester (siehe Abbildung 4 [Abb. 4]).

Interfakultärer Vergleich

In einem weiteren Vergleich wurden die Studierenden der drei beteiligten Modellstudiengänge miteinander verglichen, und zwar jeweils das 9. Semester der Universitäten Köln und Bochum und das 8. Semester der UW/H. Die Ergebnisse im mittels DTI selbst eingeschätzten klinischen Denken der drei untersuchten Kohorten unterschieden sich signifikant voneinander. Die Studierenden der UW/H erreichten höhere Punktzahlen als die Studierenden der anderen beiden Fakultäten, und die Studierenden der RUB erzielten höhere Gesamtpunkte als die der UzK (geringere Effektstärke bei diesem Vergleich), siehe Abbildung 5 [Abb. 5].


Diskussion

Das Ziel dieses Projekts war es, zu prüfen, ob mit Hilfe des Diagnostic Thinking Inventory (DTI) sowohl Unterschiede in der Selbsteinschätzung des klinischen Denkens von Studierenden verschiedener Fakultäten als auch zwischen Studierenden unterschiedlicher Semester innerhalb einer Fakultät gemessen werden können.

Die interne Konsistenz des Fragebogens für den Gesamtfragebogen war befriedigend bis gut, die der Subskalen dagegen nur gering. Daher wurde in allen Gruppen jeweils nur die erreichte Gesamtpunktzahl verglichen.

Es ließen sich signifikante Unterschiede sowohl zwischen einzelnen Jahrgängen einer Universität (zunehmende Punktzahl im selbst eingeschätzten klinischen Denken bei Studierenden der UW/H) als auch zwischen vergleichbaren Studiensemestern einzelner Universitäten messen. Für die Studierenden der UW/H ergeben sich damit Ergebnisse, die der Eingangs-Hypothese entsprechen, dass mit zunehmendem Studienfortschritt das klinische Denken zunimmt. Beide Elemente, die laut Literatur dazu beitragen können (PbL [24], [25] und klinische Erfahrung in Form von Blockpraktika oder Famulaturen [27], [28]), sind im Curriculum der UW/H stark vertreten. Wenn PbL allein eine Auswirkung auf das klinische Denken hätte, würde man allerdings auch erwarten, dass die Studierenden im Modellstudiengang der RUB höhere Werte erzielen als ihre Kommilitonen aus dem Regelstudiengang. Dies ist in dieser Studie nicht der Fall.

Wenn man die am weitesten fortgeschrittenen Jahrgänge aller untersuchten Fakultäten vergleicht, so zeigt sich auch hier, dass diejenigen aus der Fakultät mit den größten Anteilen an PbL und klinischen Praktika die höchsten Punkte erreichen, diejenigen, aus Curricula mit geringeren Anteilen an diesen Elementen, erzielen die schlechteren Ergebnisse.

Um die gemessenen Daten nicht nur innerhalb der untersuchten Gruppen zu verwenden und die erreichten Punktzahlen auf Plausibilität zu überprüfen, wurden sie mit den von Bordage [29] gemessenen Werten verglichen. Die niedrigste in dieser Studie gemessene Gesamtpunktzahl einer Gruppe (Studierenden der UzK, 9. Semester mit 150,5 Punkten) liegen unterhalb der von Bordage gemessenen Werte für Studierende im 3. Studienjahr (158,3 Punkt), während die Gruppe mit der höchsten erreichten Punktzahl aus unserer Studie (UW/H, 8. Semester mit 178,2 Punkten) oberhalb der für Assistenzärzte in der Inneren Medizin (Senior House Officers: 168,4 Punkte) und Hausärzte (General Pracitioners 172,3 Punkte) gemessenen Werte liegt. Dies legt nahe, dass sich der DTI besonders für innerfakultäre Vergleiche eignet, da eine Kalibrierung zwischen verschiedenen Systemen schwierig ist. In der Studie von Bordage war von den Studierenden im ersten Studienjahr (153,9 Punkte) bis hin zu Registrars (180,2 Punkte) zwar ein kontinuierlicher Zuwachs an Punkten zu verzeichnen, die Unterschiede in unserer Studie sind zwischen den gemessenen Gruppen jedoch größer.

Der Fragebogen wurde bei freiwilligen Teilnehmern in nicht-standardisierter Umgebung aus drei verschiedenen medizinischen Fakultäten in Nordrhein-Westfalen eingesetzt. Dies bedeutet, dass die Ergebnisse nicht zwingend für die jeweiligen Kohorten repräsentativ sind. Besonders bei den für den Regelstudiengang (7. Semester, RUB) erhobenen Daten ist die Streuung der Werte sehr groß, und die befragten Teilnehmer (40) sind nur eine kleine, zufällig ausgesuchte Gruppe der Gesamtkohorte. Daher ist es fraglich, wie repräsentativ die Daten dieser Stichprobe für ihren Jahrgang sind.

In Köln und an der UW/H wurden die Testbögen zudem im Anschluss an den Progress-Test ausgegeben, was zum Teil für die recht geringe Rücklaufquote, die niedrige Reliabilität und die niedrigen Gesamtergebnisse verantwortlich sein kann. Die Reliabilität und die Gesamtpunktzahlen sind an der UW/H höher. Hier kann sich motivationssteigernd ausgewirkt haben, dass der soziale Druck teilzunehmen, in der kleinen Kohorte größer ist. Auch der Anteil der nicht auswertbaren Fragebögen ist an der UW/H geringer. Die Bögen der UzK konnten etwa in einem Drittel der Fälle nicht ausgewertet werden; daher muss der Vergleich mit den Werten der UzK kritisch betrachtet werden. Die Fragebögen, die nicht in allen Fragen eine eindeutige Antwort aufwiesen, wurden in der Auswertung nicht berücksichtigt. In vielen der Fragebögen war trotz der Aufforderung, immer ein Kästchen zwischen den Aussagen anzukreuzen, die Trennlinie zwischen zwei Kästchen gewählt worden, da sich die Studierenden offensichtlich nicht für einen Wert der Skala entscheiden wollten. Dies war auch auf den Bögen zu beobachten, die von den Studierenden der RUB ausgefüllt wurden und ist der Grund für den geringen Anteil auswertbarer Fragebögen. Des Weiteren muss man bei der Interpretation der Daten berücksichtigen, dass es sich beim DTI zwar um ein etabliertes Instrument handelt, dass es allerdings nicht objektiv das klinische Denken sondern lediglich die Selbsteinschätzung der Studierenden in dieser Disziplin misst. Eine (durchaus erwünschte) insgesamt kritische Haltung im Hinblick auf die eigenen Kompetenzen könnte nämlich die Selbsteinschätzung zu klinischem Denken negativ beeinflussen. Auch in dem Maß der Selbstkritik können sich die untersuchten Kohorten durchaus unterscheiden. Hierzu wurde kein weiteres Instrument eingesetzt, das zur Standardisierung in diesem Punkt hätte dienen können. Man kann beispielsweise davon ausgehen, dass sich männliche Studierende eher in ihren Kompetenzen überschätzen [38]. In der Verteilung männlich/weiblich unterscheiden sich die untersuchten Gruppen jedoch nicht signifikant voneinander. Daher sollten die in dieser Studie gefundenen Unterschiede nicht durch eine geschlechts-spezifische Überschätzung der Studierenden der UW/H und eine Unterschätzung derer in Köln bedingt sein.


Zusammenfassung

Zusammenfassend kann man aus dieser Pilotstudie schließen, dass der DTI als Instrument durchaus geeignet ist, das selbsteingeschätzte klinische Denken bei Studierenden unterschiedlicher Curricula vergleichend zu erheben.

Die Studie hat aber auch gezeigt, dass weitere Schritte unternommen werden müssen, wenn die gemessenen Unterschiede auf die Verteilung unterschiedlicher curricularer Elemente wie z.B. PbL oder klinisch-praktische Erfahrung zurückgeführt werden sollen.

Grundsätzlich muss gewährleistet werden, dass die Befragung unter vergleichbaren Bedingungen stattfindet, wobei eine höhere Rücklaufquote erreicht werden muss.

Zusätzlich erscheint es notwendig, ein weiteres Inventar einzusetzen, um zu überprüfen, ob die Studierenden zu Selbstüberschätzung/-unterschätzung neigen.

Der DTI selbst sollte durch weitere fachbezogene objektive Tests zum klinischen Denken und Verhalten weitergehend validiert werden [39], z.B. im Sinne eines Key Feature [40], Script Concordance [41] oder Situational Judgement Tests [42].


Interessenkonflikt

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Barrows HS, Feltovich PJ. The clinical reasoning process. Med Educ. 1987;21(2):86-91. DOI: 1365-2923.1987.tb00671.x Externer Link
2.
Pelaccia T, Tardif J, Triby E, Charlin B. An analysis of clinical reasoning through a recent and comprehensive approach: the dual-process theory. Med Educ Online. 2011;14:16. DOI: 10.3402/meo.v16i0.5890 Externer Link
3.
Norman G. Research in clinical reasoning: past history and current trends. Med Educ. 2005;39(4):418-427. DOI: 10.1111/j.1365-2929.2005.02127.x Externer Link
4.
Charlin B, Tardif J, Boshuizen HPA. Scripts and medical diagnostic knowledge: theory and applications for clinical reasoning instruction and research. Acad Med. 2000;75(2):182-190. DOI: 10.1097/00001888-200002000-00020 Externer Link
5.
Schmidt HG, Norman GR, Boshuizen HP. A Cognitive Perspective on Medical Expertise: Theory and Implications. Acad Med. 1990;65(10):611-621. DOI: 10.1097/00001888-199010000-00001 Externer Link
6.
Schmidt HG, Boshuizen HP. On acquiring expertise in medicine. Educ Psychol Rev. 1993;5(3):205-221. DOI: 10.1007/BF01323044 Externer Link
7.
Groves M, O´Rourke P, Alexander H. The clinical reasoning characteristics of diagnostic experts. Med Teach. 2003; 25(3):308-313. DOI: 10.1080/0142159031000100427 Externer Link
8.
Grant J, Marsden P. The structure of memorized knowledge in students and clinicians: an explanation for diagnostic expertise. Med Educ. 1987;21(2):92-98. DOI: 10.1111/j.1365-2923.1987.tb00672.x Externer Link
9.
Eva KW, Neville AJ, Norman GR. Exploring the Etiology of Content Specificity: Factors Influencing Analogic Transfer and Problem Solving. Acad Med. 1998;73(10):S1-S5. DOI: 10.1097/00001888-199810000-00028 Externer Link
10.
Dory C, Gagnon R, Charlin B. Is case-specificity content-specificity? An analysis of data from extended-matching questions. Adv Health Sci Educ. 2010;15(1):55-63. DOI: 10.1007/s10459-009-9169-z Externer Link
11.
Norman G, Bordage G, Page G, Keane D. How specific is case speceficity? Med Educ. 2006;40(7):618-623. DOI: 10.1111/j.1365-2929.2006.02511.x Externer Link
12.
Kassirer JP. Teaching clinical reasoning: Case-based and coached. Acad Med. 2010;85(7):1118-1124. DOI: 10.1097/ACM.0b013e3181d5dd0d Externer Link
13.
Eva KW. What every teacher needs to know about clinical reasoning. Med Educ. 2004;39(1):98-106. DOI: 10.1111/j.1365-2929.2004.01972.x Externer Link
14.
Wolf FM, Gruppen LD, Billi JE. Use of the competing-hypotheses heuristic to reduce 'pseudodiagnosticity'. Acad Med. 1988;63(7):548-554. DOI: 10.1097/00001888-198807000-00006 Externer Link
15.
Kopp V, Möltner A, Fischer MR. Key-feature-Probleme zum Prüfen von prozeduralem Wissen: Ein Praxisleitfaden. GMS Z Med Ausbild. 2006;23(3):Doc50. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000269.shtml Externer Link
16.
Kopp V, Stark R, Fischer MR. Förderung von Diagnose-Kompezenz in der medizinischen Ausbildung durch Imlementation eines Ansatzes zum fallbasierten Lernen aus Lösungsbeispielen. GMS Z Med Ausbild. 2007;24(2):Doc107. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2007-24/zma000401.shtml Externer Link
17.
Gräsel C, Mandl H. Förderung des Erwerbs diagnostischer Strategien in fallbasierten Lernumgebungen. Unterrichtswissenschaft. 1993;21:355-370.
18.
Maudsley G, Strivers J. Promoting professional knowledge, experiential learning and critical thinking for medical students. Med Educ. 2000;34(7):535-544. DOI: 10.1046/j.1365-2923.2000.00632.x Externer Link
19.
Kamin CS, O´Sullivan PS, Younger M, Deterding R. Measuring Critical Thinking in Problem-Based Learning Discourse. Teach Learn Med. 2001;13(1):27-35. DOI: 10.1207/S15328015TLM1301_6 Externer Link
20.
Simpson E, Courtney M. Critical thinking in nursing education: Literature review. Int J Nurs Prac. 2002;8(2):89-98. DOI: 10.1046/j.1440-172x.2002.00340.x Externer Link
21.
Eshach H, Bittermann H. From case-based reasoning to problem-based learning. Acad Med. 2003;78(5):491-496. DOI: 10.1097/00001888-200305000-00011 Externer Link
22.
Hmelo CE. Cognitive Consequences of Problem-Based Learning for the Early Development of Medical Expertise. Teach Learn Med. 1998;10(2):92-100. DOI: 10.1207/S15328015TLM1002_7 Externer Link
23.
Rochmawati E, Wiechula R. Education strategies to foster health professional students' clinical reasoning skills. Nurs Health Sci. 2010;12(2):244-250. DOI: 10.1111/j.1442-2018.2009.00512.x Externer Link
24.
Tiwari A, Leighton-Beck L, So M, Yuen K. A comparison of the effects of problem-based learning and lecturing on the development of students' critical thinking. Med Educ. 2006;40(6):547-554. DOI: 10.1111/j.1365-2929.2006.02481.x Externer Link
25.
Yuan H, Kunaviktikul W, Klunkklin A, Williams BA. Improvement of nursing students' critical thinking skills through problem-based learning in the People's Republic of China: A quasi-experimental study. Nurs Health Sci. 2008; 10(1):70-76. DOI: 10.1111/j.1442-2018.2007.00373.x Externer Link
26.
Windish DM. An Innovative Curriculum Teaching the Integration of Communication and Clinical Reasoning Skills to Medical Students. Liverpool: MPH Capstone Project; 2004.
27.
Bowen JL. Educational strategies to promote diagnostic clinical reasoning. N Engl J Med. 2006;355(21):2217-2225. DOI: 10.1056/NEJMra054782 Externer Link
28.
Schmidmaier R, Eiber S, Ebersbach R, Schiller M, Hege I, Holzer M, Fischer MR. Learning the facts in medical school is not enough: which factors predict successful application of procedural knowledge in a laboratory setting? BMC Med Educ. 2013;13:28. DOI: 10.1186/1472-6920-13-28 Externer Link
29.
Bordage G, Grant J, Marsden P. Quantitative assessment of diagnostic ability. Med Educ. 1990;24(5):413-425. DOI: 10.1111/j.1365-2923.1990.tb02650.x Externer Link
30.
Jones UF. The reliability and validity of the Bordage, Grant & Marsden diagnostic thinking inventory for use with physiotherapists. Med Teach. 1997;19(2):133-140. DOI: 10.3109/01421599709019366 Externer Link
31.
Sobral DT. Medical Students' Mindset for Reflective Learning: A Revalidation Study of the Reflection-In-Learning Scale. Adv Health Sci Educ. 2005;10(4):303-314. DOI: 10.1007/s10459-005-8239-0 Externer Link
32.
Groves M, Scott I, Alexander H. Assessing clinical reasoning: a method to monitor its development in a PBL curriculum. Med Teach. 2002;24(5):507-515. DOI: 10.1080/01421590220145743 Externer Link
33.
Round AP. Teaching clinical reasoning – a preliminary controlled study. Med Educ. 1999;33(7):480-483. DOI: 10.1046/j.1365-2923.1999.00352.x Externer Link
34.
Beullens J, Struyf E, van Damme B. Diagnostic ability in relation to clinical seminars and extended-matching questions examinations. Med Educ. 2006;40(12):1173-1179. DOI: 10.1111/j.1365-2929.2006.02627.x Externer Link
35.
Jerant AF, Azari R. Validity of Scores Generated by a Web-Based Multimedia Simulated Patient Case Software: A Pilot Study. Acad Med. 2004;79(8):805-811. DOI: 10.1097/00001888-200408000-00017 Externer Link
36.
Stieger S, Praschinger A, Kletter K, Kainberger F. Diagnostic grand rounds: A new teaching concept to train diagnostic reasoning. Eur J Radiol. 2009;78(3):349-352. DOI: 10.1016/j.ejrad.2009.05.015 Externer Link
37.
Lee A, Joynt GM, Lee AKT, Ho A, Groves M, Vlantis AC, Ma RC, Fung CS, Aun CS. Using illness scripts to teach clinical reasoning skills to medical students. Fam Med. 2010;42(4):255-261.
38.
Jünger J, Schellberg D, Nikendei C. Subjektive Kompetenzeinschätzung von Studierenden und ihre Leistung im OSCE. GMS Z Med Ausild. 2006;23(3):Doc51. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000270.shtml Externer Link
39.
Ilgen JS, Humbert AJ, Kuhn G, Hansen ML, Norman GR, Eva KW, Charlin B, Sherbino J. Assessing diagnostic reasoning: a consensus statement summarizing theory, practice, and future needs. Acad Emerg Med. 2012;19(12):1454-1461. DOI: 10.1111/acem.12034 Externer Link
40.
Page G, Bordage G. The Medical Council of Canada's key features project: a more valid written examination of clinical decision-making skills. Acad Med. 1995;70(2):104-110. DOI: 10.1097/00001888-199502000-00012 Externer Link
41.
Lubarsky S, Charlin B, Coo DA, Chalk C, van der Vleuten CP. Script concordance testing: a review of published validity evidence. Med Educ. 2011;45(4):329-338. DOI: 10.1111/j.1365-2923.2010.03863.x Externer Link
42.
Rahman M. Tackling situational judgment tests. BMJ Careers. 2007;334:gp189–gp190.