gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Arbeitsplatzbasiertes Assessment kommunikativer Kompetenz – ein Pilotprojekt zur Praktikabilität, Akzeptanz und Reliabilität

Artikel Prüfungen

  • corresponding author Simone Weyers - Heinrich-Heine-Universität Düsseldorf, Universitätsklinikum Düsseldorf - Centre for Health and Society (CHS), Institut für Medizinische Soziologie, Düsseldorf, Deutschland
  • Iman Jemi - Johannes Gutenberg-Universität Mainz, Mainz, Deutschland
  • author André Karger - Heinrich-Heine-Universität Düsseldorf, Universitätsklinikum Düsseldorf, Klinisches Institut für Psychosomatische Medizin und Psychotherapie, Düsseldorf, Deutschland
  • author Bianca Raski - Heinrich-Heine-Universität Düsseldorf, Universitätsklinikum Düsseldorf, Klinisches Institut für Psychosomatische Medizin und Psychotherapie, Düsseldorf, Deutschland
  • author Thomas Rotthoff - Heinrich-Heine-Universität Düsseldorf, Universitätsklinikum Düsseldorf, Studiendekanat, Düsseldorf, Deutschland; Heinrich-Heine-Universität Düsseldorf, Universitätsklinikum Düsseldorf, Klinik für Endokrinologie und Diabetologie, Düsseldorf, Deutschland
  • author Michael Pentzek - Heinrich-Heine-Universität Düsseldorf, Universitätsklinikum Düsseldorf, Institut für Allgemeinmedizin, Düsseldorf, Deutschland
  • author Achim Mortsiefer - Heinrich-Heine-Universität Düsseldorf, Universitätsklinikum Düsseldorf, Institut für Allgemeinmedizin, Düsseldorf, Deutschland

GMS J Med Educ 2016;33(5):Doc70

doi: 10.3205/zma001069, urn:nbn:de:0183-zma0010699

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2016-33/zma001069.shtml

Eingereicht: 22. Januar 2016
Überarbeitet: 24. Juni 2016
Angenommen: 22. Juli 2016
Veröffentlicht: 15. November 2016

© 2016 Weyers et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Hintergrund: Die Vermittlung kommunikativer Kompetenzen hat eine größere Bedeutung in den Curricula der Humanmedizin bekommen. Ergänzend zu standardisierten Prüfungen sollten Studierende im Rahmen arbeitsplatzbasierter Prüfungen in realen klinischen Situationen mit richtigen Patienten kommunizieren und ein strukturiertes Feedback bekommen. Ziel des Projektes war, eine solche formative Prüfmethode zum arbeitsplatzbasierten Assessment zu pilotieren. Von besonderem Interesse war zu ermitteln, ob Ärzt/innen die Methode für praktikabel halten und inwiefern die Studierenden sie akzeptieren. Darüber hinaus sollte die Reliabilität der Methode eingeschätzt werden.

Methode: Hierzu führten 16 Studierende in ihren hausärztlichen Lehrpraxen je zwei Beratungsgespräche mit chronisch kranken Patienten und zeichneten diese per Video auf. Bewertung und Feedback erfolgten jeweils unmittelbar nach dem Gespräch durch den geschulten Lehrarzt anhand des Berlin Global Rating (BGR). Ferner erfolgte eine Bewertung der Gespräche mit dem BGR durch zwei externe geschulte Prüfer anhand der Videos. Die Angaben der Ärzte und Studierenden zur Praktikabilität und Akzeptanz wurden schriftlich und teilstandardisiert erhoben und quantitativ sowie qualitativ ausgewertet. Zur Prüfung der Reliabilität wurde die Retest-Reliabilität der beiden Gesamtbewertungen durch die jeweiligen Prüfer berechnet sowie die Inter-Rater-Reliabilität der drei Bewertungen aller Einzelgespräche.

Ergebnisse: Die formative Prüfmethode wird von den Ärzten und Studierenden als gut bewertet. Sie ist relativ gut in den Arbeitsalltag zu integrieren. Der besondere Mehrwert besteht im persönlichen, strukturierten und wiederholten Feedback. Die beiden Gesamtbewertungen des Patientengespräches durch den jeweiligen Prüfer korrelieren mäßig. Die Übereinstimmung der drei Prüfer hinsichtlich der Einzelgespräche ist gering.

Diskussion: Im Rahmen des Pilotprojektes konnte nur eine kleine Stichprobe von Ärzten und Studierenden in begrenztem Umfang befragt werden. Hierbei ergaben sich Hinweise zur Verbesserung der Prüfung durch die Integration von Kontextinformationen und studentischen Selbsteinschätzungen. Trotz der bislang noch vorhandenen Einschränkungen bezüglich der Testgüte ist deutlich geworden, dass die arbeitsplatzbasierte Bewertung kommunikativer Kompetenzen im klinischen Setting eine sinnvolle Ergänzung im Kommunikations-Curriculum einer medizinischen Fakultät ist.

Schlüsselwörter: Kommunikative Kompetenz, arbeitsplatzbasierte Prüfung, formative Prüfung


1. Einleitung

1.1 Hintergrund

Die Vermittlung kommunikativer Kompetenzen wird in den nationalen und internationalen Empfehlungen für die curriculare Ausgestaltung des Medizinstudiums als eines der Kernziele für eine erfolgreiche ärztliche Ausbildung angesehen [1], [2], [3]. An vielen medizinischen Fakultäten wurden bereits Programme zur Lehre und Prüfung sozialer und kommunikativer Kompetenzen implementiert [4], [5], [6], [7]. Am Standort Düsseldorf wurde das interdisziplinäre und longitudinale Curriculum CoMeD zur Lehre und Prüfung kommunikativer Kompetenzen etabliert. Prüfverfahren fokussieren bisher v.a. auf Basis- und Anwendungswissen sowie die Anwendung des Gelernten im Rahmen eines OSCE (Objective Structured Clinical Examination) mit Schauspielpatienten [8].

Darüber hinaus wird für den Erwerb kommunikativer Kompetenzen das arbeitsplatzbasierte Lernen auf Stationen und in Lehrpraxen als essenziell angesehen [9], [10]. Im Rahmen klinischer Praktika sollen die angehenden Ärzt/innen ihre kommunikativen Kompetenzen im Patientenkontakt unter Supervision einüben. Häufig fühlen sich die Studierenden dabei jedoch allein gelassen und vermissen Anleitung und Feedback durch erfahrene Ärzte [11], [12]. Im Gegensatz zu den oft gut strukturierten und supervidierten Trainings- und Seminarprogrammen der „Skills Labs“ und der theoretischen Fächer [13] wird der Lernprozess in den Praktika nur unzureichend unterstützt [14], [15]. Es stellt sich somit die Frage, mit welchen formativen Prüfungsmethoden der kommunikationsbezogene Lernprozess der Studierenden am Praktikumsplatz gefördert und strukturiert werden kann.

Ziel eines sogenannten „arbeitsplatzbasierten Assessment“ ist die Beobachtung der spezifischen Leistung von Studierenden im Praxisalltag und die Gabe von Feedback zur Lernsteuerung [16], [17], [18]. Strukturierte Beobachtung und Feedback am Arbeitsplatz konzentrieren sich im Medizinstudium vielfach auf praktische Fertigkeiten wie Anamneseerhebung oder körperliche Untersuchungstechniken. Für das differenzierte arbeitsplatzbasierte Assessment kommunikativer Kompetenzen in komplexen Arzt-Patienten-Interaktionen sind bisher kaum Instrumente verfügbar. Hierbei werden eher Globale Ratings empfohlen sowie Verfahren zur unmittelbaren Rückmeldung an Studierende [19], [20]. Im vorliegenden Projekt wurde das Berlin Global Rating (BGR), welches in der summativen Simulationsprüfung bisher erfolgreich eingesetzt wurde [8], in den Praktikumsalltag transferiert und für das arbeitsplatzbasierte formative Assessment der kommunikativen Kompetenzen herangezogen. Hierzu gibt es unseres Wissens noch keine Erfahrungen.

1.2 Projektziele

Ziel des Pilotprojektes war, die Möglichkeiten und Grenzen eines anhand des BGR vorgenommenen arbeitsplatzbasierten Assessments zur Arzt-Patienten-Kommunikation zu erproben, welches die Studierenden im klinischen Setting beurteilt und strukturiertes Feedback ermöglicht. Folgende Fragen sollten beantwortet werden:

1.
Ist ein formatives arbeitsplatzbasiertes Assessment mit Hilfe des BGR im hausärztlichen Arbeitsalltag praktikabel?
2.
Wie ist die Akzeptanz der Prüfmethode bei den Studierenden?
3.
Wie ist die Reliabilität des Prüfungsinstruments BGR im arbeitsplatzbasierten Assessment?

2. Methoden

2.1 Projektplanung und Rekrutierung

An der konzeptuellen Entwicklung des arbeitsplatzbasierten Assessments beteiligten sich die am Kommunikations-Curriculum beteiligten Fächer im Rahmen regelmäßiger Sitzungen. Die Organisation und Durchführung wurde über ein Jahr von einer wissenschaftlichen Hilfskraft vorgenommen.

Das resultierende Assessment wurde im Rahmen des 14-tägigen Hausarztpraktikums im 4. Studienjahr durchgeführt, welches durch fallorientierte Seminare „Allgemeinmedizin“ und Kommunikationstraining vorbereitet wird [7]. Eines der zentralen Lernziele ist die selbständige Durchführung von Beratungs- und Aufklärungsgesprächen. Die Studierenden werden dabei durch Lehrärzt/innen im „Ein-zu-Eins“-Teaching sowie durch ein Online-Logbuch begleitetet [21].

Für das Pilotprojekt wurden zunächst ausschließlich Lehrärzt/innen rekrutiert, die im Umgang mit dem BGR geschult waren. Zur freiwilligen Teilnahme wurden dann alle Studierenden eingeladen, die ihr Hausarztpraktikum zeitnah in einer dieser Lehrpraxen absolvierten. Durch Informationsveranstaltungen und persönliche Ansprachen sollte der Rücklauf gesteigert werden. Infolge willigten sechzehn Studierende zur Teilnahme ein. Diese wurden über Projektziele und -ablauf aufgeklärt und mit einem Leitfaden instruiert. Die Teilnahme der Studierenden wurde mit einem Buchgutschein über 20 Euro honoriert. Die Studierenden waren auf neun Lehrpraxen verteilt. Die somit teilnehmenden neun Lehrärzt/innen wurden dann nochmal ausführlich informiert und ebenfalls mit einem Leitfaden zum Ablauf instruiert.

Die Auswahl und Aufklärung der Patienten übernahm der Lehrarzt vor Ort. Den Patient/innen wurde ein Informationsblatt zum Studienablauf ausgehändigt und es wurde die Einwilligungserklärung zu Teilnahme, Videoaufzeichnung und Datenschutz eingeholt.

2.2 Prüfung kommunikativer Kompetenzen mit dem Berlin Global Rating

Für das arbeitsplatzbasierte Assessment wurde das Prüfungsinstrument BGR eingesetzt, welches von Hodges und McIlroy [22] entwickelt und in der deutschen Version durch Scheffer [23] validiert wurde. Das BGR misst die Qualität der Kommunikation mittels vier Items: Empathie, Gesprächsstrukturierung, verbaler und nonverbaler Ausdruck. Anhand einer fünfstufigen Likertskala wird die Leistung der Studierenden hinsichtlich dieser Aspekte bewertet, wobei die Extrempole mit einer Erläuterung versehen sind (z.B. Empathie: „Der Studierende geht nicht auf offensichtliche verbale und nonverbale Hinweise und Bedürfnisse des Patienten ein oder reagiert unangemessen.“ = 1 Punkt vs. „Der Studierende geht durchgehend verständnisvoll auf die verbalen und nonverbalen Hinweise und Bedürfnisse des Patienten ein oder reagiert angemessen.“ = 5 Punkte). Studierende können max. 20 Gesamtpunkte erreichen.

2.3 Datenerhebung und Bewertung

Die Studierenden erhielten die Aufgabe, je zwei Aufklärungs- oder Beratungsgespräche mit chronisch kranken Patient/innen (z.B. im Rahmen von Disease-Management-Programmen oder Gesundheitsuntersuchungen) in ihrer Lehrpraxis zu führen und aufzuzeichnen. Für die Aufzeichnung bekamen sie Videogeräte der Universität ausgeliehen. Von einer Aufzeichnung per Handy wurde explizit abgesehen. Der Lehrarzt war als Beobachter anwesend, um nach dem Gespräch die Leistung des Studierenden anhand der vier Items des BGR zu bewerten. Abschließend erfolgte ein ausführliches Feedback. Zur Unterstützung waren für jedes Item konkrete Empfehlungen zum Verhaltensfeedback in einem Merkblatt formuliert worden (siehe Anhang 1 [Anh. 1]).

Nach dem Praktikum wurden die Videoaufnahmen im Projektteam abgegeben, so dass die Gespräche jeweils von zwei unabhängigen externen Prüfern verblindet beurteilt werden konnten. Diese Aufgabe wurde ebenfalls von Personen übernommen, welche mit dem BGR vertraut waren. Damit wurde jedes Gespräch von drei Prüfern beurteilt.

Schließlich wurden die neun Lehrärzte mit einem teilstandardisierten Fragebogen zur Anwendbarkeit der Prüfmethode im Arbeitsalltag befragt. Es wurden soziodemographische Daten, Zeitaufwand (4er-Skala von „sehr“ bis „gar nicht zeitaufwändig“) und die allgemeine Beurteilung der Prüfmethode (Schulnote) erhoben. Im Freitext konnten sich die Ärzt/innen darüber hinaus zu Reaktionen der Patienten, Umsetzbarkeit im Alltag, Mehrwert, Übertragbarkeit und Ergänzungen äußern.

Die Studierenden wurden schriftlich nach ihren Erfahrungen und der allgemeine Beurteilung der Prüfmethode (Schulnote) gefragt. Im Freitext konnten sie mitteilen, was sie am Prüfverfahren als positiv wahrgenommen und was sie als problematisch erlebt haben.

2.4 Analysen

Um die Praktikabilität im Arbeitsalltag auszumachen, wurden die im ärztlichen Fragebogen vorgenommenen quantitativen Angaben ausgezählt. Die Freitexteinträge wurden mittels zusammenfassender Inhaltsanalyse paraphrasiert, reduziert und zusammengefasst. Um die Akzeptanz der Studierenden abzuschätzen, wurden ihre Freitexteinträge ebenfalls inhaltanalytisch ausgewertet.

Zur Prüfung der Retest-Reliabilität wurden die beiden Gesamtbewertungen des jeweiligen Prüfers anhand des Pearson Korrelationskoeffizienten korreliert (p<=0,05). Die Inter-Rater-Reliabilität, d.h. die Übereinstimmung zwischen dem Hausarzt und den beiden externen Prüfern, die nur das Videomaterial sahen, wurde als Intra-Class-Correlation (ICC) ermittelt (Typ C, Modell mit gemischten Zwei-Weg-Effekten, 95% Konfidenzintervall, siehe Anhang 2 [Anh. 2]). Werte über 0,75 verweisen auf eine gute Reliabilität [24]. Die quantitativen Analysen wurden mit IBM SPSS Statistics 22 durchgeführt.


3. Ergebnisse

3.1 Projektteilnehmer und Datenmaterial

Es nahmen drei Lehrärztinnen und sechs Lehrärzte teil. Sie waren im Durchschnitt 49,6 Jahre alt und hatten eine mittlere hausärztliche Berufserfahrung von 17,7 Jahren.

Weiterhin nahmen 12 weibliche und vier männliche Studierende teil, die sich auf die neun Lehrpraxen verteilten. Die Studierenden befanden sich zum Zeitpunkt der Projektteilnahme im achten Fachsemester. Mit einer Ausnahme wurden von jedem Studierenden zwei Gesprächsvideos aufgezeichnet, so dass insgesamt 31 Gespräche für die Analysen vorlagen.

Die Ergebnisse werden im Folgenden entlang der drei Forschungsfragen dargestellt.

3.2 Praktikabilität

Umsetzbarkeit im Alltag: Sieben von neun Ärzten meldeten eine problemlose Umsetzung der Prüfmethode. Zwei Ärzte antworteten, dass sie je nach Patientenaufkommen in der Praxis schwierig umgesetzt werden kann, etwa wenn vorübergehend Raumkapazitäten für die Prüfung fehlen oder der prüfende Hausarzt durch Notfälle nicht genügend Zeit hat. Der Zeitaufwand wurde weder als besonders groß noch als besonders gering eingestuft (siehe Tabelle 1 [Tab. 1]).

Mehrwert: Auf die Frage nach dem Mehrwert der Methode benannten zwei Personen das Feedback, zwei Personen die Selbstbeobachtung bzw. -erkenntnis, eine Person die Belohnung einfühlsamer Gesprächstechnik. Eine Person antwortete, dass der OSCE zur Prüfung kommunikativer Kompetenzen mit Schauspielpatienten ausreiche.

Übertragbarkeit: Acht von neun Ärzten meinten, dass die Methode auf andere Gesprächssituationen übertragbar ist, z.B. Anamnesegespräche oder Gespräche mit klarer Zielsetzung, eine Person schätzte die Übertragbarkeit als schwierig ein.

Ergänzungen: Auf die Frage, was auf dem Bewertungsbogen ergänzt werden könnte, schlug eine Person vor, die eigene und die Fremdeinschätzung gegenüberzustellen, eine weitere Person empfahl, eine differenziertere Angabe zum Gesprächskontext zu machen, eine dritte Person schlug vor, auch die fachliche Kompetenz der Studierenden zu bewerten. Im Durchschnitt bewerteten die Lehrärzt/innen die Prüfmethode als gut.

3.3 Akzeptanz

Im Durchschnitt bewerteten die Studierenden die Prüfmethode ebenfalls als gut (siehe Tabelle 1 [Tab. 1]). Die Rückmeldung der Studierenden zu positiven und negativen Aspekten der arbeitsplatzbasierten Prüfung ergab folgende Punkte:

Positive Aspekte

Authentizität: Die Studierenden hoben mehrfach positiv hervor, dass man in der arbeitsplatzbasierten Prüfung mit echten Patienten in einem realen Setting und unter realen Bedingungen geredet habe. Das Patientengespräch sei authentischer als das Gespräch mit Schauspielpatienten wie etwa in der OSCE Prüfung.

Zeit: Mehrere Studierende schrieben, es habe ihnen gefallen, dass sie sich Zeit für das Arzt-Patienten-Gespräch nehmen konnten.

Feedback: Am häufigsten meldeten die Studierenden zurück, dass sie mit dieser Prüfung ein direktes, persönliches und differenziertes Feedback vom Hausarzt/der Hausärztin erhalten haben. Das Feedback wurde teilweise direkt im Anschluss an das Patientengespräch gegeben oder später im Rahmen einer gemeinsamen Videoanalyse. Ein Teilnehmer schrieb, dies sei für ihn das erste Mal in der klinischen Ausbildung gewesen. Einige Studierende hatten den Eindruck, dass die Ärzte differenziert auf ihre persönlichen Stärken und Schwächen eingingen. Mehrfach wurde zurückgemeldet, dass die BGR Skala dabei half, das Feedbackgespräch bzgl. verschiedener Qualitäten zu strukturieren. Auch, so die Studierenden, sei die Wiederholung der Prüfung hilfreich gewesen. Man habe dadurch die Möglichkeit gehabt, die Kritik aus dem vorangegangenen Gespräch umzusetzen. Durch das nochmalige Feedback seien Fortschritte subjektiv erkennbar geworden. Ein Student meldet zurück, dass für ihn auch das Feedback des Patienten nützlich gewesen sei. Dies war in der Prüfung nicht vorgesehen, gibt aber einen Hinweis auf eine mögliche Variante der Prüfung.

Ein Studierender meinte, dass alle Studierenden - unabhängig von der Teilnahme am Lehrforschungsprojekt - die Gelegenheit zu einer solchen arbeitsplatzbasierten Prüfung bekommen sollte.

In der folgenden Abbildung 1 [Abb. 1] sind exemplarisch zwei besonders eindrückliche Originalzitate aufgeführt.

Negative Aspekte

Setting: Ein Studierender meinte, die Gesprächssituation sei nicht planbar und man müsse sich erst darauf einstellen. Einige meinten, die Gesprächssituation sei künstlich gewesen. Sie fühlen sich durch die Beobachtung der Kamera oder der Arztes gehemmt. Dies hätte, so eine Rückmeldung, auch für den Patienten zugetroffen.

Arbeitsauftrag: Zwei Studierende meldeten Unklarheiten bzgl. des Arbeitsauftrages: Einer wünschte sich eine genauere Fragestellung für das Gespräch. Ein anderer meinte, dem Arzt sei nicht klar gewesen, wie mit den Videos verfahren werden sollte.

Rolle des Lehrarztes: Einige Studierende meinten, die Prüfung sei stark von der Lehrkompetenz und dem Engagement des Arztes/der Ärztin abhängig. Auch äußerten sie die Befürchtung, dass die Beurteilung durch das bessere Kennenlernen von Arzt und Student verzerrt wird und wenig objektiv ausfällt.

BGR: Zum BGR meldete ein Studierender zurück, es sei zu kleinschrittig, so dass Diskrepanzen zwischen Urteilen entstünden.

3.4 Reliabilität

In den 31 Patientengesprächen erzielten die Studierenden durchschnittlich 15,55 von möglichen 20 Punkten im BGR. Die beiden Bewertungen des jeweiligen Prüfers korrelieren mit r=0,669, r=0,520 und r=0,653. Die Übereinstimmung zwischen dem Hausarzt und den beiden externen Prüfern beträgt ICC=0,445. Die paarweise Übereinstimmung beträgt ICC=0,619, ICC=0,301 und ICC=0,443 (siehe Tabelle 2 [Tab. 2]).


4. Diskussion

Das Ziel der vorliegenden Arbeit war, am Standort Düsseldorf eine arbeitsplatzbasierte Prüfung zur kommunikativen Kompetenz zu pilotieren. Die Ergebnisse werden wieder entlang der drei Forschungsfragen diskutiert.

4.1 Praktikabilität

Die Rückmeldungen der Lehrärzt/innen ergaben insgesamt ein zustimmendes Bild. Besonders positiv hervorzuheben ist die fast einstimmige Rückmeldung der Ärzte, dass Bewertung und Feedback mit Hilfe der BGR gut im Praxisalltag zu integrieren sind. Niemand hat geantwortet, dass die Methode „sehr zeitaufwändig ist“, allerdings auch niemand, dass sie „gut zwischendurch zu erledigen ist“. Es muss ein geeigneter Zeitpunkt gefunden werden, der v.a. vom Patientenaufkommen abhängt. Die Hälfte der neun Ärzte sah einen Mehrwert in dem neuen Prüfverfahren. Hier wurde v.a. das Feedback genannt. Dies entspricht dem Konzept der arbeitsplatzbasierten Prüfung als auch den Rückmeldungen der Studierenden. In diesem Zusammenhang ergab sich der interessante Hinweis, die Selbsteinschätzung in den Bewertungsbogen aufzunehmen. Feedback kann der Lernende sich auch selbst gewähren, und seine eigene Einschätzung kann er mit der des externen Beobachters vergleichen. Ferner ist der Wunsch einer differenzierten Erfassung des Gesprächskontextes nachvollziehbar, da die Beurteilung kommunikativer Kompetenzen kontextabhängig ist [25]. Entsprechende Instrumente könnten die Prüfung sinnvoll ergänzen [26].

4.2 Akzeptanz

Die Studierenden beurteilten die Prüfung durchweg als gut. Es gab zwar einige Kritikpunkte, aber niemand lehnte die Prüfmethode ab. Entsprechend der Literatur [18] entsteht hier der Eindruck, dass die Studierenden selten eine Rückmeldung zu ihrer klinischen Kompetenz erhalten. Sie schätzten besonders, dass sie es mit „echten“ Patienten in „echten“ Situationen zu tun haben. Ein wesentliches Merkmal dieser arbeitsplatzbasierten Prüfung ist, dass Studierende direkt nach der Leistung eine Rückmeldung erhalten. Bei der Bewertung fanden es einige Studierende günstig, dass der BGR die Bewertungskriterien definiert und eine strukturierte und leistungsbezogene Bewertung (i.S.v. „Wo stehe ich?“) ermöglicht. Andere hielten jedoch dagegen, dass bei der Bewertung durch den Arzt immer noch viel Subjektives einfließt, in Abhängigkeit davon, wie gut er oder sie geschult ist oder wie lange man einander kennt. Wenn das BGR als formative Prüfung eingesetzt wird, ist dies jedoch unproblematisch. Besonders positiv wurde hervorgehoben, dass durch die beiden Prüfungen eine Umsetzung der ersten Kritik im Rahmen des zweiten Gespräches und somit eine Entwicklung möglich sei.

Nach Crooks [27] sollten arbeitsplatzbasierte Prüfungen in den Lernprozess integriert werden, Feedback direkt im Anschluss an das Prüfereignis gewährt werden, Auszubildende mehrere Gelegenheiten zur Prüfung erhalten und Bewertungskriterien klar definiert und artikuliert werden. Hierbei kann die BGR Skala sicherlich ein Vehikel sein, welches den Rahmen für einige wesentliche Aspekte der Arzt-Patienten-Kommunikation aufspannt: Gesprächsstrukturierung, Eingehen auf den Patienten, verbale und nonverbale Kommunikation. Sie präzisiert Kriterien für den Erwartungshorizont und benennt Leitpunkte für das Feedback.

4.3 Reliabilität

Die Ergebnisse zur Reliabilität der Prüfmethode sind ernüchternd. Es findet sich eine mittlere Korrelation der Gesamtbewertungen der jeweiligen Prüfer. Diese ist bei dem kurzen Zeitintervall zwischen den beiden Gesprächen zu erwarten. Ferner findet sich eine geringe Übereinstimmung zwischen den Bewertungen der Lehrärzte mit den externen Prüfern. Hieraus lässt sich ableiten, dass im Falle der Verwendung des Instrumentes für eine summative Prüfung am Arbeitsplatz die gemeinsame Schulung der Ärzt/innen inklusive einer gemeinsamen Standardsetzung („standard setting“) und Präzisierung der Gesprächssituation dringend notwendig wäre.

4.4 Limitationen

Trotz mehrerer Rekrutierungsmaßnahmen konnte nur eine kleine Anzahl an Studierenden für die Teilnahme am Pilotprojekt gewonnen werden. Die Stichprobe ist somit zu klein, um aus der Teststatistik sichere Schlüsse zu ziehen. Die Teilnehmer wurden auch nicht zufällig, sondern nach Interesse ausgewählt und sind nicht repräsentativ für die Grundgesamtheit. Bei den teilnehmenden Hausarztpraxen ist ein Selektionsbias zugunsten derjenigen Lehrärzte anzunehmen, die gegenüber der hier dargestellten formativen Prüfmethode grundsätzlich aufgeschlossen sind. Bei den Studierenden handelt es sich möglicherweise um eine Gruppe, die überdurchschnittlich am Thema „Arzt-Patienten-Kommunikation“ interessiert ist. Ein Vergleich mit den OSCE Prüfungsergebnissen der Gesamtkohorte zeigte jedoch, dass sich die Studienteilnehmer nicht wesentlich vom Durchschnitt der Kohorte unterscheiden (Ergebnisse hier nicht gezeigt).

Für die Evaluation seitens der Lehrärzt/innen und der Studierenden standen ferner keine validierten Befragungsinstrumente zur Verfügung. Die Evaluation auf Basis von Freitextkommentaren ist auf eine deskriptive Inhaltsauswertung limitiert, für die Evaluation tieferer Haltungen und Motive wären Interviews oder Fokusgruppen unter Anwendung qualitativer Forschungsmethoden erforderlich.

4.5 Schlussfolgerung

Trotz verschiedener methodischer Limitationen haben sich wichtige Hinweise für die weitere Entwicklung einer arbeitsplatzbasierte Bewertung kommunikativer Kompetenzen im klinischen Setting ergeben. Es ist deutlich geworden, dass diese formative Prüfung eine sinnvolle Ergänzung in einem Kommunikations-Curriculum einer medizinischen Fakultät ist. Am Standort Düsseldorf wird im Rahmen des Modellstudiengangs das Kommunikationstraining mit Schauspielpatienten um ein Online-Logbuch-gestütztes Trainingsprogramm mit Realpatienten im Rahmen der Praxisblöcke des 4. und 5. Studienjahres und des 14-tägigen Hausarztpraktikums ergänzt [21]. Das hier vorgestellte Assessment soll dabei als formative Prüfungsmethode weiter erprobt und den Anregungen entsprechend entwickelt werden.

Die Ergebnisse zeigen auch, dass die Verwendung als summative Prüfung einen deutlich größeren Schulungs- und Abstimmungsaufwand erfordern würde, der bei einer Vielzahl von Lehrpraxen schwer umsetzbar wäre. Zusammen mit anderen Prüfungen bildet das vorgestellte Konzept von Beobachtung und Feedback ein longitudinales Portfolio zur kommunikativen Kompetenz ab. Hier besteht die Chance, aber auch Herausforderung der Fakultätsentwicklung auf dem Weg zu einer verbesserten Feedbackkultur im klinischen Alltag.


Danksagung

Wir danken der QVM Kommission der Medizinischen Fakultät Düsseldorf für die Förderung des Lehrprojektes. Besonders danken wir den Studierenden und Hausärztinnen und -ärzten, die an diesem Projekt teilgenommen haben.


Interessenkonflikt

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.


Aufklärung und Einwilligung

Für das Projekt liegt ein positives Votum der Ethikkommission der Medizinischen Fakultät der HHU vor. (Nr. 7194).


Literatur

1.
Bachmann C, Barzel A, Dunkelberg S, Schrom K, Erhardt M, van den Bussche, H. Fachübergreifendes Kommunikationstraining mit Simulationspatienten: ein Pilotprojekt ins Curriculum. GMS Z Med Ausbild. 2008;25(1):Doc58. Zugänglich unter/available from: http://www.egms.de/static/en/journals/zma/2008-25/zma000542.shtml Externer Link
2.
Frank JR. The CanMEDS 2005 physician competency framework. Better standards - better physicians - better care. Ottawa: Royal College of Physicians and Surgeons of Canada; 2005. Zugänglich unter/available from: http://www.royalcollege.ca/portal/page/portal/rc/common/documents/canmeds/resources/publications/framework_full_e.pdf Externer Link
3.
Kiessling C, Dieterich A, Fabry G, Hölzer H, Langewitz W, Mühlinghaus I, Pruskil S, Scheffer S, Schubert S. Basler Consensus Statement "Kommunikative und soziale Kompetenzen im Medizinstudium": Ein Positionspapier des GMA-Ausschusses Kommunikative und soziale Kompetenzen. GMS Z Med Ausbild. 2008;25(2):Doc83. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2008-25/zma000567.shtml Externer Link
4.
Jünger J, Lauber H, Schultz JH, Herzog W. 5 Jahre Kommunikations- und Interaktionstraining von Medizinstudenten (Medi-KIT) von der Insellösung zum longitudinalen Curriculum. GMS Z Med Ausbild. 2007;24(1):Doc68. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2007-24/zma000362.shtml Externer Link
5.
Roch K, Trubrich A, Haidinger G, Mitterauer L, Frischenschlager O. Unterricht in ärztlicher Gesprächsführung - eine vergleichende Erhebung in Deutschland, Österreich und der Schweiz. GMS Z Med Ausbild. 2010;27(3):Doc48. DOI: 10.3205/zma000685 Externer Link
6.
Langewitz W. Evaluation eines zweijährigen Curriculums in Psychosozialer und Psychosomatischer Medizin–Umgang mit Emotionen und patientenzentrierter Gesprächsführung. Psychother Psychos Med Psychol. 2010;60(11):451-456. DOI: 10.1055/s-0030-1251980 Externer Link
7.
Mortsiefer A, Rotthoff T, Schmelzer R, Immecke J, Ortmanns B, in der Schmitten, J, Altiner A, Karger A. Implementation of the interdisciplinary curriculum Teaching and Assessing Communicative Competence in the fourth academic year of medical studies (CoMeD). GMS Z Med Ausbild. 2012;29(1):Doc06. DOI: 10.3205/zma000776 Externer Link
8.
Mortsiefer A, Immecke J, Rotthoff T, Karger A, Schmelzer R, Raski B, Schmitten JL, Altiner A, Pentzek M. Summative assessment of undergraduates' communication competence in challenging doctor-patient encounters. Evaluation of the Düsseldorf CoMeD-OSCE. Pat Educ Couns. 2014;95(3):348–355. DOI: 10.1016/j.pec.2014.02.009 Externer Link
9.
Jolly BC, Macdonald MM. Education for practice: the role of practical experience in undergraduate and general clinical training. Med Educ. 1989;23(2):189–195. DOI: 10.1111/j.1365-2923.1989.tb00885.x Externer Link
10.
Evans DE, Wood DF, Roberts CM. The effect of an extended hospital induction on perceived confidence and assessed clinical skills of newly qualified pre-registration house officers. Med Educ. 2004;38(9):998–1001. DOI: 10.1111/j.1365-2929.2004.01908.x Externer Link
11.
Daelmans R, Hoogenboom A, Donker A, Scherpbier A, Stehouwer C, Van Der Vleuten, C. Effectiveness of clinical rotations as a learning environment for achieving competences. Med Teach. 2004;26(4):305–312. DOI: 10.1080/01421590410001683195 Externer Link
12.
Köhl-Hackert N, Krautter M, Andreesen S, Hoffmann K, Herzog W, Jünger J, Nikendei C. Workplace learning: an analysis of students' expectations of learning on the ward in the Department of Internal Medicine. GMS Z Med Ausbild. 2014;31(4):Doc43. DOI: 10.3205/zma000935 Externer Link
13.
Wimmers PF, Schmidt HG, Splinter TA. Influence of clerkship experiences on clinical competence. Med Educ. 2006;40(5):450–458. DOI: 10.1111/j.1365-2929.2006.02447.x Externer Link
14.
Remmen R, Denekens J, Scherpbier A, Hermann I, van der Vleuten C, van Royen P, Bossaert L. An evaluation study of the didactic quality of clerkships. Med Educ. 2000;34(6):460–464. DOI: 10.1046/j.1365-2923.2000.00570.x Externer Link
15.
Schrauth M, Weyrich P, Kraus B, Jünger J, Zipfel S, Nikendei C. Lernen am späteren Arbeitsplatz: Eine Analyse studentischer Erwartungen und Erfahrungen im Praktischen Jahr. Z Evid Fortbild Qual Gesundheitswes. 2009;103(3):169–174. DOI: 10.1016/j.zefq.2008.05.005 Externer Link
16.
Van Der Vleuten AJ, Scherpbier DH, Dolmans LW, Schuwirth GM, Verwijnen HA, Wolfhagen CP. Clerkship assessment assessed. Med Teach. 2000;22(6):592–600. DOI: 10.1080/01421590050175587 Externer Link
17.
Norcini JJ. The Mini-CEX: A Method for Assessing Clinical Skills. Ann Int Med. 2003;138(6):476. DOI: 10.7326/0003-4819-138-6-200303180-00012 Externer Link
18.
Norcini J, Burch V. AMEE Guide Workplace-based assessment as an educational tool: AMEE Guide No. 31. Med Tech. 2007;29(9):855–871. DOI: 10.1080/01421590701775453 Externer Link
19.
Langewitz W. Zur Erlernbarkeit der Arzt-Patienten-Kommunikation in der Medizinischen Ausbildung. Bundesgesundheitsbl. 2012;55(9):1176–1182. DOI: 10.1007/s00103-012-1533-0 Externer Link
20.
Kurtz SM, Silverman J, Draper J. Teaching and learning communication skills in medicine. 2nd ed. Oxford, San Francisco: Radcliffe Pub.; 2005.
21.
Gummersbach E, Abholz HH, Altiner A, Stock K, Schürer-Maly C. Online-Logbuch im Hausarztpraktikum – Bericht über die erste Nutzung in Deutschland. Z Allgemeinmed. 2010;2:73–79.
22.
Hodges B, McIlroy JH. Analytic global OSCE ratings are sensitive to level of training. Med Educ. 2003;37(11):1012–1016. DOI: 10.1046/j.1365-2923.2003.01674.x Externer Link
23.
Scheffer S. Validierung des Berlin Global Rating" (BGR) - ein Instrument zur Prüfung kommunikativer Kompetenzen Medizinstudierender im Rahmen klinisch-praktischer Prüfungen (OSCE): Dissertation. Berlin: Charité; 2009.
24.
Portney LG, Watkins MP. Foundations of clinical research. Applications to practice. New Jersey: Prentice Hall Inc.; 2000.
25.
Baig LA, Violato C, Crutcher RA. Assessing clinical communication skills in physicians: are the skills context specific or generalizable. BMC Med Educ. 2009;9:22. DOI: 10.1186/1472-6920-9-22 Externer Link
26.
Essers G, Kramer A, Andriesse B, van Weel C, Van Der Vleuten C, van Dulmen S. Context factors in general practitioner - patient encounters and their impact on assessing communication skills - an exploratory study. BMC Fam Pract. 2013;14:65. DOI: 10.1186/1471-2296-14-65 Externer Link
27.
Crooks J. The impact of classroom evaluation practices on students. Rev Educ Res. 1988;58(4):438–481. DOI: 10.3102/00346543058004438 Externer Link