gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Prüfungsformate für die Zahnmedizin: eine Übersicht

Artikel Praktische Fertigkeiten

  • corresponding author Susanne Gerhard-Szep - Goethe-Universität, Carolinum Zahnärztliches Universitäts-Institut gGmbH, Poliklinik Zahnerhaltungskunde, Frankfurt am Main, Deutschland
  • Arndt Güntsch - Marquette University School of Dentistry, Department of Surgical Sciences, Milwaukee, USA und Universitätsklinikum Jena, Zentrum für Zahn-, Mund- und Kieferheilkunde, Jena, Deutschland
  • Peter Pospiech - Universität Würzburg, Poliklinik für Zahnärztliche Prothetik, Würzburg, Deutschland
  • Andreas Söhnel - Universitätsmedizin Greifswald, Poliklinik für Zahnärztliche Prothetik, Alterszahnheilkunde und medizinischer Werkstoffkunde, Greifswald, Deutschland
  • Petra Scheutzel - Universitätsklinikum Münster, Poliklinik für Prothetische Zahnmedizin & Biomaterialien, Münster, Deutschland
  • Torsten Wassmann - Universitätsmedizin Göttingen, Poliklinik für Zahnärztliche Prothetik, Göttingen, Deutschland
  • Tugba Zahn - Goethe-Universität, Carolinum Zahnärztliches Universitäts-Institut gGmbH, Poliklinik für Zahnärztliche Prothetik, Frankfurt am Main, Deutschland

GMS J Med Educ 2016;33(4):Doc65

doi: 10.3205/zma001064, urn:nbn:de:0183-zma0010641

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2016-33/zma001064.shtml

Eingereicht: 23. Oktober 2015
Überarbeitet: 24. März 2016
Angenommen: 9. Mai 2016
Veröffentlicht: 15. August 2016

© 2016 Gerhard-Szep et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Ziele: Auf Initiative des Arbeitskreises für die Weiterentwicklung der Lehre in der Zahnmedizin (AKWLZ) wurde 2013 auf dem Deutschen Zahnärztetag in Frankfurt am Main eine interdisziplinäre Arbeitsgruppe zum Thema „Prüfungen in der Zahnmedizin“ gegründet. Diese Übersicht stellt die Zusammenfassung der aktuellen Arbeit dieser AG dar, deren Mitglieder zum Teil auch in der Arbeitsgruppe Zahnmedizin der Gesellschaft für Medizinische Ausbildung (GMA) aktiv mitwirken. Ziel der vorliegenden Übersichtsarbeit ist es, allen Interessierten, die sich mit der Planung, Durchführung und Auswertung von fakultätsinternen Prüfungen im Fach Zahnmedizin beschäftigen, den aktuellen Forschungsstand zum Thema darzustellen und zusammenzufassen.

Methoden: Basierend auf einer systematischen Literaturrecherche wurde anlehnend am sogenannten Nutzwertindex von Prüfungen eine tabellarische Darstellung der im NKLZ aufgeführten Szenarien realisiert.

Ergebnisse: Unterschiedliche Prüfungsszenarien wurden nach einer kurzen Beschreibung bezüglich ihrer Validität / Gültigkeit (V), der Reliabilität / Zuverlässigkeit (R), der Akzeptanz (A), der Kosten (C), der Durchführbarkeit (F) und des Einflusses auf Lernen und Lehren (EI) nach aktuellem Stand der Literatur tabellarisch dargestellt. Die Darstellungsform der Infoboxen wurde bewusst gewählt, um den Interessierten einen schnellen Einstieg in und Vergleich der einzelnen Prüfungsszenarien zu ermöglichen. Am Ende jeder Prüfungsbeschreibung befinden sich eine stichwortartige Sammlung der jeweiligen Anwendung in der Zahn(Medizin) und ein Fazit für die Anwendung.

Folgerungen: Die vorliegende Übersichtsarbeit beinhaltet eine Zusammenfassung zum Thema von kompetenzbasierten Prüfungsszenarien. Sie soll einen formativen Effekt auf die (zahn)medizinischen Fakultäten haben und sie darin unterstützen, die für die Zahnmedizin typischen Schwerpunkte des arbeitsplatzbasierten Lernens, Lehrens und Prüfens in der Zukunft weiterzuentwickeln.


1. Ausgangslage

Eine konzertierte Verknüpfung von Prüfungen und Lehre („constructive alignment“) ist für die Implementierung zahnmedizinischer Kompetenzen in der Ausbildung erforderlich [1].

Mit der Definition kompetenzorientierter Lernziele ist zudem verbunden, dass die entsprechenden Prüfungsformate die für eine konkrete Aufgabe erforderliche zielgerichtete Verknüpfung von Wissen, praktischen Fertigkeiten und professionellen Haltungen erfassen (siehe Abbildung 1 [Abb. 1]).


2. Methodik

Eine Literaturrecherche wurde im Zeitraum vom 17.01.2014 bis 17.12.2014 in den Literaturdatenbanken der Deutschen Nationalbibliothek (DNB), MEDLINE mit der PubMed-Oberfläche, Excerpta Medica Database (EMBASE), Education Resource Information Centre (ERIC), Cochrane Library, Science Citation Index, Google Scholar durchgeführt und durch eine Handrecherche ergänzt. Es wurden außerdem verfügbare Dissertationen, Open-Access-Publikationen der German Medical Science (GMS), der BEME (Best Evidence Medical and Health Professional Education) inklusive deutschsprachiger Tagungsberichte (conference proceedings) beispielsweise der AKWLZ und der GMA evaluiert. Die Suchwörter lauteten jeweils „MCQ“; „MEQ“; „Multiple Choice“; „MC“; „Multiple Choice Questionnaire“; „SMP“; „Strukturierte Mündliche Prüfung“; „SOE“; „Structured oral examination“; „Key feature“; „OSCE“; „OSPE“; „standardized patient“; „CEX“; „miniCEX“; „entrustable professional activities“; „DOPS“; „Portfollio“, „multisource feedback“ in der Kombination mit „AND“ und „dental“; „medicine“; „education“; „assessment“.

In einem ersten Schritt wurde die Literatur anhand des Titels und des Abstracts gemäß vorher definierter Ein- und Ausschusskriterien selektiert (Einschlusskriterien Publikationszeitraum 1966 bis 2013, Publikationssprache deutsch oder englisch, thematische Relevanz. Ausschlusskriterien: Nicht-Erfüllung der Einschlusskriterien, kein Volltext in Englisch oder Deutsch erhältlich, fehlende thematische Relevanz für die Fragestellung). Anschließend wurden die verbliebenen Publikationen hinsichtlich ihrer Relevanz für die vorliegende Thematik geprüft und gegebenenfalls ausgeschlossen.

Die Artikel wurden analysiert und die Ergebnisse anlehnend am sogenannten Nutzwertindex von Prüfungen [2] in Kategorien zusammengefasst beschrieben. Hierzu gehörten die Parameter der Validität/Gültigkeit (V), der Reliabilität/Zuverlässigkeit (R), der Akzeptanz (A), der Kosten (C), der Durchführbarkeit (F) und der Einfluss auf Lernen und Lehren (EI). Anschließend wurden die Ergebnisse in Form der oben genannten Bewertungsparameter zusammengefasst. Diese Kriterien wurden 2011 von der Arbeitsgruppe von Norcini weiterentwickelt und die Parameter „Äquivalenz“ (beispielsweise hinsichtlich Prüfungen an unterschiedlichen Standorten) und „Katalytischer Effekt“ (beispielsweise hinsichtlich Folgeeffekte bezogen auf die Fakultät) hinzugefügt [3]. In dem vorliegenden Review wurden die beiden Letztgenannten fakultativ den bereits recherchierten Ergebnissen in Textform hinzugefügt. Der Schwerpunkt der Auswertung erfolgte anhand der weiter oben genannten sechs Kriterien (V, R, A, C, F, EI) in einem tabellarischen Format, um eine effektive Übersichtlichkeit und Vergleichbarkeit zu gewährleisten.


3. Ergebnisse

Insgesamt wurden n=223 Publikationen mithilfe der oben beschriebenen Suchstrategie identifiziert und als Grundlage für die folgenden Analysen herangezogen.


4. Diskussion

Um theoretisches Faktenwissen (d.h. deskriptives Wissen der Kompetenzebene 1) zu prüfen, bieten sich die Prüfungsformate der strukturierten mündlichen Prüfung und des Multiple Choice Questionnaire an [4], [5], [6], [7]. Beim Mehrfachantwortauswahlverfahren MCQ handelt es sich um ein schriftliches Verfahren mit mehreren vorgegebenen Antwortmöglichkeiten (geschlossene Fragen), von denen eine (single choice) oder mehrere (multiple choice, multiple select) richtig sein können. Nach kurzem Fragen-Itemstamm (Einleitung/Fragestellung) folgen Antwortmöglichkeiten bestehend aus der/den richtige/n Antwort/en und Distraktoren (falsche Antwortmöglichkeiten). MC-Klausuren können sowohl rein papierbasiert, kombiniert analog-digital mit computergestützter Auswertung der ausgefüllten Bögen oder aber auch vollständig digital an Computerarbeitsplätzen durchgeführt werden [4].

Anwendung in der Human-/Zahnmedizin

  • MCQs finden aktuell in den Studiengängen der Zahn- und Humanmedizin Anwendung [6], [8].
  • die wichtigsten Abschluss- und Zwischenprüfungen (Naturwissenschaftliche Vorprüfung/NVP, Zahnärztliche Vorprüfung/ZVP, Zahnärztliche Prüfung/ZP, 1. Ärztliche Prüfung/ÄP und 2. Ärztliche Prüfung/ÄP) bestehen u.a. aus MCQ. Weiterhin sind insbesondere MCQ in allen vorklinischen und klinischen Fächern beider Studiengänge vertreten, sie stellen eines der „klassischen“, vorherrschenden Prüfungsformate dar [4], [8].

Zur Prüfung von Faktenwissen bieten MCQ ein kosteneffizientes Prüfungsformat mit hoher Reliabilität und Validität, insofern die eingesetzten Fragen den Gütekriterien entsprechen. Es ist mit MCQ möglich, objektiv viele Inhalte in kurzer Zeit zu prüfen. Das Lernen oberflächlicher Fakten jedoch kann gefördert werden.

Multiple Choice Questionnaire

Validität/Gültigkeit

  • als hoch einzustufen [9].
  • Die Gütekriterien für Fragen müssen für eine ausreichende Validität erfüllt sein [10].
  • Unterliegen die Fragen einem Reviewprozessen (z.B via Item Management System, IMS), sichert dies eine hohe Konstruktvalidität [11].

Reliabilität

  • als hoch einzustufen [9], [11].
  • Ein Cronbachs α von 0,8 ist mit mindestens 40 hochwertigen Fragen zu erreichen [6].

Akzeptanz

  • Die Auswertung ist objektiv [4].
  • MCQ werden dann als fair empfunden, wenn Gelehrtes und Geprüftes sich entsprechen [12].
  • Die Möglichkeit „taktisch“ zu kreuzen oder durch Raten bzw. Cues („Hinweise in der Aufgabe“) zu bestehen, wird von Lehrenden kritisch gesehen [13], [14], [15], [16]

Kosten

  • Gemessen an der Anzahl der Prüfungen pro Zeit, eine effektive Prüfungsform [9], [17].
  • Prüfen von breit gefächerten Inhalten in einer Prüfung [5].
  • Verhältnismäßig geringe Kosten [18].
  • Guter Kosten-Nutzen-Index .
  • Ein bereits erstellter Fragenpool kann mit verhältnismäßig geringem Aufwand aktuell gehalten werden [19].

Durchführbarkeit

  • Der Arbeitsaufwand wird in die Erstellungsphase verlagert, Durchführung und Auswertung verlangen weniger Zeit und Ressourcen.
  • Das Generieren des Fragenpools ist mit nicht unerheblichem Aufwand verbunden [4].
  • Online Prüfung mit digitaler Auswertung möglich [5].
  • Ein fakultätsübergreifender Fragenpool steigert die Effizienz durch Synergien (z.B. IMS) [20]).

Einfluss auf Lernen und Lehren

  • Kann zu oberflächlichem Lernen führen [21].
  • Theoretischer Kenntnisstand ist wichtiger, als praktische Fertigkeiten [4].
  • Die korrekten Antworten werden bereits vorgeschlagen, passives Wiedererkennen ist dadurch möglich [14].

Die strukturierten mündliche Prüfungen (SMP, Structured Oral Examinations, SOE) sind mündliche Fachprüfungen, die durch einzelne Fachprüferinnen bzw. Fachprüfer oder als Kollegialprüfung vor einer Kommission (mehrere Prüferinnen und Prüfern / Kollegium) abgelegt werden.

Strukturierte mündliche Prüfungen

Validität/Gültigkeit

  • direkt abhängig vom Grad der Strukturierung [22].
  • steigt mit Planung, Konzeption und Bedingungen der Prüfung [23], [24].
  • Validität mehr von den Anwendern (Prüfer), als von der Methode abhängig.

Reliabilität

  • steigt mit Anzahl der Fragen, der Dauer der Prüfung und sinkt mit stark differenzierender Bewertung [10].
  • Reliabilität und Objektivität steigen bei einer Kollegialprüfung = mehrere Prüfer [10], [17].
  • Absolute Überprüfung der Reliabilität praktisch nicht möglich [10].
  • Strukturierte mündliche Prüfungen liegen mit einem Cronbachs α von 0,65 – 0,88 [25], [26], [27] über konventionellen Prüfungen mit einem Cronbachs α von 0,24 – 0,50 [25], [28], [29].

Akzeptanz

  • Leistungshemmender Stress, Angst und andere Störfaktoren spielen eine, verglichen mit MCQ, größere Rolle [12].
  • die Akzeptanz von Lehrenden und Lernenden wird reduziert durch:
  • Intensive Betreuung durch Prüfer,
  • die Begründung von Noten
  • begrenzte Hinweise in begrenzter Zeit
  • Fragen, eventueller Einspruch des Prüflings ohne vorliegende schriftliche Prüfung, die Differenzierung zwischen Inhalt und Art der Antwort sind u.a. dazu geeignet [12].

Kosten

  • Kostenintensiver als MCQ [10]
  • Relativiert sich bei high-stakes Prüfungen: hier stehen Reliabilität und Validität im Vordergrund, nicht die Kosteneffizienz [30], [31].

Durchführbarkeit

  • Aufwändiger als MCQ, hohe finanzielle Belastung bedingt durch Personal- und Raumbedarf/Logistik [10].

Einfluss auf Lernen und Lehren

  • Neben reinen Fakten können auch klinische Entscheidungsfindung, professionelles Denken, Selbstvertrauen und Selbstbewusstsein bewertet werden [12], [22].
  • Da Studierende ihr Lernverhalten an die Prüfung anpassen [4], [5], [18] ist von einer umfassenderen Vorbereitung auszugehen.

Findet eine Kollegialprüfung statt, wird gemeinsam über die Bewertung der Leistung beraten und abgestimmt. Die abschließende Bewertung erfolgt idealerweise unter Anwendung eines inhaltlichen Blueprints (Erwartungshorizont) [7].

SMP sind ein Prüfungsformat, das die Abfrage auf Kompetenzniveau 1 (entsprechend NKLZ) und darüber hinaus im natürlichen Umfeld zahnärztlicher Interaktion ermöglicht. Hier sind jedoch die höhere finanzielle Belastung, bedingt durch hohen zeitlichen und personellen Aufwand, sowie die Beobachtungsmöglichkeit leistungshemmenden Stresses bei KandidatInnen zu beachten.

Anwendung in der Human-/Zahnmedizin

  • mündliche Prüfungen unterschiedlichen Strukturierungsgrads finden in den Studiengängen der Zahn- und Humanmedizin Anwendung [8].
  • die wichtigsten Abschluss- und Zwischenprüfungen (high-stakes Prüfungen) in beiden Studiengängen (NVP, ZVP, ZP, 1. ÄP und 2. ÄP) bestehen u.a. SMP unterschiedlicher Settings. Weiterhin sind SMP in allen vorklinischen und klinischen Fächern beider Studiengänge vertreten, sie stellen eines der „klassischen“, vorherrschenden Prüfungsformate dar [4], [32].

Prüfungen, die nicht nur reines Faktenwissen (= deskriptives Wissen: „knows“, [33], [34]), sondern auch die Fähigkeit, theoretisches Wissen in einem spezifischen Kontext zur Lösung eines Problems bzw. zur klinischen Entscheidungsfindung einzusetzen (= prozedurales Wissen/Handlungs- und Begründungswissen: „knows how“), erfassen sollen, erfordern ein besonderes Prüfungsformat, das diese Fähigkeit auch tatsächlich abbilden kann. Hierbei ist grundsätzlich zu beachten, dass die Fähigkeit zur Problemlösung bzw. Entscheidungsfindung sehr kontextspezifisch ist und immer auch vom jeweiligen kontextbezogenen Faktenwissen abhängt [2], [35]. Als Prüfungsformate zur Erfassung von Handlungs- und Begründungswissen kommen neben strukturierten mündlichen Prüfungen schriftliche Prüfungen im Modified-Essay-Question (MEQ)- oder Key-Feature (KF)-Format in Frage. Dabei handelt es sich um fallbasierte schriftliche Prüfungen, welche sowohl aktiv reproduzierbares Wissen als auch Problemlösungs- bzw. Entscheidungskompetenz überprüfen soll und die klinische Situation eines Entscheidungsprozesses im Zusammenhang mit Untersuchung, Diagnose und Therapie simuliert. Hierbei wird eine Patientengeschichte erarbeitet, indem auf kurze, aufeinander aufbauende Situationsbeschreibungen jeweils einige wenige (2-3) kurze Fragen folgen, die durch Freitexteingabe bzw. Auswahlmöglichkeit unter mehreren vorgegebenen Antworten beantwortet werden müssen. Vorstehende Fragen werden zum Teil durch den nachfolgenden Text erklärt, weshalb ein Vor- und Zurückblättern nicht erlaubt ist.

Anwendung in der Human-/Zahnmedizin

  • in den 70er Jahren für die allgemeinärztliche Facharztprüfung des „Royal College of General Practitioners“ in Großbritannien entwickelt [36], [37], [38], [39], [40], [41].
  • im Bereich der Humanmedizin sowohl im Studium als auch in der postgradualen Weiterbildung weltweit verbreitet [42], [43], [44], [45], [46], [47], [48], [49], [50].
  • in Deutschland im Medizinstudium neben der Anwendung als studienbegleitendes Prüfungsformat auch im Einsatz als schriftliche, das Staatsexamen ersetzende Prüfung [51], [52] innerhalb von Reformstudiengängen (u.a. Witten/Herdecke, Köln, Bochum).
  • in der Zahnmedizin bisher kaum Anwendungsbeispiele; mögliche Einsatzgebiete im Zahnmedizinstudium: Überprüfung der Problemlösungs-Kompetenz im Rahmen von POL und Selbststudium im Rahmen fallbasierten problemorientierten Lernens [53], handlungsorientiertes fallbasiertes Prüfen mit virtuellen Patientenfällen (z.B. im Zusammenhang mit dem Vorgehen bei akutem Zahnschmerz in der Endodontie) [54]

Bei Beachtung einiger Grundsätze (1. möglichst große Zahl von Fällen, 2. beim sogenannten WI-(Write-In)-Format: Qualitätskontrolle des vorgegebenen Lösungshorizontes durch mehrere BewerterInnen, 3. computerbasiertes SM (Short Menu)- oder Long-Menu-Antwortformat) stellt das MEQ-Prüfungsformat ein reliables Instrument zur Bewertung von kontextbezogenem, prozeduralem Wissen in klinischen Entscheidungssituationen dar, wobei durch die Simulation des klinischen Entscheidungsprozesses mit aufeinander aufbauenden Fragen schon während der Prüfung ein Lern- und Feedbackeffekt eintritt. Das MEQ-Format stellt somit eine sinnvolle Erweiterung der bisher in der Zahnmedizin üblichen schriftlichen Prüfungsformate dar, ist allerdings mit deutlich höherem Aufwand verbunden als die Abfrage reinen Faktenwissens mittels MCQ.

Modified Essay Questions

Validität/Gültigkeit

  • Durch fallbasiertes, kontextreiches Fragenformat höhere Validität als bei MCQ-Format [48], [55], [56]
  • Widersprüchliche Ergebnisse zur Korrelation (γ) von MEQ mit Ergebnis der Abschlussprüfung (NBME) bzw. postgradualer Performance im 1. Berufsjahr als Arzt: γ=0,3/0,03-0,26 [57], γ=0,51 [56]

Reliabilität

  • Reliabilität (Cronbachs α) =0,57-0,91 [38], abhängig von mehreren Einflussfaktoren [38], [39], [40], [47], [48], [58], [59]:
  • Qualität des vorgegebenen Lösungshorizontes
  • Antwortformat (Freitextantwort schlechter als Auswahl aus vorgegebener Liste)
  • Anzahl von Fällen und Fragen
  • Anzahl der Bewerter
  • → z.B.Steigerung von Cronbachs α von 0,7 auf 0,8 durch Erhöhung der Fragenanzahl von 7 auf 12 oder Erhöhung der Bewerterzahl von 1 auf 4 [40]

Akzeptanz

  • Studierende bewerten MEQ i.d.R. positiv [49], [51], da Fragenformat des MEQ näher an der Praxis als ein MCQ-Test [60]
  • Lehrende/Prüfende: Hoher Aufwand bei Prüfungserstellung , Schwierigkeit der Koordination [51]

Kosten

  • Erstellung und Korrektur der MEQ-Prüfung sehr zeit- und personalintensiv [36], [41], [51]
  • Aufwand bei der Bewertung kann durch computerbasiertes Testformat verringert werden [61]

Durchführbarkeit

  • Erstellung von MEQs deutlich anspruchsvoller als bei MCQs; Schwierigkeit, Fragen zu entwickeln, mit denen tatsächlich Problemlösungsfähigkeit bzw. klinische Entscheidungskompetenz erfasst und nicht nur Faktenwissen abgefragt wird [37], [41], [42], [43], [44], [45], [46], [50], [52], [53], [54], [62]

Einfluss auf Lernen und Lehren

  • MEQ-Prüfung spielt klinischen Entscheidungsprozess durch, deswegen bereits in der Prüfung Feedback- und Lerneffekt [39], [51], [60]

Bei der Key-feature-Prüfung wird vor dem Hintergrund einer spezifischen klinischen Situation ein Fall entwickelt, in dessen Kontext mehrere Fragen gestellt werden, die sich ganz gezielt nur auf solche kritischen Aktionen oder Entscheidungen (= „Key-Features“) beziehen, die zur Lösung des klinischen Problems in der dargestellten Schlüsselsituation (= „Key Feature-Problem“) entscheidend sind, bzw. häufig falsch gemacht werden [34], [63]. Die Entwicklung eines KF-Falles erfolgt in 8 definierten Schritten [34], [64], [65]:

1.
Festlegung der Domäne bzw. des Kontextes,
2.
Auswahl einer klinischen Problemsituation (Rahmenbedingung),
3.
Identifikation der kritischen Entscheidungen in dieser Situation (KFs des Problems),
4.
Auswahl und Beschreibung des klinischen Szenarios (Fallvignette),
5.
Schreiben der Fragen zu den Key-Features des Problems (1-3 Fragen pro KF),
6.
Festlegung des Antwortformates (Freitext = Write-In, Auswahl = Short Menu oder Long Menu),
7.
Erstellung des Bewertungsschlüssels und
8.
Inhaltsvalidierung.

Anwendung in der Human-/Zahnmedizin

  • KF-Prüfungsformat von Bordage und Page als Ersatz für bis dahin übliche schriftliche Überprüfung prozeduralen Wissens mittels Patienten-Management-Problems (PMP) für den Einsatz in Facharztprüfung entwickelt [64], [65].
  • durch Hatala & Norman [66] Transfer in die studentische Ausbildung, seitdem im Bereich der Humanmedizin als schriftliches Prüfungsformat zur Bewertung von kontextbezogenem prozeduralem Wissen sowohl im Studium als auch in der postgradualen Weiterbildung weltweit verbreitet [67], [68].
  • auch im deutschsprachigen Raum anerkanntes Prüfungsformat im Bereich der Humanmedizin (siehe u.a. ausführliche Anleitungen der Medizinischen Universitäten Bern & Graz zur Planung und Durchführung von Prüfungen [34], [60], [69].
  • Studien und Erfahrungsberichte zum Einsatz des KF-Formates bei schriftlicher Leistungsüberprüfung im Medizinstudium in Deutschland u.a. für die Bereiche: Innere Medizin (Uni Freiburg/ Heidelberg/München [70], Uni Heidelberg/Tübingen [71], Hämatologie & Onkologie (Uni Düsseldorf [72], Kommunikationstraining (Uni Witten-Herdecke [73]).
  • im Bereich Tiermedizin umfangreiches Pilotprojekt an der TiHo Hannover [74].
  • nur vereinzelte Hinweise auf Einsatz von KF-Problemen als schriftliches Prüfungsformat im Rahmen des Zahnmedizinstudiums [75], [76].

Key-Feature-Prüfungen sind ein valides und reliables Instrument zur Bewertung von kontextbezogenem prozeduralem Wissen in Zusammenhang mit der Lösung eines klinischen Problems und stellen eine sinnvolle Erweiterung der bisher in der Zahnmedizin üblichen schriftlichen Prüfungsformate dar. KFs können darüber hinaus auch zum Selbststudium mit virtuellen Patientenfällen eingesetzt werden. Aus Praktikabilitätsgründen ist die computerbasierte Form im Long-Menu-Antwortformat der papierbasierten Prüfungsform vorzuziehen. Hiermit ist außerdem das Unterbinden des Vor- und Zurückblätterns leichter zu realisieren. Zur Steigerung der Reliabilität sind viele kurze KF-Fälle (mindestens 15) mit maximal 3 Fragen besser als wenige umfangreiche Fälle mit 4 oder mehr Fragen.

Key-Feature-Prüfung

Validität/Gültigkeit

  • Hohe Inhaltsvalidität (92-94%) bei Beurteilung durch Lehrende / Prüfende [63], [65], [67].
  • Voraussetzung für hohe Inhaltsvalidität ist Pilottestung & regelmäßiges Review der KF’s durch Studierende, Lehrende/Prüfer [34], [63], [65].
  • Bei geplantem LM-Antwortformat empfiehlt sich für Pilotphase das WI-Format, um Qualität des LMs zu verbessern (Ergänzen fehlender Antworten & Distraktoren) [34]
  • Korrelation von KF-Testergebnissen und anderen Prüfungsergebnissen (z.B. MCQ) nur mittelmäßig (ᴦ=0,35-0,54, [66], [70]), was durch den Bezug auf unterschiedliche Kompetenzebenen erklärt werden kann.

Reliabilität

  • Reliabilität des KF-Formates höher als beim PMP-Format [65]
  • Wegen hoher Fallspezifität [48] ist Reliabilität unmittelbar von Anzahl der KF-Probleme (=Fälle) abhängig → Anzahl der KF-Probleme (=Fälle) sollte möglichst hoch, Anzahl der Fragen zu Einzelfall sollte 3 Items nicht überschreiten, da ab 4 Items Reliabilität abnimmt [77].
  • Bei gleicher Anzahl von KF-Fällen scheint auch gewähltes Antwortformat Einfluss auf Reliabilität zu haben:
  • 15 KF-Probleme mit 1 – 4 Fragen, 2h Dauer, WI-Format: Cronbachs α=0,49 [66]
  • 15 KF-Probleme mit 3 – 5 Fragen, 1,5h Dauer, computerbasiertes LM-Format: Cronbachs α=0,65 [70] → mit 25 KF’s ist α=0,75 erreichbar!

Akzeptanz

  • Studierende: relativ hohe Akzeptanz [74], [78]: Bewertung als realitätsnah und die praktische Ausbildung unterstützend.

Kosten

  • Erstellung und Validierung der KF-Prüfung zeit- und personalintensiv [67]

Durchführbarkeit

  • Erstellung von KFs schwieriger und zeitintensiver als MCQs [60], [69].
  • Benötigte Prüfungszeit abhängig vom gewählten Antwortformat: LM >WI >SM >MC [79]
  • Durch computerbasierte Umsetzung können Vorteile des LM-Antwortformates (geringerer Cueing-Effekt als MCQ/ SM, höhere Interrater-Reliabilität als WI) bei überschaubarer Prüfungszeit genutzt werden [70], [72], [79].
  • Prüfungszeit für 15 KF-Probleme mit 3 - 5 Fragen beträgt bei computerbasiertem Test 90 Min. [70] und bei papierbasiertem Test mit WI-Antwortformat 120 Min. [66].
  • Anwendungsbeispiele [68], [71], [75], [76], [80]

Einfluss auf Lernen und Lehren

  • KF-Prüfungsformat ist näher an realer Patientensituation, fördert das Lernen klinisch relevanter Sachverhalte und das handlungsorientierte fallbasierte Lernen [81]

Während der zahnmedizinischen Ausbildungen wird nicht nur theoretisches Wissen auf hohem Niveau vermittelt, sondern Studierende müssen auch manuelle Fertigkeiten entwickeln. Es bedarf daher geeigneter Prüfungsformate, die nicht nur Fakten- und Handlungswissen erfassen, sondern bei denen Studierende ihre praktische Kompetenzen zeigen können („shows how“, [33]) und diese objektiv bewertet werden. Das reine „Wissen wie etwas geht“, wird hier auf die Stufe „zeigen wie etwas geht“ gehoben.

Bei der Erstellung solcher Prüfungen sollte im Vorfeld eine Selektion der Lernziele erfolgen und nur diese ausgewählt werden, die eine praktische Kompetenzebene aufweisen. Eine Standardisierung seitens Prüfer und Prüfung erlaubt eine objektive Beurteilung der gezeigten Leistungen der Studierenden. Als Prüfungsformate bieten sich hierbei Objective Structured Clinical Examinations (OSCE), Objective Structured Practical Examinations (OSPE) und der Einsatz von Simulations- bzw. standardisierten Patienten (SP) an.

Zur Überprüfung praktischer Fertigkeiten und kommunikativer Kompetenzen eignet sich eine OSCE [14]. Die Studierenden durchlaufen verschiedene Stationen, bei denen jeweils praktische Tätigkeiten (auch Teilabschnitte einer Behandlung) oder Patientengespräche durchgeführt werden. Die Beurteilung erfolgt mithilfe einer Checkliste, die von einem Expertengremium nach Wichtung der Prüfungsinhalte erstellt wurde. Die reine Prüfungszeit pro Station beträgt ca. 5 Minuten, zum Stationswechsel (Prüfling) und zur Nachbereitung und/oder Feedback (Prüfer) sollten ca. 2 Minuten eingeplant werden.

Anwendung in der Human-/Zahnmedizin

  • in der Medizin seit Einführung der OSCE weltweit in allen klinischen Fächern verbreitet.
  • sowohl in der Graduierten- als auch Postgraduiertenausbildung einsetzbar [82], [83], [84], [85].
  • in der Zahnmedizin finden sich in vielen Disziplinen Anwendungsbeispiele: Vorklinik [86], [87], [88], Kieferorthopädie [89], [90], Mund-Kiefer-Gesichtschirurgie [91], [92], [93], Zahnerhaltungskunde [87], [94], [95], [96], Parodontologie [97], klinische Prothetik [86], Kinderzahnheilkunde [98], Radiologie [99], Mikrobiologie [94], [97].
  • interdisziplinäre OSCE [87], [94], [100], [101].
  • Integration einer OSCE in das zahnmedizinische Physikum [102][.
  • zur Evaluierung von kommunikativen Fertigkeiten [103], [104], Problemlösungsfähigkeit, kritischem Denken [105] auch in der Zahnmedizin angewandt.
  • Sollte nach Möglichkeit in Zusammenhang mit Feedback durchgeführt werden.

Zur Überprüfung praktischer Einzelkompetenzen steht mit der OSCE eine reliable und valide Prüfungsmethode zur Verfügung, die sich bei Studierenden und Lehrenden einer hohe Akzeptanz erfreut.

Objective Structured Clinical Examination

Validität/Gültigkeit

  • Prädiktive Validität
  • signifikante Korrelation zwischen OSCE und Abschneiden bei praktischen Tests sowie praktischen Physikumsergebnissen p<0,01 [87]
  • keine Korrelation zwischen OSCE und MCQ [105]
  • Hohe Inhalts- und Konstruktvalidität [4], [106]
  • hohe Augenscheinvalidität [107]
  • akzeptable Vorhersagevalidität [108]
  • Cave bei Sprachproblemen der Studierenden und hohem Stresslevel [109][
  • Blueprinting beachten [106], [110]
  • Festlegung der Problemfelder am Anfang beachten [110]
  • Definition von Aufgaben innerhalb der Problemfelder [110]

Reliabilität

  • Cronbachs α zwischen 0,11–0,97 [4]
  • Hohe Reliabilität innerhalb der OSCEs, bei weniger als n=10 Stationen ca. 0,56, bei mehr als n=10 Stationen 0,74 [111]
  • Unterschiedliche Empfehlungen zu Stationenanzahl:
  • mindestens 19 [4]
  • 14-18 für jeweils 5-10 Minuten [106], [112]
  • Stationen mit SP mindestens 15 Minuten lang prüfen [110]
  • Je mehr Prüfer desto höhere Werte
  • [111], [113] Bewertungsmodus ausschlaggebend: Hohe Werte bei globalen Bewertungen, auch Kombi aus globalen Bewertungen und Checkliste gut, nur Checkliste am wenigsten geeignet),
  • Post-OSCE-Tests erhöhen die Reliabiltät [110]

Akzeptanz

  • Studierende: hohe Akzeptanz, geeignete Prüfungsform für operative Fertigkeiten [96]
  • Lehrende / Prüfende: Hohe Akzeptanz [112], [114], [115], [116]

Kosten

Durchführbarkeit

  • Zeitintensive und ressourcenintensive Prüfungsform [106], [119]
  • Gute Vorplanung nötig:
  • gemeinsame Strukturen aufbauen hilft bei interdisziplinären OSCEs [100]
  • Evaluation durch externe Prüfer empfohlen
  • Qualität von SPs sicherstellen
  • Stationsinhalt sollte passend zum OSCE-Szenario gewählt werden
  • Peer-review prä- und post OSCE (Psychometrische Analyse mit Schwierigkeit, Trennschärfe etc. empfohlen)
  • Erfahrung des Prüfers, Fachrichtung, Geschlecht und Ermüdung der Prüfer zu beachten [4], [106], [112]
  • Anwendungsbeispiele [95], [102]

Einfluss auf Lernen und Lehren

  • Positiver Einfluss aufs Lernen [106], [108], [123]
  • stimuliert das Lernen [112]
  • Stationslernen hat wenig mit Realität am Patienten zu tun [112]
  • Feedback einplanen [110]

Aufgrund der zeit- und ressourcenintensiven Vorbereitung und Durchführung, empfiehlt sich eine fächerübergreifende Zusammenarbeit, um diese Nachteile zu minimieren. OSCEs können bisherige Prüfungsformen substituieren oder sinnvoll ergänzen. Eine ausreichende Anzahl der Stationen (n>10), ein Blueprinting, ein Peer-review der Stationsinhalte und des Bewertungskataloges sowie eine Balancierung der Bewertungsmodi (global, Checkliste, Kombination), die Schulung der Prüfer und ggf. die Durchführung eines Pilot-OSCE sollten bei der Erstellung einer OSCE berücksichtigt werden. Eine Spezialform der OSCE stellen sogenannte „objektive strukturierte praktische Prüfungen“ (auch OSPE genannt) dar, bei denen praktische Fertigkeiten, Wissen und/oder Interpretation von Daten in nicht-klinischer Situation erfolgt [124]. Diese können in Laboren oder an den Simulationsplätzen im SimLab durchgeführt werden. Im Unterschied zum OSCE können im Rahmen einer OSPE ganze Arbeitsprozesse bis hin zu einem „Endprodukt“ (bspw. Füllung) geprüft werden.

Mit dem OSPE kann man praktische Fertigkeiten und/oder die Interpretation klinischer Daten sicher überprüfen. Es handelt sich dabei um eine reliable und valide Prüfungsmethode zur Überprüfung praktischer Einzelkompetenzen, die sich bei Studierenden und Lehrenden einer hohen Akzeptanz erfreut.

Objective Structured Practical Examination

Validität/Gültigkeit

  • Hohe Validität γ>7
  • hohe Konstruktvalidität

Reliabilität

  • Hohe Reliabilität innerhalb der Stationen Cronbachs α 0,8 [125]
  • Interrater Reliabilität ICC>0,7
  • hohe Interrater Reliabilität bei gleichem Erfahrungs- und Wissenstand der Prüfer γ=0,79 bis 0,93; p<0,001

Akzeptanz

  • Studierende: Hohe Akzeptanz [126], [127]
  • wird als „faire Prüfung“ empfunden [128]
  • wird traditionellen Prüfungsformen vorgezogen [126]
  • Lehrende: relevante, faire, objektive und reliable Prüfungsform

Kosten

  • keine Angaben

Durchführbarkeit

  • erfordert intensive Planung und Teamarbeit [128]

Einfluss auf Lernen und Lehren

  • individuelle Kompetenzen können überprüft werden, Fakten- und Handlungswissen praktisch demonstrieren zu müssen beeinflusst das Lernverhalten [128]
  • zeigt Stärken und Schwächen praktischer Fertigkeiten auf [129]
  • Lernstimulus [129]
  • positive Lernerfahrung [130]

Ein definierter Bewertungskatalog zu den Einzelschritten innerhalb des Arbeitsprozesses ist notwendig.

Anwendung in der Human-/Zahnmedizin

  • OSPE’s werden in Medizin, bspw. Pharmakologie [128], Physiologie , Forensische Medizin [130] und Zahnmedizin [131], [132] weltweit durchgeführt.
  • In Deutschland primär in der präklinischen zahnmedizinischen Ausbildung eingesetzt [133].

Simulationspatienten sind für die zahnmedizinische Ausbildung gezielt geschulte (Laien-) Schauspieler, die Krankheitsbilder oder typische Gesprächsanlässe des zahn-/medizinischen Alltags (auch standardisiert) darstellen können. Einsatzgebiete reichen von der Übung oder Prüfung beispielsweise von Arzt-Patienten-Gesprächen, Untersuchungstechniken, bis hin zum Training der körperlichen Untersuchung, zum Erlernen kommunikativer Kompetenzen beispielsweise auch im Rahmen von Prüfungen (häufig im OSCE-Szenario).

Simulationspatienten können zur Prüfung von Zahnarzt-Patienten-Gesprächen und von Untersuchungstechniken eingesetzt werden. Zur Evaluation klinischer und kommunikativer Kompetenzen vor allem im Rahmen des OSCEs sind sie besonders geeignet. Dabei sollte die Komplexität des Falles auf das Prüfungsszenario abgestimmt sein.

Simulationspatienten

Validität/Gültigkeit

  • Zur Evaluation klinischer Kompetenzen [134]

Reliabilität

  • Konsistente Prüfung
  • (keine signifikanten Unterschiede zwischen Prüfungsgruppen und -zeitpunkten) [135]

Akzeptanz

  • Einsatz von Simulationspatienten im Rahmen einer OSCE –Station [136]

Kosten

  • 10-18 €/Prüfling [136]

Durchführbarkeit

  • Komplexität der Fälle kann kontrolliert und dem Ausbildungsstand angepasst werden [137]
  • Fakultätsmitglieder können relevante Lernziele bestimmen und das Rollendesign darauf abstimmen
  • hoher Zeit- und Personalaufwand für SP-Selektion, Ausbildung und Monitoring für Qualitätsmanagment [137]
  • Checkliste, in die alle Beobachtungen des Arzt-Patienten-Gesprächs vom SP eingetragen werden [138]
  • Anwendungsbeispiele [139]

Einfluss auf Lernen und Lehren

  • Steigerung der klinischen Fertigkeiten der Studierenden [140]

Anwendung in der Human-/Zahnmedizin

  • Bereits seit den 1960er Jahren eingesetzte Methode in der klinischen Ausbildung [138].
  • Patientenkontakt unter standardisierten Bedingungen simulierbar [139].
  • SP können neben ihrer Rolle als Patient auch Feedback geben oder die Kompetenzen des Prüflings einschätzen [139].

Unter dem Oberbegriff Arbeitsplatzbasiertes Prüfen (AbA = Arbeitsplatzbasiertes Assessment) werden unterschiedlichste Prüfungsszenarien zu praktischen Kompetenzen am Patienten in komplexen Situationen zusammengefasst.

Beim Clinical Evaluation Exercise (CEX) handelt es sich um eine arbeitsplatzbasierte Prüfung im klinischen Behandlungsumfeld, die sich über einen längeren Zeitraum erstreckt (mehrere Stunden bis Tage) und Behandlungsabläufe, bei welchen in der Regel ein einziger Patient unter Praxisbedingungen zum Beispiel hinsichtlich Anamneseerhebung und Untersuchung bewertet wird. Zum Einsatz kommen maximal zwei Prüfer, die in der Regel nicht die gesamte Zeit am Patienten vor Ort anwesend sind. Häufig werden die vom Prüfling ermittelten Daten mit dem Patienten somit ohne die Anwesenheit des Prüfers erhoben. Diese Prüfungsform wird auch tCEX (traditional CEX) genannt und stellt eine sogenannte single event measure dar.

Anwendung in der Human-/Zahnmedizin

  • in 60er Jahren ursprünglich von der ABIM (American Board of Internal Medicine) für Internisten entwickelt und löste im Jahr 1972 die mündliche Prüfung als Standardmethode ab [141], [142].
  • seit ca. 1995 durch Mini-CEX ersetzt [143], [144].
  • in der Zahnmedizin bisher keine dokumentierten Anwendungsbeispiele in der Fachliteratur.

Es handelt sich somit um ein gering valides und gering reliables Instrument zur Bewertung der praktischen Kompetenz in komplexen Situationen. Optimierungsmöglichkeiten bestehen darin, dass 1. eine möglichst große Anzahl von Patienten (Fällen), 2. eine möglichst große Anzahl von Prüfern und 3. möglichst strukturierte Evaluationsinstrumente zum Einsatz kommen. Zudem sollte bei dieser Prüfungsform ein Feedback obligat erfolgen. Insgesamt kann man festhalten, dass das CEX-Format nur unter Nutzung der möglichen Optimierungsvarianten ein sinnvolles Prüfungsformat für die Abbildung von praktischen Kompetenzen in komplexen Situationen in der zahnmedizinischen Ausbildung darstellt.

Clinical Evaluation Exercise

Validität/Gültigkeit

  • unzureichende Inhaltsvalidität, deckt Lernziele im Curriculum unvollständig ab [145]
  • künstliche Situation, entspricht nicht der Realität unter Praxisbedingungen, da zu lange und ausführlich [144]

Reliabilität

  • fragliche Zuverlässigkeit, da infolge des hohen Zeitbedarfs in der Regel nur wenige CEX durchgeführt werden können [146]
  • geringe Interrater-Reliabiltät [147]
  • Cronbachs α bei einem Fall 0.24 und auch bei zwei Fällen lediglich 0,39 [141]

Akzeptanz

  • Geringe Akzeptanz, da stark abhängig vom Prüfer [148]

Kosten

  • Günstiger als OSCE, weil echte Patienten, die nicht extra geschult werden müssen [145]

Durchführbarkeit

  • Relativ einfach, da keine besondere Vorbereitung nötig [141]
  • Anwendungsbeispiele [142], [143]

Einfluss auf Lernen und Lehren

  • Patientenbasierte, reale Situation [141]

Beim Mini-Clinical Evaluation Exercise (mCEX) handelt es sich um eine patientenbasierte Prüfungsform im klinischen Behandlungsumfeld, die sich, im Unterschied zum CEX-Prüfungsformat über einen kurzen Zeitraum erstreckt und stets Feedback beinhaltet (ca. 15 Minuten Prüfung + ca. 10 Minuten Feedback). Man kann diese Prüfungsform als dreistufig beschreiben, indem 1. beobachtet, 2. das Ergebnis festgehalten und 3. Feedback erteilt wird. Dabei wird die Prüfung von mehreren Prüfern beobachtet und nach strukturierten Vorgaben bewertet, wobei die inkludierten Behandlungsabläufe an mehreren Patienten unter Praxisbedingungen mit Schwerpunkt Kommunikation und klinische Untersuchung durchgeführt werden [144]. Die Bewertung erfolgt prinzipiell anhand zuvor festgelegter Kriterien und gilt für jeden Prüfling. Diese Kriterien können eine Ratingskala beinhalten und / oder durch Freitextkommentare definiert werden. Die Schwierigkeit bleibt bezüglich unterschiedlicher zu untersuchenden Patienten. Aus Sicht der Prüfungspyramide nach Miller steht man jedoch auf einer hohen Anwendungsebene. Es handelt sich streng genommen um eine strukturierte klinische Beobachtung.

Mini-Clinical Evaluation Exercise

Validität/Gültigkeit

  • Höhere Validität als CEX [149]
  • akzeptable Validität und Reliabilität nachgewiesen [146], [150]
  • ist in der Lage, unterschiedliche Kompetenzebenen (1. Jahr, 2. Jahr etc.) valide zu unterscheiden [151]

Reliabilität

  • geringe Interrater-Reliabilität [149]
  • mindestens 10 Evaluationen sind nötig, um verlässliche Ergebnisse zu erhalten; eine größere Anzahl ist besser [151]
  • es werden mindestens 12-14 Bewertungen pro Jahr empfohlen bei unterschiedlichen Bewertern um die Interrater-Reliabilität zu steigern [152]
  • Reliabilität von G=0,4 bei 10 Bewertungen, G=0,8 bei 50 Bewertungen [151]
  • Abhängig von Prüferanzahl: Bei einem Prüfer mindestens 8 Beobachtungen an unterschiedlichen Patienten, bei 2 Prüfern 4, bei 3 Prüfern 3 Beobachtungen nötig, um eine Reliabilität von 0,8 zu erlangen [153]
  • Neun Items besser als 5 Items um Unterschiede in Kompetenzen abzubilden [154]

Akzeptanz

  • Hohe Zufriedenheit sowohl seitens der Lehrenden als auch der Lernenden [151], [155], [156]
  • Durchführung z.T. erst zögerlich, da Neuerung [156]
  • Zum Teil problematisch wegen Diskrepanz zwischen Selbst- und Fremdeinschätzung [157]

Kosten

  • Entstehung erheblicher Kosten infolge des hohen Zeitbedarfs [158], [159]

Durchführbarkeit

  • Beobachtung von realen Arzt-Patienten-Interaktionen durch verschiedene Weiterbildner in unterschiedlichen Situationen; Feedback zu verschiedenen Krankheitsbildern an unterschiedlichen Orten mit unterschiedlichem Fokus [155]
  • Gute Planung nötig, denn Feedback dauert 8-17 Minuten [155], [160]
  • Relativ einfache Implementierung mit genügender Flexibilität in dentaler Umgebung [161]
  • Anwendungsbeispiele [162]

Einfluss auf Lernen und Lehren

  • Kompetenzsteigerung durch regelmäßiges Feedback durch Experten [163]
  • Prüfer/Prüfling erhält Feedback bzw. ein konkretes Bild der klinischen Arbeit. Somit gezielte Förderung möglich [156]
  • Erteilen eines konstruktiven Feedbacks muss erlernt und geübt werden, pädagogische Fähigkeiten sind nötig [164]
  • Keine neuen Erkenntnisse gegenüber traditionellen Bewertungsverfahren [158]
  • Kein Einfluss im Vergleich zur Kontrollgruppe [153]
  • Verknüpfung zwischen der Definition von Lernzielen und den identifizierten Lerninhalten erforderlich [165]
  • Prädiktive Validität zwischen OSCE und mCEX nicht nachweisbar [165]

Diese Prüfungsform wird auch häufig mCEX (mini CEX) genannt und stellt eine sogenannte single event measure dar.

Anwendung in der Human-/Zahnmedizin

  • 1995 entwickelt von Norcini [144], löste in 90er Jahren tCEX ab.
  • Reliabilität stark abhängig von Prüfer- und Fallanzahl [151], [153].
  • in der Zahnmedizin mehrere dokumentierte Anwendungsbeispiele in der Fachliteratur (Dental Foundation Training in Großbritannien), jedoch häufig ohne genauen Angaben hinsichtlich der Evaluationsinstrumente [161], [162].

Beim mCEX handelt es sich um ein valides und reliables Instrument zur Bewertung der praktischen Kompetenz in komplexen Situationen. Optimierungsmöglichkeiten bestehen 1. in der Erhöhung der Anzahl der Antwortitems (9 besser als 5) bzw. der Anzahl der Beobachtungen (mindestens 10 Beobachtungen sinnvoll) und 2. im Angebot von Train-the-Teacher-Veranstaltungen (beispielsweise in Form von Videodemonstrationen und Rollenspielen). Es wird eine longitudinale Anwendung empfohlen, wobei die Implementierung in diversen Settings (auch in High-Stakes-Examina) vorstellbar ist. Das mCEX-Format stellt ein sinnvolles Prüfungsformat für die Abbildung von praktischen Kompetenzen in komplexen Situationen im zahnärztlichen Ausbildungsszenario dar.

Anvertraubare professionelle Tätigkeiten (Entrustable Professional Activities) schließen die Lücke zwischen der Theorie eines kompetenzbasierten Trainings und einer patientenzentrierten Umsetzung im klinischen Kontext [166]. Bekannt wurde dieses Szenario anfangs aus dem Bereich der ärztlichen Weiterbildung (postgraduate), seit 2013 auch für die medizinische undergraduate-Ausbildung [167], [168]. Bewertet wird die Integration verschiedener Wissens- und Fertigkeitsinhalte für die Lösung komplexer Aufgaben (z.B. Anamneseerhebung, klinische Untersuchung am Patienten im Zusammenhang mit unterschiedlichen Konsultationsanlässen) unter Einbeziehung existierender kompetenzbasierter Rollen, wie von CanMeds bzw. ACGME vorgegeben. Bei der Überprüfung wird eingestuft, ob der Geprüfte diese Tätigkeit unter Anleitung, Supervision, gelegentlicher Hilfestellung oder eigenständig durchführen kann [169], [170]. Damit können unterschiedliche Leistungsniveaustufen abgebildet werden [171]. Es werden keine einzelnen Lernziele, sondern eine vollständige Aktivität am Patienten geprüft [172]. Um EPAs von allgemeinen Lernzielen unterscheiden zu können, wird vorgeschlagen, den Satz in modifizierter Form: „Morgen wird es dem (Zahn)Arzt erlaubt sein, zu...“ zu vervollständigen [166]. Definitionsgemäß soll eine EPA Aktivitäten beinhalten, die in der täglichen Praxis wichtig, in der Ausführung stark fehlerbelastet sind und mehrere Kompetenzen integrieren [172], [173]. Somit besteht eine EPA aus diversen Rollen, jede Rolle aus mehreren Lernzielen und jedes Lernziel aus unterschiedlichen Leistungsniveaustufen. Die Überprüfung kann wahlweise eine direkte oder indirekte Beobachtung und Feedback beinhalten. Dabei ist es entscheidend, dass man die beobachteten Leistungen des Prüflings mit den tatsächlichen Leistungsbewertungen über einen bestimmten Zeitraum kombiniert.

Entrustable Professional Activities

Validität/Gültigkeit

  • Hohe „face-validity“ [174]

Reliabilität

  • Niedrige Interrater-Reliabilität [175]

Akzeptanz

  • Potential für breite Akzeptanz [166]
  • Hilft den Lernenden, einen eigenen Lernplan zu entwickeln [176]
  • Hilft der gesamten Fakultät, eine Transparenz in der Ausbildung zu gewähren [176]

Kosten

  • keine Angaben

Durchführbarkeit

  • erfordert initial eine intensive, durchdachte Vorbereitung, bei der die EPA erstellt werden [177]
  • es werden 20-30 EPAs für ein ganzes Ausbildungsprogramm empfohlen [177]
  • Anwendungsbeispiele [178], [179]

Einfluss auf Lernen und Lehren

  • EPAs verlangen zahlreiche Kompetenzen in einer integrativen, holistischen Art und Weise [177]
  • Methode der Bewertung, die ihren Schwerpunkt auf den benötigten Grad der Supervision legt [180]
  • Feedback ist ausschlaggebend [174]
  • Benötigt Unterstützung seitens der Fakultät [175]
  • Ermöglicht eine breite (panoramaweite) Sicht auf die Ausbildung [174]

Eine häufig beschriebene Kombination ist hierbei die von mCEX und MSF (Multi-Source-Feedback). Es handelt sich streng genommen um eine sogenannte multiple event measure.

Anwendung in der Human-/Zahnmedizin

  • 2005 von ten Cate in den Niederlanden eingeführt, seither beschrieben in der Chirurgie, Familienmedizin, Inneren Medizin, Neurologie, Notfallmedizin, Pädiatrie, Urologie und in breiter Anwendung des „Royal Australian and New Zealand College of Psychiatrists“ [178], [179].
  • in Deutschland im Medizinstudium erst in der Pilotphase [166].
  • in der Zahnmedizin keine dokumentierten Anwendungsbeispiele.

Beim EPA handelt es sich um ein relativ neues, bisher wenig erforschtes Instrument zur Bewertung der praktischen Kompetenz in komplexen Situationen. Die Implementierung von EPAs erfordert initial eine intensiv durchdachte Vorbereitung bei der Festlegung der Schwerpunkte. Nach Möglichkeit sollten für einen Ausbildungsabschnitt maximal 30 EPAs interdisziplinär unter Einbeziehung von universitären und in Praxen niedergelassenen Meinungsbildnern definiert werden. EPAs verschaffen eine realistische Verknüpfung von kompetenzorientierten Lernzielen zu übergeordneten Aktivitäten. Train-the-Teacher-Veranstaltungen (mit Übungen zu Feedback) sollen die Implementierung optimieren. Eine longitudinale Anwendung wird empfohlen. Die Implementierung ist in diversen Settings (auch in High-Stakes-Examina) vorstellbar. Das EPA-Format stellt zusammenfassend eine innovative Herangehensweise für die Abbildung von praktischen Kompetenzen in komplexen Situationen im zahnärztlichen Ausbildungsszenario mit viel Zukunftspotential dar.

Beim Directly Observed Procedural Skills (DOPS) handelt es sich um eine arbeitsplatzbasierte Prüfung im klinischen Behandlungsumfeld, die sich über einen kurzen Zeitraum erstreckt und Feedback beinhaltet (ca. 15 Minuten Prüfung und ca. 10 Minuten Feedback) ähnlich dem mCEX. Auch hier handelt es sich um eine dreistufige Prüfungsform, indem 1. beobachtet, 2. das Ergebnis festgehalten und 3. Feedback erteilt wird. Hierbei werden die Behandlungsabläufe an (mehreren) Patienten unter Praxisbedingungen wie bei der mCEX, aber mit den Schwerpunkten der manuell-technische Fertigkeiten bzw. Interventionen von mehreren Prüfern beobachtet und nach strukturierten Vorgaben bewertet. Diese Prüfungsform stellt eine ebenfalls sogenannte single event measure dar.

Anwendung in der Human-/Zahnmedizin

  • ursprünglich eingeführt im Vereinigten Königreich vom General Medical Council 2002 [144].
  • beschrieben in der Allgemeinen Medizin, Chirurgie und Innere Medizin [181].
  • in der Zahnmedizin international beschrieben in Iran (Shiraz und Mashad Universität) und im Kings College in London/GB [182], [183].

Beim DOPS handelt es sich um ein valides und reliables Instrument zur Bewertung der praktischen Kompetenz in komplexen Situationen. Optimierungsmöglichkeiten bestehen darin, dass 1. drei Prüfer während zwei Beobachtungen intervenieren, dass 2. mindestens zwei Beobachtungen durchgeführt werden und dass 3. Train-the-Teacher-Veranstaltungen durchgeführt werden. Es wird insgesamt eine longitudinale Anwendung empfohlen. Die Implementierung ist in diversen Settings (auch in High-Stakes-Examina) vorstellbar. Das DOPS-Format stellt zusammenfassend ein sinnvolles Prüfungsformat für die Abbildung von praktischen Kompetenzen in komplexen Situationen im zahnärztlichen Ausbildungsszenario dar.

Directly Observed Procedural Skills

Validität/Gültigkeit

  • Hohe „face-validity“ [181]
  • Formatives assessment tool [182]
  • Signifikante Unterschiede zu MCQ; liefert unterschiedliche Einschätzungen studentischer Leistungen [182]
  • Einzelnes Assessment tool, kann nicht eine umfassende Bewertung ermöglichen, es wird ein System mit verschiedenen Möglichkeiten benötigt [184]
  • DOPS evaluiert die praktischen Fähigkeiten effizient [182]

Reliabilität

  • Um eine hohe Reliabilität zu erlangen, sollten mindestens drei Prüfer einen Prüfling beobachten während zwei unterschiedlicher Fallszenarien [181]
  • G=0,81 [185]
  • Interne Konsistenz=0,94 und Interrater Reliabilität=0,81
  • in der Einschätzung der Studenten nicht gut geeignet, die inter-rater reliability zu verbessern [186]
  • große Unterschiede zwischen den Prüfern können die Aussagekraft der Ergebnisse beeinflussen, solange nicht eine strenge Standardisierung vorgenommen wurde [187]
  • gute Reliabilität und Übereinstimmung zwischen Prüfern möglich [188]
  • es werden weniger Prüfungen benötigt verglichen mit Mini-CEX [160]
  • Es werden weniger Prüfer und Fälle benötigt als im Mini-CEX [181]
  • Höhere Item-correlation-Werte als bei Mini-CEX=0.7-0.8 versus 0.5-0.8 [150], [189]
  • Reliabilität abhängig vom Fall [181]
  • Reliabilität unabhängig vom Prozess [160]

Akzeptanz

  • hohe Akzeptanz bei Studierenden [186]
  • Prüflinge empfinden das Szenario als sehr stressig, freuen sich aber über das erteilte Feedback [190]

Kosten

Durchführbarkeit

  • hoher Zeitbedarf [160], [182]
  • hoher Zeitbedarf für die Vorbereitung der DOPS inkl. Feedbackgabe [160]
  • zur Steigerung des Lerneffekts ist es nötig, unmittelbar nach Durchführung Feedback zu geben und klar Stärken und Schwächen anzusprechen [192]
  • Prüfer müssen im Vorfeld geschult werden [12]
  • Durchführbarkeit gegeben, wenn nur ein Prüfer eingesetzt wird [193]

Einfluss auf Lernen und Lehren

  • in der Wahrnehmung der Prüflinge ein positiver Einfluss auf Unabhängigkeit und Lernprozess [186]
  • DOPS Assessment verbessert die klinischen praktischen Fähigkeiten [192]
  • Positiver Effekt durch die direkte Beobachtung der lernenden Person [192]
  • fördert einen tief gehenden Ansatz für Lernen im klinischen Kontext [21]
  • positiver Einfluss auf die Reflexion beim Lernen [181]
  • 70% der Prüflinge sind der Ansicht, dass DOPS hilfreich sind, um praktische Fertigkeiten zu verbessern [194]
  • Gegenüber Kontrollgruppe signifikant besseres Resultat bei DOPS hinsichtlich praktischer Fertigkeiten [195]
  • Auch in Peer-Arrangements im präklinischen und klinischen Kontext anwendbar [183]

Bei dem Portfolio-Prüfungsszenario handelt es sich um eine vorgegebene, an Lernzielen orientierte Sammlung von studentischen Lernaktivitäten mit geplanter Selbstreflexion inklusive eines Feedbacks [20]. Die Sammlung wird dem Lernprozess entsprechend konzipiert, wobei folgende Aspekte darin Berücksichtigung finden können:

1.
Erfahrungen (was wurde getan, gesehen, geschrieben, erstellt?),
2.
Lernprozess (das Bewusstsein, dass das Erfahrene für die zukünftige Tätigkeit oder Entwicklung bedeutsam ist),
3.
Nachweise (Belege, Scheine),
4.
Lernbedürfnis (Zukunftsorientierung) und
5.
Lernbedingungen [196].

Es handelt sich um eine sogenannte multiple event measure.

Anwendung in der Human-/Zahnmedizin

  • Portfolio based learning (portfoliobasiertes Lernen) eingeführt 1993 vom Royal College of General Practitioners, Portfolio assessing (portfoliobasiertes Prüfen) 1998 von Shulman beschrieben [197], [198].
  • publiziert in der Allgemeinmedizin, HNO, Innere Medizin, Pädiatrie, Public Health an den Universitäten Maastricht (NL), Nottingham (GB), Arkansas (USA) [196].
  • in Deutschland im Medizinstudium in Köln [196].
  • in der Zahnmedizin international beschrieben [199], [200], [201].

Beim Portfolio handelt es sich um ein hoch valides und reliables Instrument zur Bewertung der praktischen Kompetenz in komplexen Situationen, das die gesammelten kumulativen Informationen über Leistung und Entwicklung bewertet. Optimierungsmöglichkeiten bestehen darin, dass man 1. mehrere unabhängige Prüfer implementiert, dass 2. der eigentliche Mentor nicht gleichzeitig Prüfer sein sollte und dass 3. Train-the-Teacher-Veranstaltungen (Feedback) durchgeführt werden. Eine longitudinale Anwendung wird empfohlen. Die Implementierung in diversen Settings (auch in High-Stakes-Examina) ist vorstellbar. Das Portfolio-Format stellt somit ein sinnvolles Prüfungsformat für die Abbildung von praktischen Kompetenzen in komplexen Situationen im zahnärztlichen Ausbildungsszenario dar.

Portfolio

Validität/Gültigkeit

  • gute Validität, wenn eine geeignete Auswahl aus allen benötigten Kompetenzfeldern getroffen wird [202], [203]

Reliabilität

  • Cronbachs α: 0.8 bei 4 Prüfern [204]
  • Cronbachs α: 0.8 bei 15 Portfolioinhalten und 2 Prüfern [202]
  • Nutzung eines kompetenzbasierten Masterplans, klare Bewertungskriterien, Richtlinien und erfahrene Bewerter bei der Entwicklung und Bewertung [202], [203]
  • einheitliche Bewertung schwierig [200]

Akzeptanz

  • Portfolios werden als zeitaufwendig, angsterzeugend und wenig effektiv eingestuft [205]
  • Die Akzeptanz von Portfolios sinkt, je länger sich Studierende damit beschäftigen [205]

Kosten

  • keine Angaben

Durchführbarkeit

  • Typische Inhalte sind beispielsweise: 7 Fallberichte, 2 Präsentationen, 3 Selbstreflektionen [202]
  • Typische Inhalte sind beispielsweise: Diagnosen, Behandlungspläne [202]
  • problematisch, da ein Konflikt entsteht, wenn Portfolios zum Bewerten und zum Lernen eingesetzt werden [205]
  • Schwierigkeiten, selbstkritisch und ehrlich zu sein [205]
  • Interviews mit den Studierenden zum Inhalt des Portfolios verbessert die Durchführbarkeit [206]
  • Anwendungsbeispiele [199], [201]

Einfluss auf Lernen und Lehren

  • Ermöglicht, Fähigkeiten zu evaluieren, die mit anderen Werkzeugen nicht evaluiert werden können [200]
  • Inhalt des Portfolios muss mit den Lernzielen übereinstimmen [202]
  • steigert Selbsterkenntnis und regt zum kritischen Denken an [205]
  • steigert die Fähigkeit, unabhängig zu lernen und verknüpft Theorie mit Praxis [205]
  • hoher Zeitbedarf für Prüfer und Prüfling [200], [207]
  • Ermöglicht für die Lernenden ein gutes Feedback [207]
  • Kalibrierung und Validierung extrem wichtig [200]
  • Liefert kumulative Informationen über Leistung und Entwicklung [205]
  • Wenn bekannt ist, dass das Portfolio zum Bewerten benutzt wird, wirkt sich das auf den Inhalt und Lernwert aus, da versucht wird, Lehr-Erwartungen zu erfüllen [205]
  • Effekt häng stark von der Unterstützung, Anleitung, der Zeit und dem Feedback der Lehrenden ab [205]

Bei der 360°-Evaluation oder Multisource Feedback (MSF, Multirater Feedback) handelt es sich um eine arbeitsplatzbasierte Prüfung im klinischen Behandlungsumfeld, wobei für die Beurteilung verschiedene Personengruppen aus dem Arbeitsumfeld des Prüflings involviert werden (Peers, ZahnÄrzte, Pflegepersonal, Patienten, Administratoren etc.). Den Schwerpunkt der Beobachtung bilden Professionalität und das Arbeiten im Team sowie Handeln als Verantwortungsträger [208], [209]. Diese werden von mehreren Prüfern beobachtet und nach strukturierten Vorgaben bewertet. Der sogenannte „Supervisor“ erhält eine besondere Rolle in diesem Prüfungsszenario: diese Person sammelt alle Ergebnisse und überbringt sie dem jeweiligen Prüfling. Damit bleiben die einzelnen Feedbackgeber anonym. Man erhält ein umfassendes Bild durch die zahlreichen Rückmeldungen und eine hohe Akzeptanz durch die Wahl der Beurteiler. Narrative Kommentare und metrische Bewertungsskalen können miteinander kombiniert werden. Es handelt sich um eine sogenannte multiple event measure.

Anwendung in der Human-/Zahnmedizin

  • seit 1970 in der Medizin, weit verbreitet in Nordamerika (Kanada und USA) Europa (England, Holland) und Asien [210], [211].
  • beschrieben in der Allgemeinen Medizin, Inneren Medizin, Chirurgie, Gynäkologie, Psychiatrie, Pathologie, Röntgenologie etc. [210].
  • in der Zahnmedizin angewendet im Royal College of Surgeons of England, University Bristol, UK Committee of Postgraduate Dental Deans.
  • validierte Instrumente für die Evaluation vorhanden (PAR: Physicians Achievement Review, SPRAT: Sheffield Peer Assessment Tool).

Es handelt sich um ein hoch valides und reliables Instrument zur Bewertung der praktischen Kompetenz in komplexen Situationen.

360°-Evaluation

Validität/Gültigkeit

  • kann insbesondere die Evaluierung zwischenmenschlicher und kommunikativer Fähigkeiten erleichtern [212]
  • gute Validität [213]

Reliabilität

  • Review: Um Cronbachs Alpha-Werte von mindestens 0,9 zu erreichen müssten 8 medizinische Prüfer, 8 nicht-medizinische Prüfer und 25 Patienten beteiligt werden [210]
  • Hohe Interne Konsistenz (=0,8) bei fünf Prüfern zu zwei beobachteten Gelegenheiten [214]
  • Um Cronbachs Alpha-Werte von 0,8 zu erreichen müssten mindestens 11 Prüfer beteiligt werden [215]
  • Cronbachs Alpha-Wert 0,98 [216]
  • Problematisch wegen der erforderlichen Anzahl von Prüfern [217]

Akzeptanz

  • Auf einer Skala 1-7 seitens der Prüflinge mit 4,5 bewertet [214]
  • Auf einer Skala 1-7 seitens der Prüfer mit 5,3 bewertet [214]
  • ggf. eine zu positive Einschätzung, da der Anonymisierung nicht getraut wird [217]

Kosten

  • Kosten vor der Durchführung berücksichtigen [159]

Durchführbarkeit

  • Auf einer Skala 1-7 seitens der Prüflinge mit 4,4 bewertet [214]
  • Auf einer Skala 1-7 seitens der Prüfer mit 5,1 bewertet [214]
  • In der Regel Überprüfung der Einschätzung mittels Fragebogen, daher einfach durchzuführen [159]
  • für eine valide Auswertung wird eine gewisse Anzahl an Bewertungen benötigt, die nicht immer erzielt werden kann [217]
  • idealerweise wird das Feedback über einen längeren Zeitraum erhoben [217]
  • gut implementierbar, selbst in einem „busy hospital“ [211], [218]

Einfluss auf Lernen und Lehren

  • Generelle Verbesserung in der klinischen Tätigkeit, in der Kommunikation mit Kollegen und Patienten [219]
  • Auf einer Skala 1-7 seitens der Prüflinge mit 4,2 bewertet [214]
  • Auf einer Skala 1-7 seitens der Prüfer mit 4,4 bewertet [214]
  • Verbesserung des Evaluierungsprozesses, Gewinn weitergehender Informationen und verschiedener Perspektiven[217]
  • Unterschiedliche Resultate: Verbesserung der Kommunikation und des Verhaltens nach einem 360-Grad-Feedback [220]
  • großer Zeitaufwand und keine Verbesserung der Bewertungen als Folge des Feedbacks [221]
  • man kann schwache Performer früh identifizieren [218]
  • auch von SP an Studierende [222]

Zu den Erfolgsfaktoren gehören 1. eine klare Zieldefinition und 2. die Quelle des Feedbacks. Hierbei spielen die Wahl der Prüfer durch den Prüfling, die Glaubwürdigkeit und die Vertrautheit der Prüfer mit der zu beurteilenden Situation und die Anonymität der Einzelrückmeldungen eine wichtige Rolle. Optimierungsmöglichkeiten bestehen darin, dass 1. ca. fünf Prüfer zu zwei beobachteten Gelegenheiten eingesetzt und dass 2. Train-the-Teacher-Veranstaltungen (hinsichtlich der Fähigkeit konstruktives Feedback geben zu können) durchgeführt werden. Die Kombination der Fremdeinschätzung mit der Eigenbeurteilung des zu Beurteilenden kann hilfreich sein, ebenso wie die finale gemeinsame Festlegung von Lernzielen für die Zukunft inklusive der Besprechung (und Dokumentation) konkreter Lern- und Unterstützungsmöglichkeiten. Eine longitudinale Anwendung wird empfohlen. Auch die Implementierung in diversen Settings (auch in High-Stakes-Examina) ist vorstellbar. Das MSF-Format stellt somit ein sinnvolles Prüfungsformat für die Abbildung von praktischen Kompetenzen in komplexen Situationen im zahnärztlichen Ausbildungsszenario dar.


5. Schlussfolgerung

Das Repertoire der hier in der Übersicht aufgeführten Prüfungsmethoden erweitert das Spektrum der bereits etablierten fakultätsinternen Prüfungen – zumeist die MCQ-Fragen und (strukturierte) mündliche Prüfungen – erheblich. Jede der vorgestellten Methoden deckt unterschiedliche Anforderungen und somit verschiedene Kompetenzlevel ab. Dies ist besonders von denen zu beachten, die sich mit der Planung, Durchführung und Auswertung der Prüfungen im Fach Zahnmedizin beschäftigen.

In der Planung und Umsetzung eines Curriculums ist nicht nur die Wahl des Prüfungsformates entscheidend, sondern auch die allgemeinen Funktionen einer Prüfung zu beachten, die wiederum einen Einfluss auf das Curriculum haben [223]: Prüfungen können summativ oder formativ eingesetzt werden. Summative Prüfungen werden meist am Ende einer Lehrveranstaltung bzw. nach der Vermittlung einer Kompetenz eingesetzt, um den Lernerfolg zu bewerten. Bei formativen Prüfungen steht eine reflexive Begleitung des Lernprozesses im Vordergrund und entscheidet nicht über Bestehen oder Durchfallen in einer Lehrveranstaltung bzw. Kompetenzvermittlung. Eine solche Prüfung spiegelt den Studierenden ihren aktuellen Wissensstand wider und soll den Lernprozess in der reflexiven Ermittlung von eigenen Schwächen unterstützen. Rein formative Prüfungen sind in Zeiten dünner Personaldecken und geringer zeitlicher Ressourcen leider nur bedingt anzutreffen, sind aber ein ideales Mittel, den Lernprozess zu fördern.

Im Rahmen der Erstellung des NKLZ wurde deutlich, dass in Zukunft neben den etablierten Prüfungsmethoden, wie mündliche Prüfungen oder MC-Klausuren, auch andere Prüfungsformate benötigt werden, die insbesondere die in der Zahnmedizin erforderlichen praktischen Fertigkeiten sowohl im Skills-Lab als auch in der Patientenbehandlung erfassen. Dabei sollte sich die jeweilige Prüfungsform an der angestrebten Kompetenzebene orientieren.

Die in dieser Übersichtsarbeit dargestellten Prüfungsformen ermöglichen einen schnellen Einstieg in die jeweilige Methode und verweisen auf weiterführende Literatur für den Interessierten, da eine ausführliche Darstellung jeder einzelnen Prüfungsform den Charakter dieser Übersichtsarbeit sprengen würde. Neben dem theoretischen Wissen um eine Prüfungsform, ist auch der direkte Erfahrungsaustausch mit Kollegen der eigenen oder anderen Fakultäten wichtig, die die entsprechende Methode bereits anwenden, um weitere Informationen zu erhalten. Von daher ist es wünschenswert und vielleicht auch eine Aufgabe der AG Prüfungen, ein Netzwerk von Kollegen aufzubauen, die Erfahrungen mit speziellen Prüfungsformen bereits gesammelt haben und als Ansprechpartner bei Fragen gerne zur Verfügung stehen. Aus diesem Netzwerk heraus könnten je nach Bedarf auch Fortbildungsangebote entwickelt werden, die bei der Umsetzung und Implementierung einer neuen Prüfungsform eine große Hilfe sein können.


6. Ausblick

Mit der zu erwartenden neuen Approbationsordnung für Zahnärzte wird die zahnmedizinische enger mit der medizinischen Lehre verknüpft und auf ein zeitgemäßes Niveau gebracht. Die im NKLZ beispielhaft genannten und in dieser Publikation ausgeführten Prüfungsmethoden zeigen die verschiedenen Möglichkeiten auf Kompetenzlevel zu prüfen. Nach einer gewissen Zeit des Erfahrungssammelns mit universitären Prüfungen in der zahnmedizinischen Lehre und ihrer wissenschaftlichen Überprüfung sollen zusätzliche geeignete Prüfungsmethoden auch in die Vorgaben der zahnärztlichen Approbationsordnung aufgenommen werden und somit auch die Qualität der staatlichen Prüfungen optimieren.

Zusammen mit der Einführung des NKLZ ist das Sammeln von Erfahrungen bei der Organisation, Vorbereitung, Durchführung und Nachbereitung der vorgestellten Prüfungsformen für die nächsten Jahre eine wichtige Aufgabe, wobei sich hier die Zahnmedizin die bereits seit 2002 entwickelten Kompetenzen der Humanmediziner zu Nutze machen kann. Auf der anderen Seite kann sich die Zahnmedizin aber mit ihrem jahrelangen Wissen in der Überprüfung der praktischen Kompetenzen in den Austausch und entsprechende Erfahrungen in die Entwicklung einbringen. Unser gemeinsames Ziel sollte es sein, Prüfungsformate für die verschiedenen Kompetenzlevel für Zahn- und Humanmedizin in Zusammenarbeit der medizinischen Fakultäten weiterzuentwickeln.


Danksagung

Die Autoren danken allen Mitwirkenden, die mitgeholfen haben, dieses Review zu initiieren, zu erstellen, zu revidieren und zu finalisieren. Besonderer Dank gebührt dem Vorstand der AKWLZ, namentlich Frau Prof. P. Hahn, MME (Universität Freiburg) und Herrn Prof. H.-J Wenz, MME (Universität Kiel), für die detaillierten Rückmeldungen und Verbesserungsvorschläge zum vorliegenden Manuskript.


Interessenkonflikt

Die Autoren erklären, dass sie keine Interessenkonflikte in Zusammenhang mit diesem Artikel haben.


Autorenschaft

Die Nennung der Autoren erfolgt in alphabetischer Reihenfolge.


Literatur

1.
Biggs J. Enhancing teaching through constructive alignment. High Educ. 1996;32(3):347–364. DOI: 10.1007/BF00138871 Externer Link
2.
van der Vleuten CP, Verwijnen GM, Wijnen W. Fifteen years of experience with progress testing in a problem-based learning curriculum. Med Teach. 1996;18(2):103–109. DOI: 10.3109/01421599609034142 Externer Link
3.
Norcini J, Anderson B, Bollela V, Burch V, Costa MJ, Duvivier R, et al. Criteria for good assessment: consensus statement and recommendations from the Ottawa 2010 Conference. Med Teach. 2011;33(3):206–214. DOI: 10.3109/0142159X.2011.551559 Externer Link
4.
Chenot JF, Ehrhardt M. Objective structured clinical examination (OSCE) in der medizinischen Ausbildung: Eine Alternative zur Klausur. Z Allg Med. 2003;79:1-7.
5.
Examination and Assessments: Academic Integrity [Internet]. Imperial College London. [cited 2015 Jan 17]. Zugänglich unter/available from: https://workspace.imperial.ac.uk/registry/Public/Procedures%20and%20Regulations/Policies%20and%20Procedures/Examination%20and%20Assessment%20Academic%20Integrity.pdf Externer Link
6.
Jünger J, Just I. Empfehlungen der Gesellschaft für Medizinische Ausbildung und des Medizinischen Fakultätentags für fakultätsinterne Leistungsnachweise während des Studiums der Human-, Zahn-und Tiermedizin. GMS Z Med Ausbild. 2014;31(3):Doc34. DOI: 10.3205/zma000926 Externer Link
7.
Nationaler Kompetenzbasierter Lernzielkatalog Zahnmedizin (NKLZ) [Internet]. [cited 2016 June 14]. Zugänglich unter/available from: http://www.nklz.de/files/nklz_katalog_20150706.pdf Externer Link
8.
Möltner A, Schultz JH, Briem S, Böker T, Schellberg D, Jünger J. Grundlegende testtheoretische Auswertungen medizinischer Prüfungsaufgaben und ihre Verwendung bei der Aufgabenrevision. GMS Z Med Ausbild. 2005;22(4):Doc138. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2005-22/zma000138.shtml Externer Link
9.
Norcini JJ, Swanson DB, Grosso LJ, Webster GD. Reliability, validity and efficiency of multiple choice question and patient management problem item formats in assessment of clinical competence. Med Educ. 1985;19(3):238–247. DOI: 10.1111/j.1365-2923.1985.tb01314.x Externer Link
10.
Roloff S. Mündliche Prüfungen [Internet]. 1 p. [cited 2016 June 14]. Zugänglich unter/available from: http://www.hochschuldidaktik.net/documents_public/20121127-Roloff-MuendlPruef.pdf Externer Link
11.
Considine J, Botti M, Thomas S. Design, format, validity and reliability of multiple choice questions for use in nursing research and education. Collegian. 2005;12(1):19–24. DOI: 10.1016/S1322-7696(08)60478-3 Externer Link
12.
Memon MA, Joughin GR, Memon B. Oral assessment and postgraduate medical examinations: establishing conditions for validity, reliability and fairness. Adv Health Sci Educ. 2010;15(2):277–289. DOI: 10.1007/s10459-008-9111-9 Externer Link
13.
Harden RM, Lever R, Wilson GM. Two systems of marking objective examination questions. Lancet. 1969;293(7584):40–42. DOI: 10.1016/S0140-6736(69)90999-4 Externer Link
14.
Harden RM, Stevenson M, Downie WW, Wilson GM. Assessment of clinical competence using objective structured examination. BMJ. 1975;1(5955):447–451. DOI: 10.1136/bmj.1.5955.447 Externer Link
15.
Lennox B. Marking multiple-choice examinations. Br J Med Educ. 1967;1(3):203–211. DOI: 10.1111/j.1365-2923.1967.tb01698.x Externer Link
16.
McCarthy WH. An assessment of the influence of cueing items in objective examinations. J Med Ed. 1966;41(3):263–266. DOI: 10.1097/00001888-196603000-00010 Externer Link
17.
Hart IR, Competence OCOAC, Harden RM, Centre RCOPASOCRSMEAR, médecins et chirurgiens du Canada des CR. Further Developments in Assessing Clinical Competence. Boston: Can-Heal Publications; 1987.
18.
Van der Vleuten CP, Schuwirth LW, Scheele F, Driessen EW, Hodges B. The assessment of professional competence: building blocks for theory development. Best Pract Res Clin Obstet Gynaecol. 2010;24(6):703–719. DOI: 10.1016/j.bpobgyn.2010.04.001 Externer Link
19.
Schoonheim-Klein ME, Habets LL, Aartman IH, van der Vleuten CP, Hoogstraten J, van der Velden U. Implementing an Objective Structured Clinical Examination (OSCE) in dental education: effects on students' learning strategies. Eur J Dent Educ. 2006;10(4):226–235. DOI: 10.1111/j.1600-0579.2006.00421.x Externer Link
20.
Fischer MR, Holzer M, Jünger J. Pru¨fungen an den medizinischen Fakulta¨ten - Qualita¨t, Verantwortung und Perspektiven. GMS Z Med Ausbild. 2010;27(5):Doc66. DOI: 10.3205/zma000703 Externer Link
21.
Cobb KA, Brown G, Jaarsma DADC, Hammond RA. The educational impact of assessment: a comparison of DOPS and MCQs. Med Teach. 2013;35(11):e1598–1607.
22.
Elmer A, Grifka J. Vergleich von Prüfungsmethoden in der klinischen Ausbildung. Gesundheitswesen (Suppl Med Ausbild). 1998;15(Suppl1):14–17. Zugänglich unter/available from: https://gesellschaft-medizinische-ausbildung.org/files/ZMA-Archiv/1998/1/Elmer_A,_Grifka_J.pdf Externer Link
23.
Sadaf S, Khan S, Ali SK. Tips for developing a valid and reliable bank of multiple choice questions (MCQs). Educ Health. 2012;25(3):195–197. DOI: 10.4103/1357-6283.109786 Externer Link
24.
Wenzel A, Kirkevang L. Students'attitudes to digital radiography and measurement accuracy of two digital systems in connection with root canal treatment. Eur J Dent Educ. 2004;8(4):167-171. DOI: 10.1111/j.1600-0579.2004.00347.x Externer Link
25.
Yang JC, Laube DW. Improvement of reliability of an oral examination by a structured evaluation instrument. J Med Educ. 1983;58(11):864–872.
26.
Hottinger U, Krebs R, Hofer R, Feller S, Bloch R. Strukturierte mündliche Prüfung für die ärztliche Schlussprüfung–Entwicklung und Erprobung im Rahmen eines Pilotprojekts. Bern: Universität Bern; 2004.
27.
Wass V, Wakeford R, Neighbour R, van der Vleuten C, Royal College of General Practitioners. Achieving acceptable reliability in oral examinations: an analysis of the Royal College of General Practitioners membership examination's oral component. Med Educ. 2003;37(2):126–131. DOI: 10.1046/j.1365-2923.2003.01417.x Externer Link
28.
Schubert A, Tetzlaff JE, Tan M, Ryckman JV, Mascha E. Consistency, inter-rater reliability, and validity of 441 consecutive mock oral examinations in anesthesiology: implications for use as a tool for assessment of residents. Anesthesiology. 1999;91(1):288–298. DOI: 10.1097/00000542-199907000-00037 Externer Link
29.
Kearney RA, Puchalski SA, Yang HYH, Skakun EN. The inter-rater and intra-rater reliability of a new Canadian oral examination format in anesthesia is fair to good. Can J Anaesth. 2002;49(3):232–236. DOI: 10.1007/BF03020520 Externer Link
30.
Postgraduate Medical Education and Training Board. Developing and Maintaining an Assessment System. London: General Medical Council; 2007. S.1.
31.
van der Vleuten CP. Assessment of the Future [Internet]. [cited 2016 June 14]. Zugänglich unter/available from: http://www.youtube.com/watch?v=bvFbmTRVjlE Externer Link
32.
Möltner A, Schellberg D, Briem S, Böker T, Schultz JH, Jünger J. Wo Cronbachs alpha nicht mehr reicht. GMS Z Med Ausbild. 2005;22(4):Doc137. Zugänglich unter/available from: http://www.egms.de/de/journals/zma/2005-22/zma000137.shtml Externer Link
33.
Miller GE. The assessment of clinical skills/competence/performance. Acad Med. 1990;65(9 Suppl):S63–67. DOI: 10.1097/00001888-199009000-00045 Externer Link
34.
Kopp V, Möltner A, Fischer MR. Key-Feature-Probleme zum Prüfen von prozeduralem Wissen: Ein Praxisleitfaden. GMS Z Med Ausbild. 2006;23(3):Doc50. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000269.shtml Externer Link
35.
Wass V, van der Vleuten C, Shatzer J, Jones R. Assessment of clinical competence. Lancet. 2001;357(9260):945–949. DOI: 10.1016/S0140-6736(00)04221-5 Externer Link
36.
Knox J. What is.… a Modified Essay Question? Med Teach. 1989;11(1):51–57. DOI: 10.3109/01421598909146276 Externer Link
37.
Knox JD, Bouchier IA. Communication skills teaching, learning and assessment. Med Educ. 1985;19(4):285–289. DOI: 10.1111/j.1365-2923.1985.tb01322.x Externer Link
38.
Feletti GI. Reliability and validity studies on modified essay questions. J Med Educ. 1980;55(11):933–941. DOI: 10.1097/00001888-198011000-00006 Externer Link
39.
Rabinowitz HK, Hojat M. A comparison of the modified essay question and multiple choice question formats: their relationship to clinical performance. Fam Med. 1989;21(5):364–367.
40.
Lockie C, McAleer S, Mulholland H, Neighbour R, Tombleson P. Modified essay question (MEQ) paper: perestroika. Occas Pap R Coll Gen Pract. 1990;(46):18–22.
41.
Feletti GI, Smith EK. Modified essay questions: are they worth the effort? Med Educ. 1986;20(2):126–132. DOI: 10.1111/j.1365-2923.1986.tb01059.x Externer Link
42.
van Bruggen L, Manrique-van Woudenbergh M, Spierenburg E, Vos J. Preferred question types for computer-based assessment of clinical reasoning: a literature study. Perspect Med Educ. 2012;1(4):162–171. DOI: 10.1007/s40037-012-0024-1 Externer Link
43.
Irwin WG, Bamber JH. The cognitive structure of the modified essay question. Med Educ. 1982;16(6):326–331.DOI: 10.1111/j.1365-2923.1982.tb00945.x Externer Link
44.
Weinman J. A modified essay question evaluation of pre-clinical teaching of communication skills. Med Educ. 1984;18(3):164–167. DOI: 10.1111/j.1365-2923.1984.tb00998.x Externer Link
45.
Khan MU, Aljarallah BM. Evaluation of Modified Essay Questions (MEQ) and Multiple Choice Questions (MCQ) as a tool for Assessing the Cognitive Skills of Undergraduate Medical Students. Int J Health Sci. 2011;5(1):39–43.
46.
Bodkha P. Effectiveness of MCQ, SAQ and MEQ in assessing cognitive domain among high and low achievers. IJRRMS. 2012;2(4):25–28.
47.
Wallerstedt S, Erickson G, Wallerstedt SM. Short Answer Questions or Modified Essay questions–More Than a Technical Issue. Int J Clin Med. 2012;3:28. DOI: 10.4236/ijcm.2012.31005 Externer Link
48.
Elstein AS. Beyond multiple-choice questions and essays: the need for a new way to assess clinical competence. Acad Med. 1993;68(4):244–249. DOI: 10.1097/00001888-199304000-00002 Externer Link
49.
Ferguson KJ. Beyond multiple-choice questions: Using case-based learning patient questions to assess clinical reasoning. Med Educ. 2006;40(11):1143. DOI: 10.1111/j.1365-2929.2006.02592.x Externer Link
50.
Palmer EJ, Devitt PG. Assessment of higher order cognitive skills in undergraduate education: modified essay or multiple choice questions? Research paper. BMC Med Educ. 2007;7(1):49. DOI: 10.1186/1472-6920-7-49 Externer Link
51.
Wild D, Rützler M, Haarhaus M, Peters K. Der Modified Essay Question (MEQ)-Test an der medizinischen Fakultät der Universität Witten/Herdecke. Gesundheitswesen (Suppl Med Ausbild). 1998;15(Suppl2):65–69. Zugänglich unter/available from: https://gesellschaft-medizinische-ausbildung.org/files/ZMA-Archiv/1998/2/Wild_D,_R%C3%BCtzler_M,_Haarhaus_M,_Peters_K.pdf Externer Link
52.
Peters K, Scheible CM, Rützler M. MEQ – angemessen und praktikabel? Jahrestagung der Gesellschaft für Medizinische Ausbildung - GMA. Köln, 10.-12.11.2006. Düsseldorf, Köln: German Medical Science; 2006. Doc06gma085. Zugänglich unter/available from http://www.egms.de/en/meetings/gma2006/06gma085.shtml Externer Link
53.
O'Neill PN. Assessment of students in a problem-based learning curriculum. J Dent Educ. 1998;62(9):640–643.
54.
Geerlings G, van de Poel AC. De gestructureerde open Vraag: Een Mogelijkheit tot Patientensimulatie binnen Hetonderwijs in de Endodontologie [The modified essay question: a possibility for patient simulation in endodontic education]. Ned Tijdschr Tandheelkd. 1984;91(7-8):305–308.
55.
Van der Vleuten CP, Schuwirth LW. Assessing professional competence: from methods to programmes. Med Educ. 2005;39(3):309–317. DOI: 10.1111/j.1365-2929.2005.02094.x Externer Link
56.
Schwartz RW, Donnelly MB, Sloan DA, Young B. Knowledge gain in a problem-based surgery clerkship. Acad Med. 1994;69(2):148–151. DOI: 10.1097/00001888-199402000-00022 Externer Link
57.
Rabinowitz HK. The modified essay question: an evaluation of its use in a family medicine clerkship. Med Educ. 1987;21(2):114–118. DOI: 10.1111/j.1365-2923.1987.tb00676.x Externer Link
58.
Stratford P, Pierce-Fenn H. Modified essay question. Phys Ther. 1985;65(7):1075–1079.
59.
Norman GR, Smith EK, Powles AC, Rooney PJ, Henry NL, Dodd PE. Factors underlying performance on written tests of knowledge. Med Educ. 1987;21(4):297–304. DOI: 10.1111/j.1365-2923.1987.tb00367.x Externer Link
60.
Bloch R, Hofer D, Krebs R, Schläppi P, Weis S, Westkämper R. Kompetent prüfen. Handbuch zur Planung, Durchführung und Auswertung von Facharztprüfungen Medizinische Fakultät Universität Bern, Wien: Institut für Aus-, Weiter-und Fortbildung; 1999.
61.
Lim EC, Seet RC, Oh VM, Chia BL, Aw M, Quak SH, Onk BK. Computer-based testing of the modified essay question: the Singapore experience. Med Teach. 2007;29(9):e261–268. DOI: 10.1080/01421590701691403 Externer Link
62.
Palmer EJ, Devitt PG. A method for creating interactive content for the iPod, and its potential use as a learning tool: Technical Advances. BMC Med Educ. 2007;7(1):32. DOI: 10.1186/1472-6920-7-32 Externer Link
63.
Bordage G, Brailovsky C, Carretier H, Page G. Content validation of key features on a national examination of clinical decision-making skills. Acad Med. 1995;70(4):276–281. DOI: 10.1097/00001888-199504000-00010 Externer Link
64.
Bordage G, Page G. An alternative approach to PMPs: The "key features" concept. In: Hart IR, Harden RM (Hrsg). Further developments in assessing clinical competence. Montreal: Can-Heal; 1987. S.59–75.
65.
Page G, Bordage G, Allen T. Developing key-feature problems and examinations to assess clinical decision-making skills. Acad Med. 1995;70(3):194–201. DOI: 10.1097/00001888-199503000-00009 Externer Link
66.
Hatala R, Norman GR. Adapting the Key Features Examination for a clinical clerkship. Med Educ. 2002;36(2):160–165. DOI: 10.1046/j.1365-2923.2002.01067.x Externer Link
67.
Trudel JL, Bordage G, Downing SM. Reliability and validity of key feature cases for the self-assessment of colon and rectal surgeons. Ann Surg. 2008;248(2):252–258. DOI: 10.1097/SLA.0b013e31818233d3 Externer Link
68.
Ali SK, Bordage G. Validity of key features for a family medicine pilot exam at the College of Physicians and Surgeons Pakistan. J Coll Phys Surg Pakistan. 1995;5(6):256–260.
69.
Bernhardt J, Griesbacher T, Ithaler D, Kresse A, Öttl K, Roller-Wirnsberger R, Vogl S. Kürzübersicht gängiger Prüfungsformate. Graz: Medizinische Universität Graz; 2012. Zugänglich unter/available from: http://www.medunigraz.at/fileadmin/lehren/planen-organisieren/pdf/Kurzuebersicht_Pruefungsformate_v7.pdf Externer Link
70.
Fischer MR, Kopp V, Holzer M, Ruderich F, Jünger J. A modified electronic key feature examination for undergraduate medical students: validation threats and opportunities. Med Teach. 2005;27(5):450–455. DOI: 10.1080/01421590500078471 Externer Link
71.
Nikendei C, Mennin S, Weyrich P, Kraus B. Effects of a supplementary final year curriculum on students' clinical reasoning skills as assessed by key-feature examination. Med Teach. 2009;31(9):e438-443. DOI: 10.1080/01421590902845873 Externer Link
72.
Rotthoff T, Baehring T, Dicken H-D, Fahron U, Richter B, Fischer MR, Scherbaum WA. Comparison between Long-Menu and Open-Ended Questions in computerized medical assessments. A randomized controlled trial. BMC Med Educ. 2006;6(1):50. DOI: 10.1186/1472-6920-6-50 Externer Link
73.
Zupanic M, Iblher P, Töpper J, Gartmeier M, Bauer J, Prenzel M, Möller G, Hoppe-Seyler T, Karsten G, Fischer MR. Key Feature-Assessment kommunikativer Leistungen: Weiterent¬wicklung und quantitative Evaluation Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA). München, 05.-08.10.2011. German Medical Science GMS Publishing House; 2011. Doc11gma024. DOI: 10.3205/11gma024 Externer Link
74.
Schaper E, Tipold A, Ehlers JP. Use of key feature questions in summative assessment of veterinary medicine students. Ir Vet J. 2013;66(1):3. DOI: 10.1186/2046-0481-66-3 Externer Link
75.
TU Dresden. Studienordnung für den Studiengang Zahnmedizin vom 08.09.2011 [Internet]. Dresden; 2011 [cited 2015 Feb 24]. Available from: https://tu-dresden.de/die_tu_dresden/fakultaeten/medizinische_fakultaet/studium/zm/recht-zm/index_html#StudOrgZM Externer Link
76.
Gerhardt-Szep S, Hahn P. Key feature - Fallerstellung (Master of Medical Education, Modul V). Heidelberg: Universität Heidelberg; 2008. Zugänglich unter/available from: http://archiv.ub.uni-heidelberg.de/volltextserver/11537/1/Manuscript_KF.pdf Externer Link
77.
Norman G, Bordage G, Page G, Keane D. How specific is case specificity? Med Educ. 2006;40(7):618–623. DOI: 10.1111/j.1365-2929.2006.02511.x Externer Link
78.
Huwendiek S, Mennin SP, Nikendei C. Medical education after the Flexner report. N Engl J Med. 2007;356(1):90. DOI: 10.1056/NEJMc062922 Externer Link
79.
Schuwirth LW, van der Vleuten CP, de Kock CA, Peperkamp AG, Donkers HH. Computerized case-based testing: A modern method to assess clinical decision making. Med Teach. 1996;18(4):294–299. DOI: 10.3109/01421599609034180 Externer Link
80.
Huwendiek S, Reichert F, Brass K, Bosse H-M, Heid J, Möltner A, Haag M, Leven FJ, Hoffmann GF, Jünger J, Tönshoff B. Etablierung von fallbasiertem computerunterstütztem Prüfen mit langen Auswahllisten: Ein geeignetes Instrument zur Prüfung von Anwendungswissen. GMS Z Med Ausbild. 2007;24(1):Doc51. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2007-24/zma000345.shtml Externer Link
81.
Huwendiek S, Heid J, Möltner A, Haag M, Tönshoff B. E-Learning und E-Prüfung mit virtuellen Patienten in der Medizin. Heidelberg: Universitätsklinikum Heidelberg; 2008. Zugänglich unter/available from: http://www.his-he.de/veranstaltung/dokumentation/Workshop_E-Pruefung/pdf/TOP04.pdf Externer Link
82.
Ananthakrishnan N. Microteaching as a vehicle of teacher training--its advantages and disadvantages. J Postgrad Med. 1993;39(3):142–143.
83.
Arnold RC, Walmsley AD. The use of the OSCE in postgraduate education. Eur J Dent Educ. 2008;12(3):126–130. DOI: 10.1111/j.1600-0579.2008.00469.x Externer Link
84.
Taguchi N, Ogawa T. OSCEs in Japanese postgraduate clinical training Hiroshima experience 2000-2009. Eur J Dent Educ. 2010;14(4):203–209. DOI: 10.1111/j.1600-0579.2009.00610.x Externer Link
85.
Pugh D, Touchie C, Wood TJ, Humphrey-Murto S. Progress testing: is there a role for the OSCE? Med Educ. 2014;48(6):623–631. DOI: 10.1111/medu.12423 Externer Link
86.
Curtis DA, Lind SL, Brear S, Finzen FC. The correlation of student performance in preclinical and clinical prosthodontic assessments. J Dent Educ. 2007;71(3):365–372.
87.
Eberhard L, Hassel A, Bäumer A, Becker F, Beck-Mußotter J, Bömicke W, Corcodel N, Cosgarea R, Eiffler C, Giannakopoulos NN; Kraus T, Mahabadi J, Rues S, Schmitter M, Wolff D, Wege KC. Analysis of quality and feasibility of an objective structured clinical examination (OSCE) in preclinical dental education. Eur J Dent Educ. 2011;15(3):172-178. DOI: 10.1111/j.1600-0579.2010.00653.x Externer Link
88.
Graham R, Bitzer LA, Anderson OR. Reliability and Predictive Validity of a Comprehensive Preclinical OSCE in Dental Education. J Dent Educ. 2013;77(2):161–167.
89.
Fields H, Rowland M, Vig K, Huja S. Objective structured clinical examination use in advanced orthodontic dental education. Am J Orthod Dentofacial Orthop. 2007;131(5):656–663. DOI: 10.1016/j.ajodo.2007.01.013 Externer Link
90.
Derringer KA. Undergraduate orthodontic assessment and examination in UK dental schools. Br Dent J. 2006;201(4):225–229. DOI: 10.1038/sj.bdj.4813884 Externer Link
91.
Macluskey M, Durham J, Balmer C, Bell A, Cowpe J, Dawson L, et al. Dental student suturing skills: a multicentre trial of a checklist-based assessment. Eur J Dent Educ. 2011;15(4):244–249. DOI: 10.1111/j.1600-0579.2010.00665.x Externer Link
92.
Hoefer SH, Schuebel F, Sader R, Landes C. Development and implementation of an objective structured clinical examination (OSCE) in CMF-surgery for dental students. J Craniomaxillofac Surg. 2013;41(5):412–416. DOI: 10.1016/j.jcms.2012.11.007 Externer Link
93.
Landes CA, Hoefer S, Schuebel F, Ballon A, Teiler A, Tran A, Weber R, Walcher F, Sader R. Long-term prospective teaching effectivity of practical skills training and a first OSCE in Cranio Maxillofacial Surgery for dental students. J Craniomaxillofac Surg. 2014;42(5):e97–e104. DOI: 10.1016/j.jcms.2013.07.004 Externer Link
94.
Larsen T, Jeppe-Jensen D. The introduction and perception of an OSCE with an element of self- and peer-assessment. Eur J Dent Educ. 20081;12(1):2–7.
95.
Kupke J, Wicht MJ, Stützer H, Derman SH, Lichtenstein NV, Noack MJ. Does the use of a visualised decision board by undergraduate students during shared decision-making enhance patients' knowledge and satisfaction? - A randomised controlled trial. Eur J Dent Educ. 2012;17(1):19-25. DOI: 10.1111/eje.12002 Externer Link
96.
Hammad M, Oweis Y, Taha S, Hattar S, Madarati A, Kadim F. Students' Opinions and Attitudes After Performing a Dental OSCE for the First Time: A Jordanian Experience. J Dent Educ. 2013;77(1):99–104.
97.
Mossey PA, Newton JP, Stirrups DR. Scope of the OSCE in the assessment of clinical skills in dentistry. Br Dent J. 2001;190(6):323–326. DOI: 10.1038/sj.bdj.4800961 Externer Link
98.
Boone WJ, McWhorter AG, Seale NS. Purposeful assessment techniques (PAT) applied to an OSCE-based measurement of competencies in a pediatric dentistry curriculum. J Dent Educ. 2001;65(11):1232–1237.
99.
Lele SM. A Mini-OSCE for Formative Assessment of Diagnostic and Radiographic Skills at a Dental College in India. J Dent Educ. 2011;75(12):1583–1589.
100.
Schoonheim-Klein M, Walmsley AD, Habets L. An implementation strategy for introducing an OSCE into a dental school. Eur J Dent Educ. 2005;9(4):143-149. DOI: 10.1111/j.1600-0579.2005.00379.x Externer Link
101.
Licari FW, Knight GW. Developing a group practice comprehensive care education curriculum. J Dent Educ. 2003;67(12):1312–1315.
102.
Ratzmann A, Wiesmann U, Kordaß B. Integration of an Objective Structured Clinical Examination (OSCE) into the dental preliminary exams. GMS Z Med Ausbild. 2012;29(1):Doc09. DOI: 10.3205/zma000779 Externer Link
103.
Ogawa T, Taguchi N, Sasahara H. Assessing communication skills for medical interviews in a postgraduate clinical training course at Hiroshima University Dental Hospital. Eur J Dent Educ. 2003;7(2):60-65. DOI: 10.1034/j.1600-0579.2002.00273.x Externer Link
104.
Cannick GF, Horowitz AM, Garr DR, Reed SG, Neville BW, Day TA, Woolson RF, Lackland DT. Use of the OSCE to evaluate brief communication skills training for dental students. J Dent Educ. 2007;71(9):1203–1209.
105.
Dennehy PC, Susarla SM, Karimbux NY. Relationship between dental students' performance on standardized multiple-choice examinations and OSCEs. J Dent Educ. 2008;72(5):585–592.
106.
Khan KZ, Ramachandran S, Gaunt K, Pushkar P. The Objective Structured Clinical Examination (OSCE): AMEE Guide No. 81. Part I: an historical and theoretical perspective. Med Teach. 2013;35(9):e1437–1446. DOI: 10.3109/0142159X.2013.818634 Externer Link
107.
Deis N, Narciß E, Rahe J, Schüttpelz-Braun K. Objektive standardisierte praktische Prüfungen zur Messung von praktischen Fertigkeiten und berufsrelevanten Kompetenzen. Z Gesundheit Sport. 2012;2(2):25–33.
108.
Beard JD, Marriott J, Purdie H, Crossley J. Assessing the surgical skills of trainees in the operating theatre: a prospective observational study of the methodology. Health Technol Assess. 2011;15(1):i–xxi–1–162.
109.
Brand HS, Schoonheim-Klein M. Is the OSCE more stressful? Examination anxiety and its consequences in different assessment methods in dental education. Eur J Dent Educ. 2009;13(3):147–153. DOI: 10.1111/j.1600-0579.2008.00554.x Externer Link
110.
Nikendei C, Jünger J. OSCE-praktische Tipps zur Implementierung einer klinisch-praktischen Prüfung. GMS Z Med Ausbild. 2006;23(3):Doc47. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000266.shtml Externer Link
111.
Brannick MT, Erol-Korkmaz HT, Prewett M. A systematic review of the reliability of objective structured clinical examination scores. Med Educ. 2011;45(12):1181–1189. DOI: 10.1111/j.1365-2923.2011.04075.x Externer Link
112.
Schoonheim-Klein M, Muijtjens A, Muijtens A, Habets L, Manogue M, van der Vleuten C, Hoogstraten J, Van der Velden U. On the reliability of a dental OSCE, using SEM: effect of different days. Eur J Dent Educ. 2008;12(3):131–137. DOI: 10.1111/j.1600-0579.2008.00507.x Externer Link
113.
Norcini JJ, Maihoff NA, Day SC, Benson JA. Trends in medical knowledge as assessed by the certifying examination in internal medicine. JAMA. 1989;262(17):2402–2404. DOI: 10.1001/jama.1989.03430170064029 Externer Link
114.
Hofer M, Jansen M, Soboll S. [Potential improvements in medical education as retrospectively evaluated by candidates for specialist examinations]. Dtsch med Wochenschr. 2006;131(8):373–378. DOI: 10.1055/s-2006-932527 Externer Link
115.
Gesellschaft für Medizinische Ausbildung, Kompetenzzentrum Prüfungen Baden-Württemberg, Fischer MR. Leitlinie für Fakultäts-interne Leistungsnachweise während des Medizinstudiums: Ein Positionspapier des GMA-Ausschusses Prüfungen und des Kompetenzzentrums Prüfungen Baden-Württemberg. GMS Z Med Ausbild. 2008;25(1):Doc74. Zugänglich unter/availabel from: http://www.egms.de/static/de/journals/zma/2008-25/zma000558.shtml Externer Link
116.
Davenport ES, Davis JE, Cushing AM, Holsgrove GJ. An innovation in the assessment of future dentists. Br Dent J. 1998;184(4):192–195.
117.
Rau T, Fegert J, Liebhardt H. How high are the personnel costs for OSCE? A financial report on management aspects. GMS Z Med Ausbild. 2011;28(1):Doc13. DOI: 10.3205/zma000725 Externer Link
118.
Kropmans TJ, O'Donovan BG, Cunningham D, Murphy AW, Flaherty G, Nestel D, Dunne FPl. An Online Management Information System for Objective Structured Clinical Examinations. CIS. 2011;28;5(1):38-48.
119.
Barman A. Critiques on the Objective Structured Clinical Examination. Ann Acad Med Singap. 2005;34(8):478–482.
120.
Stillman PL, Swanson DB, Smee S, Stillman AE, Ebert TH, Emmel VS, Gaslowitz J, Green HL, Hamolsky M, Hatem C, et al. Assessing clinical skills of residents with standardized patients. Ann Intern Med. 1986;105(5):762–771. DOI: 10.7326/0003-4819-105-5-762 Externer Link
121.
Turner JL, Dankoski ME. Objective structured clinical exams: a critical review. Fam Med. 2008;40(8):574–578.
122.
Carpenter JL. Cost analysis of objective structured clinical examinations. Acad Med. 1995;70(9):828–833. DOI: 10.1097/00001888-199509000-00022 Externer Link
123.
Duerson MC, Romrell LJ, Stevens CB. Impacting faculty teaching and student performance: nine years' experience with the Objective Structured Clinical Examination. Teach Learn Med. 2000;12(4):176–182. DOI: 10.1207/S15328015TLM1204_3 Externer Link
124.
Harden RM, Cairncross RG. Self assessment. Med Teach. 1980;2(3):145–148. DOI: 10.3109/01421598009081185 Externer Link
125.
Kundu D, Das HN, Sen G, Osta M, Mandal T, Gautam D. Objective structured practical examination in biochemistry: An experience in Medical College, Kolkata. J Nat Sci Biol Med. 2013;4(1):103–107. DOI: 10.4103/0976-9668.107268 Externer Link
126.
Abraham RR, Raghavendra R, Surekha K, Asha K. A trial of the objective structured practical examination in physiology at Melaka Manipal Medical College, India. Adv Physiol Educ. 2009;33(1):21–23. DOI: 10.1152/advan.90108.2008 Externer Link
127.
Adome RO, Kitutu F. Creating an OSCE/OSPE in a resource-limited setting. Med Educ. 2008;42(5):525–526. DOI: 10.1111/j.1365-2923.2008.03045.x Externer Link
128.
Nayak V, Bairy KL, Adiga S, Shenoy S, Magazine BC, Amberkar M, Kumari MK. OSPE in Pharmacology: Comparison with the conventional Method and Students' Perspective Towards OSPE. Br Biomed Bull. 2014;2(1):218-222.
129.
Wani P, Dalvi V. Objective Structured Practical Examination vs Traditional Clinical Examination in Human Physiology: Student's perception. Int J Med Sci Public Health. 2013;2(3):522–547. DOI: 10.5455/ijmsph.2013.080320133 Externer Link
130.
Menezes RG, Nayak VC, Binu VS, Kanchan T, Rao PP, Baral P, Lobo SW. Objective structured practical examination (OSPE) in Forensic Medicine: students' point of view. J Forensic Leg Med. 2011;18(8):347–349. DOI: 10.1016/j.jflm.2011.06.011 Externer Link
131.
Huth KC, Baumann M, Kollmuss M, Hickel R, Fischer MR, Paschos E. Assessment of practical tasks in the Phantom course of Conservative Dentistry by pre-defined criteria: a comparison between self-assessment by students and assessment by instructors. Eur J Dent Educ. 2015. DOI: 10.1111/eje.12176 [Epub ahead of print] DOI: 10.1111/eje.12176 Externer Link
132.
Banerjee R, Chandak A, Radke U. Bringing objectivity to assessment in Preclinical Prosthodontics: The student's perspective on OSPE. JETHS. 2014;1(2):30-33.
133.
Schmitt I, Möltner A, Bärmeier J, Gärtner K, Dopfer S, Kuschel B, Kunkel F, Heidemann D, Gerhardt-Szép S. Wie viele Prüfer braucht ein OSCE? Düsseldorf: AKWLZ; 2013. Zugänglich unter/available from: https://www.akwlz.de/documents/262773/490615/K8+-+Schmitt+-+Pr%E2%80%99er+OSPE.pdf/dc030606-f303-4e81-b85c-601177f11e0c?version=1.0 Externer Link
134.
Adamo G. Simulated and standardized patients in OSCEs: achievements and challenges 1992-2003. Med Teach. 2003;25(3):262–270. DOI: 10.1080/0142159031000100300 Externer Link
135.
Colliver JA, Barrows HS, Vu NV, Verhulst SJ, Mast TA, Travis TA. Test security in examinations that use standardized-patient cases at one medical school. Acad Med. 1991;66(5):279–282. DOI: 10.1097/00001888-199105000-00011 Externer Link
136.
Ortwein H, Fröhmel A, Burger W. Einsatz von Simulationspatienten als Lehr-, Lern-und Prüfungsform. Psychother Psychosom Med Psychol. 2006;56(01):23–29. DOI: 10.1055/s-2005-867058 Externer Link
137.
Collins J, Harden RM. AMEE Medical Education Guide No. 13: real patients, simulated patients and simulators in clinical examinations. Med Teach. 1998;20(6):508–521. DOI: 10.1080/01421599880210 Externer Link
138.
Barrows H. An overview of the uses of standardized patients for teaching and evaluating clinical skills. Acad Med. 1993;68(6):443–451. DOI: 10.1097/00001888-199306000-00002 Externer Link
139.
Cleland JA, Abe K, Rethans JJ. The use of simulated patients in medical education: AMEE Guide No 42. Med Teach. 2009;31(6):477–486. DOI: 10.1080/01421590903002821 Externer Link
140.
Hendrickx K, De Winter B, Tjalma W, Avonts D, Peeraer G, Wyndaele JJ. Learning intimate examinations with simulated patients: The evaluation of medical students' performance. Med Teach. 2009;31(4):E139–147. DOI: 10.1080/01421590802516715 Externer Link
141.
Norcini JJ. The death of the long case? BMJ. 2002;324(7334):408–409. DOI: 10.1136/bmj.324.7334.408 Externer Link
142.
Norcini J. The validity of long cases. Med Educ. 2001;35(8):720–721. DOI: 10.1046/j.1365-2923.2001.01006.x Externer Link
143.
Norcini JJ, Blank LL, Arnold GK, Kimball HR. The mini-CEX (clinical evaluation exercise): a preliminary investigation. Ann Intern Med. 1995;123(10):795–799. DOI: 10.7326/0003-4819-123-10-199511150-00008 Externer Link
144.
Norcini JJ, Blank LL, Duffy FD, Fortna GS. The mini-CEX: a method for assessing clinical skills. Ann Intern Med. 2003;138(6):476–481. DOI: 10.7326/0003-4819-138-6-200303180-00012 Externer Link
145.
Thornton S. A literature review of the long case and its variants as a method of assessment. Educ Med J. 2012;4(1):5–11.
146.
Durning SJ, Cation LJ, Markert RJ, Pangaro LN. Assessing the reliability and validity of the mini-clinical evaluation exercise for internal medicine residency training. Acad Med. 2002;77(9):900–904. DOI: 10.1097/00001888-200209000-00020 Externer Link
147.
Herbers JE, Noel GL, Cooper GS, Harvey J, Pangaro LN, Weaver MJ. How accurate are faculty evaluations of clinical competence? J Gen Intern Med. 1989;4(3):202–208. DOI: 10.1007/BF02599524 Externer Link
148.
Yousuf N. Mini clinical evaluation exercise: validity and feasibility evidences in literature. Educ Med J. 2012;4(1):e100-107.
149.
Hill F, Kendall K, Galbraith K, Crossley J. Implementing the undergraduate mini-CEX: a tailored approach at Southampton University. Med Educ. 2009;43(4):326–334. DOI: 10.1111/j.1365-2923.2008.03275.x Externer Link
150.
Kogan JR, Bellini LM, Shea JA. Feasibility, reliability, and validity of the mini-clinical evaluation exercise (mCEX) in a medicine core clerkship. Acad Med. 2003;78(10 Suppl):S33–35. DOI: 10.1097/00001888-200310001-00011 Externer Link
151.
Alves De Lima A, Barrero C, Baratta S, Castillo Costa Y, Bortman G, Carabajales J, Conde D, Galli A, Degrange G, Van der Vleuten C. Validity, reliability, feasibility and satisfaction of the Mini-Clinical Evaluation Exercise (Mini-CEX) for cardiology residency training. Med Teach. 2007;29(8):785–790. DOI: 10.1080/01421590701352261 Externer Link
152.
Norcini JJ. The mini clinical evaluation exercise (mini-CEX). Clin Teach. 2005;2(1):25-30. DOI: 10.1111/j.1743-498X.2005.00060.x Externer Link
153.
Alves de Lima A. Assessment of clinical competence: Reliability, Validity, Feasibility and Educational Impact of the mini-CEX. Maastricht: Universität Maastricht; 2013. Zugänglich unter/available from: http://www.icba.com.ar/profesionales/pdf/aal/Thesis_Alberto_Alves_de_Lima_170x240_v10.pdf Externer Link
154.
Cook DA, Beckman TJ. Does scale length matter? A comparison of nine- versus five-point rating scales for the mini-CEX. Adv Health Sci Educ. 2009;14(5):655–664. DOI: 10.1007/s10459-008-9147-x Externer Link
155.
Alves de Lima AE, Conde D, Aldunate L, van der Vleuten CP. Teachers' experiences of the role and function of the mini clinical evaluation exercise in post-graduate training. Int J Med Educ. 2010;1:68–73. DOI: 10.5116/ijme.4c87.8e13 Externer Link
156.
Berendonk C, Beyeler C, Westkämper R, Giger M. Strukturiertes Feedback in der ärztlichen Weiterbildung: Mini-CEX und DOPS. Schweiz Ärztez. 2008;89(32):1337–1340.
157.
Eva KW, Regehr G. Self-assessment in the health professions: a reformulation and research agenda. Acad Med. 2005;80(10 Suppl):S46–54. DOI: 10.1097/00001888-200510001-00015 Externer Link
158.
Brazil V, Ratcliffe L, Zhang J, Davin L. Mini-CEX as a workplace-based assessment tool for interns in an emergency department--does cost outweigh value? Med Teach. 2012;34(12):1017–1023. DOI: 10.3109/0142159X.2012.719653 Externer Link
159.
Magnier KM, Dale VH, Pead MJ. Workplace-based assessment instruments in the health sciences. J Vet Med Educ. 2012;39(4):389–395. DOI: 10.3138/jvme.1211-118R Externer Link
160.
Wilkinson JR, Crossley JG, Wragg A, Mills P, Cowan G, Wade W. Implementing workplace-based assessment across the medical specialties in the United Kingdom. Med Educ. 2008;42(4):364–373. DOI: 10.1111/j.1365-2923.2008.03010.x Externer Link
161.
Prescott-Clements L, van der Vleuten CP, Schuwirth LW, Hurst Y, Rennie JS. Evidence for validity within workplace assessment: the Longitudinal Evaluation of Performance (LEP). Med Educ. 2008;42(5):488–495. DOI: 10.1111/j.1365-2923.2007.02965.x Externer Link
162.
Deshpande S, Chahande J. Impact of computer-based treatment planning software on clinical judgment of dental students for planning prosthodontic rehabilitation. Adv Med Educ Pract. 2014;5:269–274. DOI: 10.2147/AMEP.S66264 Externer Link
163.
Veloski J, Boex JR, Grasberger MJ, Evans A, Wolfson DB. Systematic review of the literature on assessment, feedback and physicians' clinical performance: BEME Guide No. 7. Med Teach. 2006;28(2):117–128. DOI: 10.1080/01421590600622665 Externer Link
164.
Holmboe ES, Yepes M, Williams F, Huot SJ. Feedback and the mini clinical evaluation exercise. J Gen Intern Med. 2004;19(5 Pt 2):558–561. DOI: 10.1111/j.1525-1497.2004.30134.x Externer Link
165.
Montagne S, Rogausch A, Gemperli A, Berendonk C, Jucker-Kupper P, Beyeler C. The mini-clinical evaluation exercise during medical clerkships: are learning needs and learning goals aligned? Med Educ. 2014;48(10):1008–1019. DOI: 10.1111/medu.12513 Externer Link
166.
Berberat PO, Harendza S, Kadmon M, Gesellschaft für Medizinische Ausbildung, GMA-Ausschuss für Weiterbildung. Entrustable professional activities - visualization of competencies in postgraduate training. Position paper of the Committee on Postgraduate Medical Training of the German Society for Medical Education (GMA). GMS Z Med Ausbild. 2013;30(4):Doc47. DOI: 10.3205/zma000890 Externer Link
167.
Colleges AOAM. Core Entrustable Professional Activities for Entering Residency. [Internet] [cited 2016 June 14] 2014. Zugänglich unteer/available from: https://members.aamc.org/eweb/upload/Core%20EPA%20Curriculum%20Dev%20Guide.pdf Externer Link
168.
Ten Cate O. Trusting graduates to enter residency: what does it take? J Grad Med Educ. 2014;6(1):7–10. DOI: 10.4300/JGME-D-13-00436.1 Externer Link
169.
Ten Cate O, Snell L, Carraccio C. Medical competence: the interplay between individual ability and the health care environment. Med Teach. 2010;32(8):669–675. DOI: 10.3109/0142159X.2010.500897 Externer Link
170.
Jones MD, Rosenberg AA, Gilhooly JT, Carraccio CL. Perspective: Competencies, Outcomes, and Controversy—Linking Professional Activities to Competencies to Improve Resident Education and Practice. Acad Med. 2011;86(2):161–165. DOI: 10.1097/ACM.0b013e31820442e9 Externer Link
171.
Mulder H, Ten Cate O, Daalder R, Berkvens J. Building a competency-based workplace curriculum around entrustable professional activities: The case of physician assistant training. Med Teach. 2010;32(10):e453–459. DOI: 10.3109/0142159X.2010.513719 Externer Link
172.
Chang A, Bowen JL, Buranosky RA, Frankel RM, Ghosh N, Rosenblum MJ, Thompson S, Green ML. Transforming primary care training--patient-centered medical home entrustable professional activities for internal medicine residents. J Gen Intern Med. 2013;28(6):801-809. DOI: 10.1007/s11606-012-2193-3 Externer Link
173.
Scheele F, Teunissen P, van Luijk S, Heineman E, Fluit L, Mulder H, Meininger A, Wijnen-Meijer M, Glas G, Sluiter H, Hummel T. Introducing competency-based postgraduate medical education in the Netherlands. Med Teach. 2008;30(3):248–253. DOI: 10.1080/01421590801993022 Externer Link
174.
Englander R, Carraccio C. From theory to practice: making entrustable professional activities come to life in the context of milestones. Acad Med. 2014;89(10):1321–1323. DOI: 10.1097/ACM.0000000000000324 Externer Link
175.
Aylward M, Nixon J, Gladding S. An entrustable professional activity (EPA) for handoffs as a model for EPA assessment development. Acad Med. 2014;89(10):1335–1340. DOI: 10.1097/ACM.0000000000000317 Externer Link
176.
Boyce P, Spratt C, Davies M, McEvoy P. Using entrustable professional activities to guide curriculum development in Psychiatry training. BMC Med Educ. 2011;11(1):96. DOI: 10.1186/1472-6920-11-96 Externer Link
177.
Ten Cate O. Competency-based education, entrustable professional activities, and the power of language. J Grad Med Educ. 2013;5(1):6–7. DOI: 10.4300/JGME-D-12-00381.1 Externer Link
178.
Hauer KE, Kohlwes J, Cornett P, Hollander H, Cate ten O, Ranji SR, Soni K, Iobst W, O'Sullivan P. Identifying entrustable professional activities in internal medicine training. J Grad Med Educ. 2013;5(1):54–59. DOI: 10.4300/JGME-D-12-00060.1 Externer Link
179.
Shaughnessy AF, Sparks J, Cohen-Osher M, Goodell KH, Sawin GL, Joseph Gravel J. Entrustable Professional Activities in Family Medicine. J Grad Med Educ. 2013;5(1):112–118. DOI: 10.4300/JGME-D-12-00034.1 Externer Link
180.
Ten Cate O, Scheele F. Competency-based postgraduate training: can we bridge the gap between theory and clinical practice? Acad Med. 2007;82(6):542–547. DOI: 10.1097/ACM.0b013e31805559c7 Externer Link
181.
Naeem N. Validity, reliability, feasibility, acceptability and educational impact of direct observation of procedural skills (DOPS). J Coll Physicians Surg Pak. 2013;23(1):77–82.
182.
Bazrafkan L. Comparison of the Assessment of Dental Students'. J Med Ed. 2009;13(1, 2):3-8.
183.
Tricio J, Woolford M, Thomas M, Lewis-Greene H, Georghiou L, Andiappan M, Escudier M. Dental students' peer assessment: a prospective pilot study. Eur J Dent Educ. 2014;19(3):140-148. DOI: 10.1111/eje.12114 Externer Link
184.
Abraham RR, Upadhya S, Torke S, Ramnarayan K. Student perspectives of assessment by TEMM model in physiology. Adv Physiol Educ. 2005;29(2):94–97. DOI: 10.1152/advan.00051.2004 Externer Link
185.
Barton JR, Corbett S, van der Vleuten CP, English Bowel Cancer Screening Programme, UK Joint Advisory Group for Gastrointestinal Endoscopy. The validity and reliability of a Direct Observation of Procedural Skills assessment tool: assessing colonoscopic skills of senior endoscopists. Gastrointest Endosc. 2012;75(3):591–597. DOI: 10.1016/j.gie.2011.09.053 Externer Link
186.
Akbari M, Shamsabadi RM. Direct Observation of Procedural Skills (DOPS) in Restorative Dentistry: Advantages and Disadvantages in Student's Point of View. Iran J Med Educ. 2013;13(3):212-220.
187.
Andersen RM, Davidson PL, Atchison KA, Hewlett E, Freed JR, Friedman J-A, et al. Pipeline, profession, and practice program: evaluating change in dental education. J Dent Educ. 2005;69(2):239–248.
188.
Hamdy H, Prasad K, Williams R, Salih FA. Reliability and validity of the direct observation clinical encounter examination (DOCEE). Med Educ. 2003;37(3):205–212. DOI: 10.1046/j.1365-2923.2003.01438.x Externer Link
189.
Torre DM, Simpson DE, Elnicki DM, Sebastian JL, Holmboe ES. Feasibility, reliability and user satisfaction with a PDA-based mini-CEX to evaluate the clinical skills of third-year medical students. Teach Learn Med. 2007;19(3):271–277. DOI: 10.1080/10401330701366622 Externer Link
190.
Cohen SN, Farrant PBJ, Taibjee SM. Assessing the assessments: U.K. dermatology trainees' views of the workplace assessment tools. Br J Dermatol. 2009;161(1):34–39. DOI: 10.1111/j.1365-2133.2009.09097.x Externer Link
191.
Center of Innovation in Professional Health Education and Research (CIPHER). Review of work-based assessment methods. Syndey: University of Sydney; 2007.
192.
Roghieh N, Fateme H, Hamid S, Hamid H. The effect of formative evaluation using "direct observation of procedural skills" (DOPS) method on the extent of learning practical skills among nursing students in the ICU. Iran J Nurs Midwifery Res. 2013;18(4):290–293.
193.
Hamilton KES, Coates V, Kelly B, Boore JRP, Cundell JH, Gracey J, et al. Performance assessment in health care providers: a critical review of evidence and current practice. J Nurs Manag. 2007;15(8):773–791. DOI: 10.1111/j.1365-2934.2007.00780.x Externer Link
194.
Morris A, Hewitt J, Roberts CM. Practical experience of using directly observed procedures, mini clinical evaluation examinations, and peer observation in pre-registration house officer (FY1) trainees. Postgrad Med J. 2006;82(966):285–288. DOI: 10.1136/pgmj.2005.040477 Externer Link
195.
Sh S, Pooladi A, BahramRezaie M, Farhadifar F, Khatibi R. Evaluation of the Effects of Direct Observation of Procedural Skills (DOPS) on clinical externship students' learning level in obstetrics ward of kurdistan university of medical sciences. J Med Ed. 2009;13(1):29-33.
196.
Stosch C, Wichelhaus AS, Matthes J. Die Portfolio-Methode: Modernes Assessment auf dem Prüfstand. GMS Z Med Ausbild. 2006;23(3):Doc43. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000262.shtml Externer Link
197.
Buckley S, Coleman J, Davison I, Khan KS, Zamora J, Malick S, Moreley D, Pollard D, Ashcroft T, Popovic C, Sayers J. The educational effects of portfolios on undergraduate student learning: a Best Evidence Medical Education (BEME) systematic review. BEME Guide No. 11. Med Teach. 2009;31(4):282–298. DOI: 10.1080/01421590902889897 Externer Link
198.
Tochel C, Haig A, Hesketh A, Cadzow A, Beggs K, Colthart I, Peacock H. The effectiveness of portfolios for post-graduate assessment and education: BEME Guide No 12. Med Teach. 2009;31(4):299–318. DOI: 10.1080/01421590902883056 Externer Link
199.
Pocock I. A new route for dental graduates. Dent Update. 2007;34(1):59.
200.
Kramer GA, Albino JEN, Andrieu SC, Hendricson WD, Henson L, Horn BD, Neumann LM, Young SK. Dental student assessment toolbox. J Dent Educ. 2009;73(1):12–35.
201.
Gadbury-Amyot CC, McCracken MS, Woldt JL, Brennan RL. Validity and reliability of portfolio assessment of student competence in two dental school populations: a four-year study. J Dent Educ. 2014;78(5):657–667.
202.
Michels NR, Driessen EW, Muijtjens AM, Van Gaal LF, Bossaert LL, de Winter BY. Portfolio assessment during medical internships: How to obtain a reliable and feasible assessment procedure? Educ Health. 2009;22(3):313.
203.
O'sullivan PS, Reckase MD, McClain T, Savidge MA, Clardy JA. Demonstration of portfolios to assess competency of residents. Adv Health Sci Educ. 2004;9(4):309–323. DOI: 10.1007/s10459-004-0885-0 Externer Link
204.
Melville C, Rees M, Brookfield D, Anderson J. Portfolios for assessment of paediatric specialist registrars. Med Educ. 2004;38(10):1117–1125. DOI: 10.1111/j.1365-2929.2004.01961.x Externer Link
205.
McMullan M. Students' perceptions on the use of portfolios in pre-registration nursing education: a questionnaire survey. Int J Nurs Stud. 2006;43(3):333–343. DOI: 10.1016/j.ijnurstu.2005.05.005 Externer Link
206.
Burch VC, Seggie JL. Use of a structured interview to assess portfolio-based learning. Med Educ. 2008;42(9):894–900. DOI: 10.1111/j.1365-2923.2008.03128.x Externer Link
207.
Kadagad P, Kotrashetti SM. Portfolio: a comprehensive method of assessment for postgraduates in oral and maxillofacial surgery. J Maxillofac Oral Surg. 2013;12(1):80–84. DOI: 10.1007/s12663-012-0381-7 Externer Link
208.
Brett JF, Atwater LE. 360 degree feedback: accuracy, reactions, and perceptions of usefulness. J Appl Psychol. 2001;86(5):930–942. DOI: 10.1037/0021-9010.86.5.930 Externer Link
209.
Lepsinger R, Lucia AD. The Art and Science of 360 Degree Feedback. New York: John Wiley & Sons; 2009.
210.
Donnon T, Ansari Al A, Alawi Al S, Violato C. The reliability, validity, and feasibility of multisource feedback physician assessment: a systematic review. Acad Med. 2014;89(3):511–516. DOI: 10.1097/ACM.0000000000000147 Externer Link
211.
Zhao Y, Zhang X, Chang Q, Sun B. Psychometric characteristics of the 360° feedback scales in professionalism and interpersonal and communication skills assessment of surgery residents in China. J Surg Educ. 2013;70(5):628–635. DOI: 10.1016/j.jsurg.2013.04.004 Externer Link
212.
Joshi R, Ling FW, Jaeger J. Assessment of a 360-degree instrument to evaluate residents' competency in interpersonal and communication skills. Acad Med. 2004;79(5):458–463. DOI: 10.1097/00001888-200405000-00017 Externer Link
213.
Archer JC, Norcini J, Davies HA. Use of SPRAT for peer review of paediatricians in training. BMJ. 2005;330(7502):1251–1253. DOI: 10.1136/bmj.38447.610451.8F Externer Link
214.
Murphy DJ, Bruce DA, Mercer SW, Eva KW. The reliability of workplace-based assessment in postgraduate medical education and training: a national evaluation in general practice in the United Kingdom. Adv Health Sci Educ. 2009;14(2):219–232. DOI: 10.1007/s10459-008-9104-8 Externer Link
215.
Wenrich MD, Carline JD, Giles LM, Ramsey PG. Ratings of the performances of practicing internists by hospital-based registered nurses. Acad Med. 1993;68(9):680–687. DOI: 10.1097/00001888-199309000-00014 Externer Link
216.
Violato C, Lockyer JM, Fidler H. Assessment of psychiatrists in practice through multisource feedback. Can J Psychiatry. 2008;53(8):525–533.
217.
Chandler N, Henderson G, Park B, Byerley J, Brown WD, Steiner MJ. Use of a 360-degree evaluation in the outpatient setting: the usefulness of nurse, faculty, patient/family, and resident self-evaluation. J Grad Med Educ. 2010;2(3):430–434. DOI: 10.4300/JGME-D-10-00013.1 Externer Link
218.
Hesketh EA, Anderson F, Bagnall GM, Driver CP, Johnston DA, Marshall D, Needham G, Orr G, Walker K. Using a 360 degrees diagnostic screening tool to provide an evidence trail of junior doctor performance throughout their first postgraduate year. Med Teach. 2005;27(3):219–233. DOI: 10.1080/01421590500098776 Externer Link
219.
Ferguson J, Wakeling J, Bowie P. Factors influencing the effectiveness of multisource feedback in improving the professional practice of medical doctors: a systematic review. BMC Med Educ. 2014;14(1):76. DOI: 10.1186/1472-6920-14-76 Externer Link
220.
Brinkman WB, Geraghty SR, Lanphear BP, Khoury JC, Gonzalez del Rey JA, Dewitt TG, Britto MT. Effect of multisource feedback on resident communication skills and professionalism: a randomized controlled trial. Arch Pediatr Adolesc Med. 2007;161(1):44–49. DOI: 10.1001/archpedi.161.1.44 Externer Link
221.
Weigelt JA, Brasel KJ, Bragg D, Simpson D. The 360-degree evaluation: increased work with little return? Current Surgery. 2004;61(6):616–626. DOI: 10.1016/j.cursur.2004.06.024 Externer Link
222.
Garry A, Stirling K. Achieving 360° student feedback using SPaCE. Clin Teach. 2012;9(4):222–227. DOI: 10.1111/j.1743-498X.2012.00550.x Externer Link
223.
Fabry G. Medizindidaktik: ein Handbuch für die Praxis. Karlsruhe: Huber; 2008.