gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Eine Piloterhebung über den studentisch wahrgenommenen Nutzen von OSCE und MC-Frageformaten

Artikel Prüfungen

Suche in Medline nach

  • author Stefan Müller - Universitätsklinikum Jena, Klinik für Allgemein-, Viszeral- und Gefäßchirurgie, Jena, Deutschland
  • author Utz Settmacher - Universitätsklinikum Jena, Klinik für Allgemein-, Viszeral- und Gefäßchirurgie, Jena, Deutschland
  • author Ines Koch - Universitätsklinikum Jena, Klinik und Poliklinik für Frauenheilkunde und Fortpflanzungsmedizin, Jena, Deutschland
  • corresponding author Uta Dahmen - Universitätsklinikum Jena, Klinik für Allgemein-, Viszeral- und Gefäßchirurgie, Experimentelle Transplantationschirurgie, Jena, Deutschland

GMS J Med Educ 2018;35(4):Doc51

doi: 10.3205/zma001197, urn:nbn:de:0183-zma0011979

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2018-35/zma001197.shtml

Eingereicht: 26. Oktober 2017
Überarbeitet: 24. Mai 2018
Angenommen: 24. Juni 2018
Veröffentlicht: 15. November 2018

© 2018 Müller et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Zielsetzung: Objective Structured Clinical Examination (OSCE) hat sich als eine Form der Prüfung in der medizinischen Ausbildung durchgesetzt. Gleichwohl stellen die mehr traditionellen Multiple-Choice-Fragen (MC-Fragen) weiterhin ein zentrales Verfahren bei studentischen Prüfungen dar. Das Ziel dieser Piloterhebung war die Untersuchung der Wahrnehmung von Studierenden über den Nutzen von OSCE und MC-Fragen. Es sollten Daten gewonnen werden, die eine Implementierung dieser Prüfungsstrategie in das medizinische Staatsexamen der Bundesrepublik Deutschland unterstützen.

Methodik: Ein Fragebogen wurde elektronisch an 34 medizinische Fakultäten in Deutschland gesandt. Studierende im 3. bis 6. Studienjahr wurden gebeten, 11 Items über Ziele guter medizinischer Prüfungen zu bewerten. Alle Items wurden sowohl für OSCE als auch MC-Fragen auf einer 5-Punkt-Likert-Skala (1=trifft überhaupt nicht zu; 5=trifft vollkommen zu) präsentiert. Eine Faktorenanalyse wurde eingesetzt, um zugrunde liegende Komponenten in den Ratings zu identifizieren. Es wurden Mittelwertindizes aus Items gebildet, die jeweils zu einer Komponente gehörten.

Ergebnisse: Die Datenanalyse umfasste 1.082 Studierende von 32 medizinischen Fakultäten. Für das OSCE-Format ergab die Faktorenanalyse zwei Komponenten, die „Bildungswirkung“ und „Entwicklung klinischer Kompetenz“ benannt wurden. Die Mittelwertindizes der Items lagen bei 3,37 bzw. 3,55. Für das MC-Frageformat ergaben sich ebenfalls zwei Komponenten. Diese wurden „empfundene Schwächen von MC-Fragen“ und „empfundene Stärken von MC-Fragen“ (bestehend aus Items wie „fördert mein theoretisches Wissen“) benannt. Die Mittelwertindizes der Komponenten betrugen 1,85 und 3,62.

Schlussfolgerung: Die Ergebnisse dieser Piloterhebung zeigen, dass die Studierenden OSCE und MC-Fragen als sinnvolle Prüfungen betrachten, und zwar jeweils für die Ziele, für die sie konzipiert wurden. Die Prüfungsstrategie erscheint daher angemessen und sollte im Staatsexamen angewandt werden.

Schlüsselwörter: Medizinische Prüfungen, OSCE und MC-Frageformate, Wahrnehmung, Studierende


1. Einführung

Prüfungen sind ein wesentlicher Bestandteil des Ausbildungsprozesses in der Medizin. Neben der Erfassung der Kompetenz oder Performance eines Kandidaten haben Prüfungen Einfluss auf den Lehrplan und steuern darüber hinaus das Lernen der Studierenden. Für das Hervorbringen guter Ärzte sollten sich medizinische Prüfungen an der klinischen Praxis orientieren und in der Lage sein, das dafür notwendige Kompetenzspektrum abzudecken [1], [2], [3], [4]. Klassische (schriftliche) Prüfungspraxis konzentriert sich jedoch darauf, das Wissen der Studierenden zu testen, anstatt performancebezogene Fähigkeiten zu bewerten [5]. Dies mag erklären, warum Absolventen oftmals nur unzureichend auf die Arbeit in der Klinik vorbereitet sind [6], [7].

Objective Structured Clinical Examination (OSCE) ist eine performancebasierte Prüfung. Das Format wurde entwickelt, um die klinische Performance von Studierenden zu beurteilen. Ein OSCE umfasst in der Regel eine Reihe von Stationen, an denen die Prüflinge ihr Wissen und ihre Fähigkeiten in simulierten Umgebungen anwenden müssen. An jeder Station wird die Performance der Prüflinge nach vorher festgelegten Kriterien bewertet. Das OSCE-Format hat sich in vielen Ländern als Prüfungsverfahren durchgesetzt [8]. Obgleich OSCE-Prüfungen mittlerweile weit verbreitet sind, spielen die mehr traditionellen Multiple-Choice-Fragen (MC-Fragen) noch immer eine zentrale Rolle in der medizinischen Ausbildung [9], [10].

1.1. Medizinstudium in Deutschland

Alle 36 medizinischen Fakultäten in Deutschland (d. h. Fakultäten, die vor 2012 gegründet wurden) bieten ein sechsjähriges Studium an, das den gesetzlichen Vorgaben der Approbationsordnung für Ärzte (ÄApprO) [https://www.gesetze-im-internet.de/_appro_2002/BJNR240500002.html] entspricht. Das Studium besteht in der Regel aus drei Abschnitten: einem vorklinischen Abschnitt von 2 Jahren, der die medizinischen Grundlagenfächer beinhaltet; einem klinischen Abschnitt von 3 Jahren, in dem den Studierenden die einzelnen klinischen Fächer nähergebracht werden; und abschließend dem Praktischen Jahr (PJ) mit zusammenhängender praktischer Ausbildung in Krankenanstalten [11]. An allen Fakultäten müssen die Studierenden fakultätsinterne Prüfungen ablegen, um sich für die medizinischen Staatsprüfungen anmelden zu können.

In Zusammenhang mit der 2002 durchgeführten Novellierung der ÄApprO [https://www.gesetze-im-internet.de/_appro_2002/BJNR240500002.html] hat die Überprüfung performancebezogener Fähigkeiten zunehmend an Bedeutung gewonnen. An 34 der 36 (94,4%) Fakultäten sind OSCE-Prüfungen inzwischen Bestandteil der fakultätsinternen Prüfungsstrategie [12]. MC-Aufgaben beherrschen jedoch nach wie vor die studentischen Prüfungen an den Fakultäten (eigene Daten).

Das medizinische Staatsexamen in Deutschland ist eine dreiteilige Prüfung. Der erste Teil der Prüfung nach dem 2. Studienjahr umfasst die medizinischen Grundlagenfächer. Bei dem zweiten Teil nach dem 5. Studienjahr handelt es sich um eine schriftliche Prüfung zur Überprüfung des klinischen Wissens der Studierenden. Dieser Teil der Staatsprüfung, der sich über drei Tage erstreckt, besteht aus standardisierten MC-Prüfungsaufgaben, die zentral vom Institut für medizinische und pharmazeutische Prüfungsfragen (IMPP) [https://www.impp.de/] organisiert werden. Der dritte und letzte Teil des Examens nach dem 6. Studienjahr beinhaltet eine nicht standardisierte zweitägige klinisch-praktische Prüfung. Kürzlich wurde gezeigt, dass dieser Teil der staatlichen Prüfung die klinische Kompetenz von Medizinstudierenden nicht zufriedenstellend beurteilt [13]. Im Gegensatz zu anderen Ländern wie der Schweiz, Kanada oder den Vereinigten Staaten [14], [15], [16] wird das OSCE-Format in den deutschen Staatsprüfungen noch nicht eingesetzt. Im Rahmen des „Masterplan Medizinstudium 2020“ [https://www.bmbf.de/de/masterplan-medizinstudium-2020-4024.html] ist jedoch vorgesehen, die OSCE-Methode in die Staatsexamensprüfungen mit aufzunehmen.

1.2. Ziel der Erhebung

Diese Piloterhebung hatte zum Ziel, die Wahrnehmung der Studierenden über den Nutzen von OSCE und MC-Fragen zu untersuchen. Es sollten Daten gewonnen werden, die eine Einbeziehung der OSCE-Prüfungsmethode in das medizinische Staatsexamen der Bundesrepublik Deutschland unterstützen. Wir konzentrierten uns auf OSCE und MC-Fragen, da es sich hierbei um gängige Prüfungsverfahren an den medizinischen Fakultäten in Deutschland handelt. Darüber hinaus sind die beiden Formate auch die Hauptbestandteile anderer nationaler Staatsexamina, wie zum Beispiel des Medical Council of Canada Qualifying Examination (MCCQE) und des United States Medical Licensing Examination (USMLE) [15], [16]. Wir haben uns ausschließlich auf die Ansichten der Studierenden konzentriert. Die Einstellungen der Lehrenden lagen außerhalb des Forschungsrahmens und wurden daher in dieser Erhebung nicht berücksichtigt.


2. Methoden

2.1. Befragungspopulation

Nach Zahlen des Statistischen Bundesamtes waren 2014/15 mehr als 85.000 Medizinstudierende (87.863) an den deutschen Fakultäten eingeschrieben. Die Mehrheit davon waren weibliche Studierende (53.352; 60,7%) [https://www.destatis.de/DE/ZahlenFakten/Indikatoren/LangeReihen/Bildung/lrbil05.html]. Anhand genauer Informationen zu Kohortengrößen und Prüfungsplänen an den einzelnen Fakultäten errechneten wir die Anzahl der sich zwischen dem 3. und 6. Studienjahr befindenden Studierenden mit OSCE-Erfahrung auf 34.790.

2.2. Erhebungsmaterial

Ein 11-Itemset wurde entwickelt. Der Entwicklungsprozess umfasste zunächst formlose Interviews mit Studierenden der hiesigen medizinischen Fakultät. In den Interviews wurden die Studierenden gebeten, anzugeben, was sie von guten medizinischen Prüfungen im Hinblick auf ihre Berufsvorbereitung erwarten. Die dabei gesammelten Aussagen wurden dann zur Erstellung des Itemsets verwendet. Das Set wurde einem Pretest unterzogen, um sicherzustellen, dass die Items klar und verständlich sind. Das komplette Itemset wurde auf gesonderten Seiten sowohl für OSCE als auch für MC-Fragen innerhalb eines größeren Fragebogens1 präsentiert und hatte jeweils die Überschrift „Was bringt/nützt Dir … [das Format]?”. Sämtliche Items wurden auf einer 5-Punkt-Likert-Skala (1=trifft überhaupt nicht zu, 2=trifft kaum zu, 3=weder noch, 4=trifft überwiegend zu, 5=trifft vollkommen zu) abgefragt.

Die Items lauteten im Einzelnen:

  • A „gibt mir ein Verständnis medizinischen Vorgehens“
  • B „veranschaulicht mir medizinische Behandlungstechniken und Prinzipien“
  • C „gibt mir eine Rückmeldung meines Leistungsstandes“
  • D „offenbart meine Stärken in ärztlichem Handeln“
  • E „offenbart meine Schwächen in ärztlichem Handeln“
  • F „zeigt mir Lücken in meiner Ausbildung auf“
  • G „stärkt meine Problemlösungs- und Handlungskompetenzen“
  • H „fördert mein theoretisches Wissen“
  • J „spiegelt die Anforderungen des Arztberufes wider“
  • K „erlaubt mir eine Beurteilung meiner ärztlichen Berufsfähigkeit“
  • L „hilft mir bei der Wahl meiner späteren Fachrichtung“

Am Ende des Fragebogens wurden noch demografische Angaben zu Geschlecht, Alter, Studienjahr und Fakultätszugehörigkeit erhoben.

2.3. Methodisches Vorgehen

Die Umfrage wurde zwischen Februar und April 2015 durchgeführt. Alle 34 medizinischen Fakultäten, an denen das OSCE-Format eingesetzt wird, wurden gebeten, ihren Studierenden im 3. bis 6. Studienjahr ein Anschreiben mit dem Link zum Fragebogen zukommen zu lassen. Die Teilnahme an der Befragung war freiwillig und anonym. Es wurden keine materiellen Anreize für die Bearbeitung des Fragebogens geboten. Eine formale Zustimmung der zuständigen Ethikkommission war nicht erforderlich.

Um sicherzustellen, dass die Umfrageteilnehmer über persönliche Erfahrungen mit dem OSCE-Format verfügten, haben wir jeden eingegangenen Datensatz mit dem Prüfungsplan der jeweiligen Fakultät abgeglichen. Anschließend wurden die Daten deskriptiv analysiert. Um zugrunde liegende Komponenten in den Ratings der Studierenden zu identifizieren, haben wir die Daten in eine explorative Faktorenanalyse mit schräger Rotation für jede der beiden Prüfungsmethoden eingegeben. Wir haben die Antworten auf alle Items mit jeweils hoher Ladung auf einen Faktor aufsummiert und die Ergebnisse durch die Anzahl der Items geteilt, um Mittelwertindizes zu bilden.


3. Ergebnisse

3.1. Umfrageteilnehmer

Insgesamt haben 1.189 Teilnehmer den Fragebogen ausgefüllt. Es wurden 107 Teilnehmer gefunden, die noch keine Erfahrung mit dem OSCE-Format hatten, alle Items des Sets gleich einstuften oder keine Angaben zu ihrem Studienjahr oder ihrer Fakultätszugehörigkeit machten (notwendig für den Abgleich). Die Daten dieser Teilnehmer wurden von der weiteren Analyse ausgeschlossen. Daten von 1.082 Befragten, was 3,1% der Zielpopulation entspricht, von 32 der 34 medizinischen Fakultäten (von zwei Fakultäten gab es überhaupt keine Teilnehmer) wurden analysiert. Davon waren 747 (69,0%) weibliche Studierende. Das Alter der Teilnehmer lag zwischen 19 und 45 Jahren, mit einem Mittelwert von 25,3 Jahren und einem Median von 25 Jahren, und deckte damit die gesamte Altersspanne von Medizinstudierenden in Deutschland ab. Die Anteile von Studierenden im 4., 5. und 6. Studienjahr waren in etwa gleich hoch (28,0%, 29,8% bzw. 27,0%), wohingegen der Anteil von Studierenden im 3. Studienjahr aufgrund der geringeren Erfahrung mit dem OSCE-Format niedriger war (15,2%).

3.2. Ratings in dem 11-Itemset

Tabelle 1 [Tab. 1] zeigt die Ratings in dem 11-Itemset für OSCE und MC-Fragen. Der OSCE bekam positive (Mittelwerte über 3,50) oder schwach positive Ratings (Mittelwerte zwischen 3,25 und 3,50) für die Items B (3,81), A (3,75), F (3,53), E (3,36), D (3,31) und C (3,28). Das MC-Frageformat erhielt dagegen positive oder schwach positive Ratings für die Items H (4,21), C (3,34) und F (3,32).

In Tabelle 2 [Tab. 2] sind die Itemratings in Abhängigkeit von den demografischen Merkmalen der Studierenden aufgeführt. Die Ratings der Items unterschieden sich nicht wesentlich in Hinblick auf Geschlecht, Alter oder Ausbildungsstand (Studienjahr) der Teilnehmer.

3.3. Faktorenanalyse

Tabelle 3 [Tab. 3] beinhaltet die Ergebnisse der Faktorenanalyse einschließlich der rotierten Faktorkoeffizienten. Das Kaiser-Meyer-Olkin Maß für die Angemessenheit der Stichprobe lag bei 0,90 für den OSCE bzw. 0,87 für MC-Fragen und zeigte damit, dass die Daten für die Durchführung einer Faktorenanalyse geeignet waren. Es wurden zwei Faktoren bzw. Komponenten mit Eigenwerten >1 für beide Prüfungsformate gefunden. Für den OSCE luden die Items E, D, F und C hoch auf Faktor 1 (Koeffizienten >0,60). Die Items wiesen Ladungen von 0,95, 0,84, 0,83 bzw. 0,68 auf. Der Mittelwertindex aus den vier Items betrug 3,37. Nach einer inhaltlichen Analyse der Items haben wir die Komponente „Bildungswirkung“ benannt. Die Items B und A, als auch Item H (Mittelwert 3,10) hatten hohe Ladungen auf Faktor 2 (Faktorladungen von 0,80, 0,74 bzw. 0,77). Der Mittelwertindex der Items lag bei 3,55. Ausgehend vom Inhalt der Items haben wir diese Komponente „Entwicklung klinischer Kompetenz“ benannt. Beim MC-Frageformat zeigten die Items D, E, K, J und G (Mittelwerte jeweils unter 2,00) hohe Ladungen auf Faktor 1 (Faktorkoeffizienten von 0,92, 0,89, 0,78, 0,73 bzw. 0,62), während die Items H, C und F hoch auf Faktor 2 luden (Koeffizienten von 0,85, 0,79 bzw. 0,70). Die Mittelwertindizes für die beiden Komponenten betrugen 1,85 und 3,62. Die Komponenten wurden „empfundene Schwächen von MC-Fragen“ und „empfundene Stärken von MC-Fragen“ benannt.


4. Diskussion

Diese Pilotstudie untersuchte den studentisch wahrgenommenen Nutzen von OSCE und MC-Frageformaten. Nachfolgend werden die Befragungsergebnisse nach Themen geordnet diskutiert.

Bildungswirkung („educational impact“) wird als eine wichtige Eigenschaft von Prüfungen gesehen [17], [18]. Eine Prüfung – selbst wenn sie zu summativen Zwecken verwendet wird – sollte sich positiv auf das weitere Lernen der Studierenden auswirken, indem sie den Lernenden Feedback über deren Stärken und Schwächen gibt. Zugleich sollten Prüfungen Schwachstellen in den Lehrmethoden oder dem Curriculum aufzeigen, sodass die Lehrenden entsprechende Anpassungen vornehmen können. Die Studierenden in unserer Studie bewerteten die Items C bis F (Items, die zur Komponente „Bildungswirkung“ beitragen) positiv oder schwach positiv für den OSCE. Das deutet darauf hin, dass das OSCE-Format als ein Hilfsmittel zur Verbesserung des studentischen Lernens und des Lehrplans dienen kann, was in Einklang mit früheren Arbeiten steht [19], [20]. Es sollte jedoch darauf hingewiesen werden, dass die Gabe von detailliertem Feedback in einem Staatsexamen-OSCE nur schwer zu bewerkstelligen ist. Nichtsdestotrotz können die in der Prüfung gemachten Erfahrungen sowie die erreichten Noten von den Studierenden genutzt werden, um ihr weiteres Lernen zu optimieren [21].

Ein praktizierender Arzt sollte in Bezug auf medizinisches Wissen, klinische Fähigkeiten (z. B. Anamneseerhebung oder Durchführung einer körperlichen Untersuchung), praktische Tätigkeiten (z. B. Schaffung eines intravenösen Zugangs), Patientenmanagement, Kommunikation, sowie professionelles Verhalten kompetent sein [22], [23]. Den Studierenden dabei zu helfen, Kompetenzen in den entsprechenden Bereichen zu entwickeln, ist eine Kernaufgabe der medizinischen Ausbildung. Die Itemratings weisen darauf hin, dass das OSCE-Format von den Studierenden als nützlich für die Entwicklung von Kompetenzen in den Bereichen außerhalb von medizinischem Wissen empfunden wird. Die Folgerung ergibt sich aus positiven Ratings für die Items A und B; und einem nur mittelmäßigen Rating für Item H (alles Items, die der Komponente „Entwicklung klinischer Kompetenz“ zugeordnet wurden). Vor dem Hintergrund, dass es sich bei dem OSCE um eine Performanceprüfung zur Beurteilung von Fähigkeiten und Verhaltensweisen handelt, die am klinischen Arbeitsplatz benötigt werden [8], stimmen die vorliegenden Ergebnisse mit der beabsichtigten Schwerpunktsetzung des OSCE-Formats überein.

Die größte von den Studierenden empfundene Stärke der MC-Fragen scheint in der Förderung des Wissenserwerbs zu liegen, was durch ein stark positives Rating für das Item „fördert mein theoretisches Wissen“ untermauert wird. Unsere Ergebnisse zeigen jedoch, dass die Studierenden das MC-Frageformat lediglich für geeignet halten, kognitive Fähigkeiten niederer Ordnung (z. B. Faktenwissen) zu erfassen. Dies wirft die Frage auf, ob die medizinischen Fakultäten in Deutschland zu häufig auf kontextfreie MC-Fragen zurückgreifen. Diese Form der MC-Prüfung besteht typischerweise aus eigenständigen Fragen, die darauf ausgelegt sind, Faktenwissen abzuprüfen. Wenn dem so ist, und um kognitive Fähigkeiten höherer Ordnung (z. B. Prozesse der Problemlösung oder Entscheidungsfindung) mit einzuschließen, wäre es für die Fakultäten angebracht, den Einsatz kontextreicher MC-Fragen auszuweiten. Bei solchen MC-Aufgaben werden die Fragen nicht isoliert gestellt, sondern beziehen sich unmittelbar auf eine klinische Falldarstellung [24], [25].

Ähnlich wie bei dem OSCE scheint das MC-Frageformat es den Studierenden zu ermöglichen, sowohl ihre eigenen Leistungen als auch die Unterrichtsinhalte bewerten zu können, was beides höchstwahrscheinlich durch die Prüfungsergebnisse induziert wird. Schwach positive Ratings für die Items „gibt mir eine Rückmeldung meines Leistungsstandes“ und „zeigt mir Lücken in meiner Ausbildung auf“; gegenüber niedrigen Ratings unter „offenbart meine Stärken in ärztlichem Handeln“ oder „offenbart meine Schwächen in ärztlichem Handeln“ legen diesen Schluss nahe.

Diese Studie hat mehrere Einschränkungen. Zum einen ist die Studie auf eine relativ kleine Stichprobe von weniger als 5% der Zielpopulation beschränkt. Dies liegt vermutlich daran, dass die meisten Fakultäten ihre Studierenden nicht per E-Mail benachrichtigt haben, sondern das Anschreiben mit dem Link zum Fragebogen lediglich auf ihre Webseiten gestellt haben. Viele Studierenden waren deshalb wohl nicht über die Umfrage informiert. Zum anderen handelte es sich bei der Studie um eine Piloterhebung. Das vorgestellte Itemset erhebt keinen Anspruch auf Vollständigkeit und gibt nur einen Überblick. Trotz aller Einschränkungen glauben wir, dass diese Erhebung, die als erste die Wahrnehmung der Studierenden in ganz Deutschland untersuchte, einen Einblick bietet, inwieweit OSCE und MC-Fragen sinnvolle Prüfungen darstellen. Darüber hinaus war unsere Stichprobe in Bezug auf Geschlecht und Alter repräsentativ und wir hatten eine große Vielfalt hinsichtlich des Ausbildungsstandes und der Fakultätszugehörigkeit der Teilnehmer. Das macht es wahrscheinlich, dass unsere Ergebnisse auf die Gesamtpopulation der Medizinstudierenden in Deutschland übertragen werden können.


5. Schlussfolgerung

Die Ergebnisse dieser Piloterhebung zeigen, dass die Studierenden beide Prüfungsformate, OSCE und MC-Fragen, als wertvolle Hilfsmittel betrachten. Zusammenfassend lässt sich sagen, der OSCE hat Auswirkungen auf den Lernprozess und unterstützt die Entwicklung der für die klinische Praxis erforderlichen Fähigkeiten und Verhaltensweisen, während das MC-Frageformat den Wissenserwerb fördert. Auch wenn der Einsatz von Prüfungsprogrammen mit einer Reihe verschiedener Tests wohl die beste Strategie zur Erstellung einer Gesamtbeurteilung der Kenntnisse und Fähigkeiten eines Kandidaten ist [2], [3], [26], stellt die Verwendung von OSCE und MC-Fragen eine geeignete Prüfungsstrategie dar. Die OSCE-Methode sollte daher zusätzlich zu den bereits bestehenden MC-Prüfungsaufgaben in das medizinische Staatsexamen der Bundesrepublik Deutschland aufgenommen werden.


Anmerkung

1Der Fragebogen enthielt Items zu verschiedenen Themenstellungen. Ein weiteres Manuskript zum Lernverhalten der Studierenden in Vorbereitung auf OSCE und MC-Fragen wurde andernorts eingereicht.


Danksagung

Die Autoren bedanken sich bei den Studiendekanaten der Fakultäten, allen teilnehmenden Studierenden, sowie bei Prof. Dr. Thomas Kessler und Prof. Dr. Rolf Steyer, beide am Institut für Psychologie an der Universität Jena, für die Unterstützung bei der Durchführung dieser Forschungsarbeit.


Interessenkonflikt

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Norcini J, Anderson B, Bollela V, Burch V, Costa MJ, Duvivier R, Galbraith R, Hays R, Kent A, Perrott V, Roberts T. Criteria for good assessment: Consensus statement and recommendations from the Ottawa 2010 Conference. Med Teach. 2011;33(3):206-214. DOI: 10.3109/0142159X.2011.551559 Externer Link
2.
Schuwirth LWT, Ash J. Principles of assessment. In: Walsh K (Hrsg). Oxford Textbook of Medical Education. Oxford: Oxford University Press; 2013. S.409-420. DOI: 10.1093/med/9780199652679.003.0035 Externer Link
3.
Shumway JM, Harden RM. AMEE Guide No. 25: The assessment of learning outcomes for the competent and reflective physician. Med Teach. 2003;25(6):569-584. DOI: 10.1080/0142159032000151907 Externer Link
4.
Sturmberg JP, Farmer L. Educating capable doctors–A portfolio approach. Linking learning and assessment. Med Teach. 2009;31(3):e85-89. DOI: 10.1080/01421590802512912 Externer Link
5.
Crossley J, Humphris G, Jolly B. Assessing health professionals. Med Educ. 2002;36(9):800-804. DOI: 10.1046/j.1365-2923.2002.01294.x Externer Link
6.
Burch VC, Nash RC, Zabow T, Gibbs T, Aubin L, Jacobs B, Hift RJ. A structured assessment of newly qualified medical graduates. Med Educ. 2005;39(7):723-731. DOI: 10.1111/j.1365-2929.2005.02192.x Externer Link
7.
Lypson ML, Frohna JG, Gruppen LD, Woolliscroft JO. Assessing residents' competencies at baseline: identifying the gaps. Acad Med. 2004;79(6):564-570. DOI: 10.1097/00001888-200406000-00013 Externer Link
8.
Humphrey-Murto S, Touchie C, Smee S. Objective structured clinical examinations. In: Walsh K (Hrsg). Oxford Textbook of Medical Education. Oxford: Oxford University Press; 2013. S.524-536. DOI: 10.1093/med/9780199652679.003.0045 Externer Link
9.
Fowell SL, Maudsley G, Maguire P, Leinster SJ, Bligh J. Student assessment in undergraduate medical education in the United Kingdom, 1998. Med Educ. 2000;34 Suppl 1:S1-49. DOI: 10.1046/j.1365-2923.2000.0340s1001.x Externer Link
10.
Mavis BE, Cole BL, Hoppe RB. A survey of student assessment in U.S. medical schools: The balance of breadth versus fidelity. Teach Learn Med. 2001;13(2):74-79. DOI: 10.1207/S15328015TLM1302_1 Externer Link
11.
Chenot JF. Undergraduate medical education in Germany. GMS Ger Med Sci. 2009;7:Doc02. DOI: 10.3205/000061 Externer Link
12.
Müller S, Dahmen U, Settmacher U. Application of the Objective Structured Clinical Examination (OSCE) in German medical schools: An inventory. Gesundheitswesen. 2016. DOI: 10.1055/s-0042-116435 Externer Link
13.
Huber-Lang M, Palmer A, Grab C, Boeckers A, Boeckers TM, Oechsner W. Visions and reality: the idea of competence-oriented assessment for German medical students is not yet realised in licensing examinations. GMS J Med Educ. 2017;34(2):Doc25. DOI: 10.3205/zma001102 Externer Link
14.
Berendonk C, Schirlo C, Balestra G, Bonvin R, Feller S, Huber P, Jünger E, Monti M, Schnabel K, Beyeler C, Guttormsen S, Huwendiek S. The new final Clinical Skills examination in human medicine in Switzerland: Essential steps of exam development, implementation and evaluation, and central insights from the perspective of the national Working Group. GMS Z Med Ausbild. 2015;32(4):Doc40. DOI: 10.3205/zma000982 Externer Link
15.
Bordage G, Meguerditchian AN, Tamblyn R. Practice indicators of suboptimal care and avoidable adverse events: a content analysis of a national qualifying examination. Acad Med. 2013;88(10):1493-1498. DOI: 10.1097/ACM.0b013e3182a356af Externer Link
16.
Swanson DB, Roberts TE. Trends in national licensing examinations in medicine. Med Educ. 2016;50(1):101-114. DOI: 10.1111/medu.12810 Externer Link
17.
Shepard LA. The role of assessment in a learning culture. Educ Res. 2000;29(7):4-14. DOI: 10.3102/0013189X029007004 Externer Link
18.
Van der Vleuten CP. The assessment of professional competence: Developments, research and practical implications. Adv Health Sci Educ Theory Pract. 1996;1(1):41-67. DOI: 10.1007/BF00596229 Externer Link
19.
König S, Wagner P, Markus PM, Becker H. Anders prüfen – anders studieren: Motivation durch OSCE. Med Ausbild. 2002;19(2):73-76.
20.
Tervo RC, Dimitrievich E, Trujillo AL, Whittle K, Redinius P, Wellman L. The Objective Structured Clinical Examination (OSCE) in the clinical clerkship: an overview. S D J Med. 1997;50(5):153-156.
21.
Wood DF. Formative assessment. In: Walsh K (Hrsg). Oxford Textbook of Medical Education. Oxford: Oxford University Press; 2013. S.478-488. DOI: 10.1093/med/9780199652679.003.0041 Externer Link
22.
Simpson JG, Furnace J, Crosby J, Cumming AD, Evans PA, Friedman Ben David M, Harden RM, Lloyd D, McKenzie H, McLachlan JC, McPhate GF, Percy-Robb IW, MacPherson SG. The Scottish doctor – learning outcomes for the medical undergraduate in Scotland: a foundation for competent and reflective practitioners. Med Teach. 2002;24(2):136-143. DOI: 10.1080/01421590220120713 Externer Link
23.
Swing SR. The ACGME outcome project: retrospective and prospective. Med Teach. 2007;29(7):648-654. DOI: 10.1080/01421590701392903 Externer Link
24.
McConnell MM, St-Onge C, Young ME. The benefits of testing for learning on later performance. Adv Health Sci Educ Theory Pract. 2015;20(2):305-320. DOI: 10.1007/s10459-014-9529-1 Externer Link
25.
Schuwirth LW, van der Vleuten CM. Different written assessment methods: what can be said about their strengths and weaknesses? Med Educ. 2004;38(9):974-979. DOI: 10.1111/j.1365-2929.2004.01916.x Externer Link
26.
Van der Vleuten CP, Schuwirth LW. Assessing professional competence: from methods to programmes. Med Educ. 2005;39(3):309-317. DOI: 10.1111/j.1365-2929.2005.02094.x Externer Link