gms | German Medical Science

Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA)

16.-17.09.2021, Zürich, Schweiz (virtuell)

Auswirkungen auf das Antwortverhalten bei Wiederverwendung von MC-Prüfungsfragen

Meeting Abstract

Search Medline for

  • Stefan Appelhaus - Charité – Universitätsmedizin Berlin, Institut für Medizinische Soziologie und Rehabilitationswissenschaft, Berlin, Deutschland; Universitätsmedizin Mannheim, Kinderchirurgische Klinik, Mannheim, Deutschland
  • Juliane Eva Kämmer - Charité – Universitätsmedizin Berlin, Institut für Gesundheits- und Pflegewissenschaften, Berlin, Deutschland
  • presenting/speaker Susanne Werner - Charité – Universitätsmedizin Berlin, Referat für Studienangelegenheiten/ Prüfungsbereich, Berlin, Deutschland

Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA). Zürich, Schweiz, 16.-17.09.2021. Düsseldorf: German Medical Science GMS Publishing House; 2021. DocV28-03

doi: 10.3205/21gma108, urn:nbn:de:0183-21gma1081

Published: September 15, 2021

© 2021 Appelhaus et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License. See license information at http://creativecommons.org/licenses/by/4.0/.


Outline

Text

Fragestellung/Zielsetzung: Studierende fordern zunehmend mehr Transparenz bei Prüfungen und die Veröffentlichung von verwendeten MC-Fragen [1]. Das Hauptargument dagegen ist der vermeintlich negative Effekt auf psychometrische Item-Kennwerte bei erneuter Verwendung von Fragen. Wissenschaftliche Untersuchungen dazu sind widersprüchlich [2], [3].

Seit Sommersemester (SoSe) 2017 dürfen die Medizinstudierenden der Charité – Universitätsmedizin Berlin die Testhefte nach schriftlichen Prüfungen mitnehmen. Die Lösungen der Fragen werden nach Ergebnisveröffentlichung gemeinsam mit der Kopie des Antwortbogens zur Verfügung gestellt.

Das Ziel unserer Arbeit ist die Untersuchung des Effekts dieser Maßnahme auf das Antwortverhalten.

Methoden: Wir bestimmten Durchschnittsnoten und Durchfallquoten sowie die Schwierigkeit und Trennschärfe der verwendeten Items von vier Prüfungszeiträumen (Wintersemester (WiSe) 2017/18 bis SoSe 2019) nach der Herausgabe der Prüfungsfragen und verglichen diese miteinander und mit den Fragen des letzten Prüfungszeitraums vor Verwendung veröffentlichter Fragen (SoSe 2017).

Die Items wurden in 3 Kategorien eingeteilt: Neufrage, bekannte Altfrage und unbekannte Altfrage. Die Gruppen wurden mittels einfaktorieller ANOVA verglichen.

Ergebnisse: Im Durchschnitt verbesserten sich die Noten im Studienzeitraum von M=2.64 im SoSe 2017 auf M=2.41 im WiSe 2018/19. Die Durchfallquote sank in diesem Zeitraum von 6.47% auf 5.32%. Im SoSe 2019 verschlechterte sich erstmals die Durchschnittsnote (M=2.56) und die Durchfallquote (6.52%).

Insgesamt wurde das Antwortverhalten der Studierenden bei N=7040 von insgesamt N=10600 verwendeten Fragen untersucht. Veröffentlichte Altfragen waren leichter (M=0.83, SD=0.16) als nicht veröffentlichte Altfragen (M=0.73, SD=0.20) und Neufragen (M=0.67, SD=0.23). Dabei wurden Fragen aller Kategorien im SoSe 2019 am schlechtesten beantwortet.

Veröffentlichte Altfragen hatten eine höhere Trennschärfe (M=0.25; SD=0.14) als nicht veröffentlichte Altfragen (M=0.21, SD=0.15) und Neufragen (M=0.21, SD=0.15).

Diskussion: Die Veröffentlichung von Altfragen hat einen wesentlichen Einfluss auf die Fragenschwierigkeit bei Wiederverwendung dieser Fragen. Im Testzeitraum wurden die verwendeten Neufragen und nicht veröffentlichten Altfragen zunehmend schlechter beantwortet, insbesondere im jüngsten untersuchten Prüfungszeitraum.

Bei gleichzeitig steigendem Anteil veröffentlichter Altfragen verändern sich die Durchschnittsnoten allerdings nur wenig. Zusammengenommen deuten die Ergebnisse darauf hin, dass das Veröffentlichen der Prüfungsfragen das Lernen der Studierenden dahingehend steuert, sich weniger auf Inhalte vorzubereiten, die nicht Inhalt der bereits veröffentlichten Fragen waren.

Take Home Messages:

  • Die Veröffentlichung von Altfragen führt dazu, dass diese Fragen bei Wiederverwendung besser beantwortet werden.
  • Zunehmende Transparenz und Veröffentlichung von Originalprüfungsmaterial führt möglicherweise zu einer negativen Lernsteuerung.

Literatur

1.
Park YS, Yang EB. Three controversies over item disclosure in medical licensure examinations. Med Educ Online. 2015;20(1):2882. DOI: 10.3402/meo.v20.28821 External link
2.
Wagner-Menghin M, Preusche I, Schmidts M. The Effects of Reusing Written Test Items?: A Study Using the Rasch Model. ISRN Educ. 2013:Article ID 585420. DOI: 10.1155/2013/585420 External link
3.
Joncas SX, St-Onge C, Bourque S, Farand P. Re-using questions in classroom-based assessment?: An exploratory study at the undergraduate medical education level. Perspect Med Educ. 2018;7(6):373-378. DOI: 10.1007/s40037-018-0482-1 External link