gms | German Medical Science

Gemeinsame Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA) und des Arbeitskreises zur Weiterentwicklung der Lehre in der Zahnmedizin (AKWLZ)

30.09. - 03.10.2015, Leipzig

Diskrepanzen zwischen den objektiven Kriterien der Prüfungsgüte und der subjektiv wahrgenommenen Prüfungsgüte durch Studierenden und Dozierende

Meeting Abstract

Suche in Medline nach

Gemeinsame Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA) und des Arbeitskreises zur Weiterentwicklung der Lehre in der Zahnmedizin (AKWLZ). Leipzig, 30.09.-03.10.2015. Düsseldorf: German Medical Science GMS Publishing House; 2015. DocV141

doi: 10.3205/15gma019, urn:nbn:de:0183-15gma0194

Veröffentlicht: 31. August 2015

© 2015 Fischer et al.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen. Er darf vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden. Lizenz-Angaben siehe http://creativecommons.org/licenses/by-nc-nd/3.0/.


Gliederung

Text

Fragestellung/Einleitung: Wenn es um „gute Prüfungen“ geht, bestimmt die Perspektive die Beurteilung: Politische Normen werden meist durch einfache Vorgabe wie die Notenverteilung ausgedrückt. Teststatistische Kennwerte sind die wissenschaftlich anerkannten objektiven Kriterien. Die subjektiven, meist impliziten Kriterien von Studierenden und Lehrenden sind eher diffus, wenn es darum geht, die Güte einer Prüfung zu beurteilen.

Im Rahmen des Modellstudiengangs HannibaL liegen für alle Prüfungen zwischen 2009 und 2014 Daten vor, die es erlauben, sie hinsichtlich ihrer „Normerfüllung“, teststatistischer Güte und der studentischen Bewertung zu vergleichen [1]. Ziel der Studie war es, den Zusammenhang zwischen diesen Parametern genauer zu untersuchen.

Methoden: Ausgewertet wurden die Evaluationen (studentische Bewertung der Prüfung) der zwischen 2009 und 2014 durchgeführten Module im Modellstudiengang HannibaL. Für alle Prüfungen wurde ein Prüfungsindex [2] ermittelt, der normative Aspekte abbildet. Außerdem wurden gängige teststatistische Kenngrößen in die Analysen einbezogen. Einen Datensatz bilden dann die über alle Prüflinge gemittelten Kennwerte der Prüfung und die über alle nach der gleichen Prüfung gemittelten Antworten auf die Evaluationsfragen. Im Rahmen des Vortrages werden lediglich deskriptiv statistische Analysen vorgestellt, die auch von jedem Lehrenden für „seine“ Prüfungen genutzt werden können, um deren Qualität einschätzen und verbessern zu können.

Ergebnisse: Der von den Gremien der MHH vorgegebene Parameter zur Bewertung der Prüfungsqualität korrelierte negativ mit negativ mit der mittleren studentischen Bewertung der Module bzw. die Prüfungsbewertung durch die Studierenden. Aber auch die teststatischen Parameter korrelierten nicht mit der studentische Einschätzung der Prüfung.

Über alle Module hinweg ist die Qualität der Prüfungen im Zeitverlauf erstaunlich stabil [3], wobei ein leichter Anstieg in der normativen Prüfungsqualität beobachtet wurde. Objektiv gaben die Prüfungen demnach eine differenziertere Leistungsrückmeldung an die Studierenden, ohne dass dabei die Nichtbestehensquote signifikant stieg.

Diskussion/Schlussfolgerung: Anscheinend spielt das Gefühl der Sicherheit in allen Vorstellungen von „guten Prüfungen“ eine große Rolle. Unsere Daten bestätigen, dass die in Gesprächen mit Lehrenden aufscheinenden subjektiven Vorstellungen von „guten Prüfungen“, sehr ähnlich zu denen vieler Studierender sind. Diese subjektiven Kriterien sind aber nicht kongruent mit den normativen oder den objektiven Kriterien.

An anderer Stelle [4] haben wir gezeigt, dass Maßnahmen zur spezifischen Verbesserung der Lehrqualität sich auf die studentische Bewertung dieser Module auswirken. Die steigende Differenzierung in der Leistungsrückmeldung wird subjektiv aber als seine Verschärfung der Prüfungsbedingungen wahrgenommen, selbst wenn eine solche objektiv nicht erfolgt.


Literatur

1.
Fischer V, Müller H, Just I. Does the quality of the final assessment of a course correspond to the evaluation of this course? Poster auf der Konferenz der AMEE, Italien, Mailand, 30. August - 03. September 2014. Mailand: AMEE; 2014.
2.
Fischer V, Müller H, Just I. How differentiated are assessments in rating performance differences. A pragmatic method. 3rd Research in Medical Education (RIME) Symposium 2013, Berlin 24. - 25. Mai 2013. Berlin: RIME; 2013.
3.
Fischer V, Just I. Objectivity of written assessments: an approach to evaluate this criterion. In: 4th Research in Medical Education (RIME) Symposium 2015. München, 19.-21.03.2015. Düsseldorf: German Medical Science GMS Publishing House; 2015. DocS1B1. DOI: 10.3205/15rime12 Externer Link
4.
Fischer V, Müller H, Krohn M, Just I. Auswirkungen eines Anreizsystems für differenzierende Prüfungen. In: Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA). Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA). Hamburg, 25.-27.09.2014. Düsseldorf: German Medical Science GMS Publishing House; 2014. DocP382. DOI: 10.3205/14gma140 Externer Link