gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

“Pass, fail” – On Standard Setting Procedures for the Assessment of Practical Skills at Medical Schools in Germany, Austria, and Switzerland

short report Clinical skills

Search Medline for

  • corresponding author Daniel Bauer - Klinikum der Universität München, Institut für Didaktik und Ausbildungsforschung in der Medizin, München, Deutschland; Universität Bern, Institut für Medizinische Lehre, Bern, Schweiz; Gesellschaft für Medizinische Ausbildung e.V., Ausschuss Prüfungen, Erlangen, Deutschland
  • author Sören Huwendiek - Universität Bern, Institut für Medizinische Lehre, Bern, Schweiz; Gesellschaft für Medizinische Ausbildung e.V., Ausschuss Prüfungen, Erlangen, Deutschland
  • Maren März - Charité Universitätsmedizin Berlin, Referat für Studienangelegenheiten, Berlin, Deutschland; Gesellschaft für Medizinische Ausbildung e.V., Ausschuss Prüfungen, Erlangen, Deutschland

GMS J Med Educ 2016;33(4):Doc50

doi: 10.3205/zma001049, urn:nbn:de:0183-zma0010491

This is the English version of the article.
The German version can be found at:

Received: December 7, 2015
Revised: June 29, 2016
Accepted: June 29, 2016
Published: August 15, 2016

© 2016 Bauer et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License. See license information at

Short report

The members of the GMA committee on assessment have the common goal to make exams in the training and continuing education of health professionals in Germany, Austria and Switzerland (D/A/CH countries) as appropriate as possible. For this purpose, they engage in a discourse with each other, considering both scientific research and regional/local contexts. The committee is pleased to present in the present special issue its views on practical skills from the assessment perspective.

The teaching of practical skills is now well-established in the medical programs in the D/A/CH region, reflected in the national catalogues of learning objectives: The Swiss Catalogue of Learning Objectives for Undergraduate Medical Training (SCLO) [1], the Austrian Competence Catalogue for Medical Skills (ÖKÄF) [2], and the German National Competence Based Catalogues of Learning Objectives for Undergraduate Medical Education (NKLM) [3].

The assessment of practical skills, too, is largely established. As early as 2007, over 70% of Germany’s medical programs featured practical skills assessment, most of which in OSCE format [4], and since 2011, an OSCE complements the Swiss Federal Licensing Examination and must be passed independently of the MCQ examination [5]. Besides OSCE, the oral-practical examination [6] is a common format, but also OSPEs (Objective Structured Practical/Preclinical Exams) are used [7]. This shows that practical examinations in medical education are indeed varied and widespread, but what about their quality?

Yudkowsky lists various criteria compromising construct validity – i.e., the meaningful interpretability of the data obtained in an exam [8]. As is the case with exams of other formats, it is necessary in the assessment of practical skills such as the OSCE to prevent construct underrepresentation by providing sufficient and representative examination content and to minimize construct-irrelevant variance, i.e., to ignore, in interpreting exam performance, such information not relating to the subject matter under scrutiny. Quality-maintaining measures are being taken in many programs, such as blueprinting (selection of adequate, representative exam content), review (e.g., with respect to wording of tasks and checklists, and to anticipate task difficulty), as well as training of examiners and possibly, simulated patients involved.

However, it seems that one aspect of quality assurance has been receiving only little attention: the deliberate setting of grades and pass/fail boundaries. In a commentary recently published, Tekian & Norcini advocate questioning the traditional, ubiquitous 60% pass boundary, and recommend to apply methods based on the assessment content in order to determine pass/fail and grades, for only this way, comparability can be established between test cohorts [9]. The challenge is, therefore, to operationalize these general requirements within the context of one’s actual practical skills assessment (the so-called standard setting) [10], [11].

So far, there is little data on the use of these criterion-oriented standard setting procedures in practical examinations at the medical schools of the D/A/CH countries. Accordingly, we exemplarily analysed 20 study and/or exam regulations or equivalent documents available on the internet relating to medical curricula in Germany, including all model programs. It turned out that the majority of programs apply the 60% pass boundary to practical exams [12], [13], [14], while some do not specifically address grades and pass criteria for practical exams [15], [16], [17], [18], [19] beyond perhaps referring to general directives (e.g., §13 (2) ÄAppO).

Nevertheless, this common 60% rule does not rule out criterion-oriented standard setting approaches. Tekian & Norcini explicitly mention procedures under which a criterion-oriented pass/fail boundary can be rescaled to 60%, so that - if necessary - the traditional 60% can be retained. In fact, the Hannover medical program uses such a procedure in which an examination board determines, according to the [anticipated] difficulty and scope of the tasks, the maximum score from which at least 60% must be achieved to pass an exam [20]. Some regulations delegate the burden on the examiners [21], [22], [23], [24], occasionally with the caution to apply "proper methods" [25], or have an examination committee in place [26], [27], [28] to define pass and grade criteria. One faculty explicitly allows criterion-oriented methods for determining the pass boundaries [29], while others require only the disclosure of pass criteria at the beginning of the respective term, without the obligation to further specify them [30], [31].

The Medical Universities of Vienna [32] and Graz [33] use norm-oriented procedures while Innsbruck allows some adaptation depending on task difficulty [34]. The pass boundary for the clinical skills part of the Swiss Federal Licensing Examination [35] is determined with the borderline regression method, which is also true, e.g., for the OSCE in Basel’s medical program [36].

In summary, it is apparent from the examined documents that the regulations on pass and grade determination are heterogeneous. In some locations, detailed rules have been formulated, but many regulations handle pass/fail and grades rather superficially, which of course does not mean that decisions are not made very consciously in the local reality. Interpreting the documents was not always easy, and there may be passages that have been misinterpreted. Likewise, due to the selection of the studied faculties, interesting approaches may have been overlooked. For instance, dental and veterinary regulations were not analysed for this work. Still, our findings coincide well with those of Härtl et al., who conducted a survey on the assessment of communication skills at German-speaking medical schools. From 31 OSCEs with communication as test objective, 21 pegged the pass boundary to a fixed score or percentage, 5 applied the borderline regression method, 2 used Angoff’s method, and in 6 OSCEs, the method used was unknown (some multiple responses) [37].

On behalf of the committee we recommend to question the local regulations used to determine pass/fail and scoring criteria for practical exams, to seek the discourse, and to share and discuss experiences with the scientific community. Procedures used to define pass criteria and scoring should be based on examination content. This would add to the validity of pass/fail decisions of practical exams and better ensure fairness to examinees. The members of the GMA committee on assessment are gladly available for this discourse as discussion partners.

Competing interests

The authors declare that they have no competing interests.


Bloch R, Bürgi H. The Swiss catalogue of learning objectives. Med Teach. 2002;24(2):144-150. DOI: 10.1080/01421590220120759 External link
Schnabel K, Boldt P, Breuer G, Fichtner A, Karsten G, Kujumdshiev S, Schmidts M, Stosch C. Konsensusstatement "Praktische Fertigkeiten im Medizinstudium" - ein Positionspapier des GMA-Ausschusses für praktische Fertigkeiten. GMS Z Med Ausbild. 2011;28(4):Doc58. DOI: 10.3205/zma000770 External link
MFT Medizinischer Fakultätentag der Bundesrepublik Deutschland e. V. Nationaler Kompetenzbasierter Lernzielkatalog Medizin (NKLM). Berlin: MFT Medizinischer Fakultätentag der Bundesrepublik Deutschland e. V; 2015.
Möltner A, Duelli R, Resch F, Schultz J, Jünger J. Fakultätsinterne Prüfungen an den deutschen medizinischen Fakultäten. GMS Z Med Ausbild. 2010;27(3):Doc44. DOI: 10.3205/zma000681 External link
Guttormsen S, Beyeler C, Bonvin R, Feller S, Schirlo C, Schnabel K, Schurten T, Berendonk C. The new licensing examination for human medicine: from concept to implementation. Swiss Med Wkly. 2013;143:w13897.
Schickler A, Brüstle P, Biller S. Mündlich-praktischer Teil des Zweiten Abschnitts der Ärztlichen Prüfung in Freiburg 2012 - Analyse der Notenvergabe zur Überprüfung von Qualitätssicherungsmaßnahmen. GMS Z Med Ausbild. 2015;32(4):Doc39. DOI: 10.3205/zma000981 External link
Boeckers A, Fassnacht U, Feneberg A, Boeckers T. Modifizierte objective structured practical examination (OSPE) als Leistungskontrolle im Kurs der Mikroskopischen Anatomie an der Universität Ulm. GMS Z Med Ausbild. 2006;23(4):Doc71. Zugänglich unter/available from: External link
Yudkowsky R. Performance Tests. In: Downing S, Yudkowsky R (Hrsg). Assessment in Health Professions Education. New York: Routledge; 2009.
Tekian A, Norcini J. Overcome the 60% passing score and improve the quality of assessment. GMS Z Med Ausbild. 2015;32(4):Doc43. DOI: 10.3205/zma000985 External link
Friedman Ben-David M. AMEE Guide No. 18: Standard setting in student assessment. Med Teach. 2000;22(2):120-130. DOI: 10.1080/01421590078526 External link
Boursicot K, Roberts T, Pell G. Standard setting for clinical competence at graduation from medical school: a comparison of passing scores across five medical schools. Adv Health Sc Educ. 2006;11(2):173-183. DOI: 10.1007/s10459-005-5291-8 External link
Prüfungsordnung des Modellstudiengang Medizin der Charité-Universitätsmedizin Berlin in der Fassung vom 13.04.2015 [Internet]. Berlin: Charité-Universitätsmedizin. External link
Studien- und Prüfungsordnung für den Modellstudiengang Medizin der Rheinisch-Westfälischen Technischen Hochschule Aachen mit dem Abschluss "Ärztliche Prüfung" vom 05.11.2008 in der Fassung der Dritten Ordnung zur Änderung der Studien- und Prüfungsordnung vom 25.10.2013 veröffentlicht als Gesamtfassung [Internet]. Rheinisch-Westfälisch Technische Hochschule Aachen. External link
Studienordnung für den Studiengang Humanmedizin an der Ernst Moritz Arndt Universität Greifswald vom 26. August 2004 [Internet]. Ernst Moritz Arndt Universität Greifswald. External link
Studienordnung für das Medizinstudium an der Medizinischen Fakultät Heidelberg der Universität Heidelberg für das 3., 4. und 5. Studienjahr vom 22. 07.2010 [Internet. Medizinische Fakultät Heidelberg. External link
Studienordnung für den Studiengang Medizin an der Universität Leipzig vom 8. Mai 2012 [Internet]. Universität Leipzig.
Studienordnung für den Studiengang Humanmedizin an der Medizinischen Fakultät Mannheim der Universität Heidelberg vom 16. Mai 2013 [Internet]. Medizinische Fakultät Mannheim der Universität Heidelberg. External link
Prüfungsordnung des Modellstudiengangs Medizin an der Medizinischen Fakultät der Universität Hamburg vom 20.06.2012 [Internet]. Medizinische Fakultät der Universität Hamburg. External link
Studienordnung für den Studiengang Medizin an der Universität des Saarlandes vom 20. Februar 2003 [Internet]. Universität des Saarlandes. External link
Prüfungsordnung für den Studiengang Medizin an der Medizinischen Hochschule Hannover in der Fassung vom 15.07.2015 [Internet]. Medizinische Hochschule Hannover. External link
Technische Universität Dresden Medizinische Fakultät Carl Gustav Carus, Studienordnung für den Studiengang Medizin vom 26.05.2010 [Internet]. Technische Universität Dresden. External link
Nichtamtliche Lesefassung der Studienordnung für das Studium der Humanmedizin an der Universität Rostock unter Berücksichtigung der 1., 2. und 3. Satzung zur Änderung der Studienordnung vom Februar 2009 [Internet]. Universität Rostock. External link
Studienordnung (StO) für den Modellstudiengang Humanmedizin an der Medizinischen Fakultät der Universität zu Köln mit dem Abschluss "Ärztliche Prüfung" vom 06. Januar 2014 [Internet]. Universität zu Köln. External link
Studienordnung für den Studiengang Humanmedizin mit dem Abschluss "Ärztliche Prüfung" am Fachbereich Medizin der Justus-Liebig-Universität Gießen vom 03. Juli 2006 [Internet]. Justus-Liebig-Universität Gießen. External link
Studienordnung für den Studiengang Medizin an der Martin-Luther-Universität Halle-Wittenberg vom 21.04.2009 [Internet]. Martin-Luther-Universität Halle-Wittenberg. External link
Prüfungsordnung für den Modellstudiengang Humanmedizin an der Carl von Ossietzky Universität Oldenburg vom 24.02.2012 [Internet]. Carl von Ossietzky Universität Oldenburg. External link
Prüfungsordnung für den Brandenburger Modellstudiengang Medizin an der Medizinischen Hochschule Brandenburg Theodor Fontane [Internet]. Medizinische Hochschule Brandenburg Theodor Fontane. External link
Prüfungsordnung der Ruhr-Universität Bochum für den Modellstudiengang Medizin vom 20. April 2005 [Internet]. Ruhr-Universität Bochum. External link
Prüfungs- und Studienordnung für den Studiengang Medizin an der Ludwig-Maximilians-Universität München in der Fassung vom 24.09.2009 [Internet]. Ludwig-Maximilians-Universität München. External link
Studien- und Prüfungsordnung für den Modellstudiengang Humanmedizin an der Heinrich-Heine-Universität Düsseldorf vom 7.10.2013 [Internet]. Heinrich-Heine-Universität Düsseldorf. External link
Studienordnung für den Studiengang Humanmedizin mit dem Abschluss "Ärztliche Prüfung" an der Philipps-Universität Marburg vom 23.09.2015 [Internet]. Philipps-Universität Marburg. External link
Information zur Bestehensgrenze und zur Notengebung bei den Gesamtprüfungen (SIP) für Humanmediziner (N202) und Zahnmediziner (N203, 1. u. 2. Studienjahr [Internet]. Medizinische Universität Wien. External link
Beurteilungskriterien des OSCE [Internet]. Medizinische Universität Graz. External link
Information Famulatur OSCE [Internet]. Medizinische Universität Innsbruck. External link
Berendonk C, Schirlo C, Balestra G, Bonvin R, Feller S, Huber P, Jünger E, Monti M, Schnabel K, Beyeler C, Guttormsen S, Huwendiek S. The new final Clinical Skills examination in human medicine in Switzerland: Essential steps of exam development, implementation and evaluation, and central insights from the perspective of the national Working Group. GMS Z Med Ausbild. 2015;32(4):Doc40. DOI: 10.3205/zma000982 External link
Prüfungen [Internet]. Universität Basel. External link
Härtl A, Bachmann C, Blum K, Höfer S, Peters T, Preusche I, Raski B, Rüttermann S, Wagner-Menghin M, Wünsch A, Kiessling C. Wunsch und Wirklichkeit - eine Umfrage im deutschsprachigen Raum zum Lehren und Prüfen kommunikativer Kompetenzen im Medizinstudium. GMS Z Med Ausbild. 2015;32(5):Doc56. DOI: 10.3205/zma000998 External link