gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Mut zur Subjektivität bei der Prüfung von Kompetenzen

Kommentar Kompetenzorientiertes Prüfen

Suche in Medline nach

  • corresponding author Thomas Rotthoff - Heinrich-Heine-Universität Düsseldorf, Medizinische Fakultät, Studiendekanat, Düsseldorf, Deutschland

GMS J Med Educ 2018;35(3):Doc29

doi: 10.3205/zma001175, urn:nbn:de:0183-zma0011757

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2018-35/zma001175.shtml

Eingereicht: 9. Oktober 2017
Überarbeitet: 16. April 2018
Angenommen: 5. Juni 2018
Veröffentlicht: 15. August 2018

© 2018 Rotthoff.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Kompetenzorientierung zur Herstellung von Beschäftigungsfähigkeit

Im letzten Jahrzehnt haben sich die „competency-based“ bzw. „outcome-based education“ nahezu zu einem Paradigma mit dem Status eines „god term“ in der medizinischen Aus-, Fort- und Weiterbildung entwickelt [1]. Galten früher Bildung, Wissen und Qualifikation als Ziel hochschulischer Ausbildung, so wird heute die Entwicklung von Kompetenzen und Schlüsselkompetenzen allgemein in den Vordergrund gestellt [2]. Die Entwicklung der Competency-Based Education (CBE) basiert dabei wesentlich auf politischen Motiven und weniger auf wissenschaftlicher Evidenz [3], [4],[5], [6]. Die politischen Motive sind dabei eng mit der Debatte um „employability“, also der Herstellung von Beschäftigungsfähigkeit verknüpft [2]. Kompetenzentwicklung orientiert sich somit an den Handlungsanforderungen der gesellschaftlichen Praxis [7]. Die Ausbildungsqualität bemisst sich dabei heute stärker daran, ob Wissen nicht nur angeeignet und reproduziert wird, sondern dieses Wissen auch kompetent bei der Lösung von neuartigen Problemen angewendet werden kann [7]. Diese Motive erscheinen für das Medizinstudium mit seinem definierten Berufsziel besonders passend, da hierüber gemäß Approbationsordnung eigenverantwortliche und zur selbständigen Berufsausübung befähigte Ärztinnen und Ärzte ausgebildet werden sollen. Von Kritikern wird CBE jedoch gerade für hochqualifizierte Berufe wie dem des Arztes bzw. der Ärztin als nur wenig geeignet angesehen, da hierfür hochkomplexe Fähigkeiten wie Analyse, Urteils- und Reflexionsvermögen, Professionalität und Empathie erforderlich sind. Diese – so die Kritiker – können mit der bisher bei CBE vorherrschenden Methode der Lernzieldidaktik nicht hinlänglich dargestellt werden [3], [8], [9].


Von der Qualifikation zur Kompetenz

Für eine zielführende und kritische Diskussion lohnt daher zunächst die Schärfung der Begrifflichkeiten von Kompetenz, Schlüsselkompetenz, Qualifikation, Wissen und Fertigkeiten, wie sie in den Bildungswissenschaften jenseits der Medizin Verwendung finden. Gemäß Arnold (1997) ist der Begriff „Qualifikation“ sachverhaltszentriert und auf unmittelbare tätigkeitsbezogene Kenntnisse, und Fertigkeiten verengt, wohingegen Kompetenz auch wert- bzw. haltungsorientiert ist, sich auf die ganze Person erstreckt und die Entwicklungsmöglichkeiten und Handlungsfähigkeit des Individuums in den Mittelpunkt stellt [7]. Als sogenannte Schlüsselkompetenzen haben sich heute trotz Mangels einer theoretischen Begründung die Dimensionen „Sachkompetenz“, „Methodenkompetenz, „soziale Kompetenz“ sowie „personale“ oder „Selbstkompetenz“ national sowie international verbreitet und etabliert [2]. Verschiedene Konzeptualisierungen des Kompetenzbegriffes haben sich in jüngerer Zeit angenähert und weisen u.a. die Gemeinsamkeiten auf, dass Kompetenz und Schlüsselkompetenzen sich auf die Fähigkeit bezieht Aufgaben hoher Komplexität zu erfüllen und erworbene Kompetenzen nicht direkt, d.h. eins zu eins ohne Umlern- und Adaptationsprozesse auf neue Situationen anwendbar sind. Die Vielschichtigkeit von Schlüsselkompetenzen legt nahe, dass sie nur aus dem Handeln, der Performanz, erschlossen werden können [2], [7]. Auch die im NKLM aufgeführte englischsprachige Definition von professioneller (ärztlicher) Kompetenz verdeutlicht die Einbeziehung der gesamten Person sehr anschaulich und geht über die Qualifikation als ein Erwerb von Wissen und Fertigkeiten hinaus: „professional competence is the habitual and judicious use of communication, knowledge, technical skills, clincial reasoning, emotions, values and reflections in daily practice for the benefit of the individual and community being served“ [10].

Bei der ärztlichen Tätigkeit geht es um die Fähigkeit, verschiedene Kompetenzen für eine optimale Patientenversorgung situationsbezogen zu integrieren [11]. Gerade diese Inhalt- und Kontextspezifität des klinischen Handelns werden als Widerspruch zu einem isolierten Training verschiedener Kompetenzen angeführt, da Studierende in einem Fall gut und in einem anderen Fall mit abweichendem Kontext eine schlechte Performanz zeigen können [12], d.h. erworbene Kompetenzen nicht direkt ohne Adaptationsprozesse auf neue Situationen anwenden können [2].

Der zentrale Ansatz einer kompetenzorientierten Ausbildung in der Medizin beruht aber bisher auf der Annahme, dass Berufsrollen in einzelne Elemente aus definiertem Wissen oder Fertigkeiten zerlegt und operationalisiert werden können, welche – separat erworben – dann zur umfassenden Kompetenz führen [3]. Dieses Vorgehen ist bisher empirisch nicht hinreichend belegt und wird in der aktuellen Literatur durchaus kritisch diskutiert, da die gesamte Kompetenz eben mehr ist als die Summe einzeln erfolgreich abgelegter Aufgaben in Bezug auf Wissen oder Fertigkeiten [3], [9], [13], [14], [15]. Kompetenz und Schüsselkompetenzen unterscheiden sich gegenüber Wissen oder einfachen Fertigkeiten eben darin, Aufgaben hoher Komplexität zu erfüllen [2].


Kompetenzen erschließen sich aus der Performanz im ärztlichen Arbeitsumfeld

Isolierte Prüfungen von Wissen, Fertigkeiten oder auch Haltungen messen zwar wichtige Voraussetzungen für Kompetenz, stellen demnach aber keine Prüfungen von Kompetenz im eigentlichen Sinne dar! Trotz vieler Jahre der Entwicklung und Implementierung von kompetenzbasierten Curricula, kratzen in der Einschätzung von Hodges & Lingard anspruchsvolle Prüfungskonzepte zur Messung von Kompetenzen bis heute nur an der Oberfläche [1]. Kompetenzorientierten Ausbildungsmodellen wird gar ein Fehlen zuverlässiger Prüfungsformate und übergeordneter Prüfungsstrategien attestiert [6]. Wenn dem so ist, was hat CBE denn zum heutigen Paradigma in der medizinischen Ausbildung werden lassen? Unterliegen wir möglicherweise einem Zuschauereffekt, bei dem die Meinung einer/eines Einzelnen um so mehr beeinflusst wird, je stärker die Meinung (auch von bedeutenden Stimmen) zu einem Thema vertreten wird [16]? Ganz so pessimistisch sollten wir die Sache nicht betrachten und uns beim Prüfen von Kompetenzen stärker an der zuvor beschriebenen Definition von Kompetenz orientieren. Harris und Keller hoben bereits 1976 hervor, dass „the major development effort in competency-based education should not lie in design of instructional materials but in design of appropriate performance assessments. Furthermore, institutions should not commit themselves to competency-based curricula unless they possess means to directly assess students’ performance.“ [17]. Wenn Kompetenzen und Schlüsselkompetenzen also nur aus dem Handeln, der Performanz, erschlossen und folglich auch geprüft werden können [2], sollte sich CBE konkret an den Handlungsanforderungen der ärztlichen Praxis orientieren, welche verschiedene Kompetenzen und Rollen in unterschiedlicher Gewichtung integrieren. Für das Medizinstudium bedeutete das, verstärkt Situationen für die Studierenden im Curriculum zu schaffen, in denen ärztliches Handeln (Performanz) in unterschiedlicher Komplexität in realen und realitätsnahen Situationen trainiert und beobachtet wird. Zweifelsohne stellt dies eine Herausforderung bei großen Studierendenzahlen dar. Die Entwicklung von „Entrustable Professional Activities“ (EPA) – deutsch: „Anvertraubare Professionellen Tätigkeiten“ (APT) [18] zeigen hier einen möglichen Weg auf. Solche APT können in unterschiedlicher Granularität vorgehalten werden. In früheren Phasen des Studiums können einfache diagnostische und therapeutische Tätigkeiten unter Supervision bereits zusammen mit anderen Kompetenzen verknüpft gelehrt und geprüft werden. Im Praktischen Jahr können die Tätigkeiten dann umfassender sein und z.B. die Betreuung eines Patienten mit chronischer Erkrankung oder das komplette Entlassungsmanagement eines Patienten beinhalten. Performanz ist also im Studium in unterschiedlichen Komplexitätsstufen trainierbar. Wie aber kann Performanz geprüft werden?


Prüfung von Performanz zur Erfassung von Kompetenzen

Die aktuelle Diskussion um das Prüfen von Kompetenzen wirkt stark von dem Anspruch geleitet, Kompetenzen möglichst objektiv, reliabel und valide zu erfassen um den Testgütekriterien bestmöglich zu genügen. In der Vergangenheit wurde der Versuch, komplexere Kompetenzen mit objektiven Instrumenten zu erfassen allerdings häufig verfehlt [9], [19]. Sind die Testgütekriterien für das Prüfen von Kompetenzen überhaupt entscheidend? Die Antwort hängt von der Zielsetzung ab, die wir mit CBE verbinden wollen. In der aktuellen Literatur wird als primäres Ziel eine Lernsteuerung für die Kompetenzentwicklung definiert, woraus zunächst formative Prüfungen von Performanz im Sinne eines „assessment for learning“ resultieren [20]. CBE soll dabei die Entwicklung der Studierenden erfassen, Rückmeldungen zum erreichten Kompetenzniveau geben (z.B. durch Feedback) und die Studierenden in ihrem Lernprozess begleiten [21]. Erst an zweiter Stelle haben Prüfungen im Rahmen von CBE das Ziel summative Entscheidungen über Kompetenz oder Inkompetenz im Sinne eines „assessment of learning“ zu treffen [20]. Schauen wir uns zunächst die Erfordernisse für das formative Prüfen von Performanz an.


Formative Performanzmessung

Die Beurteilung von Performanz wird als ein Entscheidungsfindungsprozess angesehen, welcher von den Interaktionen zwischen Personen und dem Kontext beeinflusst wird, in dem das Prüfen stattfindet [22]. Die wechselnden Kontexte erfordern dabei immer wieder neue Umlern- und Adaptationsprozesse [2], [7]. Bei der Performanz sollen Handlungskompetenzen geprüft werden, die mit quantitativen Messverfahren zur Kompetenzerfassung nicht erfasst werden können [23]. Quantitative Messverfahren reduzieren den Kompetenzbegriff auf Qualifikation mit Wissen und Fertigkeiten, weshalb sie für die Gestaltung von kompetenzorientierten Entwicklungsprozessen in der Praxis auch als ungeeignet gelten [23]. Heute besteht sogar ein zunehmendes Übereinkommen darüber, dass für die Beurteilung von Entwicklungsprozessen und Kompetenzen gerade die persönliche Einschätzung durch eine Prüferin oder einen Prüfer eine wichtige Rolle spielt, obwohl die menschliche Beurteilung als alleiniges Messinstrument in Bezug auf die Validität natürlich auch ihre Limitationen hat [24]. So wie eine Diagnose oder Behandlung nicht alleine auf Basis von Laborwerten gestellt werden kann, sondern auch das eigene Urteilsvermögen mit subjektiven Erwägungen, Intuitionen und ethischen Gesichtspunkten einbezieht [25], so sollte auch das Prüfen von Kompetenzen das eigene – und hier nicht ausschließlich fachbezogene – Urteilsvermögen der Prüfer mit einbeziehen [26]. Auch der Akt des Anvertrauens bei APT gründet wesentlich auf subjektiven Erwägungen, die hauptsächlich auf der Basis von Supervision beurteilt werden. Der Akt des Anvertrauens geht dabei immer auch mit einer gewissen Unsicherheit einher.

Formative Performanzmessung erfordert weniger Objektivität und Reliabiltiät jedoch eine hohe Validität für glaubwürdige Rückmeldungen. Ausgehend von dem von Kane vorgelegten theoretischen Rahmenmodell zur Validität ist, neben einer großen Anzahl von Beobachtungen und einer hohen Varianz der Beobachtungsbedingungen, auch die eindeutige Definition des zu messenden Konstruktes von Bedeutung [27]. Die Validierung ist dann eine Beurteilung des Zusammenhangs zwischen der Interpretation des Testergebnisses und der Plausibilität der daraus abgeleiteten Schlussfolgerungen [27]. Für ein valides Urteilsvermögen von Prüferinnen und Prüfern ist also mindestens die Kenntnis, besser noch eine reflektierte Auseinandersetzung mit den definierten Konstrukten (Rollen, Kompetenzen) erforderlich, da Kompetenzen eben auch wert- bzw. haltungsorientiert sind.

Auch wenn mittels Checklisten oder Global Rating Skalen versucht wird formative Beurteilungen zu standardisieren, bleibt die Einschätzung subjektiv und setzt das Verständnis und eine Vertrautheit mit der Prüfungssituation und den zu messenden Dimensionen voraus. Wie sonst können Beobachtungen von Prüferinnen und Prüfern valide in Punktescores transformiert werden? Sind die Anwender unsicher, ist die Qualität der Rückmeldungen zum Kompetenzniveau der Studierenden und die Validität solcher Performanzmessungen auch bei vielen Beobachtungen und hoher Varianz der Beobachtungsbedingungen sehr begrenzt. Dieses zeigt sich häufig in der Tendenz zu überdurchschnittlich guten Bewertungen und einer fehlenden Ausnutzung von Punkteskalen von Assessmentinstrumenten am Arbeitsplatz ganz unabhängig von der Art der Skalierung [28].

Für die Prüfung von Performanz im Sinne einer glaubwürdigen Rückmeldung zum erreichten Kompetenzniveau und einer Unterstützung des Lernprozesses ist die Validität also die entscheidende Größe. Wenn Prüfungen aber summativ eingesetzt werden sollen und Konsequenzen für die Fortsetzung des Studiums haben, müssen sie fair sein. Das erfordert Objektivität und Reliabilität. Schauen wir uns also an, wie sich diese beiden Dimensionen auf das Prüfen von Performanz anwenden lassen.


Summative Performanzprüfung

Eine Fokussierung auf die Objektivität und Standardisierung einer Prüfung steigert zwar deren Reliabilität, birgt aber gerade im ärztlichen Arbeitsumfeld die Gefahr, sich von der Wirklichkeit und einem authentischen Prüfungs-Szenario mit wechselnden Kontexten zu entfernen [22]. Im realen Arbeitsumfeld gestaltet sich eine objektive und reliable Prüfung der Performanz daher entsprechend schwieriger [29]. Je komplexer die Prüfungssituation ist und je mehr Kompetenzen integriert geprüft werden sollen, desto schwieriger wird es, eine objektive und reliable kompetenzspezifische Prüfung abzubilden [19]. Eine komplexere Integration von Kompetenzen in einer Prüfung geht auch aus testtheoretischer Sicht zu Lasten der inhaltlichen Validität der einzelnen Kompetenz [30]. Bisweilen wird eine objektive Kompetenz- oder Performanzmessung sogar als gar nicht möglich angesehen; denn was heute als Attribut eines guten Arztes oder einer guten Ärztin angesehen wird, war es vor 50 Jahren noch nicht [24]. Die Vorstellung davon, was Kompetenz bzw. kompetentes ärztliches Handeln ist, ändert sich mit der Zeit und ist kein stabiles Konstrukt [31]. Es gibt aktuell allenfalls eine Übereinstimmung darüber, wie ein guter Arzt bzw. eine gute Ärztin sein sollte und darauf basierend entscheiden wir, was in ein Curriculum integriert wird und wie unterrichtet werden sollte [25]. Dabei sind wir geprägt von einer Umgebung, in der Ideen kommen und gehen, beeinflusst von politischen, sozialen und ökonomischen Vorstellungen sowie Bedingungen der Zeit [31]. Kompetenzen und Rollen sind soziale und keine objektiv stabilen Konstrukte und die Entscheidungen über Kompetenz bzw. Inkompetenz basieren letztlich auf Expertenmeinungen [19]. Dies scheint den Kritikern in Bezug auf das Fehlen geeigneter Prüfungskonzepte für CBE Recht zu geben.


Programmatisches Prüfen als Lösung?

Mit dem Einsatz von Testverfahren verbindet sich der Anspruch, psychometrisch fundierte Aussagen über latente Fähigkeiten und interessierende Merkmalsausprägungen von Individuen zu erhalten, bei denen Annahmen über Zusammenhänge zwischen dem zu messenden Merkmal und dem beobachteten Testverhalten zugrunde gelegt werden [32]. Aufgrund der oben aufgezeigten Schwierigkeiten, Performanz objektiv, valide und reliabel zu messen, könnten die interessierenden Merkmalsausprägungen und Zusammenhänge über einen programmatischen Ansatz im Sinne eines Prüfungsportfolios erfasst werden. Je nach Bedeutung der Prüfung könnte eine unterschiedliche Anzahl von Prüfungen oder Beobachtungen zu einer Gesamtbewertung zusammengeführt werden [33]. Für standardisierte Prüfungen zu Wissen und Fertigkeiten ist dieses gut umsetzbar. Für die Verwendung nicht standardisierter Performanzprüfungen im ärztlichen Arbeitsumfeld hängt die Sinnhaftigkeit eines solchen Vorgehens ganz entscheidend von der Validität dieser Prüfungen und damit auch von der Prüferinnen und Prüfern ab. Insgesamt ein vielversprechender Ansatz, der zunächst jedoch einen gewissen Perspektivwechsel auf das kompetenzorientierte Prüfen erfordert.

Vor dem Können steht das Lernen

Bei der Messung von Performanz sind wir heute sehr stark auf das beobachtbare Können fixiert, welches zuvor definierten Maßstäben wie Outcomes, Meilensteinen und Lernzielen entsprechen soll. Es wird dabei vom beobachteten Verhalten der Person auf nicht-beobachtbare Dispositionen geschlossen in der Annahme, dass die Person dieses Können nur zeigen konnte, weil sie die entsprechenden Dispositionen (=Kompetenz) erworben hat und das Verhalten nicht nur einmalig (=Output) zeigen, sondern immer wieder (=Outcome) generieren kann [34]. Die Richtigkeit dieser Annahme darf für die Performanz aufgrund der vorangegangenen Erläuterungen bezweifelt werden, da verschiedene Konzeptualisierungen des Kompetenzbegriffes zu der gemeinsamen Erkenntnis kommen, dass Kompetenz und Schlüsselkompetenzen die Fähigkeit beschreiben, Aufgaben hoher Komplexität zu erfüllen und erworbene Kompetenzen eben nicht einfach direkt, d.h. eins zu eins ohne Umlern- und Adaptationsprozesse auf neue Situationen anwendbar sind [2]. Damit stehen wir vor einem bisher nicht gelösten Problem wie Performanz summativ gemessen werden soll. Wir laufen Gefahr, bei der Suche nach einer Lösung dieses Problems unsere Ressourcen in die bestmögliche Standardisierung der Prüfungen oder die Perfektionierung von Checklisten und Skalen zu investieren und den für CBE entscheidenderen Prozess des Lernens aus dem Blickfeld zu verlieren. Die Effekte einer an Outcomes orientierten CBE auf die spätere Performanz im Beruf sind bisher nicht ausreichend belegt. Alternativ kann auch die Hypothese aufgestellt werden, dass eine stärkere Fokussierung, Förderung, Prüfung, Reflexion und Erforschung der Lernprozesse am Ende sogar zu mehr „Können“ im Sinne der Performanz führen kann. Während des Lernprozesses können in der Interaktion zwischen Lehrenden und Studierenden auch Kompetenzdimensionen wie Emotionen und Werte [10] stärker eingebunden werden. Diese Dimensionen werden in den Outcomes zwar gefordert, jedoch nur wenig mit den Studierenden gemeinsam entwickelt. Der Weg zum Erreichen eines Ziels bzw. Outcome bleibt den Studierenden bisher mal mehr oder mal weniger selber überlassen.


Kompetenzorientierung erfordert neue Ansätze in der Fakultätsentwicklung

Eine stärkere Berücksichtigung der Lernprozesse erfordert auch eine Weiterentwicklung der Erwartungshaltung und Einstellung der Menschen in einer Fakultät gegenüber einer kompetenzorientierten Ausbildung; insbesondere dann, wenn die individuelle Prüferin oder der Prüfer an Bedeutung gewinnt. Wir alle machen sicher die Erfahrung, dass dieses leichter gesagt als getan ist und tradierte medizinkulturelle Verhaltensmuster ein Hemmnis darstellen können. Wir benötigen für die CBE neue Ansätze für die Fakultätsentwicklung und neue didaktische Formate, die Diskussionen über Kompetenzen mehr Raum für einen ernsthaften Austausch ermöglichen. Trainings in der Fakultät sollten sich daher nicht auf Workshops für einzelne Assessment Instrumente beschränken, bei dem es beispielsweise darum geht, wie eine Checkliste für einen Mini-Clinical Examination auszufüllen ist [24]. Die Prüfer sollten sich über ihre Bewertungen und die Prüfungssituationen austauschen und diese diskutieren [24], [35]. Die verfügbaren Prüfungsinstrumente sind letztlich immer nur so gut, wie die Personen die sie anwenden. Ärztliches Handeln ist immer geprägt von dem Risiko der Handlungen und den Unsicherheiten der Handelnden selber [25]. Wir sollten diese Unsicherheiten auch für das kompetenzorientierte Prüfen akzeptieren, annehmen und mehr Mut zur Subjektivität bei der Messung von Performanz haben. Wichtigste Voraussetzung dafür ist eine hohe Validität und Glaubwürdigkeit dieser Prüfungen um die Studierenden tatsächlich in ihrem Lernprozess und dem Kompetenzerwerb zu unterstützen. Eine Erweiterung des bisher sehr auf Outcomes fixierten Blickfeldes um den Prozess des eigentlichen Lernens bedarf bei den Lehrenden der intensiveren Beschäftigung und Reflexion mit den Kompetenzdimensionen und einen wechselseitigen Erfahrungsaustausch innerhalb der Fakultäten. Dafür gibt es bisher noch keine etablierten strukturellen oder didaktischen Konzepte. Erst dann aber macht die Berücksichtigung nicht standardisierter Performanzprüfungen in einem programmatischen Prüfungsansatz wirklich Sinn.


Interessenkonflikt

Der Autor erklärt, dass er keine Interessenkonflikte im Zusammenhang mit diesem Artikel hat.


Literatur

1.
Hodges BD, Lingard L. Introduction. In: Hodges BD, Lingard L (Hrsg). The Question of Competence - Reconsidering Medical Education in the Twenty-First Century. New York: Cornell University Press; 2012. S.1-13. DOI: 10.5771/9783845259185_30 Externer Link
2.
Schaeper H. Hochschulbildung und Schlüsselkompetenzen. Z Päd. 2005;51(50):209-220.
3.
Brightwell A. Grand J. Competency-based Training: who benefits? Postgrad Med J. 2013;89(1048):107-110. DOI: 10.1136/postgradmedj-2012-130881 Externer Link
4.
Harden RM. Developments in outcome-based education. Med Teach. 2002;24(2):117-120. DOI: 10.1080/01421590220120669 Externer Link
5.
Harden RM. Outcome-based education – The ostrich, the peacock and the beaver. Med Teach. 2007;29(7):666-671. DOI: 10.1080/01421590701729948 Externer Link
6.
Hawkins RE, Welcher CM, Holmboe ES, Kirk LM, Norcini JJ, Simons KB, Skochelak SE. Implementation of competency-based medical education: are we addressing the concerns and challenges? Med Educ. 2015;49(11):1086-1102. DOI: 10.1111/medu.12831 Externer Link
7.
Arnold R. Von der Bildung zur Kompetenzentwicklung. In: Nuissl E, Schiersmann CH, Siebert H (Hrsg). Literatur- und Forschungsreport Weiterbildung, Bielefeld: W Bertelsmann Verlag; 2002. S.26-38.
8.
Huddle TS, Heudebert GR. Taking apart the art: the risk of anatomizing clinical competence. Acad Med. 2007;82(6):536-541. DOI: 10.1097/ACM.0b013e3180555935 Externer Link
9.
Malone K, Supri S. A critical time for medical education: the perils of competence-based reform of the curriculum. Adv Health Sci Educ. 2012;17(2):241-246. DOI: 10.1007/s10459-010-9247-2 Externer Link
10.
Epstein RM, Hundert EM. Defining and assessing professional competence. JAMA. 2002;287(2):226-235. DOI: 10.1001/jama.287.2.226 Externer Link
11.
ten Cate O, Snell L, Carracio C. Medical competence: the interplay between individual ability and the health care environment. Med Teach. 2010;32(8):669-675. DOI: 10.3109/0142159X.2010.500897 Externer Link
12.
Lurie SJ. History and practice of competency-based assessment. Med Educ. 2012;46:49-57. DOI: 10.1111/j.1365-2923.2011.04142.x Externer Link
13.
Hyland T. Competence, Knowledge and Education. J Phil Educ. 1993;27(1):57-68. DOI: 10.1111/j.1467-9752.1993.tb00297.x Externer Link
14.
Talbot M. Monkey see, monkey do: a critique of the competency model in graduate medical education. Med Educ. 2004;38(6):587-592. DOI: 10.1046/j.1365-2923.2004.01794.x Externer Link
15.
Ashworth PD, Saxton J. On 'Competence'. J Furth High Educ. 1990;14(2):3-25. DOI: 10.1080/0309877900140201 Externer Link
16.
Latané B. The Psychology of Social Impact. Am Psychol. 1981;36(4):343-356. DOI: 10.1037/0003-066X.36.4.343 Externer Link
17.
Harris J, Keller S. Assessment Measures Needed for Competency-Based Higher Education. Peabody J Educ. 1976;53(4):241-247. DOI: 10.1080/01619567609538085 Externer Link
18.
Ten Cate O, Scheele F. Competency-based postgraduate training: can we bridge the gap between theory and clinical practice? Acad Med. 2007;82(6):542-547. DOI: 10.1097/ACM.0b013e31805559c7 Externer Link
19.
Rotthoff T, Ostapczuk M, Zimmerhofer A, Decking U, Schneider M, Ritz-Timme S. Criterion Validity of a Compentency Based Assessment Center in Medical Education. A 4 – year follow-up study. Med Educ Online. 2014;19:252-254. DOI: 10.3402/meo.v19.25254 Externer Link
20.
Lockyer J, Carracio MK, Hart D, Smee S, Touchie C, Holmboe ES, Frank JR; ICBME Collaborators. Core principles of assessment in competency-based medical education. Med Teach. 2017;39(6):609-616. DOI: 10.1080/0142159X.2017.1315082 Externer Link
21.
Holmboe ES, Sherbino J, Long DM, Swing SR, Frank JR. The role of assessment in competency-based medical education. Med Teach. 2010;32(8):676-682. DOI: 10.3109/0142159X.2010.500704 Externer Link
22.
Govaerts MJ, Van der Vleuten DP, Schuwirth LW, Muijtjens AM. Broadening perspectives on clinical performance assessment: rethinking the nature of in-training assessment. Adv Health Sci Educ Theory Pract. 2007;12(2):239-260. DOI: 10.1007/s10459-006-9043-1 Externer Link
23.
Sauter W, Staudt AK. Kompetenzmessung in der Praxis – Mitarbeiterpotenzial erfassen und analysieren. Wiesbaden: Springer Gabler Verlag; 2016. S.9. DOI: 10.1007/978-3-658-11904-1 Externer Link
24.
Schuwirth LW, Van der Vleuten CM. Assessing Competence, Extending the approaches to Reliability. In: Hodges BD (Hrsg). The Shifting Discourses of Competence. New York: Cornell University Press; 2012. S.13-130.
25.
Schriewer H. Arzt zwischen Tradition und Wertewandel. Dtsch Ärztebl. 1998;95:A2686-2688.
26.
Tekian A, Hodges BD, Roberts TE, Schuwirth L, Norcinin J. Assessing competencies using milestones along the way. Med Teach. 2015;37(4):399-402. DOI: 10.3109/0142159X.2014.993954 Externer Link
27.
Kane M. Content-Related Validity Evidence in Test Development. In: Downing SM, Haladyna TM (Hrsg). Handbook of Test Development. New Jersey: Lawrence Erlbaum Associates, Inc.; 2006. S.131-151.
28.
Tochel C,Beggs K, Haig A, Roberts J, Scott H, Walker K, Watson M. Use of web based systems to support postgraduate medical education. Postgrad Med J. 2011;87(1034):800-806. DOI: 10.1136/postgradmedj-2011-130007 Externer Link
29.
Weyers S, Jemi I, Karger A, Raski B, Rotthoff T, Pentzek M, Mortsiefer A. Workplace-based assessment of communication skills: A pilot project addressing feasibility, acceptance and reliability. GMS J Med Educ. 2016;33(5):Doc70. DOI: 10.3205/zma001069 Externer Link
30.
Lienert GA, Raatz U. Testaufbau und Testanalyse. 6.Auflage. Weinheim: Beltz; 1998. S.9.
31.
Hodges BD. The Shifting Discourses of Competence. In: Hodges BD, Lingard L (Hrsg). The Question of Competence - Reconsidering Medical Education in the Twenty-First Century. New York: Cornell University Press; 2012. S.15.
32.
Seeber S, Reinhold N, Winther E, Achtenhagen F, Breuer K, Frank I, Lehmann R, Spöttl G, Stranka G, Walden G, Weiß R, Zöller A. Kompetenzdiagnostik in der Berufsbildung – Begründung und Ausgestaltung eines Forschungsprogramms. Bundesinst Berufsbild. 2010;1:4.
33.
Van der Vleuten CP, Schuwirth LW, Driessen EW, Dijkstra J, Tigelaar D, Baartman LK, van Tatwijk J. A model for programmatic assessment fit for purpose. Med Teach. 2012;34(3):205-214. DOI: 10.3109/0142159X.2012.652239 Externer Link
34.
Reinisch H. Lernergebnis-/Outcome-Orientierung – Was soll das eigentlich? DECVET-Fachtagung in Dresden 23.Juni 2011. Zugänglich unter/available from: http://www.ausbildung-und-studium.de/projekte/decvet/Presentation_Rheinisch.pdf Externer Link
35.
Holmboe ES, Ward DS, Reznick RK, Katsufrakis PJ, Leslie KM, Patel V,Ray DD, Nelson EA. Faculty Development in Assessment: The Missing Link in Competency-Based Medical Education. Acad Med. 2011;86(4):460-467. DOI: 10.1097/ACM.0b013e31820cb2a7 Externer Link