gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Der Fragebogen "SFDP26-German": Ein verlässliches Instrument zur Evaluation des klinischen Unterrichts?

Forschungsarbeit Humanmedizin

  • corresponding author Peter Iblher - Universität zu Lübeck, Klinik für Anästhesiologie, Lübeck, Deutschland; Universität Witten/Herdecke, Fakultät für Gesundheit, Institut für Didaktik und Bildungsforschung im Gesundheitswesen (IDBG), Witten, Deutschland
  • author Michaela Zupanic - Universität Witten/Herdecke, Fakultät für Gesundheit, Institut für Didaktik und Bildungsforschung im Gesundheitswesen (IDBG), Witten, Deutschland
  • author Christoph Härtel - Universität zu Lübeck, Klinik für Kinder- und Jugendmedizin, Lübeck, Deutschland
  • author Hermann Heinze - Universität zu Lübeck, Klinik für Anästhesiologie, Lübeck, Deutschland
  • author Peter Schmucker - Universität zu Lübeck, Klinik für Anästhesiologie, Lübeck, Deutschland
  • author Martin R. Fischer - Universität Witten/Herdecke, Fakultät für Gesundheit, Institut für Didaktik und Bildungsforschung im Gesundheitswesen (IDBG), Witten, Deutschland

GMS Z Med Ausbild 2011;28(2):Doc30

doi: 10.3205/zma000742, urn:nbn:de:0183-zma0007429

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2011-28/zma000742.shtml

Eingereicht: 30. November 2010
Überarbeitet: 7. Februar 2011
Angenommen: 23. März 2011
Veröffentlicht: 16. Mai 2011

© 2011 Iblher et al.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.de). Er darf vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden.


Zusammenfassung

Zielsetzung: Die Evaluation klinischer Lehrkompetenz ist ein wichtiger Beitrag zur Qualitätssicherung medizinischer Lehrveranstaltungen. Die Evaluation sollte mit einem verlässlichen Instrument durchgeführt werden, um Status quo sowie Effekte von medizindidaktischen Schulungsmaßnahmen beurteilen zu können. Im „Stanford Faculty Development Program“ (SFDP) haben sich folgende Aspekte als sinnvoll erwiesen:

1.
Etablierung des Lernklimas,
2.
Leitung einer Lehreinheit,
3.
Zielkommunikation,
4.
Förderung von Verstehen und Behalten,
5.
Evaluation,
6.
Feedback und
7.
Förderung selbstbestimmten Lernens.

Als Evaluationsinstrument ist seit 1998 der Fragebogen „SFDP26“ im englischsprachigen Raum zur Erfassung dieser Kategorien etabliert. Bisher existiert kein gleichwertiges deutschsprachiges Instrument zur Überprüfung von Lehrkompetenz im klinischen Kontext.

Fragestellung:

1.
Entwicklung und testtheoretische Überprüfung einer deutschsprachigen Version des SFDP26 (SFDP26-German),
2.
Überprüfung der Korrelation der Subskalen des SFDP26-German mit der Gesamtlehreffektivität.

Methodik: 19 Ärzte (w=7, m=12) der Klinik für Anästhesiologie an der Universität zu Lübeck wurden am Ende ihrer Lehrveranstaltungen zur Notfallmedizin durch Studierende mittels SFDP26-German evaluiert. Die Stichprobe setzte sich aus 173 Medizinstudierenden (w=119, bzw. 68.8%; m=54, 31.2%) des überwiegend fünften (6.6%) und sechsten Fachsemesters (80.3%) zusammen. Das durchschnittliche Alter der Studierenden betrug 23±3 Jahre.

Ergebnisse: Die Trennschärfen der Items lagen alle in einem guten bis sehr guten Bereich (rit=0.48-0.75). Alle Subskalen zeigten gute interne Konsistenzen (α=0.69-0.92) sowie signifikante positive Korrelationen (r=0.40-0.70) untereinander. Subskalen und „Gesamtlehreffektivität“ korrelierten signifikant (p<0.001) und am höchsten für die Subskala „Zielkommunikation“ (r=0.61).

Schlussfolgerungen: Die Analysen bestätigen dem „SFDP26-German“ eine hohe interne Konsistenz. Die Beleuchtung der Wirksamkeit der einzelnen Kategorien auf die Gesamtlehrleistung sowie eine Validierung anhand externer Kriterien sollte in Folgestudien erfolgen.

Schlüsselwörter: SFDP26, klinische Lehre, Lehreffektivität, Evaluation, Fragebogen


Einleitung

Einführung

Die Verbesserung der Lehre ist unbestritten eine zentrale Aufgabe in der deutschen medizinischen Hochschullandschaft [1]. Dabei spielt die Sensibilisierung der in der Lehre tätigen Institute und Kliniken durch Anreizprogramme wie beispielsweise die leistungsorientierte Mittelvergabe (LOM) und Lehrpreise eine wesentliche Rolle [2]. Feedbacksysteme, die mittels standardisierter Evaluationsinstrumente den Dozierenden und Abteilungen das Ausmaß der Lehrleistung rückmelden, sind eine wesentliche Voraussetzung für eine nachvollziehbare qualitative Bewertung der Lehrleistung. Die Diskussion, insbesondere in den Fachgremien, trägt dazu bei, dass die ehemals eher stiefmütterlich behandelte Lehre neben Forschung und Krankenversorgung mehr in den Vordergrund rückt und als Standortvorteil zur Teammotivation und Nachwuchsrekrutierung wahrgenommen wird [1], [3], [4].

Unbestritten nimmt dabei neben der Etablierung von lernzielbasierten Curricula und der Verwendung adäquater Prüfungsformen [5] die Qualifizierung der Lehrenden eine entscheidende Schlüsselstellung ein [6], [7]. In einer Befragung von Klinikärztinnen und -ärzten an der Universität zu Lübeck zeigte sich, dass die Wahrnehmung von guter Lehre fast immer mit herausragenden Persönlichkeiten assoziiert war, die aus vielfältigen Gründen als gute Lehrende erlebt wurden [8]. Trotz der Vielfalt ließen sich diese Gründe unter der durch Sutkin et al. etablierten Definition der „nicht-kognitiven Eigenschaften“ eines guten Lehrers, wie Beziehungsfähigkeit, Gemütszustand und Persönlichkeit, zusammenführen [9]. Das wirft die Frage auf, welche Lehrkompetenzen insbesondere relevant sind für eine gute und effektive Lehrleistung. Anzahl und Akzeptanz von lokalen und überregionalen Schulungsangeboten haben sich in den letzten Jahren deutlich erhöht (Train-the-Trainer-Konzepte, beispielsweise das nationale Master of Medical Education-Programm des Medizinischen Fakultätentages (MFT) an der Universität Heidelberg [10]) und auch Eingang in viele Qualifizierungsprogramme von Habilitanden gefunden. Dennoch ist es häufig so, dass die Schulung von Lehrkompetenzen bei insbesondere im klinischen Unterricht tätigen Ärztinnen und Ärzten vernachlässigt wird und diese ihre Fähigkeiten autodidaktisch durch Vorbilder, Erfahrungen und Eigeninitiative erwerben [7], [11]. Es besteht also durchaus die Möglichkeit, die akademische Leistungsfähigkeit der Lernenden aufgrund methodischer, rhetorischer oder didaktischer Schwächen (trotz entsprechender fachspezifischer Kenntnisse zu Lehrinhalten) negativ zu beeinflussen [12]. Das bedeutet konsekutiv, dass

1.
spezifische Lehrkompetenzen der Dozierenden einer Überprüfung zugänglich gemacht werden sollten, um gegebenenfalls Schwächen zu erkennen und diese gezielt durch Schulungsmaßnahmen zu verbessern und
2.
untersucht werden sollte, welche Kategorien der Lehrleistung in der studentischen Evaluation besonders relevant für eine gute Lehre sind.

Wünschenswert wäre also ein etabliertes Messinstrument, das entscheidende Kompetenzbereiche der Lehre abbildet, individuelle Stärken und Schwächen bei Lehrenden offenlegt und darüber hinaus auch im Rahmen von Lehrforschungsprojekten einsetzbar ist. Unseres Wissens nach gibt es bisher kein deutschsprachiges Instrument, das diese Erfordernisse erfüllt.

Stanford Faculty Development Program (SFDP)

Im Sinne eines Fakultätsentwicklungsprogramms wurde seit Anfang der achtziger Jahre an der Stanford University, Palo Alto, USA ein auf Lerntheorie gestütztes Schulungsprogramm (SFDP) etabliert. Im Rahmen dieses Programms wurden Dozierende im Unterricht beobachtet und deren Stärken und Schwächen in der Lehre in sieben Kernkompetenzen zusammengefasst:

1.
Etablieren des Lernklimas (Learning climate),
2.
Leitung einer Lehreinheit (Control of session),
3.
Zielkommunikation (Communication of goals),
4.
Fördern von Verstehen und Behalten (Understanding and Retention),
5.
Evaluation,
6.
Feedback,
7.
Fördern vom Selbstbestimmten Lernen (Self-directed Learning).

Es ist eines der frühen Entwicklungsprogramme [13], [14] und entsprang einem konzeptionellen Rahmen, der seit Ende der 1970er Jahre federführend von Dr. Kelley Skeff, einem Internisten der Stanford University und Dr. Georgette Stratos im Rahmen ihrer Untersuchungen zur Verbesserung der Lehre entwickelt wurde. Dieser filmte zunächst hunderte Stunden von Lehrveranstaltungen und korrelierte unter anderem bestimmte Lehrmethoden und Verhaltensweisen der Dozenten mit den Beurteilungen von Studierenden hinsichtlich ihrer Lehreffektivität. Im Rahmen von zahlreichen Studien entwickelte sich so ein Fakultätsentwicklungsprogramm, das es zum einen der Fakultät ermöglichte, seine Lehre zu analysieren und gleichzeitig die Lehrkompetenz der Lehrenden in standardisierten Veranstaltungen fortzubilden [15], [16], [17], [18], [19], [20], [21], [22], [23], [24]. Im Rahmen dieses Programms wurde ein reliables und verlässliches englischsprachiges Messinstrument der Lehrleistung auf der Grundlage von sieben Kategorien entwickelt (SFDP26), das breiten Eingang in Schulungsprogramme und medizindidaktische Forschungsvorhaben im englischsprachigen Raum gefunden hat [16], http://www.acgme.org/outcome/downloads/PBLI/15_pbli.pdf.

Fragestellung

Diese Arbeit untersucht zwei Aspekte hinsichtlich des Fragebogens SFDP26:

1.
Entwicklung und testtheoretische Überprüfung der deutschsprachigen Version des SFDP26 (SFDP26-German) zur Überprüfung von Lehrkompetenzen mittels Item- und Reliabilitätsanalysen zur Ermittlung der internen Konsistenz (Cronbach’s α);
2.
Korrelationsanalysen zwischen den Subskalen und der Gesamtlehreffektivität zur Überprüfung der Relevanz der einzelnen Subskalen.

Methoden

Der Fragebogen SFDP26 besteht aus 25 Items in sieben Subskalen

1.
Etablieren des Lernklimas,
2.
Leitung einer Lehreinheit,
3.
Zielkommunikation,
4.
Fördern von Verstehen und Behalten,
5.
Evaluation,
6.
Feedback,
7.
Fördern vom Selbstbestimmten Lernen und

einem Item „Gesamtlehreffektivität“ als globales Maß für die Lehrleistung.

Die Bewertung erfolgt auf einer fünfstufigen Likert Skala für Item 1-25 (1-5=Nein-Etwas-Ja) und für das Item „Gesamtlehreffektivität“ (1=sehr schwach bis 5=ausgezeichnet). Der englische Originalfragebogen SFDP26 wurde durch Muttersprachler zunächst aus dem Englischen ins Deutsche, und dann ins Englische zurück übersetzt (siehe Tabelle 1 [Tab. 1]). Sieben Ärztinnen und zwölf Ärzte der Klinik für Anästhesiologie an der Universität zu Lübeck, die im studentischen Notfallkurs des Sommersemesters 2009 als Lehrende tätig waren, wurden jeweils am Ende ihrer Lehrveranstaltung durch Studierende mit dem Fragebogen SFDP26-German evaluiert. Die Stichprobe setzte sich dabei zusammen aus 173 Medizinstudierenden des überwiegend fünften (8.7%) und sechsten Fachsemesters (80.3%) (6.6% höhere Semester, 4.6% keine Angabe), die zufällig nach Kursgruppen den Dozenten zugeordnet wurden. Das durchschnittliche Alter der 119 Frauen und 54 Männer betrug 23±3 Jahre. Von Seiten der Ethik-Kommission der Universität zu Lübeck bestanden keinerlei ethische Bedenken gegen diese Studie. Sowohl Studierende, als auch Dozenten wurden im Vorwege über diese Untersuchung informiert und hatten die Möglichkeit, die Teilnahme an dieser Studie zu verweigern. Die Einwilligung erfolgte durch konkludentes Handeln. Alle erhobenen Daten wurden pseudonymisiert ausgewertet. Zur Ermittlung der Itemkennwerte wurden statistische Analysen zu Mittelwert, Standardabweichung und Trennschärfe (nach Pearson) durchgeführt. Der Trennschärfekoeffizient ist dabei nach Lienert die Korrelation der Aufgabenbeantwortung mit dem Summenwert der Skala und Kennwert dafür, in welchem Ausmaß die Differenzierung der Personen durch das Item mit derjenigen durch die Skala als Ganzes übereinstimmt [25]. Dabei gelten Trennschärfen r’ von über 0.3 als gut, von 0.2-0.3 als akzeptabel, von 0.1-0.2 als marginal und Werte unter 0.1 als schlecht [26]. Zur Bestimmung der Skalenkennwerte und -interkorrelationen wurden Skalensummenwerte, Standardabweichung, Homogenitätskoeffizienten (Cronbach’s α) und korrigierte Inter-Skalen-Korrelationen nach Pearson (r) mit dem SPSS-Softwarepaket Version 18 (SPSS Inc., Chicago, USA) berechnet. Für Gruppenvergleichstestungen der Reliabilität kann ein Cronbach’s α ab 0.6 als ausreichend und ab 0.8 als gut bezeichnet werden [27]. Eine Irrtumswahrscheinlichkeit von < 5% (p<0.05) wurde als signifikant, von <0.1% (p<0.001) als hochsignifikant bewertet.


Ergebnisse

Testtheoretische Überprüfung des SFDP26-German

Die Ergebnisse der Itemanalysen sind in Tabelle 1 [Tab. 1] dargestellt. Die größte Zustimmung fanden die Items 1 („Er/sie hörte den Lernenden zu.“) und 3 („Er/sie verhielt sich respektvoll den Lernenden gegenüber.“) der Skala „Lernklima“ mit Mittelwerten von M=4.8±0.7 bzw. 4.7±0.7. Den Items 25 („Er/sie bestärkte die Lernenden, außerhalb des Kurses nachzulesen.“) der Skala „Selbstbestimmtes Lernen“ und 15 („Er/sie überprüfte medizinischen Vorwissen der Lernenden.“) der Skala „Evaluation“ wurde am wenigsten zugestimmt mit Mittelwerten von M=3.4±0.9 bzw. 3.7±1.2.

Die Trennschärfen der Items lagen in keinem Fall unterhalb des kritischen Werts von 0.20, sondern ausnahmslos in einem guten bis sehr guten Bereich (r≥0.60).

Die Ergebnisse der Skalenanalysen sind in Tabelle 2 [Tab. 2] dargestellt. Die größte Zustimmung der Studierenden erfolgte in der Skala „Lernklima“ mit einem Mittelwert von 4.6±0.6. Die geringste Zustimmung wurde in der Skala „Selbstbestimmtes Lernen“ ersichtlich mit einem Mittelwert von 3.6±1.1. Bei nahezu allen Skalen zeigte sich eine hohe interne Konsistenz als Zeichen der Reliabilität, die als gut bewertet werden kann (Cronbach’s α: 0.80-0.89). Die Skala „Verstehen und Behalten“ zeigte eine mittlere interne Konsistenz (α=0.69), die Skala „Feedback“ lag im sehr guten Bereich (α=0.92). Zwischen allen Skalen des SFDP26-German fanden sich hoch signifikante Korrelationen (r) von positiver Proportionalität (siehe Tabelle 3 [Tab. 3]). Der höchste Zusammenhang zeigte sich zwischen den Skalen „Lernklima“ und „Zielkommunikation“ (r=0.73), sowie zwischen „Verstehen und Behalten“ und „Zielkommunikation“ (r=0.72). Die gemeinsame Varianz (r2 x 100) der beiden Skalen betrug 53% bzw. 52%. Die geringsten, aber noch signifikanten positiven Zusammenhänge wurden zwischen den Skalen „Selbstbestimmtes Lernen“ und „Leitung einer Lehreinheit“ (r=0.21), bzw. „Lernklima“ (r=0.28) ersichtlich. Die gemeinsame Varianz war hier 4%, bzw. 8%.

Korrelationen der Subskalen mit Global Rating (Gesamtlehreffektivität)

Die Korrelationen der Subskalen mit der globalen Gesamtbewertung der Lehrleistung (Gesamtlehreffektivität) sind in Tabelle 2 [Tab. 2] dargestellt. Alle Korrelationen waren hoch signifikant (p<0.001). Hier zeigten sich die höchsten Korrelationen mit der Gesamtlehreffektivität für die Subskalen „Zielkommunikation“ (r=0.61), „Fördern von Verstehen und Behalten“ (r=0.58) und „Lernklima“ (r=0.51).


Diskussion

Es handelt sich beim SFDP26 um ein gut untersuchtes Evaluationsinstrument [16], [28], so dass die Übertragung des englischen SFDP26 in den deutschsprachigen Raum sinnvoll und nahe liegend ist. Die Zuverlässigkeit eines solchen Prüfverfahrens ist dabei ein entscheidendes Gütekriterium, das durch die Reliabilität beschrieben wird. Die Ergebnisse dieser Studie bescheinigen dem SFDP26-German hohe interne Konsistenzen, die Reliabilität dieses Fragebogens kann somit als gegeben angesehen werden. Die Trennschärfen lagen alle in einem guten Bereich, so dass die unterschiedlichen Aspekte der Lehrleistung der Dozierenden gut erfasst werden. Darüber hinaus zeigten alle Subskalen signifikante Korrelationen von positiver Proportionalität mit der Gesamtlehreffektivität. Dies kann dahingehend gewertet werden, dass die Subskalen relevante Aspekte der Gesamtlehreffektivität sind.

Beckman und Mitarbeiter untersuchten mit einem auf dem SFDP basierenden, aber durch neue 16 Items veränderten Fragebogen (Mayo Teaching Evaluation Form/ MTEF-28), die Evaluation der Lehrleistung von Assistenzärzten in der klinischen Lehre der Mayo-Clinic [28]. Dort zeigten sich für die Subskalen „Leitung einer Lehreinheit“, „Fördern von Verstehen und Behalten“ und „Feedback“ niedrige interne Konsistenzen (α: 0.147; 0.570; 0.648). Litzelman und Mitarbeiter, die den originären SFDP26 ebenfalls zur Evaluation der Lehrleistung durch Assistenz-ärzte verwendeten, fanden in allen Skalen hohe interne Konsistenzen (α >.85) [17]. Dies weist darauf hin, dass der SFDP26 ein sehr verlässliches Messinstrument ist, dessen Reliablität durch Hinzufügung weiterer Items, wie durch Beckmann und Mitarbeiter vorgenommen, durchaus vermindert werden kann. In einer Studie von Williams und Mitarbeitern wurden die Subskalen des SFDP26 mit der „Global Rating Scale“ der University of Michigan („Please rate the educational value of time with an attending physician.“) verglichen und zeigten dort hohe Korrelationen (r:0.86-0.98) [29], am höchsten in den Subskalen „Zielkommunikation“, Fördern von Verstehen und Behalten“, „Evaluation“, „Feedback“ und „Fördern vom Selbstbestimmten Lernen“ (0.94-0.98). Diese Ergebnisse sind erstaunlich, bedeuten sie ja, dass nahezu ein vollständiger positiver linearer Zusammenhang zwischen den betrachteten Skalen besteht, bzw. zwischen den Subskalen des SFDP26 und einer globalen „Single-Item“-Skala. Die Korrelationen der SFDP26 Subskalen mit der Gesamtlehreffektivität sowie zwischen der SFDP26 Gesamtlehreffektivität und der „Global Rating Scale“ der University of Michigan (Validitätsmaß) wurden leider nicht dargestellt.

Die Skala „Zielkommunikation“ in dieser Arbeit zum SFDP26-German korreliert am höchsten mit der Gesamtlehreffektivität (r=0.61), 37% der Varianz wurden aufgeklärt. Das bedeutet, dass bei Betrachtung aller Subskalen des SFDP26-German zwischen dieser Skala und der Gesamtlehreffektivität der stärkste Zusammenhang besteht. Die Frage der Kausalität lässt sich in dieser Studie nicht klären, allerdings ist die hohe Korrelation ein Hinweis darauf, dass die Skala „Zielkommunikation“ eine relevante Einflussgröße ist und eine wesentliche Bedeutung für die Gesamtlehreffektivität haben könnte. Die Frage zur Bedeutung der einzelnen Subskalen des SFDP26-German auf die effektive Lehrkompetenz sollte also in Folgestudien noch näher beleuchtet werden, um beispielsweise gezielte Schulungsmaßnahmen zur Lehreffektivität entwickeln zu können. Hier wäre es günstig, zusätzlich auch auf den tatsächlich messbaren Kompetenzzuwachs der Studierenden zu fokussieren, der allein mit diesem Fragebogen nicht zu beantworten ist. Der Vergleich des Prüfungserfolgs der Studierenden und ihrer Leistungsfähigkeit im klinischen Kontext als externe Kriterien mit den Ergebnissen des SFDP26-German würde dann auch Aussagen zur Validität des Fragebogens ermöglichen.

Kritisch angemerkt werden muss, dass der SFDP26 keine Vorkehrungen trifft, um zu verhindern, dass Antworttendenzen bei den Studierenden auftreten, z.B. immer nur die gleiche Zahlenreihe angekreuzt wird. Wir haben in unseren Untersuchungen zwar keine Hinweise darauf, dass dies eine Rolle spielen könnte, dennoch muss dieser Punkt in Analysen kritisch gewürdigt werden. Auch die Tatsache, dass die Datenerhebung nur mittels quantitativer Elemente erfolgt, muss kritisch diskutiert werden. Zwar bescheinigen die Analysen den Skalen des SFDP26 eine hohe Reliabilität, dennoch wären möglicherweise für detailliertere Beurteilungen die Ergänzung mit qualitativen Evaluationselementen, wie der Option zur Freitextantwort, sinnvoll. Auch die Anordnung der Stufen auf der Likert-Skala von eins bis fünf sind nicht unproblematisch. Zwar dient die Beschriftung der Gesamtskala („Nein – Etwas – Ja“) der Orientierung, trotzdem ist es möglich, dass die Studierenden unbewusst der im deutschsprachigen Raum etablierten Schulnotengliederung folgen und es zu einer versehentlichen „Umkehrung“ beim Ankreuzen kommt (1=sehr gut, usw.). Dies könnte durch die Umkehr der Beschriftung verhindert werden. Trotz der guten Ergebnisse dieser Studie muss einschränkend festgestellt werden, dass es sich hier um die Untersuchung eines speziellen Kollektivs im Medizinstudium handelt. Untersuchungen zur Anwendung des SFDP26-German in verschiedenen Fächern und zu verschiedenen Zeitpunkten sind daher erforderlich, um die generelle Einsetzbarkeit zu überprüfen.


Schlussfolgerung

Die hier vorgestellte Arbeit untersucht erstmalig die deutschsprachige Version des SFDP26 im klinischen Unterricht von Medizinstudierenden und bescheinigt dem Verfahren eine ausreichende Zuverlässigkeit für den Einsatz in der studentischen Lehrevaluation. Folgestudien in weiteren klinischen Feldern sind notwendig, um die Bedeutung der Subskalen und die Validität des Fragebogens durch Vergleich mit externen Kriterien näher zu beleuchten.


Danksagung

Die Autoren danken allen Dozierenden und Studierenden, die sich an dieser Studie beteiligt haben und insbesondere Herrn Joe Letkeman für die Übersetzung des Fragebogens.


Interessenkonflikt

Die Autoren erklären, dass keinerlei finanzielle oder sonstige Interessenskonflikte bestehen.


Literatur

1.
Wissenschaftsrat. Empfehlungen zur Qualitätsverbesserung von Lehre und Studium. Berlin: Wissenschaftsrat; 2008; Zugänglich unter/available from: http://www.wissenschaftsrat.de/download/archiv/8639-08.pdf Externer Link
2.
Wissenschaftsrat. IV.2. Anerkennung von besonderen Leistungen in der Lehre. In: Empfehlungen zur Qualitätsverbesserung von Lehre und Studium. Köln: Geschäftsstelle des Wissenschaftsrates; 2008.
3.
Hahn EG, Fischer MR. Nationaler Kompetenzbasierter Lernzielkatalog Medizin (NKLM) für Deutschland: Zusammenarbeit der Gesellschaft für Medizinische Ausbildung (GMA) und des Medizinischen Fakultätentages (MFT). GMS Z Med Ausbild. 2009;26(3):Doc35. DOI: 10.3205/zma000627 Externer Link
4.
Lammerding-Köppel M, Fabry G, Hofer M, Ochsendorf F, Schirlo C. Hochschuldidaktische Qualifizierung in der Medizin: I. Bestandsaufnahme: Ein Positionspapier des GMA-Ausschusses Personal- und Organisationsentwicklung für die medizinische Lehre der Gesellschaft für Medizinische Ausbildung sowie des Kompetenzzentrums für Hochschuldidaktik in Medizin Baden-Württemberg. GMS Z Med Ausbild. 2006;23(4):Doc73. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000292.shtml Externer Link
5.
Fischer MR, Gesellschaft für Medizinische Ausbildung, GMA-Ausschuss Prüfungen, Kompetenzzentrum Prüfungen Baden-Württemberg. Leitlinie für Fakultätsinterne Leistungsnachweise während des Medizinstudiums: Ein Positionspapier des GMA-Ausschusses Prüfungen und des Kompetenzzentrums Prüfungen Baden-Württemberg. GMS Z Med. 2008;25(1):Doc74. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2008-25/zma000558.shtml Externer Link
6.
Geraci SA, Kovach RA, Babbott SF, Hollander H, Buranosky R, Devine DR, Berkowitz L. AAIM Report on Master Teachers and Clinician Educators Part 2: faculty development and training. Am J Med. 2010;123(9):869-872 e6.
7.
McLean M, Cilliers F, Van Wyk JM. Faculty development: yesterday, today and tomorrow. Med Teach. 2008;30(6):555-584. DOI: 10.1080/01421590802109834 Externer Link
8.
Iblher P. Lernen zu Lehren – Implementierung eines vorklinischen Wahlfaches zur frühen Förderung von Lehrkompetenzen an der Universität zu Lübeck-Unveröffentlichte Projektarbeit. Lübeck: Universität zu Lübeck; 2008.
9.
Sutkin G, Wagner E, Harris I, Schiffer R. What makes a good clinical teacher in medicine? A review of the literature. Acad Med. 2008;83(5):452-466. DOI: 10.1097/ACM.0b013e31816bee61 Externer Link
10.
Jünger J, Fischer MR, Duelli R, Putz R, Resch F. Implementierung und Evaluation eines interfakultären Master of Medical Education Programms. Z Evid Fortbild Qual Gesundhwes. 2008;102(10):620-627.
11.
Busari JO, Prince KJ, Scherpbier AJ, Van Der Vleuten CP, Essed GG. How residents perceive their teaching role in the clinical setting: a qualitative study. Med Teach. 2002;24(1):57-61. DOI: 10.1080/00034980120103496 Externer Link
12.
Morrison EH, Hafler JP. Yesterday a learner, today a teacher too: residents as teachers in 2000. Pediatrics. 2000;105(1 Pt 3):238-241.
13.
Searle NS, Thompson BM, Friedland JA, Lomax JW, Drutz JE, Coburn M, Nelson EA. The prevalence and practice of academies of medical educators: a survey of U.S. medical schools. Acad Med. 2010;85(1):48-56. DOI: 10.1097/ACM.0b013e3181c4846b Externer Link
14.
Steinert Y, Mann K, Centeno A, Dolmans D, Spencer J, Gelula M, Prideaux D. A systematic review of faculty development initiatives designed to improve teaching effectiveness in medical education: BEME Guide No. 8. Med Teach. 2006;28(6):497-526. DOI: 10.1080/01421590600902976 Externer Link
15.
Litzelman DK, Stratos GA, Marriott DJ, Lazaridis EN, Skeff KM. Beneficial and harmful effects of augmented feedback on physicians' clinical-teaching performances. Acad Med. 1998;73(3):324-332. DOI: 10.1097/00001888-199803000-00022 Externer Link
16.
Litzelman DK, Stratos GA, Marriott DJ, Skeff KM. Factorial validation of a widely disseminated educational framework for evaluating clinical teachers. Acad Med. 1998;73(6):688-695. DOI: 10.1097/00001888-199806000-00016 Externer Link
17.
Litzelman DK, Westmoreland GR, Skeff KM, Stratos GA. Factorial validation of an educational framework using residents' evaluations of clinician-educators. Acad Med. 1999;74(10 Suppl):S25-S27.
18.
Skeff KM. Evaluation of a method for improving the teaching performance of attending physicians. Am J Med. 1983;75(3):465-470. DOI: 10.1016/0002-9343(83)90351-0 Externer Link
19.
Skeff KM, Campbell M, Stratos G, Jones HW, 3rd, Cooke M. Assessment by attending physicians of a seminar method to improve clinical teaching. J Med Educ. 1984;59(12):944-950.
20.
Skeff KM, Stratos G, Campbell M, Cooke M, Jones HW. 3rd. Evaluation of the seminar method to improve clinical teaching. J Gen Intern Med. 1986;1(5):315-322. DOI: 10.1007/BF02596211 Externer Link
21.
Skeff KM, Stratos GA, Bergen MR, Regula DP, Jr. A pilot study of faculty development for basic science teachers. Acad Med. 1998;73(6):701-704. DOI: 10.1097/00001888-199806000-00018 Externer Link
22.
Skeff KM, Stratos GA, Bergen MR, Sampson K, Deutsch SL. Regional teaching improvement programs for community-based teachers. Am J Med. 1999;106(1):76-80. DOI: 10.1016/S0002-9343(98)00360-X Externer Link
23.
Skeff KM, Stratos GA, Berman J, Bergen MR. Improving clinical teaching. Evaluation of a national dissemination program. Arch Intern Med. 1992;152(6):1156-1161.
24.
Skeff KM, Stratos GA, Mygdal W, DeWitt TA, Manfred L, Quirk M, Roberts K, Greenberg L, Bland CJ. Faculty development. A resource for clinical teachers. J Gen Intern Med. 1997;12(Suppl 2):S56-S63. DOI: 10.1046/j.1525-1497.12.s2.8.x Externer Link
25.
Lienert GA, Raatz U. Berechnung von Schwierigkeitsindex, Trennschärfenkoeffizient und Aufgabeninterkorrelation. In: Lienert GA, Raatz U, editors. Testaufbau und Testanalyse. Weinheim: Beltz, Psychologie-Verl.-Union; 1994. S.73-113.
26.
Möltner A, Schellberg D, Jünger J. Grundlegende quantitative Analysen medizinischer Prüfungen. GMS Z Med Ausbild. 2006;23(3):Doc53. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000272.shtml Externer Link
27.
Bortz JD, Döring N. Hypothesengewinnung und Theoriebildung. In: Bortz JD, Döring N (Hrsg). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. Berlin, Heidelberg, New York, Tokio: Springer; 2006. S.355–936.
28.
Litzelman DK, Westmoreland GR, Skeff KM, Stratos G. Student and resident evaluations of faculty-how dependable are they? Acad Med. 1999;74(Suppl.):s25-s27.
29.
Williams BC, Litzelman DK, Babbott SF, Lubitz RM, Hofer TP. Validation of a global measure of faculty's clinical teaching performance. Acad Med. 2002;77(2):177-180. DOI: 10.1097/00001888-200202000-00020 Externer Link
30.
Beckman TJ, Lee MC, Rohren CH, Pankratz VS. Evaluating an instrument for the peer review of inpatient teaching. Med Teach. 2003;25(2):131-135. DOI: 10.1080/0142159031000092508 Externer Link