gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Zusammenarbeit, Kooperation, Kommunikation, Kontakt und Kompetenzen

Leitartikel Interprofessionelle Ausbildung

Suche in Medline nach

  • corresponding author Jill E. Thistlethwaite - University of Technology Sydney, Health professions education consultant, Adjunct professor, Sydney Australia

GMS J Med Educ 2016;33(2):Doc37

doi: 10.3205/zma001036, urn:nbn:de:0183-zma0010368

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2016-33/zma001036.shtml

Eingereicht: 23. Dezember 2015
Überarbeitet: 14. Januar 2016
Angenommen: 20. Februar 2016
Veröffentlicht: 29. April 2016

© 2016 Thistlethwaite.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Einleitung

Die globale wissenschaftliche Community für interprofessionelle Ausbildung wächst. Englische Muttersprachler wie ich beschränken sich jedoch allzu oft auf die englische Literatur und wissen nur wenig über die Entwicklungen in Ländern, die in den englischsprachigen Zeitschriften unterrepräsentiert sind. Dieses Defizit wurde mir nicht nur durch die Vielfalt der Beiträge in dieser Sonderausgabe des GMS Journal for Medical Education deutlich, sondern auch durch meine jüngsten Erfahrungen als Mitherausgeberin einer Buchreihe zu Führungsrollen für die interprofessionelle Bildung und meine Reisen außerhalb Australiens und Großbritanniens. Die verschiedenen Bücher enthalten sowohl Kapitel aus Indonesien, Japan, Malaysia, Indien, den Philippinen, Kenia und Südafrika als auch aus den in der Literatur häufiger repräsentierten Ländern wie die USA, Großbritannien, Australien, Neuseeland und Kanada [1], [2], [3].


Kompetenzen

Mir wurde die Ehre zuteil, den Leitartikel für diese Sonderausgabe schreiben zu dürfen. Ich möchte daher einige meiner Überlegungen zum aktuellen Stand der interprofessionellen Ausbildung aus meiner Sicht zur Evaluation mit den Leserinnen und Lesern teilen. Des Weiteren möchte ich ausführen, was getan werden muss, um die Nachhaltigkeit zukünftiger Initiativen sicherzustellen. Es ist vielleicht nicht allzu überraschend, dass mir besonders die im Vergleich mit anderen Ländern sehr ähnlichen Schwerpunkte in den deutschen Projekten auffielen. Die fünf englischen C-Wörter Collaboration (Zusammenarbeit), Cooperation (Kooperation), Communication (Kommunikation), Contact (Kontakt) und Competencies (Kompetenzen) werden immer wieder genannt. Die ersten vier können als Beispiele für die angestrebten Ziele der interprofessionellen Ausbildung und interprofessionellen Praxis verstanden werden; sie kommen in den Beiträgen dieses Themenhefts häufig vor. Das letzte „C-Wort“ reflektiert hierbei die kompetenzbasierte Orientierung, die innerhalb der medizinischen und anderen gesundheitsberuflichen Bildungszweige mittlerweile dominiert. Einige Organisationen und Gremien haben die Kompetenzen definiert, die ihrer Meinung nach für die interprofessionelle Praxis notwendig und in der interprofessionellen Ausbildung zu entwickeln sind, beispielsweise die Canadian Interprofessional Health Collaborative (CIHC) [http:// www.cihc.ca/files/CIHC_IPCompetencies_Feb1210.pdf], und die Interprofessional Education Collaborative (IPEC in den USA) [http:// www.aacn.nche.edu/education-resources/ipecreport.pdf]. Es wurde allerdings auch die Kritik geäußert, dass die Kompetenzen komplexe Handlungen und Aufgaben zu einfachen Checklisten reduzieren, die die zugrunde liegenden Bildungskonzepte zu stark vereinfachen [4]. Die Komplexität von interprofessioneller Praxis und Zusammenarbeit spiegelt sich in der Anzahl der in häufig zitierten Rahmenwerken aufgelisteten Kompetenzen wieder [5]. Ähnliches gilt für die "Kommunikation, die Bachmann et al. in ihrem Beitrag diskutieren, der sich auf die deutsch-englische Übersetzung des „Health Professions Core Communication Curriculum (HPCCC)“ konzentriert – einen Lehrplan mit 61 Lernzielen [6]. Hochschulen, die Studienprogramme für Gesundheitsfachberufe und Soziale Berufe anbieten und interprofessionelle Bildungsmöglichkeiten einführen oder bereits bestehende erweitern möchten, müssen die jeweils angemessenen Lernziele oder Kompetenzen für solche Programme festlegen. Dabei sollten aus curriculumplanerischer Sicht die Standards der nationalen Akkreditierungsstellen für jeden Gesundheitsberuf noch vor der Zertifizierung (vor der Lizensierung) bedacht und diese auch wenn möglich verwendet werden, um die Lernziele zu definieren. Deutsche Hochschulen können weitere geeignete Beispiele aus anderen Ländern zurate ziehen, ihre Arbeit sollte sich jedoch auf den Kontext ihres eigenen Gesundheitswesens, der Zusammensetzung verschiedener Fachpersonen aus gesundheitlicher und sozialer Fürsorge und der eigenen kulturellen Gegebenheiten stützen. Ein Beispiel für die Bedeutung des Kontext findet sich im Beitrag von Eich-Krohm et al. In Deutschland ist die Pflege, anders als in einigen anderen Ländern, in aller Regel kein Universitätsstudium, sodass Pflege- und Medizinstudierende während ihrer Ausbildung wahrscheinlich nicht viel miteinander in Kontakt kommen, sofern keine spezifischen Gelegenheiten dafür geschaffen werden [7]. Der Beitrag von Bohrer et al. beschreiben ein Projekt aus Berlin und die Notwendigkeit, in Bezug auf Ausbildung und Prüfungen die unterschiedlichen universitären Vorschriften zu beachten [8]. Eine erfolgreiche interprofessionelle Ausbildung muss in die Lehrpläne integriert sein und die Organisation muss engagiert genug sein, um Ressourcen (z. B.Räume) zur Verfügung zu stellen [9].


Bewertung

Ausgehend von der Grundüberlegung, dass Kompetenzen ein Resultat unserer Curricula darstellen, gilt es zu bedenken, wie diese bewertet werden können, da die Mehrzahl der Studierenden Aktivitäten nur dann als wichtig erachten, wenn sie auf irgendeine Weise geprüft werden: die Bewertung „gestaltet auf beeindruckende Weise, wie Studenten lernen und was sie erreichen“ („powerfully frames how students learn and what students achieve“) [http:// www.assessmentfutures.com]. Ich stimme natürlich zu, dass die Lernenden wissen müssen, welche Lernziele sie erreichen sollen. Während mich grundsätzlich die Sicht von „Kompetenz“ als Bildungsziel nachdenklich macht, erscheint es beunruhigend, dass einige interprofessionelle curriculare Interventionen keine klaren Lernziele definieren, sodass die Studierenden sich nicht sicher sein können, welche Lernerfolge von ihnen erwartet werden [10]. Innerhalb der interprofessionellen Ausbildung kann sich diese Unsicherheit der Studierrenden auch auf die Frage ausdehnen, warum sie innerhalb ihres Studiengangs mit anderen Gesundheitsfachberufen zusammen lernen, wenn sie sich doch auf das Wissen ihrer eigenen Fachrichtung konzentrieren möchten.

Manchmal erscheint interprofessionelle Ausbildung logistisch so schwierig und die interprofessionellen Dozierenden und Curriculumplanerinnen und - planer scheinen so wenig Unterstützung zu erhalten, dass wir grundlegende didaktische Prinzipien wie „curriculum alignment“ vergessen [11]. Unsere aktuelle Umfrage in Australien hat jedenfalls gezeigt, dass die meisten interprofessionellen Ausbildungsprojekte ausschließlich über die Anwesenheit der Studierenden bewertet werden [http://www.hwa.gov.au/sites/uploads/IPE%20Audit%20report%20Jan%202013.pdf]. Eine detaillierteres Assessment sollte durch Beobachtungen und Feedback begleitet werden, sodass die Prüfung selbst eine Lernaktivität darstellt: die Bewertung erfolgt zum Lernen, nicht ausschließlich zur Prüfung des Gelernten. Auch nach der gemeinsamen Definition davon, was zu bewerten ist, hindert uns jedoch das Fehlen von Assessment daran, die häufig gestellte Frage zu beantworten: „Was ist die Evidenz für die interprofessionelle Ausbildung und deren Wirksamkeit?“ Bei dieser Frage geht es um Effektivität und Resultate von interprofessioneller Ausbildung; und es schwingt die Frage mit, warum überhaupt eine Änderung des bestehenden Curriculums und seiner Anteile nötig ist. Wenn wir herausfinden wollen, ob die interprofessionelle Ausbildung funktioniert und die Effekte zeigt, müssen wir zunächst definieren, was wir unter „funktionieren“ verstehen. Die Befürworter des häufig zitierten Kirkpatrick-Modells für „educational outcomes“ [12] meinen, dass wir letztendlich aufzeigen müssen, dass die interprofessionelle Ausbildung zu besseren organisationalen (4a) oder patientenbezogenen Ergebnissen führt (4b). Dies ist keine ganz faire Anforderung, da wir nur selten (wenn überhaupt) von anderen vorqualifizierenden Bildungsprogrammen verlangen, dass bereits früh im Curriculum ein Unterschied in der Art und Weise nachgewiesen wird, wie Organisationen funktionieren oder ob sich die Bedingungen oder die Sicherheit für Patienten verbessert. Das US-amerikanische Institute of Medicine schlägt vor, dass messbare Bildungsziele darstellen, dass vordefinierte Lernziele durch die Lernenden erreicht werden, wobei die Lernziele eine optimale Gesundheitsversorgung mit verbesserten Ergebnissen in der Patientenversorgung sicher stellen sollen [13]. Der Versuch, eine direkte kausale Verbindung zwischen einem Aspekt eines Curriculums, wie der interprofessionellen Ausbildung, und langfristigeren Effekten aufzuzeigen ist, meiner Ansicht nach, unmöglich. Wir sollten stattdessen in der Lage sein, zu bewerten, ob die Lernenden diejenigen Lernziele erreicht haben, die uns für ein gemeinschaftliches Arbeitsumfeld in der Gesundheitsversorgung wichtig, und ob die Lernenden am Ende ihrer Ausbildung die erreichten Lernziele in der Versorgungspraxis einsetzen können. Dies setzt voraus, dass wir eine auf Forschungen basierende, genaue Vorstellung davon haben, was genau diese Lernziele sein sollten. Auf diese Weise kann das Lernen die Praxis und die Praxis die Ergebnisse auf Patienten- oder Systemebene beeinflussen. Wie in jeder prägraduellen Ausbildung müssen wir bedenken, dass das Lernen nicht mit dem Abschluss der Ausbildung aufhört und dass Fähigkeiten sich im Laufe der praktischen Tätigkeit mittels Erfahrung, Feedback und Reflexion weiterentwickeln.


Evaluation

Auch wenn das Kirkpatrick-Modell für die Planung der Evaluation angewendet wird, befassen sich die meisten publizierten Evaluationsstudien von interprofessioneller Ausbildung nach wie vor mit der Reaktion der Lernenden, der Änderung von Haltungen und dem Wissenserwerb und in aller Regel nicht mit der Leistung im Lern- und Arbeitsumfeld [14]. Auch dies ist nicht überraschend, wenn man die Schwierigkeiten der arbeitsplatz-basierten Beobachtung und Prüfung bedenkt. Die Zufriedenheit der Lernenden ist zweifelsohne wichtig und notwendig, als Nachweis für den Nutzen jedoch nicht ausreichend. Der grossen Mehrheit der Studierenden scheint die interprofessionelle Ausbildung zu gefallen; sie bewerten die interprofessionellen Erfahrungen positiv, wobei zwischen den verschiedenen Programmen, Instituten, Regionen und Ländern große Unterschiede in Format, Einbindung, Ort und zeitlicher Planung der interprofessionellen Ausbildung bestehen. Berger et al. aus Heidelberg haben ein neu eingeführtes interprofessionelles Seminar bewertet und dabei zeigen können, dass die Studierenden, die interprofessionell lernen und arbeiten die Erfahrung positiver bewerten als Studierende die in uniprofessionellen Gruppen lernen [15]. Flentje et al. bewerteten eine interprofessionellen Simulationsübung: Die Teilnehmenden selbst gaben an, dass sie ihre Fähigkeiten zur Zusammenarbeit besonders bezüglich der Kommunikation verbessern konnten [16]. Die Universitätsmedizin Greifswald hat ebenfalls eine Simulationsübung eingeführt, die sich auf klinische Notfallsituationen bezieht und für Medizin- und Pflegestudierende, sowie weitere Gesundheitsfachberufe vorgesehen ist. Die Simulation wurde von den Teilnehmenden sehr gut bewertet [17]. In Mannheim lernen derweil die Studierenden der Medizin und der Physiotherapie in gemeinsamen Teams, wobei sich die Meinungen zu den Resultaten zwischen den beiden Gruppen etwas unterscheiden [18]. Da Medizin- und Physiotherapiestudierende gemeinsame Kompetenzen im Bereich der rheumatischen und muskuloskelettalen Erkrankungen haben, haben diese die Grundlage für die erfolgreiche Einführung eines interprofessionellen Lernprozesses für diese zwei Gruppen gebildet [19].

Bezüglich der Lernzieldomäne Haltungen und Einstellungen haben die häufig verwendeten Instrumente wie RIPLS („Readiness for Interprofessional Learning Scale“) [20] und IEPS („Interdisciplinary Education Perception Scale“) [21] innerhalb von neueren Publikationen nur selten eine Veränderung nachgewiesen, wenn sie vor und nach den curricularen Interventionen angewandt wurden. Zu Beginn sind die Studierenden positiv gestimmt, weil sie sich entweder freiwillig für fakultative interprofessionelle Erfahrungen gemeldet haben oder weil die interprofessionelle Ausbildung inzwischen ein allgemein anerkannterer Teil des Curriculums ist.

Ausschließlich auf Ergebnisse gerichtete Herangehensweisen dürfen und sollten wir durchaus kritisch betrachten. Ansätze, die interprofessionelle Ausbildung und interprofessionelle Praxis im Rahmen theoretischer Konzepte zu bewerten [22], [23] um so die wissenschaftliche Basis zu erweitern und einen Kontext herzustellen, betonen die Notwendigkeit, das Wesen der interprofessionellen Ausbildung und Praxis und deren Interaktionen zu erforschen. Bis heute haben allerdings nur wenige der Evaluationsstudien spezifische Theorien zitiert, die den jeweiligen Ansatz verdeutlichen, wobei die Theorie der Erwachsenenbildung nach wie vor häufig implizit eingebunden ist (wie Barr et al. bereits 2005 feststellen [24]). Wenn Bezüge zu Theorien hergestellt werden, stammen diese aus unterschiedlichen Disziplinen, wie z. B. der Pädagogik, Psychologie und besonders der Soziologie [25]. Hean et al. haben beispielsweise die soziokulturelle Theorie mit ihrem Schwerpunkt auf den sozialen Aspekt des Lernens (mit, von und über) in ihren Empfehlungen zu für die interprofessionelle Ausbildung relevanten Theorien in den Vordergrund gestellt [26]. Posenau und Peters konzentrieren sich in ihrem Beitrag im vorliegenden Themenheft mit Bezügen zur Linguistik auf die Kommunikation, um mit Hilfe eines quantitativen Ansatzes professionelle Marker in den Gesprächen zu analysieren, die im Rahmen von interprofessionellen Simulationen geführt werden [27].


Kontext-Mechanismus-gesteuerte Evaluation/Realist Evaluation

Die Evaluation von Resultaten geht davon aus, dass zwischen Input und Output ein kausaler Zusammenhang besteht. Der Raum zwischen Input und Output wurde als „Black Box“ [28] bezeichnet und so ist bei quantitativen Ansätzen nur selten erkennbar, was in dieser Box vorgeht. Warum entwickeln manche Studierenden die Fähigkeit zur Zusammenarbeit und andere nicht, obwohl die curriculare Intervention dieselbe war? Wie stellen Dozierende sicher, dass alle Studierenden am Ende von klinischen Programmen, die je nach Ort, Wahrnehmung, Dauer, zeitlicher Planung und Zugang zu Patienten verschiedene Erfahrungen hinterlassen, dieselben definierten Lernziele erreichen? Darüber hinaus sind Initiativen zur Ausbildung von Gesundheitsexperten so komplex, dass sie nur selten binär auswertbar sind: sie sind weder „effektiv“ noch „ineffektiv“ und die Studierenden sind nur selten entweder „in der Lage“ oder „nicht in der Lage“, komplexe Aufgaben auszuführen, selbst, wenn wir definieren können, wie diese Befähigung aussieht.

Eine häufige Form von Publikationen innerhalb der interprofessionellen Literatur beschreibt eine Lernaktivität, bei der Studierende aus drei oder vier verschiedenen Berufszweigen einen Patienten zu dessen Erfahrungen mit einer lang anhaltenden Erkrankung befragen. Jede Studentin und jeder Student hat bis dahin eine berufsspezifische Herangehensweise an die Anamnese gelernt. Indem die Studierenden nun gegenseitig ihre Fragen und Sprache beobachten und die Gemeinsamkeiten und Unterschiede ihrer Herangehensweisen diskutieren, sollen die Studierenden Verständnis für ihre jeweiligen Rollen in Bezug auf eine bestimmte medizinische Problemstellung entwickeln. Nehmen wir einmal an, die Studierenden hätten vor dieser Übung einen Test zu beruflichen Rollen und würden diesen Test zwei Wochen nach der Übung wiederholen. Die Studierenden würden ebenfalls gebeten, vor und nach der Übung anzugeben, inwieweit sie sich zutrauen, mit anderen Gesundheitsfachberufen zusammenzuarbeiten. Die Bewertungen der Studenten würden zeigen, dass 85% ihr Wissen erweitert haben, die restlichen 15% jedoch nicht; 70% würden angeben an, dass ihr Selbstvertrauen in der Zusammenarbeit mit anderen Gesundheitsfachberufen gestiegen sei, bei 20% hätte sich nichts verändert und bei 10% wäre das Selbstvertrauen gesunken. Diese Zahlen würden nahelegen, dass die Aktivität insgesamt effektiv war, da die Mehrheit der Studierenden positive Veränderungen angab. Wir können aus diesem Ergebnis jedoch nicht ablesen, warum bestimmte Studierende etwas gelernt haben und andere nicht, warum sich manche nun mehr zutrauen und andere weniger. Wir können einige Hypothesen aufstellen, wie diese Diskrepanz entstanden ist: unterschiedliche Motivation und verschiedenes Engagement der Studierenden; fehlende Vorbereitung; Unterschiede in den Patientenerfahrungen; die berufliche Zusammensetzung der Gruppen; verschiedene Dozierende; die Evaluationsmethode usw. Wir wissen außerdem, dass die Eigenbewertung des Selbstvertrauens der Studierenden eher ein schlechtes Maß für die tatsächlichen Veränderungen ist und dass manche Studierenden sich besser selbst einschätzen können als andere.

Um die Ursachen für dieses Ergebnisse zu begreifen, ,müssen wir eine Prozessevaluation vornehmen, um mögliche Faktoren identifizieren zu können, die die Effektivität beeinflussen könnten. Die „Realist Evaluation“ ist eine Art Prozessevaluation, welche folgende Frage beantworten soll: was funktioniert für wen, unter welchen Umständen, inwiefern, in welchem Ausmaß und warum [29]? Ein solcher Ansatz ist zeitaufwendig und wird daher kaum verfolgt, sofern nicht die notwendige Finanzierung verfügbar ist, wobei Programmevaluationen selten gut finanziert werden.. Solche realistischen Methoden erfordern eingehende Fallstudien begleitet von reflexiven Fragestellungen, warum in einer bestimmten Situation ein bestimmter Input zu einem bestimmten Ergebnis führte, ein anderes Mal jedoch zum entgegengesetzten Ergebnis [30]. Diese Evalutionsmethode wurde ursprünglich entwickelt, um komplexe soziale Vorgänge zu erforschen, wie zum Beispiel Kampagnen zur Bewerbung von sicheren Sexualpraktiken, die davon abhängen, wie verschiedene Menschen auf denselben Input reagieren, um die erwünschten Ergebnisse zu erzeugen [31].

Die „Realist Evaluation“ oder auch Kontext-Mechanismus-gesteuerte Evaluation wird als nützliche Methode für die medizinische Ausbildung angesehen, da auch hier komplexe Vorgänge stattfinden [32]. In einer Institution effektiv erscheinende interprofessionelle Ausbildungsprogramme können in einer anderen Einrichtung desaströs sein, da kontextuelle Unterschiede nicht immer offensichtlich sind oder beachtet werden. Der deutsche Kontext unterscheidet sich zum Beispiel von einigen europäischen Ländern, da wie bereits oben erwähnt die Pflege dort in aller Regel keine universitäre Ausbildung ist. Es kann also hier gefragt werden, wie sich dieser Unterschied auf das Lernverhalten der Studierenden aus wirkt.

Realismus ist eine wissenschaftliche Philosophie zwischen Positivismus und Relativismus/Konstruktivismus [33]. Realisten widersprechen dem positivistischen Standpunkt von Kausalität mit der Verschmelzung aus einfachen Beobachtungen und Beschreibungen von Geschehnissen mit Erklärungen [34]. Der realistische Evaluator versucht, zugrunde liegende kausale Mechanismen zu erklären und aufzudecken, wie die Ergebnisse durch den Kontext beeinflusst werden: Kontext (Context, C) + Mechanismus (Mechanism, M) = Ergebnis (Outcome, O) [35]. Ein Mechanismus wird hierbei als „zugrunde liegende Einheit, Struktur oder zugrunde liegender Prozess [definiert], der/die in bestimmten Kontexten Ergebnisse von Interesse erzeugt“ [28].


Fazit

Wenn wir keine Erklärung für die Geschehnisse innerhalb der „Black Box“ der interprofessionellen Ausbildung liefern können und keine Evidenz für die Effektivität bezüglich erreichter Ergebnisse innerhalb der interprofessionellen Ausbildung, einschließlich Zusammenarbeit, Kooperation und Kommunikation generieren können, wird es schwierig sein, innerhalb der Bildungsinstitutionen für Unterstützung für die interprofessionelle Ausbildung zu werben. Aufgrund der ständigen Erweiterung des medizinischen Wissens sind die Curricula in der Medizin und den Gesundheitsfachberufen in aller Regel intensiv und äusserst umfassend. Neue Lerninhalte oder Module, die beispielsweise Professionalität, Belastbarkeit und Führungsqualitäten vermitteln sollen, werden zusätzlich gefordert. Zudem ist die Finanzierung des Hochschulwesens in vielen Ländern rückläufig oder die Anzahl der Studierenden steigt, ohne dass zusätzliche Ressourcen zur Verfügung gestellt werden. Wir müssen als didaktische Experten, klinische Wissenschaftler und Experten für Interprofessionalität qualitativ hochwertige Evaluationsinstrumente und – studien sowie spezifische Forschung in unsere Kurse integrieren. Wir müssen in der Lage sein, zumindest einige der Fragen nach Evidenzen zu beantworten – auch wenn die Fragen nicht völlig in unserem Sinne formuliert sind. Die in diesem Themenheft publizierten Beiträge tragen zur notwendigen Erweiterung der Literatur im Bereich der interprofessionellen Ausbildung bei und können allen Dozierenden, Bildungsforschenden und Curriculumplanenden in Medizin und den Gesundheitsfachberufen in Deutschland zur Pflichtlektüre empfohlen werden.


Interessenkonflikt

Die Autorin erklärt, dass sie keine Interessenkonflikt im Zusammenhang mit diesem Artikel hat.


Literatur

1.
Forman D, Jones M, Thistlethwaite J. Leadership Development for Interprofessional Education and Collaborative Practice. Basingstoke: Palgrave; 2014. DOI: 10.1057/9781137363022 Externer Link
2.
Forman D, Jones M, Thistlethwaite J. Leadership and Collaboration: Further Developments for Interprofessional Education. Basingstoke: Palgrave; 2015.
3.
Forman D, Jones M, Thistlethwaite J. Leading Research and Evaluation in Interprofessional Education and Collaborative Practice. London: Palgrave Macmillan; 2016. (in press)
4.
Lurie SJ. History and practice of competency-based assessment. Med Educ. 2012;46(1):49-57. DOI: 10.1111/j.1365-2923.2011.04142.x Externer Link
5.
Thistlethwaite JE, Forman D, Matthews LR, Rodgers GD, Szeketee C, Yassine T. Interprofessional education competencies and frameworks in health: A comparative analysis. Acad Med. 2014;89(6):869-874. DOI: 10.1097/ACM.0000000000000249 Externer Link
6.
Bachmann C, Kiessling C, Härtl A, Haak R. A European consensus on inter- and multi- professional training objectives in a German translation. GMS J Med Educ. 2016;33(2):Doc23. DOI: 10.3205/zma001022 Externer Link
7.
Eich-Krohm A, Kaufmann A, Winkler-Stuck K, Werwick K, Spura A, Robra BP. First Contact: interprofessional education based on medical students' experiences from their nursing internship. GMS J Med Educ. 2016;33(2):Doc20. DOI: 10.3205/zma001019 Externer Link
8.
Bohrer A, Heinze C, Höppner H, Behrend R, Czakert J, Hitzblech t, Kaufmann I, Maaz A, Räbiger J, Peters H. Berlin in motion: interprofessional education and learning for students in the fields of medicine, occupational therapy, physiotherapy and nursing (INTER-M-E-P-P). GMS J Med Educ. 2016;33(2):Doc34. DOI: 10.3205/zma001033 Externer Link
9.
Nowak AC, Klimke-Jung K, Schäfer T, Relf K. Interprofessional relations in health care: a learning project with four learning units for students from six degree programs. GMS J Med Educ. 2016;33(2):Doc29. DOI: 10.3205/zma001028 Externer Link
10.
Thistlethwaite J, Moran M; World Health Organization Study Group on Interprofessional Education and Collaborative Practice. Learning outcomes for interprofessional education (IPE): literature review and synthesis. J Interprof Care. 2010;24(5):503-513. DOI: 10.3109/13561820.2010.483366 Externer Link
11.
Biggs JB, Tang C. Teaching for quality learning at university: What the student does. 3rd ed. Maidenhead: McGraw-Hill/Society for Research in Higher Education and Open University Press; 2007.
12.
Barr H, Freeth D, Hammick M, Koppel I, Reeves S. Evaluations for Interprofessional Education. A United Kingdom Review for Health and Social Care. London: CAIPE/BERA; 2000.
13.
Institute of Medicine. Measuring the Impact of Interprofessional Education (IPE) on Collaborative Practice and Patient Outcomes. Washington, D.C.: Institute of Medicine; 2015.
14.
Thistlethwaite J, Kumar K, Moran M, Saunders R, Carr S. An exploratory review of pre-qualification interprofessional education evaluations. J Interprof Care. 2015;29(4):292-297. DOI: 10.3109/13561820.2014.985292 Externer Link
15.
Berger S, Mahler C, Krug B, Szecsenyi J, Schultz J. Evaluation of interprofessional education: lessons learned through the development and implementation of an interprofessional seminar on team communication for undergraduate health care students in Heidelberg. GMS J Med Educ. 2016;33(2):Doc22. DOI: 10.3205/zma001021 Externer Link
16.
Flentje M, Müssel T, Henzel B, Jantzen JP. Simulating a patient's fall as a method to improve routine communication. GMS J Med Educ. 2016;33(2):Doc19. DOI: 10.3205/zma101018 Externer Link
17.
Partecke M, Balzer C, Finkenzeller I, Reppenhagen C, Hess U, Hahnenkamp K, Meissner K. Interprofessional learning at the University of Greifswald Medical School: pedagogical approach and practical application of team training for medical and nursing students in the context of a medical emergency. GMS J Med Educ. 2016;33(2):Doc32. DOI: 10.3205/zma001031 Externer Link
18.
Mette M, Dölken M, Hinrichs J, Narciss E, Schüttpelz-Brauns K, Weihrauch U, Fritz HM. Comprehension through cooperation: medical students and students of physiotherapy learn in teams –introducing interprofessional learning at the University Medical Centre Mannheim. GMS J Med Educ. 2016;33(2):Doc31. DOI: 10.3205/zma001032 Externer Link
19.
Sander O, Schmidt RA, Rehkämper G, Lögters T, Zilkens C, Schneider M. Interprofessional education as part of becoming a doctor or physiotherapist in a competency-based curriculum. GMS J Med Educ. 2016;33:Doc15. DOI: 10.3205/zma001014 Externer Link
20.
Parsell G, Bligh J. The development of a questionnaire to assess the readiness of health care students for interprofessional learning (RIPLS). Med Educ. 1999;33(2):95-100. DOI: 10.1046/j.1365-2923.1999.00298.x Externer Link
21.
Luecht RM, Madsen MK, Taugher MP, Petterson BJ. Assessing professional perceptions: design and validation of an Interdisciplinary Education Perception Scale. J Allied Health. 1990;19(2):181-191.
22.
Hean S, Anderson E, Green C, John C, Pitt R, O'Halloran C. Reviews of theoretical frameworks: Challenges and judging the quality of theory application. Med Teach. 2015:1-8 [Epub ahead of print]. DOI: 10.3109/0142159X.2015.1075648 Externer Link
23.
Thistlethwaite J; GRIN Working Group. Introducing the Global Research Interprofessional Network (GRIN). J Interprof Care. 2013;27(2):107-109. DOI: 10.3109/13561820.2012.718814 Externer Link
24.
Barr H, Koppel I, Reeves S, Hammick M, Freeth D. Effective interprofessional education: assumption, argument and evidence. London: Blackwell; 2005. DOI: 10.1002/9780470776445 Externer Link
25.
Thistlethwaite J. Interprofessional education: a review of context, learning and the research agenda. Med Educ. 2012;46(1):58-70. DOI: 10.1111/j.1365-2923.2011.04143.x Externer Link
26.
Hean S, Craddock D, O'Halloran C. Learning theories and interprofessional education: a user's guide. Learn Health Soc Care. 2009;8:250-262. DOI: 10.1111/j.1473-6861.2009.00227.x Externer Link
27.
Posenau A, Peters T. Communicative positioning of one's own position in interprofessional settings. GMS J Med Educ. 2016;33(2):Doc27. DOI: 10.3205/zma001026 Externer Link
28.
Astbury B, Leeuw F. Unpacking black boxes: Mechanisms and theory building in evaluation. Am J Eval. 2010;3:363–381. DOI: 10.1177/1098214010371972 Externer Link
29.
Pawson R, Tilley N. Realistic evaluation. London: Sage; 1997.
30.
Maxwell JA. A realist approach for qualitative research. London: Sage; 2012.
31.
Pawson R, Greenhalgh T, Harvey G, Walshe K. Realist review – a new method of systematic review designed for complex policy interventions. J Health Serv Res Policy. 2005;10(Suppl 1):21-34. DOI: 10.1258/1355819054308530 Externer Link
32.
Wong G, Greenhalgh T, Westhorp G, Pawson R. Realist methods in medical education research: what are they and what can they contribute? Med Educ. 2012;46(1):89-96. DOI: 10.1111/j.1365-2923.2011.04045.x Externer Link
33.
Elder-Vass D. The reality of social construction. Cambridge: Cambridge University Press; 2012. DOI: 10.1017/CBO9781139169202 Externer Link
34.
Thistlethwaite JE. When I say … realism. Med Educ. 2015;49(5):459-460. DOI: 10.1111/medu.12641 Externer Link
35.
Pawson R. The science of evaluation. London: Sage; 2013.