gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Messung der Einstellung zum interprofessionellen Lernen. Testung zweier deutscher Versionen der "Readiness for Interprofessional Learning Scale" bei interprofessionell Studierenden der Gesundheits- und Pflegewissenschaften und der Humanmedizin

Artikel Interprofessionelle Lehre

  • corresponding author Christiane Luderer - Martin-Luther-Universität Halle-Wittenberg, Medizinische Fakultät, Institut für Gesundheits- und Pflegewissenschaft, Halle (Saale), Deutschland
  • author Matthias Donat - Martin-Luther-Universität Halle-Wittenberg, Philosophische Fakultät III – Erziehungswissenschaften, Institut für Pädagogik, Halle (Saale), Deutschland
  • author Ute Baum - Martin-Luther-Universität Halle-Wittenberg, Medizinische Fakultät, Institut für Gesundheits- und Pflegewissenschaft, Halle (Saale), Deutschland
  • author Angelika Kirsten - Martin-Luther-Universität Halle-Wittenberg, Medizinische Fakultät, Institut für Gesundheits- und Pflegewissenschaft, Halle (Saale), Deutschland
  • author Patrick Jahn - Universitätsklinikum Halle A.ö.R., Leiter Stabsstelle Pflegeforschung, Halle (Saale), Deutschland
  • author Dietrich Stoevesandt - Martin-Luther-Universität Halle-Wittenberg, Medizinische Fakultät, Leiter des Dorothea-Erxleben-Lernzentrums, Halle (Saale), Deutschland

GMS J Med Educ 2017;34(3):Doc33

doi: 10.3205/zma001110, urn:nbn:de:0183-zma0011101

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2017-34/zma001110.shtml

Eingereicht: 18. November 2016
Überarbeitet: 13. März 2017
Angenommen: 26. Juni 2017
Veröffentlicht: 15. August 2017

© 2017 Luderer et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Ziel: Um die methodische Qualität eines Instrumentes zur Messung der Einstellung zum interprofessionellen Lernen in zwei Versionen zu überprüfen, wurde die Heidelberger Version [2] der ins Deutsche übersetzten und methodisch umstrittenen Readiness for Interprofessional Learning Scale - RIPLS [3] in Bezug auf Übersetzung und Skalenform angepasst und beide Versionen wurden verglichen.

Methode: Umformulierungen in drei Items und die Veränderung des Skalenformats (von fünf- zu vierstufig) führten zur Hallenser Version, die mittels kognitivem Pretest (n=6) validiert wurde. Die beiden Fragebögen wurden von Studierenden des interprofessionellen Studiengangs Gesundheits- und Pflegewissenschaften (GPW) und von Studierenden der Humanmedizin ausgefüllt. Die Testqualität der Instrumente wurde mittels Hauptkomponenten- und Reliabilitätsanalysen anhand der Skalenzuweisung der Items nach Parsell und Bligh [2] untersucht.

Ergebnisse: Die Fragebögen wurden randomisiert gestapelt und an 331 Studierende ausgegeben. Der Rücklauf lag bei n=320 (GPW n=109; Medizin n=211). Davon füllten n=166 den Bogen der Hallenser Version „RIPLS-HAL“ und n=154 den Bogen der Heidelberger Version „RIPLS-HDB“ aus. Die Daten konnten in Hauptkomponentenanalysen die Skalenbildung des australischen Originals nicht abbilden. Die Reliabilitätswerte sowohl der Heidelberger als auch Hallenser Version sind nur für die Skalen „Teamwork and Collaboration“ und „Professional Identity“ akzeptabel.

Schlussfolgerungen: Die Readiness for Interprofessional Learning Scale in der deutschen Version ist aufgrund methodischer Limitationen bedingt für die Erfassung der Einstellung zum interprofessionellen Lernen geeignet. Die derzeitigen Versionen können als Ansatz zur Entwicklung eines geeigneteren Instrumentes betrachtet werden.

Schlüsselwörter: interprofessionelles Lernen, Instrumententestung, Einstellungsmessung, Gesundheitsberufe


Hintergrund

Interprofessionelles Lernen in der Medizin wird als „von, mit und übereinander Lernen aus Interaktionen von Mitgliedern zweier oder mehrerer Professionen – entweder als Produkt der

Berufsausbildung oder spontan entstanden“ [3] definiert und empfohlen, um die Zusammenarbeit und die Qualität des Gesundheitswesens zu verbessern [4]. Die unterschiedlichen Strukturen der Qualifikationen der Gesundheitsberufe in Deutschland erschweren ein kontinuierliches gemeinsames Lernen über längere Zeiträume [5], so dass bislang keine ausreichenden Daten zur Bereitschaft zum interprofessionellen Lernen in den einzelnen Gesundheitsberufen vorliegen. Diese Bereitschaft kann z. B. über die Messung der Einstellung dazu erfolgen.

Einstellungen sind als mehrdimensionale und schwer operationalisierbare Systeme zu verstehen, die das Handeln und Verhalten indirekt und interpersonell verschieden beeinflussen [6]. Eine direkte Interdependenz von Wissen, Einstellung und Verhalten ist schwer nachweisbar und auch in der klinischen Entscheidungsfindung nicht zwangsläufig gegeben [7]. Dennoch gelten Einstellungen und Stereotypen hinsichtlich Kolleginnen und Kollegen der eigenen oder anderen Berufsgruppe als wichtige Faktoren für den Erfolg der Teamarbeit [8]. Die Einstellung zum interprofessionellen Lernen stellt eine Vorbedingung dar, die den Lernerfolg und die Entwicklung einer eigenen beruflichen Identität in Abgrenzung zu den anderen Professionen des Teams begünstigt [9], [10].

Die Martin-Luther-Universität Halle-Wittenberg bietet seit 1999 einen interprofessionellen Studiengang Gesundheits- und Pflegewissenschaften (GPW) an. Studierende aus dem Bereich der Pflege, der Hebammenwissenschaft und der therapeutischen Berufe lernen miteinander an einer Medizinischen Fakultät und führen gemeinsam klinische und wissenschaftliche Projekte durch. Bereits seit 2013 werden – konform zum Positionspapier zur interprofessionellen Ausbildung in den Gesundheitsberufen [11] – auch Lerneinheiten für Studierende der GPW sowie der Humanmedizin von einer interprofessionellen Arbeitsgruppe konzipiert und angeboten. Seit 2016 werden im Rahmen eines von der Robert-Bosch-Stiftung geförderten Projektes neue Lernstationen entwickelt und als verbindliche Lehrangebote bereitgestellt. Im Rahmen der wissenschaftlichen Begleitung sollen die Effekte interprofessioneller Lehre auf die Einstellungen der Studierenden zum interprofessionellen Lernen im Studienverlauf und darüber hinaus erhoben werden. Um Einstellungen zum interprofessionellen Lernen abzubilden, bedarf es eines Instrumentes, das einerseits der Komplexität einer Einstellungsmessung gerecht wird und andererseits eine gute Praktikabilität vorweist, um regelmäßig in die Evaluation der Lehre eingebunden zu werden. Der Testlauf entsprechender Instrumente diente zugleich einer Bestandsaufnahme im Vorfeld.

Für das von Parsell und Bligh 1999 veröffentlichte Instrument zur Messung der Bereitschaft zum interprofessionellen Lernen (RIPLS) [2] liegt bereits eine deutsche Übersetzung vor, aus deren Testung jedoch keine eindeutige Empfehlung der RIPLS ableitbar ist [1]. Aufgrund der international intensiven Nutzung mit überwiegend positiven Erfahrungen [12] wurde die RIPLS dennoch herangezogen und im Einvernehmen mit dem Übersetzungsteam der Heidelberger Version (RIPLS-HDB) modifiziert. Die Hallenser Version (RIPLS-HAL) unterscheidet sich durch Umformulierungen in drei Items sowie eine Veränderung des Skalenformats vom Original. Beide Instrumente wurden in einer Studienkohorte Medizin und den Studiengängen der GPW getestet.


Forschungsstand

Die Effekte interprofessionellen Lernens werden zunehmend in Publikationen thematisiert, von denen nur wenige dem Charakter des interprofessionellen Lernens als komplexe Intervention mit nachhaltigen Effekten bis in die klinische Praxis hinein gerecht werden [13]. Einige Publikationen mit größeren Stichproben berichten von signifikanten Ergebnissen und nutzen dabei Instrumente wie RIPLS [14], [15], andere haben konzeptuellen Charakter [16], verweisen auf die Effekte spezieller didaktischer Ansätze interprofessionellen Lernens [17] oder fokussieren auf die Zufriedenheit der Lernenden [18]. Reeves et al. [19] bestätigten in einer systematischen Übersichtsarbeit die Notwendigkeit, zukünftige Studien zum Thema klar zu profilieren, um eindeutige Effekte des interprofessionellen Lernens aufzuzeigen.

Tannhauser et al. haben verschiedene Instrumente zum interprofessionellen Lernen und zur interprofessionellen Zusammenarbeit gesichtet, die sowohl Einstellungen, Wahrnehmungen als auch Interaktionsfaktoren erfassen [20]. In 23 untersuchten Studien wurden sechs Instrumente im Kontext des interprofessionellen Lernens identifiziert, davon stellen RIPLS [2] und IEPS (Interdisciplinary Education Perception Scale) [21] zwei bereits ausreichend evaluierte Instrumente dar [20]. Im Vergleich zeigt sich eine ähnliche methodische Qualität mit unterschiedlichem Nutzungshinweis: Während das RIPLS-Instrument die eigene Bereitschaft zum gemeinsamen Lernen erfassen soll, ist die IEPS eher für fortgeschrittene Lernende geeignet, die ihre Wahrnehmung zur Teamarbeit bewusster reflektieren [22].

Die von Parsell und Bligh entwickelte und getestete Skala [2] ist eines der meist verwendeten Instrumente zur Evaluation interprofessioneller Bildungsprozesse mit internationaler Verbreitung [1], [12]. Es folgten einige Übersetzungen mit heterogenen Aussagen zur Testgüte: Die australische Originalversion wurde zufriedenstellend getestet, wobei die dreifaktorielle Variante fraglich erschien [23]. Positiv evaluiert wurde auch die japanische Übersetzung [24] und in Kanada eine französische Version [25], wobei für diese beiden die Faktorenstruktur der Originalversion nicht bestätigt werden konnte. Die vorliegende deutschsprachige Version RIPLS-HDB von Mahler et al. (2014) wird methodisch kritisch betrachtet [1], ebenso wie die schwedische Version [26]. Während die Autoren der RIPLS das Instrument als Bereitschaftsinstrument kennzeichnen, rekurrieren die meisten der Items auf Einstellungen zum interprofessionellen Lernen, aus denen sich jedoch eine Bereitschaft ableiten lässt. Aus diesem Grund wurde die RIPLS in diesem Projekt als Einstellungsinstrument charakterisiert und verwendet. Ziel der Studie war es zu klären, ob die in Übersetzung und Skalenform angepasste RIPLS-HAL im Vergleich zu RIPLS-HDB zu einer verbesserten Messgüte führt.


Methodisches Vorgehen

Verwendete Instrumente zur Messung der Einstellung zum interprofessionellen Lernen

Die australische RIPLS-Version [2]

Die australische Skala soll die Bereitschaft zum interprofessionellen Lernen erfassen. Sie umfasst drei Subskalen, die an dieser Stelle kurz beschrieben werden [2]:

„Team- und Zusammenarbeit“ (Teamwork and Collaboration): Die neun Items in dieser Subskala repräsentieren die Annahme, dass gemeinsames Lernen mit Vorteilen verbunden ist. Mit sechs Items fokussiert die Mehrzahl der Items auf den Erwerb und die gezielte Nutzung von Team-Kompetenzen. Drei weitere Items verfolgen die Beziehungsgestaltung zu angehenden Ärztinnen und Ärzten sowie anderen Gesundheitsberufen. Alle Items formulieren positive Aspekte der Team- und Zusammenarbeit.

„Professionelle Identität“ (Professional Identity): Diese Subskala soll mit drei negativ und vier positiv formulierten Items Aussagen zur professionellen Identität treffen. Die Items beziehen sich auf Aufgabenbereiche des Lernens und Arbeitens sowie die Einschätzung des Nutzens interprofessionellen Lernens. Während die negativ formulierten Items auf Zeitverschwendung und Nicht-Notwendigkeit von interprofessionellem Lernen oder Monoprofessionalität ausgerichtet sind, werden in den befürwortenden Items u. a. die kommunikative und interprofessionelle Kompetenz sowie die positive Wertschätzung interprofessioneller Gruppenarbeiten benannt.

„Rolle und Verantwortungsbereich“ (Roles and Responsibilities): Die kürzeste der drei Subskalen besteht aus nur drei Items, die auf das berufliche Selbstverständnis und die Sicherheit in den Rollen des eigenen Gesundheitsberufes abzielen. Damit widmet sich die Skala den Widersprüchen, die sich aus dem gemeinsamen Lernen und den zum Teil kontrastierenden Situationen der klinischen Praxis ergeben.

Alle Subskalen der RIPLS sind im fünfstufigen Antwortformat formuliert („Strongly agree“, „Agree“, „Undecided“, „Disagree“, „Strongly disagree“).

Die RIPLS in der deutschen Übersetzung [1]

Die von Parsell und Bligh [2] entwickelte RIPLS wurde von der Abteilung Allgemeinmedizin und Versorgungsforschung des Universitätsklinikums Heidelberg [1] erstmalig ins Deutsche übersetzt (RIPLS-HDB). Diese in einem mehrstufigen Übersetzungsverfahren entwickelte Skala enthält die gleichen 19 Items wie das Original. Ebenso wurden die drei Subskalen des Originals sowie das fünfstufige Antwortformat übernommen („trifft sehr zu“, „trifft zu“ „unentschlossen“ „trifft nicht zu“, „trifft gar nicht zu“).

Adaption der deutschsprachigen RIPLS-Version

Die Adaption der Heidelberger Version zur Halleschen Version wurde durch eine interprofessionelle Expertengruppe der Universität Halle-Wittenberg (n=7) unter Einbezug von Kolleginnen und Kollegen aus Medizin, Pflegewissenschaft, Fachdidaktik Gesundheitsberufe, Pädagogischer und Klinischer Psychologie sowie aus dem Forschungsbereich der Entscheidungs- und Einstellungsmessung vorgenommen. Besonderes Augenmerk wurde auf die Inhaltsvalidität des Instrumentes gerichtet. Die RIPLS-HAL konnte auf Itemebene weitestgehend inhaltlich validiert werden. Die Kennzeichnung der RIPLS als Instrument zur Erfassung der Readiness, also Bereitschaft oder Intention gegenüber einer bestimmten Verhaltensweise, wurde diskutiert. Aufgrund der deutlichen Fokussierung auf die positive oder negative Beurteilung des interprofessionellen Lernens und seiner Effekte wurde die RIPLS eher als Einstellungsmessinstrument charakterisiert.

Die Adaption bestand in einer Veränderung der Antwortskala in eine vierstufige Form, angelehnt an dis-/agree des Originals („stimme nicht zu", „stimme eher nicht zu", „stimme eher zu", „stimme zu"), um die entscheidungsleitenden Effekte einer geraden Zahl an Antwortvorgaben zu berücksichtigen [27]. Zudem wurden sprachliche Modifikationen in einzelnen Items vorgenommen, die in Tabelle 1 [Tab. 1] einzusehen sind. Das Ziel war hier die Verständnissicherung auf Ebene der Item-Inhalte. So wird z. B. der Begriff „Gesundheitsprobleme“ von den Gesundheitsberufen in Deutschland als beruflicher Auftrag verstanden (vgl. ICD, [28]), während „Patientenprobleme“ eher als Auftrag der Sozialberufe wahrgenommen werden könnten.

Da ungerade Skalenformate nicht unumstritten sind [29] und die methodischen Effekte der Veränderung der Skalenform im Bereich der Einstellungsmessung diskutiert werden [30], war von Interesse, inwieweit die Modifikation des Skalenformats von einer ungeraden in eine gerade Anzahl von Antwortmöglichkeiten eine Veränderung im Antwortverhalten bewirkt. In Absprache mit der Abteilung Allgemeinmedizin und Versorgungsforschung des Universitätsklinikums Heidelberg wurde entschieden, beide Versionen einer Testung zu unterziehen. Das Ziel war einerseits die Untersuchung der Effekte der Veränderung des Antwortformats auf das Antwortverhalten und die Aussagekraft des Instruments. Andererseits wurden zur Überprüfung der deutschsprachigen Version von Mahler et al. [1] ausschließlich nichtärztliche Gesundheitsberufe einbezogen. Die Befragung von Studierenden der Medizin und Studierenden anderer Gesundheitsberufe einer Fakultät wurde somit in diesem Umfang erstmals vergleichend durchgeführt.

Kognitiver Pretest der RIPLS-HAL

Das modifizierte Instrument wurde einem kognitiven Pretest zur Überprüfung der Validität, Anwendbarkeit und sprachlichen Verständlichkeit unterzogen [31]. Als kognitives Verfahren kam die „Think aloud“-Methode zum Einsatz. Diese qualitative Methode ermöglicht einen Einblick in die gedanklichen Prozesse während des Antwortens. Der kognitive Pretest fand im Rahmen einer Gelegenheitsbefragung auf Freiwilligenbasis statt und bezog berufserfahrene Studierende des Masterstudienganges Gesundheits- und Pflegewissenschaft der Martin-Luther-Universität Halle-Wittenberg ein (zwei Physiotherapeuten, drei Pflegende und eine Hebamme; n=6). Neben der Aufforderung, die eigenen Gedanken zur Fragenintention und zum Fragenverständnis transparent zu machen, wurden die Antwortintention und deren Begründung nachgefragt. Da der kognitive Pretest bei allen Befragten die Verständlichkeit der Items und die Handhabbarkeit der Befragung bestätigte, wurde das Instrument für die standardisierte Testung freigegeben.

Stichprobe und Feldzugang

Die Gelegenheitsstichprobe wurde aus der Medizinischen Fakultät der Martin-Luther-Universität Halle-Wittenberg rekrutiert und umfasst Studierende der Humanmedizin sowie interprofessionell Studierende der GPW. An diese wurden im Oktober und November 2014 im Rahmen von studiengangspezifischen Lehrveranstaltungen der Fakultät Fragebögen ausgeteilt.

Datenübertragung und Qualitätskontrolle

Die Fragebögen wurden mit einer Befragungssoftware erstellt und in einen randomisierten Stapel (Randomisierung mittels elektronisch generierter Zufallsliste) überführt. Die ausgefüllten Fragebögen wurden via Scanner eingelesen. Entgegengesetzt gerichtete Items wurden umgepolt und in die Kategorienliste integriert. Abschließend erfolgte eine stichprobenartige Überprüfung auf Übertragungsfehler, die keine Qualitätsmängel aufdeckte.

Datenanalyse

Die Analyse der Daten hatte das Ziel, die methodische Qualität der beiden RIPLS-Versionen zu eruieren. Zur Überprüfung der Faktorenstruktur wurden explorative Hauptkomponentenanalysen als Faktorenextraktionsverfahren durchgeführt, wobei die Korrelationsmatrix der Daten mittels Kaiser-Meyer-Olkin-Kriterium überprüft und die Eignung der Stichprobe mittels Bartlett-Test festgestellt wurde [32], [33], [34]. Die Reliabilität wurde anhand der internen Konsistenzen (Cronbachs Alpha) bestimmt [35]. Zur Datenanalyse wurde die Statistiksoftware IBM Statistics SPSS 22 genutzt.


Ergebnisse

Rücklauf & Beschreibung der Stichprobe

Es wurden 331 Fragebögen ausgegeben (Medizin: 220; GPW: 111) und mit einem Rücklauf von 96 Prozent (n=320) ausgefüllt. Der Rücklauf setzte sich aus 166 Bögen der Version „RIPLS-HAL“ und 154 Bögen der Version „RIPLS-HDB“ zusammen.

Im Basisdatensatz wurden sozialdemografische Angaben wie Alter, Geschlecht, aktuelles Studienjahr bzw. Ausbildungsjahr sowie Berufstätigkeit vor Aufnahme des Studiums erfasst. Im Verhältnis zu den Studierenden der GPW (n=109) sind die Medizinstudierenden (n=211) in beiden Gruppen annähernd doppelt so häufig repräsentiert. Dies spiegelt die reale Verteilung der Studierenden an der Medizinischen Fakultät wider. In Tabelle 2 [Tab. 2] sind die deskriptiven Charakteristiken der beiden Stichproben aufgeführt.

Faktorenanalytische Betrachtung der RIPLS-Items – RIPLS-HDB

Zur Überprüfung der Struktur der originalen RIPLS-Items [2] in der Übersetzung von Mahler et al. [1] wurden Hauptkomponentenanalysen durchgeführt. Faktorenanalytische Betrachtungen liegen bislang für die RIPLS-HDB noch nicht vor und werden hier erstmalig berichtet. Da die Faktorenstruktur eines Fragebogens nach einer Übersetzung aufgrund kultureller und sprachlicher Unterschiede nicht zwangsläufig reproduziert werden kann, wurde die exploratorische Hauptkomponentenanalyse anstatt eines konfirmatorischen Vorgehens durchgeführt. Hierbei wurde die Auswertungsstrategie, welche von Parsell und Bligh [2] verwendet wurde, gewählt, was zudem eine Vergleichbarkeit der Ergebnisse ermöglicht. Diese Strategie bestand in einer Hauptkomponentenanalyse mit anschließender Varimax-Rotation. Fehlende Itemantworten wurden dabei durch den jeweiligen Itemmittelwert ersetzt.

Der Kaiser-Meyer-Olkin-Index (=.76) ergab eine mittlere Stichprobeneignung; der Bartlett-Test auf Sphärizität (p<.001) belegte, dass die Items für die Durchführung einer Hauptkomponentenanalyse geeignet waren [33]. In der anfänglichen Hauptkomponentenanalyse ergaben sich sieben Faktoren mit Eigenwerten größer Eins: λ1=4.23; λ2=2.05; λ3=1.41; λ4=1.20; λ5=1.12; λ6=1.05; λ7=1.003. Die Parallelanalyse nach Horn [34] wies auf zwei Faktoren hin, da der empirisch ermittelte Eigenwert des dritten Faktors knapp unter dem entsprechend zufällig ermittelten Eigenwert (=1.44) lag. Die Bestimmung der Anzahl von Faktoren anhand des Eigenwerteverlaufs (Scree-Analyse, [36]) erbrachte kein eindeutiges Ergebnis. Aufgrund der ursprünglichen Konstruktions¬idee des Instruments von Parsell und Bligh [2], welches drei Subskalen enthielt, wurden in den weiteren Berechnungen dennoch drei Faktoren angenommen.

In der anschließenden Hauptkomponentenanalyse mit Varimax-Rotation ergab die Drei-Faktoren-Lösung (siehe Tabelle 3 [Tab. 3]) eine Varianzaufklärung von 40%. Es zeigte sich, dass die Items der Subskala „Teamwork and Collaboration“ mit einer Ausnahme (TC8) die jeweils höchste Ladung auf dem ersten Faktor aufwiesen. Drei dieser Items (TC2, TC7, TC9) zeigten lediglich Ladungen von l<.50 auf diesem Faktor. Der zweite Faktor wurde erwartungskonform nur von den Items PI2 und PI3 aus der Subskala „Professional Identity“ substanziell gespeist, während das Item PI1 auf dem dritten und die übrigen Items der Subskala auf dem ersten Faktor die jeweils höchste Ladung aufwiesen. Die Items der Subskala „Roles and Responsibilities“ hatten wie erwartet die höchsten Ladungen auf dem dritten Faktor, wobei nur die Ladung des Items RR3 größer als .50 war.

Bei Reliabilitätsanalysen anhand der Skalenzuweisung der Items nach Parsell und Bligh [2] ergäben sich nach erfolgten Umkodierungen negativ formulierter Items folgende Kennwerte (Cronbachs Alpha): für Teamwork and Collaboration: α=.71; für Professional Identity: α=.61; für Roles and Responsibilities: α=-.27 (ohne Umkodierung von RR2: α=.38).

Faktorenanalytische Betrachtung der RIPLS-Items – RIPLS-HAL

Zur Überprüfung der Struktur der modifizierten RIPLS-Version wurden ebenfalls Hauptkomponentenanalysen mit exploratorischem Vorgehen durchgeführt. Fehlende Itemantworten wurden dabei durch den jeweiligen Itemmittelwert ersetzt. Der Kaiser-Meyer-Olkin-Index (=.78) ergab ebenso eine mittlere Stichprobeneignung und der Bartlett-Test auf Sphärizität (p<.001) belegte, dass die Items auch hier für die Durchführung einer Hauptkomponentenanalyse geeignet waren [33]. In der anfänglichen Hauptkomponentenanalyse ergaben sich sechs Faktoren mit Eigenwerten größer Eins: λ1=4.27; λ2=1.68; λ3=1.64; λ4=1.15; λ5=1.08; λ6=1.01. Die Parallelanalyse nach Horn [34] wies beim RIPLS-HAL auf drei Faktoren hin, da der empirisch ermittelte Eigenwert des dritten Faktors unter dem entsprechend zufällig ermittelten Eigenwert (=1.34) lag. Die Bestimmung der Anzahl von Faktoren anhand des Eigenwerteverlaufs (Scree-Analyse; [36]) deutete jedoch eher auf einen Faktor hin. In Rückführung auf die ursprüngliche Konstruktionsidee des Instruments von Parsell und Bligh [2], welches drei Subskalen enthielt, wurden auch hier in den weiteren Berechnungen dennoch drei Faktoren angenom¬men.

In der anschließenden Hauptkomponentenanalyse mit Varimax-Rotation ergab die Drei-Faktoren-Lösung (siehe Tabelle 4 [Tab. 4]) eine Varianzaufklärung von 40%. Es zeigte sich, dass fünf Items der Subskala „Teamwork and Collaboration“ die jeweils höchste Ladung auf dem ersten Faktor aufwiesen, wobei die Items TC4 und TC7 Ladungen von l<.50 auf diesem Faktor zeigten. Die übrigen vier Items speisten substanziell einen eigenen, zweiten Faktor. Kein Item der Subskala „Professional Identity“ zeigte substanzielle Ladungen auf dem zweiten Faktor. Bis auf das Item PI3 (höchste Ladung auf dem dritten Faktor) luden diese Items jedoch auf dem ersten Faktor. Die Items der Subskala „Roles and Responsibilities“ bilden die Skala mit Ladungen l>.50 auf dem dritten Faktor ab.

Bei Reliabilitätsanalysen anhand der Skalenzuweisung der Items nach Parsell und Bligh [2] ergäben sich nach erfolgten Umkodierungen negativ formulierter Items folgende Kennwerte (Cronbachs Alpha): für Teamwork and Collaboration: α=.71; für Professional Identity: α=.68; für Roles and Responsibilities: α=-.09 (ohne Umkodierung von RR2: α=.47).

Zusammenfassende Ergebnisbetrachtung

Die Ergebnisse zeigen, dass die Faktorenstruktur beider Instrumente bezüglich der ersten und zweiten Skala (Teamwork and Collaboration; Professional Identity) nicht abgebildet werden kann, wobei die Heidelberger Version in dieser Erhebung bezüglich der Skala Teamwork and Collaboration etwas deutlicher strukturiert war als die Hallenser Version. Die dritte Skala (Roles and Responsibilities) wurde zwar in beiden RIPLS-Versionen anhand der Ladungen in ihrer Struktur bestätigt, jedoch verweist die geringe interne Konsistenz (aufgrund der heterogenen inhaltlichen Ausrichtung der drei Items) auf die mangelnde Güte dieser Skala. Die Skalen Teamwork and Collaboration sowie Professional Identity zeigen in beiden Instrumenten eine mäßige interne Konsistenz auf.


Diskussion der Ergebnisse

Die Ergebnisse rechtfertigen eine kritische Betrachtung der Eignung der RIPLS in ihren deutschsprachigen Varianten, wie sie auch von der Heidelberger Arbeitsgruppe, die die Übersetzung vornahm, bestätigt wird [37]. Beim Vergleich der Hauptkomponentenanalyse der beiden Versionen (RIPLS-HDB vs. RIPLS-HAL) wird fraglich, wie es zu deutlich abweichenden Ladungen bei einer Faktorenanalyse kommen kann, wenn die Items der Versionen sich nur geringfügig unterscheiden. Damit wird der für die Einstellungsforschung typische geringe Replikationsquotient der Skalen bei Folgeuntersuchungen bestehender Instrumente bestätigt [38].

Als ein Erklärungsansatz könnte die veränderte Skalenform (gerade vs. ungerade) zu einer Modifikation des Antwortverhaltens vor allem hinsichtlich der Reliabilität und Validität geführt haben [39]. Hier irritiert jedoch, dass bei ähnlichen Werten zur internen Konsistenz z. B. in der Skala Teamwork and Collaboration derart voneinander abweichende Ladungsmuster zu verzeichnen sind.

Das Antwortformat der Hallenser Version (Likert-Skala mit vierstufigem Antwortformat) wurde gewählt, um Effekte der Tendenz zur Mitte, wie sie in der Heidelberger Version vorgegeben ist (fünfstufiges Antwortformat) zu untersuchen. Die Wahl eines sechsstufigen Antwortformats wäre hier gemäß der aktuellen methodologischen Diskussion eine Alternative gewesen [40]. Da jedoch insbesondere Einstellungsmessungen häufig mit vier- und fünfstufigem Antwortformat stattfinden [38], [41], wurde diese Form gewählt. Eine Verbesserung oder Verschlechterung der internen Konsistenz im Vergleich zur RIPLS-HDB ist damit zwar nicht verbunden, dies ist aber aufgrund der unbestätigten Struktur der Subskalen zu vernachlässigen.

Die Testung der internen Konsistenz der Subskalen der RIPLS-HDB im Vergleich mit den Voruntersuchungen von 2014 [1]] verdeutlicht, wie heterogen und damit unzuverlässig das Ausfüllverhalten ist. Dies könnte mit der Zusammensetzung der Stichprobe in dieser Testung zusammenhängen, da diese dahingehend von der ersten Untersuchung des RIPLS-HDB abwich [1], dass die Mehrheit der Teilnehmenden Studierende der Humanmedizin waren, während in den Voruntersuchungen keine Medizinstudierenden einbezogen wurden. Wenn die Einstellungen der Medizinstudierenden sich von denen der Studierenden der anderen (bereits interprofessionell im Studium befindlichen) Studierenden unterscheiden, kann dies zu einem inkonsistenten Antwortverhalten geführt haben. Allerdings könnte dies auch als ein weiterer Kritikpunkt an der RIPLS aufgefasst werden, denn das Ziel der Entwicklung eines solchen Instrument sollte es sein, dass dieses sich für die Erfassung von Einstellung zum interprofessionellen Lernen aller daran beteiligten Personen (Gesundheits- und Pflegewissenschaften sowie Humanmedizin) eignen sollte. Alternativ könnten Versionen von RIPLS entwickelt werden, welche zielgruppenspezifisch eingesetzt werden können und dementsprechend zu potenziell verschiedenen, aber dennoch validen und reliablen Ergebnissen führen.

Die Untersuchung der Inhaltsvalidität auf Itemebene im Rahmen des kognitiven Pretests zeigte, dass trotz der nicht reproduzierbaren Struktur der Subskalen die einzelnen Items für die interessierten Praktiker eine gute Möglichkeit bieten, Daten zur Einstellung zum interprofessionellen Lernen zu erhalten. Das Instrument selbst wird jedoch einem Einstellungsinstrument nicht gerecht, da die Zuordnung der Items zu den Skalen nach Parsell und Bligh [2] willkürlich wirkt. Offensichtlich sind die inhaltliche Validität der drei Subskalen nach Parsell und Bligh und das Instrument insgesamt in Frage zu stellen, da nicht eindeutig davon ausgegangen werden kann, dass die Skala das misst, was sie zu messen vorgibt [1], [2], [37].

Davon abgesehen wäre zu überlegen, ob die Herangehensweise von Parsell und Bligh [2] bei der theoretischen Konzeption von RIPLS aus psychologischer Sicht zu hinterfragen ist. Die Autoren entwickelten ein Instrument zur Erfassung von Readiness, also Bereitschaft oder Intention hinsichtlich eines bestimmten Verhaltens. Nach Fishbein und Ajzen [[42]: S. 39] beinhaltet diese jedoch „the person’s estimate of the likelihood or perceived probability of performing a given behavior.” Wenn man den Wortlaut der Items von RIPLS unter dieser Perspektive in Augenschein nimmt, misst das Instrument keine Verhaltensbereitschaft oder -intention, sondern eher eine Einstellung zum interprofessionellen Lernen. Eine Einstellung wird nach Fishbein und Ajzen [[42]: S. 76] definiert als „a latent disposition or tendency to respond with some degree of favorableness or unfavorableness to a psychological object […] attitudes are evaluative in nature, ascribing to individuals a position on a unitary evaluative dimension with respect to an object […].” Ausgehend von einer bipolaren evaluativen Dimension ist dem Konstrukt, das in den Fragen der RIPLS umrissen wird, Einstellungscharakter zuzuschreiben; Formulierungen wie z. B. „Gemeinsames Lernen wird mir dabei helfen…“ oder „Gemeinsames Lernen wird dazu beitragen…“ legen dies nahe. Es wäre also zu überlegen, ob nicht zuerst eine klare theoretische Konzeption und Abgrenzung vorgenommen werden müsste (Einstellung vs. Bereitschaft), die als Basis für eine valide und reliable Messung dienen könne.


Diskussion des methodischen Vorgehens

Die methodischen Vorteile der Untersuchung sind in einer für alle Studierenden gleichartigen Untersuchungssituation, der randomisierten Ausgabe der beiden Fragebögen, der Anonymität der Befragung und der geringen Wahrscheinlichkeit eines Antwortverhaltens aufgrund von sozialer Erwünschtheit zu sehen.

Der kognitive Pretest wurde ohne Studierende der Medizin durchgeführt. Dies wird methodisch dadurch abgemildert, dass die Überarbeitung durch eine interprofessionelle Arbeitsgruppe vorgenommen wurde, der auch Ärztinnen und Ärzte angehörten.

Da es sich um eine Gelegenheitsstichprobe mit in Deutschland einzigartig gewachsenen, interprofessionellen Studienbedingungen an einer Medizinischen Fakultät handelt, sind die Ergebnisse nur begrenzt auf andere Studierendenpopulationen übertragbar.


Ausblick

Um die Einstellung zum interprofessionellen Lernen und deren Veränderung, z. B. im Längsschnitt eines interprofessionellen Studiums zu erfassen, kann die Readiness for Interprofessional Learning Scale in den deutschsprachigen Versionen RIPLS-HDB und RIPLS-HAL nicht uneingeschränkt empfohlen werden. Auch eine selektive Nutzung einzelner Subskalen ist nicht zu empfehlen, da weder Validität noch Reliabilität des Instrumentes in beiden deutschen Fassungen überzeugend bestätigt werden konnten. Dennoch liegen für den Standort Halle (Saale) nunmehr Basisdaten vor, die zumindest auf Item-Ebene auch deskriptiv genutzt werden können.

Im Zuge der in Deutschland zunehmenden Etablierung interprofessioneller Strukturen in Ausbildung und Studium sind die Entwicklung und Testung geeigneter Instrumente voranzutreiben, wobei eine institutionenübergreifende Kooperation helfen kann, ausreichende Stichprobengrößen zu generieren, um ein zuverlässiges Instrument bereitzustellen. Es liegen internationale Alternativen zur psychometrischen Messung der Einstellung zum interprofessionellen Lernen vor [37], die durch methodisch gute Übersetzungsverfahren eine baldige Evaluation der Effekte des interprofessionellen Lernens auf die Einstellung der Lernenden im deutschsprachigen Raum ermöglichen können.


Interessenkonflikt

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Mahler C, Rochon J, Karstens S, Karstens S, Szecsenyi J, Hermann K. Internal consistency of the readiness for interprofessional learning scale in German health care students and professionals. BMC Med Educ. 2014;14:145. DOI: 10.1186/1472-6920-14-145 Externer Link
2.
Parsell G, Bligh J. The development of a questionnaire to assess the readiness of health care students for interprofessional learning (RIPLS). Med Educ. 1999;33(2):95-100. DOI: 10.1046/j.1365-2923.1999.00298.x Externer Link
3.
Barr H, Koppel I, Reeves S. Effective Interprofessional Education: Argument, Assumption and Evidence (Promoting Partnership for Health). Chichester: John Wiley & Sons; 2008.
4.
Frenk J, Chen L, Bhutta ZA, Cohen J, Crisp N, Evans T, Fineberg H, Garcia P, Ke Y, Kelley P, Kistnasamy B, Meleis A, Naylor D, Pablos-Mendez A, Reddy S, Scrimshaw S, Sepulveda J, Serwadda D, Zurayk H. Health professionals for a new century: transforming education to strengthen health systems in an interdependent world. Lancet. 2010;376(9756):1923-1958. DOI: 10.1016/S0140-6736(10)61854-5 Externer Link
5.
Wissenschaftsrat. Empfehlungen zu hochschulischen Qualifikationen für das Gesundheitswesen. Berlin: Wissenschaftsrat; 2012. Zugänglich unter/available from: http://www.wissenschaftsrat.de/download/archiv/2411-12.pdf Externer Link
6.
Eckardt G. Einstellung (attitude) als "Schlüsselkonzept der Sozialpsychologie". In: Allport GW (Hrsg): Sozialpsychologie–Quellen zu ihrer Entstehung und Entwicklung. Heidelberg: Springer; 2015. S.65-66.
7.
Haddock G, Maio G. Einstellungen. In: Jonas K, Stroebe W, Hewstone M (Hrsg). Sozialpsychologie. Berlin, Heidelberg: Springer; 2014. S.197-229. DOI: 10.1007/978-3-642-41091-8_6 Externer Link
8.
Ateah CA, Snow W, Wener P, MacDonald L, Metge C, Davis P, Fricke M, Ludwig S, Anderson J. Stereotyping as a barrier to collaboration: Does interprofessional education make a difference? Nurse Educ Today .2011;31(2):208-213. DOI: 10.1016/j.nedt.2010.06.004 Externer Link
9.
Green C. Relative distancing: a grounded theory of how learners negotiate the interprofessional. J Interprof Care. 2013;27(1):34-42. DOI: 10.3109/13561820.2012.720313 Externer Link
10.
Coster S, Norman I, Murrells T, Kitchen S, Meerabeau E, Sooboodoo E, d'Avray L. Interprofessional attitudes amongst undergraduate students in the health professions: a longitudinal questionnaire survey. Int J Nurs Stud. 2008;45(11):1667-1681. DOI: 10.1016/j.ijnurstu.2008.02.008 Externer Link
11.
Walkenhorst U, Mahler C, Aistleithner R, Hahn EG, Kaap-Fröhlich S, Karstens S, Reiber K, Stock-Schröer B, Sottas B. Position statement GMA Comittee – "Interprofessional Education for the Health Care Professions". GMS Z Med Ausbild. 2015;32(2):Doc22. DOI: 10.3205/zma000964 Externer Link
12.
Havyer R, Nelson D, Wingo M, Comfere NI, Halvorsen AJ, McDonald FS, Reed DA. Addressing the Interprofessional Collaboration Competencies of the Association of American Medical Colleges. Acad Med. 2016;91(6):865-888. DOI: 10.1097/ACM.0000000000001053 Externer Link
13.
Lapkin S, Levett-Jones T, Gilligan C. A systematic review of the effectiveness of interprofessional education in health professional programs. Nurse Educ Today. 2013;33(2):90-102. DOI: 10.1016/j.nedt.2011.11.006 Externer Link
14.
Williams B, Webb V. A national study of paramedic and nursing students' readiness for interprofessional learning (IPL): Results from nine universities. Nurse Educ Today. 2015;25(9):e31-e37. DOI: 10.1016/j.nedt.2015.05.007 Externer Link
15.
Williams B, Boyle M, Brightwell R, McCall M, McMullen P, Munro G, o'Meara P, Webb V. A cross-sectional study of paramedics' readiness for interprofessional learning and cooperation: results from five universities. Nurse Educ Today. 2013;33(11):1369-1375. DOI: 10.1016/j.nedt.2012.06.021 Externer Link
16.
Anderson ES, Lennox A. The Leicester Model of Interprofessional education: developing, delivering and learning from student voices for 10 years. J Interprof Care. 2009;23(6):557-573. DOI: 10.3109/13561820903051451 Externer Link
17.
Wamsley M, Staves J, Kroon L, Topp K, Hossaini M, Newlin B, Lindsay C, O'Brien B. The impact of an interprofessional standardized patient exercise on attitudes toward working in interprofessional teams. J Interprof Care. 2012;26(1):28-35. DOI: 10.3109/13561820.2011.628425 Externer Link
18.
Curran VR, Sharpe D, Forristall J, Flynn K. Student satisfaction and perceptions of small group process in case-based interprofessional learning. Med Teach. 2008;30(4):431-433. DOI: 10.1080/01421590802047323 Externer Link
19.
Reeves S, Perrier L, Goldman J, Freeth D, Zwarenstein M. Interprofessional education: effects on professional practice and healthcare outcomes (update) (Review). Cochrane Database Syst Rev. 2013;3:CD002213. DOI: 10.1002/14651858.CD002213.pub3 Externer Link
20.
Thannhauser J, Russell-Mayhew S, Scott C. Measures of interprofessional education and collaboration. J Interprof Care. 2010;24(4):336-349. DOI: 10.3109/13561820903442903 Externer Link
21.
McFadyen AK, Maclaren WM, Webster VS. The Interdisciplinary Education Perception Scale (IEPS): an alternative remodelled sub-scale structure and its reliability. J Interprof Care. 2007;21(4):433-443. DOI: 10.1080/13561820701352531 Externer Link
22.
Lie DA, Fung CC, Trial J, Lohenry K. A comparison of two scales for assessing health professional students' attitude toward interprofessional learning. Med Educ Online. 2013;18:21885. DOI: 10.3402/meo.v18i0.21885 Externer Link
23.
Williams B, Brown T, Boyle M. Construct validation of the readiness for interprofessional learning scale: a Rasch and factor analysis. J Interprof Care. 2012;26(4):326-232. DOI: 10.3109/13561820.2012.671384 Externer Link
24.
Tamura Y, Seki K, Usami M, Taku S, Bontje P, Ando H, Taru C, Ishikawa Y. Cultural adaptation and validating a Japanese version of the readiness for interprofessional learning scale (RIPLS). J Interprof Care. 2012;26(1):56-63. DOI: 10.3109/13561820.2011.595848 Externer Link
25.
Cloutier J, Lafrance J, Michallet B, Marcoux L, Cloutier F. French translation and validation of the Readiness for Interprofessional Learning Scale (RIPLS) in a Canadian undergraduate healthcare student context. J Interprof Care. 2015;29(2):150-155. DOI: 10.3109/13561820.2014.942837 Externer Link
26.
Lauffs M, Ponzer S, Saboonchi F, Lonka A, Hylin U, Mattiasson AG. Cross-cultural adaptation of the Swedish version of Readiness for Interprofessional Learning Scale (RIPLS). Med Educ. 2008;42(4):405-411. DOI: 10.1111/j.1365-2923.2008.03017.x Externer Link
27.
Bogner K, Landrock U. Antworttendenzen in standardisierten Umfragen. SDM Survey Guidelines. Mannheim: Gesis; 2014.
28.
DIMDI. Internationale statistische Klassifikation der Krankheiten und verwandter Gesundheitsprobleme, 10. Revision, German Modification, Version 2016. Köln: DIMDI; 2015.
29.
Dolnicar S, Grun B, Leisch F, Rossiter J. Three good reasons NOT to use five and seven point Likert items. Adelaide (Australia): University of Wollongon; 2011. Zugänglich unter/available from: http://ro.uow.edu.au/cgi/viewcontent.cgi?article=1821&context=commpapers Externer Link
30.
Höfig C. Meinung oder Methodenartefakt? Zum Einfluss der Antwortskalierung bei der Messung sicherheitspolitischer Einstellungen. In: Biehl H, Schoen H (Hrsg). Sicherheitspolitik und Streitkräfte im Urteil der Bürger: Theorien, Methoden, Befunde. Wiesbaden: Springer Fachmedien Wiesbaden; 2015. S.323-348. https://doi.org/10.1007/978-3-658-08608-4_12 Externer Link
31.
Häder M. Pretests. In: Empirische Sozialforschung. Wiesbaden: Springer Fachmedien; 2015. S.395–411. DOI: 10.1007/978-3-531-19675-6_8 Externer Link
32.
Moosbrugger H, Schermelleh-Engel K. Exploratorische (EFA) und Konfirmatorische Faktorenanalyse (CFA). In: Moosbrugger H, Kelava A (Hrsg). Testtheorie und Fragebogenkonstruktion. Berlin, Heidelberg: Springer; 2012. S.325-343. DOI: 10.1007/978-3-642-20072-4_13 Externer Link
33.
Bühner M. Einführung in die Test- und Fragebogenkonstruktion, 3rd edn. München: Pearson; 2011.
34.
Horn JL. A rationale and test for the number of factors in factor analysis. Psychometrika. 1965;30:179-185. DOI: 10.1007/BF02289447 Externer Link
35.
Tavakol M, Dennick R. Making sense of Cronbach's alpha. Int J Med Educ. 2011;2:53-55. DOI: 10.5116/ijme.4dfb.8dfd Externer Link
36.
Cattell RB. The Scree Test For The Number Of Factors. Multivariate Behav Res. 1966;1(2):245-276. DOI: 10.1207/s15327906mbr0102_10 Externer Link
37.
Mahler C, Berger S, Reeves S. The Readiness for Interprofessional Learning Scale (RIPLS): A problematic evaluative scale for the interprofessional field. J Interprof Care. 2015;29(4):289-291. DOI: 10.3109/13561820.2015.1059652 Externer Link
38.
Hendrick TA, Fischer AR, Tobi H, Frewer LJ. Self-reported attitude scales: current practice in adequate assessment of reliability, validity, and dimensionality. J Appl Soc Psychol. 2013;43(7):1538-1552. DOI: 10.1111/jasp.12147 Externer Link
39.
Preston CC, Colman AM. Optimal number of response categories in rating scales: reliability, validity, discriminating power, and respondent preferences. Acta Psychol (Amst). 2000;104(1):1-15. DOI: 10.1016/S0001-6918(99)00050-5 Externer Link
40.
Lozano LM, García-Cueto E, Mu-iz J. Effect of the Number of Response Categories on the Reliability and Validity of Rating Scales. Methodol. 2008;4(2):73-79. DOI: 10.1027/1614-2241.4.2.73 Externer Link
41.
Baur N, Blasius J. Handbuch Methoden der empirischen Sozialforschung. Wiesbaden: Springer Fachmedien; 2014. DOI: 10.1007/978-3-531-18939-0 Externer Link
42.
Fishbein M, Ajzen I. Predicting and changing behavior: The reasoned action approach. New York, Hove: Psychology Press; 2010.