gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Immersives Medium für die frühzeitige klinische Exposition – Wissenserwerb, räumliche Orientierung und die unerwartete Rolle der Annotation in 360°-VR-Fotos

Artikel Virtuelle Realität

  • corresponding author Robert Speidel - Universität Ulm, Medizinische Fakultät, Dekanatsverwaltung, Bereich Studium und Lehre, Kompetenzzentrum eEducation in der Medizin BW, Ulm, Deutschland
  • author Achim Schneider - Universität Ulm, Medizinische Fakultät, Dekanatsverwaltung, Bereich Studium und Lehre, Ulm, Deutschland
  • author Steffen Walter - Universitätsklinikum Ulm, Sektion Medizinische Psychologie, Ulm, Deutschland
  • author Claudia Grab-Kroll - Universität Ulm, Medizinische Fakultät, Dekanatsverwaltung, Bereich Studium und Lehre, Ulm, Deutschland
  • author Wolfgang Oechsner - Universitätsklinikum Ulm, Klinik für Anästhesiologie und Intensivmedizin, Ulm, Deutschland

GMS J Med Educ 2023;40(1):Doc8

doi: 10.3205/zma001590, urn:nbn:de:0183-zma0015902

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2023-40/zma001590.shtml

Eingereicht: 23. Dezember 2021
Überarbeitet: 28. Oktober 2022
Angenommen: 8. November 2022
Veröffentlicht: 15. Februar 2023

© 2023 Speidel et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Zielsetzung: 360°-VR-Fotos könnten eine niedrigschwellige Möglichkeit sein, die klinische Exposition in den frühen Phasen der medizinischen Ausbildung zu steigern. Das Medium soll nicht nur Einblicke in lokale Räumlichkeiten und Abläufe bieten, sondern auch abhängig von der Annotationsform den Wissenserwerb und die räumliche Orientierung fördern. Empirisch belegt ist diese Annahme allerdings noch nicht. Daher wurden unter Berücksichtigung des Modalitätsprinzips nach Mayer drei Hypothesen getestet: 1) Der Einsatz von 360°-VR-Fotos als visuelle Referenz verbessert das Erinnern und Verstehen von Informationen. 2) Die Annotation von Textfeldern in 360°-VR-Fotos beeinträchtigt die räumliche Orientierung und Präsenz. 3) Annotierte Audiokommentare sind annotierten Textfeldern in Bezug auf die kognitive Belastung und den Wissenserwerb überlegen.

Methodik: Mittels VR-Brillen absolvierten Studierende der Human- (N=53) und Zahnmedizin (N=8) einen von drei virtuellen Rundgängen durch einen OP-Bereich, die mit 360°-VR-Fotos erstellt wurden. In den ersten beiden Varianten wurden Informationen zu den Räumlichkeiten, medizinischen Geräten und klinischen Verfahren entweder in Form von Textfeldern oder Audiokommentaren mit durchschnittlich 67 Wörtern (SD=6,67) annotiert. In der dritten Variante wurden dieselben Informationen separat vor dem virtuellen Rundgang auf einem gedruckten Handout ausgeteilt. Unter Berücksichtigung individueller Lernereigenschaften und der Benutzererfahrung wurden Unterschiede zwischen den Bedingungen hinsichtlich des Erinnerns, des Verstehens, der räumlichen Orientierung, der kognitiven Belastung und der Präsenz gemessen.

Ergebnisse: Hinsichtlich des Erinnerns und Verstehens von Informationen schnitten die annotierten Textfelder besser ab als die annotierten Audiokommentare und die Handout-Bedingung. Obwohl die annotierten Audiokommentare die niedrigsten Werte im Wissenstest aufwiesen, zogen die Studierenden das Hören dem Lesen vor. Studierende mit Interesse an VR und 360°- Medien berichteten über ein höheres Maß an Vergnügen und Präsenz. Hinsichtlich der räumlichen Orientierung und Präsenz wurden keine signifikanten Gruppenunterschiede festgestellt.

Schlussfolgerung: 360°-VR-Fotos können Informationen und ein Gefühl der räumlichen Orientierung effektiv in einem Lernszenario vermitteln. Für die Studierenden ist ihre Verwendung unterhaltsam und lehrreich. Die ideale Art der Annotation wird wider Erwarten nicht durch Mayers Modalitätsprinzip vorgeschrieben. Für Informationen wie die in dieser Studie eignen sich annotierte Textfelder besser zum Wissenserwerb als die subjektiv bevorzugten Audiokommentare. Dieses Ergebnis ist wahrscheinlich abhängig von der Länge und Qualität des annotierten Textes. Um Randbedingungen zu identifizieren und die Ergebnisse zu validieren, sind weitere Untersuchungen zur Gestaltung und didaktischen Nutzung von 360°-VR-Fotos erforderlich.

Schlüsselwörter: 360°-Fotos, 360°-VR-Fotos, virtuelle Realität, Lernen, Orientierung, Annotation


1. Einleitung

1.1. Klinische Exposition durch 360°-VR-Fotos

Die Forderung nach frühzeitiger klinischer Exposition löst langsam die starre Abfolge von vorklinischer zu klinischer Ausbildung ab [1]. Die Einbindung klinischer Exposition über den gesamten Studienverlauf hinweg ist jedoch eine Herausforderung für medizinische Fakultäten, insbesondere im Hinblick auf die steigende Zahl von Medizinstudierenden [2], [3]. Die virtuelle Realität (VR) könnte Abhilfe schaffen, auch wenn ihr didaktisches Potenzial noch nicht gänzlich von den Dozierenden und Studierenden anerkannt wird [4]. Steve Bryson definiert die Technologie als „die Verwendung von 3D-Displays und Eingabegeräten zur Erkundung von in Echtzeit computergenerierten Umgebungen“ [5]. Seine Definition umfasst eine Reihe unterschiedlicher Hardware, allerdings sind VR-Brillen heutzutage die häufigste Assoziation. VR-Brillen isolieren den Nutzer von der Realität und stellen gleichzeitig eine Umgebung in Abhängigkeit von dessen Bewegungen und Aktionen dar. Dadurch entsteht die immersive Illusion einer alternativen, virtuellen Realität. Gelingt die Illusion, erfährt der Nutzer ein Gefühl der „Präsenz“; also den Eindruck, sich tatsächlich in der dargestellten Umgebung zu befinden [6]. In diesem mentalen Zustand ähnelt das individuelle Erleben und Verhalten in VR dem in einer realen Situation [7].

In der medizinischen Ausbildung könnte die VR-Technologie den Studierenden ermöglichen, vom ersten Semester an in die Rolle eines Arztes zu schlüpfen und virtuelle Patienten zu behandeln. Die generischen Krankenhausstationen und Behandlungen in frei verfügbarer VR-Software bilden jedoch nicht die lokalen Kliniken mit ihren individuellen Räumlichkeiten, Routinen und medizinischen Spezialisierungen ab. Wenn medizinische Ausbilder einen frühzeitigen immersiven Einblick in die regionale Praxis gewähren wollen, benötigen sie ihre eigenen, maßgeschneiderten VR-Umgebungen. Gegenwärtig erfordert die Entwicklung von VR-Software umfangreiche finanzielle und personelle Ressourcen in Form von Programmierern, 3D-Künstlern und medizinischen Fachleuten. Eine kostengünstigere Alternative zur Erstellung individueller, computergenerierter VR-Umgebungen sind 360°-Medien, die kaum technisches Wissen voraussetzen und somit von medizinischen Ausbildern selbst produziert werden können.

Der Begriff „360°-Medien“ bezieht sich sowohl auf 360°-Videos als auch auf 360°-Fotos, die eine Rundumansicht einer aufgezeichneten Umgebung bieten. Während 360°-Videos Handlungen darstellen können, sind 360°-Fotos statisch (siehe Abbildung 1 [Abb. 1]). Beide Arten von 360°-Medien werden mit 360°-Kameras produziert, die derzeit je nach gewünschter Bildqualität zwischen hundert und einigen tausend Euro kosten. Im Gegensatz zu computergenerierten VR-Umgebungen beschränken 360°-Medien die räumliche Bewegung auf die Position der 360°-Kamera und reduzieren die Interaktion auf sogenannte „Hotspots“. Hotspots sind visuelle Steuerelemente, die in der Nachbearbeitung hinzugefügt werden und es dem Nutzer ermöglichen, den Standort zu wechseln und zusätzliche Informationen in Form von textlichen (Textfelder oder Audiokommentare) oder grafischen (z. B. Nahaufnahmen oder 3D-Modelle) Annotationen anzuzeigen. Über Hotspots verknüpfte und annotierte 360°-Medien werden als „virtuelle Rundgänge“ bezeichnet und können auf allen gängigen Endgeräten (Desktop, Laptop, Tablet, Smartphone oder VR-Brille) wiedergegeben werden. Über eine VR-Brille betrachtet (siehe Abbildung 2 [Abb. 2]) erzeugen virtuelle Rundgänge das VR-charakteristische Gefühl der Präsenz [8], auch wenn sie der VR-Definition von Bryson nicht vollständig entsprechen. Die Kombination von 360°-Medien und VR-Brillen wird daher als eine Variante von VR angesehen [9] und unter dem Begriff „360°-VR-Medien“ subsumiert. 360°-Videos und 360°-Fotos, die auf VR-Brillen angezeigt werden, werden dementsprechend als „360°-VR-Videos“ und „360°-VR-Fotos“ bezeichnet. Diese Terminologie deckt sich mit der bisherigen Forschung [10], [11].

360°-VR-Medien ermöglichen es Medizinstudierenden, virtuell an Operationen teilzunehmen und Orte mit beschränktem Zugang wie OP-Bereiche und Intensivstationen auf immersive Weise und unabhängig von Terminplänen und Lehrpersonal zu erkunden. Sowohl 360°-VR-Videos als auch 360°-VR-Fotos könnten potenziell die frühzeitige klinische Exposition fördern, jedoch konzentriert sich die vorliegende Studie speziell auf 360°-VR-Fotos. Das folgende Kapitel verweist allerdings auch auf Forschungsergebnisse zu 360°-VR-Videos, da bisher kaum Lehrforschung zu 360°-VR-Fotos im Speziellen besteht.

1.2. Lernziele für 360°-VR-Medien

Die bisherige Forschung schreibt der VR, die in Echtzeit computergeneriert wird, einen hohen didaktischen Wert zu [12], [13], [14]. Die referenzierten Metaanalysen gelten jedoch nicht automatisch auch für 360°-VR-Medien, da in den Kameraaufnahmen weder die freie räumliche Bewegung noch die direkte Objektinteraktion möglich sind. Obwohl diese Einschränkungen die Lerneffektivität nicht zwangsläufig verringern [15], hindern sie die Nutzer daran, manuelle Aufgaben in der virtuellen Umgebung auszuführen, was den Nutzen von 360°-VR-Medien für Bildungszwecke begrenzt. Tatsächlich ist noch immer unklar, welche Lernziele durch 360°-VR-Medien unterstützt werden können, da es nur wenige einschlägige Forschungsarbeiten gibt. In dieser Studie betrachten wir die allgemeinen Lernziele des Wissenserwerbs und der räumlichen Orientierung.

Gemäß Anderson und Krathwohls überarbeiteter Taxonomie von Bloom et al. [16], [17] kann der Wissenserwerb entlang zweier Dimensionen differenziert werden. Die erste Dimension bezieht sich auf vier Kategorien von erreichbarem Wissen: faktisch, konzeptionell, prozedural, metakognitiv (Beispiele in Kapitel 2.2). Die zweite Dimension bezieht sich auf sechs Ebenen der kognitiven Verarbeitung: Erinnern, Verstehen, Anwenden, Analysieren, Beurteilen und Erschaffen. Zusammen beschreiben die beiden Dimensionen spezifische Ziele des Wissenserwerbs (z. B. das Erinnern des faktischen Verhältnisses zwischen dem Körpergewicht eines Kindes und der bei der Defibrillation benötigten Energiemenge). In der Lehrforschung zu 360°-VR-Medien fehlt diese Differenzierung bisher weitgehend. In Bezug auf 360°-VR-Videos haben Studien gezeigt, dass das Medium für den Erwerb von unkategorisiertem Wissen ähnlich effektiv ist wie herkömmliche Videos und regulärer Unterricht [18], [19], [20]. Allerdings stehen 360°-VR-Videos mit einem höheren Maß an Interesse, Beteiligung und Vergnügen bei den Studierenden in Verbindung [11], [18], [19]. Lehrbezogene Studien zu 360°-VR-Fotos sind noch seltener und derzeit auf den Bereich des Bauwesens und der Sicherheitsausbildung beschränkt. In einer Studie von Kim et al. [21] lernten die Teilnehmenden anhand von 360°-VR-Fotos prozedurale Informationen über Baumaßnahmen. Verglichen mit 360°-Fotos, die über Smartphones betrachtet wurden, verbesserten die 360°-VR-Fotos subjektiv den Wissenserwerb und wurden von den meisten Studienteilnehmenden als Ergänzung oder sogar als Ersatz für reale Exkursionen empfohlen. Ein weiteres Argument für den didaktischen Einsatz von 360°-VR-Fotos ist deren immersive Qualität. Laut einer Studie von Krokos et al. sind räumlich dargestellte Informationen leichter abrufbar, wenn beim Lernen eine VR-Brille getragen wurde, anstatt vor einem herkömmlichen Display zu sitzen [22].

Das zweite in dieser Studie untersuchte Lernziel ist die räumliche Orientierung, d. h. die Fähigkeit, den relativen Standort und die Ausrichtung von sich selbst und von Objekten in einer Umgebung zu bestimmen. Die räumliche Orientierung ist erforderlich, um Handlungen zu planen und zu einem gewünschten Ziel zu navigieren [23]. Google Street View, das auf herkömmlichen Geräten wie Tablets und Smartphones verfügbar ist, ist ein bekanntes Beispiel für die Nutzung normaler 360°-Fotos zur räumlichen Orientierung im Alltag. Der Einsatz einer VR-Brille verbessert die räumliche Orientierungsleistung nicht [24], [25], allerdings ermöglicht es die VR-Brille, entfernte oder unzugängliche Orte auf immersive und natürliche Weise durch Kopfbewegungen zu erkunden. Darüber hinaus haben Untersuchungen mit Ratten ergeben, dass sich die räumliche Orientierung in einer computergenerierten VR auf neurologischer Ebene der Orientierung in der Realität ähnelt [26]. Auch diese Ergebnisse gelten nicht automatisch für 360°-VR-Fotos, da diese die Fortbewegung auf die Teleportation zwischen Standpunkten beschränken. Im Vergleich zum tatsächlichen Gehen könnte die Teleportation die räumliche Orientierung beeinträchtigen [25], [27], [28], [29]. Diese Bedenken schmälern jedoch nicht das Potenzial von 360°-VR-Fotos für die Erkundung klinischer Umgebungen, wenn reale Besuche vor Ort ausgeschlossen sind.

Kurz gesagt, die Theorie und die vorangegangene Forschung legen nahe, dass 360°-VR-Fotos sowohl für die räumliche Orientierung als auch für den Wissenserwerb geeignet sind. Empirisch belegt ist diese Annahme bisher jedoch noch nicht. In der vorliegenden Studie wird daher untersucht, ob Informationen in annotierten 360°-VR-Fotos effektiv gelernt werden können, ohne die räumliche Orientierung und Präsenz der Lernenden zu beeinträchtigen. Zur Überprüfung der Randbedingungen werden die Ergebnisse unter Berücksichtigung individueller Lernereigenschaften (räumliche Orientierungsfähigkeit, Affinität zur Informationstechnologie, Vorerfahrung mit VR, Interesse an VR und 360°-Medien) und der Benutzererfahrung (kognitive Belastung, Präsenz, Simulatorkrankheit, Vergnügen, bevorzugte Art der Annotation, subjektiver didaktischer Nutzen von 360°-VR-Fotos) analysiert und interpretiert. Diese Faktoren liefern zusätzliche Informationen über den didaktischen Einsatz von 360°-VR-Fotos. So stehen beispielsweise Interesse und Vorerfahrung mit VR mit einer günstigeren Bewertung der Technologie und einer geringeren Ausprägung der Simulatorkrankheit in Verbindung [30], [31], [32], [33]. Die Simulatorkrankheit kann die Lernerfahrung durch Symptome wie Müdigkeit, Orientierungslosigkeit und Übelkeit beeinträchtigen [34].

1.3. Modalitätsprinzip

Um die effizienteste und am wenigsten immersionsbrechende Art der Annotation zu ermitteln, wurde zusätzlich die Validität des Modalitätsprinzips im Kontext von 360°-VR-Fotos getestet [35]. Das Modalitätsprinzip leitet sich aus Mayers kognitiver Theorie des multimedialen Lernens ab und besagt, dass das Lernen mit Hilfe von Grafiken wie Videos und Fotos wirksamer ist, wenn die Grafiken mit Audiokommentaren anstelle von geschriebenem Text begleitet werden. Der Theorie nach überlastet die gleichzeitige Verarbeitung von Grafiken und Text den visuellen Kanal, während das Anhören von gesprochenen Kommentaren auch den auditiven Kanal nutzt und so die kognitive Gesamtbelastung verringert [36]. Dieses Prinzip wurde für computergestütztes Lernen verifiziert [37], aber in der bisherigen Forschung wurden nur Grafiken in einem rechteckigen Format und auf nicht-immersiven Bildschirmen betrachtet (z. B. die physiologische Funktion der Niere auf einem Desktop-Bildschirm [38]). Es wird erwartet, dass das Prinzip auch auf 360°-VR-Fotos anwendbar ist, da die Rundumsicht in der VR-Brille eine hohe Belastung für den visuellen Kanal darstellen dürfte, was zu einer Beeinträchtigung des Leseverständnisses und der Merkfähigkeit führen sollte. Da Textfelder teilweise das Sichtfeld versperren, wird erwartet, dass Audiokommentare auch im Hinblick auf die räumliche Orientierung und das Gefühl der Präsenz vorzuziehen sind.

1.4. Hypothesen

Vor dem Hintergrund dieser Überlegungen wurden drei Hypothesen getestet.

1.
Der Einsatz von 360°-VR-Fotos als visuelle Referenz verbessert das Erinnern und Verstehen von Informationen.
2.
Die Annotation von Textfeldern in 360°-VR-Fotos beeinträchtigt die räumliche Orientierung und Präsenz.
3.
Annotierte Audiokommentare sind annotierten Textfeldern in Bezug auf die kognitive Belastung und den Wissenserwerb überlegen.

2. Methodik

2.1. Stichprobe

Zur Überprüfung der Hypothesen wurden Medizinstudierende per E-Mail und Blogposts eingeladen, freiwillig an einem virtuellen Rundgang durch den OP-Bereich des Universitätsklinikums Ulm teilzunehmen. Nach Abgabe einer schriftlichen Einverständniserklärung nahmen schließlich 61 Studierende der Human- (N=53) und Zahnmedizin (N=8) an der Studie teil. Als Anreiz für die Teilnahme erhielt jeder Student einen 30€-Gutschein. Keiner der Studierenden hatte außerhalb seines Studiums eine medizinische Ausbildung begonnen oder zuvor einen Operationssaal besucht. Die Teilnehmenden waren überwiegend weiblich (71%), großteils Anfang zwanzig (M=21,79, SD=2,49) und im Durchschnitt im fünften Semester (M=4,54, SD=2,02). Die letztgenannte Statistik und der vorherige Abschluss einer Famulatur waren zwischen den Bedingungen ungleichmäßig verteilt. Darüber hinaus ergab der Lang-Stereotest, dass bis auf zwei Teilnehmende alle über stereoskopische Tiefenwahrnehmung verfügten [39], d. h. die meisten waren in der Lage, die zwei Perspektiven ihrer Augen zusammenzuführen und daraus Tiefeninformationen abzuleiten. Eine detaillierte Übersicht der Stichprobe findet sich in Tabelle 1 [Tab. 1] und Tabelle 2 [Tab. 2].

2.2. Versuchsaufbau

Der virtuelle Rundgang wurde mit 360°-VR-Fotos (3840x3840 Pixel pro Foto, aufgenommen mit einer Insta360 Pro 2 360°-Kamera) erstellt und in drei verschiedenen Varianten gestaltet. In einer Art Quasi-Randomisierung wurden die Studienteilnehmenden diesen Varianten in Abhängigkeit von ihrem Anmeldezeitpunkt in einer vordefinierten Reihenfolge zugeordnet. In den ersten beiden Varianten wurden Hotspots verwendet, um die 360°-VR-Fotos zu verknüpfen und Informationen zu den Räumlichkeiten, medizinischen Geräten und klinischen Verfahren entweder als Textfelder (siehe Abbildung 2 [Abb. 2]) oder als Audiokommentare zu präsentieren. Im Hinblick auf Anderson und Krathwohls Revision der Bloomschen Taxonomie [16], [17] waren die angegebenen Informationen faktischer (diskrete Informationselemente, z. B. eine Definition von „nosokomial“), konzeptioneller (Zusammenhänge zwischen Informationselementen, z. B. funktionelle Organisation eines OP-Bereichs) und prozeduraler (Abfolge von Schritten, z. B. Ablauf einer chirurgischen Händedesinfektion) Natur. Die Hotspots, die als Piktogramme in Form von Sprechblasen und Megaphonen eingefügt wurden (siehe Abbildung 3 [Abb. 3]), ließen sich nur einmal aktivieren. Die Länge der einzelnen Annotationen betrug im Durchschnitt 67,36 Wörter (SD=6,67), die mit einer moderaten Durchschnittsgeschwindigkeit von 2,46 Wörtern pro Sekunde (SD=0,21) verständlich aufgenommen wurden. Die Geschwindigkeit und Lautstärke der Audiokommentare sowie die Schriftgröße, die von den Autoren als deutlich lesbar eingestuft wurde, konnten von den Teilnehmenden nicht verändert werden. In der dritten Variante (Kontrollvariante) wurden die gleichen Informationen nicht im virtuellen Rundgang eingebunden, sondern separat auf einem gedruckten Handout (H) zur Verfügung gestellt (siehe Anhang 1 [Anh. 1]), das vor dem virtuellen Rundgang innerhalb eines Zeitlimits von 10 Minuten einmal gelesen werden sollte. Die Teilnehmenden wurden angewiesen, das Handout nicht erneut zu lesen, wenn sie vor Ablauf des Zeitlimits fertig wurden.

Die Studierenden erlebten den Rundgang über eine HTC Vive VR-Brille (1080x1200 Pixel pro Auge, 90 Bilder pro Sekunde, 110° Sichtfeld) (siehe Abbildung 2 [Abb. 2]), die aus zwei getrennten Displays besteht, d. h. einem pro Auge. Stereoskopisches Sehen wurde erreicht, indem jede Szene mit einem leichten Versatz zwischen den beiden Displays angezeigt wurde. Die Studierenden aktivierten Hotspots und Namensschilder via Blicksteuerung, indem sie diese 1,5 Sekunden lang anschauten. Eingaben über einen Controller waren daher nicht erforderlich. Um sich mit der Technologie vertraut zu machen, absolvierten die Teilnehmenden ein kurzes Tutorial, bevor sie den virtuellen Rundgang durch den OP-Bereich begannen. Das Zeitlimit betrug 10 (Handout) bzw. 20 Minuten (annotiert). Die Zeitlimits unterschieden sich zwischen den Bedingungen, da die Annotation den virtuellen Rundgang im Vergleich zur Kontrollgruppe verlängerte. Wenn ein Student das Zeitlimit überschritt, wurde er einmalig aufgefordert, den Rundgang schnellstmöglich zu beenden. Vor und nach dem virtuellen Rundgang wurden anhand von Tests und Fragebögen Daten erhoben (siehe Abbildung 4 [Abb. 4]).

2.3. Instrumente
2.3.1. Wissenserwerb

Um den Wissenserwerb zu bewerten, wurde am Ende der Studie ein Wissenstest durchgeführt (siehe Anhang 2 [Anh. 2]). Um bloßes Wiedererkennen zu vermeiden, bestand der Test aus 23 offenen Fragen ohne Auswahlmöglichkeiten. In Anlehnung an die kognitiven Verarbeitungsebenen nach Anderson und Krathwohl [16], [17] verlangten die Fragen von den Teilnehmenden, sich innerhalb eines Zeitlimits von 15 Minuten an die präsentierten Informationen zu erinnern (15 Fragen) oder zu demonstrieren, diese zu verstehen (8 Fragen). Im Wissenstest wurde nicht zwischen faktischen, konzeptionellen und prozeduralen Informationen differenziert, da die Kategorien nicht präzise genug unterschieden werden konnten. Bei verblindeter Gruppenzuordnung wurden die Antworten der Teilnehmenden von zwei medizinischen Experten bewertet, die sich dabei an einem standardisierten Bewertungsschema orientierten (siehe Anhang 2 [Anh. 2]). Einer dieser Experten ist Mitverfasser dieses Artikels. Nachdem sie die Antworten unabhängig voneinander bewertet hatten, diskutierten die Experten Diskrepanzen und erzielten auf der Grundlage des Bewertungsschemas einen Konsens. Die Punktzahlen wurden schließlich zu einem Gesamtwert zusammengefasst, wobei zwischen Erinnern mit einer Höchstpunktzahl von 41,5 und Verstehen mit einer Höchstpunktzahl von 23 Punkten unterschieden werden konnte.

2.3.2. Räumliche Orientierung

Im Hinblick auf die räumliche Orientierung wurden zwei Faktoren gemessen. Die Leistung bei der Selbstverortung wurde mit einer individuell angepassten Version des Spatial Orientation Test (SOT) von Hegarty et al. gemessen [40]. Nach der Intervention wurden den Studierenden acht rechteckige Screenshots aus dem virtuellen Rundgang vorgelegt, die jeweils mit einem roten Fadenkreuz versehen waren, das ihre Blickrichtung markierte. Anhand dieses Referenzpunktes, der als Linie auf einem Blatt Papier abgebildet war, sollten die Teilnehmenden eine weitere Linie in die vermutete Richtung des zuvor gesehenen Operationstisches ziehen (siehe Abbildung 5 [Abb. 5]). Die Winkelabweichungen zwischen den Antworten und den korrekten Richtungen wurden summiert und zu einem Durchschnittswert für die Selbstverortungsleistung gemittelt, wobei der Wert zwischen 0 und 180 liegen konnte. Je niedrigerer der Wert, desto besser die Leistung.

Der zweite gemessene Aspekt der räumlichen Orientierung war die Objektverortung. Den Studierenden wurden zehn Ausschnitte des Gebäudeplans vorgelegt, auf denen verschiedene Teile des OP-Bereichs abgebildet waren. Die Studierenden wurden gebeten, aus jeweils sieben Positionsmöglichkeiten jeweils ein Objekt pro Ausschnitt auszuwählen. Richtige Antworten wurden zu einer Objektverortungsleistung mit einer Maximalpunktzahl von 10 aggregiert.

2.3.3. Benutzererfahrung

Zur Messung der Präsenz wurde eine autorisierte deutsche Übersetzung der Spatial Presence Experience Scale (SPES) eingesetzt [41]. Die Studierenden bewerteten drei Items zu ihrem Gefühl der physischen Präsenz auf einer Likert-Skala von 1 („Ich stimme überhaupt nicht zu“) bis 5 („Ich stimme vollkommen zu“). Ein SPES-Item, das sich auf beobachtbare Handlungen bezog, wurde ausgelassen, da 360°-VR-Fotos statisch sind.

Die Simulatorkrankheit wurde vor und nach dem virtuellen Rundgang mit dem SSQ (Simulation Sickness Questionnaire) gemessen [42]. Der SSQ-Gesamtwert, der als die Zunahme zwischen den beiden Messungen definiert wurde, drückt den Schweregrad der durch den virtuellen Rundgang verursachten Simulatorkrankheit aus. Den Autoren zufolge weist ein Gesamtwert von 10 oder höher auf ein bedeutsames Maß an Unbehagen hin.

Die individuelle kognitive Belastung wurde unmittelbar nach dem virtuellen Rundgang gemessen. Nach der Cognitive Load Theory [36] kann die Anstrengung, Informationen im Arbeitsgedächtnis zu behalten, in drei verschiedene kognitive Belastungen eingeteilt werden. Während die „intrinsische Belastung“ durch die Komplexität und Neuartigkeit des Lernmaterials bestimmt wird, wird die „extrinsische Belastung“ durch eine ungünstige Präsentationsform auferlegt. Im Idealfall wird die extrinsische Belastung minimiert, um den kognitiven Lernprozess zu begünstigen, welcher wiederum die „lernbezogene Belastung“ darstellt. Alle drei Arten der kognitiven Belastung wurden anhand der deutschen Version des Instruments zur Messung der kognitiven Belastung von Klepsch et al. gemessen, das insgesamt sieben Items umfasst. Die Teilnehmenden bewerteten die Items auf einer Likert-Skala von 1 („Ich stimme überhaupt nicht zu“) bis 7 („Ich stimme vollkommen zu“) [43].

Darüber hinaus wurden die Teilnehmenden gebeten, den didaktischen Nutzen von 360°-VR-Fotos zu bewerten und Feedback zu ihrem virtuellen Rundgang zu geben (Vergnügen und bevorzugte Art der Annotation). Diese Items wurden entweder binär („ja“ oder „nein“) oder auf einer Likert-Skala von 1 („Ich stimme überhaupt nicht zu“) bis 5 („Ich stimme vollkommen zu“) bewertet.

2.3.4. Lernereigenschaften

Die räumliche Orientierungsfähigkeit der Teilnehmenden wurde anhand des unveränderten SOT [40] erhoben, der lediglich den Selbstverortungsaspekt der räumlichen Orientierung erfasst. Analog zu seiner angepassten Version (siehe Kapitel 2.3.2) liefert der unveränderte SOT eine durchschnittliche Abweichung in Grad (zwischen 0 und 180). Ein niedrigerer Wert deutet auf ein besseres räumliches Orientierungsvermögen hin. Darüber hinaus wurden Items zu soziodemografischen und Persönlichkeitsvariablen wie die Affinität zur Informationstechnologie (IT) und das Interesse an VR- und 360°-Medien selbst erstellt und mit Likert-Skalen von 1 („Ich stimme überhaupt nicht zu“) bis 5 („Ich stimme vollkommen zu“) eingesetzt.

2.4. Statistische Auswertung

Basierend auf einer visuellen Analyse von Q-Q-Plots wurde für die gesammelten Daten Normalverteilung und Varianzhomogenität angenommen. Unterschiede in den Mittelwerten wurden daher mit t-Tests für unabhängige Stichproben und einfachen ANOVAs untersucht. Letztere wurden mit anschließenden LSD-Post-Hoc-Tests nach Fisher differenziert. Die Analysen waren zweiseitig und p-Werte unter 0,05 wurden als signifikant angesehen. Als Maß der Effektgrößen wurde das partielle Eta-Quadrat (η2) für ANOVAs und Cohens d für t-Tests berechnet. Darüber hinaus wurden Binomialtests verwendet, um Beziehungen zwischen kategorialen Variablen zu untersuchen, während Zusammenhänge zwischen metrischen Variablen mit Pearson-Korrelationen getestet wurden.


3. Ergebnisse

3.1. Zeit

Für alle Teilnehmenden in der Kontrollgruppe reichten 10 Minuten aus, um das gesamte Handout zu lesen. Beim virtuellen Rundgang erreichte die Mehrheit der Teilnehmenden in der Handout- (M=8,32, SD=2,09) und in der Textfeld-Bedingung (M=18,90, SD=4,26) vor Ablauf des jeweiligen Zeitlimits von 10 bzw. 20 Minuten das Ende. Bei der Audiokommentar-Bedingung hingegen überschritten die meisten Teilnehmenden ihr Zeitlimit von 20 Minuten (M=20,76, SD=2,50) um durchschnittlich 2,20 Minuten (SD=1,80).

3.2. Wissenserwerb

Die mittlere Gesamtpunktzahl des Tests war in der Textfeld-Bedingung signifikant höher (F(2,57)=5,13, p=0,009, η2=0,15) als in der Audiokommentar- (pLSD=0,003) und der Handout-Bedingung (pLSD=0,042) (siehe Abbildung 6 [Abb. 6]). Die Gruppe, die den Text im virtuellen Rundgang las, schnitt auf beiden Ebenen der kognitiven Verarbeitung am besten ab. Allerdings war der Unterschied zwischen den annotierten Textfeldern und dem gedruckten Text der Handout-Bedingung bei Fragen, die das Verständnis prüfen, nicht signifikant (pLSD=0,195). Obwohl die Teilnehmenden in der Audiokommentar-Bedingung schlechter abschnitten als die Teilnehmenden in der Textfeld-Bedingung, hielten sie die 360°-VR-Fotos für den Wissenserwerb besser geeignet (t(39)=2,48, p=0,017, d=0,79). Darüber hinaus glaubten 83% der Teilnehmenden, die die Informationen in annotierter Form gelernt hatten, dass das Erinnern im realen OP-Bereich durch die Integration der Informationen in den virtuellen Rundgang eher verbessert oder verbessert wird.

3.3. Räumliche Orientierung

Hinsichtlich der Leistung bei der Objektverortung (F(2,58)=0,00, p=0,996, η2=0,00) (siehe Abbildung 7 [Abb. 7]) und Selbstverortung (F(2,58)=0,37, p=0,693, η2=0,01) (siehe Abbildung 8 [Abb. 8]) wurden keine signifikanten Gruppenunterschiede gefunden.

3.4. Benutzererfahrung

Bei der Simulatorkrankheit (F(2,58)=0,38, p=0,69, η2=0,01) und bei der Präsenz (F(2,58)=1,66, p=0,199, η2=0,05) wurden ebenfalls keine signifikanten Gruppenunterschiede gefunden. Beide Faktoren korrelierten auch nicht signifikant mit den Testergebnissen für Wissen und räumliche Orientierung, obwohl 28% aller Teilnehmenden ein bedeutsames Maß an Unbehagen empfanden. Auf deskriptiver Ebene wies die Audiokommentar-Bedingung (M=4,32, SD=0,70) jedoch eine höhere Präsenzbewertung auf als die Textfeld- (M=3,85, SD=0,83) und die Handout-Bedingung (M=4,1, SD=0,92) und wurde als weniger immersionsbrechend empfunden als Textfelder (t(39)=1,80, p=0,080, d=0,56).

Zwar wurden zwischen den beiden Annotations-Bedingungen keine signifikanten Unterschiede in der kognitiven Belastung gefunden, jedoch wurde die Audiokommentar-Bedingung insgesamt günstiger bewertet (siehe Tabelle 3 [Tab. 3]). Gegenüber den anderen Bedingungen schnitt der Audiokommentar hinsichtlich des Vergnügens und des mutmaßlichen didaktischen Nutzens deskriptiv besser ab. Außerdem erwies sich das Lesen des Textes im virtuellen Rundgang als schwieriger als das akustische Verstehen des Audiokommentars (t(39)=5,56, p<0,001, d=1,74). Die Kontrollgruppe, die die Informationen vor dem virtuellen Rundgang auf einem gedruckten Handout (H) las, berichtete über eine deskriptiv höhere extrinsische Belastung und eine signifikant niedrigere lernbezogene Belastung (F(2,58)=4,16, p=0,02, η2=0,13) als die Teilnehmenden der Audiokommentar-Bedingung (AK) (pLSD=0,014) und der Textfeld-Bedingung (TB) (pLSD=0,017). In Übereinstimmung mit diesen Ergebnissen zeigten Binomialtests, dass die meisten Teilnehmenden es vorzogen, sich Wissen innerhalb des virtuellen Rundgangs anzueignen (pTB<0,001; pAK<0,001; pH=0,003), wobei der Audiokommentar die bevorzugte Art der Annotation war (siehe Abbildung 9 [Abb. 9]).

3.5. Lernereigenschaften

Die Fähigkeit zur Selbstverortung (siehe Abbildung 8 [Abb. 8]), die IT-Affinität, das Interesse an VR und 360°-Medien und die vorherige Nutzung von VR (siehe Tabelle 2 [Tab. 2]) waren nicht mit der Leistung in den Wissens- und räumlichen Orientierungstests assoziiert. Das Interesse an VR und 360°-Medien korrelierte jedoch positiv mit dem Vergnügen (r=0,37, p<0,001), der Präsenz (r=0,46, p<0,001) und dem mutmaßlichen didaktischen Nutzen von 360°-VR-Fotos (r= 0,46, p<0,001).


4. Diskussion

Mit Hilfe von 360°-VR-Fotos können medizinische Ausbilder immersive Einblicke in die regionale Praxis gewähren, um eine frühzeitige klinische Exposition zu ermöglichen. Um festzustellen, wie 360°-VR-Fotos lernförderlich eingesetzt und gestaltet werden können, wurden in dieser Studie drei Hypothesen getestet:

Hypothese 1: Der Einsatz von 360°-VR-Fotos als visuelle Referenz verbessert das Erinnern und das Verstehen von Informationen

Wie frühere Forschungsarbeiten nahelegten [21], [22], verbessert der Einsatz von 360°-VR-Fotos als visuelle Referenz den Wissenserwerb, wobei die Wahl der Annotationsform bedeutsam ist (siehe 3. Hypothese). Die subjektive Einschätzung der Studierenden bestätigt die Lernwirksamkeit von 360°-VR-Fotos. Die Mehrheit war der Meinung ist, dass die Fotos das spätere Erinnern im realen OP-Bereich erleichtern. Ähnlich wie bei früheren Untersuchungen zu 360°-VR-Videos [11], [18], [19] war das Vergnügen und der mutmaßliche didaktische Nutzen von 360°-VR-Fotos bei allen Varianten des virtuellen Rundgangs hoch. Ihre Anwendung für die frühzeitige klinische Exposition würde daher wahrscheinlich von den Studierenden begrüßt und je nach Gestaltung effektiv Informationen vermitteln.

Hypothese 2: Die Annotation von Textfeldern in 360°-VR-Fotos beeinträchtigt die räumliche Orientierung und Präsenz

Was die räumliche Orientierung und Präsenz betrifft, so beeinträchtigten Textfelder die Lernenden in keinem nennenswerten Umfang. Das ist unerwartet, da die Textfelder als immersionsbrechender empfunden wurden als die Audiokommentare. Eine Erklärung im Hinblick auf die Präsenz könnten fehlende Vergleichswerte sein, da 72 % der Teilnehmenden noch keine VR-Erfahrung hatten. Da sie noch nie ein höheres Maß an Immersion erlebt hatten, könnten sie ihr Gefühl, sich im dargestellten OP-Bereich zu befinden, überschätzt haben [44]. Demnach haben Textfelder möglicherweise dennoch eine präsenzmindernde Wirkung, aber zumindest stört das weniger erfahrene VR-Nutzer nicht. In Bezug auf die räumliche Orientierung scheint das Lesen kein Hindernis zu sein, solange die Lernenden noch genügend Zeit haben, die 360°-VR-Fotos zu erkunden.

Hypothese 3: Annotierte Audiokommentare sind annotierten Textfeldern in Bezug auf die kognitive Belastung und den Wissenserwerb überlegen

Nach dem Modalitätsprinzip [35] sollten Textfelder im Vergleich zu Audiokommentaren zu einer höheren extrinsischen Belastung und einem geringeren Lerneffekt führen. Die Ergebnisse des Wissenstests widersprechen dieser Vorhersage jedoch, obwohl die Teilnehmenden in der Textfeld-Bedingung aufgrund der fehlenden Famulatur und ihres durchschnittlich niedrigeren Semesters potenziell benachteiligt waren. Die Textfelder übertrafen die Audiokommentare und die Handout-Bedingung sowohl in Bezug auf das Erinnern als auch das Verstehen. Obwohl sie die meiste Zeit im virtuellen Rundgang verbrachten, erzielten die Teilnehmenden in der Audiokommentar-Bedingung im Durchschnitt die schlechtesten Testergebnisse. Dieses unerwartete Ergebnis lässt sich durch den Lerninhalt erklären. Zum einen war der visuelle Bezug möglicherweise nicht wesentlich genug für das Verstehen der präsentierten Informationen. Das Modalitätsprinzip greift, wenn zwei Informationsquellen gleichzeitig verarbeitet und mental integriert werden müssen [35]. Wenn die Studierenden die dargestellte Umgebung weitgehend ignorieren und sich auf das Lesen konzentrieren konnten, führten die Textfelder vermutlich nicht zu einer kognitiven Überlastung. Zum anderen konnten die Textfelder wiederholt gelesen werden, solange der Hotspot aktiviert war, während die Audiokommentare nur einmalig abgespielt wurden. Dieser Vorteil kommt laut Leahy und Sweller [45] besonders bei umfangreichem Material zum Tragen. Die Studierenden hatten möglicherweise Mühe, die durchschnittlich 67 Wörter angemessen zu verarbeiten, bevor die Audiokommentare endeten. Das Ergebnis, dass Audiokommentare für den Wissenserwerb nachteilig sind, gilt somit vermutlich nur für lange Texte, die nicht in schriftlicher Form zugänglich sind.

Diese Erklärungen werden nicht durch die durchgeführten Messungen zur kognitiven Belastung gestützt. Dieser Widerspruch ist wahrscheinlich auf die subjektive Natur der Selbstauskunft zurückzuführen. Möglicherweise sind die Lernenden nicht in der Lage, die drei Arten der kognitiven Belastung zu unterscheiden und haben unterschiedliche interne Standards für die Bewertung der kognitiven Belastung [46], [47]. Diese Annahme wird durch die signifikant höhere extrinsische Belastung in der Handout-Bedingung gestützt. Ohne Annotationen konnten sich die Studierenden ausschließlich auf die räumliche Orientierung konzentrieren. Der Theorie nach hätte dies zu einer geringeren extrinsischen Belastung führen müssen. Was die anderen Faktoren der Benutzererfahrung betrifft, so war der Audiokommentar auf deskriptiver Ebene die bevorzugte Option. Die Studierenden in der Audiokommentar-Bedingung berichteten, dass sie sich präsenter fühlten und mehr Spaß hatten. Auch wenn der virtuelle Rundgang dadurch länger dauerte, würden die meisten den Audiokommentar den Textfeldern und einem Handout vorziehen. Audiokommentare sind daher zu empfehlen, wenn der Wissenserwerb nicht im Vordergrund steht oder die Informationen zusätzlich in schriftlicher Form zugänglich sind.

In allen Bedingungen litten fast ein Drittel der teilnehmenden Studierenden unter der Simulatorkrankheit, was aber weder das Lernen noch die räumliche Orientierung beeinträchtigte. Die relativ hohe Prävalenz könnte darauf zurückzuführen sein, dass sich die Studierenden in den 360°-VR-Fotos nicht selber sahen und in der Luft zu schweben schienen. Wenn die Lernenden als virtuelle Avatare dargestellt würden, könnte die Prävalenz der Simulatorkrankheit abnehmen. Hinsichtlich der gemessenen Lernereigenschaften konnte keine Determinante für die Wirksamkeit von 360°-VR-Fotos für den Wissenserwerb und die räumliche Orientierung gefunden werden. Allerdings tauchen Studierende mit Interesse an VR und 360°-Medien tendenziell mehr in 360°-VR-Fotos ein, haben mehr Spaß daran und schreiben ihnen einen größeren didaktischen Nutzen zu. Diese Ergebnisse decken sich mit denen früherer Untersuchungen und deuten darauf hin, dass eine stärkere Anwendung von 360°-VR-Fotos in der medizinischen Ausbildung zu einer höheren Nachfrage und Wertschätzung des Mediums führen würde [30], [31], [32], [33].

Natürlich müssen die Ergebnisse dieser Studie angesichts ihrer Limitationen interpretiert werden. Abgesehen von [21] wurde der Kombination von 360°-Fotos und VR-Brillen in der Forschung bisher wenig Beachtung geschenkt. Um die Ergebnisse zu validieren, müssen sie mit diskret messbaren Wissenskategorien und größeren Stichproben, die eine höhere Varianz in der Vertrautheit mit VR aufweisen, repliziert werden. Außerdem wurden die räumlichen Orientierungs- und Wissenstests kurz nach dem virtuellen Rundgang durchgeführt. Die Ergebnisse belegen daher nur die kurzfristige Wirksamkeit von 360°-VR-Fotos. Zu guter Letzt hätte eine physiologische Messung der kognitiven Belastung mittels EEG und Eye-Tracking in den VR-Brillen geholfen, die Ergebnisse schlüssiger zu erklären [48], [49]. Zukünftige Studien sollten diese Methoden nutzen, um weitergehend zu untersuchen, wie kognitive Kapazitäten in 360°-VR-Fotos gelenkt und effizient genutzt werden können. Dabei sollte auch die Qualität der Annotationen berücksichtigt werden. Neben der Länge könnte die Lernerfahrung auch durch die Geschwindigkeit oder Lautstärke der Audiokommentare beeinflusst werden. Darüber hinaus sollte die Wirksamkeit von 360°-VR-Fotos mit realen Lernszenarien verglichen werden, z. B. mit einer persönlichen Führung durch den OP-Bereich.


5. Schlussfolgerung

360°-VR-Fotos sind eine niedrigschwellige und kostengünstige Möglichkeit, die klinische Exposition in den frühen Phasen der medizinischen Ausbildung zu fördern. Das Medium gewährt nicht nur immersive Einblicke in den klinischen Alltag, sondern kann auch Informationen und ein Gefühl der räumlichen Orientierung effektiv in einem Lernszenario vermitteln. Während ihr Einsatz bei Studierenden generell gut ankommt, tauchen diejenigen, die sich für VR und 360°-Medien interessieren stärker in die 360°-VR-Fotos ein, haben mehr Spaß daran und schreiben ihnen einen höheren didaktischen Nutzen zu. Entgegen der Erwartung der Autoren wird die ideale Art der Annotation nicht durch das Modalitätsprinzip nach Mayer vorgeschrieben. Für Informationen wie die in dieser Studie eignen sich Textfelder besser zum Wissenserwerb als die subjektiv bevorzugten Audiokommentare. Dieses Ergebnis ist jedoch wahrscheinlich von der Länge und Qualität des Textes abhängig. Um Randbedingungen zu identifizieren und die Ergebnisse zu validieren, sind weitere Untersuchungen zur Gestaltung und pädagogischen Nutzung von 360°-VR-Fotos erforderlich.


Anmerkungen

Einzelheiten zur Finanzierung

Diese Arbeit wurde von der AG Lehrforschung der Medizinischen Fakultät der Universität Ulm unterstützt.

Ethikkommission

Die Ethikkommission der Universität Ulm entschied, dass die Studie weder einer rechtlichen noch einer ethischen Genehmigung bedarf.


Interessenkonflikt

Die Autor*innen erklären, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Shah CJ. Early clinical exposure- Why and how? J Educ Technol Health Sci. 2020;5(1):2-7. DOI: 10.18231/2393-8005.2018.0002 Externer Link
2.
Association of American Medical Colleges (AAMC). Applicants, Matriculants, and Enrollment of U.S. Medical Schools, 1980-1981 through 2020-2021. Washington (DC): AAMC; 2022. Zugänglich unter/available from: https://www.aamc.org/media/37836/download?attachment Externer Link
3.
Statista. Anzahl der Studierenden im Fach Humanmedizin in Deutschland nach Geschlecht in den Wintersemestern von 2007/2008 bis 2020/2021. Hamburg: Statistia; 2021. Zugänglich unter/available from: https://de.statista.com/statistik/daten/studie/200758/umfrage/entwicklung-der-anzahl-der-medizinstudenten/ Externer Link
4.
Speidel R, Schneider A, Körner J, Grab-Kroll C, Öchsner W. Did video kill the XR star? Digital trends in medical education before and after the COVID-19 outbreak from the perspective of students and lecturers from the faculty of medicine at the University of Ulm. GMS J Med Educ. 2021;38(6):Doc101. DOI: 10.3205/ZMA001497 Externer Link
5.
Bryson S. Call for Participation. IEEE Symposium on Research Frontiers in Virtual Reality, Ocotober 25-26 1993, Red Lion Inn, San Jose, CA. 1993. Zugänglich unter/available from: https://groups.google.com/g/comp.graphics.visualization/c/V6bxB5-bJKY Externer Link
6.
Slater M. A note on presence terminology. Presence Conn. 2003;3(3):1-5.
7.
Chirico A, Gaggioli A. When Virtual Feels Real: Comparing Emotional Responses and Presence in Virtual and Natural Environments. Cyberpsychol Behavd Soc Netw. 2019;22(3):220-226. DOI: 10.1089/cyber.2018.0393 Externer Link
8.
Brivio E, Serino S, Negro Cousa E, Zini A, Riva G, de Leo G. Virtual reality and 360° panorama technology: a media comparison to study changes in sense of presence, anxiety, and positive emotions. Virtual Real. 2021;25(2):303-311. DOI: 10.1007/s10055-020-00453-7 Externer Link
9.
Milgram P, Takemura H, Utsumi A, Kishino F. Augmented reality: a class of displays on the reality-virtuality continuum. In: Das H, editor. SPIE Proceedings: Telemanipulator and Telepresence Technologies. Vol. 2351. SPIE.Digital Library; 1995. p.282-292. Zugänglich unter/available from: https://spie.org/Publications/Proceedings/Volume/2351?SSO=1 Externer Link
10.
Bertel T, Yuan M, Lindroos R, Richardt C. OmniPhotos: casual 360° VR photography. ACM Trans Graph. 2020;39(6):1-12. DOI: 10.1145/3414685.3417770 Externer Link
11.
Snelson C, Hsu YC. Educational 360-Degree Videos in Virtual Reality: a Scoping Review of the Emerging Research. TechTrends. 2020;64(3):404-412. DOI: 10.1007/s11528-019-00474-3 Externer Link
12.
Kyaw BM, Saxena N, Posadzki P, Vseteckova J, Nikolaou CK, George PP, Divakar U, Masiello I, Kononowicz AA, Zary N, Tudor Car L. Virtual Reality for Health Professions Education: Systematic Review and Meta-Analysis by the Digital Health Education Collaboration. J Med Internet Res. 2019;21(1):e12959. DOI: 10.2196/12959 Externer Link
13.
Pourmand A, Davis S, Lee D, Barber S, Sikka N. Emerging Utility of Virtual Reality as a Multidisciplinary Tool in Clinical Medicine. Games Health J. 2017;6(5):263-270. DOI: 10.1089/g4h.2017.0046 Externer Link
14.
Chavez B, Bayona S. Virtual Reality in the Learning Process. In: Rocha Á, Adeli H, Reis LP, Costanzo S, editors. Trends and Advances in Information Systems and Technologies. Vol. 746. Cham: Springer International Publishing; 2018. p.1345-1356.
15.
Buttussi F, Chittaro L. Effects of Different Types of Virtual Reality Display on Presence and Learning in a Safety Training Scenario. IEEE Trans Vis Comput Graph. 2018;24(2):1063-1076. DOI: 10.1109/TVCG.2017.2653117 Externer Link
16.
Anderson LW, Krathwohl DR. A Taxonomy for Learning, Teaching, and Assessing: A Revision of Bloom's Taxonomy of Educational Objectives. London: Longman; 2001.
17.
Bloom BS, Engelhart MD, Furst EJ, Hill WH, Krathwohl DR. Taxonomy of educational objectives: The classification of educational goals. London: Longman; 1956.
18.
Lee SH, Sergueeva K, Catangui M, Kandaurova M. Assessing Google Cardboard virtual reality as a content delivery system in business classrooms. J Educ Bus. 2017;92(4):153-160. DOI: 10.1080/08832323.2017.1308308 Externer Link
19.
Harrington CM, Kavanagh DO, Wright-Ballester G, Dicker P, Traynor O, Hill A, Tierney S. 360degree Operative Videos: A Randomised Cross-Over Study Evaluating Attentiveness and Information Retention. J Surg Educ. 2018;75(4):993-1000. DOI: 10.1016/j.jsurg.2017.10.010 Externer Link
20.
Ulrich F, Helms NH, Frandsen UP, Rafn AV. Learning effectiveness of 360° video: experiences from a controlled experiment in healthcare education. Interact Learn Environ. 2019;3(2):1-14. DOI: 10.1080/10494820.2019.1579234 Externer Link
21.
Kim JS, Leatham T, Liu J. Comparing Virtual Reality Modalities and 360° Photography in a Construction Management Classroom. In: 55th ASC Annual International Conference Proceedings. 2019. p.221-228.
22.
Krokos E, Plaisant C, Varshney A. Virtual memory palaces: immersion aids recall. Virtual Real. 2019;23(1):1-15. DOI: 10.1007/s10055-018-0346-3 Externer Link
23.
Rieser JJ, Narasimham G, Erdemir A. Spatial Orientation. In: Ramachandran VS, editor. Encyclopedia of human behavior. 2nd ed. Burlington, MA: Elsevier/Academic Press; 2012. p.519-524.
24.
Napieralski PE, Altenhoff BM, Bertrand JW, Long LO, Babu SV, Pagano CC, Davis TA. An evaluation of immersive viewing on spatial knowledge acquisition in spherical panoramic environments. Virtual Real. 2014;18:189-201. DOI: 10.1007/s10055-014-0245-1 Externer Link
25.
Zhao J, Sensibaugh T, Bodenheimer B, McNamara TP, Nazareth A, Newcombe N, Minear M, Klippel A. Desktop versus immersive virtual environments: effects on spatial learning. Spat Cogn Comput. 2020;20(4):328-363. DOI: 10.1080/13875868.2020.1817925 Externer Link
26.
Aronov D, Tank DW. Engagement of Neural Circuits Underlying 2D Spatial Navigation in a Rodent Virtual Reality System. Neuron. 2014;84(2):442-456. DOI: 10.1016/j.neuron.2014.08.042 Externer Link
27.
Cherep LA, Lim AF, Kelly JW, Acharya D, Velasco A, Bustamente E, Ostrander AG, Gilbert SB. Spatial cognitive implications of teleporting through virtual environments. J Exp Psychol Appl. 2020;26(3):480-492. DOI: 10.1037/xap0000263 Externer Link
28.
Chrastil ER, Warren WH. Active and passive contributions to spatial learning. Psychon Bull Rev. 2012;19(1):1-23. DOI: 10.3758/s13423-011-0182-x Externer Link
29.
Riecke BE, Bodenheimer B, McNamara TP, Williams B, Peng P, Feuereissen D. Do We Need to Walk for Effective Virtual Reality Navigation? Physical Rotations Alone May Suffice. In: Hölscher C, editor. Spatial cognition. Vol. 6222. Berlin: Springer; 2010. p.234-247.
30.
Manis KT, Choi D. The virtual reality hardware acceptance model (VR-HAM): Extending and individuating the technology acceptance model (TAM) for virtual reality hardware. J Bus Res. 2019;100:503-513. DOI: 10.1016/j.jbusres.2018.10.021 Externer Link
31.
Freitag S, Weyers B. Kuhlen TW. Examining Rotation Gain in CAVE-like Virtual Environments. IEEE Trans Vis Comput Graph. 2016;22(4):1462-1471. DOI: 10.1109/TVCG.2016.2518298 Externer Link
32.
Shen CW, Ho JT, Ly PT, Kuo TC. Behavioural intentions of using virtual reality in learning: perspectives of acceptance of information technology and learning style. Virtual Real. 2019;23:313-324. DOI: 10.1007/s10055-018-0348-1 Externer Link
33.
Weisflog W, Böckel A. Ein studentischer Blick auf den Digital Turn: Auswertung einer bundesweiten Befragung von Studierenden für Studierende. Hochschulforum Digitalisierung. 2020;54:1-34. Zugänglich unter/available from: https://hochschulforumdigitalisierung.de/sites/default/files/dateien/HFD_AP_54_Studierendenbefragung.pdf Externer Link
34.
Chang E, Kim HT, Yoo B. Virtual Reality Sickness: A Review of Causes and Measurements. Int J Human Comput Inter. 2020;36(17):1658-1682. DOI: 10.1080/10447318.2020.1778351 Externer Link
35.
Mayer R. The Cambridge Handbook of Multimedia Learning. Cambridge: Cambridge University Press; 2014. DOI: 10.1017/CBO9781139547369 Externer Link
36.
Sweller J. Cognitive load theory, learning difficulty, and instructional design. Learn Instruct. 1994;4(4):295-312. DOI: 10.1016/0959-4752(94)90003-5 Externer Link
37.
Mayer RE. Using multimedia for e-learning. J Comp Ass Learn. 2017;33(5):403-423. DOI: 10.1111/jcal.12197 Externer Link
38.
Cierniak G, Scheiter K, Gerjets P. Explaining the split-attention effect: Is the reduction of extraneous cognitive load accompanied by an increase in germane cognitive load? Comp Human Behav. 2009;25(2):315-324. DOI: 10.1016/j.chb.2008.12.020 Externer Link
39.
Lang JI, Lang TJ. Eye Screening with the Lang Stereotest. Am Orth J. 1988;38(1):48-50. DOI: 10.1080/0065955X.1988.11981769 Externer Link
40.
Hegarty M. A dissociation between mental rotation and perspective-taking spatial abilities. Intelligence. 2004;32(2):175-191. DOI: 10.1016/j.intell.2003.12.001 Externer Link
41.
Hartmann T, Wirth W, Schramm H, Klimmt C, Vorderer P, Gysbers A, Böcking S, Ravaja N, Laarni J, Saari T, Gouveia F, Sacau AM. The Spatial Presence Experience Scale (SPES). J Media Psychol. 2016;28(1):1-15. DOI: 10.1027/1864-1105/a000137 Externer Link
42.
Kennedy RS, Lane NE, Berbaum KS, Lilienthal MG. Simulator Sickness Questionnaire: An Enhanced Method for Quantifying Simulator Sickness. Int J Aviat Psychol. 1993;3(3):203-220. DOI: 10.1207/s15327108ijap0303_3 Externer Link
43.
Klepsch M, Schmitz F, Seufert T. Development and Validation of Two Instruments Measuring Intrinsic, Extraneous, and Germane Cognitive Load. Front Psychol. 2017;8:1997. DOI: 10.3389/fpsyg.2017.01997 Externer Link
44.
Freeman J, Avons SE, Pearson DE, IJsselsteijn WA. Effects of Sensory Information and Prior Experience on Direct Subjective Ratings of Presence. Presence (Camb). 1999;8(1):1-13. DOI: 10.1162/105474699566017 Externer Link
45.
Leahy W, Sweller J. Cognitive load theory, modality of presentation and the transient information effect. Appl Cogn Psychol. 2011;25:943-951. DOI: 10.1002/acp.1787 Externer Link
46.
Bjork RA. Memory and Metamemory Considerations in the Training of Human Beings. In: Metcalfe J, Shimamura AP, editors. Metacognition. The MIT Press; 1994.
47.
de Jong T. Cognitive load theory, educational research, and instructional design: some food for thought. Instr Sci. 2010;38(2):105-134. DOI: 10.1007/s11251-009-9110-0 Externer Link
48.
Clay V, König P, König S. Eye Tracking in Virtual Reality. J Eye Mov Res. 2019;12(1). DOI: 10.16910/jemr.12.1.3 Externer Link
49.
Makransky G, Terkildsen TS, Mayer RE. Adding immersive virtual reality to a science lab simulation causes more presence but less learning. Learn Instruct. 2019;60:225-236. DOI: 10.1016/j.learninstruc.2017.12.007 Externer Link