gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Interaktive, fallbasierte Seminare im digitalisierten Blockpraktikum Pädiatrie aus Sicht der Studierenden

Kurzbeitrag Pädiatrie

Suche in Medline nach

  • corresponding author Andrea Heinzmann - Universitätsklinikum Freiburg, Albert-Ludwigs-Universität, Zentrum für Kinder- und Jugendmedizin, Klinik für Allgemeine Kinder- und Jugendmedizin, Freiburg, Deutschland
  • author Sebastian Bode - Universitätsklinikum Freiburg, Albert-Ludwigs-Universität, Zentrum für Kinder- und Jugendmedizin, Klinik für Allgemeine Kinder- und Jugendmedizin, Freiburg, Deutschland
  • author Johannes Forster - Universitätsklinikum Freiburg, Albert-Ludwigs-Universität, Zentrum für Kinder- und Jugendmedizin, Klinik für Allgemeine Kinder- und Jugendmedizin, Freiburg, Deutschland
  • author Jan Berger - Universitätsklinikum Freiburg, Albert-Ludwigs-Universität, Zentrum für Kinder- und Jugendmedizin, Klinik für Allgemeine Kinder- und Jugendmedizin, Freiburg, Deutschland

GMS J Med Educ 2021;38(1):Doc24

doi: 10.3205/zma001420, urn:nbn:de:0183-zma0014204

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2021-38/zma001420.shtml

Eingereicht: 29. Juli 2020
Überarbeitet: 26. November 2020
Angenommen: 8. Dezember 2020
Veröffentlicht: 28. Januar 2021

© 2021 Heinzmann et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Wir berichten über das aufgrund der COVID-19-Pandemie digitalisierte pädiatrische Blockpraktikum. Es wurden neunzehn Seminare aufgezeichnet, die das weite Spektrum der Pädiatrie möglichst umfassend abbilden, und auf der Lernplattform ILIAS in einer Lernsequenz zur Verfügung gestellt. Zur Erhöhung der Aufmerksamkeit und des Lernerfolgs wurden formative Fragen in die Seminare eingestreut. Die Evaluation der Studierenden ergab eine hohe Akzeptanz dieser Lehrveranstaltung. Geschätzt wurden insbesondere die formativen Fragen und die hohe zeitliche Flexibilität. Ein wesentlicher Kritikpunkt war, dass nicht alle Fragen im direkten Anschluss aufgelöst wurden. Die Auflösungen wurden zwischenzeitlich eingefügt. Teile des digitalisierten Blockpraktikums sollen nach entsprechender Überarbeitung daher auch nach Ende der Corona-Beschränkungen im pädiatrischen Blockpraktikum genutzt werden.

Schlüsselwörter: Pädiatrie, interaktive Lerneinheiten, formative Fragen, Evaluation


Einleitung

Im bisherigen zweiwöchigen Blockpraktikum der Pädiatrie untersuchten die Studierenden täglich Patient*innen unter Anleitung eines/r ärztlichen Tutors*in. Ergänzt wird dies durch eine tägliche Nachbesprechung mit dem/r Tutor*in, eine zweistündige Hospitation in einer Kinderarztpraxis und zwölf einstündige Seminare. Den Studierenden steht zudem eine ELearning Einheit (pädiatrische Untersuchungsmethoden und Standardprozeduren) auf ILIAS, der Lernplattform der Universität Freiburg, zur Verfügung.

Aufgrund der COVID-19-Pandemie musste innerhalb kürzester Zeit eine digitale Lehrveranstaltung als vollständiger Ersatz für das Blockpraktikum Pädiatrie geschaffen werden. Zum Zeitpunkt der Planung und Umsetzung waren Präsenzveranstaltungen und damit auch Unterricht am Krankenbett untersagt. Zudem wurden von der Universität Freiburg asynchrone Lehrveranstaltungen empfohlen, da Sorge vor einer Überlastung der ILIAS-Serverkapazitäten bestanden.


Projektbeschreibung

Die zwölf bislang in Präsenz gehaltenen Seminare wurden als interaktive Lerneinheiten (Videos) digitalisiert. Hierzu erhielten die Dozierenden eine einseitige Zusammenfassung der wichtigsten Empfehlungen für die Erstellung von Lehrvideos [1], [2]. Dies beinhaltete beispielsweise die Aufforderung, kurze Videoabschnitte mit einer maximalen Länge von 5-15 Minuten aufzunehmen, sowie den Hinweis, nicht überdeutlich und bewusst langsam zu sprechen. Wichtigster Aspekt war die Aufforderung, den Studierenden direkt im Seminar formativ Fragen zu stellen, da dieses wiederholte Testen nachgewiesenermaßen die Aufmerksamkeit und den Lernerfolg von Off- und Online-Lehrveranstaltungen erhöht [3], [4], [5]. Dabei erfolgte keine Vorgabe des Fragentyps. Es waren sowohl Multiple-Choice (MC) Fragen, die von den Studierenden per Klick beantwortet werden mussten, als auch offene Fragen, die durch einen entsprechenden Freitextkommentar bearbeitet werden sollten, möglich. Bei den MC-Fragen erfolgte direkt im Anschluss die Auflösung.

Zudem wurden die Dozierenden bei der Tonaufnahme des Seminars in einem informellen Setting gefilmt und anschließend als „Talking head“ in den digitalisierten Seminaren für die Studierenden sichtbar gemacht.

Zur Ergänzung der bislang lediglich im praktischen Unterricht vermittelten Lehrinhalte wurden zudem sieben neue Seminare entwickelt und ebenso digitalisiert, so z. B. zur normalen neurologischen Entwicklung des Kindes und einer U9 in einer Kinderarztpraxis (eine Auflistung aller Seminare siehe Anhang 1 [Anh. 1]). Die Seminare wurden durch formative Fragen unterbrochen, um wie vorbeschrieben den Lerneffekt und die Aufmerksamkeit zu erhöhen [6], [7] Insgesamt wurden 110 MC- und 57 Freitextfragen eingesetzt, damit durchschnittlich neun Fragen pro Seminar entsprechend der Empfehlungen einer Studie von Cook et al. [8]. Die Seminare mit einer Dauer von jeweils etwa 45 min wurden in fünf thematische Blöcke aufgeteilt und in einer übersichtlichen Lernsequenz auf ILIAS dargestellt (siehe Abbildung 1 [Abb. 1]). Nach jedem Block erfolgte eine summative Lernkontrolle mittels MC-Fragen. Die Evaluation erfolgte über EvaSys©. Es wurden 8 offene Fragen mit Freitextantworten und 13 Fragen mit sechsstufiger Lickert-Skala (trifft voll zu bis trifft gar nicht zu) gestellt.


Ergebnisse

Es haben 150 – damit 78% der ursprünglich angemeldeten – Studierenden am Kurs teilgenommen und diesen evaluiert. Das digitale Blockpraktikum wurde mit einem Mittelwert (mw) von 1,9 und einem Median (md) von 2,0 bewertet, im Vergleich dazu wurde das ursprüngliche Format durchschnittlich mit 1.7 evaluiert. Die Studierenden gaben an, in der Lehrveranstaltung viel gelernt (mw=2,1, md=2,0) und sich regelmäßig vor- und nachbereitet zu haben (mw=2,5, md=2,0). Die Arbeitsbedingungen zu Hause waren mit mw=1,8 (md=1,0) für die meisten Studierenden sehr gut. Die Frage, ob die veränderte Lernsituation sehr belastend war, wurde mit mw=4,3 (md=5) eher verneint. Nur 6% hatten eine Gruppenarbeit mit Kommilitonen organisiert; der Wunsch dazu bestand bei 42%.

In den Freitextkommentaren gaben 25 Studierende an, dass die eingestreuten Fragen die Aufmerksamkeit und die Auseinandersetzung mit dem Lehrstoff erhöhten. Weitere Ergebnisse der Freitextkommentare sind in Abbildung 2 [Abb. 2] zusammengefasst.


Diskussion

In der studentischen Evaluation wurden insbesondere die interaktiven Fragen positiv hervorgehoben, die subjektiv die Aufmerksamkeit und den Lerneffekt erhöhten. Insbesondere Roediger et al. konnten in mehreren Untersuchungen zeigen, dass durch (repetitives) Testen der Lernerfolg auch über Monate hinweg erhöht werden kann [4], [6], [9], [10], [11]. Eine randomisierte Studie zu einer ärztlichen Fortbildung für Postgraduierte konnte dies hingegen nicht bestätigen [12]. Jedoch sind die Studien aufgrund der großen methodischen Unterschiede nicht direkt miteinander vergleichbar.

Ein sofortiges Feedback zu MC Fragen kann den Lernerfolg erhöhen und die Frustration senken [6], [13]. Passend hierzu wurde die fehlende Beantwortung einiger Fragen von den Studierenden beklagt. Zwischenzeitlich wurden die Seminare entsprechend überarbeitet. Ein direkter Vergleich des Ergebnisses der eingestreuten Fragen mit der summativen Lernkontrolle ist bedingt durch die Freitextantworten im Rahmen dieses Projektes leider nicht möglich und ist Inhalt einer zukünftigen Studie.


Schlussfolgerung

Insgesamt zeigte sich eine hohe Akzeptanz der digitalisierten Seminare, insbesondere die Herausforderung durch formativ eingestreute Fragen wurden von den Studierenden positiv bewertet. Die Seminare werden daher nach Überarbeitung hinsichtlich der Auflösung aller Fragen auch im folgenden Semester eingesetzt werden.


Danksagung

Unser Dank gilt Frau Nathalie Petersen, Kompetenzzentrum Lehrevaluation, Studiendekanat der Albert-Ludwigs-Universität Freiburg, für die Unterstützung bei der Evaluation


Interessenkonflikt

Die Autor*innen erklären, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Guo PJ, Kim J, Rubin R. How video production affects student engagement: an empirical study of MOOC videos. ACM Press. 2014;41-50. DOI: 10.1145/2556325.2566239 Externer Link
2.
Carpenter SK, Wilford MM, Kornell N, Mullaney KM. Appearances can be deceiving: instructor fluency increases perceptions of learning without increasing actual learning. Psychon Bull Rev. 2013;20(6):1350-1356 DOI: 10.3758/s13423-013-0442-z Externer Link
3.
Larsen DP, Butler AC, Roediger HL. Test-enhanced learning in medical education. Med Educ. 2008;42(10):959-966. DOI: 10.1111/j.1365-2923.2008.03124.x Externer Link
4.
Raupach T, Andresen JC, Meyer K, Strobel L, Koziolek M, Jung W, Brown J, Anders S. Test-enhanced learning of clinical reasoning: a crossover randomised trial. Med Educ. 2016;50(7):711-720. DOI: 10.1111/medu.13069 Externer Link
5.
Szpunar KK, Khan NY, Schacter DL. Interpolated memory tests reduce mind wandering and improve learning of online lectures. Proc Natl Acad Sci U S A. 2013;110(16):6313-6317. DOI: 10.1073/pnas.1221764110 Externer Link
6.
Szpunar KK, Jing HG, Schacter DL. Overcoming overconfidence in learning from video-recorded lectures: implications of interpolated testing for online education. J App Res Mem Cogn. 2014;3(3):161-164. DOI: 10.1016/j.jarmac.2014.02.001 Externer Link
7.
Yang WA, Razo J, Persky AM. Using Testing as a Learning Tool. Am J Pharm Educ. 2019;83(9):7324. DOI: 10.5688/ajpe7324 Externer Link
8.
Cook DA, Thompson WG, Thomas KG. Test-enhanced web-based learning: optimizing the number of questions (a randomized crossover trial). Acad Med. 2014;89(1):169-175. DOI: 10.1097/ACM.0000000000000084 Externer Link
9.
Roediger HL, Agarwal PK, McDaniel MA, McDermott KB. Test-enhanced learning in the classroom: long-term improvements from quizzing. J Exp Psychol Appl. 2011;17(4):382-395. DOI: 10.1037/a0026252 Externer Link
10.
McConnell MM, St-Onge C, Young ME. The benefits of testing for learning on later performance. Adv Health Sci Educ Theory Pract. 2015;20(2):305-320. DOI: 10.1007/s10459-014-9529-1 Externer Link
11.
Larsen DP, Butler AC, Roediger HL. Comparative effects of test-enhanced learning and self-explanation on long-term retention. Med Educ. 2013;47(7):674-682. DOI: 10.1111/medu.12141 Externer Link
12.
DelSignore LA, Wolbrink TA, Zurakowski D, Burns JP. Test-Enhanced E-Learning Strategies in Postgraduate Medical Education: A Randomized Cohort Study. J Med Internet Res. 2016;18(11):e299. DOI: 10.2196/jmir.6199 Externer Link
13.
Butler AC, Roediger HL. Feedback enhances the positive effects and reduces the negative effects of multiple-choice testing. Mem cognit. 2008;36(3):604-616. DOI: 10.3758/MC.36.3.604 Externer Link