gms | German Medical Science

GMS Journal for Medical Education

Gesellschaft für Medizinische Ausbildung (GMA)

ISSN 2366-5017

Generative KI (gKI) in der medizinischen Ausbildung: Chat-GPT und Co

Leitartikel Künstliche Intelligenz

Suche in Medline nach

  • Sören Moritz - Universität zu Köln, Medizinische Fakultät, Köln, Deutschland
  • Bernd Romeike - Universitätsmedizin Rostock, Studiendekanat, Medizindidaktik, Rostock, Deutschland
  • Christoph Stosch - Universität zu Köln, Medizinische Fakultät, Köln, Deutschland
  • corresponding author Daniel Tolks - Leuphana Universität Lüneburg, Zentrum für angewandte Gesundheitswissenschaften, Lüneburg, Deutschland

GMS J Med Educ 2023;40(4):Doc54

doi: 10.3205/zma001636, urn:nbn:de:0183-zma0016361

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zma/2023-40/zma001636.shtml

Eingereicht: 28. April 2023
Überarbeitet: 28. April 2023
Angenommen: 3. Mai 2023
Veröffentlicht: 15. Juni 2023

© 2023 Moritz et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Leitartikel

„Die Verwendung von Chatbots in der medizinischen Ausbildung ist ein aufstrebender Trend, der von vielen Pädagogen und medizinischen Fachleuten begrüßt wird. Insbesondere der Einsatz von ChatGPT, einem large language model von OpenAI, bietet eine Vielzahl von Vorteilen für Studenten und Ausbilder gleichermaßen […]“ [1]. So weit so erstaunlich, zeigt die Passage schon auf das gesamte Dilemma: Wird die Lehre an den Hochschulen nach ChatGPT jemals wieder so, wie sie nie war?

Wir haben eine Kölner Hausarbeit im „Kompetenzfeld Karzinogenese“ (Interdisziplinärer Unterricht im ersten vorklinischen Studiensemester) dreifach mit jeweils identischen Anfragen durch ChatGPT erstellen lassen und drei unterschiedliche, zweiseitige Texte inklusive Literaturzitate nach APA-Stil erhalten. Diese sind durch zwei Detektorenprogramme (Groover, Writer) auf die Frage hin untersucht worden, ob sie von einem Menschen oder von einem Bot geschrieben wurden. Beide Programme konnten diese nicht als maschinengeschrieben detektieren (cave: kurze Texte sind praktisch nicht zu erkennen). Die Suche nach Plagiaten mit der Software PlagAware ergab keine bedenkenswerten Auffälligkeiten (ca. 3-5% Übereinstimmung mit bereits publizierten Texten). Die Arbeiten wurden unverändert an die bewertenden Tutor*innen weitergeleitet mit dem Ergebnis, dass zwei Arbeiten als „bestanden“ und eine als „nicht bestanden“ bewertet wurden. Die Schlechtleistung zielte dabei auf bestimmte inhaltliche im Kompetenzfeld verwendete Begrifflichkeiten ab, die nicht benannt wurden, sowie ein nicht passendes Literaturzitat. Was nun?

Fragen wir doch ChatGPT: „…Wenn Studierende in der Lage wären, auf ChatGPT zuzugreifen und Fragen während der Prüfung zu stellen, könnten sie theoretisch Antworten von ChatGPT erhalten, die ihnen bei der Beantwortung von Prüfungsfragen helfen könnten…” [2].

Was ist die Konsequenz?

1.
Prüfungen in Präsenz: Bei einer adäquaten Prüfungsaufsicht stellt ChatGPT in schriftlichen, mündlichen und praktischen Prüfungen in Präsenz keine Gefahr dar im Sinne einer Zunahme von Täuschungen.
2.
Hausarbeiten und Referate: Da die meisten Leistungsnachweise insbesondere im Studiengang Medizin in Form von MC-Klausuren in Präsenz durchgeführt werden, sind die Prüfungsformate „Hausarbeit“ oder „Referat“ zu vernachlässigen. Gleichwohl werden bestehende, rein schriftliche, nicht beaufsichtigte Prüfungsformate in Frage zu stellen sein. Die Prüfungsform „Referat“ ließe sich heilen, wenn der freie Vortrag wissenschaftlicher Zusammenhänge im Mittelpunkt steht. Hier hat der Lehrende die Möglichkeit, den Grad der Beherrschung der Materie als Prüfungsgegenstand ebenfalls zu bewerten.
3.
Abschlussarbeiten (Bachelor, Master), Wissenschaftliche Projekte (wie sie mit der neuen ÄApprO gefordert werden), Dissertationsschriften: Hier ergibt sich ein noch ungelöstes Problem von möglichen Täuschungen, da formulierte Texte und Gedanken keine Eigenleistungen darstellen, sondern von KI generiert sein könnten. Der mündlichen Prüfung (also dem Promotionskolloquien etc.) kommt eine zunehmend wichtigere Funktion zu.

Sind die Auswirkungen auf die universitäre Prüfungslandschaft das einzige Problem für die Hochschulen oder welche weiteren Auswirkungen ergeben sich durch Verwendung generativer KIs? Dazu muss man zumindest im Prinzip verstehen, wie eine solche generative Künstliche Intelligenz funktioniert?

Dazu sagt ChatGPT: „ChatGPT ist eine sogenannte „Sprachmodell-KI“ oder „Natural Language Processing“ (NLP) KI, die auf einer Methode des maschinellen Lernens namens „deep learning“ basiert. Sie wurde mit großen Mengen an menschlichem Text trainiert und kann dadurch menschenähnliche Texte generieren und verstehen. Um Texte zu generieren, verwendet ChatGPT ein neuronales Netzwerk, das aus vielen Schichten besteht und Millionen von Parametern hat. Es funktioniert wie ein sehr komplexes Mustererkennungssystem, das in der Lage ist, kontextbezogene Zusammenhänge zwischen Wörtern und Sätzen zu erkennen. Wenn Sie ChatGPT beispielsweise eine Frage stellen oder einen Satz eingeben, versucht das Modell, eine passende Antwort oder Fortsetzung auf der Grundlage dessen zu generieren, was es aus seinen Trainingsdaten gelernt hat. [...] Es ist wichtig zu betonen, dass KIs wie ChatGPT nur Werkzeuge sind und dass ihre Verwendung in der Verantwortung der Menschen liegt, die sie einsetzen. Es liegt an uns als Gesellschaft, sicherzustellen, dass KIs in einer Art und Weise eingesetzt werden, die sowohl effektiv als auch ethisch vertretbar ist.” [3].

Zusammengefasst modelliert ChatGPT (GPT 3.5) menschliche Sprache so gut wie noch kein anderes Computerprogramm zuvor. Es kann einen echten Gesprächspartner simulieren und bei der Beantwortung komplexer Sachverhalte und Fragestellungen überraschend effektiv helfen.

Die neueste Version der Sprachmodelle von OpenAI nennt sich GPT-4. Am 14. März 2023 wurde es veröffentlicht und es hat die Fähigkeit, genauere und verlässlichere Aussagen zu generieren als seine Vorgänger GPT-3 und GPT-3.5. Ein weiterer Vorteil ist, dass GPT-4 multimodal ist und somit Bilder als Eingabe akzeptieren kann. Es kann Bildunterschriften, Klassifizierungen und Analysen erstellen. Die Fähigkeiten von GPT-4 sind beeindruckend, insbesondere bei Prüfungen: In einem simulierten BAR-Test erreichte GPT-3.5 das unterste 10%-Perzentil, wohin gegen GPT-4 im obersten 10%-Perzentil abschneidet [4].

Durch die Nutzung von ChatGPT und ähnlichen KI-Tools ergeben sich offene Fragen auf vielfältigen Ebenen:

  • Selbst wenn Fragen von generativen KIs (gKI) überwiegend sachlich zutreffend beantwortet werden können, wer verantwortet die An- und Verwendung dieses Wissens? Wie verändert sich die Verantwortlichkeit der Entscheidungsträger zum Beispiel am Krankenbett oder der Lehre?
  • Welche juristischen Implikationen hat die Verwendung der gKI auf Rechtsgebiete wie etwa das Urheberrecht (Plagiat), Haftungsrecht (Behandlungsfehler) oder Gesellschaftsrecht (Geschäftsmodelle)?
  • Welchen Einfluss haben gKI auf Diversity oder Equity?
  • Ersetzen gKI langfristig bestimmte Berufe (Dermato-, Patho- und Radiolog*innen) oder die Fachzeitschriften (z.B. das JME) oder verleiht gKI einigen Berufen „Superkräfte“?
  • Besteht die Gefahr der Verstärkung der Bildungsungleichheit durch Studierende und Institutionen, die Zugang zu den Tools und die Kompetenzen zur Nutzung haben und denen, die nicht [5]?
  • Wie wird die Authentizität von digitalen Informationen zukünftig sichergestellt und wie wirkt sich das auf unsere Medienkompetenz aus?
  • Wie gestalten wir digitale, universitäre Lern- und Prüfungsprozesse so, dass die Studierenden zum akademischen Experten werden und verschiedene gKI in einer produktiven Art und Weise nutzen?
  • Wie verändert sich Lehre und Lernen, wenn Dozierende die Unterrichtsmaterialien durch gKI erstellen lassen?
  • Welche Konsequenzen hat die Verwendung von gKI auf die Kommunikation mit Kolleg*innen, Patient*innen bzw. auf die Reflexion?
  • Es stellt sich auch die Frage, an welcher Stelle die illegale Nutzung überhaupt beginnt. Die Rechtschreibprüfung von Word und Grammarly® wird ubiquitär genutzt und wird zumeist auch als probates Hilfsmittel anerkannt. Ab wann ist aber eine Paraphrasierung wirklich ein Plagiat? Der „Prompt“ stammt vom Autor und zumeist wird der generierte Text bei Bedarf weiter angepasst.

Drehen wir den Spieß einmal um, denn die KI wird sich im Monitor einbrennen, und dennoch werden die Hochschulen und mithin die Lehre weiter existieren: Ist die Vinylplatte verschwunden, obwohl es erst CD’s und jetzt Streaming gibt? Zumindest gibt es seit 2010 eine erstaunliche Renaissance für Vinylplatten [6]. In Angesicht des Klimawandels und von Ressourcenknappheit werden wir uns aber sehr bald auf rein digitale Formate beschränken, gerade auch weil jeder durch „whatever-to-music“ KI-Konverter professionelle Musik selbst generieren und über soziale Medien teilen wird. Positiv formuliert, könnten gKIs in der Lehre hilfreich sein?

Aktiver Einsatz von gKI im Unterricht: Durch Studierende interaktiv mittels gKI erzeugten Aussagen zu spezifischen, medizinischen Wissenskontexten, können durch diese analysiert werden und helfen, höhere kognitive Funktionen wie „Evaluation und Bewertung“ (nach Bloom [7]) anzutrainieren und dadurch einen guten Überblick zu den Themen zu erhalten. Studierende werden hierbei zu einem Rollenwechsel gezwungen. Sie sind die Autoren der „Prompts“, erhalten Schreib-Unterstützung durch gKI und müssen dann aber als Editoren ihr Fachwissen unter Beweis stellen und die generierten Texte bewerten bzw. möglichst gut korrigieren. Aber: Wie „erklimmen“ die Studierenden die höheren Ebenen nach Bloom, wenn der Wissenserwerb mit einem Bot fundamental anders funktioniert?

Über die Anwendung von gKIs können die Studierenden einüben, die richtigen Fragen zu stellen, eine Kernkompetenz der Evidence Based Medicine. Bei der Entwicklung von Forschungsfragen kann der Chatbot helfen diese zu schärfen und abzugrenzen. Er kann auch unterschiedliche Methoden und Studiendesigns vorschlagen. Hilfreich und effizient ist gKI derzeit beim paraphrasieren von Texten.

In der Medizin ist das Training der Problemlösekompetenz (Clinical Decision Making) eine wichtige Kompetenz. Hierbei spielt das sogenannte Hintergrundwissen wahrscheinlich eine zentrale Rolle. Dieses Hintergrundwissen kann durch die Anwendung von gKI gezielt verbessert werden, in dem gKI die Sichtweisen auf das Problem erweitert („Chatbot PbL“?). Am Ende bekommen wir noch ein paar Differenzialdiagnosen hinzu, an die wir gerade nicht gedacht haben.

gKI wird sich als interaktives Nachschlagewerkt etablieren. Es ist zu erwarten, dass der Einsatz von KI auf den Stationen bei evidenzbasiertem Vorgehen standardisiert erfolgt (GPT-4). Der Umgang mit diesen Werkzeugen wird dann als Teil ärztlicher Kompetenz erwartet werden und muss insofern auch trainiert werden (ersetzt gKI die deutschsprachige Prüfungsvorbereitungssoftware AMBOSS?).

gKI können zur Erstellung von virtuellen Patientenfällen genutzt werden. Dabei kann zum einen die sprachliche Qualität verbessert und zum anderen auch spannendere Fälle generiert werden, beispielsweise mit Hilfe von Storytelling-Elementen.

gKI kann zur Erstellung von Regieanweisungen für Lehrfilme genutzt werden.

gKI kann bei der Durchsetzung kompetenzbasierter Prüfungsformen unterstützen: Alleine der Einsatz der verfügbaren Information zum Wohle der Patient*innen (also die Kompetenz im Umgang mit dem Gegenüber) sollte vermehrt Gegenstand neuer Prüfungsszenarien sein (Workplace-based Assessment, Simulationspersonenprüfungen, mündliche Prüfungen, …).

Es gibt erste Erfahrungen dazu, dass auf Dozierendenseite gKI gut für die Erstellung von MC-Fragen verwendet werden kann: Hier geht es insbesondere um die gezielte Suche nach Distraktoren.

Schlussformel

Das Aufkommen generativer KI-Tools ist ein Umbruch, der von einigen Experten mit der Einführung des Smartphones verglichen wird. In Anbetracht der bemerkenswerten Fortschritte, die in den letzten Monaten zu beobachten sind, sowie derjenigen, die für dieses Jahr erwartet werden, wie die Verbindung von ChatGTP und Bing im Edge-Browser, kann man wohl behaupten, dass die Auswirkungen auf die Menschheit so bedeutend sein werden wie die Verdrängung der Pferde aus den Städten mit der Einführung des Automobils. Im Gegensatz zu Autos, die ein Jahrhundert brauchten, um sich zu den hochentwickelten Maschinen zu entwickeln, die wir heute haben, benötigen generative KI-Tools lediglich das Jahr 2023 für einen Wandel, der schon jetzt sehr einprägsam ist. Diejenigen, die sich darauf einlassen, werden einen klaren Vorteil gegenüber denjenigen haben, die dies nicht tun.

Es braucht eine klare Strategie innerhalb unseres Bildungssystems, um mit der rasanten Entwicklung gKI Werkzeuge Schritt zu halten und diese fortlaufend in unsere Curricula und Lehrpläne zu integrieren. Die Chancen und Risiken von gKI auf unser Lehren und Lernen müssen fortlaufend analysiert werden, sodass didaktische Strategien zeitnah adaptiert werden können. Voraussichtlich laufen wir in den nächsten Monaten und Jahren den Entwicklungen etwas hinterher. Umso wichtiger erscheint die konsequente Durchführung evidenzbasierter Lehrforschung bei allen Integrationen von gKI in unseren Lehrbetrieb:

In diesem Sinne möchten die Autoren des Editorials einladen, das Sommersemester zu nutzen um Erfahrungen mit der generativen KI in Lehre und Lernen an den Hochschulen zu beschäftigen, und diese Gedanken, Vorstudien und Versuche mitzubringen zu einem Bar-camp auf der kommenden Jahrestagung der Gesellschaft für Medizinische Ausbildung in Osnabrück [https://gma2023.de/] als Beitrag einzubringen. Willkommen Industrialisierung 5.0.

Eine Linksammlung zum Thema Generativer KI gibt es unter: [https://padlet.com/danieltolks1/linksammlung-didaktik-und-chatgpt-ausschusss-digitalisierung-ihupnj9wb3y0foz3]

Weitere Artikel in dieser Ausgabe

Neben dem großen Thema der generativen KI gibt es natürlich noch weitere Themen in dieser Ausgabe.

Gisi et al. haben in ihrer Studie die objektiven und subjektiven Auswirkungen pandemiebedingter Änderungen im Studienablauf auf die Wahrnehmung des Praktischen Jahres untersucht [8]. Brütting und KollegInnen haben in ihrer Studie die förderlichen Faktoren für eine ärztliche Tätigkeit in ländlichen Regionen und die Bekanntheit von Landkreisen im Einzugsgebiet der Universitäten näher betrachtet [9]. Hopp et al. haben in einer Interventionsstudie den Einfluss von patientennaher Lehre bei Medizinstudierenden auf die Stigmatisierung von Menschen mit psychischen Erkrankungen untersucht [10]. Kiesewetter und KollegInnen haben in ihrer Studie einen positiven Einfluss bei der Nutzung von Hunden in der Therapie mit Kindern mit rheumatischen Erkrankungen nachweisen können [11]. Kruse et al. stellen die Ergebnisse einer Befragung zu Lernstrategien von Studierenden der Zahnmedizin vor [12]. Mand et al. präsentieren die Durchführung eines mehrstufigen Beobachtertrainings für Medizinstudierende zur Beurteilung simulierter pädiatrischer Notfallsituationen [13]. Jannik Osten und KollegInnen beschäftigen sich mit der Frage, ob Präsenzvorlesungen noch zeitgemäß sind und ob synchrone Online-Lehrveranstaltungen eine Alternative darstellen [14]. Daunert und KollegInnen sind in ihrer Fragebogenerhebung der Frage nachgegangen, was Hausärzt*innen motiviert, Medizinstudierende in ihrer Praxis auszubilden [15]. Dasci et al. haben in einer kontrollierten randomisierten Studie in der Zahnmedizin verschiedene Trainingsformen in der Knoten- und Nahttechnik evaluiert [16]. Der Arbeitskreis Qualitätsmanagement in der Aus-, Fort- und Weiterbildung der Gesellschaft für Qualitätsmanagement in der Gesundheitsversorgung e.V. (GQMG) hat ein Positionspapier zum Thema Qualitätsmanagement im Medizinstudium im Kompetenzbasierten Lernzielkatalog veröffentlicht [17]. Koch et al. beschreiben die Entwicklung eines interaktiven Wahlfachs „Modifizierte Anatomie“ für Studierende im Rahmen des Z-Curriculums nach NKLM 2.0 [18]. Laura Wortmann u.a. stellen die Ergebnisse einer Befragung zum Thema Gendermedizin in der Lehre vor [19].


Interessenkonflikt

Die Autoren erklären, dass sie keinen Interessenkonflikt im Zusammenhang mit diesem Artikel haben.


Literatur

1.
Open AI. Antwort von ChatGPT auf die Frage: “Schreibe ein Editorial zum Gebrauch von Chat GPT in der Medizinischen Lehre.” ChatGPT; [cited 2023 Feb 15]. Zugänglich unter/available from: https://chat.openai.com/ Externer Link
2.
Open AI. Antwort von ChatGPT auf die Frage: “Ist es möglich, dass Studierende bei einer Hochschulprüfung mit Chat GPT betrügen?” ChatGPT; [cited 2023 Feb 15]. Zugänglich unter/available from: https://chat.openai.com/ Externer Link
3.
OpenAI. Antwort von ChatGPT auf die Frage: “Wie arbeitet eine KI wie ChatGPT und welche Konsequenzen ergeben sich daraus?” ChatGPT; [cited 2023 Feb 15]. Zugänglich unter/available from: https://chat.openai.com/ Externer Link
4.
Slowik C, Kaiser F. GPT-4 vs. GPT-3. OpenAI Models‘ Comparison. Neoteric.eu. 2023. Zugänglich unter/available from: https://neoteric.eu/blog/gpt-4-vs-gpt-3-openai-models-comparison/ Externer Link
5.
Kasneci E, Seßler K, Küchemann S, Bannert M, Dementieva D, Fischer F, Gasser U, Groh G, Günnemann S, Hüllermeier E, Krusche S, Kutyniok G, Michaeli T, Nerdel C, Pfeffer J, Poquet O, Sailer M, Schmidt A, Seidel T, Stadler M, Kasneci G. ChatGPT for good? On opportunities and challenges of large language models for education. Lern Individ Diff. 2023;103:102274. DOI: 10.1016/j.lindif.2023.102274 Externer Link
6.
Statista. Absatz von Schallplaten (Vinyl-LPs) in Deutschland in den Jahren 2003 bis 2021. Hamburg: Statista; 2023. Zugänglich unter/available from: https://de.statista.com/statistik/daten/studie/256099/umfrage/absatz-von-schallplatten-in-deutschland-zeitreihe Externer Link
7.
Anderson LW, Krathwohl DR, Airasian PW, Cruikshank KA, Mayer RE, Pintrich PR, Raths J, Wittrock MC. A Taxonomy for Learning, Teaching, and Assessing: Pearson New International Edition: A Revision of Bloom’s Taxonomy of Educational Objectives. Harlow: Pearson Education Limited; 2013. p.336.
8.
Gisi M, Ferrari V, Dubon F, Fischer MR, Angstwurm M, Berndt M. Objective and subjective consequences of pandemic-related study program changes for the perceptions of the practical year – A comparison of medical students in Germany with and without the second state examination. GMS J Med Educ. 2023;40(4):Doc53. DOI: 10.3205/zma001035 Externer Link
9.
Brütting C, Hergert S, Bauch -F, Nafziger M, Klingenberg A, Deutsch T, Frese T. Factors promoting willingness to practice medicine in rural regions and awareness of rural regions in the university’s catchment area – cross-sectional survey among medical students in Central Germany. GMS J Med Educ. 2023;40(4):Doc52. DOI: 10.3205/zma001634 Externer Link
10.
Hopp A, Dechering S, Wilm S, Pressentin M, Müller T, Richter P, Schäfer R, Franz M, Karger F. The influence of patient-centered teaching on medical students’ stigmatization of the mentally ill. GMS J Med Educ. 2023;40(4):Doc46. DOI: 10.3205/zma001628 Externer Link
11.
Kiesewetter J, Herbach N, Landes I, Mayer J, Elgner V, Orle K, Grunow A, Langkau R, Gratzer C, Jansson AF. Dog assisted education in children with rheumatic diseases and adolescents with chronic pain in Germany. GMS J Med Educ. 2023;40(4):Doc44. DOI: 10.3205/zma001626 Externer Link
12.
Kruse AB, Isailov-Schöchlin M, Giesler M, Ratka-Krüger P. Which digital learning strategies do undergraduate dentistry students favor? A questionnaire survey at a German university. GMS J Med Educ. 2023;40(4):Doc49. DOI: 10.3205/zma001631 Externer Link
13.
Mand N, Stibane T, Sitter H, Maier RF, Leonhardt A. Successful implementation of a rater training program for medical students to evaluate simulated pediatric emergencies. GMS J Med Educ. 2023;40(4):Doc47. DOI: 10.3205/zma001629 Externer Link
14.
Osten J. Behrens V, Behrens S, Herrler A, Clarner T. Are live lectures a discontinued model? A survey on the influence of synchronous online lecturing on the perception of teaching and assessment outcome. GMS J Med Educ. 2023;40(4):Doc50. DOI: 10.3205/zma001632 Externer Link
15.
Daunert L, Schulz S, Lehmann T, Bleidorn J, Petruschke I. What motivates GPs to train medical students in their own practice? A questionnaire survey on the motivation of medical practices to train students as an approach to acquire training practices. GMS J Med Educ. 2023;40(4):Doc51. DOI: 10.3205/zma001633 Externer Link
16.
Dasci S, Schrem H, Oldhafer F, Beetz O, Kleine-Döpke D, Vondran F, Beneke J, Sarisin A, Ramackers W. Learning surgical knot tying and suturing technique – effects of different forms of training in a controlled randomized trial with dental students. GMS J Med Educ. 2023;40(4):Doc48. DOI: 10.3205/zma001630 Externer Link
17.
Vogeser M, Börchers K, James J, Koch J, Kurscheid-Reich D, Kuske S, Pietsch B, Zillich S. Competence-based catalog of learning objectives for the subject area of quality management in medical studies – position paper of the working group Quality Management in Education, Training and Continuing Education of the Society for Quality Management in Health Care (GQMG). GMS J Med Educ. 2023;40(4):Doc42. DOI: 10.3205/zma001624 Externer Link
18.
Koch K, Hirt B, Shiozawa-Bayer T, Königsrainer A, Fusso S, Wichmann D. Development of an interactive elective “altered anatomy” for students as part of the Z-curriculum according to the NKLM 2.0. GMS J Med Educ. 2023;40(4):Doc43. DOI: 10.3205/zma001625 Externer Link
19.
Wortmann L, Haarmann L, Yeboah A, Kalbe E. Gender medicine teaching increases medical students’ gender awareness: results of a quantitative survey. GMS J Med Educ. 2023;40(4):Doc45. DOI: 10.3205/zma001627 Externer Link