Artikel
Large Language Models und Prüfungen
Suche in Medline nach
Autoren
Veröffentlicht: | 30. Juli 2024 |
---|
Gliederung
Text
Fragestellung: Die hohe Leistungsfähigkeit von großen Sprachmodellen (LLM) in Prüfungskontexten hat eine intensive Debatte über ihre Anwendungen, Auswirkungen und Risiken ausgelöst. Welche rechtlichen Aspekte sind beim Einsatz von LLM in Lehre und Prüfungen zu berücksichtigen?
Methoden: Für die rechtliche Bewertung des Einsatzes von LLMs durch Prüfungskandidat*innen und Hochschulen wurden die folgenden Satzungen und Gesetze betrachtet:
- Universitäre Satzungen, Hochschulgesetze der Länder, Ärztliche Approbationsordnung
- Gesetz über Urheberrecht (UrhG)
- Europäische Datenschutzgrundverordnung (DSGVO)
- Europäische Verordnung zu Künstlicher Intelligenz (EU-KI)
Ergebnisse: Für Prüfungskandidat*innen: Täuschungen und Plagiate verstoßen gegen wissenschaftliche Praxis und das Urheberrecht. Der Nachweis von Täuschungen durch KI-Modelle ist eingeschränkt, aktuell erkennt Plagiatserkennungssoftware KI-generierte Texte nicht. Urheberrechtsverletzungen durch KI sind möglich, aber schwer nachzuweisen. Die Gefahr von Täuschung durch LLMs wird in überwachten Prüfungen reduziert (Präsenzprüfung, Proctoring, sichere Browser). Mündliche und performanceorientierte Prüfungen begrenzen LLM-Nutzung. LLMs sind potenziell problematisch bei unbeaufsichtigten schriftlichen Prüfungen wie Hausarbeiten.
LLMs sind effektive Tools für Prüfungsfragen an Hochschulen. Dennoch erfordert ihre Nutzung sorgfältigen Review, da selbst qualitativ hochwertige Produkte Fehler enthalten können. Das Risiko von Urheberrechtsverletzungen bei KI-generierten Prüfungsaufgaben ist gering, da das Urheberrecht den Einsatz geschützter Werke für Lehre und Prüfungen bis zu 15% erlaubt.
Die Bewertung von Prüfungsinhalten unterliegt Hochschulgesetzen und -ordnungen. Ein Sprachmodell kann unterstützend verwendet werden. Eine ausschließlich computergestützte Bewertung ohne menschliche Überprüfung ist auch unter DSGVO nicht zulässig. Zukünftig findet bei KI-Einsatz die EU-KI Anwendung, besonders für Hochrisiko-Anwendungen in der beruflichen Lehre.
Diskussion: LLMs bieten Chancen und Herausforderungen. Ein generelles KI-Verbot scheint wenig sinnvoll und schwer umsetzbar.
Universitäre Rahmenbedingungen sollten definieren, unter welchen Bedingungen oder für welche Zwecke der Einsatz von KI/LLMs legitim und freigegeben werden kann und in welchen Bereichen die Nutzung untersagt ist.
Prüfungen könnten die Betonung von Eigenarbeit und kritischem Umgang mit Quellen beinhalten. Während der direkte Nachweis von KI Einsatz für die Texterstellung schwierig ist, ist die Überprüfung von Quellen vielversprechend, da LLMs Schwächen bei der Belegung von Inhalten mit Quellen aufzeigen.
Die Motivation zum Täuschen kann durch Anpassungen von Prüfungsanforderungen erfolgen. Authentische Prüfungen und die gezielte Nutzung von LLMs zur Aufgabenlösung mit kritischer Auseinandersetzung der KI-generierten Inhalte können unterstützen. Lehrende sollten LLMs als Ergänzung betrachten und sich kontinuierlich in KI weiterbilden.