gms | German Medical Science

GMS Medizinische Informatik, Biometrie und Epidemiologie

Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e.V. (GMDS)

ISSN 1860-9171

Elektronische Testverfahren als Bestandteil von Qualitätsmanagement und Dynamisierungsprozessen in der medizinischen Ausbildung

Computerized testing methods as a key element of quality management and progress in medical education

Originalarbeit

  • corresponding author Jörn Krückeberg - Peter L. Reichertz Institut für Medizinische Informatik der Technischen Universität Braunschweig und der Medizinischen Hochschule Hannover, Hannover, Deutschland
  • author Volker Paulmann - Referat Studium und Lehre, Medizinische Hochschule Hannover, Hannover, Deutschland
  • author Volkhard Fischer - Referat Studium und Lehre, Medizinische Hochschule Hannover, Hannover, Deutschland
  • author Hermann Haller - Abteilung Nephrologie, Medizinische Hochschule Hannover, Hannover, Deutschland
  • author Herbert K. Matthies - Peter L. Reichertz Institut für Medizinische Informatik der Technischen Universität Braunschweig und der Medizinischen Hochschule Hannover, Hannover, Deutschland

GMS Med Inform Biom Epidemiol 2008;4(2):Doc08

Die elektronische Version dieses Artikels ist vollständig und ist verfügbar unter: http://www.egms.de/de/journals/mibe/2008-4/mibe000067.shtml

Veröffentlicht: 23. Oktober 2008

© 2008 Krückeberg et al.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.de). Er darf vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden.


Zusammenfassung

Elektronische Prüfungen haben mittlerweile im Zuge des Bologna-Prozesses an vielen Hochschulen Einzug in den Studienalltag gehalten. Der Beitrag resümiert die bisherigen Erfahrungen mit computergestützten Prüfungen an der Medizinischen Hochschule Hannover (MHH). Es geht einerseits um die angemessene technische Umsetzung, andererseits um die Frage, welchen Nutzen dieses Instrument für einen systematischen Verbesserungsprozess im Bereich von Lehre und Studium besitzt. Dabei hat sich in verschiedenen Bereichen die Effizienz des eingesetzten elektronischen Prüfungssystems gezeigt. Sowohl hinsichtlich des Prüfungsablaufs als auch der Erstellung und Auswertung der Klausur lassen sich die Funktionalitäten in einen nachhaltigen Qualitätsregelkreis einbinden.

Schlüsselwörter: elektronische Prüfungen, eLearning, Evaluation, Data-Warehousing, Qualitätsmanagement

Abstract

Computerized testing methods have become an integral part of everyday university life. The article reflects the introduction of an electronic testing system at Hannover Medical School (MHH). On the one hand, this includes the key elements of the specific technical solution. On the other hand, we emphasize the impact on quality assurance in higher education. Thus, the efficiency of the system can be demonstrated with regard to various aspects. In terms of the coordination of the exams, its construction and analysis the system facilitates the sustainable process of quality management.


Einleitung

Die Wandlungsprozesse an bundesdeutschen Hochschulen werden durch ambivalente Erscheinungen geprägt, die einerseits den Gesamtrahmen der Bildungsdebatte abstecken, zum anderen aber auch als konkrete Auseinandersetzungen den Universitätsalltag beeinflussen: Rufen die einen nach rascher Erneuerung der Universitäten im Zeitalter globaler Konkurrenz, kritisieren die anderen das Prinzip des Wettbewerbs im Schul- bzw. Hochschulwesen. Das Streben nach größerer Autonomie wird durch neue Planungsmechanismen eingehegt. Dem Anspruch auf Internationalität des Studiums steht zuweilen – einem Kerngedanken des Bologna-Prozesses zuwiderlaufend – ein neues, verschultes Studium gegenüber, das akademische, grenzüberschreitende Entfaltung schwierig gestaltet. Auch im Bereich des eLearning, das als ein Zeichen ausgeprägter Innovation gilt, sind bisweilen erhebliche Lücken zwischen wünschenswerten technischen Neuerungen und der Güte und Tragfähigkeit der Umsetzungsmaßnahmen festzustellen. Die wissenschaftliche Auswertung der verschiedenen, kaum noch überschaubaren Angebote und Konzepte im Bereich des eLearning gestaltet sich schwierig, nicht zuletzt, weil verbindliche Beurteilungsgrundlagen fehlen [1]. Doch gerade in dieser Hinsicht sind Anstrengungen unabdingbar, wollen die Hochschulen mit den politischen Maßgaben Schritt halten [2], [3] und eigene Vorstellungen umsetzen.


Methode

Um die Akzeptanz von einzelnen elektronischen Lehrmethoden bei den Nutzergruppen zu verbessern, hat sich die Darstellung von Best-Practice-Beispielen bewährt [4]. Diesem Vorbild folgend, behandelt der folgende Beitrag elektronische Prüfungen an der Medizinischen Hochschule Hannover (MHH) als Baustein einer elektronisch unterstützten Lernumgebung [5], [6]. Den Hintergrund dieser Darstellung bildet der neu konzipierte Modellstudiengang der Medizin mit seinen spezifischen Herausforderungen. Dabei geht es im Folgenden nicht allein um die technische Seite der Durchführung von elektronischen Prüfungen, sondern insbesondere um die Frage, wie sich die Einführung in ein von politischer Seite gefordertes Qualitätsmanagement einbinden lässt. So wird in einem Beschluss der Kultusministerkonferenz aus dem Jahr 2006 konstatiert: „Mit dem Übergang von staatlicher Steuerung zu Autonomie, Wettbewerb und damit Vielfalt gewinnen Instrumentarien der Qualitätssicherung als logische Kehrseite dieser Entwicklung an Bedeutung. [...] Das Qualitätsmanagement ist somit nicht nur Folge von Zielorientierung und Effizienzbemühungen der Hochschule selbst, sondern auch Ausdruck des veränderten Verhältnisses von Staat und Hochschule.“ [3]

Aspekte der Planungssicherheit und Nachhaltigkeit bei der Einführung von eLearning-Konzepten werden somit zu wichtigen Kriterien bei der Gestaltung der Hochschulautonomie. Begleitet wurde die Einführung von ePrüfungen an der MHH durch verschiedene Evaluationen, die hier ebenfalls herangezogen werden.


Medizinstudium in Hannover mit HannibaL

Für die medizinische Ausbildung in Deutschland ist im Unterschied zu vielen anderen Studiengängen (und der Schweiz) bislang noch kein konsekutives Studienmodell eingerichtet worden. Dennoch sind auch die medizinischen Fakultäten im Zuge der 9. Novelle der Approbationsordnung (ÄAppO) 2002 zu zahlreichen Neuerungen angehalten worden, die auch die Prüfungspraxis betreffen. An einigen Standorten wurde versucht, im Rahmen von Modellstudiengängen neue Konzepte zu etablieren. Auch an der MHH wurde im Studienjahr 2005/06 unter der Bezeichnung HannibaL (Hannoverscher integrierter berufsorientierter adaptiver Lehrplan) ein reformiertes Medizinstudium eingeführt. Kennzeichen des modularisierten Curriculum ist eine in allen Ausbildungsabschnitten auf den Patienten und seine Erkrankung ausgerichtete Lehr- und Lernpraxis. Für den hier diskutierten Zusammenhang ist entscheidend, dass das traditionelle „Physikum“ (heute: 1. Abschnitt der Ärztlichen Prüfung) nach dem 2. Studienjahr an der Medizinischen Hochschule nicht mehr stattfindet. An seine Stelle ist eine kontinuierliche Leistungskontrolle getreten, die im Anschluss an jedes der Module (Fächer und Querschnittsbereiche) stattfindet. Insgesamt muss im Studiengang Medizin nach derzeitigem Stand jeder Studierende 60 modulbezogene Prüfungen bzw. Teilprüfungen durchlaufen. Innerhalb der Module finden wiederum Testate statt, die den Zugang zu den abschließenden Prüfungen reglementieren. Dieses Prinzip gilt auch in den folgenden Studienjahren bis zum zweiten Abschnitt der Ärztlichen Prüfung. Das Studienjahr wurde an der MHH zudem in drei Abschnitte gegliedert, so genannte Tertiale, durch die ein Jahrgang von Studierenden (im Modellstudiengang rund 270 Studierende) nach dem 2. Studienjahr in drei gleich großen Kohorten rotiert. Die auf diesem Wege erreichte Verkleinerung der Studiengruppen auf ca. 90 Teilnehmer erhöht aber zugleich die Anzahl an Leistungskontrollen erheblich. Die Zahl der jährlich durchgeführten Prüfungen beläuft sich auf ca. 150. Rund 75% der Prüfungen finden in schriftlicher (papierbasierter oder elektronischer) Form statt, wobei das Handlungs- und Faktenwissen – wie im Medizinstudium üblich – meist im Wahlantwortverfahren getestet wird. Daneben existieren in einzelnen Modulen mündliche und praktische Testverfahren, bzw. werden kombinierte Methoden durchgeführt.


Die Einführung eines ePrüfungssystems an der MHH: von der Aufgabenstellung zu Public-Private-Partnership

Sowohl in der Konzeptionsphase als auch aktuell im Routinebetrieb mussten und müssen die Anforderungen an ein adäquates Prüfungssystem verschiedenen Ansprüchen von Studierenden, Dozenten und Dozentinnen sowie den planenden Angestellten im Studiendekanat gerecht werden. Unter gegebenen räumlichen und finanziellen Begrenzungen musste zudem die Gewährleistung von Datensicherheit, die Verifizierbarkeit von Prüfungsdaten sowie Usability-Aspekte von Hard- und Software in die Formulierung der technischen Anforderungen einbezogen werden. Das Peter L. Reichertz Institut für Medizinische Informatik der MHH initiierte hierzu früh einen hochschulinternen Expertenkreis, um verschiedene Alternativen zu sichten und spezielle Anforderungen an medizinische Prüfungen zu identifizieren. Formale Voraussetzungen zur Durchführung von elektronischen Prüfungen an der MHH stellten sich z.B. in der obligaten Identitätskontrolle von Prüfungsteilnehmern, wodurch eine reine, ortsungebunde Online-Variante der Prüfungen ausgeschlossen wurde. Die räumlichen Bedingungen der MHH lassen dagegen einen dauerhaft eingerichteten Rechnerpool für die Nutzung von über 300 Studierenden in einem engen Zeitfenster nicht zu. Eine zu starke Aufteilung der Gesamtmenge in kleinere Prüfungsgruppen verursacht wiederum erhöhten Zeit- und Personalaufwand. Aus diesen Gründen fiel die Entscheidung, einen externen Anbieter mit der Durchführung der elektronischen Prüfungen zu betreuen, der mit einer Lösung in Form eines mobilen Prüfungssystems gute Voraussetzungen einbringen konnte. Im Sinne eines Public-Private-Partnership-Modells wurde mit der Fa. Codiplan die Dienstleistung ePrüfungen für die MHH verhandelt und vereinbart. Das Codiplan-System „Q-Exam“ arbeitet über ein WLAN mit drei Access-Points für (raumbedingt) max. 165 Windows-basierte Tablet-PCs mit Eingabestift und einem mobilen Terminalserver. Der entscheidende Vorteil der Nutzung von Tablet-PCs liegt dabei in der flexiblen Einsatzfähigkeit in verschiedenen Räumlichkeiten der Hochschule. Größere Teilnehmergruppen werden in zwei Kohorten geteilt, wodurch in zwei aufeinander folgenden Durchläufen bis zu 320 Studierende geprüft werden können.

Die mit Hilfe der Prüfungssoftware erfassten Antworten werden an den Prüfungsserver per Funk (WLAN) übertragen und dort zentral gespeichert und ausgewertet. Von der Möglichkeit der sofortigen Ergebnisrückmeldung (nach Ablauf der Zeitvorgabe) wird zumeist Gebrauch gemacht, eine Option, die die Akzeptanz der elektronischen Prüfungen in der Umstellungsphase deutlich förderte. Nach dem Stufenmodell von Steinberg [7] können die ePrüfungen in der MHH damit der Stufe 3 „Sicherer Online Modus (Closed Web)“ zugeordnet werden. Kennzeichnend für diese Stufe sind die clientseitige Sicherheit, die automatische Auswertung und die beaufsichtigte Durchführung der ePrüfungen.

Die Entscheidung der an der Lehre beteiligten Abteilungen und Kliniken für die Umstellung auf die elektronische Prüfungsform erfolgt freiwillig. Nach anfänglichen marginalen Schwierigkeiten (z.T. technischen aber auch organisatorischen Ursprungs) in der Durchführung von ePrüfungen, war binnen kurzer Zeit ein starker Anstieg der Anzahl an ePrüfungen zu verzeichnen. Die Progression der Anzahl an elektronisch durchgeführten Prüfungen sowie die zunehmenden Teilnehmerzahlen werden in Abbildung 1 [Abb. 1] und Abbildung 2 [Abb. 2] dargestellt. Diese Übersicht enthält auch Testate (veranstaltungsbegleitende Leistungskontrollen, die über den Zugang zur Prüfung entscheiden) und Wiederholungsprüfungen.


Begleitende Evaluationen: Legitimation und Verbesserungspotentiale

Der Einführungsprozess von ePrüfungen wurde an der MHH durch Evaluationen aus studentischer Perspektive mit Hilfe eines teilstandardisierten Fragebogens begleitet. Die Zielgruppe der durchgeführten Befragungen bildeten sowohl Studierende aus dem ersten Jahr des Modellstudiengangs [8] als auch höhere Semester. Während erstere kaum Erfahrungen mit herkömmlichen schriftlichen Prüfungen gesammelt haben, konnten letztere dabei vor dem Hintergrund der Umstellung auf das elektronische Verfahren stärker vergleichend bewerten [9]. Deutlich wurden diese unterschiedlichen Perspektiven bei der Frage: „Hatten Sie vor Ihrer ersten elektronisch durchgeführten Prüfung Vorbehalte gegen diese Form der Prüfung?“. Hier lassen sich signifikante Unterschiede im Antwortverhalten feststellen. So gaben 47,6% der Befragten aus dem 5. Studienjahr an, Vorbehalte gehabt zu haben; bei den Erstsemestern umfasste diese Gruppe nur 16.6%. Die Einschätzung der eigenen Computerkompetenz liefert für dieses Ergebnis keine ausreichenden Hinweise; sie unterscheidet sich bei den Angehörigen der unterschiedlichen Studienjahre nicht wesentlich. So beurteilten im 1. Studienjahr 51,8% ihre Kenntnisse mit „hoch/sehr hoch“ gegenüber 47,6% des 5. Studienjahres; mit „mittel“ 35,8 gegenüber 25,6% und mit „gering/eher gering“ 19% gegenüber 10,4%.

In der folgenden Fragestellung wird deutlich, dass eine sorgfältige Informationspolitik eine wichtige Voraussetzung darstellt. 47,6% der Studierenden aus dem 5. Studienjahr gaben bei der Aussage: „Ich bin ausreichend über die Gründe der Einführung elektronischer Prüfung informiert worden“ den Antwortwert „trifft überhaupt nicht zu“ an. Dies entspricht dem Wert der allgemeinen Vorbehalte gegen ePrüfungen bei diesem Studienjahrgang. Insgesamt fühlten sich 76,1% der Teilnehmer nicht ausreichend informiert. Bei Studierenden des Modellstudiengangs lag dieser Anteil mit 54,4% immer noch sehr hoch, jedoch gaben nur 14% „trifft überhaupt nicht zu“ an. Als gut können dagegen bei beiden Gruppen die Akzeptanzwerte hinsichtlich der Zuverlässigkeit des Prüfungssystems und das Vertrauen in die korrekte Speicherung und Auswertung der Klausurantworten eingestuft werden.

Die in den Evaluationen erfassten Aussagen und deren Vergleich vermitteln ein deutliches Bild, worin Studierende die Vor- und Nachteile der elektronischen Tests sehen. Beinahe alle betrachten die schnelle Rückmeldung der Klausurergebnisse als Gewinn. Positiv werden auch die Übersichtlichkeit der Aufgabengestaltung und die grafische Unterstützung des Bearbeitungsfortschritts gesehen. Somit konnten die in Freitextform gemachten Angaben der Studierenden dienliche Hinweise zur Verbesserung des Systems liefern und diese in den weiteren Entwicklungsprozess des ePrüfungssystems einbezogen werden.

Neben der Legitimation durch die studentischen Teilnehmer steht die Überprüfung personeller, zeitlicher und finanzieller Ressourcen bei der Implementierung von neuen Prüfungsverfahren zur Debatte. Bei einem 2007 vorgenommenen Modell-Vergleich von drei unterschiedlichen Konstruktions- und Auswertungsmethoden schriftlicher Prüfungen wurden einige Vorteile des hannoverschen ePrüfungssystems offenbar [10]. Neben dem System der Fa. Codiplan wurde die papierbasierte Klausurform untersucht. Letztere wiederum unterschieden nach der „traditionellen“, von Hand auszuwertenden und der mit Hilfe von Software erstellten, im Anschluss einscanbaren Form. Hinsichtlich der Zeitersparnis der Klausurentwicklung (Fragensammlung und Layout) ergeben sich nur geringfügige Unterschiede (vgl. Tabelle 1 [Tab. 1]).

Die Leistungsfähigkeit elektronischer Prüfsysteme erweist sich aber spätestens, wenn es an die Auswertung geht. Die Zeitersparnis und damit auch die anderweitig nutzbaren personellen Kapazitäten wiegen die relativ hohen Kosten auf (vgl. Tabelle 2 [Tab. 2]). Die steigende Zahl der ePrüfungen (vgl. Abbildung 1 [Abb. 1]) liegt insbesondere hierin begründet. Da für die einzelnen Abteilungen mit dem Wechsel zu elektronischen Testformaten keine direkten Investitionskosten verbunden sind, fällt die Wahl zugunsten der eingesparten Zeit bei der Klausurkorrektur leicht.

Zudem lassen sich mit der ePrüfung die typischen Korrekturfehler bei der manuellen Auswertung abstellen. Allerdings ist Sorgfalt geboten, um neue Fehlerquellen zu vermeiden, die mit der Entwicklung der Technik entstehen können. Durch die Randomisierung können entworfene Antwortreihenfolgen nicht mehr korrekt sein (z.B.: richtig ist A, C, F – obwohl diese Optionen in den Ansichten der Displays vertauscht sind). Auffällig ist, dass die Studierenden bezüglich korrekter Auswertung der Prüfungsergebnisse dennoch größeres Vertrauen in das elektronische System als in die manuelle Auswertung legen. Offensichtlich werden menschliche Fehler bzw. ein Bias des Prüfers als wahrscheinlicher angenommen, als eine fehlerhafte Datenverarbeitung [8]. Insofern trägt die elektronische Klausur zu einem wesentlichen Faktor studentischer Zufriedenheit bei: der Wahrnehmung von Prüfungsgerechtigkeit.


Ein Qualitätsregelkreis für ePrüfungen: Möglichkeiten und Grenzen der Planbarkeit

Die Einführung neuer Technologien lässt sich nicht bis ins letzte Detail vorausplanen. Im Zuge des Einführungs- und Nutzungsprozesses offenbaren sich mitunter unvorhergesehene Probleme. Allerdings ist auch das Gegenteil der Fall: Die Anwendung im Alltag bringt neuen Input durch die unterschiedlichen Nutzergruppen, dessen Umsetzung die Akzeptanz des Tools maßgeblich beeinflusst. Im Falle des ePrüfungssystems an der MHH wurden auf Forderungen der Studierenden hin weitere Funktionalitäten entwickelt: herrscht Unsicherheit in Bezug auf die Lösung bestimmte Klausurfragen vor, können diese Fragen markiert werden. Ebenso können im Fall von MC-Fragen sicher ausgeschlossene Optionen farblich rot hervorgehoben werden (vgl. Abbildung 3 [Abb. 3]).

Für den Ablauf der elektronischen Prüfungen hat sich unterdessen der in Abbildung 4 [Abb. 4] dargestellte Regelkreislauf bewährt. An verschiedenen Stellen sind hier Überprüfungen zur Sicherstellung der Qualität implementiert. Diese beziehen sich einerseits auf den reibungslosen organisatorischen Ablauf als auch die Klausurenerstellung- und Auswertung. Dem Studiendekanat obliegt die zentrale Eingabe aller relevanten Daten. Neben der Terminplanung betrifft dies in erster Linie die Listung der zur Prüfungsteilnahme berechtigten Studierenden. Zu diesem Zweck sind die Namen und Matrikelnummern hinterlegt. Zudem wird mittels einer in Q-Exam integrierten Erinnerungsfunktion die Fertigstellung der Klausur durch den Dozenten abgesichert (vgl. Abbildung 5 [Abb. 5]). Durch diese zentrale Funktion wird eine Entlastung der Angestellten des Studiendekanats erreicht und der Vorgang der Klausurenerstellung automatisiert und damit kontrollierbar gemacht.

Die Modifikation von Prüfungsfragen, wie auch die Zusammenstellung von Fragen für eine Klausur, kann vom Dozenten oder einem Beauftragten online direkt auf dem Prüfungsserver vorgenommen werden. Für jedes Fach gibt es einen Lehrverantwortlichen, der die endgültige Freigabe der Klausur übernimmt. Die Eingabe der Fragen kann hingegen auch ein vom Lehrverantwortlichen benannter Stellvertreter übernehmen. Als hilfreich bei der Auswertung hat sich die automatisierte vereinfachte Itemanalyse der einzelnen Prüfungsfragen mit anschließender Klassifizierung in der Datenbank erwiesen. Für jede Frage wird eine Verteilung der Antwortergebnisse erstellt: einerseits die der gesamten Gruppe, andererseits werden gesondert die Resultate der oberen 20% und der unteren 20% der Prüfungskohorte ausgegeben. Die inhaltlich für die Prüfung verantwortlichen Dozenten erhalten hierdurch Hinweise auf den Schwierigkeitsgrad der Klausur. Sämtliche Fragen werden in einem Pool (Fragendatenbank) gespeichert und können hieraus für zukünftige Klausuren (ggf. modifiziert) wieder verwendet werden. In der Fragendatenbank werden die hinterlegten Fragen – entsprechend dem Prozentsatz ihrer richtigen Beantwortung in der Klausur – mit Farbsymbolen versehen, die den Schwierigkeitsgrad anzeigen. Allerdings ist hierbei zu bemerken, dass es mittlerweile auch Anstrengungen von studentischer Seite gibt, dieses Instrument zu nutzen. Denn genau genommen kann diese Art der Fragenauswertung nicht nur den Schwierigkeitsgrad der Frage darstellen, sondern auch ein Indikator für einen mangelnden Zusammenhang von Lehrstoff und Klausurinhalten sein. Hinsichtlich der Nutzung der Fragendatenbank sind noch längst nicht alle Möglichkeiten ausgeschöpft. Es zeichnet sich aber ab, dass hier zusätzliche Potentiale für die Zeitersparnis bei der Klausurenerstellung liegen, so dass sich insbesondere bei mittel- und langfristiger Nutzung die Einführung eines ePrüfungssystems rentiert.

Auch für die Lehrveranstaltungsevaluation bieten elektronische Prüfungssysteme neue Perspektiven. So werden an der MHH im Anschluss an die Klausur den Teilnehmern und Teilnehmerinnen standardisierte Fragebögen auf den Bildschirm gegeben. Die Anonymität ist gewährleistet, da die Daten separat gespeichert werden. Ebenso wie die Klausurresultate werden die Evaluationen den Dozenten im Anschluss als Ergebnisdateien zur Verfügung gestellt. Auch die Studierenden erhalten über die elektronische Lernplattform ILIAS Zugriff auf die Lehrveranstaltungsevaluation. Annahmen, dass sich das Prüfungsszenario nachteilig auf die Evaluation auswirken könnte, lassen sich nicht bestätigen. Vergleiche mit Kontrolldaten parallel erhobener Evaluationen zeigen keine Verzerrungseffekte.

Sowohl die Weiterentwicklung der Fragendatenbank, als auch die Nutzung der Prüfungshardware für die studentische Evaluation sind zusätzliche Effekte der Einführung von ePrüfungen gewesen. Sie spiegeln ein dynamisches Element im Prozess der Implementierung neuer Technologien wieder, welches bei der Einführung nicht geplant war. Durch die organisatorische Vernetzung von Studiendekanat (Prüfung), Referat für Studium und Lehre (Evaluation) sowie Medizinische Informatik (eLearning) konnten diese Funktionalitäten aber für die Qualitätssicherung genutzt werden.


Diskussion

Für die Etablierung elektronischer Leistungskontrollen hat sich das Konzept einer dezentralen Nutzerstruktur bei zentraler Administration bewährt. In seinem Grundprinzip entspricht es der Aufgabenverteilung, die für eine zeitgemäße Hochschulstruktur und effizientes Schnittstellenmanagement steht. Der Prozess der Einführung wurde sorgsam initiiert, unter Einbindung der maßgeblichen Kompetenzträger. Die Verankerung zielte darauf ab, eine möglichst breite Streuung der Nutzer und damit die Stärkung des Know-How in den einzelnen Abteilungen zu erreichen. Die Kontrolle, Pflege und Verbesserung des Systems wird hingegen zentral vom Studiendekanat gesteuert, wozu die begleitende Forschung durch das Referat Studium und Lehre und die Abteilung der Medizinischen Informatik sowie die Kommunikation mit der Fa. Codiplan als Dienstleister gehören.

Nachdem die ePrüfungen in ihrer Funktionalität akzeptiert sind, wird ein weiterer Schwerpunkt vor allem auf der Weiterentwicklung der Fragenformate liegen. Bislang bildeten, wie eingangs erwähnt, Wahlantwortverfahren (Single-Choice oder Multiple-Choice-Fragen) den Kern der elektronischen Prüfungen. Auch die Integration von Rechentools ist möglich. Die Option, diagnostische Verfahren anhand hochauflösender Bilder einzuüben und medizinische Fallbeispiele in die Prüfungssoftware zu integrieren, wird derzeit erprobt. So kann die Auswertung von Röntgen-, MRT-, oder CT-Bildern in die Klausur integriert werden, indem die Studierenden beispielsweise pathologische Veränderungen am Bildschirm markieren müssen. Zudem werden Freitextelemente zukünftig eine größere Rolle spielen. Da in diesen Fällen automatisierte Klausurauswertungen nur bedingt möglich sind (z.B. bei Lückentexten), werden hier neue Untersuchungen des Umsetzungsprozesses notwendig sein. Zumindest im Hinblick auf die Lesbarkeit der Freitextantworten sind ePrüfungssyssteme aber eine Verbesserung gegenüber handschriftlichen Klausuren. Diese neuen Fragetypen stellen aber in jedem Fall eine Weiterentwicklung dar, die noch stärker als bisher die Anforderungen des Modellstudiengangs nach praxisnaher medizinischer Ausbildung umsetzen. Hierbei gilt erst Recht, was auch für die bisherigen ePrüfungen gilt: sie sind kein Selbstzweck, sondern müssen sinnvoll an das Curriculum und die Vermittlung des Lernstoffs angepasst werden.


Fazit

Elektronische Prüfungen stellen bei der Durchführung des erhöhten Prüfungsaufkommens, wie es für den Bologna-Prozess kennzeichnend ist, eine kaum verzichtbare Unterstützung dar. Bei sorgsamer Anlage und Auswertung des ePrüfungkonzeptes lassen sich für alle Beteiligten Vorteile erzielen. Für die Studierenden können mit ePrüfungen Transparenz und kurzfristige Ergebnisrückmeldungen erzielt werden. Aus der Sicht der Lehrenden liegt vor allem der Zeitvorteil auf der Hand. In Zeiten, in denen der Anspruch auf gute Lehre in den Vordergrund rückt, wird die Entlastung von zeitraubenden Routinevorgängen für Hochschullehrer zu einem Qualitätsfaktor. Die differenzierte Rückmeldung des Klausurenerfolges durch die Itemanalyse unterstützt zudem die optimale Verbindung von Lehr- und Prüfungserfolg. Für die Sicherung und Verbesserung der Qualität in Studium und Lehre stellen elektronische Leistungskontrollen somit einen wichtigen Baustein dar.


Anmerkung

Interessenkonflikte

Keine angegeben.


Literatur

1.
Schulmeister R. eLearning. Einsichten und Aussichten. München: Oldenbourg Wissenschaftsverlag; 2006.
2.
Konferenz der Kultusminister. Qualitätssicherung in der Lehre. Beschluss der Kultusministerkonferenz v. 22.09.2005. Verfügbar unter: http://www.kmk.org/doc/beschl/QualitaetssicherungLehre.pdf [aufgerufen am 10.07.2008] Externer Link
3.
Konferenz der Kultusminister. Qualitätssicherung in der Hochschulforschung. Beschluss der Kultusministerkonferenz v. 03.03.2006. Verfügbar unter: http://www.kmk.org/doc/beschl/QualitaetssicherungHochschulforschung.pdf [aufgerufen am 10.07.2008] Externer Link
4.
E-teaching.org Referenzbeispiele [Website im Internet]. Tübingen: Institut für Wissensmedien. Verfügbar unter: http://www.e-teaching.org/referenzbeispiele/ [aufgerufen am 10.07.2008] Externer Link
5.
Matthies HK, Krettek C, Schwestka-Polly R, Krückeberg J, Behrends M, Kupka T. eLearning-Möglichkeiten in der Medizinischen Hochschule Hannover. GMS Med Inform Biom Epidemiol. 2006; 2(3):Doc12. Verfügbar unter: http://www.egms.de/en/journals/mibe/2006-2/mibe000031.shtml Externer Link
6.
Behrends M, Kupka, T, Zajaczek, JEW, Matthies HK. Multimedial gestützte Lernszenarien in der Medizin mit der Lernplattform Schoolbook. In: Matthies HK, et al. eLearning in der Medizin und Zahnmedizin. Proceedings zum 9. Workshop der gmds-AG Computergestützte Lehr- und Lernsysteme in der Medizin, Freiburg. Berlin: Quintessenz Verlag; 2005. S. 25-9.
7.
Steinberg M. Organisatorisches Konzept für Online-Prüfungsverfahren (Online-Assessment). Leibniz Universität Hannover, HELCA-Projekt, 2006. Verfügbar unter: http://www.sra.uni-hannover.de/fileadmin/uploads/Mitarbeiter/Steinberg/Publikationen/AP7_Org_Konzept_screen_v1.pdf [aufgerufen am 11.07.2008] Externer Link
8.
Matthies HK, Krückeberg J, von Jan U. E-Learning und ePrüfungen an der Medizinischen Hochschule Hannover. Forum der Medizin-Dokumentation und Medizin-Informatik mdi. 2007;9(3):100-4.
9.
Paulmann V, Krückeberg J, Matthies HK. Entwicklung und Perspektiven von elektronischen Prüfungen an der Medizinischen Hochschule Hannover. In: Krüger M, von Holdt U, Hrsg. Neue Medien in Vorlesungen, Seminaren & Projekten an der Leibniz Universität Hannover. Tagungsband zur eTeaching und eScience-Tagung 2007. Aachen: Shaker Verlag; 2007. S. 60-9.
10.
Fischer V, et al. A comparison of the assets and drawbacks of three different written assessment types. Posterbeitrag. In: Jahrestagung Association for Medical Education in Europe (AMEE) Trondheim, 25.-29.08.2007. Verfügbar unter: http://www.amee.org/documents/AMEE%202007%20Abstract%20Book.pdf [aufgerufen am 31.07.2008] Externer Link