
Digitale Prüfungen evaluieren
Zur Optimierung der im Projekt ii.oo entwickelten, digitalen kompetenzorientierten Prüfungskonzepte (Good Practices) war es erforderlich, die Rückmeldungen der Studierenden zu den Prüfungen einzuholen, um Verbesserungspotentiale zu identifizieren und Studierenden faire und praxisnahe Prüfungsformate zu ermöglichen. Da es zum Start des Projekts 2021 noch keine Evaluationsinstrumente für digitale Prüfungen gab, weil das Thema durch Corona erst breit in die Hochschulen integriert wurde, ist ein eigenes Evaluationskonzept sowie ein Fragebogen entwickelt worden, der an verschiedenen Hochschulen und in verschiedenen Fachbereichen eingesetzt werden konnte.
Kategorien
Beschreibung
Herausforderung
Die im Projekt entwickelten digitalen Prüfungskonzepte sollten besonders im Hinblick auf Kompetenzorientierung, Didaktik, Prüfungsvorbereitung, Einsatz des Prüfungssystems, Akzeptanz und Fairness weiterentwickelt werden. Um Verbesserungspotentiale zu identifizieren, fehlte bisher jedoch die unmittelbare Nutzerperspektive der Studierenden.
Herangehensweise
Die Evaluation bietet eine direkte Nutzerperspektive, indem sie Einblicke in die unmittelbaren Erfahrungen der Studierenden mit der Prüfung – sowohl inhaltlich als auch technisch – gibt, was ohne Evaluation für Lehrende und Verwaltung schwer zugänglich wäre. Durch Rückmeldungen wird geklärt, ob Prüfungen fair, verständlich und stabil sind. Probleme wie technische Schwierigkeiten oder unklare Aufgaben können frühzeitig identifiziert und zukünftig behoben werden. Zudem fördert Feedback die prüfungsdidaktische Weiterentwicklung, indem es Hinweise liefert, ob Prüfungsformate kompetenzorientiert und lernförderlich sind. Schließlich stärkt die Berücksichtigung der Studierendenperspektive die Akzeptanz und das Vertrauen in digitale Prüfungen, da sich Studierende ernst genommen fühlen.
Da es 2021 noch keine anerkannten Evaluationsinstrumente für digitale Prüfungen gab, wurde im Rahmen des Projekts selbst ein Evaluationskonzept und Fragebogen entwickelt.
Zusammenhang
Im Rahmen des Verbundprojekts ii.oo wurde über acht Semester hinweg an allen neun Verbundhochschulen eine Evaluation für die im Projekt tätigen Lehrenden angeboten. Insgesamt wurden 191 Prüfungen erfolgreich evaluiert. Die Evaluation wurde zentral an der Hochschule München entwickelt, koordiniert und ausgewertet.
Voraussetzung
• Klären der Zuständigkeiten und Aufgabenbereiche
• Datenschutz/ Datenverarbeitungstätigkeit mit Datenschutzbeauftragten abklären
• DSGVO konformes Online-Tool zur Durchführung der Befragung und Programm zur Auswertung
• Mitwirkung der Projektkoordinatoren und Lehrenden
Eignung
• Aus den Evaluationsergebnissen konnten wertvolle Handlungsempfehlungen zur Prüfungsvorbereitung und -durchführung abgeleitet werden.
• Evaluationsergebnisse stellten in Beratungsgesprächen mir Lehrenden zur Prüfungsoptimierung eine gute Gesprächsgrundlage dar.
• Die Evaluationsergebnisse wurden in Semester Kick-Off Terminen vorgestellt, was zu mehr Austausch untereinander führte.
• Viele Lehrende haben bereits kurz nach der Evaluation aktiv die Ergebnisse angefragt und werden die Evaluation auch nach dem Projekt weiterführen, was auf eine hohe Akzeptanz von Seiten der Lehrenden hindeutet.
Schritte
Im Folgenden beschreiben wir den Evaluationsprozess:
Planung & Vorbereitung (2-3 Wochen)
• Zentrale Planung
• Rücksprache mit Datenschutzbeauftragten
• Sammeln von Informationen (Lehrende, Prüfungsfächer, Prüfungssysteme, Prüfungstermin)
• Rücksprache mit Lehrenden, ob es zusätzliche Wünsche für Evaluationsfragen gibt
• Fragebogen anpassen
• Onlineumfrage generieren und Zugangsdaten versenden
Durchführung (unmittelbar nach der Prüfung)
• Lehrende geben die Zugangsdaten (Link oder QR Code) an Studierende weiter
• Ansprechperson steht bei Fragen oder Problemen zur Verfügung
Auswertung (2 Wochen)
• Zentrale Auswertung
• Erstellen individueller Auswertungsberichte für die einzelnen Prüfungen direkt über das Onlinetool Evasys, zwei Wochen nach der Prüfung
• Gesamtauswertung der geschlossenen Fragen über SPSS mittels deskriptiver Statistik
• Auswertung der offenen Fragen über MAXQDA mittels Inhaltsanalyse
Kommunikation der Ergebnisse
• Ergebnisse werden auf verschiedenen Ebenen aufbereitet und kommuniziert: Individuelle Auswertungsberichte und Feedbackgespräche, Kick-off Termine, Handlungsempfehlungen zur Prüfungsoptimierung als Handreichung im PDF Format
Hinweise
Effekte
• Ein eher unerwarteter Effekt war, dass die Evaluationsergebnisse zu lösungsorientierten Diskussionen und Austauschrunden unter den Lehrenden geführt haben
• Die Evaluationsergebnisse wurden wie erwartet besonders als Grundlage für die Feedbackgespräche als hilfreich empfunden
Learnings
Unsere Learnings beziehen sich vor allem auf die drei Punkte Organisation der Evaluation, Rücklaufquoten sowie die Nutzung der Ergebnisse.
Organisation optimieren
• Gerade in Verbundprojekten erspart eine zentrale Evaluation Aufwand und Ressourcen
• Lehrende sollten in den Prozess aktiv eingebunden werden
• Beteiligung aller Stakeholder durch verschiedene Formate ermöglichen und anregen
Rücklaufquoten erhöhen
• Den Fragebogen so kurz und präzise wie möglich gestalten
• Den Fragebogen möglichst direkt im Anschluss an die Prüfung noch vor Ort ausfüllen lassen und Zeit dafür einplanen
• Bei online Abgaben wie Hausarbeiten oder Portfolio Prüfungen direkt bei der Abgabe einen Hinweis auf die Evaluation einbinden
Ergebnisse wirkungsorientiert nutzen
• Klare Kommunikation der Ergebnisse auf verschiedenen Ebenen
• Konkrete Handlungsempfehlungen ableiten
• Individuelle Feedback Gespräche über die Evaluationsergebnisse
• Feedback der Lehrenden einbinden und auf Bedarfe eingehen/ diese Umsetzen
Empfehlung
Die Herausforderung bei der Konzeption des Fragebogens bestand darin, ein Erhebungsinstrument zu entwickeln, welches allen im Projekt repräsentierten Hochschulen, Prüfungsformen und Fachbereichen gerecht wird. Mit neun bayrischen Hochschulen im Verbund gab es dementsprechend unterschiedliche allgemeine Studien- und Prüfungsordnungen. Die 56 Lehrenden des Projekts sind in unterschiedlichen Fachbereichen wie Soziales und Gesundheit, BWL und MINT tätig. Dementsprechend unterscheiden sich Prüfungsformen und Anforderungen stark, auch je nach Studienart und Semester. Um zu gewährleisten, dass der Fragebogen trotz all dieser Unterschiede verwendet werden kann, mussten die Fragen sehr allgemein gehalten werden, wodurch ein Kompromiss zwischen der allgemeinen Anwendbarkeit und Datenqualität geschlossen werden musste. Bei Evaluationen im kleineren Rahmen sollten Fragen natürlich spezifischer formuliert und ein individueller Bogen erstellt werden, um die Datenqualität zu erhöhen.
Tipps
• Anpassen auf den individuellen Kontext
• Gemeinsames Evaluationsverständnis: Mehrwert, nicht nur Kontrolle
• Gestaltung als partizipativer Prozess
• Gute Dokumentation der Prozesse und Materialien
• Kommunikation und Nutzung der Ergebnisse auf mehreren Ebenen
Sonstiges
Weiterführende Informationen und Materialien wie den Musterbogen und das Evaluationskonzept finden sie auf der verlinkten Website.
Methoden
Empfohlen
Das könnte Sie auch interessieren

Netzwerk der Fellows für Innovationen in der Hochschullehre
[Kurzbeschreibung folgt (Anm. StIL)]
Projekt anzeigen
Multimediale Beitragsreihe #Diversitäten
Die multimediale Beitragsreihe #Diversitäten reflektiert den Zusammenhang zwischen diversen Identitäten, Wissenskulturen und Wissensvermittlungspraktiken primär aus kulturwissenschaftlicher Sicht und bündelt Beiträge, die vielfachen Ausprägungen von Diversitäten nachgehen. Die Beitragsreihe adressiert ein aktuelles, gesellschaftlich relevantes Thema und nutzt innovative Lehr-/Lernformate für dessen Vermittlung.
Maßnahme anzeigen
E-Portfolios im Schulpraktikum mithilfe der Plattform efolio
[Kurzbeschreibung folgt (Anm. StIL)]
Publikation anzeigen