Maßnahme Bühne
Zum Projekt

Digitale Prüfungen evaluieren

Zur Optimierung der im Projekt ii.oo entwickelten, digitalen kompetenzorientierten Prüfungskonzepte (Good Practices) war es erforderlich, die Rückmeldungen der Studierenden zu den Prüfungen einzuholen, um Verbesserungspotentiale zu identifizieren und Studierenden faire und praxisnahe Prüfungsformate zu ermöglichen. Da es zum Start des Projekts 2021 noch keine Evaluationsinstrumente für digitale Prüfungen gab, weil das Thema durch Corona erst breit in die Hochschulen integriert wurde, ist ein eigenes Evaluationskonzept sowie ein Fragebogen entwickelt worden, der an verschiedenen Hochschulen und in verschiedenen Fachbereichen eingesetzt werden konnte.

Kategorien

Bitte nennen Sie bis zu fünf Stichwörter, die den Inhalt Ihrer Maßnahme aussagekräftig beschreiben.
Evaluation
Studierendenbefragung
Evaluationsprozess
Prüfungsevaluation
Fragebogen
Zielgruppe(n)
Wissenschaftliche Mitarbeiter:innen/LfBA
Professor:innen
Mitarbeiter:innen aus Service, Verwaltung & Wissenschaftsmanagement
Lehrbeauftragte
Handlungsfeld & Aktivität(en)
Strukturelle Rahmenbedingungen
Qualitätsmanagement entwickeln
Lehr-/Studienangebote
Prüfungsformen/(Self-)Assessments entwickeln
Lehrkonzepte/-formate entwickeln
Projektkoordination
Bedarfs-/Wirkungsanalysen entwickeln

Beschreibung

Herausforderung

Die im Projekt entwickelten digitalen Prüfungskonzepte sollten besonders im Hinblick auf Kompetenzorientierung, Didaktik, Prüfungsvorbereitung, Einsatz des Prüfungssystems, Akzeptanz und Fairness weiterentwickelt werden. Um Verbesserungspotentiale zu identifizieren, fehlte bisher jedoch die unmittelbare Nutzerperspektive der Studierenden.

Herangehensweise

Die Evaluation bietet eine direkte Nutzerperspektive, indem sie Einblicke in die unmittelbaren Erfahrungen der Studierenden mit der Prüfung – sowohl inhaltlich als auch technisch – gibt, was ohne Evaluation für Lehrende und Verwaltung schwer zugänglich wäre. Durch Rückmeldungen wird geklärt, ob Prüfungen fair, verständlich und stabil sind. Probleme wie technische Schwierigkeiten oder unklare Aufgaben können frühzeitig identifiziert und zukünftig behoben werden. Zudem fördert Feedback die prüfungsdidaktische Weiterentwicklung, indem es Hinweise liefert, ob Prüfungsformate kompetenzorientiert und lernförderlich sind. Schließlich stärkt die Berücksichtigung der Studierendenperspektive die Akzeptanz und das Vertrauen in digitale Prüfungen, da sich Studierende ernst genommen fühlen.

Da es 2021 noch keine anerkannten Evaluationsinstrumente für digitale Prüfungen gab, wurde im Rahmen des Projekts selbst ein Evaluationskonzept und Fragebogen entwickelt.

Zusammenhang

Im Rahmen des Verbundprojekts ii.oo wurde über acht Semester hinweg an allen neun Verbundhochschulen eine Evaluation für die im Projekt tätigen Lehrenden angeboten. Insgesamt wurden 191 Prüfungen erfolgreich evaluiert. Die Evaluation wurde zentral an der Hochschule München entwickelt, koordiniert und ausgewertet.

Voraussetzung

• Klären der Zuständigkeiten und Aufgabenbereiche

• Datenschutz/ Datenverarbeitungstätigkeit mit Datenschutzbeauftragten abklären

• DSGVO konformes Online-Tool zur Durchführung der Befragung und Programm zur Auswertung

• Mitwirkung der Projektkoordinatoren und Lehrenden

Eignung

• Aus den Evaluationsergebnissen konnten wertvolle Handlungsempfehlungen zur Prüfungsvorbereitung und -durchführung abgeleitet werden.

• Evaluationsergebnisse stellten in Beratungsgesprächen mir Lehrenden zur Prüfungsoptimierung eine gute Gesprächsgrundlage dar.

• Die Evaluationsergebnisse wurden in Semester Kick-Off Terminen vorgestellt, was zu mehr Austausch untereinander führte.

• Viele Lehrende haben bereits kurz nach der Evaluation aktiv die Ergebnisse angefragt und werden die Evaluation auch nach dem Projekt weiterführen, was auf eine hohe Akzeptanz von Seiten der Lehrenden hindeutet.

Schritte

Im Folgenden beschreiben wir den Evaluationsprozess:

Planung & Vorbereitung (2-3 Wochen)

• Zentrale Planung

• Rücksprache mit Datenschutzbeauftragten

• Sammeln von Informationen (Lehrende, Prüfungsfächer, Prüfungssysteme, Prüfungstermin)

• Rücksprache mit Lehrenden, ob es zusätzliche Wünsche für Evaluationsfragen gibt

• Fragebogen anpassen

• Onlineumfrage generieren und Zugangsdaten versenden

Durchführung (unmittelbar nach der Prüfung)

• Lehrende geben die Zugangsdaten (Link oder QR Code) an Studierende weiter

• Ansprechperson steht bei Fragen oder Problemen zur Verfügung

Auswertung (2 Wochen)

• Zentrale Auswertung

• Erstellen individueller Auswertungsberichte für die einzelnen Prüfungen direkt über das Onlinetool Evasys, zwei Wochen nach der Prüfung

• Gesamtauswertung der geschlossenen Fragen über SPSS mittels deskriptiver Statistik

• Auswertung der offenen Fragen über MAXQDA mittels Inhaltsanalyse

Kommunikation der Ergebnisse

• Ergebnisse werden auf verschiedenen Ebenen aufbereitet und kommuniziert: Individuelle Auswertungsberichte und Feedbackgespräche, Kick-off Termine, Handlungsempfehlungen zur Prüfungsoptimierung als Handreichung im PDF Format

Hinweise

Effekte

• Ein eher unerwarteter Effekt war, dass die Evaluationsergebnisse zu lösungsorientierten Diskussionen und Austauschrunden unter den Lehrenden geführt haben

• Die Evaluationsergebnisse wurden wie erwartet besonders als Grundlage für die Feedbackgespräche als hilfreich empfunden

Learnings

Unsere Learnings beziehen sich vor allem auf die drei Punkte Organisation der Evaluation, Rücklaufquoten sowie die Nutzung der Ergebnisse.

Organisation optimieren

• Gerade in Verbundprojekten erspart eine zentrale Evaluation Aufwand und Ressourcen

• Lehrende sollten in den Prozess aktiv eingebunden werden

• Beteiligung aller Stakeholder durch verschiedene Formate ermöglichen und anregen

Rücklaufquoten erhöhen

• Den Fragebogen so kurz und präzise wie möglich gestalten

• Den Fragebogen möglichst direkt im Anschluss an die Prüfung noch vor Ort ausfüllen lassen und Zeit dafür einplanen

• Bei online Abgaben wie Hausarbeiten oder Portfolio Prüfungen direkt bei der Abgabe einen Hinweis auf die Evaluation einbinden

Ergebnisse wirkungsorientiert nutzen

• Klare Kommunikation der Ergebnisse auf verschiedenen Ebenen

• Konkrete Handlungsempfehlungen ableiten

• Individuelle Feedback Gespräche über die Evaluationsergebnisse

• Feedback der Lehrenden einbinden und auf Bedarfe eingehen/ diese Umsetzen

Empfehlung

Die Herausforderung bei der Konzeption des Fragebogens bestand darin, ein Erhebungsinstrument zu entwickeln, welches allen im Projekt repräsentierten Hochschulen, Prüfungsformen und Fachbereichen gerecht wird. Mit neun bayrischen Hochschulen im Verbund gab es dementsprechend unterschiedliche allgemeine Studien- und Prüfungsordnungen. Die 56 Lehrenden des Projekts sind in unterschiedlichen Fachbereichen wie Soziales und Gesundheit, BWL und MINT tätig. Dementsprechend unterscheiden sich Prüfungsformen und Anforderungen stark, auch je nach Studienart und Semester. Um zu gewährleisten, dass der Fragebogen trotz all dieser Unterschiede verwendet werden kann, mussten die Fragen sehr allgemein gehalten werden, wodurch ein Kompromiss zwischen der allgemeinen Anwendbarkeit und Datenqualität geschlossen werden musste. Bei Evaluationen im kleineren Rahmen sollten Fragen natürlich spezifischer formuliert und ein individueller Bogen erstellt werden, um die Datenqualität zu erhöhen.

Tipps

• Anpassen auf den individuellen Kontext

• Gemeinsames Evaluationsverständnis: Mehrwert, nicht nur Kontrolle

• Gestaltung als partizipativer Prozess

• Gute Dokumentation der Prozesse und Materialien

• Kommunikation und Nutzung der Ergebnisse auf mehreren Ebenen

Sonstiges

Weiterführende Informationen und Materialien wie den Musterbogen und das Evaluationskonzept finden sie auf der verlinkten Website.

Methoden

Empfohlen

Methoden
Deskriptive Statistik (Häufigkeiten, Mittelwerte, Standardabweichung), Inhaltsanalyse nach Mayring
Formate
Studierendenbefragung über Onlinefragebogen
Technische Tools
Evasys, SPSS, MAXQDA
Material
NameDownload / LinkBeschreibungLizenzFormatGröße
Website zur Evaluation im Projekt ii.ooLink aufrufen/Link/

Das könnte Sie auch interessieren

Projekt 100978
Projekt

Wissenschaftliche Argumentationsgänge visualisieren

Viele Germanistikstudierende zeigen in ihren wissenschaftlichen Haus-, Bachelor- und Masterarbeiten, dass ihnen a) die vergleichende Rezeption wissenschaftlicher Texte und b) die Erarbeitung eines eigenen Argumentationsganges schwerfällt. Im Vergleich zu schulisch vermittelten Lesestrategien kommen im Studium neben der komplexen Wissenschaftssprache mit dem Erkennen komplexer Bezüge, dem kritischen Hinterfragen von Aussagen und der Entwicklung eines stringenten eigenen Argumentationsganges (meta-)kognitive Anforderungen höheren Grades hinzu, die mit dem exzerpierenden Verfahren der linear-kleinteiligen Reformulierung allein offensichtlich nicht ausreichend zu bewältigen sind. Im Projekt wird ein E-learning-Modul zur Vermittlung von Visualisierungskompetenz entwickelt, das Rezeptions- und Produktionsprozesse wissenschaftlicher Texte unterstützt.

Projekt anzeigen
Maßnahme 100423
Maßnahme

Metadaten-Plugin

Mit Amb-DidO verfügt das Portal über ein Plugin, über das die Beiträge mit Metadaten nach dem Standard des AMB versehen sind. So sind sie für einen darauf ausgerichteten Metasuchindex auffindbar.

Maßnahme anzeigen
Publikation 100118

Students as Partners: Potenziale und Grenzen der Umsetzung in einem sächsischen Verbundprojekt

[Kurzbeschreibung folgt (Anm. StIL)]

Publikation anzeigen