Forschung am Lehrstuhl Digitale Bildung

Ein zentrales Ziel unserer Forschung ist es, Gestaltungsprinzipien digitaler Tools und Materialien zu identifizieren, die Lernende auf kognitiver, motivationaler und affektiver Ebene optimal unterstützen. Ebenso interessieren wir uns dafür, wie wir durch digitale Tools neue Spielräume für Lehrkräfte schaffen können, um ihnen das professionelle pädagogische Handeln systematisch zu erleichtern.
 

Ein  Schwerpunkt unserer Forschung ist das formative Assessment – eine lernbegleitende Diagnose von Lernprozessen mit dem Ziel, Schüler*innen hilfreiches Feedback zu geben und Lehrkräften präzise Informationen über den Lernstand der Lernenden  bereitzustellen. Damit sollen Lehrkräfte befähigt werden, besser auf die individuellen Bedürfnisse einzelner Schüler*innen einzugehen und diese gezielt zu fördern.

Gleichermaßen interessieren wir uns für die Interaktion von Schüler*innen mit digitalen und KI-basierten Lernsystemen und für deren Potenzial, Lernprozesse kognitiv aktivierend und besonders motivationsförderlich zu gestalten. Besonderes Augenmerk legen wir darauf, dass KI-gestützte Systeme die Lernprozesse nicht nur erfassen, sondern auch intelligent analysieren und in adaptive Unterstützungsangebote übersetzen. So entstehen digitale Werkzeuge, die Lehrkräfte bei der Entscheidungsfindung im Unterrichtsalltag deutlich entlasten können und differenzierte Lernangebote für Schüler*innen ermöglichen. Diesbezüglich gehen wir auch der Frage nach, welche Kompetenzen Lehrkräfte für erfolgreiches Unterrichten in der digitalen Zukunft erwerben müssen und bringen diese Perspektive in unsere Lehre an der EUF ein.

Mit unserer angewandten Grundlagenforschung, die vorwiegend experimentalpsychologisch und quantitativ ausgerichtet ist, schlagen wir eine Brücke zwischen Theorie und Praxis.

Vor diesem Hintergrund erfolgen unsere empirischen Datenerhebungen sowohl im Labor als auch in realen Bildungskontexten (z.B. Schulen). In unseren holistisch ausgerichteten Untersuchungen betrachten wir neben der Lernförderlichkeit von Systemen und Manipulationen insbesondere auch deren Effekte auf affektiv-motivationale Zustände der Lernenden. Dabei nutzen wir unter anderem Prozessdaten (z.B. Zeitstempel, Eye Tracking, Videodaten), die es uns ermöglichen, Lernverläufe und Interaktionen mit hoher zeitlicher Auflösung im Detail zu rekonstruieren und so besser zu verstehen.

Darüber hinaus erstellen wir systematische Analysen der wissenschaftlichen Literatur (z.B. systematische Reviews, Meta-Analysen, Meta-Meta Analysen), um auf diesem Wege wesentliche Befunde der existierenden Forschungsdaten zu aggregieren und für die Forschung und Praxis besser nutzbar zu machen.

Adaptives Lehren und Lernen mit digitalen Medien 

  • Technologiebasiertes adaptives Unterrichten und Lernen
  • Intelligente tutorielle Systeme und KI im Klassenzimmer
  • Lernräume der Zukunft

Feedback für Lernende

  • Computerbasiertes Feedback
  • KI-generiertes Feedback
  • Digital vermitteltes Peer-Feedback

Innovationen in der formativen Leistungsdiagnostik

  • KI-gestützte Aufgabenerstellung (Automated Item Generation)
  • Conversation-Based Assessment
  • Learning Analytics im Klassenzimmer
  • Design von Teacher Dashboards

KI-gestützte Bewertung im Klassenzimmer

  • Feedback zu Schüler*innentexten mit KI-Unterstützung
  • Professionalisierung von Lehrkräften zur KI-gestützten Bewertung 

Lernen und Testen mit Multimedia

  • Effekte multimedialer Gestaltung digitaler Testmaterialien
  • Digitale Tafelbilder und Smartboards im Unterricht
  • Professionalisierung von Lehrkräften zur Auswahl und Gestaltung geeigneter Lehr-/Lernmaterialien

Prüfen an Hochschulen und Auswirkungen künstlicher Intelligenz

  • Potenziale und Grenzen der KI-Nutzung in der Hochschullehre
  • Kompetenzorientierte Prüfungsformate der Zukunf

Alemdag, E., & Narciss, S. (2025). Promoting formative self-assessment through peer assessment: peer work quality matters for writing performance and internal feedback generation. International Journal of Educational Technology in Higher Education, 22(1), 22. DOI: 10.1186/s41239-025-00522-4

Gorgun, G., & Bulut, O. (2025). Instruction‐tuned large‐language models for quality control in automatic item generation: A feasibility study. Educational Measurement: Issues and Practice, 44(1), 96–107. DOI: 10.1111/emip.12663

Bulut, O., Gorgun, G., & Yildirim‐Erbasli, S. N. (2025). The impact of frequency and stakes of formative assessment on student achievement in higher education: A learning analytics study. Journal of Computer Assisted Learning, 41(1), Article e13087. DOI: 10.1111/jcal.13087

Mertens, U., & Lindner, M. A. (2025). Computer‐based answer‐until‐correct and elaborated feedback: Effects on affective‐motivational and performance outcomes. Journal of Computer Assisted Learning, 41(2), Article e13112. DOI: 10.1111/jcal.13112

Yildirim-Erbasli, S. N., & Gorgun, G. (2024). Disentangling the relationship between ability and test-taking effort: To what extent the ability levels can be predicted from response behavior? Technology, Knowledge and Learning, 1–23. DOI: 10.1007/s10758-024-09810-w

Gorgun, G., & Yildirim‐Erbasli, S. N. (2024). Algorithmic bias in BERT for response accuracy prediction: A case study for investigating population validity. Journal of Educational Measurement. DOI: 10.1111/jedm.12420

Buder, J., Lindner, M. A., Oestermeier, U., Huff, M., Gerjets, P., Utz, S., & Cress, U. (2024). Generative künstliche Intelligenz – Mögliche Auswirkungen auf die psychologische Forschung. Psychologische Rundschau. DOI: 10.1026/0033-3042/a000699

Schewior, L., & Lindner, M. A. (2024). Revisiting picture functions in multimedia testing: A systematic narrative review and taxonomy extension. Educational Psychology Review, 36(2), 49. DOI: 10.1007/s10648-024-09883-0

Ehrhart, T., Höffler, T. N., Grund, S., & Lindner, M. A. (2024). Static versus dynamic representational and decorative pictures in mathematical word problems: Less might be more. Journal of Educational Psychology, 116(4), 532. DOI: 10.1037/edu0000821

Wise, S. L., Kuhfeld, M. R., & Lindner, M. A. (2024). Don’t test after lunch: The relationship between disengagement and the time of day that low-stakes testing occurs. Applied Measurement in Education, 37(1), 14–28. DOI: 10.1080/08957347.2024.2311925

Zur Startseite des Arbeitsbereichs Digitale Bildung: