Forschung am Lehrstuhl für Digitale Bildung

Ein zentrales Ziel unserer Forschung ist es, Gestaltungsprinzipien digitaler Tools und Materialien zu identifizieren, die Lernende auf kognitiver, motivationaler und affektiver Ebene optimal unterstützen. Ebenso interessieren wir uns dafür, wie wir durch digitale Tools neue Spielräume für Lehrkräfte schaffen können, um ihnen das professionelle pädagogische Handeln systematisch zu erleichtern.
 

Ein  Schwerpunkt unserer Forschung ist das formative Assessment – eine lernbegleitende Diagnose von Lernprozessen mit dem Ziel, Schüler*innen hilfreiches Feedback zu geben und Lehrkräften präzise Informationen über den Lernstand der Lernenden  bereitzustellen. Damit sollen Lehrkräfte befähigt werden, besser auf die individuellen Bedürfnisse einzelner Schüler*innen einzugehen und diese gezielt zu fördern.

Gleichermaßen interessieren wir uns für die Interaktion von Schüler*innen mit digitalen und KI-basierten Lernsystemen und für deren Potenzial, Lernprozesse kognitiv aktivierend und besonders motivationsförderlich zu gestalten. Besonderes Augenmerk legen wir darauf, dass KI-gestützte Systeme die Lernprozesse nicht nur erfassen, sondern auch intelligent analysieren und in adaptive Unterstützungsangebote übersetzen. So entstehen digitale Werkzeuge, die Lehrkräfte bei der Entscheidungsfindung im Unterrichtsalltag deutlich entlasten können und differenzierte Lernangebote für Schüler*innen ermöglichen. Diesbezüglich gehen wir auch der Frage nach, welche Kompetenzen Lehrkräfte für erfolgreiches Unterrichten in der digitalen Zukunft erwerben müssen und bringen diese Perspektive in unsere Lehre an der EUF ein.

Mit unserer angewandten Grundlagenforschung, die vorwiegend experimentalpsychologisch und quantitativ ausgerichtet ist, schlagen wir eine Brücke zwischen Theorie und Praxis.

Vor diesem Hintergrund erfolgen unsere empirischen Datenerhebungen sowohl im Labor als auch in realen Bildungskontexten (z.B. Schulen). In unseren holistisch ausgerichteten Untersuchungen betrachten wir neben der Lernförderlichkeit von Systemen und Manipulationen insbesondere auch deren Effekte auf affektiv-motivationale Zustände der Lernenden. Dabei nutzen wir unter anderem Prozessdaten (z.B. Zeitstempel, Eye Tracking, Videodaten), die es uns ermöglichen, Lernverläufe und Interaktionen mit hoher zeitlicher Auflösung im Detail zu rekonstruieren und so besser zu verstehen.

Darüber hinaus erstellen wir systematische Analysen der wissenschaftlichen Literatur (z.B. systematische Reviews, Meta-Analysen, Meta-Meta Analysen), um auf diesem Wege wesentliche Befunde der existierenden Forschungsdaten zu aggregieren und für die Forschung und Praxis besser nutzbar zu machen.

Adaptives Lehren und Lernen mit digitalen Medien 

  • Technologiebasiertes adaptives Unterrichten und Lernen
  • Intelligente tutorielle Systeme und KI im Klassenzimmer
  • Lernräume der Zukunft

Feedback für Lernende

  • Computerbasiertes Feedback
  • KI-generiertes Feedback
  • Digital vermitteltes Peer-Feedback

Innovationen in der formativen Leistungsdiagnostik

  • KI-gestützte Aufgabenerstellung (Automated Item Generation)
  • Conversation-Based Assessment
  • Learning Analytics im Klassenzimmer
  • Design von Teacher Dashboards

KI-gestützte Bewertung im Klassenzimmer

  • Feedback zu Schüler*innentexten mit KI-Unterstützung
  • Professionalisierung von Lehrkräften zur KI-gestützten Bewertung 

Lernen und Testen mit Multimedia

  • Effekte multimedialer Gestaltung digitaler Testmaterialien
  • Digitale Tafelbilder und Smartboards im Unterricht
  • Professionalisierung von Lehrkräften zur Auswahl und Gestaltung geeigneter Lehr-/Lernmaterialien

Prüfen an Hochschulen und Auswirkungen künstlicher Intelligenz

  • Potenziale und Grenzen der KI-Nutzung in der Hochschullehre
  • Kompetenzorientierte Prüfungsformate der Zukunft

Schewior, L., & Lindner, M. A. (in press). Multimedia effects in testing: A meta-analysis on cognitive, metacognitive and affective effects of pictures in test items. Journal of Educational Psychology.

Kuklick, L., Eder, T., Zhao, F., Mayer, R. E., & Lindner, M. A. (in press). Emotional reactions to performance feedback as measured by self-reports and automatic facial recognition. Journal of Educational Psychology. https://doi.org/10.1037/edu0001029

Holtmann, M., Kennedy, A. I., & Strietholt, R. (2026). What students learn depends on what we teach: Curriculum content coverage and student achievement in mathematics and science. Learning and Individual Differences, 128, 102907

Daniels, L. M., Wells, K., Lindner, M. A., Beeby, A. M., & Daniels, V. J. (2026). Satisfaction and frustration of basic psychological needs in classroom assessment. Trends in Higher Education, 5(1), 1-15. https://doi.org/10.3390/higheredu5010015

Holtmann, M., Meinck, S., Hernandez, A. S., & Isac, M. M. (2026). From Intention to Action: Understanding Youth Electoral Participation Across Countries Through Civic Education. Developmental Science, 29(2), e70127.

Schult, J., Fauth, B., Schneider, R., & Lindner, M. A. (2026). How schools rebound from pandemic learning loss: Longitudinal findings from mandatory large-scale assessments. Learning and Instruction, 101, Article 102263. https://doi.org/10.1016/j.learninstruc.2025.102263

Alemdag, E., & Gorgun, G. (2026). AI scoring of peer feedback quality under different prompting strategies: How close is it to expert scoring? In Proceedings of the 16th International Conference on Learning Analytics & Knowledge (LAK 2026), Bergen, Norway. 

Alemdag, E. (2026). Differences in students' processing of peer feedback: An exploratory epistemic network analysis of response messages. In Proceedings of the 16th International Conference on Learning Analytics & Knowledge (LAK 2026), Bergen, Norway.

Mertens, U., & Lindner, M. A. (2025). Computer-based answer-until-correct and elaborated feedback: Effects on affective-motivational and performance outcomes. Journal of Computer Assisted Learning, 41(2), e13112. https://doi.org/10.1111/jcal.13112

Kuklick, L., & Lindner, M. A. (2025). How to enhance elaborated feedback in computer-based assessment: The role of multimedia and emotional design factors. Contemporary Educational Psychology, 82, Article 102396. https://doi.org/10.1016/j.cedpsych.2025.102396

Rožman, M., Holtmann, M., & Meinck, S. (2025). Students’ Engagement with Information and Communications Technologies. In An International Perspective on Digital Literacy: Results from ICILS 2023 (pp. 139-180). Cham: Springer Nature Switzerland.

Kuklick, L., & Lindner, M. A. (2025). How to enhance elaborated feedback in computer-based assessment: The role of multimedia and emotional design factors. Contemporary Educational Psychology, 72, Article 102396. https://doi.org/10.1016/j.cedpsych.2025.102396

Lindner, M. A. & Weßels, D. (2025). Zur Ausgestaltung von Richtlinien zur Nutzung generativer künstlicher Intelligenz an Hochschulen. Forschung & Lehre, 2025(2), 32–35. https://www.forschung-und-lehre.de/heftarchiv/ausgabe-2/25

Alemdag, E., & Narciss, S. (2025). Promoting formative self-assessment through peer assessment: peer work quality matters for writing performance and internal feedback generation. International Journal of Educational Technology in Higher Education, 22(1), 22. DOI: 10.1186/s41239-025-00522-4

Gorgun, G., & Bulut, O. (2025). Instruction‐tuned large‐language models for quality control in automatic item generation: A feasibility study. Educational Measurement: Issues and Practice, 44(1), 96–107. DOI: 10.1111/emip.12663

Bulut, O., Gorgun, G., & Yildirim‐Erbasli, S. N. (2025). The impact of frequency and stakes of formative assessment on student achievement in higher education: A learning analytics study. Journal of Computer Assisted Learning, 41(1), Article e13087. DOI: 10.1111/jcal.13087

Mertens, U., & Lindner, M. A. (2025). Computer‐based answer‐until‐correct and elaborated feedback: Effects on affective‐motivational and performance outcomes. Journal of Computer Assisted Learning, 41(2), Article e13112. DOI: 10.1111/jcal.13112

Bardach, L., Emslander, V., Kasneci, E., Eitel, A., Lindner, M. A., & Bailey, D. H. (2024). Research syntheses on AI in education offer limited educational insights. OSF Preprinthttps://doi.org/10.31219/osf.io/dx6kt_v1

Yildirim-Erbasli, S. N., & Gorgun, G. (2024). Disentangling the relationship between ability and test-taking effort: To what extent the ability levels can be predicted from response behavior? Technology, Knowledge and Learning, 1–23. DOI: 10.1007/s10758-024-09810-w

Gorgun, G., & Yildirim‐Erbasli, S. N. (2024). Algorithmic bias in BERT for response accuracy prediction: A case study for investigating population validity. Journal of Educational Measurement. DOI: 10.1111/jedm.12420

Buder, J., Lindner, M. A., Oestermeier, U., Huff, M., Gerjets, P., Utz, S., & Cress, U. (2024). Generative künstliche Intelligenz – Mögliche Auswirkungen auf die psychologische Forschung. Psychologische Rundschau. DOI: 10.1026/0033-3042/a000699

Schewior, L., & Lindner, M. A. (2024). Revisiting picture functions in multimedia testing: A systematic narrative review and taxonomy extension. Educational Psychology Review, 36(2), 49. DOI: 10.1007/s10648-024-09883-0

Ehrhart, T., Höffler, T. N., Grund, S., & Lindner, M. A. (2024). Static versus dynamic representational and decorative pictures in mathematical word problems: Less might be more. Journal of Educational Psychology, 116(4), 532. DOI: 10.1037/edu0000821

Wise, S. L., Kuhfeld, M. R., & Lindner, M. A. (2024). Don’t test after lunch: The relationship between disengagement and the time of day that low-stakes testing occurs. Applied Measurement in Education, 37(1), 14–28. DOI: 10.1080/08957347.2024.2311925