Heterogenität in IRT-Modellen

Studienlaufzeit
  • 2011 - 2014
Leitung Strobl, Carolin
Mitarbeit Kopf, Julia
Beteiligte Institution
Das Ziel dieses Forschungsprojektes war es, ein neues methodisches Instrumentarium zu entwickeln, das die statistische Überprüfung von Gruppenunterschieden in komplexen Studien zur Kompetenzdiagnostik erlaubt. Im Fokus des Forschungsvorhabens stand das Rasch-Modell, ein parametrisches Modell zur Skalierung latenter Personeneigenschaften. Dessen zentrale Annahme ist die Invarianz. Diese Annahme ist verletzt, wenn Aufgabenunterschiede bestehen, z. B. wenn eine Aufgabe bei gleicher Fähigkeit für ei ... Das Ziel dieses Forschungsprojektes war es, ein neues methodisches Instrumentarium zu entwickeln, das die statistische Überprüfung von Gruppenunterschieden in komplexen Studien zur Kompetenzdiagnostik erlaubt. Im Fokus des Forschungsvorhabens stand das Rasch-Modell, ein parametrisches Modell zur Skalierung latenter Personeneigenschaften. Dessen zentrale Annahme ist die Invarianz. Diese Annahme ist verletzt, wenn Aufgabenunterschiede bestehen, z. B. wenn eine Aufgabe bei gleicher Fähigkeit für eine Gruppe einfacher zu lösen ist. Im Projekt sollten statistische Tests zur Signifikanzprüfung einzelner Aufgabenunterschiede weiterentwickelt und Erweiterungen aktueller Verfahren umgesetzt werden. Die neuen Verfahren sollten in der frei zugänglichen statistischen Programmierumgebung R implementiert werden, um eine breite Nutzung der Methodik in der empirischen Bildungsforschung zu ermöglichen. Um Personengruppen hinsichtlich einzelner Aufgabenunterschiede zu vergleichen, musste mittels einer Restriktion eine gemeinsame Skala der Gruppen konstruiert werden. Die Wahl dieser Restriktion wurde durch Ankerverfahren bestimmt. Mithilfe einer umfangreichen Simulationsstudie wurden verschiedene etablierte und selbst entwickelte, iterative Ankerverfahren in der Software R implementiert und in verschiedenen Situationen gegenübergestellt. Die Ergebnisse zeigen, dass das neue iterative Ankerverfahren mit einer Forward-Ankerselektion die besten Ergebnisse liefert, da es weniger Aufgaben fälschlicherweise Differential Item Functioning (DIF) unterstellt und gleichzeitig tatsächliche Aufgabenunterschiede auch häufiger erkennt. Für die praktische Forschung müssen damit weniger Ressourcen für die Konstruktion eines Rasch-konformen Pools an Aufgaben verwendet werden. (DIPF/Projektträger)
Kontakt der Studie
  • c.strobl@psychologie.uzh.ch
Website
Förderprogramm / Forschungsprogramm
Fördereinrichtung Bundesministerium für Bildung und Forschung (BMBF)
Förderkennzeichen 01JG1060

Publikationen

  • Kopf, J. & Zeileis, A. & Strobl, C. (2015). A framework for anchor methods and an iterative forward approach for DIF detection. Applied psychological measurement, 39(2), 83-103.
    Literaturnachweis auf fachportal-paedagogik.de
  • Kopf, J. & Zeileis, A. & Strobl, C. (2015). Anchor selection strategies for DIF analysis: Review, assessment, and new approaches. Educational and psychological measurement, 75(1), 22-56.
    Literaturnachweis auf fachportal-paedagogik.de
  • Strobl, C. & Kopf, J. & Zeileis, A. (2015). Rasch trees: A new method for detecting differential item functioning in the Rasch model. Psychometrika, 80(2), 289-316.
    Literaturnachweis auf fachportal-paedagogik.de
  • Kopf, J. & Augustin, T. & Strobl, C. (2014). The potential of model-based recursive partitioning in the social sciences. Revisiting Ockham's Razor. In McArdle, J. & Ritschard, G. (Eds.), Contemporary issues in exploratory data mining in the behavioral sciences (pp. 75-95). Routledge.
    Literaturnachweis auf fachportal-paedagogik.de
  • Kopf, J. (2013). Model-based recursive partitioning meets item response theory. New statistical methods for the detection of differential item functioning and appropriate anchor selection. 1. Aufl. Hut.
    Literaturnachweis auf fachportal-paedagogik.de
Feedback