Umgang mit Itempositionseffekten bei der Entwicklung computerisierter adaptiver Tests.
h t t p s : / / d o i . o r g / 1 0 . 1 0 2 6 / 0 0 1 2 - 1 9 2 4 / a 0 0 0 1 7 3
Beim computerisierten adaptiven Testen (CAT) werden geschätzte Itemparameter als bekannt und gültig für alle möglichen Darbietungspositionen im Test angesehen. Diese Annahme ist jedoch problematisch, da sich geschätzte Itemparameter empirisch wiederholt als abhängig von der Darbietungsposition erwiesen haben. Die Nichtbeachtung existierender Itempositionseffekte würde zu suboptimaler Itemauswahl und verzerrter Merkmalsschätzung bei CAT führen. Als Lösungsansatz wird ein einfaches Vorgehen zum Umgang mit Itempositionseffekten bei der CAT-Kalibrierung vorgeschlagen. Hierbei werden Item-Response-Theorie-Modelle mit zunehmender Komplexität bezüglich der Modellierung von Itempositionseffekten geschätzt und das angemessenste Modell aufgrund globaler Modellgeltungskriterien ausgewählt. Das Vorgehen wird an einem empirischen Datensatz aus der Kalibrierung von drei adaptiven Tests (N = 1 632) illustriert. Es zeigten sich Itempositionseffekte, die unterschiedlich differenziert in den einzelnen Tests ausfielen. Durch die Modellierung der Itempositionseffekte wird eine Überschätzung von Varianz und Reliabilität vermieden. Die Nutzung der ermittelten Itempositionseffekte bei nachfolgenden CAT-Anwendungen wird erläutert. (Orig.).
In computerized adaptive testing (CAT), item parameter estimates are assumed to be known and valid for all the positions that items can be presented on in the test. This assumption is problematic since item parameter estimates were shown to depend on the position in the test. Neglecting item position effects in CAT administration would cause inefficient item selection and biased ability estimation. As a solution, a simple procedure accounting for item position effects is suggested. In this procedure, potential item position effects are identified by fitting and comparing a series of item response theory models with increasing complexity of item position effects. The proposed procedure is illustrated using empirical calibration data from three adaptive tests (N = 1 632). Test-specific item position effects were identified. By accounting for item position effect with an appropriate model, overestimations of variance and reliability were avoided. The implementation of item position effects in operational adaptive tests is explained. (Orig.).
Schlagwörter
Rasch-Modell, Bildungsforschung, Adaptives Testen, Computer, Computertechnologie, Computerunterstütztes Verfahren, Messung, Testen,
Quelle | In: Diagnostica, 63 (2016) 3, S. 167-178, URL des Volltextes: https://doi.org/10.1026/0012-1924/a000173 |
---|---|
Beigaben | Literaturangaben |
Sprache | deutsch |
Dokumenttyp | Zeitschriftenaufsatz |
ISSN | 0012-1924; 2190-622X |
DOI |
10.1026/0012-1924/a000173 |
Erfasst von | Externer Selbsteintrag |
Update | 2018/3 |