Suche

German Education Server Eduserver Gebärdensprache DGS-Button Leichte Sprache LS-Button
Erweiterte Suche

Ariadne Pfad:

Inhalt

Umgang mit Itempositionseffekten bei der Entwicklung computerisierter adaptiver Tests.

h t t p s : / / d o i . o r g / 1 0 . 1 0 2 6 / 0 0 1 2 - 1 9 2 4 / a 0 0 0 1 7 3Externer Link

Beim computerisierten adaptiven Testen (CAT) werden geschätzte Itemparameter als bekannt und gültig für alle möglichen Darbietungspositionen im Test angesehen. Diese Annahme ist jedoch problematisch, da sich geschätzte Itemparameter empirisch wiederholt als abhängig von der Darbietungsposition erwiesen haben. Die Nichtbeachtung existierender Itempositionseffekte würde zu suboptimaler Itemauswahl und verzerrter Merkmalsschätzung bei CAT führen. Als Lösungsansatz wird ein einfaches Vorgehen zum Umgang mit Itempositionseffekten bei der CAT-Kalibrierung vorgeschlagen. Hierbei werden Item-Response-Theorie-Modelle mit zunehmender Komplexität bezüglich der Modellierung von Itempositionseffekten geschätzt und das angemessenste Modell aufgrund globaler Modellgeltungskriterien ausgewählt. Das Vorgehen wird an einem empirischen Datensatz aus der Kalibrierung von drei adaptiven Tests (N = 1 632) illustriert. Es zeigten sich Itempositionseffekte, die unterschiedlich differenziert in den einzelnen Tests ausfielen. Durch die Modellierung der Itempositionseffekte wird eine Überschätzung von Varianz und Reliabilität vermieden. Die Nutzung der ermittelten Itempositionseffekte bei nachfolgenden CAT-Anwendungen wird erläutert. (Orig.).

In computerized adaptive testing (CAT), item parameter estimates are assumed to be known and valid for all the positions that items can be presented on in the test. This assumption is problematic since item parameter estimates were shown to depend on the position in the test. Neglecting item position effects in CAT administration would cause inefficient item selection and biased ability estimation. As a solution, a simple procedure accounting for item position effects is suggested. In this procedure, potential item position effects are identified by fitting and comparing a series of item response theory models with increasing complexity of item position effects. The proposed procedure is illustrated using empirical calibration data from three adaptive tests (N = 1 632). Test-specific item position effects were identified. By accounting for item position effect with an appropriate model, overestimations of variance and reliability were avoided. The implementation of item position effects in operational adaptive tests is explained. (Orig.).

Schlagwörter

Rasch-Modell, Bildungsforschung, Adaptives Testen, Computer, Computertechnologie, Computerunterstütztes Verfahren, Messung, Testen,

Quelle In: Diagnostica, 63 (2016) 3, S. 167-178, URL des Volltextes: https://doi.org/10.1026/0012-1924/a000173
Beigaben Literaturangaben
Sprache deutsch
Dokumenttyp Zeitschriftenaufsatz
ISSN 0012-1924; 2190-622X
DOI 10.1026/0012-1924/a000173
Erfasst von Externer Selbsteintrag
Update 2018/3

Inhalt auf sozialen Plattformen teilen (nur vorhanden, wenn Javascript eingeschaltet ist)

Teile diese Seite: