Una aproximación inicial a la optimización de la clasificación de estudiantes en evaluaciones de gran escala

Autores/as

DOI:

https://doi.org/10.36901/em.v10i1.1702

Palabras clave:

evaluaciones de gran escala, clasificación de estudiantes, modelo Rasch, precisión de la clasificación, error de medición

Resumen

La mayoría de los actos de evaluación implica clasificar a los estudiantes en categorías. Especialmente en las evaluaciones de altas consecuencias, esta clasificación conlleva una gran responsabilidad por las afectaciones que se derivan de ella. La puntuación bruta no refleja la naturaleza del error de medición y sus implicancias para la clasificación de los estudiantes. Por el contrario, el modelo Rasch ofrece un enfoque basado en la relación entre la probabilidad de acertar un ítem y la diferencia entre la habilidad del estudiante y la dificultad del ítem, aproximación que abre la posibilidad de calcular los errores estándar asociados a las medidas de ítems y personas. En el marco de este enfoque, este trabajo se propone investigar si la concentración de ítems alrededor de un punto de corte mejora la precisión de la clasificación, medida por el índice de precisión de Rudner. Se investigó esta relación en tres escenarios de dispersión de estudiantes. Los resultados muestran: a) que a mayor concentración de ítems alrededor del corte, mayor precisión de la clasificación; y b) que la fuerza de esta asociación se ve beneficiada en contextos de mayor concentración de la habilidad de los estudiantes.

Descargas

Los datos de descarga aún no están disponibles.

Referencias

Amrein, A. L., & Berliner, D. C. (2002). High-Stakes Testing & Student Learning. Education Policy Analysis Archives, 10, 18. https://doi.org/10.14507/epaa.v10n18.2002

Braun, H. (2004). Reconsidering the Impact of High-Stakes Testing. Education Policy Analysis Archives, 12, 1. https://doi.org/10.14507/epaa.v12n1.2004

Duffy, M., Giordano, V. A., Farrell, J. B., Paneque, O. M., & Crump, G. B. (2009). No Child Left Behind: Values and Research Issues in High‐Stakes Assessments. Counseling and Values, 53(1), 53-66. https://doi.org/10.1002/j.2161-007X.2009.tb00113.x

Hambleton, R. K., Swaminathan, H., & Jane Rogers, H. (1991). Fundamentals of Item Response Theory. SAGE.

Lathrop, Q. N. (2015). Practical Issues in Estimating Classification Accuracy and Consistency with R Package cacIRT. Practical Assessment, Research & Evaluation, 20(18), 1-5.

Linacre, J. M. (2015). WINSTEPS (3.91.2.0).

Mair, P., & Hatzinger, R. (2007). Extended Rasch Modeling: The eRm Package for the Application of IRT Models in R. Journal of Statistical Software, 20(9). https://doi.org/10.18637/jss.v020.i09

Molenaar, I. W. (1995). Some Background for Item Response Theory and the Rasch Model. En I. W. Fischer Gerhard H. & Molenaar (Eds.), Rasch Models: Foundations, Recent Developments, and Applications (pp. 3-14). Springer New York. https://doi.org/10.1007/978-1-4612-4230-7_1

Robitzsch, A., Kiefer, T., & Wu, M. (2024). TAM: Test Analysis Modules. https://CRAN.R-project.org/package=TAM

Rudner, L. M. (2001). Computing the Expected Proportions of Misclassified Examinees. Practical Assessment, Research & Evaluation, 7(14), 1-5. http://pareonline.net/misclass/class.asp.

Rudner, L. M. (2005). Expected Classification Accuracy. Practical Assessment, Research, and Evaluation, 10(13), 13. https://doi.org/10.7275/56a5-6b14

Shepard, L. (1979). Norm-referenced vs. criterion-referenced tests. Educational Horizons, 58(1), 26-32.

Traub, R. E. (1997). Classical Test Theory in Historical Perspective. Educational Measurement: Issues and Practice, 16(4), 8-14. https://doi.org/10.1111/j.1745-3992.1997.tb00603.x

Yu, C. H. (2020). Objective Measurement: How Rasch Modeling Can Simplify and Enhance Your Assessment. En M. S. Khine (Ed.), Rasch Measurement: Applications in Quantitative Educational Research (pp. 47-73). Springer Singapore. https://doi.org/10.1007/978-981-15-1800-3_4

Descargas

Publicado

2025-05-06

Cómo citar

Una aproximación inicial a la optimización de la clasificación de estudiantes en evaluaciones de gran escala. (2025). Educationis Momentum, 10(1), 35-50. https://doi.org/10.36901/em.v10i1.1702