Metodología de equiparación en evaluaciones estandarizadas mediante un algoritmo estadístico

Héctor Salomón Mullo-Guaminga, Jessica Alexandra Marcatoma-Tixi, Washington Javier Carrasco-Tuston, Oswaldo Villacrés-Cáceres

Resumen


Este trabajo estudia la forma de comparar resultados de los estudiantes en pruebas estandarizadas a gran escala, al respecto plantea el desarrollo de un algoritmo en software estadístico R de una metodología de 5 pasos para el desarrollo de una equiparación entre dos formas de prueba (X e Y) en el contexto de diseños de equiparación, donde los grupos son no equivalentes, con covariables e ítems ancla. El resultado principal muestra que, para el desarrollo con éxito de la equiparación se debe realizar: i) Calibración de la forma de prueba X e Y con covariables mediante regresión latente; ii) Calibración concurrente de las formas de prueba X e Y; iii) Calibración de la forma de prueba X con parámetros de los ítems fijos obtenidos del paso dos, donde los ítems fijos son aquellos ítems considerados como anclas; iv) Obtención de constantes de transformación lineal, utilizando el método de momentos y el enfoque de valores plausibles y, v) Escalamiento de la forma de prueba Y a la escala de X utilizando los resultados del paso anterior. Este resultado muestra que es factible el desarrollo de una equiparación en el contexto planteado y que cuando se pretenda compara las habilidades de los estudiantes que rindieron dos formas de prueba diferentes, siempre se debe realizar una equiparación para que sean comparables las diferencias en la media y la desviación estándar de las distribuciones de habilidad estimadas de las diferentes formas de prueba, tomado a una de ellas como escala base.


Palabras clave


Evaluación estandarizada; Valor Plausible; Equiparación; Psicometría.

Texto completo:

PDF HTML XML

Referencias


Adams, R. J., & Wu, M. L. (2007). The mixed-coefficients multinomial logit model. A generalized form of the Rasch model. In M. von Davier & C. H. Carstensen (Eds.): Multivariate and mixture distribution Rasch models: Extensions and applications (pp. 55-76). New York: Springer. Doi: 10.1007/9780387498393_4

Adams, R. J., Wilson, M. R., and Wu, M. L. (1997). Multilevel item response modelling: An approach to errors in variables regression. Journal of Educational and Behavioral Statistics, 22, 47-76.

Burke, K. (1999). The mindful school: How to assess authentic learning (3rd Ed.). Arlington Heights, IL: Skylight Publishing.

DeMars, C. (2002). Incomplete data and item parameter estimates under JMLE and MML estimation. Applied Measurement in Education, 15(1), 15–31.

Fuentealba, F. (2020). Sesión 3 – ERCE y Rosseta Stone, ERCE – Metodología y Aplicación. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.

González, J., & Wiberg, M. (2017). Applying test equating methods. Cham: Springer International Publishing.

Ineval. (2021a). Ficha técnica, Ser Estudiante, Cuarto de Educación General Básica. http://evaluaciones.evaluacion.gob.ec/BI/ser-estudiante/

Ineval. (2021b). Acción 21-3: Capacidad en la resolución de problemas en los sistemas informatizados, de las personas que participaron en la tercera ronda del Programa para la Evaluación Internacional de las Competencias de los Adultos (PIAAC). http://evaluaciones.evaluacion.gob.ec/BI/ser-estudiante/

Ineval. (2021c). Acción Boletines de Investigación y Evaluación: Involucramiento parental y rendimiento académico en escolares de 7mo de Educación General Básica.

Kim, S. (2006). A comparative study of IRT fixed parameter calibration methods. Journal of Educational Measurement, 43(4), 355–381.

Kolen MJ, Brennan RL. Test Equating, Scaling, and Linking: Methods and Practices. New York, NY: Springer; 2014.

Lord FM, Novick MR. Statistical Theories of Mental Test Scores. Reading, MA: Addison-Wesley; 1968.

Mislevy, R. J., & Sheehan, K. M. (1989). The role of collateral information about examinees in item parameter estimation. Psychometrika, 54, 661-679.

Rasch G. Probabilistic Models for Some Intelligence and Attainment Tests. Chicago, IL: University of Chicago Press; 1960.

Wingersky, M. S., & Lord, F. M. (1984). An investigation of methods for reducing sampling error in certain IRT procedures. Applied Psychological Measurement, 8(3), 347–364.




DOI: https://doi.org/10.23857/pc.v7i4.3840

Enlaces de Referencia

  • Por el momento, no existen enlaces de referencia
';





Polo del Conocimiento              

Revista Científico-Académica Multidisciplinaria

ISSN: 2550-682X

Casa Editora del Polo                                                 

Manta - Ecuador       

Dirección: Ciudadela El Palmar, II Etapa,  Manta - Manabí - Ecuador.

Código Postal: 130801

Teléfonos: 056051775/0991871420

Email: polodelconocimientorevista@gmail.com / director@polodelconocimiento.com

URL: https://www.polodelconocimiento.com/