Please use this identifier to cite or link to this item: http://hdl.handle.net/20.500.12984/5739
Title: ENLACE: A Real Alternative for the Evaluation of Reading Comprehension? ENLACE: A Real Alternative for the Evaluation of Reading Comprehension?
ENLACE: ¿Una alternativa real para la evaluación de comprensión lectora? ENLACE: A Real Alternative for the Evaluation of Reading Comprehension?
Keywords: Prueba ENLACE
comprensión lectora
ex´amenes estandarizados
Enlace test
reading comprehension
standardized exams
Publisher: Universidad de Sonora
Description: Two years ago ENLACE test was stablished as the official instrument and point of reference for the evaluation of competences in Reading comprehension and Mathematics, and also in the knowledge related to other disciplines (history, sciences, etc.) At the beginning of 2014, the perspective changed when “the test was put off due to so many errors and inadequacies in its application, and also due to assumed corruption acts related to handling and publishing its results (Bakhoff Escudero, 2014).  In order to provide more clarity in the reach of the test, we analyzed the underlying contents of questions and reading models used. With this objective in mind, four groups of university students were asked to answer a set of reading comprehension equivalent to the test of preparatory school in 2010, in order to prove its suitability in determining aptitude and level of comprehension of the person who does the test. We were able to confirm that some errors on which students may incur, depend not on their reading ability but on several other factors: design of the test itself, conditions of application, vagueness of questions and/or model answers provided to readers. All this is motivated by a very limited concept of what is covered by the phenomenon of discursive comprehension
Hasta hace un par de años, la prueba ENLACE se había posicionado en el sistema educativo mexicano como el medio oficial y punto de referencia para la evaluación de competencias en comprensión lectora y matemática, así como de los conocimientos relacionados con otros campos disciplinares (historia, ciencias, etc.). A principios de 2014, la perspectiva cambió al “posponer” la prueba, argumentando múltiples errores e inadecuaciones en su aplicación, así como de presuntos actos de corrupción relacionados con el manejo y difusión de sus resultados (Backhoff Escudero, 2014).  Para evidenciar con mayor claridad el alcance de la prueba, analizamos el contenido de las preguntas y del modelo de lectura que en ellas subyace; para ello, se les aplicó a cuatro grupos de universitarios una batería de comprensión lectura correspondiente al examen de educación media superior del 2010 para probar su idoneidad en la determinación de la aptitud y nivel de comprensión de quien realiza la prueba. Fue posible constatar que algunos de los errores en que pueden incurrir los examinados no dependen de su habilidad lectora, sino del diseño mismo de la prueba, de las condiciones de aplicación, a la falta de claridad en la pregunta y/o en las respuestas que se ofrecen a los lectores, todo esto motivado por un concepto muy limitado de lo que abarca el fenómeno de la comprensión discursiva.
URI: http://hdl.handle.net/20.500.12984/5739
Other Identifiers: https://estudioslambda.unison.mx/index.php/estudioslambda/article/view/11
10.36799/el.v1i1.11
Appears in Collections:ESTUDIOS λAMBDA. TEORÍA Y PRÁCTICA DE LA DIDÁCTICA EN LENGUA Y LITERATURA

Show full item record

Page view(s)

74
checked on Jun 22, 2023

Google ScholarTM

Check


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.