ESPECIFICACIONES PARA LA PRUEBA DE COMPRENSIÓN LECTORA PARA LOS
NIVELES INICIALES DEL CENTRO LATINOAMERICANO (CLAM) DE LA
PONTIFICIA UNIVERSIDAD JAVERIANA
NÉSTOR JULIÁN GUEVARA LUQUE
LAURA VANESSA QUIÑONEZ DUARTE
Trabajo de grado para optar al título de
Licenciados en Lenguas Modernas
PONTIFICIA UNIVERSIDAD JAVERIANA
FACULTAD DE COMUNICACIÓN Y LENGUAJE
LICENCIATURA EN LENGUAS MODERNAS
BOGOTÁ
2016
ESPECIFICACIONES PARA LA PRUEBA DE COMPRENSIÓN LECTORA PARA LOS
NIVELES INICIALES DEL CENTRO LATINOAMERICANO (CLAM) DE LA
PONTIFICIA UNIVERSIDAD JAVERIANA
NÉSTOR JULIÁN GUEVARA LUQUE
LAURA VANESSA QUIÑONEZ DUARTE
Trabajo de grado para optar al título de
Licenciados en Lenguas Modernas
Asesor
Begoña Martin Alonso
PONTIFICIA UNIVERSIDAD JAVERIANA
FACULTAD DE COMUNICACIÓN Y LENGUAJE
LICENCIATURA EN LENGUAS MODERNAS
BOGOTÁ
2016
RESUMEN
Esta investigación intenta responder a la pregunta sobre qué características debe cumplir
la prueba de comprensión lectora para clasificar a los estudiantes en los niveles iniciales del
CLAM. Sumado a esto, partiendo de un antecedente encontrado en una tesis de postgrado sobre
este examen, esta resalta la importancia de incluir los contenidos del PCIC y el MCER. Como
respuesta, este trabajo plantea una propuesta de especificaciones por medio de la aplicación de
conceptos tales como evaluación, medición y prueba, evaluación de la comprensión lectora,
evaluación y el MCER, el enfoque por tareas en el modelo de fases para la confesión de un
examen por Bordón (2006, tomado de Ferreira, Vine, & Elejalde, 2013) y el modelo de
especificaciones de Luoma (2004). Asimismo, se evaluó la propuesta con cuatro expertos en el
área de evaluación y español como lengua extranjera (ELE). A modo de conclusión, los
resultados mostraron que, si bien se acierta en cuanto a los contenidos de las especificaciones, es
necesario hacer aún más preciso el planteamiento de esta herramienta.
Palabras clave: Comprensión lectora, evaluación de la comprensión lectora, español
como lengua extranjera (ELE), Marco Común Europeo de Referencia (MCER) y
especificaciones de un examen.
ABSTRACT
This research attempts to answer the question of which characteristics the reading
comprehension placement test must have for CLAM students in A1 and A2 levels. It highlights
the importance of including contents from the PCIC and CEFR based on a previous master
investigation. In response, this paper presents a specification proposal through the application of
concepts such as evaluation, measurement and testing, assessing reading comprehension,
assessment and CEFR, the approach tasks through the model proposed by Bordón (2006, tomado
de Ferreira, Vine, & Elejalde, 2013) and the specifications model by Luoma (2004).
Furthermore, this proposal was evaluated by four experts in the area of evaluation and Spanish as
a foreign language (ELE). In conclusion, the results showed that although the specifications
contents are precise, it is necessary to make further clarification upon this tool.
Keywords: Reading comprehension, reading assessment, Spanish as a foreign language (ELE),
Common European Framework of Reference (CEFR) and test specifications.
TABLA DE CONTENIDO
1. INTRODUCCIÓN...............................................................................................................1
2. SITUACIÓN PROBLEMÁTICA ........................................................................................3
2.1. Interrogante ...................................................................................................................7
3. JUSTIFICACIÓN................................................................................................................7
3.1. Antecedentes .................................................................................................................7
3.2. Importancia ................................................................................................................. 18
4. OBJETIVOS DE INVESTIGACIÓN ................................................................................ 19
4.1. Objetivo general .......................................................................................................... 19
4.2. Objetivos específicos .................................................................................................. 19
5. MARCO TEÓRICO .......................................................................................................... 20
5.1. Evaluación, medición y prueba.................................................................................... 20
5.2. La utilidad de un test ................................................................................................... 25
5.3. Comprensión lectora ................................................................................................... 28
5.4. Evaluación de la comprensión lectora.......................................................................... 31
5.5. El MCER y la evaluación ............................................................................................ 36
5.6. Enfoque por tareas ...................................................................................................... 38
5.7. Especificaciones del examen ....................................................................................... 40
6. MARCO METODOLÓGICO ............................................................................................ 42
6.1. Tipo de investigación .................................................................................................. 42
6.2. Ruta metodológica ...................................................................................................... 45
6.3. Contexto e informantes ............................................................................................... 47
6.4. Herramientas para la recogida de datos ....................................................................... 48
6.4.1. Entrevista ............................................................................................................. 48
6.4.2. Cuestionario ......................................................................................................... 49
6.5. Resultados de la investigación ..................................................................................... 51
6.5.1. Resultados de la fase previa ................................................................................. 51
6.5.2. Resultados de la fase de diseño ............................................................................ 56
6.5.3. Resultados de la Fase de experimentación ............................................................ 66
6.5.4. Resultados de la Fase de recapitulación ................................................................ 77
7. CONCLUSIONES ............................................................................................................ 82
8. LIMITACIONES Y RECOMENDACIONES ................................................................... 85
9. BIBLIOGRAFÍA .................................................................................................................. 88
ANEXOS .................................................................................................................................. 94
TABLA DE IMÁGENES
IMAGEN 1. TEXTO NÚMERO 1 DEL EXAMEN DE CLASIFICACIÓN (COMPRENSIÓN LECTORA). ............ 4
IMAGEN 2. TEXTO NÚMERO 2 DEL EXAMEN DE CLASIFICACIÓN (COMPRENSIÓN LECTORA). ............ 6
IMAGEN 3. TEXTO NÚMERO 1 DEL EXAMEN DE CLASIFICACIÓN (COMPRENSIÓN LECTORA). ............ 7
IMAGEN 4. TEXTO NÚMERO 4 DEL EXAMEN DE CLASIFICACIÓN (COMPRENSIÓN LECTORA). ............ 7
IMAGEN 5. ÍTEMS DE OPCIÓN MÚLTIPLE PARA RESPONDER EL PRIMER TEXTO DEL EXAMEN DE
CLASIFICACIÓN (COMPRENSIÓN LECTORA). ........................................................................... 9
IMAGEN 6. EJEMPLO TAREA A1 (OPCIÓN MÚLTIPLE) ................................................................... 65
IMAGEN 7. EJEMPLO TAREA A1 (ÍTEM DE RELACIONAR) ............................................................. 67
IMAGEN 8. EJEMPLO TAREA A1 (ÍTEM DE COMPLETAR) .............................................................. 68
IMAGEN 9. EJEMPLO EXTENSIÓN DE TEXTO A2 DELE ................................................................ 69
IMAGEN 10. EJEMPLO TAREA A2 (OPCIÓN MÚLTIPLE) ................................................................ 88
IMAGEN 11. EJEMPLO TAREA A2 (ÍTEM DE RELACIONAR) ........................................................... 90
TABLA DE TABLAS
TABLA 1. CONSTRUCTOS COMPRENSIÓN ESCRITA A1 Y A2 ......................................................... 60
TABLA 2. CONTENIDOS DE LA PRUEBA COMPRENSIÓN LECTORA A1 Y A2 ................................... 62
TABLA 3. TAREAS E ÍTEMS PARA EL NIVEL A1 ............................................................................ 63
TABLA 4. CRITERIOS DE EVALUACIÓN NIVELES A1 Y A2 ............................................................ 71
TABLA 5. SECCIÓN 1: PROPÓSITO DE LA PRUEBA ........................................................................ 74
TABLA 6. SECCIÓN 2: DESCRIPCIÓN DEL CANDIDATO ................................................................. 75
TABLA 7. SECCIÓN 3: NIVELES DE LA PRUEBA ............................................................................ 76
TABLA 8. SECCIÓN 4: NÚMERO DE SECCIONES DE LA PRUEBA ..................................................... 78
TABLA 9. SECCIÓN 5: CONTENIDOS TRATADOS POR SECCIÓN ...................................................... 79
TABLA 10. SECCIÓN 6: COMPLEJIDAD DE LA TAREA POR SECCIÓN ............................................... 80
TABLA 11. SECCIÓN 7: NÚMERO DE TAREAS POR SECCIÓN .......................................................... 81
TABLA 12. SECCIÓN 8: DURACIÓN DE TAREA POR SECCIÓN ......................................................... 82
TABLA 13. SECCIÓN 9: LONGITUD DE TEXTO POR SECCIÓN ......................................................... 83
TABLA 14. SECCIÓN 10: ESCALA DE EVALUACIÓN ...................................................................... 84
TABLA 15. TAREAS E ÍTEMS PARA EL NIVEL A2 .......................................................................... 87
TABLA DE ANEXOS
ANEXO 1. TRANSCRIPCIÓN ENTREVISTA A BEGOÑA MARTÍN SOBRE EL PERFIL DE
LOS ESTUDIANTES DE CLAM (01 MARZO 2016) REALIZADA POR YHOSEP BARBA &
DANIELA MEYBERG, 2016 ........................................................................................................102
ANEXO 2. HERRAMIENTA PARA VALIDAR ..................................................................................108
ANEXO 3. TAREAS PARA EL NIVEL A1 ...............................................................................116
ANEXO 4. TAREAS PARA EL NIVEL A2 ...............................................................................118
ANEXO 5. ESPECIFICACIONES PARA LOS NIVELES A1 Y A2 ..........................................121
ANEXO 6. CORRECCIÓN CUESTIONARIO ..........................................................................126
ANEXO 7. CORRECCIÓN TAREAS A1 ..................................................................................134
ANEXO 8. CORRECCIÓN TAREAS A2 ..................................................................................137
ANEXO 9. CORRECCIÓN ESPECIFICACIONES ...................................................................139
1
1. INTRODUCCIÓN
El Centro Latinoamericano (CLAM) de la Pontificia Universidad Javeriana (PUJ) ofrece
un programa de español para extranjeros por medio de 12 cursos que se enmarcan en la
enseñanza comunicativa por medio de tareas.
El CLAM, para clasificar a los candidatos en uno de los doce niveles del programa,
utiliza una prueba de clasificación o de nivel que fue creada entre 1997 y 1998 por profesores de
esta institución. Este examen consta de cuatro secciones que evalúan las cuatro destrezas de la
lengua (comprensión lectora, comprensión oral, producción escrita y producción oral) en
conjunto con la gramática y el vocabulario. En 2002, después de la aparición del Marco Común
Europeo de Referencia (MCER) se reajustaron los criterios de clasificación del examen. Sin
embargo, no se modificaron sus contenidos ni su estructura.
Desde este planteamiento, en la universidad han surgido diferentes trabajos que buscan
responder a la problemática descrita. Entre estos, se destaca el trabajo realizado por estudiantes
de la Maestría en ELE quienes proponen tareas para la prueba oral. No obstante, en este trabajo
investigativo de pregrado solo se pretende crear una propuesta de especificaciones de examen
para los niveles iniciales A1.1, A1.2, A2.1 y A2.2. en la comprensión lectora. Este interés surge
después de analizar la prueba actual del CLAM y de consultar la entrevista hecha por los
estudiantes de la Maestría en Lingüística Aplicada del Español como Lengua Extranjera a la
antigua directora del CLAM (Santamaría & Bejarano, 2014).
Como resultado de este análisis se hace evidente que la herramienta actual de evaluación
presenta un desajuste entre los contenidos, la metodología de los programas y los criterios de
evaluación diseñados por nivel del MCER. A su vez, muestra que los textos utilizados dentro de
la prueba no están actualizados y que las actividades del examen no permiten al aspirante
2
demostrar de manera más acertada sus habilidades para la comprensión de textos. Es en este
contexto donde se hace necesario el diseño de una nueva prueba de comprensión escrita.
Como respuesta, decidimos hacer una propuesta de especificaciones de prueba para los
niveles iniciales que, si bien no resulta en la prueba como producto total final, aporta un
instrumento de guía para aquél que vaya a confeccionarla en su totalidad. Las especificaciones
están pensadas bajo el modelo de fases para la confesión de un examen por Bordón (2006,
tomado de Ferreira, Vine, & Elejalde, 2013). Sumado a esto, se realiza una propuesta de tareas
donde las especificaciones diseñadas son aplicadas y puestas en contexto.
Este documento se divide en cinco secciones. La primera sección presenta los hechos
problemáticos que sustentan la necesidad de crear una propuesta de especificaciones que
contribuyan a una nueva prueba de comprensión escrita. La segunda sección muestra otras
investigaciones que abordan, desde contextos diferentes, la problemática de este trabajo
investigativo y se expone la importancia de este proyecto. En la tercera sección, se presentan los
fundamentos teóricos que sientan las bases de esta propuesta. En la cuarta sección, se presenta
primeramente el modelo de la ruta metodológica y el paradigma a seguir para el diseño de las
especificaciones. En la quinta sección, se aplica el modelo de Bordón (2006, tomado de Ferreira,
Vine, & Elejalde, 2013) y se presentan los resultados del proceso de diseño de las
especificaciones y validación de las mismas por parte de expertos. Para finalizar, en la sexta
sección, se presentan las limitaciones y propuestas para futuros trabajos que surgen de este
trabajo de grado en conjunto con las conclusiones parciales del trabajo aquí consignado.
3
2. SITUACIÓN PROBLEMÁTICA
Las estadísticas actuales muestran que el español se ha posicionado a nivel mundial y que
tanto su enseñanza como su aprendizaje, a modo de lengua extranjera, se están incrementando
continuamente. El informe titulado El Español: una lengua viva, realizado por el Instituto
Cervantes (2015), plantea que la población mundial de habla hispana crecerá; se estima que para
el año 2030 el 7.5% hablará español. Asimismo, manifiesta que alrededor de 20 millones de
alumnos estudiarán español como lengua extranjera gracias a factores económicos, académicos y
de interés social (Instituto Cervantes, 2015).
La cifra de estudiantes de español como Lengua Extranjera (ELE) aumenta al igual que
los programas de enseñanza de ELE, especialmente en contextos hispanohablantes, entre los
cuales Colombia no es la excepción. Hoy en día, se ofrecen programas en más de 30
universidades y otras instituciones educativas en varias ciudades del país como Bogotá,
Medellín, Cali, Bucaramanga, Popayán, Barranquilla, Cartagena e Ibagué (De Mejía, López,
Cruz, Flaborea & Guzmán, 2009). Ciudades que anualmente reciben cerca de 200 extranjeros de
varias partes del mundo (De Mejía et al., 2009). Estos programas educativos siguen el enfoque
comunicativo y por tareas. Además, se organizan en diferentes niveles o módulos donde se busca
que tengan equivalencia con el Marco Común Europeo de Referencia -MCER- (De Mejía et al.,
2009).
Entre estos programas de enseñanza de español como lengua extranjera se encuentra el
programa del Centro Latinoamericano (CLAM) de la Pontificia Universidad Javeriana (PUJ).
Este centro cuenta con más de 42 años de experiencia y constituye una de las instituciones
colombianas más antiguas dedicadas a la enseñanza del español como lengua extranjera. Debido
a su trayectoria, el CLAM se destaca en este campo en Colombia.
4
Este centro ofrece un programa de español para extranjeros que consta de 12 cursos
generales de lengua y cultura que permiten alcanzar el nivel C2 de competencia lingüística según
el MCER. El objetivo principal de los cursos es poder desarrollar o mejorar en los estudiantes su
capacidad para comunicarse de manera correcta y eficaz en contextos reales de lengua y
adentrarlos en algunos aspectos de la cultura colombiana y latinoamericana (CLAM, 2015). Para
agrupar a los estudiantes en los diferentes niveles del centro, la PUJ utiliza un examen de
clasificación que fue diseñado en 1997 el cual que evalúa las 4 habilidades fundamentales en una
lengua (comprensión lectora, comprensión oral, producción escrita y producción oral), la
gramática y el vocabulario.
En cuanto al examen de clasificación de la comprensión lectora, este consta de 4 textos
cada uno con sus respectivas preguntas, de la 105 a la 129. En total se evalúan 24 preguntas de
opción múltiple (a-d). En la siguiente imagen se puede ver cómo a partir de un texto
normalmente contextualizado en la ciudad de Bogotá se plantean preguntas de opción múltiple:
Fuente: CLAM (1997)
Después de analizar esta prueba y consultar la entrevista hecha por los estudiantes de la
Maestría en Lingüística Aplicada del español como Lengua Extranjera a la antigua directora del
Imagen 1. Texto número 1 del examen de clasificación (comprensión lectora).
5
CLAM (Santamaría & Bejarano, 2014), se establece que la actual prueba de comprensión lectora
presenta tres hechos problemáticos que hacen pertinente desarrollar un nuevo examen de
clasificación de comprensión lectora en el CLAM. El primer hecho problemático radica en que la
reciente prueba de comprensión lectora es del año 1997 y presenta un desajuste entre los
contenidos y la metodología de los programas. El segundo hecho problemático consiste en que
los textos utilizados dentro de la prueba no están actualizados de acuerdo a la realidad
sociocultural del país. Finalmente, el tercer hecho problemático reside en que las actividades del
examen no permiten al alumno demostrar asertivamente sus habilidades para la comprensión de
textos al responder a las preguntas planteadas.
Retomando el primer hecho problemático, se puede afirmar que la actual prueba de
comprensión lectora es muy antigua lo cual causa una discrepancia entre los contenidos y la
metodología de los programas. Efectivamente, como se ha mencionado antes, el examen fue
diseñado en el año 1997 y sus contenidos no se han modificado desde entonces (Santamaría &
Bejarano, 2014, anexo entrevista a la directora académica del CLAM, Nancy Agray). Los
contenidos de los programas, por su parte, se renovaron en el año 2013. Por consiguiente, se
percibe un posible desajuste entre lo que se está enseñando hoy en día y lo que mide la prueba
actual de clasificación. En este punto, es importante mencionar que las pruebas de clasificación
«deben basarse en los aspectos del programa enseñados por la institución» (Alderson, Clapham
& Wall, 1995, p.11) y «deben estar específicamente relacionadas con un determinado programa»
(Brown, 2004, p.10).
Por otro lado, debido a que los programas del CLAM adoptan un enfoque comunicativo,
en particular el enfoque por tareas para la enseñanza de ELE (anexo 1), puede decirse que existe
un desajuste también en la metodología utilizada en la prueba como hemos visto con anterioridad
6
(imagen 1), dado que el actual examen de clasificación no utiliza tareas comunicativas que lleven
al candidato a integrar el conocimiento formal del lenguaje. Es decir, la actual prueba de
clasificación no plantea tareas como unidad de centro de planeación en la enseñanza ni promueve
actividades significativas.
Fuente: CLAM (1997)
El segundo hecho problemático reside en que los textos utilizados dentro de la prueba de
comprensión lectora están desactualizados y, por consiguiente, no responden a la realidad actual
sociocultural del país. Pozzo (2010) defiende la incorporación de aspectos interculturales en la
evaluación en ELE y menciona que para ello es necesario presentar a los estudiantes eventos
presentes en cualquier ciudad de sus países que puedan relacionarse con el contexto hispano
donde estén. Por el contrario, la actual prueba del CLAM utiliza textos donde se evidencia el
contexto social y cultural de la ciudad de Bogotá de hace algunos años. Además, no incluye
temas interculturales lo cual ocasiona que la prueba esté desactualizada y esto hace que los
estudiantes que están inmersos en el verdadero entorno social no puedan establecer las
Imagen 2. Texto número 2 del examen de clasificación (comprensión lectora).
7
diferencias y semejanzas entre los aspectos socioculturales del contexto de inmersión y su país
de origen.
2.1. Interrogante
¿Qué características debe cumplir la prueba de comprensión lectora para clasificar a los
estudiantes en los niveles iniciales del CLAM?
3. JUSTIFICACIÓN
3.1. Antecedentes
A modo de ejercicio investigativo consultamos diferentes trabajos con relación directa o
indirecta a la enseñanza del español como Lengua Extranjera (ELE), al diseño de exámenes de
clasificación, a la evaluación en ELE y a la evaluación de la comprensión escrita. A
Imagen 2. Texto número 1 del examen de clasificación
(comprensión lectora). Imagen 1. Texto número 4 del examen de clasificación
(comprensión lectora).
8
continuación, se hará una breve descripción de 5 investigaciones consideradas para el presente
trabajo, las cuales sirvieron de guía, soporte o ayuda en el proceso investigativo.
En primera instancia, el trabajo realizado por Fernández y Pozzo (2012) titulado El
fenómeno del español como lengua internacional. Reflexiones sobre el componente cultural en
la enseñanza, tiene como propósito analizar el creciente desarrollo de la lengua española como
lengua internacional desde dos perspectivas: la enseñanza de ELE desde lo comercial y la
búsqueda de legitimización del estatus del español en comparación con otras segundas lenguas
(L2). Así mismo, en el desarrollo de esta investigación, al comparar distintas posturas presentes
en los manuales de los alumnos, nace el interés del por qué incluir el componente cultural en la
enseñanza de ELE.
En los últimos años el crecimiento del español ha sido notorio, tanto así que ha llegado a
ser considerada por muchos como la segunda lengua de comunicación internacional después del
inglés, dicen los autores. El artículo presenta el fenómeno de expansión económica del español
partiendo de dos puntos diferentes: la expansión con relación a otras lenguas con las que
interacciona en países hispanohablantes y la expansión respecto a lenguas que priman
internacionalmente y con las cuales compite en el mercado de la enseñanza de lenguas
extranjeras.
En el análisis se evidencia en el mercado de las lenguas extranjeras (tales como el inglés,
el francés, el chino, entre otras) la producción de materiales didácticos, la formación de
profesores, la creación de instituciones y la planificación de exámenes y certificaciones de los
mismos. En cuanto al material de ELE, el artículo menciona que en esta área España es quien
produce la mayor parte de los textos de enseñanza en comparación a los países de América.
9
En la enseñanza de ELE hay dos focos respecto a los cuales se direcciona la competencia
de estatus o ‘batalla del idioma’1: la competencia entre los distintos registros del español y las
diferentes culturas que se transmiten al estudiante de ELE. En el componente cultural de los
manuales de ELE, se muestra una preferencia por ciertas variantes geográficas del español al
igual que por ciertos países: España se muestra como punto de referencia de la lengua y al incluir
otros países de habla hispana se utiliza una aproximación más turística que inclusiva. Cabe
aclarar que estos resultados se establecen de esta manera debido a la producción mayoritaria de
material en ELE creado por entidades españolas y al poco material propio de ELE difundido por
parte de los países hispanohablantes de América.
Esta investigación es relevante puesto que expone parte de la realidad del español como
lengua extranjera respecto al trato académico, comercial y cultural. Si bien trata su creciente
posicionamiento como lengua de encuentro, lengua global y lengua como recurso económico, el
artículo también menciona la reciente preocupación por el componente cultural de los manuales
de ELE y la forma en que este se presenta a los estudiantes de ELE. De igual manera, este
artículo muestra que es importante desarrollar material propio en ELE en Latinoamérica tanto
para competir en el mercado como para promover la cultura latinoamericana. En cuanto a nuestra
investigación, el artículo nos insta a crear material de ELE cuyos contenidos obedezcan a nuestro
contexto colombiano para así promover desde la comprensión lectora y la comprensión
sociocultural de nuestra cultura desde una situación base real.
Abordando la línea de la interculturalidad, Pozzo (2010) en su artículo de análisis titulado
Interculturalidad y evaluación en ele: fundamentos teóricos y propuestas para su desarrollo en
1 Término introducido por Del Valle y Gabriel Stheeman (2002) al referirse a la batalla necesaria en la cual unos
idiomas suben y otros bajan.
10
el aula alude a la evaluación de ELE desde una perspectiva intercultural por parte de los dos
agentes involucrados en el proceso de evaluación: el aplicante y la institución que la aplica.
El objetivo del documento es contribuir al desarrollo de una conciencia intercultural en el
evaluador y el evaluado. Como primera medida, hace una aproximación al campo de la
evaluación en ELE donde la interculturalidad se ve plasmada en un doble plano: por una parte,
como acreditación y certificación y, por otra parte, como proceso permanente y formativo.
Del mismo modo, la autora menciona que la interculturalidad se hace presente de diversas
formas: en la elección de las variedades a enseñar, la inclusión de la cultura como parte
fundamental en la enseñanza de una lengua y la implementación de una perspectiva pedagógica
que promueva el desarrollo de la consciencia intercultural. En cuanto a la evaluación per se,
Pozzo (2010) menciona que esta constituye un fenómeno amplio y multifacético que se aborda
desde distintas perspectivas, según el momento, ya sea inicial, continuo o final, y según la
finalidad, la cual puede ser diagnóstica, formativa o sumativa.
El panorama más complejo mencionado es el encuentro lingüístico-cultural entre
evaluador y evaluado, nativo y no nativo. En esta relación, el concepto de interculturalidad se
define en relación con dos referentes como acontecimiento o escenario -en cuanto a interacción-
y como el objeto de estudio que es motivo de evaluación -la forma de interactuar-. Estos aspectos
en la acreditación conducen precisamente a la “consciencia intercultural”, definida por el MCER
como «el conocimiento, la percepción y la comprensión de la relación entre el ‘mundo de origen’
y el ‘mundo de la comunidad’ objeto de estudio» (MCER, 2002, p. 101).
Para aplicar la interculturalidad en la evaluación de ELE es necesario presentar a los
estudiantes eventos que tengan lugar en cualquier ciudad de sus países, que puedan relacionarse
con el contexto hispano donde se encuentren. En este postulado se hace especial énfasis en el
11
hecho de que la información dada sea actual ya que esta condición de realidad es la que permite
establecer relaciones relevantes y reales entre ambos contextos. Más allá de qué temas sean
tratados en cada sección, está la necesidad de tener en cuenta el rol participativo que se asigna al
aprendiz en el proceso de evaluación, los temas relacionados a las problemáticas mundiales que
promueven el conocimiento del mundo hispano y la reflexión que vincula al mundo de la lengua
meta con la lengua materna.
En este sentido, la autora muestra la interculturalidad como un encuentro de culturas que
va más allá de la convivencia superficial de las mismas. Relacionado a esto, y debido a la
creciente internacionalización actual, ella propone dar espacio a los procesos de certificación por
medio del reconocimiento de todos los tipos de conocimientos adquiridos; donde se dé
constancia escrita de las habilidades interculturales a la hora de usar la lengua en un contexto
hispanohablante por parte del usuario. También, habla de la obligación de concebir una
evaluación global en sintonía con la comprensión de la naturaleza de la comunicación
intercultural.
Esta investigación es relevante debido a que respalda nuestra problemática,
específicamente nuestro segundo hecho problemático. Es decir, esta autora sostiene la
importancia de incluir el componente intercultural en las tareas de evaluación, en nuestro caso,
en la selección de textos para la evaluación de la comprensión escrita. De igual manera, este
artículo demuestra que para certificar un conocimiento global en ELE es necesario trabajar
contenidos interculturales que vayan más allá de solo el dominio de la lengua.
Por otra parte, artículo de análisis ¿Qué es una prueba de nivel? Definición, objetivos y
factores que hay que tener en cuenta en su elaboración (Natalías, 2008) tiene como propósito
12
reunir los criterios que, a juicio de la autora, han de seguirse para elaborar una prueba de nivel en
el campo del Español como Lengua Extranjera.
El artículo hace un análisis y lista los elementos base que se deben tener en cuenta a la
hora de elaborar pruebas de nivel con relación a cada destreza lingüística: comprensión oral,
comprensión escrita, producción oral y producción escrita. Todo el filtro de información se hace
bajo los ejes centrales de evaluación que, según Natalías (2008), son los conocimientos, y, a su
vez, el uso de lengua por parte del estudiante los cuales permiten clasificarlo en el nivel de
lengua en el que este debe estar. Para esta revisión se toman en cuenta términos y lineamientos
propuestos por autores como Tenbrink (1981), Bordón (2006, tomado de Ferreira, Vine, &
Elejalde, 2013), Alderson et al. (1998), Caroline Clapham y Dianne Wall (1998).
En conjunto con Bordón (2006, tomado de Ferreira, Vine, & Elejalde, 2013), Natalías
(2008) establece que la realización de la prueba debe ser llevada a cabo por un equipo que, como
primera tarea, delimite los objetivos de la prueba, los contenidos de esta y los descriptores por
nivel de proficiencia del MCER que obedezcan, de igual manera, a los contenidos del programa
de ELE de la institución que la realice. En este apartado, Natalías (2008) hace especial énfasis en
la importancia de la relación entre el MCER, el programa de lengua de la institución y la
herramienta de evaluación para mejorar los procesos y la fiabilidad de la evaluación de la lengua.
El análisis muestra los ítems objetivos que pueden tenerse en cuenta en los test de
evaluación al igual que sus ventajas y consecuencias en la evaluación y en el estudiante a la hora
de presentar el examen en todas las destrezas lingüísticas. Entre estos se encuentran el test de
elección múltiple, el cloze test, el cloze test selectivo y el C-test a la hora de hablar de la
comprensión lectora. Respecto a los últimos tres tipos de test existe una dificultad; la elección de
un texto, ya que estos pueden resultar muy complejos para un nivel inicial o muy fáciles para el
13
nivel avanzado. Con base a Tenbrink (1981), la autora recomienda hacer un test largo puesto que
la longitud del test da indicios de fiabilidad.
Así mismo, describe que es necesario someter el examen de nivel a prueba con hablantes
nativos para así constatar que solo hay una respuesta correcta. Otra alternativa para comprobar
que el examen de nivel es acertado es hablar con los evaluados respecto a si creen que en
realidad la prueba los clasificó, en cuanto a su opinión personal, en el nivel de lengua asignado.
Esta investigación es relevante, ya que este artículo aporta indicios respecto a la clase de
ítems que deberían implementarse a la hora de evaluar la comprensión escrita. De igual manera,
a la hora de establecer el MCER como lineamiento de selección de contenidos, el artículo
muestra cómo puede utilizarse como soporte para el diseño de tareas de evaluación y validación
de las mismas. Sumado a esto, este artículo sustenta el primer hecho problemático ya que
sostiene que el examen de clasificación debe que estar alineado a los programas que lo
implementen, además ayuda a definir qué es y en qué consiste un examen de clasificación.
Por su parte, la investigación Criterios pragmáticos y socioculturales para la selección
de textos y géneros discursivos en un examen de certificación de nivel inicial (a2-n) de lengua
española para trabajadores inmigrantes (Baralo & Guerra, 2011) se produjo como respuesta a
las dificultades comunicativas de la creciente población inmigrante en el sector laboral que
requiere certificación de nivel de lengua en ELE en España.
En esta investigación se diseña un examen, al que se le nombra DILE2 (Diploma inicial
en lengua española) de nivel A2 para trabajadores inmigrantes que están adquiriendo la lengua
española como lengua extranjera. El diseño se basa en los principios teóricos y los requisitos
sobre evaluación del MCER y los niveles de evaluación de lengua de las asociaciones de
2 En la actualidad llamado LETRA (Lengua Española para Trabajadores Inmigrantes).
14
examinadores ALTE (Association of Language Testers in Europe) y EALTA (European
Association for Language Testing and Assessment) del Consejo de Europa. Así mismo, esta
prueba responde a las necesidades comunicativas reales del grupo meta las cuales se
identificaron con base en estudios etnolingüísticos que permitieron determinar lo que los
hablantes nativos demandaban del inmigrante en una situación comunicativa real en el ámbito
laboral, institucional y administrativo.
En la fase de investigación se estudiaron documentos como el MCER y el Plan Curricular
del Instituto Cervantes (PCIC); los niveles de lengua ALTE y EALTA; y se consultaron fuentes
como el CEPI (Centros de Participación e Integración de la Comunidad de Madrid), centros de
formación de Cruz Roja y otras ONG donde se conoció la situación del aprendizaje de la lengua
en centros de acogida e integración por parte de profesores voluntarios.
El examen de certificación DILE consta de 4 apartados correspondientes a cada una de
las destrezas lingüísticas comunicativas: comprensión lectora, comprensión audiovisual,
expresión e interacción escrita, y expresión e interacción oral. Así mismo, se elaboró un
documento con las especificaciones del examen DILE en el que se detallaron las capacidades
evaluadas en cada prueba, la descripción de las tareas y sus ítems, al igual que los géneros
discursivos que sirven de estímulo inicial a las tareas individuales.
Para la selección de los textos escritos en la prueba de comprensión lectora, se observó y
consultó a personas que trabajan con inmigrantes de forma cotidiana con el fin de determinar qué
tipos de textos tendrá que producir el candidato del examen en la vida real y qué se le exigirá al
respecto para la comprensión y la expresión comunicativa. En la fase de diseño del examen
DILE, se tomó la decisión de seleccionar géneros que promovieran la interacción escrita y que
15
estimularan las tareas de la comprensión escrita correspondientes al nivel de lengua escogido
según los parámetros del MCER.
A continuación, se programaron distintas tareas de comprensión lectora con el propósito
de que el candidato demostrara que podía leer con diferentes objetivos y comprender la idea
general o la función comunicativa del texto para así conseguir información específica o para
inferir ideas no explícitas (Ottonello & Infante, 2011).
En la etapa de verificación del examen, se utilizó el Alfa de Cronbach para comprobar la
fiabilidad de los textos e ítems diseñados para el examen. Como resultado, esta escala demostró
que la selección de textos y géneros discursivos contribuyó a que el examen DILE tuviera
realmente un carácter útil comunicativo aplicado a las necesidades reales de comunicación de los
trabajadores hablantes no nativos de español.
Esta investigación es relevante para el presente proyecto investigativo ya que nos explica
cómo hacer un análisis de necesidades del contexto para plantear el constructo (objeto a evaluar),
desarrollar tareas a partir del MCER, y plantear las especificaciones del examen con relación al
constructo en la comprensión lectora. Además, brinda herramientas para diseñar tareas
comunicativas para la evaluación de la comprensión lectora y da pautas sobre el tipo de
preguntas para evaluar esta habilidad.
El artículo investigativo Hacia una prueba de nivel en español como lengua extranjera
(Ferreira, Vine & Elejalde, 2013) tiene como finalidad presentar el proceso de planificación,
creación e implementación de una prueba de nivel en ELE. El objetivo principal de este trabajo
es crear dos formatos de la prueba (A y B) y evaluar el comportamiento de estos mismos en la
aplicación para evaluar el nivel B1.
16
Esta investigación se realizó en Chile, donde el programa de ELE de la Universidad de
Concepción (ELE-UDEC) da cursos trimestrales a sus estudiantes de intercambio. A la hora de
entrar al programa se pide a los estudiantes un nivel de lengua B1 según los parámetros del
MCER. Para verificar que estos estén efectivamente en este nivel se diseñó una prueba de nivel
para evaluar la proficiencia en ELE de modo que se pudiera constatar que los estudiantes habían
adquirido los contenidos tanto gramaticales como léxicos de este nivel. De igual forma, los
resultados arrojados por esta prueba contribuyeron a la correcta distribución de los estudiantes en
cursos equilibrados de acuerdo con sus resultados y habilidades con la lengua.
En la fundamentación teórica de esta investigación se maneja el concepto de evaluación
entendida como «una operación indisociable de todo proceso de enseñanza y aprendizaje»
(Pastor, 2003 citado en Ferreira, Vine & Elejalde, 2013, p. 3) cuyo objetivo es medir la
apropiación del conocimiento lingüístico según el tipo de prueba que se use.
Se menciona que, gracias al enfoque comunicativo, la evaluación dejó de ser solo una
manera de medir el conocimiento lingüístico en un estudiante y ahora también tiene como
objetivo mejorar los procesos de aprendizaje, evaluar la actuación lingüística y la competencia
comunicativa. Al citar a Hymes (1971) los autores hacen énfasis en la necesidad de incluir una
visión sociocultural en la competencia comunicativa a la hora de usar la lengua. Por
consiguiente, es necesario la intervención de competencias lingüísticas, sociolingüísticas y
pragmáticas que se verán manifestadas en las destrezas de tipo interpretativas como la
comprensión oral y escrita.
En cuanto a la confección de una prueba, se menciona que esta es un instrumento para
obtener información y que es efectiva cuando se consideran los criterios pertinentes para su
elaboración y utilización. Por este motivo, los autores presentan una breve descripción de las
17
distintas fases de confección de una prueba de Bordón (1991, 2006) como modelo a seguir. De
igual manera, se plantea la problemática de que, si bien existen diferentes tipos de pruebas en el
área de ELE, cada una de estas obedece a necesidades y contextos específicos, razón por la cual
es difícil aplicarlas dentro de contextos para los cuales no fueron diseñadas (Natalías, 2008,
citado en Vine & Elejalde, 2013).
Dentro de las fases de Bordón (2006, tomado de Ferreira, Vine, & Elejalde, 2013)
encontramos la fase previa, la fase de diseño, la fase de experimentación y la fase de
recapitulación. En la fase previa de esta investigación se estableció el objetivo del instrumento, el
perfil de los estudiantes y las secciones que tendría la prueba: comprensión auditiva y lectora,
producción oral y escrita, gramática y léxico. Así mismo, se hizo una revisión de pruebas para la
evaluación de ELE y se tomó como referente la prueba DELE de nivel B1.
En la fase de diseño, se precisaron los contenidos, los temas y la cantidad de ítems según
el modelo de distribución propuesto por Bordón (2006, tomado de Ferreira, Vine, & Elejalde,
2013) en función del perfil del candidato. En la fase de experimentación y evaluación del
instrumento se hizo una revisión de cada ítem por parte de un equipo de especialistas con el
propósito de hacer los ajustes pertinentes antes de hacer la prueba piloto. Al finalizar este último
paso, se habilitó el instrumento para ser aplicado. Los resultados de la prueba en sus dos
formatos en el 2012 y el 2013 reflejaron que el instrumento permitió distinguir y determinar
asertivamente el nivel de lengua B1 según el MCER de los estudiantes antes de dar inicio al
curso del programa de la universidad.
Este trabajo es importante debido a que presenta una propuesta de instrumento de
evaluación en el área de ELE basada en la ruta metodológica de Bordón, la cual se seguirá
18
también en esta investigación. Así mismo, presenta las características que debe tener el examen
de nivel; en nuestro caso específico, la prueba de comprensión lectora.
3.2. Importancia
En vista de que el campo de investigación en evaluación ha sido poco abordado y tratado
en la enseñanza de lenguas extranjeras y particularmente en el español (Puig, 2008) y que esta ha
sido vagamente explorada en Colombia (De Mejía et al., 2009), se podría afirmar que la presente
investigación podría contribuir a este campo del conocimiento concretamente al desarrollo de las
especificaciones de un examen de clasificación.
De la misma manera, se ha evidenciado que existe poco material colombiano asociado a
la enseñanza, al aprendizaje y a la evaluación de ELE. Además, los materiales que se encuentran
han sido desarrollados principalmente en España o en Estados Unidos (De Mejía et al., 2009,
Fernández & Pozzo, 2012). Proponer un proyecto investigativo como el presente establece un
aporte investigativo en Colombia sobre la indagación y diseño de materiales de español como
lengua extranjera.
Finalmente, este trabajo podría contribuir a una de las líneas de investigación de la
Facultad de Comunicación y Lenguaje, ya que trata un campo importante dentro de la
Lingüística Aplicada y el de evaluación en español como lengua extranjera, además hace parte
de un proyecto más grande del Departamento de Lenguas que tiene como objetivo principal el
diseño del nuevo examen de clasificación del CLAM en la Pontificia Universidad Javeriana.
Gracias a la creación de las especificaciones, los futuros trabajos de investigación tendrán un
modelo de referencia sobre el cual seguir construyendo conocimiento en el área. Tal y como
menciona Luoma (2004), los tipos de especificaciones nos permitirán dar un sentido y un orden
más concreto de los contenidos de las pruebas y a su vez establecer qué hay en las mismas. La
19
creación de las especificaciones es un aspecto fundamental y de gran ayuda a la hora de crear un
examen, ya que nos permitirá poder tener una guía del orden y también poder establecer los tipos
de documentos, preguntas y tareas que debe contener el examen.
Los aspectos mencionados anteriormente, tienen como objetivo evidenciar la importancia
del presente proyecto de investigación tanto a nivel nacional como a nivel institucional e
internacional. Por esta razón, con el fin de estructurar el presente trabajo investigativo se ha
decidido plantear un objetivo general de investigación y unos objetivos específicos que guíen la
realización de este proyecto. Estos se presentan a continuación.
4. OBJETIVOS DE INVESTIGACIÓN
4.1. Objetivo general
Diseñar las especificaciones para el examen de clasificación de comprensión lectora en
los niveles iniciales (A1.1, A1.2, A2.1, A2.2) del Centro Latinoamericano de la Pontificia
Universidad Javeriana (con una propuesta inicial de tareas).
4.2. Objetivos específicos
1. Analizar las necesidades y características de la población.
2. Determinar los objetivos que se van a evaluar en la prueba para cada uno de los niveles
(A1.1, A1.2, A2.1, A2.2).
3. Establecer tipo de tareas e ítems a desarrollar para evaluar los niveles (A1.1, A1.2, A2.1,
A2.2).
4. Establecer los criterios de evaluación.
5. Validar las especificaciones con expertos para comprobar así la veracidad, precisión y
especificidad de los contenidos de las especificaciones de la prueba.
6. Diseñar una propuesta de tareas a partir de las especificaciones que permita ubicar a los
20
estudiantes en los concernientes niveles iniciales del CLAM (A1.1, A1.2, A2.1, A2.2).
5. MARCO TEÓRICO
A la hora de establecer relaciones entre la problemática ya expuesta y el objetivo de este
trabajo investigativo: crear las especificaciones del examen de clasificación para la prueba de
comprensión escrita en los niveles iniciales del CLAM, fue necesario hacer una búsqueda de
conceptos que encausaran el desarrollo de la investigación hacia la realización de la propuesta
final. Por este motivo, se hizo una delimitación teórica de los conceptos: evaluación, medición y
prueba, utilidad de un test, comprensión escrita, evaluación de la comprensión escrita, MCER y
evaluación, enfoque por tareas y especificaciones de un examen.
5.1. Evaluación, medición y prueba
Para entender bien el concepto de evaluación primero es necesario hacer una distinción
entre esta y los conceptos de medición y prueba. Aunque en muchas ocasiones se usan estos
términos indiscriminadamente, existen diferencias entre estos al igual que diferentes
implicaciones en la enseñanza y evaluación de lenguas (Brown, 1990).
En primer lugar, Richards et al. (1985, citado en Pastor, 2003), en el Diccionario de
Lingüística Aplicada y Enseñanza de Lenguas, definen la evaluación básicamente como la
recogida sistemática de información con el propósito de tomar decisiones por medio de métodos,
que pueden ser tanto cuantitativos como cualitativos. Respecto a esto, Weiss (1972, citado en
Brown, 1990) añade que entre más confiable y relevante sea la información recogida es más
probable que se tome una buena decisión. De igual forma, Brindley & Chapelle (2010) añaden
que esta es un proceso continuo que encierra un dominio muy amplio y hace referencia al acto de
recolectar información para hacer juicios respecto al conocimiento de los estudiantes de una
lengua y su habilidad para usarla.
21
Dentro del concepto de evaluación «es preciso tener en cuenta que la manera de entender
la evaluación de los aprendizajes varía sustancialmente según cual sea la teoría del aprendizaje
en que se ampara el enfoque o método didáctico» (CVC, s.f.). A medida que los enfoques
metodológicos han venido transformándose, los procesos de evaluación también. De esta
manera, estos han cambiado sus objetivos basados en las concepciones de comunicación y uso de
la lengua (Ferreira, Vine & Elejalde, 2013). Por ejemplo, en el método tradicional el proceso de
evaluación se veía solo a través de un examen final en el que se buscaba verificar que el alumno
hubiese aprendido los contenidos lingüísticos enseñados, como resume Diez (s.f.). Por otra parte,
también añade que en el método audio-oral la evaluación era un poco más objetiva y rigurosa por
medio de preguntas con respuestas determinadas.
En este proceso la evaluación era una herramienta y llegó a adquirir un carácter
científico. Años después en el enfoque comunicativo, el cual tuvo y tiene gran influencia
actualmente, la evaluación empieza a verse como un medio de mejoramiento de los procesos de
aprendizaje ya que esta permite tomar decisiones que modifican el proceso en sí. En este último
caso, al verse la lengua como un instrumento de comunicación más allá de una agrupación de
estructuras lingüísticas, se ha tenido que buscar una forma de evaluar el uso de la lengua y el
enfoque pasó de medir la competencia y los conocimientos a medir la actuación y la habilidad en
la L2.
En función de evaluar, es necesario hacer distinción entre evaluación formativa y
sumativa. Por un lado, según Brown (2004) la evaluación formativa trata de medir a los
estudiantes en el proceso de formación de sus competencias y habilidades con el objetivo de
ayudarles a continuar su proceso de adquisición de conocimiento. Esta se lleva a cabo durante el
curso y sus resultados sirven para que el profesor ofrezca ayuda oportuna o para que cambie el
22
énfasis del curso, si fuera necesario (Arias & Maturana, 2005). Sumado a esto, el Instituto
Cervantes añade que se trata de «un proceso continuo de acopio de información sobre el alcance
del aprendizaje, así como sobre los puntos fuertes y débiles, que el profesor puede introducir en
su planificación del curso (…)» (2002). En definitiva, los objetivos de la evaluación formativa
son «la regulación pedagógica, la gestión de errores y el refuerzo de los éxitos y se logra a partir
de la retroalimentación y la autoevaluación» (Jorba & Casellas, 1997, citado en Arias &
Maturana, 2005, p. 6).
Por otro lado, Brown (2004) afirma que la evaluación sumativa apunta a medir o resumir
lo que un estudiante ha alcanzado y usualmente ocurre al final de un curso o unidad. Arias,
Maturana & Restrepo (2012) establecen que el concepto de evaluación sumativa se construyó
con base en la propuesta de Hadji (1997). En su propuesta, la evaluación sumativa «se lleva
acabo cuando ya se han finalizado ciertos momentos de instrucción y aprendizaje, y su propósito
es verificar los logros alcanzados por los estudiantes y se caracteriza por el momento en que se
realiza y por su propósito» (Hadji, 1997 citado en Arias & Maturana, 2005, p. 30). Este tipo de
evaluación es importante a la hora de constatar qué aprendió el estudiante al final de un ciclo. Se
basa en los resultados del conocimiento lingüístico de la lengua extranjera, no en los procesos
(Jorba & Casellas, 1997 citado en Arias & Maturana, 2005)
Por último, el campo de la evaluación también se ve influenciado por la entidad que la
realiza, el contexto, el tipo de población, los propósitos de evaluación y demás agentes
implicados en este proceso. Por esta razón, las prácticas evaluativas para recoger información se
realizan en diferentes ámbitos y varían en su propósito. Así, las tareas o procedimientos
evaluativos empleados para conseguir dicha información varían dependiendo de la definición
que se tenga de la lengua y del qué, cómo, cuándo y para qué se va a evaluar y se delimita en
23
función de la lengua y los propósitos del aprendizaje o enseñanza (Arias & Maturana, 2005;
Ferreira, Vine & Elejalde, 2013).
En segundo lugar, para Brown (1990) la medición es el proceso de cuantificar las
características de una persona según procedimientos y reglas explícitas. Aquí el propósito es
evidenciar el grado de dominio del estudiante sobre el constructo del objeto a evaluar. De
acuerdo a este autor, hay tres términos que delimitan el proceso de medición: cuantificación,
características y reglas y procedimientos. La cuantificación, en términos sencillos, consiste en
asignar números o representaciones visuales, categorías o clasificaciones al objeto a evaluar con
el propósito de analizar e interpretarlos para así medir.
En cuanto a las características, se puede asignar números a las particularidades físicas y
mentales de una persona, entre estas características se pueden encontrar términos tales como
aptitud, actitud, inteligencia, fluidez al hablar, entre otros. En este contexto, por habilidad se
entiende el hecho de estar apto para hacer algo. Es importante mencionar que lo que se pretende
calificar son los atributos de la persona y no la persona en sí. Por otra parte, al referirse a las
reglas y procedimientos, la medición debe hacerse de acuerdo a reglas y métodos establecidos.
Para que estos se consideren medición, es necesario que sean replicables en otros contextos
(García, 2002).
En tercer lugar, Carroll (1948, citado en Brown, 1990) define la prueba como «un
procedimiento para provocar ciertos comportamientos sobre los cuales se puede hacer
inferencias sobre ciertas características de un individuo» (p. 20). Brown (1990) dice que en sí
una prueba es un instrumento de medición diseñado para provocar muestras específicas del
comportamiento de un individuo y que necesariamente cuantifica las características del mismo
según un procedimiento específico. Richards et al., (1985 citado en Pastor, 2003) concuerdan en
24
que una prueba es el procedimiento por medio del cual se miden habilidades, conocimiento o
actuación. Por último, Brindley & Chapelle (2010) sostienen que las pruebas son una
herramienta útil dentro de los muchos procesos y tareas que se pueden utilizar para evaluar a un
estudiante.
Dentro de la definición de prueba, Brown (2004) establece cinco características. En
primer lugar, una prueba es un método. Es decir, un instrumento que debe ser diligenciado por el
interesado en tomar el examen. Este método debe ser explícito y estructurado. En segundo lugar,
una prueba debe medir. Algunas pruebas pueden medir habilidades generales mientras que otras
pueden medir habilidades específicas. En tercer lugar, una prueba debe medir la habilidad, el
conocimiento y el desempeño de un individuo y, para esto, es fundamental tener en mente quién
es el individuo. En cuarto lugar, una prueba mide el desempeño del individuo que la realiza ya
sea por habilidades o competencias lingüísticas. En última instancia, una prueba mide un
dominio base específico. En este orden de ideas, una prueba bien construida es un instrumento
que aporta una medición precisa de quien hace la prueba en un área determinada.
Dado que las pruebas son instrumentos que giran en torno a propósitos específicos
encontramos distintos tipos de pruebas. En el área de enseñanza y aprendizaje encontramos
pruebas de aptitud lingüística, pruebas de proficiencia, pruebas de rendimiento, y pruebas de
nivel.
Según Pastor (2003) las pruebas de aptitud lingüística miden la capacidad de un individuo
para adquirir una L2 por medio de la medición de la memorización, la inferencia de significados,
la capacidad de decodificar gramática y la identificación de fonemas. Las pruebas de proficiencia
son las que miden el dominio y el conocimiento de un individuo en una L2 y no se diseñan
teniendo en cuenta ningún programa concreto de enseñanza. Las pruebas de rendimiento evalúan
25
los conocimientos adquiridos en un curso específico de una lengua meta y miden cuánto
aprendió un estudiante en un programa. Por último, la prueba de nivel es la que permite clasificar
a un estudiante o individuo en el estadio que le corresponde de un curso o programa de estudios.
Sumado a esto último, una prueba de nivel como procedimiento también mide las habilidades, el
conocimiento lingüístico y/o la actuación del aprendiz de la lengua (Pastor, 2003 Citado en
Ferreira, Vine & Elejalde, 2013).
Así mismo, Natalías (2008) menciona que una prueba de nivel debe servir para dos
objetivos. Por una parte, para asignar al estudiante el nivel que le corresponde, lo cual se logra
por medio de la corrección de los resultados del examen. Y, por otra parte, esta prueba sirve para
determinar las necesidades de los estudiantes que van a ingresar a cada nivel y los estudiantes
que los van a integrar.
Esta prueba como instrumento es importante a la hora de iniciar un proceso nuevo de
aprendizaje de una L2 ya que, como menciona Natalías (2008), ayuda al profesor a identificar los
puntos débiles del grupo al que va a enseñar, le da pistas para buscar estrategias de enseñanza
para su contexto y le permite conocer cuáles son los contenidos y habilidades que los alumnos
dominan y sobre los que no es necesario hacer demasiado énfasis. Estas características hacen
que, por medio de esta prueba, la evaluación sea formativa e incida directamente en el ejercicio y
mejoría de la enseñanza y aprendizaje del programa que la implemente.
5.2. La utilidad de un test
Bachman y Palmer (1996) plantean que el factor más importante cuando se diseña una
prueba es el uso para el cual la prueba está destinada. Los autores llaman utilidad a esta cualidad.
Bachman (1990) afirma que el hecho de diseñar o aplicar un test, no implica que éste sea útil.
Por esta razón, los autores, Bachman y Palmer (1996), proponen un modelo de seis cualidades
26
que sienta las bases teóricas para evaluar no solamente el diseño y el uso de un test sino también
todos los aspectos de su diseño, aplicación y utilidad para un determinado propósito. Las
cualidades son: la fiabilidad, la validez del constructo, la autenticidad, la interactividad, el
impacto y la viabilidad (Bachman & Palmer, 1996).
La primera cualidad es la fiabilidad, definida por Bachman & Palmer (1996) como la
consistencia en la medición. Es decir, la igualdad que arrojan los resultados del examen a pesar
de que se aplique en momentos o lugares distintos y/o se evalúe por diferentes examinadores.
La segunda cualidad es la validez de constructo. Para poder entender de qué se trata,
primero es importante definir que es un constructo. Según Alderson (2000) es un concepto
psicológico que se deriva de una teoría de la habilidad que se evalúa. Es decir, se habla de
constructo cuando se refiere a un proceso cognitivo que no puede medirse u observarse de
manera directa (Brown, 2004). «Ejemplos de constructos son la inteligencia, la motivación para
un fin, la ansiedad, el aprovechamiento, la actitud, el dominio y la comprensión de lectura»
(Alderson, 1995, citado en Pärna, 2015). Por esta razón, la dificultad de los exámenes reside,
entre otras cosas, en poder demostrar que lo que se midió es efectivamente el constructo en
cuestión.
Por otro lado, Bachman & Palmer (1996) manifiestan que la validez del constructo
permite que los resultados de un examen muestren si este es realmente un parámetro significativo
de evaluación a la hora de tomar decisiones y establecer si los estudiantes tienen o carecen de la
habilidad o conocimiento relacionado con lo que se quiere evaluar. Por ejemplo, la validez del
constructo permite determinar si una persona cuenta con la competencia para leer o redactar
cierto tipo de textos. Siguiendo la línea de pensamiento de Moore, Andrade & Matamoros
(2009), los diseñadores de un examen, cuyo objetivo es medir un conocimiento o habilidad,
27
deben establecer el modo de interpretación de los resultados. Al igual que, deben especificar cuál
es el sustento que apoya tal interpretación de los resultados; «un examen es diseñado con una
finalidad específica; pues bien, la validez es el indicador de que se está midiendo únicamente lo
que se desea medir» (Bachman & Palmer, 1996).
La tercera categoría en la utilidad de un test es la autenticidad. Para Bachman & Palmer
(1996), al igual que Moore, Andrade & Matamoros (2009), esta está en la correspondencia entre
las tareas del examen y el dominio de la lengua en situaciones sociales reales donde se haga uso
de la lengua meta. En otras palabras, la tarea que pone a prueba la competencia del estudiante
«debe reflejar o asimilarse a una tarea en la vida real, en la que tendrá que hacer uso de la lengua
meta» (Moore, Andrade & Matamoros, 2009, p.455).
En cuarto lugar, es necesario determinar su interactividad. Es decir, «el grado en el cual
las características individuales de la persona a ser evaluada y la tarea de una prueba deben ser
identificadas para establecer una relación entre lo que se está evaluando y el conocimiento de la
persona» (Bachman & Palmer, 1996, p. 12).
La quinta categoría es el impacto o como la definen Bachman & Palmer (1996)
consecuencias. Es llamado impacto ya que los examinadores toman como base los resultados
obtenidos en las diferentes pruebas para tomar decisiones respecto a los procesos de enseñanza y
aprendizaje. Estas pueden dar resultados favorables, neutros o no favorables provocando así
consecuencias para el estudiante o la institución que realiza el proceso de evaluación.
Finalmente, la sexta cualidad es la viabilidad. Se trata de la relación entre los recursos
necesarios para llevar a cabo la prueba y los recursos disponibles (Bachman & Palmer, 1996).
Este aspecto de la utilidad indica qué tan factible es su realización. De acuerdo con Moore,
Andrade & Matamoros (2009), aquí entran en consideración los recursos humanos necesarios
28
para la planificación y evaluación de la prueba -y sus resultados-, los materiales requeridos para
esta y, por último, el tiempo total del proceso. Tener en mente estas consideraciones ayudará a
establecer los diferentes parámetros que deben tenerse en cuenta a la hora de diseñar y
desarrollar el examen específico a los estudiantes.
5.3. Comprensión lectora
Para abordar el concepto de la destreza de la comprensión lectora primero debemos
definir qué es leer. En un principio, leer se consideraba principalmente como el resultado exitoso
de la decodificación de un código social escrito. Sin embargo, hoy en día se ve como «un
proceso de recepción e interpretación de información escrita por medio del reconocimiento y
procesamiento de los niveles morfológico, fonológico, sintáctico y semántico al igual que de los
niveles discursivos que varían según los intereses de cada lector» (Carrell & Grabe, 2010). Esta a
su vez requiere de «la aplicación específica de destrezas de procedimiento y estrategias
cognitivas» (Flor, 1983 citado en Pérez, 2005, p. 122).
De esta manera, Pérez (2005) menciona que hoy en día se ha establecido que el
conocimiento se almacena en estructuras de conocimiento y que al momento de comprender un
texto estas intervienen en la medida en que la información dada por el texto se integra a estas
creando, modificando, elaborando e integrándolas, razón por la que se concede un alto nivel de
importancia a los procesos de inferencia en la comprensión lectora.
En cuanto a lo social, la comprensión escrita constituye una actividad comunicativa
situada. Ibáñez (2012) señala que cada persona, a la hora de leer un texto, parte de una situación
comunicativa específica que establece unas finalidades y objetivos específicos ligadas al
contexto. De igual forma, Ibáñez (2012) menciona que:
En cuanto a su naturaleza cognitiva, la comprensión del discurso escrito constituye un proceso
complejo, que se conforma por medio de procesos psicolingüísticos, que se sustentan en una
29
variedad de procesamientos cognitivos de orden inferior -atención, percepción y memoria- y de
orden superior -toma de decisiones, monitoreo, reflexión, entre otros-. (p.25).
En este último punto, la comprensión es el resultado de la interacción del lector con el
texto y se centra más en el proceso seguido por el lector durante la lectura que en el producto
final de ésta. Si bien leer es un proceso receptivo, visual y mental en el que el lector decodifica y
relaciona significados y no participa directamente, sino que es receptor del texto, en este también
este analiza, profundiza e infiere el contenido que es interpretado y cuestionado por medio de la
interacción con el texto y el contexto (Dolores, 2012; Gallet, 1981; Ibáñez, 2012). Por
consiguiente, se trata de una destreza tanto receptiva como productiva.
En las estrategias de razonamiento, Pérez (2005) menciona que el lector construye el
significado de un texto cuando utiliza los esquemas y estructuras de conocimiento que evoca
gracias al contexto. Las estrategias de monitoreo y seguimiento de los procesos propios de
comprensión ayudan a identificar y corregir el proceso de comprensión permitiendo y ayudando
a que éste se lleve adecuadamente al interactuar con el texto desde la experiencia personal y el
contexto.
En cuanto a las estrategias de referenciación de conocimiento, se concede un lugar
importante al conocimiento previo (en inglés: background knowledge) puesto que en la medida
que el lector lo posee, mayor es su conocimiento y apropiación de las palabras y su utilización.
Igualmente, se incrementan sus posibilidades para hacer inferencias y mejora capacidad para
crear modelos asertivos de significado (Feeley, Werner, & Willing, 1985, citado en Pérez, 2005;
Bruner, 1990).
Por otro lado, el lector, en una L2, al leer o buscar comprender una lectura emplea
distintos mecanismos o estrategias de lectura (Alderson, 2000): lectura específica o focalizada
(scanning), lectura global (skimming), lectura extensiva o para la comprensión y lectura para el
30
aprendizaje. La lectura global se usa para llegar a un entendimiento general al pasar la vista por
el texto para así obtener la esencia del mismo (Carrell & Grabe, 2010; Instituto Cervantes, 2015).
La lectura focalizada busca el reconocimiento visual de números, palabras o frases claves sin
poner especial atención a la totalidad de la información, esto según los intereses específicos del
lector; por esto no hay un procesamiento semántico (Carrell & Grabe, 2010; Instituto Cervantes,
2015). La lectura extensiva busca la comprensión total del texto (Carrell & Grabe, 2010). Por
último, la lectura intensiva consiste en comprender detalles particulares de un texto (Carrell &
Grabe, 2010; Instituto Cervantes, 2015). También existe la lectura crítica, en esta se lee con el
propósito de evaluar el texto, analizando la calidad literaria, la actitud del autor, etc. (Instituto
Cervantes, 2015).
Sumado a esto, al explicar los procesos de comprensión han surgido diferentes modelos
teóricos explicativos, entre los cuales destacan el modelo ascendente o bottom-up (Gough, 1972
citado en Diez, s.f.), el modelo descendente o top-down (Goodman, 1962; Smith, 1973 citado en
Diez, s.f.) y el modelo interactivo (Carrell, Devil et al., 1988 citado en Diez, s.f.).
El modelo ascendente está centrado en el texto donde, desde propuestas psicológicas
conductistas, se ve la lectura como un proceso ascendente donde a partir de la comprensión
individual de las palabras se llega a la comprensión total del texto. Por el otro lado, el modelo
descendente se centra en el lector donde este es el protagonista y al ir leyendo aplica sus
habilidades de interpretación, busca pistas para entender, hace predicciones que corrige o
confirma a lo largo de su lectura. Finalmente, el modelo interactivo se orienta tanto al texto como
al lector donde la información del texto se combina con los conocimientos previos del lector en
conjunto con la información del texto que a su vez se combina con los conocimientos previos del
lector y construye nuevo conocimiento.
31
En la comprensión de un texto, tal y como propone Pérez (2005), hay 5 niveles de
comprensión y es necesario que el texto sea considerado como un todo. En el primer nivel, está
la comprensión literal donde el lector debe reconocer y recordar la información en su medida
más puntual. El segundo nivel, concierne a la reorganización de la información, aquí lo
importante es ordenar las ideas y la información mediante procesos de clasificación y síntesis. En
el tercer nivel, está la comprensión inferencial donde el lector precisa relacionar su experiencia
personal y realizar conjeturas e hipótesis. Este nivel permite la interpretación del texto partiendo
del conocimiento del lector. El cuarto nivel, corresponde a la lectura crítica o juicio valorativo
donde la reflexión frente al contenido del texto tiene lugar. En el quinto, y último lugar, está el
nivel de apreciación lectora donde se hace referencia al impacto psicológico y estético del texto;
aquí el lector realiza relaciones lógicas e inferencias respecto al texto.
5.4. Evaluación de la comprensión lectora
En la comprensión escrita el objeto a evaluar es:
La capacidad del alumno para extraer el sentido global de los textos en relación con los temas
especificados en el bloque de contenido temático, al igual que la capacidad del alumno para
entender información específica según los contenidos descritos en cada nivel (García Santa-
Cecilia, 1995, p. 170).
Es por esto que, a la hora de analizar la evaluación de la compresión lectora, según Pérez
(2005), es necesario establecer en primer lugar los objetivos de la lectura a evaluar -los cuales
pueden ser la comprensión de ideas principales, el reconocimiento de información específica, la
identificación de intenciones comunicativas o demás- ya que de estos dependen los procesos y
procedimientos de evaluación.
Respecto a lo mencionado anteriormente, las técnicas o métodos de evaluación son
medios para conseguir aspectos específicos que se quieren evaluar en la comprensión escrita y se
32
plantean usualmente por medio de preguntas o ítems donde se llenan vacíos de información
(Alderson, 2000). Existen dos grupos de técnicas utilizadas en la evaluación de la comprensión
escrita: las de tipo abierto, las cuales implican la producción escrita u oral por parte del sujeto a
evaluar, y las de tipo cerrado, las cuales requieren la elección desde un conjunto de opciones.
Actualmente, existe un debate entre cuáles métodos o técnicas de tipo cerrado y abierto son las
más adecuadas para la evaluación de la comprensión escrita, sobre todo respecto a las de carácter
cerrado.
Una de las críticas más destacadas en contra de esta es que no es posible distinguir si la
respuesta del evaluado es producto de la comprensión del texto o de otros procesos cognitivos
como los de resolución de problemas o incluso del azar (Alderson, 2000). Por otra parte, Bennett
(1993, citado en Ibáñez, 2012, p.29) señala que aún «no se ha probado empíricamente que las
técnicas de carácter abierto sean mejores que las de carácter cerrado». De igual manera, Bennett
(1993, citado en Pérez, 2005) apunta que las tareas con preguntas elaboradas miden destrezas
diferentes de las que miden las tareas con preguntas de respuesta múltiple.
A pesar de estas discusiones, es necesario resaltar que no existe una técnica mejor que
otra para evaluar la comprensión escrita. De modo que «será tarea y desafío del evaluador
seleccionar la técnica más apropiada al momento de diseñar y construir un instrumento, en virtud
del constructo a medir y de los textos a utilizar» (Ibáñez, 2012, p.32). Dentro de las técnicas más
utilizadas están las siguientes:
33
TÉCNICAS DE EVALUACIÓN DE TIPO ABIERTO
Cloze: Pruebas en las que se suprimen algunas palabras de un texto de forma mecánica.
Generalmente se utilizan para medir la coherencia global del texto (Alderson, 2000).
Cloze intencionado: Pruebas en las que se suprimen algunas palabras de un texto de forma
mecánica. Se utiliza para medir la coherencia local de un texto (Nuttall, 1996).
Respuesta abierta corta: Se presenta una pregunta cuya respuesta es SÍ o NO. Esta técnica se
utiliza para medir la identificación de la información literal (Alderson, 2000).
Respuesta abierta larga: Se presenta una pregunta cuya respuesta debe ser sustentada por la
información dada en el texto. Esta técnica puede ser utilizada para medir diferentes constructos
(Parodi, 2007).
Resumen: Se solicita al evaluado producir un texto breve donde dé cuenta de las ideas
principales del texto. Esta técnica sirve para medir la macroestructura del texto (Parodi, 2007).
TÉCNICAS DE EVALUACIÓN DE TIPO CERRADO
Cloze invertido: Se presenta un texto con palabras de más. El propósito es eliminar las
palabras que no contribuyen al sentido del texto. Esta técnica se utiliza generalmente para
medir la macroestructura (Nuttall, 1996).
Opción múltiple: Se presenta varias alternativas de respuesta y el evaluado debe elegir la
correcta. Esta técnica se utiliza para medir diferentes constructos (Alderson, 2000).
Resumen incompleto: Se presenta un resumen en donde el total de las ideas principales no se
encuentra presente. La tarea del lector es incluir las ideas faltantes. Esta técnica se utiliza para
medir la generación de la macro estructura.
Verdadero y falso: Se presenta una afirmación con relación a una idea presentada en el texto;
el evaluado debe decidir si es verdadera o falsa. Esta técnica se utiliza para medir la
identificación de información literal pero también se puede acomodar a otros constructos
(Pérez, 2005).
En adición, Pérez (2005) menciona que los lectores, partiendo de su experiencia
individual, reaccionan de manera diferente a un mismo tipo de texto, sumado a esto, su
34
comprensión está condicionada por el tipo de texto que se les presente, esto debido a que «cada
tipo de género tiene su propio set de convenciones y reglas estructurales» (Brown, 2004, p. 186).
Brown (2004) también menciona que cada tipo de género permite al lector aplicar cierto tipo de
esquemas que le ayudarán a encontrar el significado acertado del texto. Adicionalmente, afirma
que la validez del contenido de un proceso de evaluación en la comprensión lectora se establece
en gran medida por medio del género de un texto.
Al hablar de los textos en sí, Ibáñez (2012) menciona que los textos descriptivos
presentan situaciones ya establecidas y hacen énfasis en las características totales del personaje
del texto. En cuanto a los textos narrativos, dice que estos hacen referencia a uno o más
personajes centrales y relatan los acontecimientos que les suceden en un momento determinado
mientras se describe la relación interna de los sujetos. Por otra parte, los textos expositivos
presentan relaciones lógicas entre los acontecimientos que se exponen y tienen como objetivo
informar, explicar o persuadir al lector. De estos textos, es la narración la que más apela al
conocimiento previo ya que su contenido está relacionado con las experiencias previas del lector
lo cual a su vez permite crear más inferencias. No en tanto, son los textos de exposición los que
presentan el escenario perfecto para señalar e identificar diversos tipos de relaciones de
coherencia.
A la hora de escoger los textos Pérez (2005) menciona que es necesario: el análisis del
texto en términos de su contenido y estructura, y el estudio de la interacción entre autor del texto
y el lector. Respecto a los contenidos y estructuras del texto, hay variables que afectan la
comprensión del texto como:
La longitud del texto, la densidad de la información, la cantidad de información nueva, la
densidad de los argumentos o proposiciones, el nivel de concreción del texto, el grado de interés
35
del mismo, la capacidad del lector para identificarse con el personaje del texto, lo explícito de la
información y el grado de cohesión del texto. (Pérez, 2005, p, 131).
Respecto a la interacción entre texto y lector, se establece que es necesario que el texto
tenga una función comunicativa, una carga de vocabulario adecuada para el nivel del estudiante
y que haya un ajuste cultural. Referente a lo último, es necesario que haya un lenguaje o sistema
de referentes cercanos a la cultura del lector que realizará el examen y que haya coherencia entre
la prueba de lectura, las instrucciones dadas y las características de la tarea donde se especifica
que es lo que se espera del alumno. En esta medida, es sumamente importante tener en cuenta
estas dos líneas ya que de no ser atendidas podrían influenciar negativamente los procesos de
comprensión del lector y por ende la evaluación de la misma haciéndola invalida.
Como se ha mencionado anteriormente, dependiendo de los estadios del proceso de
comprensión y el objeto a evaluar en cada uno se utilizan técnicas de evaluación específicas.
Ibáñez (2012) propone un formato donde se relacionan estas técnicas y los textos cuyo género
literario facilita la medición del proceso de la comprensión escrita, estos se pueden observar en la
siguiente tabla:
Fuente: Ibáñez (2012).
36
5.5. El MCER y la evaluación
El Marco Común Europeo de Referencia (MCER) fue creado por el Consejo de Europa
en el 2001. Este tenía como propósito proporcionar transparencia en los procesos de enseñanza,
aprendizaje y evaluación de las lenguas extranjeras. Este documento, a pesar de que nació para
dar respuesta a los problemas específicos de Europa, también se utiliza en otros lugares, entre los
cuales se encuentra Colombia, en este caso el CLAM.
El MCER, menciona (Cáceres, 2002), es un documento técnico y extenso, de naturaleza
descriptiva, más no prescriptiva, donde se desarrollan temas sobre las lenguas y los factores que
inciden en el aprendizaje de ellas. Partiendo de esto, en su contenido se realiza un conjunto
básico de recomendaciones sobre el aprendizaje, la enseñanza y la evaluación de las lenguas
extranjeras. Por consiguiente, el objetivo principal de este documento es «poder establecer una
base común, con un metalenguaje común que al mismo tiempo es flexible y se puede adaptar a
los diferentes contextos educativos» (Cáceres, 2002, p. 278) para la elaboración de programas y
manuales, diseños y reformas curriculares, formación de profesores y la evaluación de las
competencias en las lenguas en toda Europa (Cáceres, 2002).
Así mismo, el MCER establece los seis niveles de competencia en un idioma, desde
“principiante” a “avanzado”: A1 y A2, B1 y B2, C1 y C2, niveles utilizados en la clasificación
de los estudiantes de las diferentes lenguas. De igual manera, mediante una escala de evaluación,
este describe para cada nivel lo que los usuarios de un idioma deberían ser capaces de hacer en
términos de comprensión lectora, comprensión escrita, producción oral y producción escrita.
Para nuestra investigación fue muy importante el MCER, ya que nos dio las bases
fundamentales para establecer aspectos relevantes durante el proyecto trabajado. Para poder
comenzar a relacionar los contenidos establecidos por MCER haremos un breve resumen de los
37
capítulos que han sido objeto de estudio. Los capítulos tomados como referencia y que fortalecen
el entendimiento en la elaboración del nuevo de diseño de la prueba fueron los siguientes: el
capítulo 3, el capítulo 5, el capítulo 7 y, el capítulo más importante para nuestra investigación, el
9.
Para comenzar, en el tercer capítulo se introducen los niveles de referencia (del A1 al C2)
y las escalas comunes de referencia: escala global, la escala de autoevaluación y la escala de
aspectos cualitativos de la lengua. En el quinto capítulo, se encuentran las especificaciones
detalladas de la competencia general y la competencia comunicativa. El séptimo capítulo
presenta el rol de las tareas en la enseñanza de lenguas. Y, para finalizar en cuanto a los intereses
de esta investigación, está el noveno capítulo el cual expone los propósitos de la evaluación, sus
características y sus tipos. Respecto a la evaluación, el capítulo 9 nos muestra las diferentes
escalas donde se establece que es lo que debe saber y lo que se debe evaluar a la hora de
establecer el nivel en que se encuentre cada estudiante. También, nos muestra las clases de
evaluación que el profesor puede utilizar a la hora de evaluar al alumno.
Por otro lado, Cáceres (2002) nos habla de la dimensión vertical y horizontal. Por una
parte, la dimensión vertical, se refiere a los seis niveles de referencia de la lengua. Por la otra
parte, la dimensión horizontal hace referencia a las categorías de la lengua: las competencias
generales, la competencia comunicativa, las tareas y estrategias, las actividades comunicativas de
la lengua, los textos, los ámbitos, entre otros (Puig, 2008, Casanovas & Puig, 2013). El cruce de
estas dos dimensiones da forma a una serie de escalas que describen lo que el alumno es capaz de
hacer en cada uno de los seis niveles respecto a las competencias lingüísticas. Las escalas y el
enfoque adoptado por el MCER pueden facilitar la definición del concepto de lengua a evaluar y
la descripción de las habilidades, al igual que la definición de los objetivos de un examen y el
38
diseño de criterios de corrección.
Por otra parte, Según Soler (2006), la evaluación es un concepto importante en el
desarrollo del documento del Consejo de Europa. Sin embargo, el MCER no es un manual donde
se vean las instrucciones para la creación de exámenes ni los programas que son utilizados
dentro de un instituto de lenguas. Se trata de una guía que invita al análisis de los aspectos como:
la planeación, diseño y evaluación a la hora de crear un material o un examen para evaluar a un
estudiante que quiere aprender español.
A su vez, según Puig (2008, citado en Santamaría & Bejarano, 2014), el MCER tiene
muchos inconvenientes, es decir este documento desde su creación en el 2001 ha tenido aspectos
negativos que hacen que algunos aspectos mencionados en él no sean tomados en cuenta y a la
vez sean criticados. Esto se debe a que estos aspectos no se corresponden de una manera
adecuada con el propósito inicial de la creación de este documento; enseñar, aprender y evaluar
los conocimientos de un idioma.
En conclusión, el MCER, más allá de algunos de sus problemas internos, es útil como
herramienta a la hora de establecer los contenidos de los exámenes –en cuanto a temáticas y
nivel de lengua-, la evaluación de los mismos, la interpretación de sus resultados, hechos que lo
convierten en una guía práctica para la enseñanza, aprendizaje y evaluación de las L2.
5.6. Enfoque por tareas
A finales de la década de 1960 algunos lingüistas como C. Carolin y H. Widdowson
empezaron a manifestar que el aprendizaje de las lenguas debía girar en torno al desarrollo de la
competencia comunicativa (AA. VV., 2008). Dado que se empezó a tomar en cuenta la
interacción real fuera del aula de clase y, a su vez, el aprendizaje y la enseñanza de lenguas
extranjeras dentro del aula, se creó y comenzó a incrementar el uso del enfoque de tareas.
39
Respecto a este, Stern (citado en Estaire, 2010) clasifica los enfoques comunicativos en dos
grandes grupos: por una parte, los enfoques comunicativos de tipo L (lingüísticos) y, por la otra
parte, los enfoques comunicativos de tipo P (psicolingüísticos).
En Estaire (2010) se encuentra que los enfoques de tipo lingüístico (L) crean actividades
comunicativas a partir de contenidos lingüísticos provenientes de un análisis de la lengua
siguiendo la secuencia PPP (presentación, práctica y producción). Por otra parte, este autor
menciona que los enfoques de tipo psicolingüístico (P) diseñan una serie de tareas comunicativas
que parten de los procesos psicolingüísticos de aprendizaje del alumno. Adicionalmente, Estaire
& Zanón (1990, citados en Estaire, 2010), exponen que el enfoque comunicativo de tipo
psicolingüístico busca desarrollar la competencia comunicativa, por medio de unidades y tareas,
con el objetivo de no solo integrar el conocimiento formal del lenguaje sino también el
conocimiento instrumental. Esto con el fin de lograr la comunicación y la interacción en
contextos reales y en situaciones específicas.
Es aquí donde es conveniente aclarar que se entiendo por tareas. Según Long (citado en
Estaire, 2010) las tareas son «todo aquello que solemos hacer en nuestra vida diaria, en el
trabajo, en el tiempo libre, o en cualquier otro momento» (p.4). En otras palabras, las tareas se
definen como cualquier actividad donde se utilice la lengua. Por ejemplo, ir al colegio, ir a
tomarse un café, ir al cine, ir a jugar con los amigos etc. Igualmente, el MCER, define que una
tarea es «cualquier acción intencionada que un individuo considera necesaria para conseguir un
resultado concreto en cuanto a la resolución de un problema, el cumplimiento de una obligación
o la consecución de un objetivo» (Instituto Cervantes, 2002, p.10). Sumado a esto, Breen (citado
en Estaire, 2010) define la tarea como «un plan estructurado para la creación de oportunidades
para el desarrollo de conocimientos y capacidades implicados en el uso de una nueva lengua
40
durante la comunicación» (p. 6).
Para Ellis (2003, citado en Estaire, 2010) una tarea para ser considerada un instrumento
de enseñanza y aprendizaje debe: En primer lugar, ser vista como un plan de trabajo por medio
de la cual se trabajen procesos de enseñanza/aprendizaje dentro de un ámbito educativo. En
segundo lugar, debe prestar atención al significado para así poder utilizar los recursos
lingüísticos que se dan dentro del proceso y la forma de los componentes de la lengua. En tercer
lugar, debe plantearse en un contexto real donde el estudiante pueda hacer un uso real de la
lengua que está aprendiendo. En cuarto lugar, debe en sí misma actividades comunicativas claras
y bien definidas. En quinto, y último lugar, debe ser evaluable a través del proceso mismo de
aprendizaje.
5.7. Especificaciones del examen
En palabras de Alderson, Clapham & Wall (1998), las especificaciones de examen son un
documento que permite conocer el qué evalúa un examen y el cómo lo evalúa. Por otro lado, es
también el plan que deben seguir quienes redactan el examen y los ítems que establecen la
validez del constructo de la prueba. A su vez, las especificaciones de examen son necesarias para
aquellos que analizan y supervisan el trabajo de los desarrolladores de los ítems y también para
aquellos que evalúan la prueba. De igual manera, estás son una fuente valiosa de información
para los editores que quieren producir libros relacionados con la prueba.
Las especificaciones de examen varían según el público al que vayan este vaya dirigido.
Es importante que se establezca una exposición de los fundamentos teóricos y se proporcione el
objeto con el cual se ha elaborado la prueba para que los responsables de la validación de las
pruebas puedan hacer su trabajo.
Según Luoma (2004) las especificaciones se dividen en tres categorías: constructo, tareas
41
y evaluación. Las especificaciones del constructo, determinan la relación que existe entre la
teoría ideal de la habilidad que se va a evaluar, su implementación concreta con las traes y, por
último, los criterios de evaluación. En las especificaciones de las tareas, se pretende establecer
las tareas que serán utilizadas para poder evaluar la habilidad, en este caso la comprensión
lectora. En estas especificaciones, se establecen particularmente los referentes que serán tomados
como base para evaluar la tarea (tipo de tarea, tipos de textos, extensión de los textos y la
comprensión de cada uno, etc.). Por último, las especificaciones de la evaluación pretenden
desarrollar los criterios de evaluación de la habilidad a evaluar tomando como bases los
contenidos establecidos y el porcentaje dado a cada tarea.
En cuanto al contenido de las especificaciones, éstas deben contemplar la siguiente
información (Alderson et al., 1998):
1. Función del examen (prueba de nivel, de diagnóstico, de progreso, de
rendimiento, de proficiencia)
2. Concepción de la lengua de la que se parte
3. Objetivos a evaluar
4. Perfil del candidato de la prueba
5. Partes del examen, habilidades que formarán parte del mismo, tiempo y
puntuación de cada una de ellas
6. Fuentes y tipo de texto en cada parte del examen
7. Número de tareas y número y tipo de ítems para cada parte del examen.
8. Instrucciones para la ejecución de las tareas (determinar si se dan en la lengua
meta o en la lengua del candidato)
9. Destrezas y micro destrezas lingüísticas que se evaluarán en cada habilidad
42
10. Criterios de evaluación de las distintas habilidades
Otra característica de las especificaciones de examen es que ellas deben prever el tipo de
ensayos a realizar para poder determinar la calidad de los ítems redactados. Además, las
especificaciones deben formar parte del proceso evaluativo y, a su vez, ser parte del proceso de
la administración del examen y la obtención de los datos como los resultados finales para la
creación de las conclusiones en el proceso de enseñanza/aprendizaje (Alderson et al., 1998). De
esta manera, tener claridad sobre las especificaciones aporta no solo a la confección del examen
sino también a la validación del mismo, sus resultados y el aprovechamiento de estas tanto en el
aula de clase como en el campo académico.
6. MARCO METODOLÓGICO
Como se ha mencionado anteriormente, el presente trabajo tiene como objetivo presentar
una propuesta de especificaciones de la prueba de comprensión lectora para clasificar a los
candidatos en los niveles iniciales del CLAM. Para alcanzar el propósito inicial, se ha propuesto
una serie de pasos a seguir en el proceso investigativo. Igualmente, se ha hecho una consulta
concisa de investigaciones relacionadas con la situación problemática planteada al principio de
este trabajo y, a la vez, un recorrido teórico por los conceptos que son de mayor importancia para
este proyecto investigativo. Finalmente, este capítulo tiene como propósito definir el tipo de
investigación, la ruta metodológica y las herramientas de recolección de información que
permitirán llegar a la construcción de las especificaciones de la prueba.
6.1. Tipo de investigación
A la hora de posicionarse frente al objeto de un trabajo investigativo, podemos encontrar
diferentes posturas de acuerdo con los intereses específicos de cada investigador. En cuanto al
campo de segundas lenguas, existen distintas maneras de abordar una investigación; entre ellas
43
se encuentran: la investigación teórica, la investigación aplicada y la investigación práctica
(Seliger & Shohamy, 1989).
Para comenzar, la investigación teórica tiene como objetivo construir nuevas teorías, la
mayoría abstractas, acerca de un tema en particular relacionado con el aprendizaje de lenguas.
Por otro lado, la investigación aplicada pretende hacer uso de las investigaciones teóricas y el
conocimiento ya construido para aplicarlo a problemas de investigación ya propuestos. Por
último, la investigación práctica, como su propio nombre indica, se centra en los aspectos
prácticos de un proyecto en un tema específico; este tipo de investigación retoma los hallazgos
de lo teórico y los aplica con el fin de encontrarles una utilidad en contextos y situaciones
específicas (Seliger & Shohamy, 1989).
En lo que respecta a nuestra investigación, el objetivo es aterrizar los conceptos teóricos
de comprensión escrita, evaluación de la comprensión escrita, examen de nivel, prueba de
comprensión lectora, especificaciones de un examen, entre otros conceptos (véase apartado 5) en
el contexto específico del CLAM y desarrollar una propuesta de especificaciones para evaluar
los niveles iniciales de los estudiantes en ELE en la comprensión lectora. Es por este motivo que,
en el marco de este trabajo, es indispensable «una vinculación inseparable entre el ‘saber y el
hacer’, pretendiendo que la teoría se enfoque en sus aplicaciones» (Vargas, 2009, p.160). En
definitiva, para lograr el objetivo de esta investigación es necesario hacer una investigación
práctica-aplicada.
La investigación práctica-aplicada, según Vargas (2009), trata «experiencias de
investigación con el propósito práctico de resolver o mejorar una situación específica o
particular, para comprobar un método o modelo mediante la aplicación innovadora y creativa de
una propuesta de intervención» (p.162). Sumado a esto, Vargas (2009) dice que este tipo de
44
investigación se enfoca en diagnósticos que implican el uso de herramientas tales como
encuestas, entrevistas o cuestionarios con el propósito de indagar sobre cuáles son las verdaderas
necesidades o problemas del contexto en el que se intervendrá.
De igual manera, Vargas (2009) menciona que el resultado final de este tipo de
investigación se ve en propuestas donde se definen políticas institucionales, documentos de
acceso y propuestas para el desarrollo de prácticas, producción de material, métodos o técnicas
de evaluación. Como se ha mencionado anteriormente, en nuestro caso es el diseño de las
especificaciones del examen de clasificación A1 y A2 en la comprensión lectora del CLAM ya
que el examen que se usa actualmente se diseñó en 1997 y presenta varios problemas (véase
apartado 3).
En adición, es necesario incluir el paradigma de investigación; se pueden hacer dos
grandes distinciones: investigación cuantitativa y cualitativa.
Po una parte, la investigación cuantitativa parte de problemas y objetivos definidos clara
y previamente. Utiliza instrumentos de recolección de información y medición de variables muy
estructurados con el fin de asegurar la confiabilidad y validez de los datos. Por la otra parte, el
enfoque cualitativo «desarrolla objetivos de comprensión de diversos fenómenos socioeducativos
y de transformación de la realidad hecho que permite a la investigación dirigirse a la
comprensión, transformación, cambio y toma de decisiones» (Sandín, 2003, citado en Hernández
& Opazo, 2010, p.4). En esta línea, se pretende comprender la singularidad del objeto de
investigación dentro de su propio contexto con una mirada a la transformación y mejoramiento
del mismo a través de la interpretación de sus propias características y en sus propios términos.
Martínez (2011) menciona, dentro de las características principales de este tipo de investigación,
45
la metodología holística y el uso de datos descriptivos procedentes de fuentes de primera mano
tales como las entrevistas, la observación, las encuestas, entre otras.
Debido a la naturaleza de este proyecto de investigación es necesario tomar como base la
investigación práctica-aplicada bajo el paradigma cualitativo. Esto puesto que, con base en los
resultados del análisis de la población específica y la descripción de la problemática objeto de
este proyecto, es necesario aplicar la teoría pertinente en evaluación para la solución de los
problemas identificados a los cuales se pretende dar respuesta con este trabajo mediante el diseño
las especificaciones del nuevo examen de clasificación en la compresión escrita del CLAM.
Además, los métodos de recolección de información que se utilizaron en este estudio - tales
como entrevistas, análisis de programas, análisis de documentos y cuestionarios- son
herramientas orientadas al cambio y toma de decisiones lo cual es complemento vital de la
investigación aplicada-práctica y cualitativa.
6.2. Ruta metodológica
A la hora de planificar la elaboración de un examen es necesario tener en cuenta diversos
aspectos que afectan la selección y la pertinencia de los contenidos, los temas, la cantidad y
clases de ítems, entre otros factores. Para esto, hemos tomado como ejemplo el modelo de
confección de un examen de Bordón (2006, tomado de Ferreira, Vine & Elejalde, 2013).
Bordón (2006, tomado de Ferreira, Vine & Elejalde, 2013) propone cuatro fases para el
diseño de un examen: fase previa, fase de diseño, fase de experimentación y fase de
recapitulación (véase Tabla 1).
46
Fuente: Hacia una prueba de nivel como lengua extranjera (Ferreira, Vine y Elejalde, 2013).
En nuestra ruta metodológica tendremos en cuenta todas las fases propuestas por Bordón
(2006, tomado de Ferreira, Vine, & Elejalde, 2013). Pese a que este modelo fue planteado para el
diseño de exámenes, nos parece pertinente su uso en este caso específico puesto que nos es útil
para guiar el diseño de las especificaciones que al fin y al cabo son el bosquejo de la prueba.
De esta manera, en la fase previa, como punto de partida se estableció el objetivo de la
prueba a partir de la definición de la problemática. En segundo lugar, se estableció el perfil de
los estudiantes de español lengua extranjera que vienen a estudiar español en el CLAM mediante
una entrevista realizada a una profesora del CLAM. En tercer lugar, se analizaron los programas
de español del CLAM y los manuales Aula Internacional 1 y 2 que se utilizan en el centro para
los niveles iniciales con el fin de seleccionar el tipo de tareas que puede contener el examen en la
comprensión lectora. En cuarto lugar, se definió lo que el alumno es capaz de hacer (constructo)
Tabla 1. Fases en la confección de un examen según Bordón (2006)
47
en los niveles 1, 2, 3 y 4 del ELE del CLAM mediante la consulta de los programas del CLAM,
Aula Internacional 1 y 2 y las escalas del MCER.
En la fase de diseño, se precisaron: los contenidos, número y tipo de tareas, número de
ítems, contenidos lingüísticos, y criterios de evaluación de las especificaciones de la prueba. De
igual forma, se seleccionaron los tipos de texto, la longitud de los mismos y el tiempo de
ejecución de la prueba. Para ello, se tuvieron en cuenta las necesidades de los candidatos y su
perfil, los contenidos del PCIC, las escalas del MCER, los libros Aula Internacional y las
recomendaciones de Ottonello & Infante (S.f.), Natalías (2008), Ibáñez (2005), Pérez (2005),
entre otros (Véase apartado 5.2).
En la fase de experimentación, se hizo una consulta a 4 expertas del CLAM mediante un
cuestionario cerrado para la validación de las especificaciones desarrolladas y una propuesta de
tarea para medir los niveles A1.1 y A1.2 en la comprensión de lectura. Por último, en la fase de
recapitulación, se realizaron los cambios y mejoras necesarias a las especificaciones y a la tarea
propuesta a partir de los resultados obtenidos en la fase de experimentación.
6.3. Contexto e informantes
Para este trabajo se contó con la participación de cuatro profesoras de la Facultad de
Comunicación y Lenguaje de la Pontifica Universidad Javeriana (Bogotá). Gracias a la
trayectoria con la que cuentan estas profesoras en la enseñanza y evaluación de ELE, se
consideró oportuna su participación en el proceso de validación de las especificaciones y el
modelo de tarea propuesto para la prueba de comprensión lectora.
La primera profesora, antropóloga egresada de la Universidad de los Andes, cuenta con
una extensa formación profesional en el área de español como Lengua Extranjera, es profesora
en el área de ELE de la Facultad de Comunicación y Lenguaje y evaluadora acreditada de los
48
exámenes DELE. La segunda profesora, cuenta con una trayectoria superior a 40 años en la
enseñanza y evaluación en ELE y, actualmente, trabaja como profesora en esta área. Sumado a
esto, es evaluadora acreditada de los exámenes DELE. La tercera profesora, se ha dedicado a las
áreas de la traducción, la enseñanza de lenguas extranjeras y el diseño de materiales. Es egresada
de la Universidad de los Andes, fue coordinadora del CLAM y cuenta con la experiencia del
diseño de los exámenes dentro del Centro Latinoamericano. Por último, la cuarta profesora,
egresada de la Universidad Nacional de Colombia en Filología e Idiomas español e inglés,
cuenta con dos maestrías y una especialización en enseñanza de español como lengua extranjera.
Fue coordinadora del CLAM hasta 2014 y cuenta con una trayectoria de más de diez años como
profesora de ELE (Colciencias, 2016).
6.4. Herramientas para la recogida de datos
6.4.1. Entrevista
La entrevista es una herramienta de gran importancia en las investigaciones cualitativas
para obtener datos sobre un tema o interrogante específico. Ésta se define como «una
conversación que se propone un fin determinado distinto al simple hecho de conversar» (Díaz-
Bravo, et al., 2013, p. 163). En el marco de este trabajo investigativo, se implementó una
entrevista semiestructurada. Este tipo de entrevistas se rige bajo ciertos parámetros, entre los que
se encuentran: la toma de datos personales considerados apropiados para la investigación;
preguntas agrupadas por categorías o temas de interés; libertad de tratar temas alternos que se
consideren importantes por parte del entrevistado; la profundización de aspectos relevantes para
la investigación, entre otros. (Díaz-Bravo et al., 2013).
La entrevista se realizó a una profesora de ELE de la PUJ por parte de Barba & Meyberg
(2016), dos estudiantes de la Licenciatura de Lenguas Modernas de esta Universidad, con el
49
propósito de recoger información acerca del perfil del alumno que viene a estudiar español como
lengua extranjera en el CLAM.
Las preguntas de esta entrevista buscaban obtener datos etnográficos de los estudiantes
como: edad, nacionalidad, sexo, profesión, intereses de estudio, problemáticas a la hora de
aprender el español, entre otros. Los resultados obtenidos mediante la entrevista se utilizaron
para definir el perfil del candidato de la prueba en las especificaciones (véase apartado 7.2).
6.4.2. Cuestionario
Como instrumento para validar las especificaciones y el modelo de tareas propuestas para
la prueba de comprensión lectora en los niveles iniciales, se realizó un cuestionario cerrado de
diez secciones, cada una con diferente número de preguntas. En total, se desarrollaron 38
preguntas.
Cada sección buscaba validar diferentes contenidos de las especificaciones. A
continuación, se hace explicito el qué medían cada una de ellas: la sección 1, si el propósito de
las especificaciones correspondía con el propósito del CLAM; la sección 2, si la descripción del
candidato correspondía con el perfil de ingreso de los alumnos del programa del CLAM; la
sección 3, si los niveles de la prueba descritos se corresponden con los niveles del CLAM; la
sección 4, si el número de secciones de la prueba es adecuado para clasificar a los estudiantes;
la sección 5, si los contenidos tratados por sección se corresponden con los contenidos de los
programas; la sección 6, si la complejidad de la tarea por sección se ve en las tareas diseñadas;
la sección 7, si el número de tareas por sección es suficiente para clasificar a los estudiantes en
los niveles iniciales del CLAM; la sección 8, si la duración de tarea por sección es adecuada; la
sección 9, si la longitud de texto por sección se adecua al nivel; y, por último, la sección 10 se
pregunta si los criterios de evaluación son claros y relevantes.
50
El cuestionario se diseñó con la finalidad de validar las especificaciones por parte de las
cuatro expertas del CLAM. En definitiva, el objetivo principal de esta validación consistía en
revisar los contenidos, la pertinencia y la adecuación de las especificaciones, al igual que la tarea
propuesta.
Según Sierra (1994, citado por Corral de Franco, 2010) el cuestionario «es un
instrumento que consiste en aplicar a un determinado público una serie de preguntas o ítems
sobre un problema definido de investigación sobre el cual deseamos conocer algo» (p.156). Por
otra parte, Malhotra (1997, citado por Corral de Franco, 2010) menciona que un cuestionario
debe tener tres objetivos a la hora de su aplicación.
El primero de ellos, plantea que la información deseada se debe obtener por medio de
preguntas específicas fáciles de responder. El segundo, nos habla sobre el hecho de que este tipo
de herramienta debe incentivar al informante a contestar todo el cuestionario. El tercero, y
último, nos habla sobre la necesidad de adaptar las preguntas en un formato o escala donde no
haya confusiones a la hora de responder.
Para realizar el cuestionario, se tomó como modelo la escala tipo Likert, esta se llama así
por Rensis Likert, quien publicó un informe describiendo su uso en el año 1932. Esta escala de
evaluación se utiliza comúnmente en cuestionarios y encuestas de investigación. Consiste en «un
conjunto de ítems que se configuran bajo la forma de afirmaciones o juicios ante los cuales se
solicita la reacción (favorable o desfavorable, positiva o negativa) de los encuestados» (Malave,
2007, p.3). En nuestro caso, se diseñó una escala de 5 puntos: totalmente de acuerdo, de acuerdo,
parcialmente de acuerdo/ desacuerdo, en desacuerdo y totalmente en desacuerdo. En la escala se
incluye un punto medio, esta opción es fundamental para que el encuestado haga explicito su
punto de indecisión y/o neutralidad respecto a la pregunta hecha.
51
Adicionalmente, en la construcción del cuestionario es necesario crear una escala de
Likert simétrica para saber con exactitud que aquellos a quienes se aplicó la encuesta respondan
precisa y adecuadamente (Malave, 2007). Es decir, una escala que tenga el mismo número de
categorías positivas y negativas. Por consiguiente, en nuestro cuestionario en cada sección se
desarrolló una pregunta en afirmativo y otra en negativo para constatar que los encuestados estén
respondiendo no al azar sino atentamente. Un ejemplo de estas preguntas:
Duración de tarea por sección:
El tiempo que se proporciona es suficiente para que el estudiante pueda
completar la tarea. (positiva)
El tiempo de respuesta es insuficiente y por consiguiente puede condicionar al
estudiante a responder precipitadamente. (negativa)
Con esta herramienta y este planteamiento de preguntas, se busca que la herramienta de
validación de la propuesta de esta investigación que se implementa en esta fase aporte la mayor
cantidad de herramientas para reafirmar o replantear el diseño de las especificaciones. Esto con
el propósito de confeccionar asertivamente la prueba de comprensión escrita para los niveles
iniciales.
6.5. Resultados de la investigación
6.5.1. Resultados de la fase previa
6.5.1.1. Objetivo de la prueba
En esta primera fase, como punto de partida para el diseño de las especificaciones
(Luoma, 2004), se estableció el objetivo de la prueba. Para ello, se partió de la definición de la
problemática en la que se constató que es necesario desarrollar una nueva prueba de comprensión
lectora para clasificar a los estudiantes en los doce niveles de ELE que imparte el CLAM (véase
52
problemática). Debido a la naturaleza del trabajo de grado y algunas limitaciones (Véase
apartado 8), se decidió dar respuesta solamente a los niveles iniciales.
De esta manera, el objetivo de la prueba consiste en evaluar la proficiencia de los
estudiantes en la destreza lectora en el nivel A1 (A1.1 & A1.2) y A2 (A2.1 & A2.2) con el fin de
clasificarlos en los niveles de ELE establecidos en el programa del CLAM los cuales son
Español 1 para A1.1, Español 2 para A1.2, Español 3 para A2.1 y Español 4 para A2.2 y Español
5 para B1.1.
6.5.1.2. Perfil del candidato
Para establecer el perfil de los estudiantes, se realizó una entrevista a la profesora Martín
(2016) quien hizo un estudio en 2015, como parte de su tesis doctoral, sobre el perfil de los
estudiantes que ingresan al programa de ELE del CLAM (véase apartado 6.4.1). A partir de
material recogido del 2010 al 2015 con dos tipos de documentos -hojas de inscripción y fichas de
exámenes de clasificación oral-, se obtuvo información sobre la nacionalidad, edad, profesión e
intereses de estudio de los candidatos.
El estudio determinó que el perfil de los estudiantes que llegan a presentar el examen de
clasificación del CLAM es muy variado, los alumnos provienen de países muy diversos: Suiza,
Haití, Brasil, Holanda, Francia, entre otros. A pesar de este hecho, las nacionalidades más
comunes son la estadounidense, la coreana, la japonesa y la alemana. Referente a la edad, hay un
rango muy diverso dado que se inscriben tanto adolescentes (16-20 años) como personas
mayores. No obstante, las edades más frecuentes oscilan entre los 21 a los 30 años. Respecto a
las motivaciones que incitan a estos estudiantes a aprender español en el CLAM, el estudio
resaltó las necesidades académicas o laborales puesto que la mayoría viene a Bogotá a estudiar y
a trabajar en empresas extranjeras.
53
6.5.1.3. Posibles tareas para la prueba de clasificación
Se seleccionaron las posibles tareas que podría tener el examen de clasificación. Para
ello, se hizo una revisión completa de los programas de español 1, 2, 3 y 4 del CLAM de los
manuales Aula Internacional 1 y 2 y del MCER.
En primer lugar, se consultó el MCER (2002) para ver en qué ámbitos se podría
comunicar el alumno y, por ende, enmarcar las tareas. Consideramos que es un paso necesario ya
que como el propio MCER establece, los ámbitos son las áreas de interés en que se organiza la
vida social y señala que ayudan «a la selección de situaciones, propósitos, tareas, temas y textos
que configuran los materiales y las actividades evaluativas del examen» (MCER, 2002, p.49).
Estos ámbitos se organizan, según el MCER, en el ámbito personal, ámbito profesional, ámbito
público y ámbito educativo.
Dentro de este trabajo investigativo, y gracias a los resultados obtenidos en el paso
anterior, se consultaron los ámbitos del MCER para enmarcar las tareas de la prueba de
clasificación. Los ámbitos que consideramos oportunos dado el nivel de las tareas son los
ámbitos personal, profesional y educativo. En cuanto al primero, se tiene en cuenta la vida
privada del candidato (familia) y la vida social (amigos). El ámbito profesional, por otra parte, se
contempla el lugar donde el candidato desarrolla su vida laboral a través de contenidos
relacionados con empresas, oficinas, almacenes, entre otros. Finalmente, el ámbito educativo
considera los espacios donde el individuo complementa o promueve su aprendizaje (escuelas y
colegios, facultades, centros de formación continua, laboratorios, entre otros).
En segundo lugar, se consultaron las tareas presentes en los programas de los niveles 1, 2,
3 y 4 del CLAM, así como las diferentes tareas de comprensión lectora que aparecen en los
manuales de Aula Internacional 1 y 2.
54
Como resultado de esta búsqueda teórica, se seleccionaron las siguientes tareas que
servirán de modelo para desarrollar la propuesta de tarea.
Nivel A1.1 MCER
Tarea 1 Llenar formatos de información personal ubicando las respuestas ya dadas
en la casilla correspondiente. Ámbito personal
Tarea 2 Leer pequeños enunciados de personas famosas mundialmente y
relacionarlos con sus respectivas fotos.
Ámbito
profesional
Tarea 3 Leer la descripción de una ciudad específica y crear un texto en el que
describan su ciudad.
Ámbito
profesional
Nivel A1.2 MCER
Tarea 1 Leer la descripción de una familia y según las preguntas establecer los
lazos familiares entre los personajes.
Ámbito
personal
Tarea 2 Leer información sobre platos típicos y relacionarlos con sus respectivos
países.
Ámbito
personal
Tarea 3 Leer la descripción de un barrio específico y presentar las características
básicas de este (mencionar parques, museos, etc.).
Ámbito
educativo
Nivel A2.1 MCER
Tarea 1 Organizar la historia de la vida de un personaje determinado según
el orden cronológico de los datos. Ámbito educativo
Tarea 2 Comparar dos textos que hablen sobre tipos de viviendas de dos
culturas diferentes y describir las diferencias.
Ámbito personal y
profesional
Tarea 3 Leer un texto sobre los intereses de las personas en cada país y
responder las preguntas.
Ámbito personal y
educativo
55
Nivel A2.2 MCER
Tarea
1
Leer un artículo sobre medicina no tradicional y describir los
usos del objeto en cuestión. Ámbito profesional
Tarea
2
Leer un artículo sobre la experiencia de un extranjero en
Colombia e identificar qué afirmaciones son falsas o
verdaderas.
Ámbito personal,
profesional y
educativo
Tarea
3
Leer un artículo sobre la gastronomía de un país y compararlo
con el del país de origen.
Ámbito personal y
educativo
6.5.1.4. Definición del constructo (habilidades)
Por último, y como resultado de los pasos anteriores, se estableció el constructo a evaluar
en cada nivel de lengua. Es decir, se especificó qué habilidades debe tener el alumno en cada uno
de los 4 niveles iniciales del CLAM.
Para llegar a estos postulados, fue necesario revisar los objetivos de los programas de
español del CLAM para niveles iniciales, los contenidos de los libros de Aula internacional 1 y
2, y los descriptores de las escalas del MCER: 1. Niveles comunes de referencia: escala global, 2.
Niveles comunes de referencia: cuadro de autoevaluación, 3. Escalas DIALANG.
Tabla 1. Constructos comprensión escrita A1 y A2
COMPRENSIÓN LECTORA
A1.1
El estudiante es capaz de comprender, leyendo frase por frase, palabras básicas y
corrientes en textos muy breves y sencillos (letreros, formularios, imágenes, anuncios)
para satisfacer necesidades de tipo inmediato (información personal básica: nombre,
domicilio, nacionalidad, edad, e intereses).
56
A1.2
El estudiante es capaz de comprender y relacionar información en textos breves y
sencillos de carácter descriptivo e informativo (notas personales, menús, anuncios
publicitarios y horarios, sobre todo si hay apoyo visual) para satisfacer necesidades de
tipo inmediato (rutinas, vivienda, gustos, etc.).
A2.1
El estudiante es capaz de encontrar información específica en textos sencillos (correos
electrónicos, formularios, pedidos, cartas básicas personales y de confirmación, etc.) que
traten temas cotidianos relacionados con áreas de experiencia que le son especialmente
relevantes (sobre sí mismo y su familia, ocio, lugares de interés, ocupaciones, etc.).
A2.2
El estudiante es capaz de localizar y aislar información específica con respecto a normas
de seguridad (en lugares públicos y de trabajo); comprender indicaciones para ir a un
lugar e instrucciones sencillas (sobre aparatos, recetas, etc.). Así mismo, comprende
artículos breves de periódico que describen hechos determinados.
Fuente: Aula internacional 1 y 2, MCER PCIC, (Elaboración propia).
6.5.2. Resultados de la fase de diseño
En esta fase se precisaron los contenidos lingüísticos y no lingüísticos, número y tipo de
tareas, número de ítems, tipos de texto, longitud del texto, y criterios de evaluación de las
especificaciones de la prueba de comprensión lectora para los niveles iniciales.
6.5.2.1. Contenidos lingüísticos y no lingüísticos
En primer lugar, se establecieron los contenidos lingüísticos y no lingüísticos que se van
a evaluar mediante la prueba de clasificación. Para ello, teniendo en cuenta los programas del
CLAM (1- 4), el PCIC y el Aula Internacional 1 y 2, se escogieron los contenidos gramaticales,
lexicales, funcionales y culturales.
57
Tabla 2. Contenidos de la prueba comprensión lectora A1 Y A2
Contenidos Comprensión Lectora A1 (A1.1, A1.2)
Funcionales
Dar información personal
Expresar gustos e intereses
Expresar conocimiento
Gramaticales
Verbos regulares en indicativo y uso de los artículos
Uso de la forma impersonal ‘se’, algunas construcciones de verbo conjugado +
infinitivo y los cuantificadores ‘muy’ o ‘mucho’
Léxicos Relativo a información personal básica, gustos, intereses
Tipos de texto Informativo y descriptivo
Culturales Reconocimiento de la diversidad cultural
Fuente: Aula internacional 1 y 2, MCER PCIC, (Elaboración propia).
Contenidos Comprensión Lectora A2 (A2.1, A2.2)
Funcionales
Describir, narrar experiencias, expresar conocimiento
Expresar deseos o sentimientos
Dirigirse a alguien
Gramaticales Verbos irregulares en presente, verbos en pretérito indefinido, pretérito perfecto
simple e imperfecto, y formas de ‘estar’ + gerundio en pasado
Léxicos Relativo a información personal, viajes, lugares, comidas, actividades que realizan en
el diario vivir
Tipos de texto Descriptivos y narrativos
Culturales Percepción básica de las diferencias culturales, aproximación cultural
Fuente: Aula internacional 1 y 2, MCER PCIC, (Elaboración propia).
58
6.5.2.2. Tareas e ítems
Alderson et al. (1998) establecen que los responsables de la elaboración de la prueba
deberían usar ítems variados para su construcción, es decir; no desarrollar la misma cantidad ni
tipo de ítems para cada sección.
Para el nivel A1 (A1.1) se establecieron los siguientes tipos y números de tareas e ítems.
Tabla 3. Tareas e ítems para el nivel A1
Complejidad de tarea Guiada
No. de tareas 3 (de opción múltiple, relacionar o completar)
No. de ítems total 11
No. de ítems por tarea
Actividad 1: 3 de complejidad baja (A0 PRINCIPIANTE)
Actividad 2: 4 de complejidad media (A1.1 AVANZADO)
Actividad 3: 4 de complejidad alta (A1.2 SUPERIOR )
Duración de la tarea 20 minutos
Fuente: Aula internacional 1 y 2, MCER PCIC, (Elaboración propia)
Como podemos observar en la tabla, se establecieron tres tareas para medir el nivel A1:
la primera, de complejidad baja; la segunda, de complejidad media y, la última, de complejidad
alta. En la primera tarea, se proponen preguntas de opción múltiple. Para la tarea de complejidad
media, se utilizaron preguntas de relacionar. Por último, en la tarea de complejidad alta, se
escogieron preguntas donde se requiere completar con información.
Alderson y Banerjee (2002) sostienen que la dificultad del ítem no necesariamente está
relacionada con el nivel de la habilidad sino con el tipo de ítem que puede medir un aspecto
específico de una destreza en la comprensión lectora.
De esta manera, para la tarea de complejidad baja, se desarrollaron preguntas de opción
múltiple dado que se presenta como una de las técnicas más apropiadas para buscar que el
59
estudiante comprenda información específica en función de satisfacer las necesidades inmediatas
como información personal básica (nombre, domicilio, nacionalidad, etc.) y para que identifique
palabras aisladas y su relación con el sentido global del texto.
Este tipo de ítem permite medir la construcción de la microestructura, también llamada
coherencia local por Sanders & Spooren (2001), Louwerse (2002, 2004) Louwerse & Graesser
(2006) y Sanders & Pander (2006), en los procesos de comprensión escrita. En la coherencia
local «el lector establece procesos de orden semántico relacionados directamente con procesos de
decodificación explicita e implícita a partir de la información textual» (Ibáñez, 2012, p.26).
De este modo, como expone Pierce (1992, citado en Alderson et al., 1998), la selección
múltiple al plantear una pregunta (enunciados) con varias posibles respuestas (opciones) de las
cuales una es la correcta y las restantes (distractores) son probables o parcialmente correctas,
permite observar la capacidad del lector para identificar información u/o palabras específicas en
función de la pregunta y coherencia global del texto.
Adicionalmente, Pierce (1992, citado en Alderson et al., 1998) menciona que el
enunciado debe expresarse con precisión dejando en claro cuál es la finalidad del ejercicio para
así evitar ambigüedades. En cuanto a la respuesta, el autor menciona que las opciones deben ser
breves para evitar que la respuesta correcta sea la más larga. Es importante que las opciones
dadas estén planteadas en el mismo formato, es decir, todas deben ser sustantivos, verbos u
oraciones entre otros. Al hablar de distractores, Pierce (1992, citado en Alderson et al., 1998)
hace énfasis en que estos deben ser falsos pero posibles ya que de esta manera confunden a los
alumnos a la hora de responder y les obliga a pensar y ser conscientes de seleccionar la respuesta
correcta.
60
De acuerdo con las recomendaciones de estos autores, se propusieron como modelo 3
ítems de opción múltiple para la primera actividad.
Imagen 6. Ejemplo tarea A1 (opción múltiple)
Fuente: (Elaboración propia).
Para la tarea de complejidad media, se utilizó una pregunta de relacionar; nos referimos al
ítem en los que se da a los estudiantes una lista de posibles respuestas que tienen que emparejar,
en este caso, con imágenes extraídas del texto. Según Alderson et al. (1998) dentro de estas
clases de ítems al estudiante se le debe dar más de una opción a la hora de emparejar, es decir si
hay 4 frases o palabras se deberían dar 6 imágenes con las que el estudiante pueda emparejar
cada frase.
Este tipo de ítem permite observar si el estudiante es capaz de transferir información
textual y relacionarla con referencias visuales. De igual forma, por medio de esta técnica de
evaluación es posible mirar si el estudiante conoce el significado de una palabra, para esto es
necesario que las imágenes sean claras y que no den pie a confusiones semánticas.
61
Siguiendo las recomendaciones de este autor, se propusieron 4 ítems como modelo para
la segunda actividad.
Imagen 7. Ejemplo tarea A1 (Ítem de relacionar)
Fuente: (Elaboración propia).
Por último, escogimos para la complejidad alta tareas de completar. En estas tareas el
objetivo es que el estudiante llene o complete con palabras un fragmento tomado del texto real
establecido anteriormente. La complejidad de la respuesta es alta ya que el estudiante debe llenar
el espacio con la palabra correcta (Alderson et al., 1998).
Alderson et al. (1998) mencionan también que este tipo de tareas permiten evaluar
aspectos lingüísticos tales como la gramática (verbo y sujeto, sustantivos, adjetivos, uso de
plural, entre otros) y la comprensión de lectura. A su vez, la mayor dificultad que tiene este tipo
de tarea radica en poder llevar a los estudiantes a escribir la palabra o palabras esperadas en cada
62
espacio. Es aquí donde el redactor debe plantear las respuestas de tal modo que no haya sino una
única respuesta posible. Alderson et al. (1998) subrayan que para una mayor fiabilidad en la
corrección es importante reducir el número de respuestas alternativas. De acuerdo con las
recomendaciones de estos autores se diseñaron 4 ítems (véase imagen 8)
Imagen 8. Ejemplo tarea A1 (Ítem de completar)
Fuente: (Elaboración propia).
6.5.2.3. Textos: tipos y extensión
6.5.2.3.1. Extensión de los textos
Según los parámetros del examen DELE se realizó una aproximación para establecer la
longitud de los textos. Para el nivel A1 (A1.1 - A1.2) un texto entre 150-200 palabras y para el
nivel A2 (A2.1-A2.2) una longitud de 200 a 300 palabras.
De igual forma, Ibáñez (2012) sustenta que la extensión de los textos no debe determinar
la selección de los textos. Por el contrario, la extensión de los mismos debe estar subordinada al
constructo que se desea medir en cada nivel. Además, los exámenes DELE para los niveles
iniciales establece que cada texto depende de la tarea, pero en general la extensión de los textos
es proporcional al nivel que se quiere evaluar (véase imagen 9).
63
Imagen 9. Ejemplo extensión de texto A2 DELE
Fuente: Exámenes DELE (2014).
6.5.2.3.2. Tipos de texto en cada nivel
Gracias a la recolección de información en el PCIC, se establecieron los anteriores
tipos de texto y los temas que se iban a tratar dentro de los mismos.
Para el caso del nivel A1, se mencionan formatos tales como letreros, notas personales,
anuncios publicitarios, formularios, menús y horarios. En el apartado mencionado estos hacen
partes de dos tipos de textos: informativos y descriptivos. Por este motivo, se establecieron estos
dos como un criterio de selección de material para las tareas.
Por otra parte, en el nivel A2 los formatos de textos mencionados son correos
electrónicos, instrucciones sobre aparatos, recetas, pedidos, artículos breves de periódicos, cartas
básicas personales y de confirmación. Estos formatos pertenecen a los textos descriptivos y
narrativos, razón por la cual estos 2 tipos de texto se plantearon como requisito en la selección de
material para las tareas de nivel A2.
64
6.5.2.4. Tiempo para cada sección
Para establecer el tiempo de lectura y respuesta por cada sección, se consultaron los
exámenes DELE para los niveles correspondientes. En estos exámenes, la duración de cada
prueba varía dependiendo de la cantidad de tareas establecidas y a su vez de la cantidad de ítems
a evaluar por cada una. En general, para las pruebas del DELE nivel A1 hay 4 tareas, cada una de
ellas con una duración 11 minutos, por tanto, un total de 45 minutos. En cuanto a las pruebas de
nivel A2, nos habla de 5 tareas, cada una de ellas con una duración de 12 minutos, por tanto, un
total de 60 minutos.
Tomando como base esos criterios de tiempo y las características de nuestra prueba, se fijó,
por un lado, un tiempo de 20 minutos para desarrollar las tres tareas del nivel A1 (A1.1 - A1.2).
Por otro lado, para el nivel A2 (A2.1 - A2.2) se dio un tiempo de 30 minutos para la realización
de las 2 tareas debido a la extensión del texto. Cuando anteriormente mencionamos las
características de nuestra prueba nos referimos a que se trata de una prueba para clasificar en
doce niveles, no para medir un único nivel como los DELE. Es decir, en la prueba completa del
CLAM se deberán medir los 12 niveles que imparte el centro. Por consiguiente, no se pueden
diseñar tareas muy extensas porque pondríamos en entredicho la viabilidad del examen.
6.5.2.5. Criterios de evaluación
En cuanto a los criterios de evaluación, se siguió la fórmula establecida por Alderson et al.
(1998). Esta nos dice que cada ítem por sección tiene un valor de un punto y que si el estudiante
completa satisfactoriamente el 70 % de las repuestas por sección aprueba el nivel que dicha sección
pretende evaluar. En nuestra prueba, no obstante, no se mide solo un nivel sino cinco: A0, A1.1,
A1.2, A2.1 y A2.2. Al aprobar el 70 % de uno de estos niveles, se clasificará al estudiante en el
nivel de proficiencia siguiente/superior puesto que ya tiene los conocimientos necesarios del nivel
65
anterior.
Por estas características de nuestra prueba, es necesario aclarar que los puntos adquiridos
por las respuestas correctas son acumulativos, en la medida que se alcance el mínimo requerido se
clasificará al estudiante en los niveles A1.1, A1.2, A2.1, A2.1 y B1.1. De esta manera, se establece
que el margen de puntos requeridos para aprobar un nivel y ser clasificado en el siguiente es:
Tabla 4. Criterios de evaluación niveles A1 y A2
Medición (70%) Nivel de proficiencia Nivel a clasificar
3 ítems: 2 ítems A0 (0-4 ítems correctos) A1.1
7 ítems : 5 ítems A1.1 (5-7 ítems correctos) A1.2
11 ítems : 8 ítems A1.2 (8-11 ítems correctos) A2.1
17 ítems : 12 ítems A2.1 (12-16 ítems correctos) A2.2
24 ítems : 17 ítems A2.2 (17-24 ítems correctos) B1.1
Fuente: (Elaboración propia).
➔ El número de ítems que buscan medir el nivel de proficiencia A0 es de 3. Para decir que el
estudiante en efecto tiene este nivel, este debe aprobar el 70% de las preguntas lo cual vendría
siendo 2 ítems. Por consiguiente, si el estudiante tiene de 0 a 4 ítems correctos este se
clasificará en el nivel A1.1. En caso dado de que el estudiante no consiga un solo punto de
esta sección, este se clasificara en A1.1 puesto que no existe un nivel 0 en el programa del
CLAM.
➔ El número de ítems que buscan medir el nivel de proficiencia A1.1 es de 7. Es decir, 3 del nivel
A0 y 4 del nivel A1.1 (aprendizaje acumulativo). Para decir que el estudiante en efecto tiene
este nivel, este debe aprobar el 70% de las preguntas lo cual vendría siendo 5 ítems. Por
consiguiente, si el estudiante tiene de 5 a 7 ítems correctos este se clasificará en el nivel A1.2.
66
➔ El número de ítems que buscan medir el nivel de proficiencia A1.2 es de 11. Estos incluyen 7
ítems de los niveles A0 y A1.1 y 4 ítems de nivel A1.2. Para decir que el estudiante en efecto
tiene este nivel, este debe aprobar el 70% de las preguntas lo cual vendría siendo 8 ítems. Por
consiguiente, si el estudiante tiene de 8 a 11 ítems correctos éste se clasificará en el nivel A2.1.
➔ El número de ítems que buscan medir el nivel de proficiencia A2.1 es de 17. Es decir, 11 de
niveles A0, A1.1, A1.2 y 6 del A2.1. Para decir que el estudiante en efecto tiene este nivel,
este debe aprobar el 70% de las preguntas lo cual vendría siendo 12 ítems. Por consiguiente,
si el estudiante tiene de 12 a 16 ítems correctos este se clasificará en el nivel A2.2.
➔ El número de ítems que buscan medir el nivel de proficiencia A2.2 es de 24, los ítems son
sumativos durante la prueba. Es decir, 17 de niveles A0, A1.1, A1.2, A2.1 y 7 ítems para el
A2.2. Para decir que el estudiante en efecto tiene este nivel, este debe aprobar el 70% de las
preguntas lo cual vendría siendo 17 ítems. Por consiguiente, si el estudiante tiene de 17 a 24
ítems correctos este se clasificará en el nivel B1.1.
6.5.3. Resultados de la Fase de experimentación
La fase de experimentación nos permitió comprobar la validez de las especificaciones de
la prueba de comprensión lectora y el modelo de tarea propuesto para el nivel A1. En concreto,
se validó la claridad de las tareas, el número de ítems por sección, la longitud del texto, los
criterios de evaluación, la tipología de los textos, la disponibilidad de tiempo para cada sección y
perfil del candidato.
Para ello se pidió a 4 expertas de la Facultad de Comunicación y Lenguaje que
respondieran a un cuestionario de escala tipo “Likert” (véase apartado 6.4.2). Se le proporcionó a
cada una de ellas las especificaciones de cada nivel, la tarea para el nivel A1, el cuestionario
como herramienta de evaluación y validación.
67
En primer lugar, se analizaron las respuestas del cuestionario. No obstante, de las cuatro
evaluadoras, solo tres respondieron al cuestionario ya que una de ella solo aportó
retroalimentación cualitativa. A continuación, se presentan los resultados obtenidos por cada
sección del cuestionario.
La sección número uno Propósitos de las especificaciones, buscó evaluar dos aspectos en
específico: que las especificaciones cumplieran el propósito de clasificar a los candidatos en los
niveles iniciales del CLAM y que estas fueran claras para el docente. El primer aspecto se
cumple: tres de las tres evaluadoras están de acuerdo con este postulado (véase tabla 5). Sin
embargo, a la hora de evaluar la forma en que las especificaciones son planteadas las evaluadoras
muestran que éstas no son claras para el docente y solo una de ellas manifiesta que para ella sí lo
son (véase tabla 5). Comentarios tales como «Me parecen particularmente confusas las
especificaciones sobre “criterio de evaluación”» (Sujeto 3, comentario escrito, 15 de abril de
2016) hicieron evidente a lo largo del cuestionario y revisión de las especificaciones que faltó
precisión respecto a algunas partes de los contenidos de la herramienta. En efecto, se comprobó
que había algunas partes que requerían más desarrollo y precisión (por ejemplo, los criterios de
evaluación).
Tabla 5. Sección 1: Propósito de la prueba
Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts
Las especificaciones propuestas orientan de
manera clara y específica al docente. 5 2 2 N. R. 5
Una prueba basada en estas
especificaciones sesga la actuación del
estudiante.
4 1 1 N. R. 1
68
Una prueba basada en estas
especificaciones responde a los requisitos
para clasificar a los estudiantes en los
niveles iniciales (A0, A1.1, A1.2, A2.1 y
A2.2).
5 4 2 N. R. 5
Las especificaciones podrían ser
interpretadas erróneamente por el docente
dado que no son claras ni precisas.
2 5 4 N. R. 1
Estas especificaciones no responden a las
necesidades educativas de los estudiantes
de los niveles iniciales del CLAM.
2 2 2 N. R. 1
Fuente: (Elaboración propia).
En cuanto a la sección número dos, Descripción del candidato, el foco de evaluación giró
en torno a si la descripción del perfil de los candidatos era acorde al perfil de los mismo en el
CLAM y si esta información era pertinente para escoger los contenidos de la prueba. Los
resultados mostraron que dos de las expertas estaban de acuerdo y una de ellas totalmente de
acuerdo con que estos dos presupuestos se cumplían en las especificaciones (véase tabla 6). No
obstante, la sujeto 2 recomendó reorganizar la información aportada en el perfil de la
herramienta para dar más claridad.
Tabla 6. Sección 2: Descripción del candidato
Pregunta Sujeto
1
Sujeto
2
Sujeto
3
Sujeto
4 Rts
La descripción del candidato
coincide con las características de
los estudiantes extranjeros que
llegan al CLAM.
4 4 5 N. R. 5
69
La descripción del candidato aporta
al docente información para
desarrollar los contenidos de la
prueba.
2 4 4 N. R. 5
La descripción del candidato no se
ajusta a las características de los
estudiantes extranjeros que llegan al
CLAM.
2 2 1 N. R. 1
Fuente: (Elaboración propia).
La sección número 3, tenía el objetivo de evaluar los constructos de los niveles A1.1,
A1.2, A2.1 y A2.2. Esto teniendo como base sus componentes, la complejidad de los contenidos
en relación a nivel y, por último, la claridad y precisión de los mismos. Los resultados mostraron
que dos evaluadores estaban de acuerdo con los tres componentes anteriormente mencionados.
En relación al aspecto de complejidad, la sujeto 2 mencionó: «En mi opinión el grado de
complejidad no la da el tema 'per se' sino el contenido, como se presenta ese contenido y la
pregunta que se hace.» Si bien las especificaciones dan un tema sobre el cual girará el desarrollo
de la prueba para cada nivel, estas también muestran que subtemas se trabajarán en específico, de
igual manera, delimitan la complejidad de la tarea al mencionar qué tipo de tarea se utilizará, qué
contenidos lingüísticos se evaluarán, qué tipo de textos se utilizarán. De modo tal, que también
guían al que desarrollará la prueba para que este sepa cómo presentar los contenidos.
En cuanto a los contenidos del constructo, la sujeto 2 mencionó que lo relacionado con el
constructo le pareció apropiado para definir lo que debe hacer el estudiante en cada nivel.
Igualmente, las tres expertas respaldaron este comentario al manifestar que estaban de acuerdo
respecto a que los constructos por nivel eran los apropiados (véase tabla 7).
Por otro lado, al tratar la claridad y precisión de los constructos el cuestionario mostró que
sí eran claros y precisos pero que era necesario añadir un constructo para el nivel A0 y otro para
70
el nivel B1 (nivel en el que se clasificará al estudiante que apruebe satisfactoriamente la prueba
A2.2). La necesidad de incluir estos dos constructos la sustentó la sujeto 3 al decir que «no se
describe el nivel A0 y sin embargo es el nivel al que apunta la actividad 1». Al pensarse las
especificaciones para clasificar al candidato en los niveles iniciales, es necesario también pensar
en la posibilidad de que algunos de estos llegaran a aprender español desde cero o que quizá su
nivel de lengua no alcanza a ser A1.1. Por este motivo, se decidió crear un constructo para el
nivel A0 y uno para B1.1 con el fin de hacer este apartado más claro y preciso (véase apartado
6.5.4).
Tabla 7. Sección 3: Niveles de la prueba
Pregunta Sujeto
1
Sujeto
2
Sujeto
3
Sujeto
4 Rts
El constructo objeto a evaluar de cada
nivel es apropiado en la medida que
contempla lo propuesto por el CLAM, el
MCER y el PCIC.
4 5 5 N. R. 5
Las especificaciones no abordan el
mínimo de los contenidos que debe
manejar un estudiante de niveles
iniciales.
2 1 5 N. R. 1
Hay diferencias claras entre el grado de
complejidad de un nivel y otro. 4 5 5 N. R. 5
Las especificaciones de cada constructo
no permiten al profesor tener claro el
objeto a evaluar en cada nivel.
2 2 1 N. R. 1
En los niveles de la prueba se podrían
tratar temas de menor complejidad con el
objetivo de que los estudiantes
respondan con mayor eficiencia.
2 1 1 N. R. 1
Fuente: (Elaboración propia).
71
La sección número 4, Número de secciones de la prueba, busca evaluar si el número de
secciones por prueba es la adecuada y, a su vez, si las secciones establecidas en las
especificaciones están acordes con los niveles que se van a trabajar para la prueba de
comprensión lectora. Solo dos evaluadoras estuvieron de acuerdo con el número de secciones. La
sujeto 2 al decir que «Dado que esta prueba es de clasificación y no de evaluación, bien se podría
dejar una sola sección en cuyo caso aumentaría un poco el número de actividades a realizar»,
comentario que nos indica que no está de acuerdo con las otras opiniones (véase tabla 8).
Tabla 8. Sección 4: Número de secciones de la prueba
Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts
El número de secciones de la prueba es
adecuado para clasificar a los
estudiantes en los niveles iniciales del
CLAM (A1.1, A1.2, A2.1, A2.2 y
B1.1).
4 2 1 N. R. 5
El número de secciones de la prueba
debería reducirse a uno solo ya que a
través de una comprensión escrita
sencilla se puede saber exactamente en
cuál de los cuatro niveles está el
candidato.
2 4 1 N. R. 1
El número de secciones de la prueba
debería ser cuatro; una para cada nivel
(A1.1, A1.2, A2.1, A2.2), con el
propósito de no excluir a ninguno de
ellos.
2 2 5 N. R. 1
El número de secciones de la prueba no
es el adecuado para clasificar a los
estudiantes en los niveles iniciales del
CLAM (A1.1, A1.2, A2.1, A2.2 y
B1.1).
4 2 5 N. R. 1
Fuente: (Elaboración propia).
72
En la sección número cinco, Contenidos tratados por sección, se buscó abordar la
correspondencia entre los contenidos lingüísticos y no lingüísticos de las especificaciones en
relación a los programas del CLAM y el aspecto intercultural. Si bien los contenidos
comunicativos y lingüísticos de cada sección eran acordes a los contenidos de los tres
documentos mencionados anteriormente, hecho que se vio en que las tres expertas estuvieron de
acuerdo en este aspecto (véase tabla 9), los resultados en cuanto a desarrollo del aspecto
intercultural no fueron claros.
La sujeto 1 mencionó que «el desarrollo de la competencia no sería un objeto de una
prueba de clasificación» y si bien estamos de acuerdo, hacemos claridad en que en ningún
momento se buscó desarrollar esta competencia a lo largo del examen. En realidad, el objetivo
principal fue observar por medio de la inclusión y manejo de distintos de temas como el
candidato lidiaba con contenidos que le son afines desde la perspectiva de otro contexto. Por
consiguiente, se concluye que la pregunta no estaba bien formulada. Por otro lado, la sujeto 3
pregunto «¿Se "desarrolla" la competencia intercultural en unos contenidos?» A esto
respondemos que no, simplemente se observa la competencia intercultural por medio del
contenido u origen de los textos escogidos para la prueba. Debido a estos comentarios, se hace
necesario replantear los enunciados que pretenden evaluar el aspecto intercultural (véase
apartado 6.5.4).
Tabla 9. Sección 5: Contenidos tratados por sección
Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts
Los contenidos comunicativos y
lingüísticos de cada sección representan
los establecidos por el CLAM, el PCIC
y el MCER para los niveles iniciales.
4 4 4 N. R. 5
73
Los contenidos propuestos permiten el
desarrollo de la competencia
intercultural.
2 5 1 N. R. 5
Las temáticas tratadas por sección están
acordes con la descripción de cada
nivel.
4 3 1 N. R. 5
Los contenidos comunicativos y
lingüísticos de cada sección no
representan los contenidos a trabajar en
niveles iniciales propuestos por el
CLAM, el PCIC y el MCER.
2 2 3 N. R. 1
Fuente: (Elaboración propia).
La sección 6, Complejidad de la tarea por sección, se pensó con el propósito de evaluar
la correspondencia entre las tareas y los contenidos establecidos y si se veía una gradación de la
dificultad de las tareas. Respecto al primer objeto de evaluación, 2 expertas mencionaron estar de
acuerdo con que hay coherencia entre lo que se quiere medir y la manera de medirlo. En cuanto
al aspecto de la complejidad, las tres evaluadoras expresan estar de acuerdo con que los
contenidos y su dificultad son los adecuados. Por último, dos de las expertas mencionan estar de
acuerdo con que en efecto hay diferenciación entre las tareas que pretenden evaluar los niveles
iniciales.
Tabla 10. Sección 6: Complejidad de la tarea por sección
Pregunta Sujeto
1
Sujeto
2
Sujeto
3
Sujeto
4 Rts
Las tareas propuestas permiten abordar
contenidos temáticos y lingüísticos
correspondientes a los niveles iniciales.
4 4 2 N. R. 5
La complejidad de las tareas no es adecuada
para un estudiante de español de nivel inicial. 2 1 1 N. R. 1
74
No hay una gradación adecuada en las tareas
que pretenden evaluar los niveles iniciales. 2 2 5 N. R. 1
El nivel de complejidad de las tareas va de
acuerdo con el nivel de complejidad del nivel a
evaluar.
4 4 4 N. R. 5
Fuente: (Elaboración propia).
La sección 7, Número de tareas por sección, buscó evaluar que las 5 tareas, tres para A1
y la dos para A2, fueran suficientes para clasificar al candidato en los niveles iniciales. Respecto
a esto, solo dos de las evaluadoras estuvieron de acuerdo con que la cantidad de tareas era
suficiente para evaluar el nivel A1. En los comentarios las evaluadoras recomendaron presentar
la propuesta de tarea para A2 para ver cómo se desarrollaba.
Tabla 11. Sección 7: Número de tareas por sección
Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts
El número de tareas por sección es
conveniente para evaluar la actuación
del estudiante y, de esta forma, ubicarlo en uno de los niveles
iniciales del CLAM.
4 4 1 N.R. 5
El número de tareas es exagerado
teniendo en cuenta las demás pruebas
del examen de clasificación del CLAM que el estudiante debe
desarrollar (comprensión escrita y
oral y expresión escrita y oral)
2 3 1 N.R. 1
El número de tareas por sección no
es suficiente para evaluar la actuación del estudiante y, en este
sentido, no se podrá ubicarlo en uno
de los niveles iniciales.
2 2 5 N.R. 1
Fuente: (Elaboración propia).
75
La sección 8, Duración de tarea por sección, quiso apuntar a si el tiempo dado en la
prueba tanto para leer y responder era suficiente para evaluar la comprensión lectora. En esta
sección, las tres evaluadoras estuvieron de acuerdo con que la cantidad de tiempo era el
apropiado (véase tabla 12). Sumado a esto, hicieron preguntas sobre algunos detalles. La sujeto 4
preguntó en las especificaciones de la sección A1 «duración de la tarea: 20 min. ¿Si son tres
tareas son 60 minutos?» a esto respondemos que no: para la sección A1 son 20 minutos en el
comprendido total y en la sección A2, 30 minutos. De igual forma, la sujeto 4 preguntó por
«cuáles fueron los criterios para establecer la duración de la tarea». En cuanto a esto, revisamos
las pruebas DELE A1 y A2 (Diplomas de Español como Lengua Extranjera)
Tabla 12. Sección 8: Duración de tarea por sección
Pregunta Sujeto
1
Sujeto
2
Sujeto
3
Sujeto
4 Rts
El tiempo que se proporciona es suficiente
para que el estudiante pueda completar la
tarea.
4 4 5 N.R. 5
El tiempo de respuesta debería reducirse
teniendo en cuenta las demás tareas del
examen.
2 2 1 N.R. 1
El tiempo de respuesta es insuficiente y
por consiguiente puede condicionar al
estudiante a responder precipitadamente.
2 2 1 N.R. 1
Fuente: (Elaboración propia).
La sección 9, Longitud de texto por sección, buscó mirar si el número de palabras en los
textos para cada nivel era el adecuado. Los resultados mostraron que las tres expertas estaban de
acuerdo con que la longitud de los textos era pertinente para los niveles en los que se quiere
clasificar.
76
Tabla 13. Sección 9: Longitud de texto por sección
Pregunta Sujeto
1
Sujeto
2
Sujeto
3
Sujeto
4 Rts
El número de palabras que el estudiante debe leer
no es suficiente para evaluar su dominio de la
lengua.
2 2 1 N.R. 1
El número de palabras que se demanda es
demasiado alto teniendo en cuenta lo que puede
producir el estudiante de niveles iniciales.
2 1 N.R. 1
El número de palabras que se demanda es
demasiado alto teniendo en cuenta lo que puede
comprender el estudiante de niveles iniciales.
2 2 1 N.R. 1
Fuente: (Elaboración propia).
Por último, la sección 10, Escala de evaluación, apuntó a que se evaluara si los criterios
de evaluación eran apropiados y claros para evaluar las tareas de comprensión escrita. Los
resultados no dan claridad al respecto: de dos evaluadoras que dan respuesta solo una de estas
está de acuerdo con que la escala es apropiada. La sujeto 2 menciona «¿Cuales niveles? ¿Cuál
escala? En el documento no se incluyó ni la escala holística, ni la detallada». Este hecho muestra
la inconformidad de las expertas respecto a este tema. Para esto aclaramos que nuestros criterios
de evaluación giran en torno al número de ítems correctos e incorrectos para medir el nivel de
proficiencia de un candidato para después clasificarle en el nivel al cual entrará a cursar.
Probablemente las especificaciones de los criterios no fueron los suficientemente claras para los
evaluadores.
77
Tabla 14. Sección 10: Escala de evaluación
Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts
La escala propuesta no permite valorar la
actuación lingüística del estudiante en los
niveles iniciales del CLAM.
4 N.R. 5 N.R. 1
Los criterios seleccionados (si el candidato
tiene 0-4 ítems correctos, se clasifica en
A1.1, si tiene 5-7 ítems correctos, se
clasifica en A1.2, si tiene 8-11 ítems
correctos, se clasifica en A2.1) permiten
evaluar la habilidad lingüística del
estudiante.
4 N.R. 1 N.R. 5
La herramienta de evaluación diseñada
ofrece la posibilidad de ubicar al
estudiante en los niveles iniciales del
CLAM.
4 N.R. 2 N.R. 5
Los rangos establecidos y el número de
ítems propuestos no son suficientes para
medir la habilidad lingüística del
estudiante en los cuatro niveles iniciales
del CLAM.
2 N.R. 5 N.R. 1
Fuente: (Elaboración propia).
6.5.4. Resultados de la Fase de recapitulación
Al finalizar la fase de experimentación y analizar los resultados y comentarios acerca de
las especificaciones de la comprensión lectora, decidimos hacer una serie de cambios y mejoras
respecto a: los constructos a evaluar, los contenidos lingüísticos y no lingüísticos, el formato y
presentación de algunos contenidos de las tareas, los criterios de evaluación y las tareas para los
niveles A1 y A2.
Para empezar, en cuanto a los constructos a evaluar, el sujeto 3 sugirió en sus
comentarios que era necesario establecer un constructo para el nivel A0: «no se describe nivel
A0; sin embargo, es el nivel al que apunta la actividad 1» (Sujeto 3, comentario escrito, 15 de
78
abril de 2016). Al analizar este comentario, notamos que si bien incluíamos en nivel A0 a la hora
de medir la competencia del candidato para clasificarlo en el nivel A1.1 (véase apartado 6.5.2.5),
no había un constructo explícito que permitiera al evaluador contrastar los resultados de la
prueba con el constructo para verificar que en realidad la competencia del estudiante se ubicara
en este nivel. Paso seguido, se procedió a revisar el PCIC, el MCER y el Aula internacional 1,
definimos el constructo de la siguiente manera:
Nivel A0
El estudiante es capaz de entender muy pocas palabras básicas y aisladas
parecidas a las de su lengua materna.
Sumado a esto, el sujeto 3 observó igualmente que el constructo de nivel B1.1 no estaba
descrito en las especificaciones: «en el enunciado no se incluye el nivel B1.1» (Sujeto 3,
comentario escrito, 15 de abril de 2016). No en tanto, este es el nivel en el que se clasifica el
estudiante que aprueba satisfactoriamente el nivel A2.2 (véase apartado 6.5.2.5). Después de
haber hecho el mismo proceso que se hizo con el nivel A0, al revisar los documentos de
referencia, se definió el nivel B1.1 de la siguiente manera:
Nivel B1.1
El estudiante es capaz de comprender textos cotidianos relacionados a su
área de trabajo (cartas, faxes, correos electrónicos, confirmaciones,
reclamaciones y solicitudes de trabajo). Así mismo, comprende textos
descriptivos identificando acontecimientos, sentimientos y deseos.
Respecto a los contenidos no lingüísticos, la sujeto 2 preguntó acerca de los elementos
culturales a evaluar. En relación a esto, se aclaró que el propósito de contemplar estos elementos
79
no era evaluarlos sino incluirlos en el desarrollo y selección de los textos. Este comentario se
amplía en la fase de experimentación (véase apartado 6.5.3).
En cuanto al formato y presentación de algunos contenidos de las tareas, comentarios
tales como «no es conveniente en términos del formato mezclar imágenes animadas con reales en
el mismo ejercicio» (Sujeto 2, comentario escrito, 15 de abril de 2016) y «¿Noche o atardecer?
La imagen no es clara» (Sujeto 2, comentario escrito, 15 de abril de 2016) hicieron hincapié en el
formato de las imágenes utilizadas para ilustrar los ejercicios. Por parte del primer comentario,
desde la experiencia de la experta se nos recomendó mantener una sola configuración/formato de
imagen hecho por el cual decidimos unificar todas imágenes manejando un concepto animado.
Sumado a esto, el segundo comentario sugiere que las imágenes no deben dar pie a
malinterpretaciones razón por la cual modificamos la imagen F. (véase anexo 7)
En lo relacionado con los criterios de evaluación, dos de las expertas comentaron que
faltaba claridad en cuanto al planteamiento de estos. La sujeto 2 mencionó «¿qué niveles? ¿Cuál
escala? En el documento no se incluyó ni la escala holística, ni la detallada» (comentario escrito,
15 de abril de 2016). Adicionalmente, la sujeto 3 mencionó: «me parecen particularmente
confusas las especificaciones sobre criterios de evaluación» (comentario escrito, 15 de abril de
2016). Aunque la escala ya había sido planteada dentro de las especificaciones, éstas no eran
claras y no daban claridad sobre el proceso de medición y el proceso de clasificación. Como
respuesta a estos comentarios se clarificaron los criterios de evaluación (véase apartado 6.5.3)
«No hay sección A2» mencionó la sujeto 2 (comentario escrito, 15 de abril de 2016) en
sus comentarios acerca del número de tareas por sección. En el apartado de limitaciones,
mencionamos que una limitante para diseñar esta sección fue el tiempo en el momento en que
80
pasamos los documentos en manos de los evaluadores. No obstante, la tarea A2 se diseñó para
poner contexto las especificaciones de esta prueba (véase anexo 4)
Para el nivel A2 se propusieron las siguientes tareas e ítems:
Tabla 15. Tareas e ítems para el nivel A2
Complejidad de
tarea Semi-guiada
No. de tareas 2 (de opción múltiple y relacionar )
No. de ítems total 13
No. de ítems por
tarea Actividad 1: 6 ítems de complejidad media (A2.1 AVANZADO) Actividad 2 : 7 ítems de complejidad alta (A2.2 SUPERIOR )
Duración de la
tarea 30 minutos
Fuente: (Elaboración propia).
Como podemos observar en la tabla, en el nivel A2 (A2.1 y A2.2) se establecieron 2
tareas a evaluar, la primera de complejidad media y la segunda de complejidad alta.
En la tarea de complejidad media, se propusieron preguntas de opción múltiple, en este
caso el número de ítems a desarrollar son 6. La complejidad del ítem no radica en el mismo ‘per
se’ si no en el planteamiento de las preguntas y respuestas. Según Alderson et al (1998) en este
caso las preguntas deben contener distractores muy similares a la respuesta correcta para
establecer el nivel de complejidad. En esta tarea se tomó como base lo anterior para proporcionar
una de complejidad media ya que lo que se quiere evaluar debe tener en contenido de preguntas
más complejo para que los estudiantes tengan una mayor complejidad a la hora de responder;
contrario a la primera tarea propuesta para el nivel A1.
81
Como modelo, se diseñaron 6 ítems de opción múltiple.
Imagen 10. Ejemplo tarea A2 (Opción múltiple)
Fuente: (Elaboración propia).
En el caso de las preguntas de complejidad alta, se propuso la técnica de relacionamiento
de contenido, consiste en relacionar una frase que resume el contenido de un párrafo, con el
párrafo del texto. Al plantear este ítem, se busca evaluar no solo la identificación de ideas
generales y específicas sino también un nivel más alto de comprensión escrita: la
macroestructura, donde «la construcción de esta estructura de representación global del texto
involucra la eliminación, la generalización y construcción de nueva información a partir de las
proposiciones componentes de la microestructura» (Ibáñez, 2012, p.26). Puesto que se busca
evaluar si el estudiante es capaz de localizar, interpretar y aislar información específica, este tipo
de ítem resulta apropiado. Por medio de las preguntas planteadas, el propósito de evaluación va
más allá de la decodificación del texto y busca que el estudiante empareje la idea principal con el
contenido de cada párrafo midiendo así su nivel de síntesis de lectura.
82
Siguiendo las recomendaciones de estos autores se diseñaron 7 ítems como modelo de
prueba para la comprensión lectora.
Imagen 11. Ejemplo tarea A2 (Ítem de relacionar)
Fuente: (Elaboración propia).
7. CONCLUSIONES
Este trabajo de grado se llevó a cabo con la intención de crear una propuesta de
especificaciones para la prueba de comprensión escrita en los niveles iniciales (A1, A2) para así
responder a la problemática y la necesidad de crear un nuevo examen de clasificación del
CLAM. A continuación, se presentan las conclusiones que emergieron al finalizar el trabajo de
investigación. Estas están relacionadas con el cumplimiento del objetivo principal, los
aprendizajes, los aportes y sugerencias para futuras investigaciones.
Para crear una propuesta de especificaciones que incluyera y cumpliera con los aspectos a
mejorar de la prueba actual de clasificación del CLAM, fue necesario hacer entrevistas para
83
establecer las necesidades y características de la población a la cual se aplicaría la prueba. En
conjunto, se realizó una revisión teórica y conceptual en cuanto a evaluación, comprensión
lectora, ítems y prueba de nivel o clasificación. A modo de complemento, se hizo una revisión de
documentos para establecer los constructos de los niveles iniciales, tales como el MCER, el
PCIC, los contenidos por cursos del CLAM, las pruebas DELE y el Aula Internacional 1y 2.
Después de los procedimientos anteriores, empezamos el proceso de planificación, diseño,
validación y aplicación basados en el modelo de Bordón (2006, tomado de Ferreira, Vine, &
Elejalde, 2013) donde materializamos la búsqueda teórica previa a esta fase.
En la fase de validación contamos con la ayuda de 4 expertas en el campo de evaluación de
ELE, las cuales, por medio de un cuestionario tipo Likert, retroalimentaron las especificaciones
para nivel A1 y A2 a la par que la propuesta de tarea A1. Por cuestiones de tiempo, no se pudo
pasar la propuesta d tarea A2, sin embargo, esta se elaboró. Después de haber recibido la
retroalimentación y haber mejorado las especificaciones y tareas pensamos que implementar las
tareas en un escenario autentico de evaluación con estudiantes de ELE habría permitido ampliar
la verificación de la validez de la propuesta, no en tanto, el lapso de tiempo con el que se contaba
no era el preciso. Sin embargo, el objetivo principal de validar las especificaciones con los
expertos se logró.
Esta investigación hizo evidente que la falta de antecedentes disponibles en esta área es un
factor crucial para el desarrollo de mejores propuestas de especificaciones; se necesita consultar
trabajos en donde se pueda ver el comportamiento de la teoría en la vida práctica inmediata.
Cuando analizamos los recursos necesarios para llevar a cabo la prueba y los recursos
disponibles para el diseño de las especificaciones, nos dimos cuenta de que existe toda la teoría
necesaria para desarrollarlas, no hay material publicado suficiente para tomar como modelo.
84
Debido a la naturaleza de nuestra condición –estudiantes de pregrado- y nuestra falta de
experiencia en temas tales como evaluación y enseñanza de ELE, nos fue difícil apelar a recursos
más allá de la teoría. Este hecho condicionó algunos aspectos del trabajo, en especial en la fase
de diseño pues no había un referente para continuar y enriquecer nuestra propuesta.
Por otro lado, en relación con la validez de la propuesta implementada es importante resaltar
que probar las especificaciones hubiera dado oportunidad de observar que en definitiva la
propuesta servía para medir el constructo en el contexto real de aplicación. Esto presentó un
inconveniente y es que no se pudo probar la fiabilidad de la propuesta lo que genera que no
pueda determinarse la validez total de las especificaciones pues un test «un test (en este caso las
especificaciones del test) no puede ser válido si no es fiable» (Alderson et al., 1995, p. 187).
Sumado a esto, en cuanto a las especificaciones como producto, resultó que, si bien estas
tenían todo lo necesario en cuanto a componentes, estas no eran del todo claras para el docente o
el encargado de confeccionar la prueba. Se comprobó que había algunas partes que requerían
más desarrollo y precisión, como por ejemplo los criterios de evaluación. Aquí la dificultad
radicó en cuanto al planteamiento. Lo cual es un problema ya que uno de os requisitos básicos de
las especificaciones de un examen es la claridad de los contenidos para evitar las ambigüedades
y complicaciones en su uso.
De igual manera, el no hacer la prueba piloto de las tareas afectó la validación de nuestros
criterios de evaluación. Nuestra propuesta gira en torno al número de ítems correctos para medir
el nivel de proficiencia de un candidato con el fin de clasificarle en el nivel al que entrará, este
planteamiento surgió del modelo de criterios de evaluación de Alderson et al. (1998). Hay que
tener en cuenta que los criterios de evaluación de este autor tienen el propósito de establecer el
resultado del total de una prueba que cuenta con las cuatro habilidades. Si bien este modelo se
85
aplica en esta escala más pequeña, es decir, en una sección que evalúa los niveles A1 y A2 de
una prueba de nivel en l competencia de comprensión escrita, es necesario verificar que el
modelo sigue siendo válido y por ende que ayuda a medir la destreza del candidato y a
clasificarlo en el programa.
Creemos que es pertinente en trabajos futuros crear no solamente la propuesta de
especificaciones para la prueba de comprensión lectora para los niveles B1, B2, C1 y C2 sino
también probarlas con los estudiantes para validar en su totalidad las propuestas y los criterios de
evaluación.
8. LIMITACIONES Y RECOMENDACIONES
Durante el desarrollo de este trabajo de investigación se evidenciaron algunas limitaciones
relacionadas a la dificultad de precisar la definición de ciertos conceptos, con la accesibilidad a
antecedentes relacionados con la problemática, con el desarrollo de la propuesta de tarea para el
nivel A2 (A2.1, A2.), con la validación de las especificaciones, con que las especificaciones solo
se centraron en los niveles iniciales A1 (A1.1, A1.2) Y A2 (A2.1, A2.2), y por último, sobre la
verificación de la fórmula establecida en los criterios de evaluación.
Para empezar, existe una cantidad de teoría disponible sobre exámenes de clasificación,
evaluación en segunda lengua, comprensión escrita y enfoque por tareas muy grande. A la hora
de seleccionar lo que más convenía a nuestro proyecto hubo que hacerse una síntesis de
información muy consiente. En su mayoría, la teoría venía de contextos no hispanohablantes y en
los procesos de traducción de la teoría tuvo que tenerse mucho cuidado, lo cual, en cuestiones de
tiempo no fue muy beneficioso. Además, en el campo de español como lengua extranjera se
encontró poca teoría aterrizada en el contexto de nuestra investigación.
86
Paralelamente, otra limitante que afecto el proceso de investigación desde el principio fue la
escasez de investigaciones disponibles. A la hora de buscar antecedentes respecto al diseño de
pruebas de nivel los resultados fueron pocos, esto implicó que hubiera que partir en cierta
manera desde ceros en aspectos tales como el diseño de las especificaciones en el área de la
evaluación de la comprensión de lectura o la aplicación de una propuesta de criterios de
evaluación para evaluarla. Si bien la teoría está disponible, no encontramos proyectos donde esta
se implementará o retroalimentara desde su misma aplicación, hecho que redujo nuestra visión
del tema.
Por otra parte, el no haber desarrollado y evaluado la propuesta de tarea para los niveles A2.1
y A2.2 por falta de tiempo limito el trabajo investigativo. Al no diseñarse esta tarea no se pudo
recibir retroalimentación respecto a la elaboración de esta propuesta y su validación no fue tan
exhaustiva como en el caso de la tarea A1. De igual modo, acerca del proceso de validación de
las especificaciones, lo ideal hubiera sido que estas no solamente hubieran sido validadas por
parte de los expertos. Probar la tarea con los estudiantes de niveles iniciales del CLAM hubiera
ayudado a establecer si las tareas eran claras y acordes a estos niveles.
Si bien en la evaluación de las expertas nos valimos de su conocimiento y su experiencia en
el campo de evaluación en ELE para validar la propuesta, los constructos a evaluar y los criterios
de evaluación, no pudimos recolectar información sobre la manera en que los candidatos
respondían los ítems, sus estrategias para responder a estos y su percepción de la prueba en
cuanto a tiempo, dificultad y objetivo. En este sentido, no pudimos ir más allá de la aplicación de
la teoría y la construcción teórica del conocimiento.
A su vez, las especificaciones fueron desarrolladas solo para los niveles iniciales y es
importante también desarrollarlas para los demás niveles correspondientes al programa que
87
ofrece el CLAM, es decir, para los niveles B1, B2, C1 y C2. Esto representa una limitante en la
medida que al reducirse todo a la escala de solo los niveles iniciales A1 y A2 se deja un gran
vacío puesto que el proceso de clasificación es ascendente y se corta el proceso.
Finalmente, se evidenció que la propuesta de criterios de evaluación para la comprensión
escrita es tentativa: se tendrá que retomar y revisar una vez se hayan diseñado las demás pruebas
de comprensión oral, expresión oral y producción escrita para comprobar su validez en el
formato total de una prueba completa de clasificación.
88
9. BIBLIOGRAFÍA
AA. VV. (2008). «Enfoque comunicativo». Diccionario de términos clave de ELE. Recuperado
de:https://cvc.cervantes.es/ensenanza/biblioteca_ele/diccio_ele/diccionario/enfoquecomu
nicativo.htm
Alderson, J. (2000). Assessing Reading. Cambridge, England: Cambridge University Press.
Alderson, J. C., & Banerjee, J. (2002). Language testing and assessment (Part 2). Language
teaching, 35(2), 79-113.
Alderson, J. Wall, D. & Clapham, C. (1998). Exámenes de idiomas: elaboración y evaluación.
Cambridge, England: Cambridge University Press.
Andrade, H., Matamoros, M. & Moore, H. (2009). El concepto de la utilidad en el diseño de una
prueba de comprensión de lectura en la lengua extranjera. Tiempo de Educar, 10 (20)
447-484. Recuperado el 15 de Febrero de 2016 de:
http://redalyc.org/articulo.oa?id=31112987007
Arias, C.; Maturana, L.; (2005). Evaluación en lenguas extranjeras: discursos y prácticas.
Lenguaje y cultura, 10 (16), 63-91. Recuperado el 24 de febrero de:
http://www.redalyc.org/articulo.oa?id=255020409003 y
http://www.redalyc.org/articulo.oa?id=255020409003
Bachman, L. F. (1990). Fundamental considerations in language testing. Oxford
University Press.
Bachman, L. F., & Palmer, A. S. (1996). Language testing in practice: Designing and developing
useful language tests (Vol. 1). Oxford University Press.
Baralo, M., & Guerra, M. (2011). Criterios pragmáticos y socioculturales para la selección de
textos y géneros discursivos en un examen de certificación de nivel inicial (A2-n) de
89
lengua española para trabajadores inmigrantes. In Del texto a la lengua: La aplicación de
los textos a la enseñanza-aprendizaje del español L2-LE (pp. 201-212). Asociación para
la Enseñanza del Español como Lengua Extranjera.
Bravo, L. et Al. (2013). La entrevista, recurso flexible y dinámico. Investigación en educación
médica, 2(7), 162-167.
Bierbrauer, S.; Carranza, R.; Furlan, M. (2008). Diseño, análisis y evaluación de un examen de
nivel de ele. IV Coloquio CELU Universidad Nacional del Litoral, 8 y 9 de agosto de
2008. Argentina. Recuperado el 24 de Febrero de:
http://www.celu.edu.ar/sites/www.celu.edu.ar/files/images/stories/pdf/coloquios/4_coloq
uio/cc_p_diseno_analisis_y_evaluacion_carranza_bierbrauer_furlan.pdfhttp://www.celu.
edu.ar/sites/www.celu.edu.ar/files/images/stories/pdf/coloquios/4_coloquio/cc_p_diseno_
analisis_y_evaluacion_carranza_bierbrauer_furlan.pdf
Brindley, G; Chapelle, C.; (2010). Assessment. En Norbert Schmitt. (Ed.). An Introduction to
Applied Linguistics (pp. 247 – 267). Gran Bretaña: Hodder Arnold Press.
Brown, H. D. (2000). Principles of language learning and teaching. (4th Ed.). New York:
Longman.
Brown, H. D. (2004). Language assessment: Principles and classroom practices. Allyn &
Bacon.
Camilloni, a. Y otras (1998), La calidad de los programas de evaluación y de los instrumentos
que los integran, en: La evaluación de los aprendizajes en el debate didáctico
contemporáneo, Buenos Aires, Paidós.
Carrell Patricia L. & Grabe William (2010). Reading. En Norbert Schmitt. (Ed.), An Introduction
to Applied Linguistics (pp. 215 – 231). Gran Bretaña: Hodder Arnold Press.
90
Casanovas. N, & Puig, S. (2013) Pautas para la evaluación del Español como lengua extranjera.
Editorial Edinumen, España.
Cáceres, L. (2002). Una aproximación al MCER: principales contenidos, aportaciones y
consecuencias prácticas. Actas XLI (AEPE). España
Canela, Ó. S. (2006). La evaluación de ele y el marco común europeo de referencia. Foro de
Profesores de E/LE, 4.
Corral de Franco, Y. J. (2010). Diseño de cuestionarios para recolección de datos.
De Mejía, A. M., López, A. A., Cruz, F., Flaborea, R., & Guzmán, M. (2009). Informe del
estudio sobre los exámenes en español como lengua extranjera administrados en
Colombia. Centro de Investigación y Formación en Educación, (CIFE) Instituto Caro y
Cuervo. Bogotá: Universidad de los Andes.
Díaz-Bravo, L., Torruco-García, U., Martínez-Hernández, M., & Varela-Ruiz, M. (2013). La
entrevista, recurso flexible y dinámico. Investigación en educación médica, 2(7), 162-
167.
Diez Susana (s.f.) La destreza de comprensión lectora en ELE: aproximación teórica y
propuestas didácticas. Recuperado de:
https://www.academia.edu/17781110/La_destreza_de_comprensi%C3%B3n_lectora_en_
ELE_aproximaci%C3%B3n_te%C3%B3rica_y_propuestas_did%C3%A1cticas
Estaire, S. (2010). Principios básicos y aplicación del aprendizaje mediante tareas. Revista e
didáctica español como lengua extranjera. Marco ELE.
Estaire, S. y Zanón, J. (1990). El diseño e unidades didácticas mediante tareas:principios y
desarrollo. Comunicación, Lenguaje y Educación. 7.
91
Ferreira A., Vine A. & Elejalde J. (2013). Hacia una prueba de nivel en español como lengua
extranjera. RLA.
García, S. (2002). La Validez y la Confiabilidad en la Evaluación del Aprendizaje desde la
Perspectiva Hermenéutica. Revista de Pedagogía, 23(67), 297-318. Recuperado en 31 de
agosto de 2017, de http://www.scielo.org.ve/scielo.php?script=sci_arttext&pid=S0798-
97922002000200006&lng=es&tlng=es.
Hernández, R., & Opazo, H. (2010). Apuntes de análisis cualitativo en educación. Recuperado
el, 12.
Instituto Cervantes, 2002. Traducción del Common European Framework of Reference for
Languages: Learning, Teaching, Assessment. Strasbourg: Council of Europe, 2001.
Disponible en: http://cvc.cervantes.es/obref/marco
Revista de lingüística teórica y aplicada, 51(2), 73-103. Recuperado en 10 de diciembre de 2015,
de: http://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0718-
48832013000200005&lng=es&tlng=es.
10.4067/S0718-48832013000200005.
Ibáñez, R. (2012). La comprensión del discurso escrito: Una propuesta
teórico-metodológica para su evaluación. Revista signos, 45(78), 20-43.
Janssens, G., & Meier, V. (2013) Establecimiento de ajuste y desempeño en exámenes de
clasificación de acuerdo con necesidades locales. Bogotá, Colombia: 15 (1), p. 100 - 113
Leal Rodríguez, S. (2009). Diseño de un examen de
nivel de español para aprendices adultos inmigrantes. Memoria de Master, Universidad
Nebrija.
92
Luoma, S. (2004). Assessing speaking. Cambridge, United Kindom: Cambridge
University Press.
Malave, N. (2007). Escala tipo likert. Trabajo modelo para enfoques de investigación acción
participativa. Programas Nacionales de Formación. Universidad Politécnica
Experimental de Paria. República Bolivariana de Venezuela.
Martínez, J. (2011). Métodos de investigación cualitativa. Bogotá, Colombia: silogismo (8).
Meyberg, D. & Barba, Y. (2016). Propuesta de especificaciones para el examen de clasificación
de expresión escrita en niveles iniciales (a1 y a2) para el Centro Javeriano de Lenguas
(Bachelor's thesis, Facultad de Comunicación y Lenguaje).
Molon, S.I. (1995). A questão da subjetividade e da constituição do sujeito nas reflexões de
Vygotsky. Dissertação de Mestrado, Pontifícia Universidade Católica de São Paulo.
Natalías, V. E. (2008). ¿Qué es una prueba de nivel?: definición, objetivos y factores que hay
que tener en cuenta en su elaboración. En La evaluación en el aprendizaje y la enseñanza
del español como lengua extranjera/segunda lengua: XVIII Congreso Internacional de la
Asociación para la Enseñanza del Español como lengua Extranjera (ASELE): Alicante;
servicio de Publicaciones.
Nuttall, C. (1996). Teaching reading skills in a foreign language. Heinemann, 361 Hanover
Street, Portsmouth, NH 03801-3912.
Ottonello, M. B., & Infante, R. G. (2011). Criterios pragmáticos y socioculturales para la
selección de textos y géneros discursivos en un examen de certificación de nivel inicial
(a2-n) de lengua española para trabajadores inmigrantes. Universidad Nebrija
Pärna, L. L. (2015). La elaboración de la prueba de nivel del español A1-B1 para el usuario
estonio. Prueba de nivel del español A1-B1 (Doctoral dissertation, Tartu Ülikool).
93
Parodi, G. (2007). El discurso especializado escrito en el ámbito universitario y profesional:
Constitución de un corpus de estudio. Revista signos, 40(63), 147-178.
Pastor C. Susana (2003). La evaluación del proceso de aprendizaje de segundas lenguas. En
Perspectivas teóricas y metodológicas: lengua de acogida, educación intercultural y
contextos inclusivos (pp. 503– 514). Madrid: Comunidad de Madrid, Consejería de
Educación.
Puig, F. (2008). La evaluación, un reto. Monogáficos. Marco ELE Evaluación, (7), 2-3.
Pozzo, M. I. (2010). Interculturalidad y evaluación en ele: fundamentos teóricos y propuestas
para su desarrollo en el aula. Argentina.
Santa-Cecilia, Á. G. (1995). El currículo del español como lengua extranjera. Madrid: Editorial
Edelsa.
Seliger, H. & Shohamy, E. (1989). Second language research methods. Oxford University Press.
Soler, O. (2008). Diferentes enfoques para en la evaluación de lenguas mediante
tareas. Monográficos Marco ELE Evaluación, (7), 111-121.
Torrecillas, A. B., Guerrero, M. D. C., Lozano, G., & Cuadrado, A. S. (2012). Diseño y
validación de las pruebas de nivel del CLM de la Universidad de Granada. (2):
Presentación de las pruebas. In Actas del VII Congreso ACLES: Multilingüismo en los
centros de lengua universitarios: evaluación, acreditación, calidad y política lingüística
(pp. 26-37).
Pérez, M. J. (2005). Evaluación de la comprensión lectora: dificultades y limitaciones. Revista
de Educación, (1), 121-138
Vargas, Z. R. (2009). La investigación aplicada: una forma de conocer las realidades con
evidencia científica. Educación, 33(1).
94
ANEXOS
Anexo 1. Transcripción entrevista a Begoña Martín sobre el perfil de los estudiantes del CLAM (01 MARZO 2016)
Realizada por Yhosep Barba & Daniela Meyberg, 2016
Begoña Martin: Para mi tesis doctoral estoy haciendo un análisis de necesidades del perfil de
estudiantes que han venido al centro, al centro javeriano de lenguas, desde 2010 a 2015. ¿Vale?
Entonces se tomaron 5 años de estudio. Entonces, para llegar a definir el perfil de estudiantes se
tomaron 2 documentos: por un lado, se recogieron las hojas de inscripción. Bien, entonces en las
hojas de inscripción de los estudiantes encontramos información de la nacionalidad, la edad, la
profesión y el sexo. Bien, entonces se tomaron los datos por un lado de que nacionales eran las
de más demanda o las que más venían, el de la profesión y el sexo y la edad.
Por otro lado, también se tomó la ficha de los exámenes de clasificación, entonces la ficha de los
exámenes de clasificación oral hay, no sé si la habéis visto, pero tienen que rellenar el nombre,
las necesidades, entonces también se recopiló información lo mismo de 2015 y 2010 sobre los
motivos e intereses para estudiar español, ¿listo? Yo creo que entonces el que más nos interesa es
este dónde vemos más o menos… ¿Por qué esto no se va para atrás?
Yhosep: ¡No, dale atrás y dale clic ahí donde dice… ya!
Begoña: ah listo, vale, entonces vamos a ver si me deja. Bien, bueno pues entonces vamos a
empezar con el análisis de 2015. El análisis de 2015 no está terminado ¿vale? Pero entonces por
ejemplo en el análisis de 2014 tenemos que había un total de 113 estudiantes. Según he hablado
con otras personas del Centro, por ejemplo, Nancy Agray y Carolina Valderrama, ellas tienen un
registro mayor de estudiantes. ¿Qué significa? Pues significa que a los mejor pue hay
documentos que se han perdido, yo solo os digo lo que he encontrado abajo ¿vale? Entonces en
el 2014 por ejemplo había 113, se registraron 113 estudiantes. De los pues si hay más hombres
que mujeres, pero realmente la diferencia es muy poquita ¿vale? Entonces 62 – 51 no es muy
dispar.
En cuanto a la nacionalidad, pues veo que la nacionalidad la mayoritaria es la de Estados Unidos
con 24 seguida de la de la República de Corea que son 21 y Alemania que son 13. LÑ amatoria
viene a estudiar español porque tenemos 27 registrados para 2014 Aunque también vemos como
95
está casilla normalmente la rellenan. ¿Vale? entonces habría que establecer estadísticamente que
es lo que se estaba contando; el resultado de esos resultados que todavía me queda pendiente.
Vale entonces de momento podríamos decir que son principalmente de la República de Corea, de
Estados Unidos, que son hombres y son principalmente estudiantes
Vale, ¿cuál es el rango de edad?, bueno estamos hablando de 21 o 25 años, vale, pero en general
también vemos que en segundo lugar estarían de 16 a 30 y después de 31 a 35, entonces
podríamos decir que es un alumnado joven. ¿Vale? Bien, eso sería como el análisis 2015.
Entonces nos vamos al 2013. En el 2013 por ejemplo vinieron 109 estudiantes, se registraron 109
estudiantes. De nuevo, Estados Unidos es la nacionalidad que de donde más vienen, también
tenemos República de Corea con un 18 y Japón. ¿Vale? Pero vemos como que se repiten las
constantes: principalmente son de Estados Unidos y son de Japón. De nuevo, más hombres que
mujeres, pero tampoco hay muchísima diferencia puede que un poquito más y, principalmente,
vienen a ser estudiantes.
Tanto en el 2014 como en el 2013 vemos que también se repite mucho lo de religioso y veremos
como en los años 2012 y 2011 era muy común que viniesen Jesuitas a estudiar español lengua
extranjera ¿Bien? y otra vez el rango de edad el más frecuente es de 21 a 25 años, aunque
también tenemos de 26 a 30 y de 31 a 35 hay muchos. O sea que de nuevo el 2013 suelen ser
alumnos bastante jóvenes ¿Vale? repito que todavía ser y hacer un análisis estadístico bien hecho
porque también ahí hay más personas mayores ¿Vale? También Vinieron al centro a estudiar
personas mayores, pero de momento las personas mayoritarias son las personas jóvenes.
Por ejemplo, en el año 2012, de nuevo Estados Unidos con 30, República de Corea con 20 y
ahora aquí surge Alemania. Van saliendo cada año otras nacionalidades como por ejemplo en el
2013 ¿cuál era? Japón que aparecía. En el 2012 aparece Alemania, vienen muchos estudiantes de
Alemania, también suelen ser más hombres que mujeres. En el 2012 vinieron 120 a 119
estudiantes que se registraron y, Estados unidos, Corea, y vemos que también prima lo de
estudiante, hay muchísimos estudiantes ¿Vale? que vienen principalmente a estudiar. Aquí hay
también religiosos que serían 10 aunque también es bastante elevado el número de ausencias que
serían 17.
96
Franja de estudiantes, aquí por ejemplo tendríamos de 21 a 25 de 26 a 30 y de 31 a 35. O sea que
seguimos repitiendo la misma característica: sigue siendo alumnos jóvenes ¿Vale? En el 2011,
por ejemplo, sigue siendo tenemos 89 estudiantes registrados solamente sigue siendo Estados
Unidos y la República de Corea: las nacionalidades con más peso. Más hombres que mujeres
otra vez se repite, más estudiantes, y también tenemos como profesores y religiosos son también
profesiones que hemos visto en los otros años ¿Vale? pero la mayoría son estudiantes, y de
nuevo tendríamos un perfil joven de estudiantes ¿Vale?
Aquí se abre otra nueva categoría de 15 a 20 años lo cual también me preocupa; o sea que viene
gente con menos de 18 años ¿Bien? Y tenemos lo de religioso que os he contado también. Por
último, en el año 2010: lo mismo, Estados Unidos es la nacionalidad con más estudiantes,
también Alemania, China y República de Corea, pero sin lugar a dudas Estados Unidos con un
48 ¿Vale? Aquí en este año hay más mujeres que hombres, pero poquita diferencia.
Seguimos hablando de más estudiantes y también una franja edad bastante joven 21a 25 años que
es la más repetida. Entonces, en conclusión, todos estos análisis necesitan, es decir toda esta
información que sabéis que es mucha, necesita hacer unos análisis estadísticos rigurosos; de
momento solamente estamos viendo cálculos en Excel listo, pero bueno por lo menos podemos
ver que las constantes se repiten: que son estudiantes jóvenes, que normalmente vienen con fines
de estudiar y qué son principalmente de Estados Unidos, aunque tenemos bastantes de Corea.
¿Vale? Yo creo que sí sería como más o menos los datos más característicos de la población
¿preguntas tenéis?
Daniela Meyberg: En general ¿los estudiantes llegan con nivel inicial? O por ejemplo ¿llegan ya
con nivel tipo B1, B2? Porque pues hay unos que ya han estudiado, pero pues ¿la mayoría llegan
para entrar a los niveles iniciales o con ciertos conocimientos de la lengua?
Begoña Martin: Pues eso también lo estoy registrando ¿Vale? os he dicho que había tomado
también atrás otras fichas de examen de clasificación y aquí, en las fichas de exámenes de
clasificación, estoy anotando qué nivel se le estaba dando al alumno ¿Vale? Tanto en la prueba
oral como en la prueba escrita. No es un análisis todavía de esos datos ¿Vale? porque no pues
tenía que hacer otras cosas, pero realmente y pocas ocasiones vienen con nivel cero yo diría, pero
97
sí que vienen principalmente con niveles iniciales. Pero es muy apresurado como para decir yo y
establecer una conclusión porque todo eso simplemente lo estoy…
Por ejemplo, el análisis de 2013, o sea si vemos se habría que contar, por ejemplo, es que estos
son muchos datos chicos ¿Vale? Todavía no he hecho un análisis de cuánto sería la media,
todavía lo tengo ahí pero no lo he calculado entonces no sabría deciros. Yo diría que
principalmente son niveles iniciales intermedios ¿Vale? De niveles altos no se le ve mucha
gente, pero estas son conclusiones que yo os he traído un poco de la observación, pero no de
nada estadísticamente ¿Vale?
Daniela Meyberg: Respecto a la descripción de los estudiantes como agente social intercultural
pues primero ¿puedes hacernos una descripción de los estudiantes como agente social?
Begoña Martin: Pues eso lo deberías Buscar en el plan curricular (PCIC) y en el marco común
europeo referencia (MCER). Es decir, yo lo que puedo deciros con base en mis análisis es que
realmente… Es que esto todo de verdad que lo he hecho, pero es que esto todavía necesita
meterle mucha mano chicos. Entonces, por ejemplo, así a primera vista estas son como las
necesidades que yo que ellos tienen y los intereses para estudiar español, estamos en el 2012,
entonces aquí es curioso porque aquí por ejemplo empieza a salir como un estudiante que
empieza a trabajar ¿Vale? Entonces los intereses son estudiar-vivir, estudiar y trabajar…
Daniela Meyberg: Pero también son hartísimos los que no contestan
Begoña Martin: Son hartísimos los que no contestan efectivamente
Yhosep Barba: Pero ¿Por qué no contestan?
Begoña Martin: Pues porque esa ficha, por ejemplo, en este caso, que es la ficha del examen de
clasificación, eso lo rellena el entrevistador en la primera entrevista entonces ese dato se le
perdió al entrevistador ¿Vale? entonces por eso hay muchísimos en blanco. Por eso se tiene que
hacer un buen análisis estadístico para decir o sea de 24 pero oye que es que en blanco por
ejemplo aquí en blanco no contestan son 21.
Entonces yo tengo 21 que quieren venir a estudiar, pero también que no contestan entonces pues
vale. Por eso yo os digo que se necesita para bastantes análisis rigurosos ¿Vale? que todavía yo
98
no lo he hecho. Pero realmente, por ejemplo, yo me acuerdo, que es muy comunicativo el
general las necesidades de estos estudiantes es para comunicarse, para vivir, por motivos
profesionales y hay muchos también que vienen para ver si nuestro perfil de estudiantes es
principalmente estudiante, como hemos visto antes, pues una de sus necesidades será estudiar
¿Vale? Pero también empieza a salir que vienen a trabajar porque ese es otro perfil que en la
otra hoja no habéis oído tanto pero también hay muchos estudiantes que son empresarios ¿Vale?
Entonces eso también hay que tenerlo en cuenta ¿Más preguntas?
Daniela Meyberg: Por ejemplo, respecto a las habilidades ¿En qué habilidades tienden a ser más
fuertes y en cuáles no?
Begoña Martin: ¿En cuáles habilidades tienen a ser más fuertes y en cuales no? Qué difícil eso
Daniela, eso no sé decírtelo porque yo no tengo datos recogidos de eso. Eso depende también del
estudiante o sea por ejemplo hay muchos estudiantes por ejemplo estamos hablando los coreanos
los coreanos por ejemplo tiene mucha dificultad a la hora de comunicarse, pero son muy buenos
en gramática ¿Vale? Pero tienen muchas falencias a la hora de practicar vocabulario, aprender
vocabulario y sobre sobre de comunicarse en la expresión oral y expresión escrita, entonces
también depende un poquito de la nacionalidad.
Por ejemplo, hay estudiantes que vienen y que vienen con novia, algunos estudiantes que vienen
ennoviados, no sé qué tienen las colombianas. Entonces ellos, por ejemplo, son súper buenos
hablando pues hablan, se comunican pero con muchos errores gramaticales entonces ahí hay un
poquito de todo pero si es verdad que por lo general haciendo así un análisis por encima no
riguroso, que eso tenéis que decirlo bien claro, me parece que son alumnos que vienen para vivir,
o sea para comunicarse y para aprender entonces realmente está muy en consonancia con ese
agente social, hablante intercultural que promueve el Centro Latinoamericano ¿Listo?
Daniela Meyberg: Por ejemplo, dices que los coreanos son los que tienen más problemas como
para hablar digamos o sea en la parte oral no tanto en la gramática ni en lo escrito y por ejemplo
¿Los estadounidenses?
Begoña Martin: Bueno, los estadounidenses, depende. Los estadounidenses por ejemplo
también tienen problemas… no sé es que hay quienes empiezan o sea que se comunican, pero
99
con muchos errores los estadounidenses por ejemplo tienen muchos errores de gramática suelen
ser bastante malillos en gramática. Pues entonces a lo mejor por ejemplo pueden comunicarse,
pero con muchas incorrecciones, pero no sabría así decirte… Tendría que hacer un análisis… Te
lo digo es más por mi experiencia; generalizar es un poco difícil pero bueno es que es lo que yo
cuando estaba definiendo el perfil de estudiantes yo decía: ¡No! los estudiantes es lo que más
cuenta, pero aquí es donde yo digo: tengo que hacer un análisis más riguroso, porque yo estoy
segura si hay dos perfiles claros en esta universidad que son: estudiantes y trabajadores.
Hay muchos trabajadores porque hay, porque hay muchos, pero ¿qué pasa? Y es que esa
categoría no me está saliendo porque tengo consultor, diplomático, administrador financiero,
gerente… Entonces me sale uno, uno y uno; toda esa categoría la tendré que unificar ¿Vale? Por
eso digo que hace falta un análisis un poquito más riguroso qué de primera pues nos dé
información sobre lo que tenemos pero que realmente habría que hacerlo de manera más
rigurosa. Bueno ¿Más preguntas chicos? ¿No?
Entonces en definitiva podemos decir que son alumnos jóvenes entre los 20 y los 35 años
¿verdad? Que son alumnos principalmente que vienen de los Estados Unidos, aunque también
vemos que vienen muchos de Corea. En cuanto a las profesiones, lo que más sale son
estudiantes, aunque también hay muchas profesiones relacionadas con el trabajo que todavía no
se han agrupado en el análisis de datos ¿Vale? pero creemos que es también un perfil muy
importante porque cuando analizamos las necesidades después de estudiantes tenemos que
trabajar es una constante ¿Vale? Entonces realmente comunicarse, estudiar y trabajar son las 3
constantes qué podríamos decir de momento que se repiten en estos estudiantes.
Daniela Meyberg: Y pues también nos gustaría saber cómo ¿Cuáles son los problemas de los
alemanes? pues como decíamos de los coreanos es la gramática y así… porque no sé sería como
importante saber al menos qué problemas presentan estas tres nacionalidades que son como las
que más vienen a estudiar español.
Begoña Martin: Pero ¿con qué fin? O sea, que yo sepa que los estadounidenses y que los
alemanes también tienen esas problemáticas ¿con qué sentido me ayudarían a mí a diseñar un
examen?
100
Daniela Meyberg: Pues no sé puede que… pues a mí particularmente me da curiosidad y quizás
nos pueda servir
Begoña Martin: Claro, porque por ejemplo lo que me sirve a mí para el diseño de un examen es
ver porque esta gente está estudiando y vemos que son fines como para trabajar o para estudiar y
realmente ahí están las temáticas, pero en cuanto a los problemas, valdría más para clase
alemanes.
Pues los alemanes en general para mí, desde mi punto de vista, no tiene ningún tipo de problema,
los alemanes son muy seguros rigurosos entonces en cuanto a nivel de corrección usualmente son
impecables también hablando, escribiendo son muy buenos al igual que los holandeses. Son
personas normalmente con mucha facilidad para los idiomas pues ellos tienen buen dominio de
alemán del inglés y eso se les nota a la hora de aprender español. Desde mi punto de vista los
estadounidenses son bastante problemáticos y los coreanos ¿Vale? pero sería ya como diferentes
¿ya está chicos?
Yhosep Barba: sí gracias.
Begoña Martin: De nada.
101
Anexo 2. Herramienta para validar
Validación de las especificaciones del examen de comprensión escrita del CLAM - niveles
iniciales
A continuación, se presenta una herramienta con la que usted, en calidad de experto en ELE,
podrá ayudarnos a validar las especificaciones del examen de comprensión lectora para los niveles
iniciales del CLAM. Por favor, lea cuidadosa y atentamente los siguientes enunciados y determine
su grado de acuerdo o desacuerdo con cada uno de ellos.
1 2 3 4 5
Totalmente en
desacuerdo
En desacuerdo Indiferente De acuerdo Totalmente de
acuerdo
Agradecemos de antemano su preciado tiempo y su sincera colaboración.
1. Propósito de las especificaciones
Ítems 1 2 3 4 5
Las especificaciones propuestas orientan de manera clara y específica al
docente.
Una prueba basada en estas especificaciones sesga la actuación del
estudiante.
Una prueba basada en estas especificaciones responde a los requisitos
para clasificar a los estudiantes en los niveles iniciales (A0, A1.1, A1.2,
A2.1 y A2.2).
Las especificaciones podrían ser interpretadas erróneamente por el
docente dado que no son claras ni precisas.
Estas especificaciones no responden a las necesidades educativas de los
estudiantes de los niveles iniciales del CLAM.
102
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
2. Descripción del candidato
Ítems 1 2 3 4 5
La descripción del candidato coincide con las características de los
estudiantes extranjeros que llegan al CLAM.
La descripción del candidato aporta al docente información para
desarrollar los contenidos de la prueba.
La descripción del candidato no se ajusta a las características de los
estudiantes extranjeros que llegan al CLAM.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
3. Niveles de la prueba
Ítems 1 2 3 4 5
El constructo objeto a evaluar de cada nivel es apropiado en la medida
que contempla lo propuesto por el CLAM, el MCER y el PCIC.
Las especificaciones no abordan el mínimo de los contenidos que debe
manejar un estudiante de niveles iniciales.
Hay diferencias claras entre el grado de complejidad de un nivel y otro.
103
Las especificaciones de cada constructo no permiten al profesor tener
claro el objeto a evaluar en cada nivel.
En los niveles de la prueba se podrían tratar temas de menor complejidad
con el objetivo de que los estudiantes respondan con mayor eficiencia.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
4. Número de secciones de la prueba
Ítems 1 2 3 4 5
El número de secciones de la prueba es adecuado para clasificar a los
estudiantes en los niveles iniciales del CLAM (A1.1, A1.2, A2.1, A2.2
y B1.1).
El número de secciones de la prueba debería reducirse a uno solo ya que
a través de una comprensión escrita sencilla se puede saber exactamente
en cuál de los cuatro niveles está el candidato.
El número de secciones de la prueba debería ser cuatro; una para cada
nivel (A1.1, A1.2, A2.1, A2.2), con el propósito de no excluir a ninguno
de ellos.
El número de secciones de la prueba no es el adecuado para clasificar a
los estudiantes en los niveles iniciales del CLAM (A1.1, A1.2, A2.1,
A2.2 y B1.1).
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
104
______________________________________________________________________________
_______________________________________________________________
5. Contenidos tratados por sección
Ítems 1 2 3 4 5
Los contenidos comunicativos y lingüísticos de cada sección representan
los establecidos por el CLAM, el PCIC y el MCER para los niveles
iniciales.
Los contenidos propuestos permiten el desarrollo de la competencia
intercultural.
Las temáticas tratadas por sección están acordes con la descripción de
cada nivel.
Los contenidos comunicativos y lingüísticos de cada sección no
representan los contenidos a trabajar en niveles iniciales propuestos por
el CLAM, el PCIC y el MCER.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
6. Complejidad de la tarea por sección
Ítems 1 2 3 4 5
Las tareas propuestas permiten abordar contenidos temáticos y
lingüísticos correspondientes a los niveles iniciales.
La complejidad de las tareas no es adecuada para un estudiante de
español de nivel inicial.
105
No hay una gradación adecuada en las tareas que pretenden evaluar los
niveles iniciales.
El nivel de complejidad de las tareas va de acuerdo con el nivel de
complejidad del nivel a evaluar.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
7. Número de tareas por sección
Ítems 1 2 3 4 5
El número de tareas por sección es conveniente para evaluar la actuación
del estudiante y, de esta forma, ubicarlo en uno de los niveles iniciales
del CLAM.
El número de tareas es exagerado teniendo en cuenta las demás pruebas
del examen de clasificación del CLAM que el estudiante debe desarrollar
(comprensión escrita y oral y expresión escrita y oral)
El número de tareas por sección no es suficiente para evaluar la
actuación del estudiante y, en este sentido, no se podrá ubicarlo en uno
de los niveles iniciales.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
8. Duración de tarea por sección
106
Ítems 1 2 3 4 5
El tiempo que se proporciona es suficiente para que el estudiante pueda
completar la tarea.
El tiempo de respuesta debería reducirse teniendo en cuenta las demás
tareas del examen.
El tiempo de respuesta es insuficiente y por consiguiente puede
condicionar al estudiante a responder precipitadamente.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
9. Longitud de texto por sección
Ítems 1 2 3 4 5
El número de palabras que el estudiante debe leer no es suficiente para
evaluar su dominio de la lengua.
El número de palabras que se demanda es demasiado alto teniendo en
cuenta lo que puede producir el estudiante de niveles iniciales.
El número de palabras que se demanda es demasiado alto teniendo en
cuenta lo que puede comprender el estudiante de niveles iniciales.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
107
10. Escala de evaluación
Ítems 1 2 3 4 5
La escala propuesta no permite valorar la actuación lingüística del
estudiante en los niveles iniciales del CLAM.
Los criterios seleccionados (si el candidato tiene 0-4 ítems correctos, se
clasifica en A1.1, si tiene 5-7 ítems correctos, se clasifica en A1.2, si
tiene 8-11 ítems correctos, se clasifica en A2.1) permiten evaluar la
habilidad lingüística del estudiante.
La herramienta de evaluación diseñada ofrece la posibilidad de ubicar al
estudiante en los niveles iniciales del CLAM.
Los rangos establecidos y el número de ítems propuestos no son
suficientes para medir la habilidad lingüística del estudiante en los
cuatro niveles iniciales del CLAM.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
108
Anexo 3. Tareas para el nivel A1
TAREAS A1 (A1.1, A1.2)
Este es el blog de una chica hispana que quiere hacer nuevos amigos. Lea su perfil de Facebook
para conocerla. A continuación, responda las preguntas (1-3) y seleccione la opción correcta.
Inicio Perfil Amigos Bandeja de entrada Configuración Salir
Muro
Información Fotos
Me llamo Nati (Natalia en realidad, mi papá me dice muñeca pero prefiero que
mis amigos me digan Nati). Tengo veintiséis años y soy de Rafaela pero vivo en
Buenos Aires, muy lejos de mi familia que vive en Córdoba, Argentina. Desde
pequeña sé que viajar es algo que me gusta. Hay otras cosas que disfruto mucho:
los atardeceres, los postres de mi mamá, el cine, el teatro, el mar y la música. No
me gusta el café, pero sí tomar mate con mis amigos. Además, hay dos cosas que
siempre llevo conmigo a los viajes: algo para tomar fotos y algo donde pueda
escribir mis aventuras.
Hago voluntariados en diferentes partes del mundo, por ejemplo, he vivido en
Chile, Perú, Bolivia y tengo amigos en cada país. Para mí, es la mejor escuela y
universidad para practicar mi oficio. Mi trabajo me permite ayudar a otros y
conocer nuevas formas de vivir.
Cuando viajo me gusta aprender de cada cultura, vivir con su gente y preguntar
todo… sentirme parte del lugar.
(Texto adaptado de http://www.mividaenunamochila.com/sobre_mi/)
Actividad 1: Seleccione la opción correcta (a, b o c)
1. ¿Qué nombre prefiere Natalia?
a. Natalia
b. Nati
c. Muñeca
109
2. ¿Cuántos años tiene Natalia?
a. 25
b. 26
c. 23
3. ¿De qué ciudad es Natalia?
a. Buenos Aires
b. Rafaela
c. Córdoba
Actividad 2: Asocie los gustos de Natalia con las imágenes que aparecen a continuación .Hay
6 imágenes, seleccione solo 4.
A B C
D E F
110
Actividad 3: Complete las siguientes oraciones teniendo en cuenta la información del perfil de
Nati.
A. Para Nati una de las mejores formas de aprender es ________________.
B. Natalia siempre lleva dos cosas en su maleta:
___________________y_____________________.
C. Natalia trabaja de_____________________ en sus viajes.
Anexo 4. Tareas para el nivel A2
TAREAS A2 (A2.1, A2.2)
1. Lea el siguiente artículo periodístico y elija la respuesta correcta en cada caso.
111
1. En el texto se habla de...
a. Sistemas de transporte
b. Nuevas guías turísticas
c. Recorridos por la ciudad
2. El objetivo principal de esta nueva actividad es...
a. Mostrar los barrios típicos de una ciudad
b. Enseñar literatura colombiana
c. Disfrutar un paseo por la ciudad
3. Este sistema de turismo...
a. Tiene lugar en cuatro ciudades
b. Se realiza en todas las ciudades de Colombia
c. Empezó en Bogotá
4. En la ciudad de Bogotá
a. Los usuarios recorren la ciudad
b. Los turistas visitan lugares históricos
c. Cualquier persona puede hacer el recorrido
5. El recorrido empieza ________ y finaliza ____________
a. Maloka… Corferias
b. Jardín Botánico.... Corferias
c. Maloka.... Maloka
6. Las normas de tránsito en Bogotá no permiten
a. que el bus de turismo lleve más de 69 pasajeros
b. que los buses no tengan techo
c. que los turistas hagan más de una vez el recorrido
112
2. Relacione los párrafos del texto anterior con las siguientes frases; puede haber más de una
opción por frase.
Frase párrafo (s)
a. Información sobre los beneficios del brazalete del tour
b. Información sobre los costos de las manillas
c. Información sobre los posibles riesgos de subirse al bus
d. Información sobre cómo adquirir y usar el servicio de Tour
e. Información sobre los lugares que se pueden visitar en el recorrido
f. Información sobre personal guía durante el tour
g. información sobre reglas de seguridad para el transporte turístico en
Bogotá
Anexo 5. Especificaciones para los niveles A1 y A2
EXAMEN DE ESPAÑOL PARA EXTRANJEROS CLAM
Especificaciones para la prueba de comprensión lectora niveles A1 y A2
Propósito general de la prueba
El objetivo del examen es clasificar a los estudiantes extranjeros en la comprensión lectora con
respecto a los niveles iniciales (A1.1, A1.2, A2.1 y A2.2) que ofrece el CLAM.
Descripción del candidato
El perfil de los estudiantes que llega a presentar el examen de clasificación del CLAM es muy
variado; esto se ve reflejado en aspectos como la edad, la nacionalidad, intereses personales,
gustos y los motivos para aprender el español. Los alumnos provienen de países muy diversos:
suizos, haitianos, brasileños, holandeses, franceses, etc. No obstante, las nacionalidades más
comunes son la estadounidense, la coreana, la japonesa y la alemana. En cuanto al rango de edad,
éste es muy diverso, se inscriben tanto adolescentes (16-20 años) como personas mayores. No
113
obstante, las edades más frecuentes oscilan entre los 21 a los 30 años. Respecto a las
motivaciones que incitan a estos estudiantes a aprender español en el CLAM se refieren
necesidades académicas o laborales.
Niveles de la prueba
→ Nivel a1.1.: El estudiante es capaz de comprender, leyendo frase por frase, palabras básicas y
corrientes en textos muy breves y sencillos (letreros, FORMULARIOS, imágenes, anuncios) para
satisfacer necesidades de tipo inmediato (información personal básica: nombre, domicilio,
nacionalidad, edad, e intereses).
→Nivel A1.2.: El estudiante es capaz de comprender y relacionar información en textos breves y
sencillos de carácter descriptivo e informativo (notas personales, menús, anuncios publicitarios y
horarios sobre todo, si hay apoyo visual) para satisfacer necesidades de tipo inmediato (rutinas,
vivienda, gustos, etc.).
→Nivel A2.1.: El estudiante es capaz de encontrar información específica en textos sencillos
(correos electrónicos, formularios, pedidos, cartas básicas personales y de confirmación, etc.) que
traten temas cotidianos relacionados con áreas de experiencia que le son especialmente relevantes
(sobre sí mismo y su familia, ocio, lugares de interés, ocupaciones, etc.).
→Nivel A2.2.: El estudiante es capaz de localizar y aislar información específica con respecto a
normas de seguridad (en lugares públicos y de trabajo); comprender indicaciones para ir a un lugar
e instrucciones sencillas (sobre aparatos, recetas, etc.). Así mismo, comprende artículos breves de
periódico que describen hechos determinados.
114
Número de secciones de la prueba
La prueba está compuesta por cinco (5) tareas: tres tareas que miden los niveles A0, A1.1 y
A1.2, y otra dos (2) que miden los niveles A2.1 y A2.2.
Especificaciones sección A1
Destreza lingüística
evaluada
Comprensión lectora
Tema Información personal (nombre, edad, nacionalidad, profesión,
domicilio, gustos e intereses, entre otros.)
Complejidad de tarea Guiada
Tipo de texto Informativo y descriptivo
No. de tareas 3 (de opción múltiple, relacionar o completar)
No. de ítems total 11
No. de ítems por tarea Actividad 1: 3 de complejidad baja (A0 PRINCIPIANTE)
Actividad 2: 4 de complejidad media (A1.1 AVANZADO)
Actividad 3: 4 de complejidad alta (A1.2 SUPERIOR )
Duración de la tarea 20 minutos
Longitud de texto: 150-200 palabras
Elementos lingüísticos
evaluados
Gramática: Verbos regulares en indicativo y uso de los artículos.
Uso de la forma impersonal ‘se’, algunas construcciones de verbo
conjugado + infinitivo y los cuantificadores ‘muy’ o ‘mucho’.
Vocabulario: relativo a información personal básica, gustos,
intereses.
Funciones comunicativas: dar información personal, expresar
gustos e intereses, expresar conocimiento.
Elementos culturales: Reconocimiento de la diversidad cultural
Criterio de evaluación Si tiene 0-4 ítems correctos, se clasifica en A1.1, si tiene 5-7
ítems correctos, se clasifica en A1.2, si tiene 8-11 ítems correctos,
se clasifica en A2.1
Formato de la prueba Física: papel.
115
Especificaciones sección A2
Destrezas lingüísticas
a evaluar:
Comprensión lectora
Tema Información sobre normas de seguridad, instrucciones, ocio,
familia y medios de comunicación (prensa oral y escrita).
Complejidad de tarea Semi guiada
Tipo de texto Descriptivos y narrativos
No. de tareas 2 (de opción múltiple y relacionar )
No. de ítems total 13
No. de ítems por tarea Actividad1: 6 ítems de complejidad media (A2.1 AVANZADO)
Actividad2: 7 ítems de complejidad alta (A2.2 SUPERIOR)
Duración de la tarea 30 minutos
Longitud de texto: 200-300 palabras
Elementos lingüísticos
a evaluar
Gramática: Verbos irregulares en presente, verbos en pretérito
indefinido, pretérito perfecto simple e imperfecto, y formas de
‘estar’ + gerundio en pasado.
Vocabulario: relativo a información personal, viajes, lugares,
comidas, actividades que realizan en el diario vivir.
Funciones comunicativas: describir, narrar experiencias,
expresar conocimiento, expresar deseos o sentimientos, dirigirse a
alguien.
Elementos culturales: percepción básica de las diferencias
culturales, aproximación cultural.
Criterio de evaluación Si tiene 12-16 ítems correctos, tiene A2.1 y se clasifica en
A2.2. , si tiene 17-24 ítems correctos, tiene A2.2 y se clasifica en
B1.1
Formato de la prueba Física: papel.
116
Anexo 6. Corrección cuestionario
Validación de las especificaciones del examen de comprensión escrita del CLAM - niveles
iniciales
A continuación, se presenta una herramienta con la que usted, en calidad de experto en ELE,
podrá ayudarnos a validar las especificaciones del examen de comprensión lectora para los niveles
iniciales del CLAM. Por favor, lea cuidadosa y atentamente los siguientes enunciados y determine
su grado de acuerdo o desacuerdo con cada uno de ellos.
1 2 3 4 5
Totalmente en
desacuerdo
En desacuerdo Parcialmente de
acuerdo
De acuerdo Totalmente de
acuerdo
Agradecemos de antemano su preciado tiempo y su sincera colaboración.
1. Propósito de las especificaciones
Ítems 1 2 3 4 5
Las especificaciones propuestas orientan de manera clara y específica al
docente.
Una prueba basada en estas especificaciones sesga la actuación del
estudiante.
Una prueba basada en estas especificaciones responde a los requisitos
para clasificar a los estudiantes en los niveles iniciales (A0, A1.1, A1.2,
A2.1 y A2.2).
Las especificaciones podrían ser interpretadas erróneamente por el
docente dado que no son claras ni precisas.
Estas especificaciones no responden a las necesidades educativas de los
estudiantes de los niveles iniciales del CLAM.
117
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
2. Descripción del candidato
Ítems 1 2 3 4 5
La descripción del candidato coincide con las características de los
estudiantes extranjeros que llegan al CLAM.
La descripción del candidato aporta al docente información para
desarrollar los contenidos de la prueba.
La descripción del candidato no se ajusta a las características de los
estudiantes extranjeros que llegan al CLAM.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
3. Niveles de la prueba
Ítems 1 2 3 4 5
El constructo objeto a evaluar de cada nivel es apropiado en la medida
que contempla lo propuesto por el CLAM, el MCER y el PCIC.
Las especificaciones no abordan el mínimo de los contenidos que debe
manejar un estudiante de niveles iniciales.
Hay diferencias claras entre el grado de complejidad de un nivel y otro.
Las especificaciones de cada constructo no permiten al profesor tener
claro el objeto a evaluar en cada nivel.
118
En los niveles de la prueba se podrían tratar temas de menor complejidad
con el objetivo de que los estudiantes respondan con mayor eficiencia.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
4. Número de secciones de la prueba
Ítems 1 2 3 4 5
El número de secciones de la prueba es adecuado para clasificar a los
estudiantes en los niveles iniciales del CLAM (A1.1, A1.2, A2.1, A2.2
y B1.1).
El número de secciones de la prueba debería reducirse a uno solo ya que
a través de una comprensión escrita sencilla se puede saber exactamente
en cuál de los cuatro niveles está el candidato.
El número de secciones de la prueba debería ser cuatro; una para cada
nivel (A1.1, A1.2, A2.1, A2.2), con el propósito de no excluir a ninguno
de ellos.
El número de secciones de la prueba no es el adecuado para clasificar a
los estudiantes en los niveles iniciales del CLAM (A1.1, A1.2, A2.1,
A2.2 y B1.1).
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
119
5. Contenidos tratados por sección
Ítems 1 2 3 4 5
Los contenidos comunicativos y lingüísticos de cada sección representan
los establecidos por el CLAM, el PCIC y el MCER para los niveles
iniciales.
Los contenidos propuestos permiten observar la competencia
intercultural.
Las temáticas tratadas por sección están acordes con la descripción de
cada nivel.
Los contenidos comunicativos y lingüísticos de cada sección no
representan los contenidos a trabajar en niveles iniciales propuestos por
el CLAM, el PCIC y el MCER.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
6. Complejidad de la tarea por sección
Ítems 1 2 3 4 5
Las tareas propuestas permiten abordar contenidos temáticos y
lingüísticos correspondientes a los niveles iniciales.
La complejidad de las tareas no es adecuada para un estudiante de
español de nivel inicial.
No hay una gradación adecuada en las tareas que pretenden evaluar los
niveles iniciales.
El nivel de complejidad de las tareas va de acuerdo con el nivel de
complejidad del nivel a evaluar.
120
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
7. Número de tareas por sección
Ítems 1 2 3 4 5
El número de tareas por sección es conveniente para evaluar la actuación
del estudiante y, de esta forma, ubicarlo en uno de los niveles iniciales
del CLAM.
El número de tareas es exagerado teniendo en cuenta las demás pruebas
del examen de clasificación del CLAM que el estudiante debe desarrollar
(comprensión escrita y oral y expresión escrita y oral)
El número de tareas por sección no es suficiente para evaluar la
actuación del estudiante y, en este sentido, no se podrá ubicarlo en uno
de los niveles iniciales.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
8. Duración de tarea por sección
Ítems 1 2 3 4 5
El tiempo que se proporciona es suficiente para que el estudiante pueda
completar la tarea.
El tiempo de respuesta debería reducirse teniendo en cuenta las demás
tareas del examen.
121
El tiempo de respuesta es insuficiente y por consiguiente puede
condicionar al estudiante a responder precipitadamente.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
9. Longitud de texto por sección
Ítems 1 2 3 4 5
El número de palabras que el estudiante debe leer no es suficiente para
evaluar su dominio de la lengua.
El número de palabras que se demanda es demasiado alto teniendo en
cuenta lo que puede producir el estudiante de niveles iniciales.
El número de palabras que se demanda es demasiado alto teniendo en
cuenta lo que puede comprender el estudiante de niveles iniciales.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_______________________________________________________________
10. Escala de evaluación
Ítems 1 2 3 4 5
La escala propuesta no permite valorar la actuación lingüística del
estudiante en los niveles iniciales del CLAM .
122
Los criterios seleccionados (si el candidato tiene 0-4 ítems correctos, se
clasifica en A1.1, si tiene 5-7 ítems correctos, se clasifica en A1.2, si
tiene 8-11 ítems correctos, se clasifica en A2.1) permiten evaluar la
habilidad lingüística del estudiante.
La herramienta de evaluación diseñada ofrece la posibilidad de ubicar al
estudiante en los niveles iniciales del CLAM.
Los rangos establecidos y el número de ítems propuestos no son
suficientes para medir la habilidad lingüística del estudiante en los
cuatro niveles iniciales del CLAM.
Sugerencias y/o observaciones:
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
______________________________________________________________________________
_________________________________________________
123
Anexo 7. Corrección tareas A1
TAREAS A1 (A1.1, A1.2)
Este es el blog de una chica hispana que quiere hacer nuevos amigos. Lea su perfil de Facebook
para conocerla. A continuación, responda las preguntas (1-3) y seleccione la opción correcta.
Inicio Perfil Amigos Bandeja de entrada Configuración Salir
Muro Información Fotos
Me llamo Nati (Natalia en realidad, mi papá me dice muñeca pero
prefiero Nati). Tengo veintiséis años y soy de Rafaela, pero vivo en
Buenos Aires, muy lejos de mi familia que vive en Córdoba, Argentina.
Desde pequeña algo que me gusta hacer es viajar. Hay otras cosas que
disfruto mucho: los atardeceres, los postres de mi mamá, el cine, el
teatro, el mar y la música. No me gusta el café, pero sí tomar mate con
mis amigos. Además, hay dos cosas que siempre llevo conmigo a los
viajes: algo para tomar fotos y algo donde pueda escribir mis aventuras.
Hago voluntariados en diferentes partes del mundo, por ejemplo, he
vivido en Chile, Perú, Bolivia y tengo amigos en cada país. Para mí, es
la mejor escuela y universidad para practicar mi oficio. Mi trabajo me
permite ayudar a otros y conocer nuevas formas de vivir.
Cuando viajo me gusta aprender de cada cultura, vivir con su gente y
preguntar todo… sentirme parte del lugar.
(Texto adaptado de http://www.mividaenunamochila.com/sobre_mi/)
Actividad 1: Seleccione la opción correcta (a, b o c)
4. ¿Qué nombre prefiere Natalia?
a. Natalia
b. Nati
c. Muñeca
5. ¿Cuántos años tiene Natalia?
a. 25
b. 26
124
c. 23
6. ¿De qué ciudad es Natalia?
a. Buenos Aires
b. Rafaela
c. Córdoba
Actividad 2: Asocie con una flecha los gustos de Natalia con las imágenes que aparecen a
continuación. Hay 6 imágenes, seleccione solo 4.
A B C
D E F
125
Actividad 3: Complete las siguientes oraciones teniendo en cuenta la información del perfil de
Nati.
D. Para Nati una de las mejores formas de aprender es ________________.
E. Natalia siempre lleva dos cosas en su maleta:
___________________y_____________________.
F. Natalia trabaja de_____________________ en sus viajes.
126
Anexo 8. Corrección tareas A2
TAREAS A2 (A2.1, A2.2)
1. Karen es una coreana que visita la ciudad de Bogotá, ella quiere explorar la ciudad en bus. Lea
el siguiente artículo periodístico y elija la respuesta correcta en cada caso.
1. En el texto se habla de...
a. Sistemas de transporte
b. Nuevas guías turísticas
127
c. Recorridos por la ciudad
2. El objetivo principal de esta nueva actividad es...
a. Mostrar los barrios típicos de una ciudad
b. Enseñar literatura colombiana
c. Disfrutar un paseo por la ciudad
3. Este sistema de turismo...
a. Tiene lugar en cuatro ciudades
b. Se realiza en todas las ciudades de Colombia
c. Empezó en Bogotá
4. En la ciudad de Bogotá
a. Los usuarios recorren la ciudad
b. Los turistas visitan lugares históricos
c. Cualquier persona puede hacer el recorrido
5. El recorrido empieza ________ y finaliza ____________
a. Maloka… Corferias
b. Jardín Botánico.... Corferias
c. Maloka.... Maloka
6. Las normas de tránsito en Bogotá no permiten
a. que el bus de turismo lleve más de 69 pasajeros
b. que los buses no tengan techo
c. que los turistas hagan más de una vez el recorrido
2. Relacione los párrafos del texto anterior con las siguientes frases; puede haber más de una
opción por frase.
Frase párrafo (s)
a. Información sobre los beneficios del brazalete del tour
b. Información sobre los costos de las manillas
c. Información sobre los posibles riesgos de subirse al bus
d. Información sobre cómo adquirir y usar el servicio de Tour
e. Información sobre los lugares que se pueden visitar en el recorrido
f. Información sobre personal guía durante el tour
g. información sobre reglas de seguridad para el transporte turístico en Bogotá
128
Anexo 9. Corrección especificaciones
EXAMEN DE ESPAÑOL PARA EXTRANJEROS CLAM
Especificaciones para la prueba de comprensión lectora niveles A1 y A2
Propósito general de la prueba
El objetivo del examen es clasificar a los estudiantes extranjeros en la comprensión lectora con
respecto a los niveles iniciales (A1.1, A1.2, A2.1 y A2.2) que ofrece el CLAM.
Descripción del candidato
El perfil de los estudiantes que llega a presentar el examen de clasificación del CLAM es muy
variado; esto se ve reflejado en aspectos como la edad, la nacionalidad, intereses personales,
gustos y los motivos para aprender el español. Los alumnos provienen de países muy diversos:
suizos, haitianos, brasileños, holandeses, franceses, etc. No obstante, las nacionalidades más
comunes son la estadounidense, la coreana, la japonesa y la alemana. En cuanto al rango de edad,
éste es muy diverso, se inscriben tanto adolescentes (16-20 años) como personas mayores. Sin
embargo, las edades más frecuentes oscilan entre los 21 a los 30 años. Respecto a las
motivaciones que incitan a estos estudiantes a aprender español en el CLAM se refieren
necesidades académicas o laborales.
Niveles de la prueba
→ Nivel A0: El estudiante es capaz de entender muy pocas palabras básicas, parecidas a su lengua
materna y aisladas
129
→ Nivel A1.1.: El estudiante es capaz de comprender, leyendo frase por frase, palabras básicas y
corrientes en textos muy breves y sencillos (letreros, FORMULARIOS, imágenes, anuncios) para
satisfacer necesidades de tipo inmediato (información personal básica: nombre, domicilio,
nacionalidad, edad, e intereses).
→Nivel A1.2.: El estudiante es capaz de comprender y relacionar información en textos breves y
sencillos de carácter descriptivo e informativo (notas personales, menús, anuncios publicitarios y
horarios, sobre todo, si hay apoyo visual) para satisfacer necesidades de tipo inmediato (rutinas,
vivienda, gustos, etc.).
→Nivel A2.1.: El estudiante es capaz de encontrar información específica en textos sencillos
(correos electrónicos, formularios, pedidos, cartas básicas personales y de confirmación, etc.) que
traten temas cotidianos relacionados con áreas de experiencia que le son especialmente relevantes
(sobre sí mismo y su familia, ocio, lugares de interés, ocupaciones, etc.).
→Nivel A2.2.: El estudiante es capaz de localizar y aislar información específica con respecto a
normas de seguridad (en lugares públicos y de trabajo); comprender indicaciones para ir a un lugar
e instrucciones sencillas (sobre aparatos, recetas, etc.). Así mismo, comprende artículos breves de
periódico que describen hechos determinados.
→ Nivel B1.1.: El estudiante es capaz de comprender textos cotidianos relacionados a su área de
trabajo (cartas, faxes, correos electrónicos, confirmaciones, reclamaciones y solicitudes de
trabajo). Así mismo, comprende textos descriptivos identificando acontecimientos, sentimientos y
deseos.
Número de secciones de la prueba
La prueba está compuesta por cinco (5) tareas: tres tareas que miden los niveles A0, A1.1 y
A1.2, y otra dos (2) que miden los niveles A2.1 y A2.2.
130
Especificaciones sección A1
Destreza lingüística
evaluada
Comprensión lectora
Tema Información personal (nombre, edad, nacionalidad, profesión,
domicilio, gustos e intereses, entre otros.)
Complejidad de tarea Guiada
Tipo de texto Informativo y descriptivo
No. de tareas 3 (de opción múltiple, relacionar o completar)
No. de ítems total 11
No. de ítems por tarea 1: 3 de complejidad baja (A0 PRINCIPIANTE)
2: 4 de complejidad media (A1.1 AVANZADO)
3: 4 de complejidad alta (A1.2 SUPERIOR )
Duración de la tarea 20 minutos
Longitud de texto: 150-200 palabras
Elementos lingüísticos
evaluados
Gramática: Verbos regulares en indicativo y uso de los artículos.
Uso de la forma impersonal ‘se’, algunas construcciones de verbo
conjugado + infinitivo y los cuantificadores ‘muy’ o ‘mucho’.
Vocabulario: relativo a información personal básica, gustos,
intereses.
Funciones comunicativas: dar información personal, expresar
gustos e intereses, expresar conocimiento.
Elementos culturales: Reconocimiento de la diversidad cultural
Criterio de evaluación Si tiene 0-4 ítems correctos, se clasifica en A1.1, si tiene 5-7
ítems correctos, se clasifica en A1.2, si tiene 8-11 ítems correctos,
se clasifica en A2.1
Formato de la prueba Física: papel.
131
Especificaciones sección A2
Destrezas lingüísticas
a evaluar:
Comprensión lectora
Tema Información sobre normas de seguridad, instrucciones, ocio,
familia y medios de comunicación (prensa oral y escrita).
Complejidad de tarea Semi guiada
Tipo de texto Descriptivos y narrativos
No. de tareas 2 (de opción múltiple y relacionar )
No. de ítems total 13
No. de ítems por tarea 1: 6 ítems de complejidad media (A2.1 AVANZADO)
2: 7 ítems de complejidad alta (A2.2 SUPERIOR )
Duración de la tarea 30 minutos
Longitud de texto: 200-300 palabras
Elementos lingüísticos
a evaluar
Gramática: Verbos irregulares en presente, verbos en pretérito
indefinido, pretérito perfecto simple e imperfecto, y formas de
‘estar’ + gerundio en pasado.
Vocabulario: relativo a información personal, viajes, lugares,
comidas, actividades que realizan en el diario vivir.
Funciones comunicativas: describir, narrar experiencias,
expresar conocimiento, expresar deseos o sentimientos, dirigirse a
alguien.
Elementos culturales: percepción básica de las diferencias
culturales, aproximación cultural.
Criterio de evaluación Si tiene 12-16 ítems correctos, tiene A2.1 y se clasifica en
A2.2. , si tiene 17-24 ítems correctos, tiene A2.2 y se clasifica en
B1.1
Formato de la prueba Física: papel.
Top Related