Bibliografía - exámenes de certificación

Examinar la confiabilidad y consistencia de los evaluadores de pruebas escritas de un examen de certificación de lenguas es indispensable para garantizar que los examinados son evaluados de forma justa y equitativa. En el caso del español, dado que no se cuenta aún con un examen de lengua con fines académicos administrado internacionalmente, resulta necesario llevar a cabo investigaciones en este sentido. El estudio que aquí se presenta tuvo como objetivo indagar qué tan confiables y consistentes son los resultados que otorgan los evaluadores de la prueba escrita de un examen de español con fines académicos diseñado por una universidad hispana. Seis evaluadores calificaron los textos producidos por 100 candidatos no hispanohablantes mediante una rúbrica analítica. Posteriormente, utilizando el programa Many-Facet Rasch Measurement (MFRM), se condujo un análisis estadístico para examinar la calidad de los evaluadores. Los resultados mostraron que cinco evaluadores fueron consistentes en sus evaluaciones y uno de ellos resultó asistemático. MFRM representa una valiosa herramienta de feedback para los evaluadores y para identificar textos que resultan atípicos o difíciles para evaluar.

-------------------

Studying the reliability and consistency of examiners in the writing section of a language proficiency test is essential in order to ensure that students are assessed fairly and impartially. Given that a worldwide, language proficiency test to assess the use of Spanish for academic purposes does not yet exist, undertaking research in this regard is required. The present study aims to identify how reliable and consistent examiners are in the assessment of the written section of a Spanish language test for academic purposes developed by a Latin American university. Six examiners graded the scripts of 100 non-native Spanish speakers by means of an analytic rating scale. In order to investigate the quality of examiner’s marking, statistical analysis was conducted using Many-Facet Rasch Measurement (MFRM). The results showed that five examiners were consistent in their scores, whereas one examiner was less reliable. MFRM is a valuable tool that can be used to provide feedback to examiners, as well as to identify scripts that are atypical or difficult to assess.

El interés que aún hoy suscita la variación del español en el marco de la enseñanza de español como lengua extranjera se materializa tanto en la enorme cantidad de trabajos que se continúan publicando sobre este tema, como en la necesidad de contemplar las políticas panhispánicas que instituciones como la Real Academia Española o el Instituto Cervantes promueven, y que pretenden atender al pluralismo lingüístico mediante un modelo pluricéntrico en el que tengan cabida las distintas normas cultas que existen a lo largo de la vasta distribución geográfica del español. En este trabajo se intentará dar un paso más allá en la pregunta ¿qué español enseñar? –a la que, como ya se aludirá a lo largo de este texto, varios especialistas han dedicado numerosas obras y artículos–, para centrar el foco principal en la evaluación del español como lengua extranjera en los exámenes de certificación que distintas entidades ofrecen. La intención con ello es arrojar luz no solo sobre las disyuntivas derivadas de la atención que se ha de ofrecer a las variedades diatópicas del español en el ámbito del español como lengua extranjera de manera general, sino sobre las dificultades propias que encierra la evaluación de la competencia lingüística de los aprendientes a este respecto.

Índice
1 Introducción  
2 El español como lengua pluricéntrica
2.1 ¿Existe un único estándar del español? 
2.2 Normativización de los organismos reguladores y difusores del español
2.3 Normas dialectales del español

3 Las variedades de español en el aula de ELE 
3.1 ¿Qué español enseñar? Los modelos de lengua 
3.2 Criterios para la selección del modelo preferente 
3.3 Los modelos periféricos

4 Las variedades dialectales en los exámenes de certificación de español como lengua
extranjera
4.1 Exámenes de certificación del español como lengua extranjera
4.1.1 España: DELE
4.1.2 Argentina: CELU y DUCLE
4.1.3 México: CELA y EXELEAA
4.1.4 Internacional: SIELE
4.2 Evaluación
4.2.1 Finalidad de los exámenes de certificación
4.2.2 Tipos de exámenes de certificación
4.2.3 Las variedades dialectales en los exámenes de certificación
4.2.4 Escalas para valorar la actuación lingüística
4.2.5 Propuestas para evaluar la variación
4.3 Análisis de las variedades dialectales en los exámenes de certificación
4.3.1 Objetivo
4.3.2 Metodología
4.3.3 Resultados
4.3.3.1 DELE
4.3.3.2 CELU
4.3.3.3 CELA
4.3.3.4 EXELEAA
4.3.3.5 SIELE
4.3.4 Conclusiones

5 Propuesta de parrilla para la evaluación de la adecuación sociolingüística 

6 Conclusiones

7 Referencias bibliográficas
7.1 Fuentes primarias
7.1.1 Manuales
7.1.2 Materiales para los exámenes de certificación
7.2 Fuentes secundarias

El propósito de este artículo consiste en analizar de manera pormenorizada la integración de las diversas variedades del español y los modelos lingüísticos difundidos en el ámbito de la certificación del español como lengua extranjera. Para ello, se compararán los diferentes sistemas de certificación de alcance internacional y se prestará especial atención a los siguientes exámenes de dominio, destinados a medir la capacidad general de uso real de la lengua meta por parte del candidato: los Diplomas de Español como Lengua Extranjera (DELE), los Certificados de Español: Lengua y Uso (CELU), los Certificados de Español como Lengua Adicional (CELA) y el reciente Servicio Internacional de Evaluación de la Lengua Española (SIELE). A fin de examinar detalladamente cómo se trata en estas pruebas la variación lingüística y su relación con la normatividad, se llevará a cabo un análisis cualitativo de los mencionados exámenes para conocer hasta qué punto se han reflejado los discursos en torno al pluricentrismo y al panhispanismo en este ámbito concreto de la lingüística aplicada.

Revistas