Bibliografía

En Calico Journal 41 - 2

This systematic review aims to explore social media integration in K–12 foreign language (FL) classrooms in the past decade and discusses the unique challenges of adopting social media in K–12 FL teaching. Following the Preferred Reporting Items for Systematic Reviews and Meta-Analyses (PRISMA) guidelines and selection criteria, 12 studies between 2010 and 2019 were selected. Adopting a grounded analytical method, this review provides a synthesis of the affordances and challenges of social media integration in K–12 FL education. Based on the data analysis, an effective approach to integrating social media in K–12 FL education is proposed, to connect formal and informal learning environments. This review concludes with suggestions and directions for future research on the integration of social media in K–12 FL classrooms.

Texto completo pdf icon

According to Hopp’s Lexical Bottleneck Hypothesis, difficulties in second language (L2) lexical processing may lead to non-target syntactic computations. In line with this hypothesis, cognates – which are processed faster than non-cognates, as defined by the cognate facilitation effect – can ease L2 syntactic processing. In order to investigate whether cognates additionally facilitate L2 syntax learning, we had two groups of Spanish natives learn an artificial language drawing on Basque. Each group explicitly learnt a set of either Spanish–Basque cognates or non-cognates and a word order grammatical rule. Then, two sentence–picture matching tasks tested their ability to apply the rule (1) with cognates vs. non-cognates and (2) with novel cognate words. Results showed that, in both cases, cognate learners were better at applying the rule than non-cognate learners. This finding suggests that the cognate facilitation effect and its role in the Lexical Bottleneck Hypothesis can be extended from L2 processing to L2 learning. We end by mentioning possible implications of our results for second language teaching in adulthood.

Texto completo pdf icon

Esta contribución pone en tela de juicio algunos casos de interferencia lingüísticas del francés en la muestra de informantes marfileños de la Universidad Alassane Ouattara de Bouaké, Costa de Marfil. El propósito es resaltar los casos de interferencias léxicas, los más significativos, por su frecuencia, en las producciones escritos de aprendices marfileños del español, lengua extranjera. La metodología utilizada para alcanzar esta meta es mixta, o lo que es lo mismo, un enfoque descriptivo y otro explicativo. Los resultados nos permiten afirmar que las interferencias léxicas observadas en las muestras analizadas se refieren mayoritariamente a los verbos en infinitivo o conjugados, y en menor medida, a los sustantivos. los análisis han demostrados también que los informantes se apoyan en procesos de morfológicos y fonéticos para adaptar las unidades léxicas del francés que trasponen al español.

VV. AA. (2006)

Texto completo pdf icon

En 1994, Pedro Benítez Pérez creó el Máster en Enseñanza de Español como Lengua Extranjera, título propio de la Universidad de Alcalá. Y, aunque han pasado ya diez años, todos recordamos, como si fuera ayer, el empeño y el entusiasmo con los que el profesor Benítez organizó y puso en marcha un estudio que suponía la incursión definitiva del Departamento de Filología en la docencia e investigación en Lingüística Aplicada a la enseñanza de español como lengua extranjera. Las Jornadas Conmemorativas del 1 Oº Aniversario, cuyas conferencias recogemos en este volumen, en forma de capítulos, han pretendido ser un homenaje a los 1 O años ininterrumpidos que lleva impartiéndose nuestro Máster, a los alumnos que lo han cursado y, especialmente, a los tres profesionales que, de manera totalmente altruista, lo han dirigido magistralmente desde su inicio hasta la época actual.

Texto completo pdf icon

El artículo analiza comparativamente la evolución de la madurez sintáctica en estudiantes de español como lengua materna y segunda/extranjera, entrenados con secuencias didácticas en torno a la lectura y la escritura. Se analizan 181 escritos de sujetos de primer curso de ESO y Bachillerato (España), y 150 de estudiantes de ESL/LE de nivel intermedio y avanzado. Analizamos dos variables: (1) condiciones de la expresión escrita y (2) diferencia entre los promedios de las pruebas postest y pretest. Los resultados muestran que los grupos entrenados obtienen mejores índices en la mayoría de las mediciones. Así pues, probamos en ambos colectivos (lengua materna y extranjera) la eficacia del entrenamiento diseñado para desarrollar sus habilidades lingüísticas. 

Este libro es una aproximación al fracaso comunicativo. El fracaso es moneda corriente en cualquier actividad humana, desde luego, cuando en ella deben cooperar dos o más voluntades.

En el libro, se examina el fracaso comunicativo que alberga el conflicto ocasionado por la percepción de una ofensa. La teoría sobre fracaso y ofensas comunicativas expuesta en la 1ª parte del libro ha servido de marco para la investigación de los problemas de los estudiantes japoneses de ELE de estancia en España, que conforma la 2ª parte.

Dadas las importantes diferencias lingüísticas y culturales entre las sociedades españolas y japonesa, la atención se ha dirigido a las ofensas involuntarias, aquellas que produce no la intención, sino la incompetencia de los participantes, de ahí, el papel relevante del malentendido y de la metedura de pata en todo el trabajo.

---------------------------------

Índice
Introducción pdf icon

Capítulo 1. La comunicación fracasada

  1. Buscando el centro del ser humano
  2. El proceso comunicativo
  3. El fracaso comunicativo
  4. Las diferencias culturales
  5. Resumen

Capítulo 2. Las ofensas comunicativas

  1. Clases de ofensas
  2. El malentendido
  3. El daño emocional en la comunicación
  4. Prevención y reparación de la ofensa involuntaria
  5. Resumen

Capítulo 3. La enseñanza del español en Japón

  1. Panorama histórico
  2. ELE en Japón
  3. Resumen

Capítulo 4. Bases de la investigación

  1. Presentación
  2. Objetivos
  3. Metodología
  4. Desarrollo
  5. Ordenación de los datos
  6. Datos sobre los informantes
  7. Resumen

Capítulo 5. Análisis e interpretación de los datos

  1. Ordenación de los conflictos comunicativos
  2. Intencionalidad de las ofensas causa del conflicto
  3. Marco y escena de los conflictos analizados
  4. Causa de las ofensas percibidas
  5. Reacción y resolución de los conflictos comunicativos
  6. Resumen

Balance y últimas reflexiones
Referencias bibliográficas

Texto completo pdf icon

Demolingüística del español en Rumanía, Bulgaria y Moldavia es el cuarto volumen de la colección «El español en Europa», una propuesta de investigación del Centro de Estudios Iberoamericanos de la Universidad de Heidelberg, y de la Universidad de Zúrich, editada por el Instituto Cervantes.

Se trata de una colección con una metodología común que ofrece comparabilidad en los resultados de los diversos volúmenes, así como una estructura sólida y rigurosa liderada por los directores científicos de la colección Francisco Moreno Fernández, Óscar Loureda Lamas, Johannes Kabatek y Héctor Álvarez Mella, quienes trabajan con más de cincuenta equipos de investigación en toda Europa.

Después de los datos publicados en los volúmenes anteriores sobre Alemania, Suiza, Liechtenstein y Portugal, en este nuevo volumen sus autores Cristina Bleorțu, Paul Buzilă, Ilinca Ilian, Alina Țiței-Avădanei, Óscar Loureda Lamas, Héctor Álvarez Mella, Angela Roșca y Dora Mancheva nos ofrecen una clara perspectiva sobre la realidad social de la lengua española en Rumanía, Bulgaria y Moldavia.

Tres países del este de Europa con importantes flujos migratorios hacia los países hispanohablantes, especialmente hacia España, lo cual conlleva su aprendizaje del español como lengua extranjera y una mayor relación y apertura entre las diferentes culturas implicadas.

En este estudio se presenta el perfil y las peculiaridades de ese más de millón y medio de personas rumanas, búlgaras y moldavas que hablan español en la actualidad, su pasado sefardí y el recorrido del hispanismo en esta región. Una investigación sin duda de referencia para quien desee información actualizada y rigurosa sobre el español en Rumanía, Bulgaria y Moldavia.

El Instituto Cervantes ahonda con esta colaboración sobre el español en Europa en uno de sus grandes objetivos, ofrecer información sobre el uso y estudio del español en el mundo que sirva de apoyo en planificaciones estratégicas de actuación internacional de instituciones como el propio Instituto Cervantes, o simplemente que ayude a satisfacer la curiosidad de quienes estén interesados en este apasionante tema de la expansión del idioma español.

Contenidos

Texto completo pdf icon

En este trabajo se analiza el uso de tres herramientas digitales para la codificación, el análisis y la explotación de un corpus oral de aprendices de L2. En primer lugar, se presenta la creación, codificación y actualización del corpus, que se compiló con el objetivo de analizar los errores cometidos en el plano oral por parte de un grupo compuesto por 51 informantes franceses, estudiantes de segundo año de Lenguas Extranjeras Aplicadas de la Universidad François Rabelais de Tours (Francia). Una vez conseguido el material auditivo, se procedió a la transcripción y anotación textual codificada, siguiendo la normativa que marca Text Encoding Initiative.

Esta investigación se valió de ciertas herramientas digitales, como XML Formatter (https://jsonformatter.org/xml-formatter), XML Validator (https://codebeautify.org/xmlvalidator), VS Studio (https://code.visualstudio.com/), Git (https://git-scm.com/), GitHub (https://github.com/), SpaCy (https://SpaCy.io/), CATMA (https://catma.de/) y Google Colaboratory (https://colab.google/), que contribuyeron al desarrollo del análisis y la explotación del corpus oral, sirviendo para la configuración y validación de la cabecera del corpus (XML Formatter - Validator), para el etiquetado del corpus (VS Studio), para el control y almacenaje de las versiones (Git-GitHub) y para la actualización del corpus (SpaCy permite nuevos análisis, Google Colaboratory es un instalador de software usado junto a SpaCy, y con CATMA se desarrolla el nuevo etiquetado).

Texto completo pdf icon

Este artículo explora el potencial de JASP (Jeffreys's Amazing Statistics Program, https://jasp-stats.org/) como herramienta estadística robusta para avanzar en la investigación sobre la Adquisición de Segundas Lenguas (ASL), con un énfasis específico en su aplicación dentro del dominio de la escritura en L2. El dominio de la escritura en una segunda lengua es una habilidad compleja y polifacética, que exige una investigación empírica rigurosa para descubrir patrones y perspectivas matizados. JASP, conocido por su interfaz fácil de usar y sus avanzadas capacidades estadísticas, se perfila como un instrumento prometedor para los investigadores que buscan desentrañar los entresijos del desarrollo de la escritura en L2. El artículo comienza proporcionando una visión general de las características incorporadas en JASP y continúa discutiendo algunas de las investigaciones existentes en el campo de ASL que implementa JASP como una herramienta de análisis de datos. A continuación, se ofrece una descripción detallada del uso de JASP en dos trabajos de escritura de L2, en los que se discuten las decisiones de análisis de datos. Además, la discusión profundiza en las implicaciones prácticas de la utilización de JASP en la investigación de la escritura en L2, incluyendo su capacidad para acomodar muestras de pequeño tamaño, manejar interacciones complejas y facilitar análisis transparentes y reproducibles. El artículo concluye abogando por la adopción generalizada de JASP en la investigación de SLA, al tiempo que postula que su integración promete avanzar en nuestra comprensión de las complejidades del desarrollo de la escritura en L2 y contribuir al perfeccionamiento de los enfoques pedagógicos en la enseñanza de segundas lenguas.

------------------------------

This paper explores the potential of JASP (Jeffreys’s Amazing Statistics Program, https://jaspstats. org/) as a robust statistical tool in advancing Second Language Acquisition (SLA) research, with a specific emphasis on its application within the domain of L2 writing. Second language writing proficiency is a complex and multifaceted skill, demanding rigorous empirical investigation to uncover nuanced patterns and insights. JASP, known for its user-friendly interface and advanced statistical capabilities, emerges as a promising instrument for researchers seeking to unravel the intricacies of L2 writing development. The paper begins by providing an overview of the features embedded in JASP and continues to discuss some of the extant research within the field of SLA that implements JASP as a data analysis tool. Follows is a detailed description of the use of JASP in two L2 writing papers, in which the data analysis decisions are discussed. Furthermore, the discussion delves into the practical implications of utilizing JASP in L2 writing research, including its ability to accommodate small sample sizes, handle complex interactions, and facilitate transparent and reproducible analyses. The paper concludes by advocating for the widespread adoption of JASP in SLA research, positing that its integration holds the promise of advancing our understanding of the intricacies of L2 writing development and contributing to the refinement of pedagogical approaches in second language education.

Texto completo pdf icon

En este artículo se presenta el Corpus léxico del español de Colombia CorlexCo (https://clicc.caroycuervo.gov.co/corpus/CorlexCo) del Instituto Caro y Cuervo, herramienta que recopila combinaciones léxicas con criterio integral, es decir, las propias del país y también las compartidas con otros países hispanoamericanos y con el español general. No se limita a los colombianismos. Se trata de un macroproyecto iniciado en 2019 y desarrollado en fases anuales sucesivas. Por “combinaciones léxicas” nos referimos a todo tipo de unidades pluriverbales (compuestos, colocaciones, construcciones con verbo soporte, locuciones, paremias y fórmulas rutinarias). Los datos proceden de cinco fuentes de consulta: (1) diccionarios generales, escolares, dialectales, fraseológicos y combinatorios, (2) casi doscientos cincuenta repertorios léxicos del español de Colombia, (3) más de ciento cincuenta investigaciones académicas sobre el léxico de Colombia, (4) corpus lingüísticos y (5) el dominio http://www.google.com.co. Con respecto a la aplicación del CorlexCo, por una parte, puede usarse en planeación curricular, diseño de materiales didácticos y procesos de evaluación de español como lengua extranjera y segunda lengua (para indígenas y sordos); por otra, puede constituirse en obra de referencia de aprendientes, profesores, editores, traductores y, especialmente, de lingüistas que investiguen sobre el español LE y L2. En el apartado 1 se resume el estado actual de la lexicografía dialectal en Colombia. En el apartado 2 se describen las características principales del CorlexCo, la selección del tipo de unidades léxicas para cada fase anual, la selección de las entradas y la anotación, y se ilustra su uso con varios tipos de búsqueda. En el apartado 3 se muestra su aplicación a la investigación sobre español LE y L2. Este corpus es un recurso abierto que se actualiza periódicamente y que ofrece a la comunidad académica una descripción ampliada del léxico de Colombia.

Texto completo pdf icon

Este artículo muestra cómo se pueden examinar los datos compilados en los Corpus de Clases de L2 (CCL2). En concreto, se centra en cómo analizar, tanto manualmente como con la herramienta Sketch Engine (https://www.sketchengine.eu), la enseñanza de vocabulario en español a partir de este tipo de corpus. Para situar al lector, en la revisión de la literatura se presentan varios CCL1 y CCL2 disponibles a través de alguna interfaz específica o a través de Sketch Engine. Además, se describe cómo investigadores con distintos enfoques han utilizado los CCL2 y con qué propósitos. Asimismo, puesto que los ejemplos que se dan en el artículo se centran en investigaciones relacionadas con el léxico en la L2, se incluye una sección muy somera sobre esta cuestión. A continuación, al examinar las aplicaciones de Sketch Engine, se centra la atención en las funcionalidades Lista de palabras, Concordancia y Palabras clave. Para ejemplificar la utilidad de Sketch Engine combinado con los análisis de tipo manual, se describen tres CCL2 creados por la autora del artículo y se revisa la metodología de cuatro investigaciones sobre la enseñanza del vocabulario y de la morfología léxica en las que se usaron estos tres CCL2. Tras describir cómo se analizaron los datos en estos estudios, se proponen nuevas investigaciones posibles con Sketch Engine y se ofrecen algunas recomendaciones que pueden resultar útiles para quienes se adentren en el uso de esta herramienta aplicada al análisis de CCL2.

Texto completo pdf icon

En este artículo se presenta el Corpus de ELE en Japón, CELEN (https://ske.li/qqr), una colección de textos escritos por hablantes de japonés (L1) con distintos grados de dominio del español como lengua extranjera, desde el nivel A1 hasta el nivel C2 del MCER. Los datos proceden de (1) universidades en Japón, donde el español se estudia como asignatura de lengua extranjera o como carrera, y (2) contextos de interacción real en Internet, como blogs electrónicos y foros. La versión 1.2, de abril de 2023, consta de 6.196 textos escritos por 1.035 aprendices, con un total de 658.467 palabras. En el apartado 1 se resume brevemente la situación del español en Japón y los corpus de aprendices existentes. En el apartado 2 se describen las características principales de CELEN, el proceso de recogida y anotación de los datos y la interfaz de consulta. En el apartado 3 se ilustra su uso con varios tipos de búsquedas (concordancias, colocaciones, listas de palabras y n-gramas), aplicadas a fenómenos lingüísticos relevantes en la docencia o la investigación en ELE: el uso de se, las preposiciones, la concordancia de género, el orden de palabras, las colocaciones verbales, la frecuencia léxica o las secuencias de categorías gramaticales más frecuentes. Se trata de un recurso abierto, que se actualiza periódicamente, y esperamos que otros profesores e investigadores puedan albergar sus textos en él para ofrecer a la comunidad científica una amplia muestra de aprendices japoneses de español. En la página web del proyecto (https://sites.google.com/view/celen) se puede consultar la guía de uso detallada y descargar íntegramente algunas partes del corpus bajo una licencia CC BY-NC 4.0.

Texto completo pdf icon

Este estudio aborda la cuestión de la transferencia de la investigación en la adquisición de segundas lenguas (SLA) a la instrucción de segundas lenguas y lenguas extranjeras (L2), más concretamente en el marco del Enseñanza de Lenguas Basada en Tareas (TBLT). El objetivo principal es mostrar cómo la herramienta web taskGen (https://taskgen.eu), cuyo primer uso es la creación de materiales didácticos, también funciona como medio para la transferencia y proporciona información valiosa sobre  prácticas de enseñanza, necesidades de los profesores, estrategias pedagógicas y diseño de tareas en L2.

En primer lugar, se presenta taskGen como una herramienta web que ayuda y forma a los profesores en el diseño de tareas L2 e integra recursos de procesamiento de lenguaje natural (NLP); a continuación, se muestra cómo la información cuantitativa obtenida a través del análisis de datos a partir del uso masivo de la herramienta se puede combinar con métodos cualitativos como entrevistas, observaciones, protocolos de opinión en vivo, cuestionarios, estudios de casos y transcripciones para generar investigación. La recopilación automática (cuantitativa) de datos recoge información de los contextos de enseñanza, los objetivos de las tareas, las estructuras del flujo de tareas, las opciones de atención en la forma, y el acceso a los archivos de ayuda. La información recopilada, además de retroalimentar la herramienta, contribuye a comprender las opciones y patrones en los diseños de los profesores, y a explorar la intersección entre la teoría SLA y TBLT, por un lado, y las prácticas de diseño de tareas, por otro. El análisis cualitativo que se lleva a cabo se orienta hacia las experiencias de los profesores durante el diseño de tareas. Finalmente, se presentan las líneas de investigación futuras que prevemos que se llevarán a cabo conforme crezca el uso de taskGen y se vayan implementando nuevas funcionalidades en la herramienta.

----------------------

The present study addresses the issue of the transfer from second language acquisition (SLA) research to second and foreign language (L2) instruction, particularly within the context of Task-Based Language Teaching (TBLT). The main goal of this article is to show how technology, particularly the web-based tool taskGen (https://taskgen.eu), which primarily serves to create teaching materials, also functions as a mediator for transfer and provides valuable information on teaching practices, teachers' needs, pedagogical strategies, and L2 task design. This article is organised as follows. Firstly, a web-based tool that assists and trains teachers in L2 task design is presented, along with the instantiation and integration of natural language processing (NLP) resources in the tool; later, we show how quantitative information obtained from the massive use of the tool through data analytics can be combined with qualitative methods such as interviews, observations,  think  aloud  protocols,  questionnaires,  case  studies,  and  transcripts  to  generate  research. Automatic (quantitative) data collection gathers information of the teaching contexts, task aims, task flow structures, focus on form options, and the access and  time  on  help files.  Not only does the  collected information feed back to the tool, but it also contributes to understanding teachers' design choices and patterns,  and  to  exploring  the  intersection  between  SLA  and  TBLT  theory  and  task  design  practises.      Qualitative analysis is being conducted and oriented toward teachers’ experiences during task design. Finally, we present the future lines of research that we anticipate will be carried out with the further use and development of taskGen.

Hye Won Shin (2024)

This study investigated which type of instructional modality is most conducive to vocabulary learning. A total of 6 classrooms (N = 121), all from one 6th grade cohort, were randomly assigned to one of three conditions: (1) vocabulary training anchored in listening, (2) vocabulary training anchored in reading, or (3) vocabulary training anchored in writing. Three parallel versions of the tasks involved 21 target words embedded in contexts, but the students encountered these words explicitly through either listening or reading or writing modality. The study found, first, that there were statistically significant differences in favor of the reading and writing groups in terms of word association ability and vocabulary knowledge. Students in the reading and writing groups showed roughly the same level of vocabulary knowledge. Second, the study found that the results varied depending on the experience level of the teacher, which has implications for understanding how to improve vocabulary learning.

Muestra de contenido pdf icon

La presente obra es un tratado sobre lexicografía didáctica que aborda sus fundamentos teóricos, el tratamiento digitalizado de los datos y su aplicación práctica en la elaboración de diccionarios para el aprendizaje de lenguas.

Dividido en tres partes, el libro comienza por la exploración de la naturaleza de la lexicografía y de la estructura de los diccionarios, incluyendo su versión electrónica. La segunda parte se adentra en la lexicografía didáctica: analiza diferentes tipos de diccionarios diseñados para el aula y el aprendizaje de idiomas. Finalmente, se examina en detalle el modelo lexicográfico propuesto, desde su marco teórico hasta el diseño de sus diferentes estructuras.

Índice
Introducción 

1. La lexicografía: ciencia y/o arte 

2. El diccionario: estructuras lexicográficas  

3. Lexicografía electrónica: el soporte y el formato de los datosdel diccionario 

3.1. El almacenamiento y la gestión de los datos lexicográficos 

El Lenguaje de Marcado Extensible (XML) 

Los Dictionary Writing Systems 

Lexonomy

Las bases de datos 

Repositorios de objetos digitales 

4. ¿Lexicografía pedagógica o lexicografía didáctica? 

5. La lexicografía didáctica

5.1 Los diccionarios de aprendizaje de lenguas 

5.2. Rasgos presentes en las estructuras de los diccionarios de aprendizaje de lenguas 

5.3.1. Los diccionarios utilizados en el aula de aprendizaje de lenguas

5.4. Los diccionarios diseñados para el aprendizaje de lenguas 

5.4.1. Diccionarios escolares 

5.4.2. Diccionarios de aprendizaje 

5.4.3. Diccionarios complementarios de aprendizaje 

6. La nivelación de los datos 

7. Los diccionarios didácticos complementarios de aprendizaje 

7.1. Marco teórico lexicográfico

7.2. Marco teórico lingüístico 

7.3. La estructura del diccionario complementariode aprendizaje 

Partes iniciales 

Macroestructura 

Microestructura 

Medioestructura 

Iconoestructura 

Partes finales 

8. La calidad del diccionario complementario de aprendizaje como material educativo digital 

Pages

Revistas