Herramienta tecnológica de evaluación de la comprensión de un texto argumentativo de español lengua materna

IF 0.8 0 LANGUAGE & LINGUISTICS
Rosa Ana Martín-Vegas, Marta Seseña-Gómez
{"title":"Herramienta tecnológica de evaluación de la comprensión de un texto argumentativo de español lengua materna","authors":"Rosa Ana Martín-Vegas, Marta Seseña-Gómez","doi":"10.1590/1983-3652.2023.46444","DOIUrl":null,"url":null,"abstract":"Resumen El procedimiento cloze, que se emplea habitualmente como herramienta tecnológica para evaluar la comprensión lectora de segundas lenguas, no suele usarse con lenguas maternas. Los motivos que descartan este instrumento con hablantes nativos se basan en que solo detecta el reconocimiento de información y habilidades lingüísticas microestructurales, y no mide la comprensión global ni inferencial del texto. En esta investigación se cuestiona esta idea y, con el fin de dilucidar el valor procedimental, se creó una herramienta de prueba basada en el modelo de exámenes DELE (nivel B2) y se aplicó a estudiantes universitarios españoles (N = 125) con dos objetivos: 1) medir la comprensión lectora de un texto argumentativo; 2) valorar la comprensión de la coherencia y cohesión discursivas a partir del uso de conectores. La herramienta fue diseñada en Moodle y ejecutada presencialmente. Se midió estadísticamente el índice de acierto y error de cada frase y conector y se aplicaron el test Chi-cuadrado de homogeneidad y el test de Cochran para valorar la significatividad de la confusión entre conectores y nociones argumentales. Los resultados muestran argumentos y conectores más transparentes y patrones de confusión argumental. Se demuestra que esta herramienta basada en el cloze mide la comprensión de textos argumentativos en lengua materna y puede ser un instrumento tecnológico replicable.","PeriodicalId":52012,"journal":{"name":"Texto Livre-Linguagem e Tecnologia","volume":null,"pages":null},"PeriodicalIF":0.8000,"publicationDate":"2023-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Texto Livre-Linguagem e Tecnologia","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.1590/1983-3652.2023.46444","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"0","JCRName":"LANGUAGE & LINGUISTICS","Score":null,"Total":0}
引用次数: 0

Abstract

Resumen El procedimiento cloze, que se emplea habitualmente como herramienta tecnológica para evaluar la comprensión lectora de segundas lenguas, no suele usarse con lenguas maternas. Los motivos que descartan este instrumento con hablantes nativos se basan en que solo detecta el reconocimiento de información y habilidades lingüísticas microestructurales, y no mide la comprensión global ni inferencial del texto. En esta investigación se cuestiona esta idea y, con el fin de dilucidar el valor procedimental, se creó una herramienta de prueba basada en el modelo de exámenes DELE (nivel B2) y se aplicó a estudiantes universitarios españoles (N = 125) con dos objetivos: 1) medir la comprensión lectora de un texto argumentativo; 2) valorar la comprensión de la coherencia y cohesión discursivas a partir del uso de conectores. La herramienta fue diseñada en Moodle y ejecutada presencialmente. Se midió estadísticamente el índice de acierto y error de cada frase y conector y se aplicaron el test Chi-cuadrado de homogeneidad y el test de Cochran para valorar la significatividad de la confusión entre conectores y nociones argumentales. Los resultados muestran argumentos y conectores más transparentes y patrones de confusión argumental. Se demuestra que esta herramienta basada en el cloze mide la comprensión de textos argumentativos en lengua materna y puede ser un instrumento tecnológico replicable.
评估西班牙语母语议论性文本理解的技术工具
本文的目的是分析在西班牙语和葡萄牙语两种语言中使用的词汇量,并分析在西班牙语和葡萄牙语两种语言中使用的词汇量。排除以英语为母语的人使用该工具的原因是,它只检测信息识别和微观结构语言技能,而不能衡量对文本的整体或推断理解。在这次调查中,这个想法和受到质疑,以解决程序性价值,建立了一个基于模型的测试工具给考试(B2)和西班牙大学生实施(N = 125)与两个目标:1)测量也是案文读者了解;2)通过使用连接器来评估对话语连贯性和衔接性的理解。该工具是在Moodle中设计的,并亲自执行。摘要本研究的目的是评估一项研究的相关性,该研究的目的是评估一项研究的相关性,该研究的目的是评估一项研究的相关性,该研究的目的是评估一项研究的相关性,该研究的目的是评估一项研究的相关性。结果显示了更透明的论点和连接和论点混淆模式。使用完形填空工具,研究人员发现,使用完形填空工具的学生对母语辩论文本的理解比使用完形填空工具的学生多。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
Texto Livre-Linguagem e Tecnologia
Texto Livre-Linguagem e Tecnologia LANGUAGE & LINGUISTICS-
CiteScore
1.10
自引率
16.70%
发文量
32
审稿时长
5 weeks
期刊介绍: Texto Livre: Linguagem e Tecnologia is a quarterly journal, sponsored by the School of Letters of the Federal University of Minas Gerais (Brazil) since 2008. It welcomes submissions of articles, reviews, essays and translations on the relationship between languages and digital media. Its mission is to promote scientific production in the field of language studies, especially analysis of writing and practices for teaching writing through free and open new technologies, and studies on documentation and dissemination of free and open software, providing researchers from Brazil and abroad with the opportunity to share their research and contribute to the debate and scientific progress in the area. Topics of interest to this journal include: intertextuality, usability, computer use in the classroom, free culture, digital inclusion, digital literacy, dissemination of free software and other topics related to language and technology. The journal accepts manuscripts in Portuguese, Spanish, English and French, with no need for a translation into Portuguese. Texto Livre is intended for researchers and for a non-academic audience interested in critical approaches to the related topics addressed by the journal.
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信