Avaliação do uso de modelos de aprendizagem profunda na tradução automática de línguas de sinais

Renan Paiva Oliveira Costa, Diego Damasceno Bispo da Silva, Samuel De Moura Moreira, Daniel Faustino Lacerda de Souza, R. Costa, Tiago Maritan Ugulino de Araújo
{"title":"Avaliação do uso de modelos de aprendizagem profunda na tradução automática de línguas de sinais","authors":"Renan Paiva Oliveira Costa, Diego Damasceno Bispo da Silva, Samuel De Moura Moreira, Daniel Faustino Lacerda de Souza, R. Costa, Tiago Maritan Ugulino de Araújo","doi":"10.18265/2447-9187a2022id8053","DOIUrl":null,"url":null,"abstract":"Os modelos recentes de Neural Machine Translation (NMT) podem ser aplicados a idiomas e domínios de poucos recursos sem limitações. Alguns trabalhos investigam se novas técnicas de NMT também podem ser generalizadas para diferentes recursos no que diz respeito à disponibilidade de dados e recursos computacionais. Nesse contexto, o objetivo geral deste estudo foi explorar métodos modernos de NMT e analisar a sua potencial aplicabilidade em contextos de poucos recursos, como é o caso das línguas de sinais. Para uma melhor avaliação, foram adaptados e utilizados alguns modelos promissores identificados no componente de tradução automática da Suíte VLibras e os resultados obtidos foram comparados com aqueles atualmente fornecidos pela atual arquitetura LightConv, sendo utilizado o mesmo corpus bilíngue Português-LIBRAS de treinamento e validação com mais de 70.000 sentenças geradas por linguístas, um dos maiores desse tipo disponíveis no mundo. Os resultados indicam que a adoção de uma das duas arquiteturas de melhor desempenho (Basic Transformer ou ByT5) ajudaria a melhorar a precisão e a qualidade da tradução da Suite VLibras, com um aumento percentual de até 12,73% considerando a métrica BLEU.","PeriodicalId":21386,"journal":{"name":"Revista Principia - Divulgação Científica e Tecnológica do IFPB","volume":null,"pages":null},"PeriodicalIF":0.0000,"publicationDate":"2024-01-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Revista Principia - Divulgação Científica e Tecnológica do IFPB","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.18265/2447-9187a2022id8053","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

Os modelos recentes de Neural Machine Translation (NMT) podem ser aplicados a idiomas e domínios de poucos recursos sem limitações. Alguns trabalhos investigam se novas técnicas de NMT também podem ser generalizadas para diferentes recursos no que diz respeito à disponibilidade de dados e recursos computacionais. Nesse contexto, o objetivo geral deste estudo foi explorar métodos modernos de NMT e analisar a sua potencial aplicabilidade em contextos de poucos recursos, como é o caso das línguas de sinais. Para uma melhor avaliação, foram adaptados e utilizados alguns modelos promissores identificados no componente de tradução automática da Suíte VLibras e os resultados obtidos foram comparados com aqueles atualmente fornecidos pela atual arquitetura LightConv, sendo utilizado o mesmo corpus bilíngue Português-LIBRAS de treinamento e validação com mais de 70.000 sentenças geradas por linguístas, um dos maiores desse tipo disponíveis no mundo. Os resultados indicam que a adoção de uma das duas arquiteturas de melhor desempenho (Basic Transformer ou ByT5) ajudaria a melhorar a precisão e a qualidade da tradução da Suite VLibras, com um aumento percentual de até 12,73% considerando a métrica BLEU.
评估深度学习模型在自动手语翻译中的应用
最新的神经机器翻译(NMT)模型可以毫无限制地应用于低资源语言和领域。一些研究工作探讨了新的 NMT 技术是否也能适用于数据可用性和计算资源方面的不同资源。在此背景下,本研究的总体目标是探索现代 NMT 方法,并分析其在低资源环境(如手语)中的潜在适用性。为了更好地进行评估,我们改编并使用了 VLibras Suite 机器翻译组件中确定的一些有前途的模型,并将所获得的结果与当前 LightConv 架构提供的结果进行了比较,使用的是相同的葡萄牙语-LIBRAS 双语训练和验证语料库,该语料库由语言学家生成,包含 70,000 多个句子,是目前世界上最大的同类语料库之一。结果表明,采用两种性能最好的架构之一(Basic Transformer 或 ByT5)将有助于提高 VLibras Suite 翻译的准确性和质量,根据 BLEU 指标,可提高 12.73%。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
自引率
0.00%
发文量
0
文献相关原料
公司名称 产品信息 采购帮参考价格
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信