Alfabetización moral digital para la detección de deepfakes y fakes audiovisuales

IF 0.3 Q4 COMMUNICATION
V. Cerdán Martínez, Mar García Guardia, G. Padilla Castillo
{"title":"Alfabetización moral digital para la detección de deepfakes y fakes audiovisuales","authors":"V. Cerdán Martínez, Mar García Guardia, G. Padilla Castillo","doi":"10.5209/ciyc.68762","DOIUrl":null,"url":null,"abstract":"Los deepfakes son vídeos manipulados donde se suplanta la cara de una persona por la de otra a través de Inteligencia Artificial. Estos contenidos fotorrealistas pueden convertirse en armas de acoso, propaganda o conflicto social. Esta investigación de innovación teórica ahonda en la incipiente literatura científica sobre el deepfake en Ciencias Sociales, poniendo sus bases en los trabajos de Wenceslao Castañares. Sus objetivos son analizar el fenómeno, buscar herramientas para detectarlo y combatirlo, e inaugurar una nueva vía de alfabetización moral digital de especial interés en el campo de la comunicación, por su importancia social y política. Se emplea una metodología diacrónica en dos pasos. En primer lugar, se realiza una investigación bibliográfica longitudinal y se ofrece una descripción histórica, sistémica y descriptiva, con los rasgos más importantes del fenómeno, naturaleza, funcionamiento y posibles usos. En segundo lugar, se realiza una observación científica consciente de más de medio centenar de vídeos deepfake, para percibir el fenómeno, conseguir una mayor generalización y garantizar la validez de los resultados. Los resultados muestran que aunque se han creado softwares de detección de este tipo de fakes, aún no son de acceso libre y gratuito. La única manera de reconocer el deepfake es a través de una educación moral digital, que pueda detectar una serie de parámetros visuales hiperrealistas: frecuencia del parpadeo, efecto intermitente de las caras o transiciones entre cabeza y cuello.","PeriodicalId":42866,"journal":{"name":"CIC-Cuadernos de Informacion y Comunicacion","volume":"56 1","pages":""},"PeriodicalIF":0.3000,"publicationDate":"2020-06-05","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"CIC-Cuadernos de Informacion y Comunicacion","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.5209/ciyc.68762","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"Q4","JCRName":"COMMUNICATION","Score":null,"Total":0}
引用次数: 0

Abstract

Los deepfakes son vídeos manipulados donde se suplanta la cara de una persona por la de otra a través de Inteligencia Artificial. Estos contenidos fotorrealistas pueden convertirse en armas de acoso, propaganda o conflicto social. Esta investigación de innovación teórica ahonda en la incipiente literatura científica sobre el deepfake en Ciencias Sociales, poniendo sus bases en los trabajos de Wenceslao Castañares. Sus objetivos son analizar el fenómeno, buscar herramientas para detectarlo y combatirlo, e inaugurar una nueva vía de alfabetización moral digital de especial interés en el campo de la comunicación, por su importancia social y política. Se emplea una metodología diacrónica en dos pasos. En primer lugar, se realiza una investigación bibliográfica longitudinal y se ofrece una descripción histórica, sistémica y descriptiva, con los rasgos más importantes del fenómeno, naturaleza, funcionamiento y posibles usos. En segundo lugar, se realiza una observación científica consciente de más de medio centenar de vídeos deepfake, para percibir el fenómeno, conseguir una mayor generalización y garantizar la validez de los resultados. Los resultados muestran que aunque se han creado softwares de detección de este tipo de fakes, aún no son de acceso libre y gratuito. La única manera de reconocer el deepfake es a través de una educación moral digital, que pueda detectar una serie de parámetros visuales hiperrealistas: frecuencia del parpadeo, efecto intermitente de las caras o transiciones entre cabeza y cuello.
数字道德素养检测深度伪造和视听伪造
deepfakes是一种通过人工智能将一个人的脸换成另一个人的脸的操纵视频。这些逼真的内容可能成为骚扰、宣传或社会冲突的武器。本文以Wenceslao castanares的工作为基础,深入探讨了社会科学中关于深度假的新兴科学文献。它的目标是分析这一现象,寻找检测和对抗它的工具,并开辟一条在传播领域特别感兴趣的数字道德素养的新途径,因为它的社会和政治重要性。本研究采用两步历时性方法。首先,进行纵向文献研究,提供历史的、系统的和描述性的描述,包括现象的最重要特征、性质、功能和可能的用途。其次,对50多个deepfake视频进行有意识的科学观察,以感知现象,实现更大的泛化,保证结果的有效性。结果表明,虽然已经创建了检测这类假货的软件,但它们还不是免费访问的。识别深度假的唯一方法是通过数字道德教育,它可以检测一系列超现实的视觉参数:闪烁频率、面部闪烁效果或头部和颈部之间的过渡。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
自引率
0.00%
发文量
0
审稿时长
12 weeks
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信