{"title":"使用深度学习识别口语中的情绪","authors":"Yasmin Maria Muniz de Oliveira, C. Figueiredo","doi":"10.5753/eniac.2021.18245","DOIUrl":null,"url":null,"abstract":"As emoções constituem um dos pilares da comunicação humana, especialmente da linguagem falada. Na fala emocional, as emoções podem ser identificadas por atributos inerentes à voz, como pitch, frequência, intensidade etc. Neste artigo, foi proposto um modelo baseado em aumento artificial de dados e Deep Learning, mais especificamente uma Rede Neural Recorrente Convolucional, para automatizar essa tarefa de identificação de emoções ao ser treinado na base de dados RAVDESS com técnica de validação cruzada. Avaliado pelas métricas acurácia e F1-score, o modelo atingiu nelas, respectivamente, 76,25% e 76% em média e uma máxima de 83,33% e 80%, o que são resultados levemente melhores que os apresentados em pesquisas relacionadas.","PeriodicalId":318676,"journal":{"name":"Anais do XVIII Encontro Nacional de Inteligência Artificial e Computacional (ENIAC 2021)","volume":"16 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2021-11-29","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"Identification of Emotions in Spoken Language Using Deep Learning\",\"authors\":\"Yasmin Maria Muniz de Oliveira, C. Figueiredo\",\"doi\":\"10.5753/eniac.2021.18245\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"As emoções constituem um dos pilares da comunicação humana, especialmente da linguagem falada. Na fala emocional, as emoções podem ser identificadas por atributos inerentes à voz, como pitch, frequência, intensidade etc. Neste artigo, foi proposto um modelo baseado em aumento artificial de dados e Deep Learning, mais especificamente uma Rede Neural Recorrente Convolucional, para automatizar essa tarefa de identificação de emoções ao ser treinado na base de dados RAVDESS com técnica de validação cruzada. Avaliado pelas métricas acurácia e F1-score, o modelo atingiu nelas, respectivamente, 76,25% e 76% em média e uma máxima de 83,33% e 80%, o que são resultados levemente melhores que os apresentados em pesquisas relacionadas.\",\"PeriodicalId\":318676,\"journal\":{\"name\":\"Anais do XVIII Encontro Nacional de Inteligência Artificial e Computacional (ENIAC 2021)\",\"volume\":\"16 1\",\"pages\":\"0\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2021-11-29\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Anais do XVIII Encontro Nacional de Inteligência Artificial e Computacional (ENIAC 2021)\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.5753/eniac.2021.18245\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Anais do XVIII Encontro Nacional de Inteligência Artificial e Computacional (ENIAC 2021)","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.5753/eniac.2021.18245","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
Identification of Emotions in Spoken Language Using Deep Learning
As emoções constituem um dos pilares da comunicação humana, especialmente da linguagem falada. Na fala emocional, as emoções podem ser identificadas por atributos inerentes à voz, como pitch, frequência, intensidade etc. Neste artigo, foi proposto um modelo baseado em aumento artificial de dados e Deep Learning, mais especificamente uma Rede Neural Recorrente Convolucional, para automatizar essa tarefa de identificação de emoções ao ser treinado na base de dados RAVDESS com técnica de validação cruzada. Avaliado pelas métricas acurácia e F1-score, o modelo atingiu nelas, respectivamente, 76,25% e 76% em média e uma máxima de 83,33% e 80%, o que são resultados levemente melhores que os apresentados em pesquisas relacionadas.