Stephanny Resende de Melo, Clara Cardoso Machado Jaborandy
{"title":"ALGORITMOS RACIAIS E O PENSAMENTO DE COLONIALIDADE COMO ENTRAVE AOS DIREITOS HUMANOS: UMA NOVA FORMA DE ESTRUTURAÇÃO DAS DISCRIMINAÇÕES RACIAIS","authors":"Stephanny Resende de Melo, Clara Cardoso Machado Jaborandy","doi":"10.12957/rqi.2023.65152","DOIUrl":null,"url":null,"abstract":"O uso de novas tecnologias e a hiperconectividade entre as pessoas trouxe a necessidade de acelerar a resposta de dados, de modo que os algoritmos e a inteligência artificial tomaram destaque. No entanto, surgiram problemas ao serem demonstrados vieses de cunho racista nos resultados e tomadas de decisões dos sistemas. Dessa forma, considerando que são utilizadas tanto no âmbito público quanto no privado, inclusive em sistemas de segurança pública, viu-se a necessidade de debater sobre discursos de neutralidade dos softwares. A ideia de colonialidade também está atrelada a esse problema, gerando seletividade e disparates sociais. O objetivo é analisar os motivos pelos quais ocorrem os vieses raciais, ferindo os direitos humanos, além de verificar como e quanto o pensamento de colonialidade se correlaciona com essas posturas. Ao final, conclui-se que os algoritmos raciais não são neutros pois replicam somente o que foi treinado por seres humanos, portanto, a visão de mundo de quem as criou, fazendo ser necessário a regulamentação da inteligência artificial, a democratização das tecnologias e debates sobre diversidade étnica. A metodologia utilizada deu-se através da abordagem qualitativa, de natureza exploratória, com procedimento metodológico da pesquisa documental e bibliográfica.","PeriodicalId":187075,"journal":{"name":"REVISTA QUAESTIO IURIS","volume":"4 2","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2023-12-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"REVISTA QUAESTIO IURIS","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.12957/rqi.2023.65152","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0
Abstract
O uso de novas tecnologias e a hiperconectividade entre as pessoas trouxe a necessidade de acelerar a resposta de dados, de modo que os algoritmos e a inteligência artificial tomaram destaque. No entanto, surgiram problemas ao serem demonstrados vieses de cunho racista nos resultados e tomadas de decisões dos sistemas. Dessa forma, considerando que são utilizadas tanto no âmbito público quanto no privado, inclusive em sistemas de segurança pública, viu-se a necessidade de debater sobre discursos de neutralidade dos softwares. A ideia de colonialidade também está atrelada a esse problema, gerando seletividade e disparates sociais. O objetivo é analisar os motivos pelos quais ocorrem os vieses raciais, ferindo os direitos humanos, além de verificar como e quanto o pensamento de colonialidade se correlaciona com essas posturas. Ao final, conclui-se que os algoritmos raciais não são neutros pois replicam somente o que foi treinado por seres humanos, portanto, a visão de mundo de quem as criou, fazendo ser necessário a regulamentação da inteligência artificial, a democratização das tecnologias e debates sobre diversidade étnica. A metodologia utilizada deu-se através da abordagem qualitativa, de natureza exploratória, com procedimento metodológico da pesquisa documental e bibliográfica.