人工智能与真实存在风险:人类控制局限性分析

IF 0.1 4区 哲学 0 PHILOSOPHY
Murilo Karasinski, K. B. Candiotto
{"title":"人工智能与真实存在风险:人类控制局限性分析","authors":"Murilo Karasinski, K. B. Candiotto","doi":"10.4013/fsu.2022.233.07","DOIUrl":null,"url":null,"abstract":"\n\n\nA partir da hipótese de que a inteligência artificial como tal não representaria o fim da supremacia humana, uma vez que, na essência, a IA somente simularia e aumentaria aspectos da inteligência humana em artefatos não biológicos, o presente artigo questiona sobre o risco real a ser enfrentado. Para além do embate entre tecnofóbicos e tecnofílicos, o que se defende, então, é que as possíveis falhas de funcionamento de uma inteligência artificial – decorrentes de sobrecarga de informação, de uma programação equivocada ou de uma aleatoriedade do sistema – poderiam sinalizar os verdadeiros riscos existenciais, sobretudo quando se considera que o cérebro biológico, na esteira do viés da automação, tende a assumir de maneira acrítica aquilo que é posto por sistemas ancorados em inteligência artificial. Além disso, o argumento aqui defendido é que falhas não detectáveis pela provável limitação de controle humano quanto ao aumento de complexidade do funcionamento de sistemas de IA representam o principal risco existencial real.\nPalavras-chave: Inteligência artificial, risco existencial, superinteligências, controle humano.\n\n\n","PeriodicalId":41989,"journal":{"name":"Filosofia Unisinos","volume":" ","pages":""},"PeriodicalIF":0.1000,"publicationDate":"2022-11-16","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"Inteligência Artificial e os Riscos Existenciais Reais: Uma Análise das Limitações Humanas de Controle\",\"authors\":\"Murilo Karasinski, K. B. Candiotto\",\"doi\":\"10.4013/fsu.2022.233.07\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"\\n\\n\\nA partir da hipótese de que a inteligência artificial como tal não representaria o fim da supremacia humana, uma vez que, na essência, a IA somente simularia e aumentaria aspectos da inteligência humana em artefatos não biológicos, o presente artigo questiona sobre o risco real a ser enfrentado. Para além do embate entre tecnofóbicos e tecnofílicos, o que se defende, então, é que as possíveis falhas de funcionamento de uma inteligência artificial – decorrentes de sobrecarga de informação, de uma programação equivocada ou de uma aleatoriedade do sistema – poderiam sinalizar os verdadeiros riscos existenciais, sobretudo quando se considera que o cérebro biológico, na esteira do viés da automação, tende a assumir de maneira acrítica aquilo que é posto por sistemas ancorados em inteligência artificial. Além disso, o argumento aqui defendido é que falhas não detectáveis pela provável limitação de controle humano quanto ao aumento de complexidade do funcionamento de sistemas de IA representam o principal risco existencial real.\\nPalavras-chave: Inteligência artificial, risco existencial, superinteligências, controle humano.\\n\\n\\n\",\"PeriodicalId\":41989,\"journal\":{\"name\":\"Filosofia Unisinos\",\"volume\":\" \",\"pages\":\"\"},\"PeriodicalIF\":0.1000,\"publicationDate\":\"2022-11-16\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Filosofia Unisinos\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.4013/fsu.2022.233.07\",\"RegionNum\":4,\"RegionCategory\":\"哲学\",\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"0\",\"JCRName\":\"PHILOSOPHY\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Filosofia Unisinos","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.4013/fsu.2022.233.07","RegionNum":4,"RegionCategory":"哲学","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"0","JCRName":"PHILOSOPHY","Score":null,"Total":0}
引用次数: 0

摘要

从人工智能本身并不代表人类霸权的终结的假设出发,因为从本质上说,人工智能只会在非生物人工制品中模拟和增强人类智能的各个方面,本文对面临的真正风险提出了质疑。超越冲突tecnofóbicos tecnofílicos,支持,所以,是一个人工智能的操作可能倒闭所带来的信息过载,—一个编程错误的或随机的系统—可能表明存在真正的风险,特别是如果认为大脑的生物,它在跑步机上的自动化,它倾向于不加批判地假设基于人工智能的系统所放置的东西。此外,这里提出的论点是,由于人工智能系统操作复杂性的增加,人类控制的可能限制无法检测到的故障代表了主要的真实存在风险。关键词:人工智能,存在风险,超智能,人类控制。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
Inteligência Artificial e os Riscos Existenciais Reais: Uma Análise das Limitações Humanas de Controle
A partir da hipótese de que a inteligência artificial como tal não representaria o fim da supremacia humana, uma vez que, na essência, a IA somente simularia e aumentaria aspectos da inteligência humana em artefatos não biológicos, o presente artigo questiona sobre o risco real a ser enfrentado. Para além do embate entre tecnofóbicos e tecnofílicos, o que se defende, então, é que as possíveis falhas de funcionamento de uma inteligência artificial – decorrentes de sobrecarga de informação, de uma programação equivocada ou de uma aleatoriedade do sistema – poderiam sinalizar os verdadeiros riscos existenciais, sobretudo quando se considera que o cérebro biológico, na esteira do viés da automação, tende a assumir de maneira acrítica aquilo que é posto por sistemas ancorados em inteligência artificial. Além disso, o argumento aqui defendido é que falhas não detectáveis pela provável limitação de controle humano quanto ao aumento de complexidade do funcionamento de sistemas de IA representam o principal risco existencial real. Palavras-chave: Inteligência artificial, risco existencial, superinteligências, controle humano.
求助全文
通过发布文献求助,成功后即可免费获取论文全文。 去求助
来源期刊
Filosofia Unisinos
Filosofia Unisinos PHILOSOPHY-
CiteScore
0.30
自引率
0.00%
发文量
10
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信