Moralidad Artificial

M. Olezza
{"title":"Moralidad Artificial","authors":"M. Olezza","doi":"10.18294/pm.2018.2058","DOIUrl":null,"url":null,"abstract":"El objetivo de este trabajo es llevar el debate de la filosofía práctica, de la ética, al campo de la tecnología. Particularmente se analizará si es válido o no llamar morales a los Agentes Artificiales (AAs) –es decir, drones, autos que se manejan solos, (ro)bots–, debatible a causa de su falta de libre albedrío. En segundo lugar, se buscará, a través de un ejemplo práctico, establecer una manera de implementar la toma de decisiones éticas en los AAs, usando conceptos de la ética kantiana, la ética aristotélica y el utilitarismo para su construcción. Finalmente se establecerá cuáles son los límites de la responsabilidad por parte del equipo de desarrollo del producto en el diseño de estos sistemas.Palabras clave: Agentes artificiales - Aprendizaje máquina - Ética - Kant - Aristóteles - Utilitarismo","PeriodicalId":280994,"journal":{"name":"Perspectivas Metodológicas","volume":"167 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2018-10-22","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Perspectivas Metodológicas","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.18294/pm.2018.2058","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

El objetivo de este trabajo es llevar el debate de la filosofía práctica, de la ética, al campo de la tecnología. Particularmente se analizará si es válido o no llamar morales a los Agentes Artificiales (AAs) –es decir, drones, autos que se manejan solos, (ro)bots–, debatible a causa de su falta de libre albedrío. En segundo lugar, se buscará, a través de un ejemplo práctico, establecer una manera de implementar la toma de decisiones éticas en los AAs, usando conceptos de la ética kantiana, la ética aristotélica y el utilitarismo para su construcción. Finalmente se establecerá cuáles son los límites de la responsabilidad por parte del equipo de desarrollo del producto en el diseño de estos sistemas.Palabras clave: Agentes artificiales - Aprendizaje máquina - Ética - Kant - Aristóteles - Utilitarismo
人工道德
这项工作的目的是将实践哲学和伦理学的辩论带到技术领域。特别是,将人工代理(AAs)——即无人机、自动驾驶汽车(ro)机器人——称为道德是否有效,这是有争议的,因为它们缺乏自由意志。其次,通过实践实例,利用康德伦理学、亚里士多德伦理学和功利主义的概念,建立一种在AAs中实施伦理决策的方法。最后,它将确定产品开发团队在设计这些系统时的责任限制。关键词:人工代理-机器学习-伦理学-康德-亚里士多德-功利主义
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
自引率
0.00%
发文量
0
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信