道德观相对于文明吗?一项心理信息实验的工程道德评论

M. Rath
{"title":"道德观相对于文明吗?一项心理信息实验的工程道德评论","authors":"M. Rath","doi":"10.5771/9783748905158-105","DOIUrl":null,"url":null,"abstract":"Der Beitrag geht der Frage nach, ob „moral machines“, also digitale Maschinen, die eigenständig normativ Entscheidungen fällen, auch als moralische Akteure bezeichnet werden können. Die Rede von nicht-menschlichen moralischen Akteuren ist in der angewandten Ethik, z.B. der Wirtschaftsethik in Bezug auf Unternehmen, nicht ungewöhnlich. Diese Rede ist aber nur „metaphorisch“ (vgl. Enderle 1992) zu verstehen. Akteure i.e.S. sind hier die Mitarbeiter*innen eines Unternehmens. Für die Maschinenethik ist hingegen interessant, ob Maschinen in nicht-metaphorischem Sinne als „moral actors“ qualifiziert werden können. Am Beispiel des online-Experiments „moral machine“ des Media Labs des Massachusetts Institute of Technology Boston, das 40 Millionen Menschen aus allen Erdteilen moralische Dilemmata im Bereich des autonomen Fahrens entscheiden ließ, wird erörtert, inwieweit daraus im nicht-metaphorisch Sinne für digitale Maschinen ein nicht kulturrelativer Status als „moral actor“ begründet werden kann. Ich möchte der Frage nachgehen, ob moralische Maschinen (Rath 2018b), also Maschinen, die sich an vorgegebene normative Prinzipien halten, wie sie z.B. in Programmierungen solcher Maschinen festgelegt werden, zugleich als „moral actors” bezeichnet werden können. Der ethische Bezugspunkt ist die Nutzung digitaler Medien und Maschinen in einer demokratischen Gesellschaft. Welche moralischen Regeln sollen für die Konstruktion, Funktion und letztlich Nutzung dieser digitalen Maschinen gelten? Wer soll diese Regeln festlegen? Und sind diese dann jeweils kulturrelativ? Nun ist es keineswegs ethisch irrelevant, welche Voraussetzungen ein potentieller Akteur auf der Basis moralischer Regeln erfüllt. Das besondere 1 Dieser Beitrag ist die gekürzte Fassung einen Vortrags, gehalten im Rahmen der internationalen Konferenz „Media in Transition 10“ am Massachusetts Institute of Technology am 17. und 18. Mai 2019. Ich danke dem DAAD für die Unterstützung dieser Vortragsreise durch ein Kongressreisestipendium. 105 https://doi.org/10.5771/9783748905158-105 Generiert durch IP '207.241.231.83', am 14.12.2020, 03:45:34. Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig. an moralischen Regeln ist nämlich, dass sie gewichtige Voraussetzungen haben. Das Individuum, das diesen Regeln folgt, muss als Subjekt oder Person ausgezeichnet sein. Philosophie hat es sich bis ins 20. Jahrhundert hinein mit dieser Frage leicht gemacht. Subjekte und Personen waren einfach Menschen und nur Menschen. Unternehmen als moralische Akteure Diese einfache Gleichung ging aber schon seit dem 19. Jahrhundert nicht mehr auf. Deutlich wurde das zuerst im Wirtschaftssektor. Unternehmen wurden mehr und mehr von ihren Gründerinnen bzw. Gründern abgetrennt. Große Unternehmen waren quasi selbstständig geworden. Und im Alltagsverständnis wird Unternehmen auch moralische Verantwortung zugeschrieben: wir unterstellen ihnen Interessen, schreiben ihnen Entscheidungen zu und halten sie daher für die Folgen ihrer Handlungen für verantwortlich. Viele Wirtschaftsethiker haben daher versucht, dieses Problem dadurch zu lösen, dass sie Unternehmen wie „moralische Akteure“ betrachten (vgl. Enderle 1992; French 1995). Allerdings fehlen der Institution Unternehmen zwei grundlegende Kompetenzen, um ihr moralische Verantwortungsfähigkeit zuzuschreiben: ein individueller Wille und die Fähigkeit, Entscheidungen im Hinblick auf unterschiedliche Aspekte abzuwägen. Diese Fähigkeiten haben hingegen die Menschen in den Unternehmen. „Moralischer Akteur“ kann demnach nur als eine metaphorische Bezeichnung verstanden werden – im engeren moralischen Sinne sind verantwortlich nur die Menschen, die für das Unternehmen agieren. Vor diesem systematischen Hintergrund der applied ethics ist es sinnvoll, etwas aus ethischer Sicht zu der Frage zu sagen, ob wir auch Roboter oder digitale Maschinen i.w.S. als „moralische Akteure” verstehen könnten. Dies soll geschehen am Beispiel einer aktuellen Studie, die sehr viel Resonanz gefunden hat, das Moral Machine Experiment von Iyad Rahwan und seinem Team am Media Lab des Massachusetts Institute of Technology in Cambridge, MA (vgl. Moral Machine 2019). Das Moral Machine Experiment Dieses groß angelegte Online-Experiment hat viele interessante Aspekte. Einer der wichtigsten ist, dass wir in dieser Studie nachvollziehen können, 1.","PeriodicalId":431613,"journal":{"name":"Kommunikations- und Medienethik reloaded?","volume":"29 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"1","resultStr":"{\"title\":\"Sind „moral machines” kulturrelativ? Maschinenethische Anmerkungen zu einem psychologisch-informatischen Experiment\",\"authors\":\"M. Rath\",\"doi\":\"10.5771/9783748905158-105\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"Der Beitrag geht der Frage nach, ob „moral machines“, also digitale Maschinen, die eigenständig normativ Entscheidungen fällen, auch als moralische Akteure bezeichnet werden können. Die Rede von nicht-menschlichen moralischen Akteuren ist in der angewandten Ethik, z.B. der Wirtschaftsethik in Bezug auf Unternehmen, nicht ungewöhnlich. Diese Rede ist aber nur „metaphorisch“ (vgl. Enderle 1992) zu verstehen. Akteure i.e.S. sind hier die Mitarbeiter*innen eines Unternehmens. Für die Maschinenethik ist hingegen interessant, ob Maschinen in nicht-metaphorischem Sinne als „moral actors“ qualifiziert werden können. Am Beispiel des online-Experiments „moral machine“ des Media Labs des Massachusetts Institute of Technology Boston, das 40 Millionen Menschen aus allen Erdteilen moralische Dilemmata im Bereich des autonomen Fahrens entscheiden ließ, wird erörtert, inwieweit daraus im nicht-metaphorisch Sinne für digitale Maschinen ein nicht kulturrelativer Status als „moral actor“ begründet werden kann. Ich möchte der Frage nachgehen, ob moralische Maschinen (Rath 2018b), also Maschinen, die sich an vorgegebene normative Prinzipien halten, wie sie z.B. in Programmierungen solcher Maschinen festgelegt werden, zugleich als „moral actors” bezeichnet werden können. Der ethische Bezugspunkt ist die Nutzung digitaler Medien und Maschinen in einer demokratischen Gesellschaft. Welche moralischen Regeln sollen für die Konstruktion, Funktion und letztlich Nutzung dieser digitalen Maschinen gelten? Wer soll diese Regeln festlegen? Und sind diese dann jeweils kulturrelativ? Nun ist es keineswegs ethisch irrelevant, welche Voraussetzungen ein potentieller Akteur auf der Basis moralischer Regeln erfüllt. Das besondere 1 Dieser Beitrag ist die gekürzte Fassung einen Vortrags, gehalten im Rahmen der internationalen Konferenz „Media in Transition 10“ am Massachusetts Institute of Technology am 17. und 18. Mai 2019. Ich danke dem DAAD für die Unterstützung dieser Vortragsreise durch ein Kongressreisestipendium. 105 https://doi.org/10.5771/9783748905158-105 Generiert durch IP '207.241.231.83', am 14.12.2020, 03:45:34. Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig. an moralischen Regeln ist nämlich, dass sie gewichtige Voraussetzungen haben. Das Individuum, das diesen Regeln folgt, muss als Subjekt oder Person ausgezeichnet sein. Philosophie hat es sich bis ins 20. Jahrhundert hinein mit dieser Frage leicht gemacht. Subjekte und Personen waren einfach Menschen und nur Menschen. Unternehmen als moralische Akteure Diese einfache Gleichung ging aber schon seit dem 19. Jahrhundert nicht mehr auf. Deutlich wurde das zuerst im Wirtschaftssektor. Unternehmen wurden mehr und mehr von ihren Gründerinnen bzw. Gründern abgetrennt. Große Unternehmen waren quasi selbstständig geworden. Und im Alltagsverständnis wird Unternehmen auch moralische Verantwortung zugeschrieben: wir unterstellen ihnen Interessen, schreiben ihnen Entscheidungen zu und halten sie daher für die Folgen ihrer Handlungen für verantwortlich. Viele Wirtschaftsethiker haben daher versucht, dieses Problem dadurch zu lösen, dass sie Unternehmen wie „moralische Akteure“ betrachten (vgl. Enderle 1992; French 1995). Allerdings fehlen der Institution Unternehmen zwei grundlegende Kompetenzen, um ihr moralische Verantwortungsfähigkeit zuzuschreiben: ein individueller Wille und die Fähigkeit, Entscheidungen im Hinblick auf unterschiedliche Aspekte abzuwägen. Diese Fähigkeiten haben hingegen die Menschen in den Unternehmen. „Moralischer Akteur“ kann demnach nur als eine metaphorische Bezeichnung verstanden werden – im engeren moralischen Sinne sind verantwortlich nur die Menschen, die für das Unternehmen agieren. Vor diesem systematischen Hintergrund der applied ethics ist es sinnvoll, etwas aus ethischer Sicht zu der Frage zu sagen, ob wir auch Roboter oder digitale Maschinen i.w.S. als „moralische Akteure” verstehen könnten. Dies soll geschehen am Beispiel einer aktuellen Studie, die sehr viel Resonanz gefunden hat, das Moral Machine Experiment von Iyad Rahwan und seinem Team am Media Lab des Massachusetts Institute of Technology in Cambridge, MA (vgl. Moral Machine 2019). Das Moral Machine Experiment Dieses groß angelegte Online-Experiment hat viele interessante Aspekte. Einer der wichtigsten ist, dass wir in dieser Studie nachvollziehen können, 1.\",\"PeriodicalId\":431613,\"journal\":{\"name\":\"Kommunikations- und Medienethik reloaded?\",\"volume\":\"29 1\",\"pages\":\"0\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"1900-01-01\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"1\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Kommunikations- und Medienethik reloaded?\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.5771/9783748905158-105\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Kommunikations- und Medienethik reloaded?","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.5771/9783748905158-105","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 1

摘要

本文提出了一个问题:如果由独立决策的数字机器,是否能被称为道德行动者。谈论非人类道德行为者在应用道德规范(如商业道德)中并无不同之处。那一番话其实只是“比喻”。(懂行为体是一家公司的员工。然而,对工程伦理家来说,更有意思的是:在非象征性的意义上,机器是否有资格成为“道德行为行动者”。例证online-Experiments“道德机器”的波士顿麻省理工学院媒体实验室的这40万人开车从各种地方道德困境在自治方面的决定让它成为讨论在多大程度nicht-metaphorisch意义上的一个数字机器不能kulturrelativer道德地位“行动者”,可能会被其.我想探究一下是否能同时将符合标准标准的机器(Rath 2018b)称为“道德行为推动者”。道德的参照点是在民主社会中使用数字媒体和机器。如何适用于数字机器的设计、功能及最终使用的道德规则呢?谁来制定这些规则呢?然后是文化相对的吗?毕竟,基于道德规范的潜在参与者必须具备哪些条件并不是道德上无关紧要的。这篇特别的一篇是其精简版。和18 .2019年5 .我感谢DAAD通过大会之旅赞助这次演讲。105学都/5771 9976由IP ' 20724231,83产生。文档备份和传阅是无法接受的。你知道道德规则的意义是什么吗?遵循这些规则的个体必须是优秀的主体或个人。直到20岁都是哲学解决了21世纪的问题主体和人物只有人类由19世纪起这个简单的思考过程就开始了。没这么快很明显第一个出现的是…企业越来越与它们的创始人和创始人分离。大公司几乎自己创业。对生活的理解中,企业也有道义上的责任:我们暗示利益、命令、为自己的行为负责。因此,许多经济学家都试图解决这一问题,即把企业视为“道德参与者”。(Enderle 1992;法式1995).但该机构缺乏能够体现其道德责任的两种基本能力:个人意愿和权衡选择的能力。而这些技能是企业内部人才有的。”因此,“道德行为”只能被理解为一个隐喻——严格意义上讲,只有公司老板才负责。凭借这项普及道德技术的系统背景,就我们能够理解机器人或数字机器究竟是“道德活动家”这一问题制定出道德标准是有意义的。事实上,一个备受共鸣的最近研究的结果就是,Iyad Rahwan和他的团队在剑桥麻省理工学院媒体实验室的道德机器实验。(MA)道德机器(2019)这个大型的网络实验有很多有趣的方面。其中一个最重要的是在这项研究中我们能够倒过来
本文章由计算机程序翻译,如有差异,请以英文原文为准。
Sind „moral machines” kulturrelativ? Maschinenethische Anmerkungen zu einem psychologisch-informatischen Experiment
Der Beitrag geht der Frage nach, ob „moral machines“, also digitale Maschinen, die eigenständig normativ Entscheidungen fällen, auch als moralische Akteure bezeichnet werden können. Die Rede von nicht-menschlichen moralischen Akteuren ist in der angewandten Ethik, z.B. der Wirtschaftsethik in Bezug auf Unternehmen, nicht ungewöhnlich. Diese Rede ist aber nur „metaphorisch“ (vgl. Enderle 1992) zu verstehen. Akteure i.e.S. sind hier die Mitarbeiter*innen eines Unternehmens. Für die Maschinenethik ist hingegen interessant, ob Maschinen in nicht-metaphorischem Sinne als „moral actors“ qualifiziert werden können. Am Beispiel des online-Experiments „moral machine“ des Media Labs des Massachusetts Institute of Technology Boston, das 40 Millionen Menschen aus allen Erdteilen moralische Dilemmata im Bereich des autonomen Fahrens entscheiden ließ, wird erörtert, inwieweit daraus im nicht-metaphorisch Sinne für digitale Maschinen ein nicht kulturrelativer Status als „moral actor“ begründet werden kann. Ich möchte der Frage nachgehen, ob moralische Maschinen (Rath 2018b), also Maschinen, die sich an vorgegebene normative Prinzipien halten, wie sie z.B. in Programmierungen solcher Maschinen festgelegt werden, zugleich als „moral actors” bezeichnet werden können. Der ethische Bezugspunkt ist die Nutzung digitaler Medien und Maschinen in einer demokratischen Gesellschaft. Welche moralischen Regeln sollen für die Konstruktion, Funktion und letztlich Nutzung dieser digitalen Maschinen gelten? Wer soll diese Regeln festlegen? Und sind diese dann jeweils kulturrelativ? Nun ist es keineswegs ethisch irrelevant, welche Voraussetzungen ein potentieller Akteur auf der Basis moralischer Regeln erfüllt. Das besondere 1 Dieser Beitrag ist die gekürzte Fassung einen Vortrags, gehalten im Rahmen der internationalen Konferenz „Media in Transition 10“ am Massachusetts Institute of Technology am 17. und 18. Mai 2019. Ich danke dem DAAD für die Unterstützung dieser Vortragsreise durch ein Kongressreisestipendium. 105 https://doi.org/10.5771/9783748905158-105 Generiert durch IP '207.241.231.83', am 14.12.2020, 03:45:34. Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig. an moralischen Regeln ist nämlich, dass sie gewichtige Voraussetzungen haben. Das Individuum, das diesen Regeln folgt, muss als Subjekt oder Person ausgezeichnet sein. Philosophie hat es sich bis ins 20. Jahrhundert hinein mit dieser Frage leicht gemacht. Subjekte und Personen waren einfach Menschen und nur Menschen. Unternehmen als moralische Akteure Diese einfache Gleichung ging aber schon seit dem 19. Jahrhundert nicht mehr auf. Deutlich wurde das zuerst im Wirtschaftssektor. Unternehmen wurden mehr und mehr von ihren Gründerinnen bzw. Gründern abgetrennt. Große Unternehmen waren quasi selbstständig geworden. Und im Alltagsverständnis wird Unternehmen auch moralische Verantwortung zugeschrieben: wir unterstellen ihnen Interessen, schreiben ihnen Entscheidungen zu und halten sie daher für die Folgen ihrer Handlungen für verantwortlich. Viele Wirtschaftsethiker haben daher versucht, dieses Problem dadurch zu lösen, dass sie Unternehmen wie „moralische Akteure“ betrachten (vgl. Enderle 1992; French 1995). Allerdings fehlen der Institution Unternehmen zwei grundlegende Kompetenzen, um ihr moralische Verantwortungsfähigkeit zuzuschreiben: ein individueller Wille und die Fähigkeit, Entscheidungen im Hinblick auf unterschiedliche Aspekte abzuwägen. Diese Fähigkeiten haben hingegen die Menschen in den Unternehmen. „Moralischer Akteur“ kann demnach nur als eine metaphorische Bezeichnung verstanden werden – im engeren moralischen Sinne sind verantwortlich nur die Menschen, die für das Unternehmen agieren. Vor diesem systematischen Hintergrund der applied ethics ist es sinnvoll, etwas aus ethischer Sicht zu der Frage zu sagen, ob wir auch Roboter oder digitale Maschinen i.w.S. als „moralische Akteure” verstehen könnten. Dies soll geschehen am Beispiel einer aktuellen Studie, die sehr viel Resonanz gefunden hat, das Moral Machine Experiment von Iyad Rahwan und seinem Team am Media Lab des Massachusetts Institute of Technology in Cambridge, MA (vgl. Moral Machine 2019). Das Moral Machine Experiment Dieses groß angelegte Online-Experiment hat viele interessante Aspekte. Einer der wichtigsten ist, dass wir in dieser Studie nachvollziehen können, 1.
求助全文
通过发布文献求助,成功后即可免费获取论文全文。 去求助
来源期刊
自引率
0.00%
发文量
0
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术官方微信