{"title":"道德观相对于文明吗?一项心理信息实验的工程道德评论","authors":"M. Rath","doi":"10.5771/9783748905158-105","DOIUrl":null,"url":null,"abstract":"Der Beitrag geht der Frage nach, ob „moral machines“, also digitale Maschinen, die eigenständig normativ Entscheidungen fällen, auch als moralische Akteure bezeichnet werden können. Die Rede von nicht-menschlichen moralischen Akteuren ist in der angewandten Ethik, z.B. der Wirtschaftsethik in Bezug auf Unternehmen, nicht ungewöhnlich. Diese Rede ist aber nur „metaphorisch“ (vgl. Enderle 1992) zu verstehen. Akteure i.e.S. sind hier die Mitarbeiter*innen eines Unternehmens. Für die Maschinenethik ist hingegen interessant, ob Maschinen in nicht-metaphorischem Sinne als „moral actors“ qualifiziert werden können. Am Beispiel des online-Experiments „moral machine“ des Media Labs des Massachusetts Institute of Technology Boston, das 40 Millionen Menschen aus allen Erdteilen moralische Dilemmata im Bereich des autonomen Fahrens entscheiden ließ, wird erörtert, inwieweit daraus im nicht-metaphorisch Sinne für digitale Maschinen ein nicht kulturrelativer Status als „moral actor“ begründet werden kann. Ich möchte der Frage nachgehen, ob moralische Maschinen (Rath 2018b), also Maschinen, die sich an vorgegebene normative Prinzipien halten, wie sie z.B. in Programmierungen solcher Maschinen festgelegt werden, zugleich als „moral actors” bezeichnet werden können. Der ethische Bezugspunkt ist die Nutzung digitaler Medien und Maschinen in einer demokratischen Gesellschaft. Welche moralischen Regeln sollen für die Konstruktion, Funktion und letztlich Nutzung dieser digitalen Maschinen gelten? Wer soll diese Regeln festlegen? Und sind diese dann jeweils kulturrelativ? Nun ist es keineswegs ethisch irrelevant, welche Voraussetzungen ein potentieller Akteur auf der Basis moralischer Regeln erfüllt. Das besondere 1 Dieser Beitrag ist die gekürzte Fassung einen Vortrags, gehalten im Rahmen der internationalen Konferenz „Media in Transition 10“ am Massachusetts Institute of Technology am 17. und 18. Mai 2019. Ich danke dem DAAD für die Unterstützung dieser Vortragsreise durch ein Kongressreisestipendium. 105 https://doi.org/10.5771/9783748905158-105 Generiert durch IP '207.241.231.83', am 14.12.2020, 03:45:34. Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig. an moralischen Regeln ist nämlich, dass sie gewichtige Voraussetzungen haben. Das Individuum, das diesen Regeln folgt, muss als Subjekt oder Person ausgezeichnet sein. Philosophie hat es sich bis ins 20. Jahrhundert hinein mit dieser Frage leicht gemacht. Subjekte und Personen waren einfach Menschen und nur Menschen. Unternehmen als moralische Akteure Diese einfache Gleichung ging aber schon seit dem 19. Jahrhundert nicht mehr auf. Deutlich wurde das zuerst im Wirtschaftssektor. Unternehmen wurden mehr und mehr von ihren Gründerinnen bzw. Gründern abgetrennt. Große Unternehmen waren quasi selbstständig geworden. Und im Alltagsverständnis wird Unternehmen auch moralische Verantwortung zugeschrieben: wir unterstellen ihnen Interessen, schreiben ihnen Entscheidungen zu und halten sie daher für die Folgen ihrer Handlungen für verantwortlich. Viele Wirtschaftsethiker haben daher versucht, dieses Problem dadurch zu lösen, dass sie Unternehmen wie „moralische Akteure“ betrachten (vgl. Enderle 1992; French 1995). Allerdings fehlen der Institution Unternehmen zwei grundlegende Kompetenzen, um ihr moralische Verantwortungsfähigkeit zuzuschreiben: ein individueller Wille und die Fähigkeit, Entscheidungen im Hinblick auf unterschiedliche Aspekte abzuwägen. Diese Fähigkeiten haben hingegen die Menschen in den Unternehmen. „Moralischer Akteur“ kann demnach nur als eine metaphorische Bezeichnung verstanden werden – im engeren moralischen Sinne sind verantwortlich nur die Menschen, die für das Unternehmen agieren. Vor diesem systematischen Hintergrund der applied ethics ist es sinnvoll, etwas aus ethischer Sicht zu der Frage zu sagen, ob wir auch Roboter oder digitale Maschinen i.w.S. als „moralische Akteure” verstehen könnten. Dies soll geschehen am Beispiel einer aktuellen Studie, die sehr viel Resonanz gefunden hat, das Moral Machine Experiment von Iyad Rahwan und seinem Team am Media Lab des Massachusetts Institute of Technology in Cambridge, MA (vgl. Moral Machine 2019). Das Moral Machine Experiment Dieses groß angelegte Online-Experiment hat viele interessante Aspekte. Einer der wichtigsten ist, dass wir in dieser Studie nachvollziehen können, 1.","PeriodicalId":431613,"journal":{"name":"Kommunikations- und Medienethik reloaded?","volume":"29 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"1","resultStr":"{\"title\":\"Sind „moral machines” kulturrelativ? Maschinenethische Anmerkungen zu einem psychologisch-informatischen Experiment\",\"authors\":\"M. Rath\",\"doi\":\"10.5771/9783748905158-105\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"Der Beitrag geht der Frage nach, ob „moral machines“, also digitale Maschinen, die eigenständig normativ Entscheidungen fällen, auch als moralische Akteure bezeichnet werden können. Die Rede von nicht-menschlichen moralischen Akteuren ist in der angewandten Ethik, z.B. der Wirtschaftsethik in Bezug auf Unternehmen, nicht ungewöhnlich. Diese Rede ist aber nur „metaphorisch“ (vgl. Enderle 1992) zu verstehen. Akteure i.e.S. sind hier die Mitarbeiter*innen eines Unternehmens. Für die Maschinenethik ist hingegen interessant, ob Maschinen in nicht-metaphorischem Sinne als „moral actors“ qualifiziert werden können. Am Beispiel des online-Experiments „moral machine“ des Media Labs des Massachusetts Institute of Technology Boston, das 40 Millionen Menschen aus allen Erdteilen moralische Dilemmata im Bereich des autonomen Fahrens entscheiden ließ, wird erörtert, inwieweit daraus im nicht-metaphorisch Sinne für digitale Maschinen ein nicht kulturrelativer Status als „moral actor“ begründet werden kann. Ich möchte der Frage nachgehen, ob moralische Maschinen (Rath 2018b), also Maschinen, die sich an vorgegebene normative Prinzipien halten, wie sie z.B. in Programmierungen solcher Maschinen festgelegt werden, zugleich als „moral actors” bezeichnet werden können. Der ethische Bezugspunkt ist die Nutzung digitaler Medien und Maschinen in einer demokratischen Gesellschaft. Welche moralischen Regeln sollen für die Konstruktion, Funktion und letztlich Nutzung dieser digitalen Maschinen gelten? Wer soll diese Regeln festlegen? Und sind diese dann jeweils kulturrelativ? Nun ist es keineswegs ethisch irrelevant, welche Voraussetzungen ein potentieller Akteur auf der Basis moralischer Regeln erfüllt. Das besondere 1 Dieser Beitrag ist die gekürzte Fassung einen Vortrags, gehalten im Rahmen der internationalen Konferenz „Media in Transition 10“ am Massachusetts Institute of Technology am 17. und 18. Mai 2019. Ich danke dem DAAD für die Unterstützung dieser Vortragsreise durch ein Kongressreisestipendium. 105 https://doi.org/10.5771/9783748905158-105 Generiert durch IP '207.241.231.83', am 14.12.2020, 03:45:34. Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig. an moralischen Regeln ist nämlich, dass sie gewichtige Voraussetzungen haben. Das Individuum, das diesen Regeln folgt, muss als Subjekt oder Person ausgezeichnet sein. Philosophie hat es sich bis ins 20. Jahrhundert hinein mit dieser Frage leicht gemacht. Subjekte und Personen waren einfach Menschen und nur Menschen. Unternehmen als moralische Akteure Diese einfache Gleichung ging aber schon seit dem 19. Jahrhundert nicht mehr auf. Deutlich wurde das zuerst im Wirtschaftssektor. Unternehmen wurden mehr und mehr von ihren Gründerinnen bzw. Gründern abgetrennt. Große Unternehmen waren quasi selbstständig geworden. Und im Alltagsverständnis wird Unternehmen auch moralische Verantwortung zugeschrieben: wir unterstellen ihnen Interessen, schreiben ihnen Entscheidungen zu und halten sie daher für die Folgen ihrer Handlungen für verantwortlich. Viele Wirtschaftsethiker haben daher versucht, dieses Problem dadurch zu lösen, dass sie Unternehmen wie „moralische Akteure“ betrachten (vgl. Enderle 1992; French 1995). Allerdings fehlen der Institution Unternehmen zwei grundlegende Kompetenzen, um ihr moralische Verantwortungsfähigkeit zuzuschreiben: ein individueller Wille und die Fähigkeit, Entscheidungen im Hinblick auf unterschiedliche Aspekte abzuwägen. Diese Fähigkeiten haben hingegen die Menschen in den Unternehmen. „Moralischer Akteur“ kann demnach nur als eine metaphorische Bezeichnung verstanden werden – im engeren moralischen Sinne sind verantwortlich nur die Menschen, die für das Unternehmen agieren. Vor diesem systematischen Hintergrund der applied ethics ist es sinnvoll, etwas aus ethischer Sicht zu der Frage zu sagen, ob wir auch Roboter oder digitale Maschinen i.w.S. als „moralische Akteure” verstehen könnten. Dies soll geschehen am Beispiel einer aktuellen Studie, die sehr viel Resonanz gefunden hat, das Moral Machine Experiment von Iyad Rahwan und seinem Team am Media Lab des Massachusetts Institute of Technology in Cambridge, MA (vgl. Moral Machine 2019). Das Moral Machine Experiment Dieses groß angelegte Online-Experiment hat viele interessante Aspekte. Einer der wichtigsten ist, dass wir in dieser Studie nachvollziehen können, 1.\",\"PeriodicalId\":431613,\"journal\":{\"name\":\"Kommunikations- und Medienethik reloaded?\",\"volume\":\"29 1\",\"pages\":\"0\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"1900-01-01\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"1\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Kommunikations- und Medienethik reloaded?\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.5771/9783748905158-105\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Kommunikations- und Medienethik reloaded?","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.5771/9783748905158-105","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
Sind „moral machines” kulturrelativ? Maschinenethische Anmerkungen zu einem psychologisch-informatischen Experiment
Der Beitrag geht der Frage nach, ob „moral machines“, also digitale Maschinen, die eigenständig normativ Entscheidungen fällen, auch als moralische Akteure bezeichnet werden können. Die Rede von nicht-menschlichen moralischen Akteuren ist in der angewandten Ethik, z.B. der Wirtschaftsethik in Bezug auf Unternehmen, nicht ungewöhnlich. Diese Rede ist aber nur „metaphorisch“ (vgl. Enderle 1992) zu verstehen. Akteure i.e.S. sind hier die Mitarbeiter*innen eines Unternehmens. Für die Maschinenethik ist hingegen interessant, ob Maschinen in nicht-metaphorischem Sinne als „moral actors“ qualifiziert werden können. Am Beispiel des online-Experiments „moral machine“ des Media Labs des Massachusetts Institute of Technology Boston, das 40 Millionen Menschen aus allen Erdteilen moralische Dilemmata im Bereich des autonomen Fahrens entscheiden ließ, wird erörtert, inwieweit daraus im nicht-metaphorisch Sinne für digitale Maschinen ein nicht kulturrelativer Status als „moral actor“ begründet werden kann. Ich möchte der Frage nachgehen, ob moralische Maschinen (Rath 2018b), also Maschinen, die sich an vorgegebene normative Prinzipien halten, wie sie z.B. in Programmierungen solcher Maschinen festgelegt werden, zugleich als „moral actors” bezeichnet werden können. Der ethische Bezugspunkt ist die Nutzung digitaler Medien und Maschinen in einer demokratischen Gesellschaft. Welche moralischen Regeln sollen für die Konstruktion, Funktion und letztlich Nutzung dieser digitalen Maschinen gelten? Wer soll diese Regeln festlegen? Und sind diese dann jeweils kulturrelativ? Nun ist es keineswegs ethisch irrelevant, welche Voraussetzungen ein potentieller Akteur auf der Basis moralischer Regeln erfüllt. Das besondere 1 Dieser Beitrag ist die gekürzte Fassung einen Vortrags, gehalten im Rahmen der internationalen Konferenz „Media in Transition 10“ am Massachusetts Institute of Technology am 17. und 18. Mai 2019. Ich danke dem DAAD für die Unterstützung dieser Vortragsreise durch ein Kongressreisestipendium. 105 https://doi.org/10.5771/9783748905158-105 Generiert durch IP '207.241.231.83', am 14.12.2020, 03:45:34. Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig. an moralischen Regeln ist nämlich, dass sie gewichtige Voraussetzungen haben. Das Individuum, das diesen Regeln folgt, muss als Subjekt oder Person ausgezeichnet sein. Philosophie hat es sich bis ins 20. Jahrhundert hinein mit dieser Frage leicht gemacht. Subjekte und Personen waren einfach Menschen und nur Menschen. Unternehmen als moralische Akteure Diese einfache Gleichung ging aber schon seit dem 19. Jahrhundert nicht mehr auf. Deutlich wurde das zuerst im Wirtschaftssektor. Unternehmen wurden mehr und mehr von ihren Gründerinnen bzw. Gründern abgetrennt. Große Unternehmen waren quasi selbstständig geworden. Und im Alltagsverständnis wird Unternehmen auch moralische Verantwortung zugeschrieben: wir unterstellen ihnen Interessen, schreiben ihnen Entscheidungen zu und halten sie daher für die Folgen ihrer Handlungen für verantwortlich. Viele Wirtschaftsethiker haben daher versucht, dieses Problem dadurch zu lösen, dass sie Unternehmen wie „moralische Akteure“ betrachten (vgl. Enderle 1992; French 1995). Allerdings fehlen der Institution Unternehmen zwei grundlegende Kompetenzen, um ihr moralische Verantwortungsfähigkeit zuzuschreiben: ein individueller Wille und die Fähigkeit, Entscheidungen im Hinblick auf unterschiedliche Aspekte abzuwägen. Diese Fähigkeiten haben hingegen die Menschen in den Unternehmen. „Moralischer Akteur“ kann demnach nur als eine metaphorische Bezeichnung verstanden werden – im engeren moralischen Sinne sind verantwortlich nur die Menschen, die für das Unternehmen agieren. Vor diesem systematischen Hintergrund der applied ethics ist es sinnvoll, etwas aus ethischer Sicht zu der Frage zu sagen, ob wir auch Roboter oder digitale Maschinen i.w.S. als „moralische Akteure” verstehen könnten. Dies soll geschehen am Beispiel einer aktuellen Studie, die sehr viel Resonanz gefunden hat, das Moral Machine Experiment von Iyad Rahwan und seinem Team am Media Lab des Massachusetts Institute of Technology in Cambridge, MA (vgl. Moral Machine 2019). Das Moral Machine Experiment Dieses groß angelegte Online-Experiment hat viele interessante Aspekte. Einer der wichtigsten ist, dass wir in dieser Studie nachvollziehen können, 1.