Caveat usor: Vertrauen und epistemische Wachsamkeit gegenüber künstlicher Intelligenz

Rico Hauswald
{"title":"Caveat usor: Vertrauen und epistemische Wachsamkeit gegenüber künstlicher Intelligenz","authors":"Rico Hauswald","doi":"10.22613/zfpp/11.1.15","DOIUrl":null,"url":null,"abstract":"Die aktuelle Diskussion zu künstlicher Intelligenz und Vertrauen ist einerseits durch etwas geprägt, was man „Vertrauens-Enthusiasmus“ nennen könnte. Dabei wird Vertrauen als eine Einstellung konzeptualisiert, die wir gegenüber KI-Systemen prinzipiell ausbilden können und – sofern und sobald diese Systeme entsprechend ausgereift sind – auch ausbilden sollten. Auf der anderen Seite wird diese Verwendungsweise des Vertrauens-Begriffs in einem signifikanten Teil der philosophischen Literatur mit großer Skepsis betrachtet. Zwei der in diesem Zusammenhang maßgeblichen Argumente lauten, erstens, dass ein Vertrauen in KI-Systeme nicht mit der für diese Systeme charakteristischen Intransparenz kompatibel sei, und zweitens, dass es auf eine Art Kategorienfehler hinauslaufe, zu sagen, man könne solchen Systemen „vertrauen“. Ich möchte in diesem Aufsatz für die Auffassung argumentieren, dass sowohl die enthusiastische als auch die skeptische Position problematisch sind. Gegen die skeptische Position wende ich ein, dass weder das Intransparenz- noch das Kategorienfehler-Argument letztlich überzeugen, und argumentiere, dass es zumindest eine natürliche Verwendungsweise des Vertrauensbegriffs gibt – Vertrauen als Haltung des Nicht-Hinterfragens –, die auch auf die Beziehung zu KI-Systemen angewandt werden kann. Andererseits wende ich gegen den Vertrauens-Enthusiasmus ein, dass dieser ein zu unkritisches Bild von Vertrauen zeichnet und dazu tendiert, dessen Risiken und Schattenseiten zu vernachlässigen. Ich setze dem enthusiastischen Bild das Prinzip Caveat usor entgegen und argumentiert, dass vernünftig dosiertes Vertrauen in KI-Systeme stets mit epistemischer Wachsamkeit einhergehen sollte.","PeriodicalId":194298,"journal":{"name":"Zeitschrift für Praktische Philosophie","volume":"125 13","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2024-07-23","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Zeitschrift für Praktische Philosophie","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.22613/zfpp/11.1.15","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

Die aktuelle Diskussion zu künstlicher Intelligenz und Vertrauen ist einerseits durch etwas geprägt, was man „Vertrauens-Enthusiasmus“ nennen könnte. Dabei wird Vertrauen als eine Einstellung konzeptualisiert, die wir gegenüber KI-Systemen prinzipiell ausbilden können und – sofern und sobald diese Systeme entsprechend ausgereift sind – auch ausbilden sollten. Auf der anderen Seite wird diese Verwendungsweise des Vertrauens-Begriffs in einem signifikanten Teil der philosophischen Literatur mit großer Skepsis betrachtet. Zwei der in diesem Zusammenhang maßgeblichen Argumente lauten, erstens, dass ein Vertrauen in KI-Systeme nicht mit der für diese Systeme charakteristischen Intransparenz kompatibel sei, und zweitens, dass es auf eine Art Kategorienfehler hinauslaufe, zu sagen, man könne solchen Systemen „vertrauen“. Ich möchte in diesem Aufsatz für die Auffassung argumentieren, dass sowohl die enthusiastische als auch die skeptische Position problematisch sind. Gegen die skeptische Position wende ich ein, dass weder das Intransparenz- noch das Kategorienfehler-Argument letztlich überzeugen, und argumentiere, dass es zumindest eine natürliche Verwendungsweise des Vertrauensbegriffs gibt – Vertrauen als Haltung des Nicht-Hinterfragens –, die auch auf die Beziehung zu KI-Systemen angewandt werden kann. Andererseits wende ich gegen den Vertrauens-Enthusiasmus ein, dass dieser ein zu unkritisches Bild von Vertrauen zeichnet und dazu tendiert, dessen Risiken und Schattenseiten zu vernachlässigen. Ich setze dem enthusiastischen Bild das Prinzip Caveat usor entgegen und argumentiert, dass vernünftig dosiertes Vertrauen in KI-Systeme stets mit epistemischer Wachsamkeit einhergehen sollte.
注意:对人工智能的信任和认识论警惕性
当前关于人工智能和信任的讨论,一方面可以称之为 "信任热情"。信任在概念上被认为是我们原则上可以对人工智能系统形成的一种态度,而且--如果这些系统适当成熟--也应该形成这种态度。另一方面,相当一部分哲学文献对信任概念的使用持怀疑态度。这方面的两个主要论点是:第一,对人工智能系统的信任与这些系统缺乏透明度的特点不相容;第二,说这些系统可以 "被信任 "是一种类别错误。在这篇文章中,我想论证的观点是,热情的立场和怀疑的立场都是有问题的。针对怀疑论的立场,我认为不透明论证和范畴错误论证最终都不能令人信服,并认为信任概念至少有一种自然的用法--信任是一种不问问题的态度--也可以适用于与人工智能系统的关系。另一方面,我反对对信任的热情,因为这种热情过于不加批判地描绘信任,往往忽视了信任的风险和弊端。我用 "告诫 "原则来反驳这种热情,并认为对人工智能系统的合理信任应始终与认识论上的警惕并行不悖。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
自引率
0.00%
发文量
0
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术官方微信