{"title":"Superinteligence a problém kontroly: Skutečný problém nebo pseudo-problém?","authors":"Jaroslav Malík","doi":"10.26806/fd.v13i2.343","DOIUrl":null,"url":null,"abstract":"V tomto článku se zabývám konceptem SI (superinteligence) a s ní spojeným problémem kontroly. Podle určité skupiny teoretiků umělé inteligence stojíme na prahu události, která může radikálně změnit povahu technologického pokroku a lidské společnosti obecně. Touto událostí má být takzvaná technologická singularita, která je často spojována se vznikem první větší než lidské inteligence. Lidé jako Nick Bostrom varují před nebezpečím, které pro nás vznik SI znamená a upozorňují, že musíme co nejdříve najít metody kontroly této inteligence. Podle Bostroma a dalších nebezpečí SI vyplývá z její povahy. Já na jedné straně posuzuji, jak SI může vzniknout, a na druhé straně soudím smysluplnost problému kontroly. Vznik SI vyplývá ze vzniku umělé inteligence. Proto soustřeďuji podstatnou část textu argumentům pro její vznik. Ukazují jak se Bostrom a další nechávají unést jedním problematickým argumentem. Dále podrobuji jejich pozici klasické kritice umělé inteligence. Prezentuji, jak stále lpí na problematických domněnkách svých předchůdců. Zejména soustřeďuji svoji kritiku na tvrzení, že SI bude mít jeden konečný cíl, který bude interpretovat. Toto tvrzení označuji jako antitetické, a to představě, že SI bude obecnou inteligencí. V závěru z mojí argumentace vyvozuji, že problém kontroly zaměňuje dva jiné různé problémy „kontroly.“","PeriodicalId":277222,"journal":{"name":"FILOSOFIE DNES","volume":"32 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2021-12-22","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"FILOSOFIE DNES","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.26806/fd.v13i2.343","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0
摘要
在本文中,我将讨论超级智能(SI)的概念和相关的控制问题。根据某些人工智能理论家的观点,我们正处在一个可能从根本上改变技术进步和整个人类社会性质的事件的门槛上。这一事件被认为是所谓的技术奇点,通常与第一个超越人类的智能的出现联系在一起。尼克-博斯特罗姆(Nick Bostrom)等人警告说,奇点的出现会给我们带来危险,并指出我们必须尽快找到控制这种智能的方法。博斯特罗姆等人认为,人工智能的危险源于其本质。我一方面判断 SI 如何产生,另一方面判断控制问题的意义。SI 的出现源于人工智能的出现。因此,我在文中集中大量篇幅论述了人工智能出现的论据。他们展示了博斯特罗姆和其他人是如何被一个有问题的论点所迷惑的。然后,我将他们的立场置于对人工智能的经典批判之下。我介绍了他们如何仍然坚持其前辈的有问题的假设。特别是,我把批判的重点放在人工智能将有一个终极目标的说法上。我将这一说法与 "人工智能将是一种通用智能 "的观点对立起来。我的结论是,控制问题混淆了两个不同的 "控制 "问题。
Superinteligence a problém kontroly: Skutečný problém nebo pseudo-problém?
V tomto článku se zabývám konceptem SI (superinteligence) a s ní spojeným problémem kontroly. Podle určité skupiny teoretiků umělé inteligence stojíme na prahu události, která může radikálně změnit povahu technologického pokroku a lidské společnosti obecně. Touto událostí má být takzvaná technologická singularita, která je často spojována se vznikem první větší než lidské inteligence. Lidé jako Nick Bostrom varují před nebezpečím, které pro nás vznik SI znamená a upozorňují, že musíme co nejdříve najít metody kontroly této inteligence. Podle Bostroma a dalších nebezpečí SI vyplývá z její povahy. Já na jedné straně posuzuji, jak SI může vzniknout, a na druhé straně soudím smysluplnost problému kontroly. Vznik SI vyplývá ze vzniku umělé inteligence. Proto soustřeďuji podstatnou část textu argumentům pro její vznik. Ukazují jak se Bostrom a další nechávají unést jedním problematickým argumentem. Dále podrobuji jejich pozici klasické kritice umělé inteligence. Prezentuji, jak stále lpí na problematických domněnkách svých předchůdců. Zejména soustřeďuji svoji kritiku na tvrzení, že SI bude mít jeden konečný cíl, který bude interpretovat. Toto tvrzení označuji jako antitetické, a to představě, že SI bude obecnou inteligencí. V závěru z mojí argumentace vyvozuji, že problém kontroly zaměňuje dva jiné různé problémy „kontroly.“