PERCEPTION IMAGES AND CONCEPTUALIZATION OF ANTHROPOLOGICAL CHALLENGES OF ARTIFICIAL INTELLIGENCE

Татьяна Александровна Сидорова
{"title":"PERCEPTION IMAGES AND CONCEPTUALIZATION OF ANTHROPOLOGICAL CHALLENGES OF ARTIFICIAL INTELLIGENCE","authors":"Татьяна Александровна Сидорова","doi":"10.23951/2312-7899-2024-1-102-119","DOIUrl":null,"url":null,"abstract":"В статье артикулируются антропологические вызовы искусственного интеллекта (ИИ) в модусе концептуализации и восприятия рисков и угроз, благ и выгод, происходящих от новой технологии. Образы антропологических вызов находят разные формы репрезентации в научных концептах и философской рефлексии, в визуализациях в современных видах искусства, в компьютерных играх, кинематографе, институционализированы в правилах этических руководств. Все они могут быть рассмотрены как поиск ответов на проблематизацию человека, его субъектности, целостности, открытости, которые подвергаются риску в технологиях ИИ. Образы восприятия канализированы в позиции в отношении к ИИ и одновременно определяются практиками его широкого внедрения. Концепт ИИ формируется в лексическом топосе осмысления цивилизационного вызова. Понятие «искусственный интеллект» превращается в метафору широкого порядка, порождающую множественные концептуальные модификации. Концепт ИИ, соединяя метафорическое и понятийное, выполняет функцию «оестествления», «опривычивания» технологии. Особенностью в обобщении позиций в отношении к искусственному интеллекту является их нелинейность и целевое формирование. Рассмотрены три варианта оформления образов антропологических вызовов ИИ: алармистский, инструменталистский (профессиональный) и утилитарный (пользовательский). Коллективный ответ на антропологические вызовы ИИ вероятно будет строиться на утилитарно-прагматической основе, концептуально и институционально репрезентированный в этическом регулировании. Для нивелирования антропологических рисков действенными могут быть индивидуальные ответы на основе самосохраняющей стратегии и когнитивной гигиены, начиная со сферы образования. Разработка правил и процедур такой сохраняющей стратегии – задача, которая встает в контексте развития ИИ. Гуманитарная экспертиза нейросетей может стать частью этой стратегии. \n The challenges of artificial intelligence are considered from the methodological basis of bioethical analysis of anthropological risks and threats posed by new technologies. Society exhibits a cautious attitude towards artificial intelligence technology. Anthropological challenges of artificial intelligence represent a problematic situation regarding the complexity of assessing the benefits and harms, adequate awareness of the risks and threats of new technology to humans. It is necessary to conceptually outline the anthropological challenges of AI, drawing on images of AI perception represented in art and cinema, in ethical rules, philosophical reflection, and scientific concepts. In the projection of various definitions, artificial intelligence becomes a metaphor that serves as a source of creative conceptualizations of new technology. Images of AI are identified through conceptualization, visualization, and institutionalization of risks and correspond to specific types of attitudes towards innovation in society. The peculiarity of AI perception images, both in the forms of conceptualization and in the visual or institutional objectification of these images in ethical codes, is their active and purposeful formation. Analogous to the regulation of biotechnologies, normatively conceptualized positions regarding new technologies are divided into conservative - restrictive and prohibitive; liberal - welcoming innovations; and moderate - compromising, which often becomes the basis for ethical and legal regulation. However, sociological surveys show that those who welcome the emergence of neural networks, the widespread use of artificial intelligence, also exhibit caution and uncertainty in assessing the human future. A three-part typology of perception images of anthropological challenges is proposed, in which non-linear opposition of positions towards AI is fixed, but vectors of possible ways of habituating and semiotization of the future are outlined. The first, alarmist type, is distinguished based on an emotionally evaluative attitude. New technologies are seen as redundant, causing alarm and fear. The second type of perception, instrumentalist, is characteristic of AI actors within a professionally formed worldview. Some concepts of the professional thesaurus become common parlance. The third type is user-oriented. For this type, it is important how the interaction between AI and humans unfolds. The collective response to the anthropological challenges of AI is more likely to be formed on a utilitarian-pragmatic basis. Effective responses may be based on an individual self-preservation strategy, which, for example, may require adherence to cognitive hygiene in the field of education. In the context of AI development, the task arises of developing rules and procedures for such a preservation strategy.","PeriodicalId":514733,"journal":{"name":"ΠΡΑΞΗMΑ. Journal of Visual Semiotics","volume":"4 2","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2024-03-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"ΠΡΑΞΗMΑ. Journal of Visual Semiotics","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.23951/2312-7899-2024-1-102-119","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

В статье артикулируются антропологические вызовы искусственного интеллекта (ИИ) в модусе концептуализации и восприятия рисков и угроз, благ и выгод, происходящих от новой технологии. Образы антропологических вызов находят разные формы репрезентации в научных концептах и философской рефлексии, в визуализациях в современных видах искусства, в компьютерных играх, кинематографе, институционализированы в правилах этических руководств. Все они могут быть рассмотрены как поиск ответов на проблематизацию человека, его субъектности, целостности, открытости, которые подвергаются риску в технологиях ИИ. Образы восприятия канализированы в позиции в отношении к ИИ и одновременно определяются практиками его широкого внедрения. Концепт ИИ формируется в лексическом топосе осмысления цивилизационного вызова. Понятие «искусственный интеллект» превращается в метафору широкого порядка, порождающую множественные концептуальные модификации. Концепт ИИ, соединяя метафорическое и понятийное, выполняет функцию «оестествления», «опривычивания» технологии. Особенностью в обобщении позиций в отношении к искусственному интеллекту является их нелинейность и целевое формирование. Рассмотрены три варианта оформления образов антропологических вызовов ИИ: алармистский, инструменталистский (профессиональный) и утилитарный (пользовательский). Коллективный ответ на антропологические вызовы ИИ вероятно будет строиться на утилитарно-прагматической основе, концептуально и институционально репрезентированный в этическом регулировании. Для нивелирования антропологических рисков действенными могут быть индивидуальные ответы на основе самосохраняющей стратегии и когнитивной гигиены, начиная со сферы образования. Разработка правил и процедур такой сохраняющей стратегии – задача, которая встает в контексте развития ИИ. Гуманитарная экспертиза нейросетей может стать частью этой стратегии. The challenges of artificial intelligence are considered from the methodological basis of bioethical analysis of anthropological risks and threats posed by new technologies. Society exhibits a cautious attitude towards artificial intelligence technology. Anthropological challenges of artificial intelligence represent a problematic situation regarding the complexity of assessing the benefits and harms, adequate awareness of the risks and threats of new technology to humans. It is necessary to conceptually outline the anthropological challenges of AI, drawing on images of AI perception represented in art and cinema, in ethical rules, philosophical reflection, and scientific concepts. In the projection of various definitions, artificial intelligence becomes a metaphor that serves as a source of creative conceptualizations of new technology. Images of AI are identified through conceptualization, visualization, and institutionalization of risks and correspond to specific types of attitudes towards innovation in society. The peculiarity of AI perception images, both in the forms of conceptualization and in the visual or institutional objectification of these images in ethical codes, is their active and purposeful formation. Analogous to the regulation of biotechnologies, normatively conceptualized positions regarding new technologies are divided into conservative - restrictive and prohibitive; liberal - welcoming innovations; and moderate - compromising, which often becomes the basis for ethical and legal regulation. However, sociological surveys show that those who welcome the emergence of neural networks, the widespread use of artificial intelligence, also exhibit caution and uncertainty in assessing the human future. A three-part typology of perception images of anthropological challenges is proposed, in which non-linear opposition of positions towards AI is fixed, but vectors of possible ways of habituating and semiotization of the future are outlined. The first, alarmist type, is distinguished based on an emotionally evaluative attitude. New technologies are seen as redundant, causing alarm and fear. The second type of perception, instrumentalist, is characteristic of AI actors within a professionally formed worldview. Some concepts of the professional thesaurus become common parlance. The third type is user-oriented. For this type, it is important how the interaction between AI and humans unfolds. The collective response to the anthropological challenges of AI is more likely to be formed on a utilitarian-pragmatic basis. Effective responses may be based on an individual self-preservation strategy, which, for example, may require adherence to cognitive hygiene in the field of education. In the context of AI development, the task arises of developing rules and procedures for such a preservation strategy.
人工智能人类学挑战的感知图像和概念化
文章阐述了人工智能(AI)在概念化模式和对新技术的风险与威胁、益处与优势的认知方面所面临的人类学挑战。人类学挑战的形象在科学概念和哲学思考、当代艺术形式的视觉化、电脑游戏、电影制作、伦理准则的制度化中都有不同的表现形式。所有这些都可以被看作是在寻找人类问题的答案,人类的主体性、完整性和开放性在人工智能技术中岌岌可危。感知的图像被转化为对人工智能的态度,同时也被其广泛应用的实践所定义。人工智能的概念是在对文明挑战的理解中形成的。人工智能 "的概念变成了一个广义的隐喻,产生了多种概念修饰。人工智能概念结合了隐喻和概念,实现了技术 "对象化 "和 "习惯化 "的功能。与人工智能有关的立场概括的特殊性在于其非线性和目标的形成。我们考虑了人工智能对人类学挑战的三种形象塑造方式:危言耸听、工具主义(专业)和功利主义(用户)。对人工智能人类学挑战的集体反应很可能建立在功利实用主义的基础上,在概念上和制度上体现为伦理规范。从教育入手,基于自我保护策略和认知卫生的个人应对措施可以有效降低人类学风险。为这种保护策略制定规则和程序是人工智能发展过程中面临的一项挑战。神经网络的人道主义专门知识可以成为这一战略的一部分。 人工智能的挑战是从对新技术带来的人类学风险和威胁进行生物伦理分析的方法论基础上考虑的。社会对人工智能技术持谨慎态度。人工智能对人类学的挑战是一个问题,涉及评估新技术对人类的益处和害处的复杂性,以及充分认识新技术对人类的风险和威胁。有必要借鉴艺术和电影、伦理规则、哲学思考和科学概念中的人工智能感知形象,从概念上概述人工智能的人类学挑战。在各种定义的投射下,人工智能成为一种隐喻,成为新技术创造性概念化的源泉。人工智能的形象是通过将风险概念化、视觉化和制度化而确定的,并与社会中对创新的特定类型的态度相对应。无论是在概念化形式上,还是在伦理规范中将这些形象视觉化或制度化的过程中,人工智能感知形象的特殊性都在于其积极和有目的的形成。与生物技术的监管类似,关于新技术的规范概念化立场分为保守派--限制和禁止;自由派--欢迎创新;温和派--妥协,这往往成为伦理和法律监管的基础。然而,社会学调查显示,那些对神经网络的出现、人工智能的广泛应用表示欢迎的人,在评估人类未来时也表现出谨慎和不确定性。本文提出了人类学挑战感知图像的三部分类型,其中固定了对人工智能的非线性对立立场,但概述了未来习惯化和符号化的可能方式载体。第一种是危言耸听型,以情绪化的评价态度为基础。新技术被认为是多余的,会引起恐慌和恐惧。第二种类型的认知,即工具主义,是人工智能参与者在专业形成的世界观中的特征。专业词库中的一些概念成为常用术语。第三种类型是用户导向型。对这一类型而言,人工智能与人类之间的互动如何展开非常重要。对人工智能人类学挑战的集体回应更有可能是在功利实用主义的基础上形成的。有效的应对措施可能基于个人的自我保护策略,例如,这可能需要在教育领域遵守认知卫生。在人工智能发展的背景下,出现了为这种保护战略制定规则和程序的任务。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
自引率
0.00%
发文量
0
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信