{"title":"Vers un « modèle français » de régulation de l’intelligence artificielle fondé sur l’innovation sociale ?","authors":"Christine Chevret-Castellani, S. Labelle","doi":"10.4000/CTD.6195","DOIUrl":null,"url":null,"abstract":"Nous presentons dans cet article les resultats d’une enquete sur les politiques publiques de regulation de l’intelligence artificielle et en particulier sur les strategies mises en œuvre dans des cadres socio-politiques aux echelles nationales, europeennes et internationales. La France a cree des instances dans lesquels des « frottements » entre acteurs differents sont possibles, comme les groupes d’experts ou le Partenariat Mondial sur l’Intelligence Artificielle. Nous considerons que le travail de la part de l’ensemble des groupes sociaux, impliques dans les instances que nous observons, est consubstantiel a la regulation. Les acteurs publics et prives s’organisent pour echanger et interagir de facon structuree, notamment par la mise en place de ces instances, comme le PMIA. Les dispositifs et instruments, auxquels les differents acteurs participent, contribuent a conferer un sens aux activites de regulation. Notre hypothese repose sur l’emergence d’un « modele francais » de la regulation qui tend a promouvoir la « confiance » et dont le sens est de parvenir a l’acceptabilite sociale de l’IA.","PeriodicalId":205253,"journal":{"name":"Communication, technologies et développement","volume":"15 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2021-05-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Communication, technologies et développement","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.4000/CTD.6195","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0
Abstract
Nous presentons dans cet article les resultats d’une enquete sur les politiques publiques de regulation de l’intelligence artificielle et en particulier sur les strategies mises en œuvre dans des cadres socio-politiques aux echelles nationales, europeennes et internationales. La France a cree des instances dans lesquels des « frottements » entre acteurs differents sont possibles, comme les groupes d’experts ou le Partenariat Mondial sur l’Intelligence Artificielle. Nous considerons que le travail de la part de l’ensemble des groupes sociaux, impliques dans les instances que nous observons, est consubstantiel a la regulation. Les acteurs publics et prives s’organisent pour echanger et interagir de facon structuree, notamment par la mise en place de ces instances, comme le PMIA. Les dispositifs et instruments, auxquels les differents acteurs participent, contribuent a conferer un sens aux activites de regulation. Notre hypothese repose sur l’emergence d’un « modele francais » de la regulation qui tend a promouvoir la « confiance » et dont le sens est de parvenir a l’acceptabilite sociale de l’IA.
在这篇文章中,我们展示了一项关于人工智能监管公共政策的调查结果,特别是在国家、欧洲和国际层面的社会政治框架内实施的战略。法国已经建立了一些机构,可以让不同的参与者之间产生“摩擦”,比如专家组或人工智能全球伙伴关系(global partnership on artificial intelligence)。我们认为,参与我们所观察的机构的所有社会团体的工作与规章是不可分割的。公共和私人行为体组织起来,以结构化的方式进行交流和互动,特别是通过建立PMIA等机构。不同参与者参与的机制和工具有助于赋予监管活动意义。我们的假设是基于一种旨在促进“信任”的监管“法国模式”的出现,其意义是实现人工智能的社会可接受性。