{"title":"Les biais de l’IA : enjeux et précautions pour une prise de décision éthique et fiable en santé","authors":"Edouard Lansiaux","doi":"10.1016/j.pxur.2025.02.001","DOIUrl":null,"url":null,"abstract":"<div><div>Cet article traite de l’intelligence artificielle (IA) dans le domaine des soins de santé, en se concentrant sur ses applications et perspectives actuelles en médecine de catastrophe. L’IA est utilisée pour le diagnostic précoce, la prévision des maladies, l’optimisation des ressources, la détection des catastrophes en temps réel et l’amélioration du tri des victimes et du transport autonome. Ces innovations offrent un potentiel important pour améliorer les soins de santé et la réponse aux situations critiques. Cependant, l’IA est confrontée à d’importantes limites, notamment des biais qui peuvent influencer la précision et l’efficacité du système. Ces biais peuvent provenir des données utilisées, de la conception algorithmique ou encore de la manière dont les technologies sont intégrées. Par exemple, la sélection ou l’étiquetage des données peuvent limiter la capacité des modèles à généraliser, tandis que les biais algorithmiques peuvent conduire à des résultats inadéquats. Une utilisation inadéquate des outils, une confiance excessive dans les recommandations de l’IA ou une mauvaise compréhension des résultats peuvent également poser des problèmes. Ces biais sont également influencés par des facteurs institutionnels, sociaux, éthiques ou réglementaires. Citons par exemple le conflit ukrainien, où des outils open source ont été utilisés pour détecter des événements radiologiques via les réseaux sociaux, un système de traitement des chocs traumatiques, un système de pilotage de drones de ravitaillement en sang ou encore un modèle générant des comptes rendus d’opérations humanitaires. Pour minimiser ces biais, il est nécessaire de diversifier les données, de mettre à jour les modèles, d’auditer régulièrement les algorithmes, d’impliquer des experts médicaux et de former les utilisateurs. L’objectif est d’assurer une IA transparente, adaptable et contextualisée tout en conservant un regard critique pour une utilisation éthique et efficace dans les situations d’urgence.</div></div><div><div>This article discusses artificial intelligence (AI) in the field of healthcare, focusing on its current applications and perspectives in disaster medicine. AI is used for early diagnosis, disease prediction, resource optimization, real-time disaster detection, and improved victim triage and autonomous transport. These innovations offer significant potential for improving healthcare and response to critical situations. However, AI faces significant limitations, including biases that can influence system precision and efficiency. These biases can arise from the data used, algorithmic conception, or the way technologies are integrated. For example, selection or labeling in data can limit the ability of models to generalize, while algorithmic biases can lead to inadequate results. Inadequate tool use, excessive trust in AI recommendations, or poor understanding of results can also pose problems. These biases are also influenced by institutional, social, ethical, or regulatory factors. Examples include the Ukrainian conflict, where open-source tools were used to detect radiological events through social networks, a system for treating traumatic shocks, an automatic drone in order to deliver blood and a feedback model for humanitarian operation. To minimize these biases, it is necessary to diversify data, update models, regularly audit algorithms, involve medical experts, and train users. The goal is to ensure a transparent, adaptable, and contextualized AI while maintaining a critical view for ethical and effective use in emergency situations.</div></div>","PeriodicalId":100904,"journal":{"name":"Médecine de Catastrophe - Urgences Collectives","volume":"9 2","pages":"Pages 96-100"},"PeriodicalIF":0.0000,"publicationDate":"2025-06-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Médecine de Catastrophe - Urgences Collectives","FirstCategoryId":"1085","ListUrlMain":"https://www.sciencedirect.com/science/article/pii/S1279847925000163","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0
Abstract
Cet article traite de l’intelligence artificielle (IA) dans le domaine des soins de santé, en se concentrant sur ses applications et perspectives actuelles en médecine de catastrophe. L’IA est utilisée pour le diagnostic précoce, la prévision des maladies, l’optimisation des ressources, la détection des catastrophes en temps réel et l’amélioration du tri des victimes et du transport autonome. Ces innovations offrent un potentiel important pour améliorer les soins de santé et la réponse aux situations critiques. Cependant, l’IA est confrontée à d’importantes limites, notamment des biais qui peuvent influencer la précision et l’efficacité du système. Ces biais peuvent provenir des données utilisées, de la conception algorithmique ou encore de la manière dont les technologies sont intégrées. Par exemple, la sélection ou l’étiquetage des données peuvent limiter la capacité des modèles à généraliser, tandis que les biais algorithmiques peuvent conduire à des résultats inadéquats. Une utilisation inadéquate des outils, une confiance excessive dans les recommandations de l’IA ou une mauvaise compréhension des résultats peuvent également poser des problèmes. Ces biais sont également influencés par des facteurs institutionnels, sociaux, éthiques ou réglementaires. Citons par exemple le conflit ukrainien, où des outils open source ont été utilisés pour détecter des événements radiologiques via les réseaux sociaux, un système de traitement des chocs traumatiques, un système de pilotage de drones de ravitaillement en sang ou encore un modèle générant des comptes rendus d’opérations humanitaires. Pour minimiser ces biais, il est nécessaire de diversifier les données, de mettre à jour les modèles, d’auditer régulièrement les algorithmes, d’impliquer des experts médicaux et de former les utilisateurs. L’objectif est d’assurer une IA transparente, adaptable et contextualisée tout en conservant un regard critique pour une utilisation éthique et efficace dans les situations d’urgence.
This article discusses artificial intelligence (AI) in the field of healthcare, focusing on its current applications and perspectives in disaster medicine. AI is used for early diagnosis, disease prediction, resource optimization, real-time disaster detection, and improved victim triage and autonomous transport. These innovations offer significant potential for improving healthcare and response to critical situations. However, AI faces significant limitations, including biases that can influence system precision and efficiency. These biases can arise from the data used, algorithmic conception, or the way technologies are integrated. For example, selection or labeling in data can limit the ability of models to generalize, while algorithmic biases can lead to inadequate results. Inadequate tool use, excessive trust in AI recommendations, or poor understanding of results can also pose problems. These biases are also influenced by institutional, social, ethical, or regulatory factors. Examples include the Ukrainian conflict, where open-source tools were used to detect radiological events through social networks, a system for treating traumatic shocks, an automatic drone in order to deliver blood and a feedback model for humanitarian operation. To minimize these biases, it is necessary to diversify data, update models, regularly audit algorithms, involve medical experts, and train users. The goal is to ensure a transparent, adaptable, and contextualized AI while maintaining a critical view for ethical and effective use in emergency situations.
本文讨论了人工智能(AI)在医疗保健领域的应用,重点关注其在灾难医学中的应用和当前前景。人工智能是用来预测疾病的早期诊断,优化资源,实时检测灾害自主和改善受害者的分拣和运输。这些创新为改善卫生保健和应对紧急情况提供了巨大潜力。但人工智能面临着重大限制,包括可能影响系统准确性和有效性的偏见。这些偏差可能来自使用数据的算法设计,或者是如何被整合技术。例如,数据的选择或标签可能会限制模型的概括能力,而算法偏见可能会导致不充分的结果。对工具的使用不当、过度自信在人工智能的建议还是一个坏结果的理解也可能带来问题。这些偏差也受到体制因素、社会、伦理或监管。例如乌克兰冲突,那里的开源工具被用来探测放射性事件通过社交媒体,一个创伤的处理系统、无人机飞行控制系统补给血液或者一个模型产生人道主义行动记录。为尽量减少这些偏差,必须多样化,数据更新算法模型,定期进行审计,让医疗专家和用户进行培训。其目标是确保透明、适应性强和情境化的人工智能,同时对其在紧急情况下的道德和有效使用保持批判性的眼光。本文讨论了医疗保健领域的人工智能(AI),重点关注其在灾难医学中的当前应用和前景。AI用于早期诊断、疾病预测、资源优化、实时灾害检测、改进受害者分诊和自主运输。这些创新为改善医疗保健和应对紧急情况提供了巨大的潜力。然而,人工智能面临着重大的局限性,包括可能影响系统精度和效率的偏见。These使得adc rise from the data used, algorithmic、金are the way)技术的综合设计。adc选择法院判定,但是labeling in data极限,while the ability of models to generalize algorithmic使得can lead to inadequate results。Inadequate工具使用,过度trust in AI)的建议》,然而poor results can also问问题的了解。这些偏见也受到制度、社会、伦理或监管因素的影响。例如,在乌克兰冲突中,开源工具被用于通过社交网络检测放射事件,一个治疗创伤性休克的系统,一个运送血液的自动无人机,以及一个人道主义行动的反馈模型。为了最大限度地减少使得这些实验中,it is To diversify数据审核、更新模型,下午好algorithm,颤抖的医学专家,与火车users。The goal is to称透明了,适应力强,and a critical独立国contextualized AI同时促进道德和实际使用view中的紧急情况。