Does the Implementation of Competency-Based Medical Education Impact the Quality of Narrative Feedback? A Retrospective Analysis of Assessment Data in a Canadian Internal Medicine Residency Program

Allison Brown, Devon Currie, Megan Mercia, M. Mintz, Karen Fruetel, A. Kassam
{"title":"Does the Implementation of Competency-Based Medical Education Impact the Quality of Narrative Feedback? A Retrospective Analysis of Assessment Data in a Canadian Internal Medicine Residency Program","authors":"Allison Brown, Devon Currie, Megan Mercia, M. Mintz, Karen Fruetel, A. Kassam","doi":"10.22374/cjgim.v17i4.640","DOIUrl":null,"url":null,"abstract":"\n\n\nBackground: As training programs implement competency-based models of training oriented around entrustable professional activities (EPAs), the role of traditional assessment tools remains unclear. While rating scales remain emphasized, few empirical studies have explored the utility of narrative comments between methods and models of training.\nObjective: Compare the quality of narrative comments between in-training evaluation reports (ITERs) and workplace-based assessments (WBAs) of EPAs before and after the formal implementation of a competencybased model of training.\nMethods: Retrospective analysis of assessment data from 77 residents in the core Internal Medicine (IM) residency program at the University of Calgary between 2015 and 2020, including data collected during a 2-year pilot of WBAs before the official launch of Competency by Design on July 1, 2019. The quality of narrative comments from 2,928 EPAs and 3,608 ITERs was analyzed using the standardized Completed Clinical Evaluation Report Rating (CCERR).\nResults: CCERR scores were higher on EPAs than ITERs [F (26,213) = 210, MSE = 4,541, p < 0.001, η2 = 0.064]. CCERR scores for EPAs decreased slightly upon formal implementation of Competence by Design but remained higher than the CCERR scores for ITERs completed at that period of time.\nConclusions: The quality of narrative comments may be higher on EPAs than traditional ITER evaluations. While programmatic assessment requires the use of multiple tools and methods, programs must consider whether such methods lead to complementarity or redundancy.\nRésumé\nContexte: Alors que les programmes de formation mettent en œuvre des modèles de formation axés sur les compétences et orientés en fonction des activités professionnelles confiables (APC), le rôle des outils d’évaluation traditionnels reste flou. Si les échelles de notation restent privilégiées, peu d’études empiriques explorent l’utilité des commentaires narratifs entre les méthodes et les modèles de formation.\nObjectif: Comparer la qualité des commentaires narratifs entre les fiches d’évaluation en cours de formation (FECF) et les évaluations des APC sur le lieu de travail avant et après la mise en œuvre officielle d’un modèle de formation axé sur les compétences.\nMéthodologie: Analyse rétrospective des données d’évaluation de 77 résidents du programme de résidence en médecine interne tronc commun de l’Université de Calgary entre 2015 et 2020, comprenant les données recueillies au cours d’un projet pilote de deux ans d’évaluations en milieu de travail avant le lancement officiel de l’initiative La compétence par conception, le 1er juillet 2019. La qualité des commentaires narratifs de 2,928 APC et de 3,608 FECF a été analysée à l’aide du Completed Clinical Evaluation Report Rating (CCERR) normalisé.\nRésultats: Les scores du CCERR sont plus élevés pour les APC que pour les FECF [F (26,213) = 210, rétroac-tion multisources = 4,541, p < 0.001, η2 = 0.064]. Les scores du CCERR pour les APC diminuent légèrement au moment de la mise en œuvre officielle de l’initiative La compétence par conception, mais demeurent plus élevés que ceux pour les FECF effectuées à cette période.\nConclusions: La qualité des commentaires narratifs serait meilleure pour les APC que pour les FECF traditionnelles. Bien que l’évaluation des programmes nécessite l’utilisation de multiples outils et méthodes, les programmes doivent se demander si l’utilisation de telles méthodes se veut complémentaire ou redondante.\n\n\n","PeriodicalId":9379,"journal":{"name":"Canadian Journal of General Internal Medicine","volume":"59 1","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2022-11-24","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Canadian Journal of General Internal Medicine","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.22374/cjgim.v17i4.640","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

Background: As training programs implement competency-based models of training oriented around entrustable professional activities (EPAs), the role of traditional assessment tools remains unclear. While rating scales remain emphasized, few empirical studies have explored the utility of narrative comments between methods and models of training. Objective: Compare the quality of narrative comments between in-training evaluation reports (ITERs) and workplace-based assessments (WBAs) of EPAs before and after the formal implementation of a competencybased model of training. Methods: Retrospective analysis of assessment data from 77 residents in the core Internal Medicine (IM) residency program at the University of Calgary between 2015 and 2020, including data collected during a 2-year pilot of WBAs before the official launch of Competency by Design on July 1, 2019. The quality of narrative comments from 2,928 EPAs and 3,608 ITERs was analyzed using the standardized Completed Clinical Evaluation Report Rating (CCERR). Results: CCERR scores were higher on EPAs than ITERs [F (26,213) = 210, MSE = 4,541, p < 0.001, η2 = 0.064]. CCERR scores for EPAs decreased slightly upon formal implementation of Competence by Design but remained higher than the CCERR scores for ITERs completed at that period of time. Conclusions: The quality of narrative comments may be higher on EPAs than traditional ITER evaluations. While programmatic assessment requires the use of multiple tools and methods, programs must consider whether such methods lead to complementarity or redundancy. Résumé Contexte: Alors que les programmes de formation mettent en œuvre des modèles de formation axés sur les compétences et orientés en fonction des activités professionnelles confiables (APC), le rôle des outils d’évaluation traditionnels reste flou. Si les échelles de notation restent privilégiées, peu d’études empiriques explorent l’utilité des commentaires narratifs entre les méthodes et les modèles de formation. Objectif: Comparer la qualité des commentaires narratifs entre les fiches d’évaluation en cours de formation (FECF) et les évaluations des APC sur le lieu de travail avant et après la mise en œuvre officielle d’un modèle de formation axé sur les compétences. Méthodologie: Analyse rétrospective des données d’évaluation de 77 résidents du programme de résidence en médecine interne tronc commun de l’Université de Calgary entre 2015 et 2020, comprenant les données recueillies au cours d’un projet pilote de deux ans d’évaluations en milieu de travail avant le lancement officiel de l’initiative La compétence par conception, le 1er juillet 2019. La qualité des commentaires narratifs de 2,928 APC et de 3,608 FECF a été analysée à l’aide du Completed Clinical Evaluation Report Rating (CCERR) normalisé. Résultats: Les scores du CCERR sont plus élevés pour les APC que pour les FECF [F (26,213) = 210, rétroac-tion multisources = 4,541, p < 0.001, η2 = 0.064]. Les scores du CCERR pour les APC diminuent légèrement au moment de la mise en œuvre officielle de l’initiative La compétence par conception, mais demeurent plus élevés que ceux pour les FECF effectuées à cette période. Conclusions: La qualité des commentaires narratifs serait meilleure pour les APC que pour les FECF traditionnelles. Bien que l’évaluation des programmes nécessite l’utilisation de multiples outils et méthodes, les programmes doivent se demander si l’utilisation de telles méthodes se veut complémentaire ou redondante.
实施能力本位医学教育是否影响叙事反馈的质量?加拿大内科住院医师项目评估数据的回顾性分析
背景:随着培训计划实施以能力为基础的培训模式,以可信赖的专业活动(EPAs)为导向,传统评估工具的作用仍然不明确。虽然评价量表仍然被强调,但很少有实证研究探索了训练方法和模型之间叙事评论的效用。目的:比较正式实施能力本位培训模式前后环境保护人员培训内评价报告(ITERs)和工作场所评价(WBAs)的叙述性评价质量。方法:回顾性分析2015年至2020年卡尔加里大学核心内科(IM)住院医师项目77名住院医师的评估数据,包括在2019年7月1日正式启动能力设计之前为期2年的wba试点期间收集的数据。使用标准化的临床评价报告评分(CCERR)对2928名EPAs和3608名公升的叙述性评论的质量进行分析。结果:EPAs组CCERR评分高于iter组[F (26,213) = 210, MSE = 4,541, p < 0.001, η2 = 0.064]。在正式实施设计能力后,EPAs的CCERR分数略有下降,但仍高于同期完成的iter的CCERR分数。结论:EPAs的叙述性评价质量可能高于传统的ITER评价。虽然规划评估需要使用多种工具和方法,但规划必须考虑这些方法是否会导致互补或冗余。背景: ··················································如果一个人有特权,那么他就有特权;如果一个人有经验,他就有功利;如果一个人有评论,他就有叙述,他就有特权。前言:目的:比较《职业生涯评价法》、《职业生涯评价法》、《职业生涯评价法》、《职业生涯评价法》、《职业生涯评价法》、《职业生涯评价法》、《职业生涯评价法》和《职业生涯评价法》的比较。msm方法:在卡尔加里大学2015年和2020年中心和2020年期间,分析了1977年与2015年和2020年期间的msm方法,并分析了2015年和2020年期间的msm方法,以及在2019年6月1日与2019年6月1日举行的msm方法会议上的msm方法和msm方法,以及在2019年6月1日举行的msm方法会议上的msm方法和msm方法。《质量评价报告》叙述了2928例APC和3608例FECF,并对已完成的临床评估报告评级(CCERR)进行了分析。rs: Les scores du CCERR sont + cv + cv + cv [F (26,213) = 210, rs + cv = 4541, p < 0.001, η2 = 0.064]。在这一过程中,所有的人都被认为是成功的。在这一过程中,所有的人都被认为是成功的。结论:《评评质量》叙述了APC和FECF的传统叙述。请注意,如果你的方案中使用的是不同的模数,那么你的方案中使用的是不同的模数,如果你的方案中使用的是不同的模数,那么你的方案中使用的是不同的模数,而不是不同的模数。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 求助全文
来源期刊
自引率
0.00%
发文量
0
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
确定
请完成安全验证×
copy
已复制链接
快去分享给好友吧!
我知道了
右上角分享
点击右上角分享
0
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信