Thomas Rotthoff , Urte Fahron , Thomas Baehring , Werner A. Scherbaum
{"title":"医疗培训中的巧克力题目的质量——一项实证研究","authors":"Thomas Rotthoff , Urte Fahron , Thomas Baehring , Werner A. Scherbaum","doi":"10.1016/j.zgesun.2007.11.005","DOIUrl":null,"url":null,"abstract":"<div><h3>Einleitung</h3><p>Mit der Änderung der ärztlichen Fortbildungsverpflichtungen ist ein deutlicher Anstieg an zertifizierten Fortbildungsangeboten (CME) zu verzeichnen. Eine Möglichkeit, Fortbildungspunkte zu erlangen, ist die strukturierte Fortbildung über Printmedien mit Erfolgskontrolle. International wird CME zunehmend auf den messbaren Nutzen für den Patienten ausgerichtet. Eine vergleichende Bewertung der Qualität und Praxisorientierung von Fortbildungsangeboten ist notwendig.</p></div><div><h3>Methode</h3><p>Für eine vergleichende Bewertung wurden 200 Items von 20 Fortbildungseinheiten aus vier deutschen renommierten Fachzeitschriften begutachtet. Kriterien waren die Lernziele sowie die Itemkonstruktion, Autorenvorgaben und Fragenqualität. Die Begutachtung der Items erfolgte unabhängig durch zwei in Itemerstellung und Review geschulten und geübten Personen. Die Analysen der beiden Gutachter wurden verglichen und eventuelle Abweichungen gemeinsam diskutiert.</p></div><div><h3>Ergebnisse</h3><p>In allen Fortbildungseinheiten fanden sich Schwächen in der Fragenformulierung. Bei 52% der Items fehlte eine klare Fragestellung und alle Fortbildungseinheiten enthielten Items mit versteckten Lösungshinweisen. Nur bei 10% der Fragen war eine Fallvignette mit einem klinischen Szenario vorangestellt und nur 14,5% der Items fragten nach einer konkreten klinischen Entscheidung.</p></div><div><h3>Schlussfolgerung</h3><p>Die CME-Fragen der ausgewählten Fachzeitschriften zeigen Schwächen in der Formulierung und prüfen überwiegend Faktenwissen. Verlagsabhängige Unterschiede sind erkennbar und lassen Rückschlüsse auf die Vorgaben an die Autoren zu. Der bisherige Prozess von Fragenerstellung und Review ist unzureichend. Die Berücksichtigung internationaler Standards bei der Fragenerstellung könnte zu einer Qualitätsverbesserung führen, die zugleich eine Übertragung der gelernten Inhalte auf eine konkrete klinische Behandlungssituation impliziert und damit den Anwendungsbezug der Fortbildung erhöht.</p></div><div><h3>Introduction</h3><p>Changes in physician-training requirements have led to a significant increase in continuing medical education (CME) courses. Structured CME courses based on print media in combination with outcome evaluation offers one opportunity for earning credit points. On the international stage, CME courses are increasingly directed towards measurable patient benefit. Comparative assessment of quality and practical orientation in training courses is required.</p></div><div><h3>Method</h3><p>Two hundred items in twenty training units from four established German medical journals were analysed for comparison-based evaluation. The criteria applied were training goals, as well as item construction, authors’ requirements and question quality. The items were analyzed independently by two persons trained and experienced in preparing and reviewing items. The analyses from the two assessors were then compared, and any deviations were subjected to mutual consultation.</p></div><div><h3>Results</h3><p>Question formulation showed weaknesses in all the training units. In 52% of the items a clear question was lacking, and all of the training units contained items with concealed hints indicating the correct answer. Only 10% of the questions were preceded by a cameo case study presenting a clinical scenario, and only 14.5% of the items asked for a correct clinical decision.</p></div><div><h3>Conclusion</h3><p>The CME questions from the medical journals selected show weaknesses in formulation, and mostly tested factual knowledge. Differences were revealed between publishing houses yielding insights into the requirements made of the authors by the publishers. The question preparation process is still deficient. Adherence to international standards in item construction may lead to an improvement in quality, which would also enhance the implicit transferability of content learned to actual clinical situations, thus improving the practical usefulness of training courses.</p></div>","PeriodicalId":79544,"journal":{"name":"Zeitschrift fur arztliche Fortbildung und Qualitatssicherung","volume":"101 10","pages":"Pages 667-673"},"PeriodicalIF":0.0000,"publicationDate":"2008-01-17","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"https://sci-hub-pdf.com/10.1016/j.zgesun.2007.11.005","citationCount":"7","resultStr":"{\"title\":\"Die Qualität von CME-Fragen in der ärztlichen Fortbildung – eine empirische Studie\",\"authors\":\"Thomas Rotthoff , Urte Fahron , Thomas Baehring , Werner A. Scherbaum\",\"doi\":\"10.1016/j.zgesun.2007.11.005\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"<div><h3>Einleitung</h3><p>Mit der Änderung der ärztlichen Fortbildungsverpflichtungen ist ein deutlicher Anstieg an zertifizierten Fortbildungsangeboten (CME) zu verzeichnen. Eine Möglichkeit, Fortbildungspunkte zu erlangen, ist die strukturierte Fortbildung über Printmedien mit Erfolgskontrolle. International wird CME zunehmend auf den messbaren Nutzen für den Patienten ausgerichtet. Eine vergleichende Bewertung der Qualität und Praxisorientierung von Fortbildungsangeboten ist notwendig.</p></div><div><h3>Methode</h3><p>Für eine vergleichende Bewertung wurden 200 Items von 20 Fortbildungseinheiten aus vier deutschen renommierten Fachzeitschriften begutachtet. Kriterien waren die Lernziele sowie die Itemkonstruktion, Autorenvorgaben und Fragenqualität. Die Begutachtung der Items erfolgte unabhängig durch zwei in Itemerstellung und Review geschulten und geübten Personen. Die Analysen der beiden Gutachter wurden verglichen und eventuelle Abweichungen gemeinsam diskutiert.</p></div><div><h3>Ergebnisse</h3><p>In allen Fortbildungseinheiten fanden sich Schwächen in der Fragenformulierung. Bei 52% der Items fehlte eine klare Fragestellung und alle Fortbildungseinheiten enthielten Items mit versteckten Lösungshinweisen. Nur bei 10% der Fragen war eine Fallvignette mit einem klinischen Szenario vorangestellt und nur 14,5% der Items fragten nach einer konkreten klinischen Entscheidung.</p></div><div><h3>Schlussfolgerung</h3><p>Die CME-Fragen der ausgewählten Fachzeitschriften zeigen Schwächen in der Formulierung und prüfen überwiegend Faktenwissen. Verlagsabhängige Unterschiede sind erkennbar und lassen Rückschlüsse auf die Vorgaben an die Autoren zu. Der bisherige Prozess von Fragenerstellung und Review ist unzureichend. Die Berücksichtigung internationaler Standards bei der Fragenerstellung könnte zu einer Qualitätsverbesserung führen, die zugleich eine Übertragung der gelernten Inhalte auf eine konkrete klinische Behandlungssituation impliziert und damit den Anwendungsbezug der Fortbildung erhöht.</p></div><div><h3>Introduction</h3><p>Changes in physician-training requirements have led to a significant increase in continuing medical education (CME) courses. Structured CME courses based on print media in combination with outcome evaluation offers one opportunity for earning credit points. On the international stage, CME courses are increasingly directed towards measurable patient benefit. Comparative assessment of quality and practical orientation in training courses is required.</p></div><div><h3>Method</h3><p>Two hundred items in twenty training units from four established German medical journals were analysed for comparison-based evaluation. The criteria applied were training goals, as well as item construction, authors’ requirements and question quality. The items were analyzed independently by two persons trained and experienced in preparing and reviewing items. The analyses from the two assessors were then compared, and any deviations were subjected to mutual consultation.</p></div><div><h3>Results</h3><p>Question formulation showed weaknesses in all the training units. In 52% of the items a clear question was lacking, and all of the training units contained items with concealed hints indicating the correct answer. Only 10% of the questions were preceded by a cameo case study presenting a clinical scenario, and only 14.5% of the items asked for a correct clinical decision.</p></div><div><h3>Conclusion</h3><p>The CME questions from the medical journals selected show weaknesses in formulation, and mostly tested factual knowledge. Differences were revealed between publishing houses yielding insights into the requirements made of the authors by the publishers. The question preparation process is still deficient. Adherence to international standards in item construction may lead to an improvement in quality, which would also enhance the implicit transferability of content learned to actual clinical situations, thus improving the practical usefulness of training courses.</p></div>\",\"PeriodicalId\":79544,\"journal\":{\"name\":\"Zeitschrift fur arztliche Fortbildung und Qualitatssicherung\",\"volume\":\"101 10\",\"pages\":\"Pages 667-673\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2008-01-17\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"https://sci-hub-pdf.com/10.1016/j.zgesun.2007.11.005\",\"citationCount\":\"7\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Zeitschrift fur arztliche Fortbildung und Qualitatssicherung\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://www.sciencedirect.com/science/article/pii/S1431762107002886\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Zeitschrift fur arztliche Fortbildung und Qualitatssicherung","FirstCategoryId":"1085","ListUrlMain":"https://www.sciencedirect.com/science/article/pii/S1431762107002886","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
Die Qualität von CME-Fragen in der ärztlichen Fortbildung – eine empirische Studie
Einleitung
Mit der Änderung der ärztlichen Fortbildungsverpflichtungen ist ein deutlicher Anstieg an zertifizierten Fortbildungsangeboten (CME) zu verzeichnen. Eine Möglichkeit, Fortbildungspunkte zu erlangen, ist die strukturierte Fortbildung über Printmedien mit Erfolgskontrolle. International wird CME zunehmend auf den messbaren Nutzen für den Patienten ausgerichtet. Eine vergleichende Bewertung der Qualität und Praxisorientierung von Fortbildungsangeboten ist notwendig.
Methode
Für eine vergleichende Bewertung wurden 200 Items von 20 Fortbildungseinheiten aus vier deutschen renommierten Fachzeitschriften begutachtet. Kriterien waren die Lernziele sowie die Itemkonstruktion, Autorenvorgaben und Fragenqualität. Die Begutachtung der Items erfolgte unabhängig durch zwei in Itemerstellung und Review geschulten und geübten Personen. Die Analysen der beiden Gutachter wurden verglichen und eventuelle Abweichungen gemeinsam diskutiert.
Ergebnisse
In allen Fortbildungseinheiten fanden sich Schwächen in der Fragenformulierung. Bei 52% der Items fehlte eine klare Fragestellung und alle Fortbildungseinheiten enthielten Items mit versteckten Lösungshinweisen. Nur bei 10% der Fragen war eine Fallvignette mit einem klinischen Szenario vorangestellt und nur 14,5% der Items fragten nach einer konkreten klinischen Entscheidung.
Schlussfolgerung
Die CME-Fragen der ausgewählten Fachzeitschriften zeigen Schwächen in der Formulierung und prüfen überwiegend Faktenwissen. Verlagsabhängige Unterschiede sind erkennbar und lassen Rückschlüsse auf die Vorgaben an die Autoren zu. Der bisherige Prozess von Fragenerstellung und Review ist unzureichend. Die Berücksichtigung internationaler Standards bei der Fragenerstellung könnte zu einer Qualitätsverbesserung führen, die zugleich eine Übertragung der gelernten Inhalte auf eine konkrete klinische Behandlungssituation impliziert und damit den Anwendungsbezug der Fortbildung erhöht.
Introduction
Changes in physician-training requirements have led to a significant increase in continuing medical education (CME) courses. Structured CME courses based on print media in combination with outcome evaluation offers one opportunity for earning credit points. On the international stage, CME courses are increasingly directed towards measurable patient benefit. Comparative assessment of quality and practical orientation in training courses is required.
Method
Two hundred items in twenty training units from four established German medical journals were analysed for comparison-based evaluation. The criteria applied were training goals, as well as item construction, authors’ requirements and question quality. The items were analyzed independently by two persons trained and experienced in preparing and reviewing items. The analyses from the two assessors were then compared, and any deviations were subjected to mutual consultation.
Results
Question formulation showed weaknesses in all the training units. In 52% of the items a clear question was lacking, and all of the training units contained items with concealed hints indicating the correct answer. Only 10% of the questions were preceded by a cameo case study presenting a clinical scenario, and only 14.5% of the items asked for a correct clinical decision.
Conclusion
The CME questions from the medical journals selected show weaknesses in formulation, and mostly tested factual knowledge. Differences were revealed between publishing houses yielding insights into the requirements made of the authors by the publishers. The question preparation process is still deficient. Adherence to international standards in item construction may lead to an improvement in quality, which would also enhance the implicit transferability of content learned to actual clinical situations, thus improving the practical usefulness of training courses.