Jan Clusmann, Fiona R. Kolbinger, Hannah Sophie Muti, Zunamys I. Carrero, Jan-Niklas Eckardt, Narmin Ghaffari Laleh, Chiara Maria Lavinia Loffler, Sophie-Caroline Schwarzkopf, M. Unger, Gregory P. Veldhuizen, Sophia J. Wagner, J. Kather
{"title":"即将开发的大型医学语言模型","authors":"Jan Clusmann, Fiona R. Kolbinger, Hannah Sophie Muti, Zunamys I. Carrero, Jan-Niklas Eckardt, Narmin Ghaffari Laleh, Chiara Maria Lavinia Loffler, Sophie-Caroline Schwarzkopf, M. Unger, Gregory P. Veldhuizen, Sophia J. Wagner, J. Kather","doi":"10.1159/000536600","DOIUrl":null,"url":null,"abstract":"Große Sprachmodelle (Large Language Models, LLMs) sind Tools der künstlichen Intelligenz (KI), die speziell für die Verarbeitung und Erzeugung von Text trainiert sind. LLMs erregten erhebliche öffentliche Aufmerksamkeit, nachdem ChatGPT von OpenAI im November 2022 öffentlich zugänglich gemacht wurde. LLMs können Fragen beantworten, Texte zusammenfassen, paraphrasieren und übersetzen, und zwar auf einer Ebene, die von menschlichen Fähigkeiten kaum zu unterscheiden ist. Die Möglichkeit, aktiv mit Modellen wie ChatGPT zu interagieren, macht LLMs zu attraktiven Tools in verschiedenen Bereichen, einschließlich der Medizin. Diese Modelle haben zwar das Potenzial, medizinisches Wissen zu demokratisieren und den Zugang zur Gesundheitsversorgung zu erleichtern, sie könnten jedoch aufgrund mangelnder Rechenschaftspflicht und Transparenz ebenso Fehlinformationen verbreiten und wissenschaftliches Fehlverhalten verschlimmern. In diesem Artikel geben wir einen systematischen und umfassenden Überblick über die Potenziale und Grenzen von LLMs in der klinischen Praxis, der medizinischen Forschung und der medizinischen Ausbildung.","PeriodicalId":413988,"journal":{"name":"Kompass Onkologie","volume":"7 2","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2024-02-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"Die kommende Entwicklung großer Sprachmodelle in der Medizin\",\"authors\":\"Jan Clusmann, Fiona R. Kolbinger, Hannah Sophie Muti, Zunamys I. Carrero, Jan-Niklas Eckardt, Narmin Ghaffari Laleh, Chiara Maria Lavinia Loffler, Sophie-Caroline Schwarzkopf, M. Unger, Gregory P. Veldhuizen, Sophia J. Wagner, J. Kather\",\"doi\":\"10.1159/000536600\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"Große Sprachmodelle (Large Language Models, LLMs) sind Tools der künstlichen Intelligenz (KI), die speziell für die Verarbeitung und Erzeugung von Text trainiert sind. LLMs erregten erhebliche öffentliche Aufmerksamkeit, nachdem ChatGPT von OpenAI im November 2022 öffentlich zugänglich gemacht wurde. LLMs können Fragen beantworten, Texte zusammenfassen, paraphrasieren und übersetzen, und zwar auf einer Ebene, die von menschlichen Fähigkeiten kaum zu unterscheiden ist. Die Möglichkeit, aktiv mit Modellen wie ChatGPT zu interagieren, macht LLMs zu attraktiven Tools in verschiedenen Bereichen, einschließlich der Medizin. Diese Modelle haben zwar das Potenzial, medizinisches Wissen zu demokratisieren und den Zugang zur Gesundheitsversorgung zu erleichtern, sie könnten jedoch aufgrund mangelnder Rechenschaftspflicht und Transparenz ebenso Fehlinformationen verbreiten und wissenschaftliches Fehlverhalten verschlimmern. In diesem Artikel geben wir einen systematischen und umfassenden Überblick über die Potenziale und Grenzen von LLMs in der klinischen Praxis, der medizinischen Forschung und der medizinischen Ausbildung.\",\"PeriodicalId\":413988,\"journal\":{\"name\":\"Kompass Onkologie\",\"volume\":\"7 2\",\"pages\":\"\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2024-02-12\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Kompass Onkologie\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.1159/000536600\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Kompass Onkologie","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.1159/000536600","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
Die kommende Entwicklung großer Sprachmodelle in der Medizin
Große Sprachmodelle (Large Language Models, LLMs) sind Tools der künstlichen Intelligenz (KI), die speziell für die Verarbeitung und Erzeugung von Text trainiert sind. LLMs erregten erhebliche öffentliche Aufmerksamkeit, nachdem ChatGPT von OpenAI im November 2022 öffentlich zugänglich gemacht wurde. LLMs können Fragen beantworten, Texte zusammenfassen, paraphrasieren und übersetzen, und zwar auf einer Ebene, die von menschlichen Fähigkeiten kaum zu unterscheiden ist. Die Möglichkeit, aktiv mit Modellen wie ChatGPT zu interagieren, macht LLMs zu attraktiven Tools in verschiedenen Bereichen, einschließlich der Medizin. Diese Modelle haben zwar das Potenzial, medizinisches Wissen zu demokratisieren und den Zugang zur Gesundheitsversorgung zu erleichtern, sie könnten jedoch aufgrund mangelnder Rechenschaftspflicht und Transparenz ebenso Fehlinformationen verbreiten und wissenschaftliches Fehlverhalten verschlimmern. In diesem Artikel geben wir einen systematischen und umfassenden Überblick über die Potenziale und Grenzen von LLMs in der klinischen Praxis, der medizinischen Forschung und der medizinischen Ausbildung.