{"title":"Ethische Herausforderungen des automatisierten Journalismus. Zwischen Dataismus, Bias und fehlender Transparenz","authors":"C. Porlezza","doi":"10.5771/9783748905158-143","DOIUrl":null,"url":null,"abstract":"Obwohl der so genannte automatisierte Journalismus, also die Herstellung von narrativen Texten ohne das Zutun von Menschen, in zahlreichen etablierten Medien mittlerweile bereits institutionalisiert ist, bestehen eine ganze Reihe von unbe-antworteten ethischen Fragen. Zwar befindet sich die automatisierte Erstellung journalistischer Inhalte technisch immer noch im Anfangsstadium. Aktuelle Um-fragen, beispielsweise des Journalism AI-Projektes der London School of Economics, zeigen jedoch, dass immer mehr Medienunternehmen auf den Zug der KI-getriebenen Inhalteproduktion aufspringen. Dabei werden grundlegende Fragen zum Beispiel zur Transparenz, der Nachvollziehbarkeit und Erklärbarkeit von Algorithmen häufig einfach ausgeblendet. Dieses Verhalten ist umso fragwürdiger, da nicht nur das Publikum, sondern gerade auch (Daten-)Journalisten von der Faktizität und Objektivität von Daten und Algorithmen überzeugt sind. Das kann im schlimmsten Fall zu Verzerrungen und Diskriminierungen führen. Der Beitrag be-leuchtet diese Entwicklungen kritisch, indem er drei spezifische Problemfelder – einen wachsenden Dataismus, das Problem des algorithmischen «Bias», Transparenz als vermeintliches Allheilmittel – näher betrachtet.","PeriodicalId":431613,"journal":{"name":"Kommunikations- und Medienethik reloaded?","volume":"18 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"1","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Kommunikations- und Medienethik reloaded?","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.5771/9783748905158-143","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 1
Abstract
Obwohl der so genannte automatisierte Journalismus, also die Herstellung von narrativen Texten ohne das Zutun von Menschen, in zahlreichen etablierten Medien mittlerweile bereits institutionalisiert ist, bestehen eine ganze Reihe von unbe-antworteten ethischen Fragen. Zwar befindet sich die automatisierte Erstellung journalistischer Inhalte technisch immer noch im Anfangsstadium. Aktuelle Um-fragen, beispielsweise des Journalism AI-Projektes der London School of Economics, zeigen jedoch, dass immer mehr Medienunternehmen auf den Zug der KI-getriebenen Inhalteproduktion aufspringen. Dabei werden grundlegende Fragen zum Beispiel zur Transparenz, der Nachvollziehbarkeit und Erklärbarkeit von Algorithmen häufig einfach ausgeblendet. Dieses Verhalten ist umso fragwürdiger, da nicht nur das Publikum, sondern gerade auch (Daten-)Journalisten von der Faktizität und Objektivität von Daten und Algorithmen überzeugt sind. Das kann im schlimmsten Fall zu Verzerrungen und Diskriminierungen führen. Der Beitrag be-leuchtet diese Entwicklungen kritisch, indem er drei spezifische Problemfelder – einen wachsenden Dataismus, das Problem des algorithmischen «Bias», Transparenz als vermeintliches Allheilmittel – näher betrachtet.