{"title":"Trace-Vergleich zur Feedback-Erzeugung im automatisierten E-Assessment-System JACK","authors":"C. Olbricht","doi":"10.18420/abp2019-2","DOIUrl":"https://doi.org/10.18420/abp2019-2","url":null,"abstract":"An der Universität Duisburg-Essen wird zur automatischen Korrektur von Programmieraufgaben seit mehr als zehn Jahren erfolgreich das E-Assessment-System JACK verwendet. Bisher war das Feedback von JACK auf vordefinierte Hinweise beschränkt, welche in den statischen und dynamischen Tests formuliert wurden. Für die Prüfung der Einsatztauglichkeit von Trace-Vergleichen zur Feedback-Erzeugung in JACK wurden Traces studentischer Lösungen mit Musterlösungen der Aufgaben automatisch verglichen. Hierzu musste zunächst mittels statischer Checks eine passende Musterlösung gewählt werden. Ziel war die Erzeugung eines Feedback-Markers zur Fehlererkennung, um den Studierenden erweitertes Feedback zu bieten. Es wurde festgestellt, dass bestimmte Anforderungen an Länge und Struktur der Aufgaben erfüllt sein müssen, damit der Algorithmus Feedback-Marker erzeugt.","PeriodicalId":170086,"journal":{"name":"Workshop Automatische Bewertung von Programmieraufgaben","volume":"44 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"129076088","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
{"title":"Kompetenzen und Kompetenzmodelle zum objektorientierten Programmieren","authors":"Peter Hubwieser","doi":"10.18420/abp2019-keynote","DOIUrl":"https://doi.org/10.18420/abp2019-keynote","url":null,"abstract":"Ein wichtiges Verdienst der bahnbrechenden Large-Scale-Untersuchungen TIMMS und PISA war die Entwicklung und Durchsetzung einer neuartigen Forschungsmethodik für Lernprozesse, in deren Mittelpunkt der Kompetenzbegriff (im Sinne von Weinert) und die Messung von Kompetenzen mit Hilfe der Item Response Theory rückte. Ein Nebeneffekt war allerdings dabei die Popularisierung des Begriffs „Kompetenz“, der inzwischen in der Alltagssprache zu einer vagen Bezeichnung für „etwas können“ verkommen ist. International wird die Fachgemeinde der Informatikdidaktik (DDI) vor allem von den US-Verbänden ACM und IEEE dominiert, bei denen der Kompetenzbegriff bei weitem noch nicht die Aufmerksamkeit und Bedeutung erlangt hat wie in Europa. Daher gibt es auf internationaler Ebene bisher nur sehr wenige solide Forschungsergebnisse zu empirisch fundierten Kompetenzen oder -modellen aus der Informatik, insbesondere zum Programmieren. Für unser neues DFG-Projekt AKoFOOP haben wir uns daher zusammen mit der Essener Paluno-Gruppe vorgenommen, einige ausgewählte Kompetenzen aus dem Bereich der objektorientierten Programmierung empirisch zu identifizieren, Instrumente zu deren Messung zu entwickeln und auf der Grundlage dieser Vorarbeiten das Feedback bei der automatischen Programmanalyse durch das JACK System zu verbessern. Die Ergebnisse sollen dann auch in unserem MOOC zur objektorientierten Programmierung (LOOP) genutzt werden. In diesem Vortrag will ich die Grundlagen der Beschreibung und Messung von Kompetenzen vorstellen und die Anwendung dieser Grundlagen im Rahmen unseres Projekts darstellen. Dabei kommt vor allem der Entwicklung von Kompetenzstrukturund Kompetenzniveaumodellen eine besondere Bedeutung zu. TU München, peter.hubwieser@tum.de","PeriodicalId":170086,"journal":{"name":"Workshop Automatische Bewertung von Programmieraufgaben","volume":"121 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"129439952","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
{"title":"Einbindung einer Online-Programmierplattform in die Präsenzlehre - ein Erfahrungsbericht","authors":"Torge Hinrichs, Axel Schmolitzky","doi":"10.18420/abp2019-8","DOIUrl":"https://doi.org/10.18420/abp2019-8","url":null,"abstract":"","PeriodicalId":170086,"journal":{"name":"Workshop Automatische Bewertung von Programmieraufgaben","volume":"1 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"130315573","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Lara Aubele, Leon-Santiesteban Martín, Tobias Hirmer, Andreas Henrich
{"title":"An Architecture for the Automated Assessment of Web Programming Tasks","authors":"Lara Aubele, Leon-Santiesteban Martín, Tobias Hirmer, Andreas Henrich","doi":"10.18420/abp2021-2","DOIUrl":"https://doi.org/10.18420/abp2021-2","url":null,"abstract":"","PeriodicalId":170086,"journal":{"name":"Workshop Automatische Bewertung von Programmieraufgaben","volume":"20 1 Part 1 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"126115306","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
{"title":"Wir können es, aber sollen wir es auch? - Ein didaktischer Blick auf automatisierte Bewertung von Programmieraufgaben","authors":"A. Mühling","doi":"10.18420/abp2021-keynote","DOIUrl":"https://doi.org/10.18420/abp2021-keynote","url":null,"abstract":"","PeriodicalId":170086,"journal":{"name":"Workshop Automatische Bewertung von Programmieraufgaben","volume":"8 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"124974024","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
{"title":"Automatisierte Bewertung von Java-Programmieraufgaben im Rahmen einer Moodle E-Learning Plattform","authors":"Niels Gandraß, Axel Schmolitzky","doi":"10.18420/abp2019-1","DOIUrl":"https://doi.org/10.18420/abp2019-1","url":null,"abstract":"Die Programmiersprache Java wird an zahlreichen Hochschulen gelehrt, um Studierende mit grundlegenden Programmierkonzepten vertraut zu machen. Zur Integration von Online-JavaProgrammieraufgaben in ein Moodle LMS wurde ein Fragetyp entwickelt, welcher die parallele Ausführung sowie die automatisierte Bewertung von Quellcode auf Basis von JUnit-Tests ermöglicht. Studierende erhalten hierbei ein sofortiges und individuelles Feedback, welches dynamisch schon während der Bearbeitung einer Aufgabe erzeugt wird. In diesem Beitrag werden sowohl die technischen Details des entwickelten Fragetyps als auch erste Erfahrungen mit seinem Einsatz in der Programmierlehre an der Hochschule für Angewandte Wissenschaften Hamburg thematisiert.","PeriodicalId":170086,"journal":{"name":"Workshop Automatische Bewertung von Programmieraufgaben","volume":"1 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"129041040","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Sebastian Serth, Daniel Köhler, Leonard Marschke, Felix Auringer, Konrad Hanff, Jan-Eric Hellenberg, Tobias Kantusch, Maximilian Paß, C. Meinel
{"title":"Improving the Scalability and Security of Execution Environments for Auto-Graders in the Context of MOOCs","authors":"Sebastian Serth, Daniel Köhler, Leonard Marschke, Felix Auringer, Konrad Hanff, Jan-Eric Hellenberg, Tobias Kantusch, Maximilian Paß, C. Meinel","doi":"10.18420/abp2021-1","DOIUrl":"https://doi.org/10.18420/abp2021-1","url":null,"abstract":": Learning a programming language requires learners to write code themselves, execute their programs interactively, and receive feedback about the correctness of their code. Many approaches with so-called auto-graders exist to grade students’ submissions and provide feedback for them automatically. University classes with hundreds of students or Massive Open Online Courses (MOOCs) with thousands of learners often use these systems. Assessing the submissions usually includes executing the students’ source code and thus implies requirements on the scalability and security of the systems. In this paper, we evaluate different execution environments and orchestration solutions for auto-graders. We compare the most promising open-source tools regarding their usability in a scalable environment required for MOOCs. According to our evaluation, Nomad, in conjunction with Docker, fulfills most requirements. We derive implications for the productive use of Nomad for an auto-grader in MOOCs.","PeriodicalId":170086,"journal":{"name":"Workshop Automatische Bewertung von Programmieraufgaben","volume":"1 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"130514572","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
{"title":"Ansatz zur automatischen Generierung von Java-OOP-Aufgaben inkl. Bewertungsschemen","authors":"Ulf Döring","doi":"10.18420/abp2019-9","DOIUrl":"https://doi.org/10.18420/abp2019-9","url":null,"abstract":"Im Fach „Algorithmen und Programmierung für Ingenieure“ werden an der TU Ilmenau noch papierbasierte Klausuren mit einem sehr geringen Multiple-Choice-Anteil geschrieben. Entsprechend hoch ist der Aufwand der händischen Korrektur. Zudem müssen selbst zum Zeitpunkt der Prüfung die meisten Studierenden noch als Programmieranfänger gesehen werden. Hierdurch führen Ansätze, welche compilierbaren Quellcode voraussetzen, sowohl beim Üben als auch bei Klausuren regelmäßig nicht zu angemessenen Bewertungen. Dieser Artikel beschreibt die Entwicklung eines Aufgabengenerators für einen bestimmten Aufgabentyp im Kontext von Java und OOP. Die automatische Generierung der Aufgaben soll in Bezug auf die zielgerichtete Vorbereitung auf die Prüfung den Studierenden Übungsmöglichkeiten bieten. Hinsichtlich der Klausurkontrolle sollen zudem auch Bewertungsschemen zur Anwendung bei der händischen Korrektur erzeugt werden.","PeriodicalId":170086,"journal":{"name":"Workshop Automatische Bewertung von Programmieraufgaben","volume":"24 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"1900-01-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"134297525","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}