Institutsseminar/2024-06-07-Zusatztermin-2
Datum | Freitag, 7. Juni 2024 | |
---|---|---|
Uhrzeit | 09:30 – 11:00 Uhr (Dauer: 90 min) | |
Ort | Raum 333 (Gebäude 50.34) | |
Webkonferenz | ||
Vorheriger Termin | Fr 10. Mai 2024 | |
Nächster Termin | Fr 7. Juni 2024 |
Termin in Kalender importieren: iCal (Download)
Vorträge
Vortragende(r) | Debora Marettek |
---|---|
Titel | Elicitation and Classification of Security Requirements for Everest |
Vortragstyp | Masterarbeit |
Betreuer(in) | Sophie Corallo |
Vortragssprache | |
Vortragsmodus | in Präsenz |
Kurzfassung | Unvollständige und nicht überprüfte Anforderungen können zu Missverständnissen und falschen Vorstellungen führen. Gerade im Sicherheitsbereich können verletzte Anforderungen Hinweise auf potenzielle Schwachstellen sein. Um eine Software auf Schwachstellen zu prüfen, werden Sicherheitsanforderungen an ihre Implementierung geknüpft. Hierfür müssen spezifische Anforderungsattribute identifiziert und mit dem Design verknüpft werden.
In dieser Arbeit werden 93 Sicherheitsanforderungen auf Designebene für die Open-Source-Software EVerest, einer Full-Stack-Umgebung für Ladestationen, erhoben. Mithilfe von Prompt Engineering und Fine-tuning werden Designelemente mittels GPT klassifiziert und ihre jeweiligen Erwähnungen aus den erhobenen Anforderungen extrahiert. Die Ergebnisse deuten darauf hin, dass die Klassifizierung von Designelementen in Anforderungen sowohl bei Prompt Engineering als auch bei Fine-tuning gut funktioniert (F1-Score: 0,67-0,73). In Bezug auf die Extraktion von Designelementen übertrifft Fine-tuning (F1-Score: 0,7) jedoch Prompt Engineering (F1-Score: 0,52). Wenn beide Aufgaben kombiniert werden, übertrifft Fine-tuning (F1-Score: 0,87) ebenfalls Prompt Engineering (F1-Score: 0,61). |
Vortragende(r) | Robin Maisch |
---|---|
Titel | Preventing Refactoring Attacks on Software Plagiarism Detection through Graph-Based Structural Normalization |
Vortragstyp | Masterarbeit |
Betreuer(in) | Timur Sağlam |
Vortragssprache | |
Vortragsmodus | in Präsenz |
Kurzfassung | Detecting software plagiarism among a set of code submissions by students remains a challenge. Plagiarists often obfuscate their work by modifying it just enough to avoid detection while preserving the code’s runtime behavior in order to create an equally valid solution as the original. This type of modification is commonly known as refactoring. The state-of-the-art in plagiarism detection, token-based approaches, are immune against some types of refactorings by their very design, whereas other types create very effective plagiarism.
This thesis presents a novel approach that uses refactorings as a means to normalize the structure of code submissions. This normalized structure is not affected by refactoring attacks. The normalization engine, implemented as a transformation system for code graphs, was integrated into a token-based plagiarism detection tool. We evaluate our approach on four relevant types of obfuscation attack schemes. From the results, we conclude that the approach is not only on par with the state of the art in its efficacy against all attack schemes, but it even outperforms it by a large margin on combined refactoring attacks. |
- Neuen Vortrag erstellen
Hinweise
Es ist ausreichend, wenn Sie eines der Institutsseminare an diesem Tag besuchen. Entscheiden Sie Ihre Teilnahme gerne anhand ihrer persönlichen Interessen.