Institutsseminar/2024-06-07-Zusatztermin-2

Aus SDQ-Institutsseminar
Version vom 6. Mai 2024, 11:53 Uhr von Sophie Corallo (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Termin (Alle Termine)
Datum Freitag, 7. Juni 2024
Uhrzeit 09:30 – 11:00 Uhr (Dauer: 90 min)
Ort Raum 333 (Gebäude 50.34)
Webkonferenz
Vorheriger Termin Fr 10. Mai 2024
Nächster Termin Fr 7. Juni 2024

Termin in Kalender importieren: iCal (Download)

Vorträge

Vortragende(r) Debora Marettek
Titel Elicitation and Classification of Security Requirements for Everest
Vortragstyp Masterarbeit
Betreuer(in) Sophie Corallo
Vortragsmodus in Präsenz
Kurzfassung Unvollständige und nicht überprüfte Anforderungen können zu Missverständnissen und falschen Vorstellungen führen. Gerade im Sicherheitsbereich können verletzte Anforderungen Hinweise auf potenzielle Schwachstellen sein. Um eine Software auf Schwachstellen zu prüfen, werden Sicherheitsanforderungen an ihre Implementierung geknüpft. Hierfür müssen spezifische Anforderungsattribute identifiziert und mit dem Design verknüpft werden.

In dieser Arbeit werden 93 Sicherheitsanforderungen auf Designebene für die Open-Source-Software EVerest, einer Full-Stack-Umgebung für Ladestationen, erhoben. Mithilfe von Prompt Engineering und Fine-tuning werden Designelemente mittels GPT klassifiziert und ihre jeweiligen Erwähnungen aus den erhobenen Anforderungen extrahiert. Die Ergebnisse deuten darauf hin, dass die Klassifizierung von Designelementen in Anforderungen sowohl bei Prompt Engineering als auch bei Fine-tuning gut funktioniert (F1-Score: 0,67-0,73). In Bezug auf die Extraktion von Designelementen übertrifft Fine-tuning (F1-Score: 0,7) jedoch Prompt Engineering (F1-Score: 0,52). Wenn beide Aufgaben kombiniert werden, übertrifft Fine-tuning (F1-Score: 0,87) ebenfalls Prompt Engineering (F1-Score: 0,61).

Vortragende(r) Robin Maisch
Titel Preventing Refactoring Attacks on Software Plagiarism Detection through Graph-Based Structural Normalization
Vortragstyp Masterarbeit
Betreuer(in) Timur Sağlam
Vortragsmodus in Präsenz
Kurzfassung Detecting software plagiarism among a set of code submissions by students remains a challenge. Plagiarists often obfuscate their work by modifying it just enough to avoid detection while preserving the code’s runtime behavior in order to create an equally valid solution as the original. This type of modification is commonly known as refactoring. The state-of-the-art in plagiarism detection, token-based approaches, are immune against some types of refactorings by their very design, whereas other types create very effective plagiarism.

This thesis presents a novel approach that uses refactorings as a means to normalize the structure of code submissions. This normalized structure is not affected by refactoring attacks. The normalization engine, implemented as a transformation system for code graphs, was integrated into a token-based plagiarism detection tool. We evaluate our approach on four relevant types of obfuscation attack schemes. From the results, we conclude that the approach is not only on par with the state of the art in its efficacy against all attack schemes, but it even outperforms it by a large margin on combined refactoring attacks.

Neuen Vortrag erstellen

Hinweise

Es ist ausreichend, wenn Sie eines der Institutsseminare an diesem Tag besuchen. Entscheiden Sie Ihre Teilnahme gerne anhand ihrer persönlichen Interessen.