Using machine learning techniques to mitigate confidentiality violations

Aus SDQ-Institutsseminar
Vortragende(r) Jonas Koch
Vortragstyp Masterarbeit
Betreuer(in) Nils Niehues
Termin Fr 15. November 2024
Vortragssprache Deutsch
Vortragsmodus in Präsenz
Kurzfassung Wie sich ein Software-System im Laufe der Zeit entwickelt lässt sich oft nicht genau vorhersagen. Folglich existieren in der Modellierungsphase oft Ungewissheiten bezüglich des Verhaltens des Systems oder externen Faktoren. Bestehende Ansätze ermöglichen es bereits vordefinierte Arten von Ungewissheit zu modelieren und zu prüfen, ob die Auswirkungen der Ungewissheit zur der Verletzung von gegebenen Vertraulichkeitsanforderungen führt. Oft ist allerdings unklar wie und welche der gegebenen Ungewissheiten modifiziert werden müssen, um die Anforderungen zu erfüllen. Durch stumpfes Ausprobieren lassen sich zwar bei kleineren Modellen leicht verletzungsfrei Modelle finden, allerdings wächst die Laufzeit eines solchen Ansatzes exponentiell. Der in dieser Thesis vorgestellte Mitigation-Ansatz modifiziert gegebene Datenflussdiagramme mit modelierter Ungewissheit so, das die Vertraulichkeitsanforderungen erfüllt werden. Hierzu werden mittels maschinellem Lernen die Ungewissheiten identifiert, die am wahrscheinlichsten zu einer Verletzung geführt haben. Im Anschluss werden basierend auf diesen Ungewissheiten neue Modelle erstellt, die potentiell verletzungsfrei sind. Die Evaluation des Mitigationsansatz zeigt, dass auf Modelle mit unter 10 Ungewissheiten die Laufzeit des Mitigationsansatz nicht schneller als ein Brute-Force-Ansatz ist. Bei einem Modell mit 21 Ungewissheiten hingegen war die Laufzeit des Mitigations-Ansatz deutlich besser als der Brute-Force-Ansatz. Außerdem konnte gezeigt werden, dass die Laufzeit des Mitigations-Ansatz bei diesem Modell nicht exponentiell ansteigt.