Institutsseminar/2024-11-15: Unterschied zwischen den Versionen

Aus SDQ-Institutsseminar
(Institutsseminar 15. November angelegt)
 
Keine Bearbeitungszusammenfassung
 
Zeile 1: Zeile 1:
{{Termin
{{Termin
|datum=2024-11-11T11:30:00.000Z
|datum=2024-11-15T11:30:00.000Z
|raum=Raum 348 (Gebäude 50.34)
|raum=Raum 348 (Gebäude 50.34)
}}
}}

Aktuelle Version vom 19. September 2024, 11:06 Uhr

Termin (Alle Termine)
Datum Freitag, 15. November 2024
Uhrzeit 11:30 – 13:30 Uhr (Dauer: 120 min)
Ort Raum 348 (Gebäude 50.34)
Webkonferenz
Vorheriger Termin Do 14. November 2024
Nächster Termin Fr 20. Dezember 2024
Die Dauer dieses Termins beträgt derzeit 120 Minuten. Bitte ggf. einen weiteren Raum reservieren und den Termin auf zwei Räume aufteilen. Dazu unter Termine eine zusätzliche Terminseite anlegen und die Vorträge neu zuweisen.

Termin in Kalender importieren: iCal (Download)

Vorträge

Vortragende(r) Sandro Negri
Titel Spezifikation und Analyse fahrzeugbezogener Datenflussrichtlinien auf Basis der Vehicle Signal Specification
Vortragstyp Masterarbeit
Betreuer(in) Christopher Gerking
Vortragssprache Deutsch
Vortragsmodus in Präsenz
Kurzfassung Mit der zunehmenden Verbreitung vernetzter Fahrzeuge wird die Notwendigkeit von Datenstandards und IT-Sicherheitsmaßnahmen immer dringlicher. Angesichts der Prognose von bis zu 400 Millionen vernetzten Fahrzeugen bis 2025, die täglich enorme Datenmengen erzeugen, ist die Interoperabilität dieser Daten von zentraler Bedeutung. Die Vehicle Signal Specification (VSS) ist ein standardisiertes Verzeichnis zur Beschreibung von Fahrzeugsignalen und wirkt dieser Notwendigkeit an Datenstandards entgegen. Allerdings fehlt dieser Spezifikation die Möglichkeit, auch vertrauliche Signale zu kennzeichnen sowie mögliche Einschränkungen des Datenflusses für die jeweiligen Fahrzeugsignale zu definieren. Bisherige Arbeiten nutzen die VSS lediglich als Verzeichnis von Signalen, wobei die Behandlung vertraulicher Signale ausschließlich auf Anwendungsebene erfolgt.

In dieser Arbeit wird daher ein Konzept entwickelt, das die Spezifikation vertraulicher Signale innerhalb der VSS sowie die Definition von Datenflussrichtlinien ermöglicht. Darüber hinaus wird die VSS in das Palladio Component Model (PCM) überführt, um anschließend als Eingabe für eine Vertraulichkeitsanalyse zu dienen. Dadurch sollen frühzeitig potenzielle Vertraulichkeitsverletzungen auf Grundlage der spezifizierten Datenflussrichtlinien identifiziert werden. Das Konzept wird schließlich implementiert.

In der Evaluation wird das entwickelte Konzept dazu verwendet, Vertraulichkeitsverletzungen anhand der definierten Datenflussrichtlinien festzustellen. Dazu wird die VSS in das PCM transformiert und als Eingabe für die Vertraulichkeitsanalyse genutzt. Die Evaluation umfasst sowohl funktionale Tests zur Transformation der VSS als auch Fallstudien, die verschiedene Szenarien von Vertraulichkeitsverletzungen abdecken. Die Ergebnisse zeigen, dass das Konzept die Definition vertraulicher Signale und die Spezifikation von Datenflussrichtlinien innerhalb der VSS unterstützt. Darüber hinaus wird nachgewiesen, dass durch die Vertraulichkeitsanalyse alle erwarteten Vertraulichkeitsverletzungen identifiziert werden können. Diese Arbeit leistet somit einen Beitrag zur Erkennung von Vertraulichkeitsverletzungen in vernetzten Fahrzeugen und schafft eine Grundlage für die IT-Sicherheit in diesem Bereich.

Vortragende(r) Jonas Koch
Titel Using machine learning techniques to mitigate confidentiality violations
Vortragstyp Masterarbeit
Betreuer(in) Nils Niehues
Vortragssprache Deutsch
Vortragsmodus in Präsenz
Kurzfassung Wie sich ein Software-System im Laufe der Zeit entwickelt lässt sich oft nicht genau vorhersagen. Folglich existieren in der Modellierungsphase oft Ungewissheiten bezüglich des Verhaltens des Systems oder externen Faktoren. Bestehende Ansätze ermöglichen es bereits vordefinierte Arten von Ungewissheit zu modelieren und zu prüfen, ob die Auswirkungen der Ungewissheit zur der Verletzung von gegebenen Vertraulichkeitsanforderungen führt. Oft ist allerdings unklar wie und welche der gegebenen Ungewissheiten modifiziert werden müssen, um die Anforderungen zu erfüllen. Durch stumpfes Ausprobieren lassen sich zwar bei kleineren Modellen leicht verletzungsfrei Modelle finden, allerdings wächst die Laufzeit eines solchen Ansatzes exponentiell. Der in dieser Thesis vorgestellte Mitigation-Ansatz modifiziert gegebene Datenflussdiagramme mit modelierter Ungewissheit so, das die Vertraulichkeitsanforderungen erfüllt werden. Hierzu werden mittels maschinellem Lernen die Ungewissheiten identifiert, die am wahrscheinlichsten zu einer Verletzung geführt haben. Im Anschluss werden basierend auf diesen Ungewissheiten neue Modelle erstellt, die potentiell verletzungsfrei sind. Die Evaluation des Mitigationsansatz zeigt, dass auf Modelle mit unter 10 Ungewissheiten die Laufzeit des Mitigationsansatz nicht schneller als ein Brute-Force-Ansatz ist. Bei einem Modell mit 21 Ungewissheiten hingegen war die Laufzeit des Mitigations-Ansatz deutlich besser als der Brute-Force-Ansatz. Außerdem konnte gezeigt werden, dass die Laufzeit des Mitigations-Ansatz bei diesem Modell nicht exponentiell ansteigt.
Vortragende(r) Marcel Straub
Titel Zeitbehaftete Informationsflussanalyse zur genauen Erkennung von verdeckten Zeitkanälen
Vortragstyp Bachelorarbeit
Betreuer(in) Christopher Gerking
Vortragssprache Deutsch
Vortragsmodus in Präsenz
Kurzfassung Zeitkanäle sind ein entscheidender Aspekt der Softwaresicherheit. Durch das zeitlich beobachtbare Verhalten eines Softwaresystem kann es unwissentlich Informationen an Dritte weitergeben. Existierende Techniken liefern oftmals falsch-positive Ergebnisse, indem sie einen Zeitunterschied erkennen, der in Wirklichkeit nicht vorliegt.

Ziel dieser Bachelorarbeit war es somit, eine zeitbehaftete Informationsflussanalyse auf Basis des Werkzeugs TimBrCheck umzusetzen, um die Präzision bei der Erkennung von Zeitkanälen zu erhöhen. TimBrCheck ist ein Werkzeug zur Analyse von Timed Bisimilarity zwischen zwei Systemen und bietet die Möglichkeit der Skalierbarkeit dieser Analyse. Da in TimBrCheck Softwarefehler vorhanden waren, musste auf zwei Automatentransformationen zurückgegriffen werden, welche die Nutzung von TimBrCheck in dem Ansatz der Arbeit ermöglichen.

Weiterführend wurde in der Bachelorarbeit betrachtet, mit welcher der beiden Transformationen eine höhere Präzision bei der Erkennung von Zeitkanälen erreicht werden kann und welche Effekte sie mit sich bringen.

Neuen Vortrag erstellen

Hinweise