Institutsseminar/2024-11-15: Unterschied zwischen den Versionen
(Institutsseminar 15. November angelegt) |
Keine Bearbeitungszusammenfassung |
||
Zeile 1: | Zeile 1: | ||
{{Termin | {{Termin | ||
|datum=2024-11- | |datum=2024-11-15T11:30:00.000Z | ||
|raum=Raum 348 (Gebäude 50.34) | |raum=Raum 348 (Gebäude 50.34) | ||
}} | }} |
Aktuelle Version vom 19. September 2024, 11:06 Uhr
Datum | Freitag, 15. November 2024 | |
---|---|---|
Uhrzeit | 11:30 – 13:30 Uhr (Dauer: 120 min) | |
Ort | Raum 348 (Gebäude 50.34) | |
Webkonferenz | ||
Vorheriger Termin | Do 14. November 2024 | |
Nächster Termin | Fr 20. Dezember 2024 |
Termin in Kalender importieren: iCal (Download)
Vorträge
Vortragende(r) | Sandro Negri |
---|---|
Titel | Spezifikation und Analyse fahrzeugbezogener Datenflussrichtlinien auf Basis der Vehicle Signal Specification |
Vortragstyp | Masterarbeit |
Betreuer(in) | Christopher Gerking |
Vortragssprache | Deutsch |
Vortragsmodus | in Präsenz |
Kurzfassung | Mit der zunehmenden Verbreitung vernetzter Fahrzeuge wird die Notwendigkeit von Datenstandards und IT-Sicherheitsmaßnahmen immer dringlicher. Angesichts der Prognose von bis zu 400 Millionen vernetzten Fahrzeugen bis 2025, die täglich enorme Datenmengen erzeugen, ist die Interoperabilität dieser Daten von zentraler Bedeutung. Die Vehicle Signal Specification (VSS) ist ein standardisiertes Verzeichnis zur Beschreibung von Fahrzeugsignalen und wirkt dieser Notwendigkeit an Datenstandards entgegen. Allerdings fehlt dieser Spezifikation die Möglichkeit, auch vertrauliche Signale zu kennzeichnen sowie mögliche Einschränkungen des Datenflusses für die jeweiligen Fahrzeugsignale zu definieren. Bisherige Arbeiten nutzen die VSS lediglich als Verzeichnis von Signalen, wobei die Behandlung vertraulicher Signale ausschließlich auf Anwendungsebene erfolgt.
In dieser Arbeit wird daher ein Konzept entwickelt, das die Spezifikation vertraulicher Signale innerhalb der VSS sowie die Definition von Datenflussrichtlinien ermöglicht. Darüber hinaus wird die VSS in das Palladio Component Model (PCM) überführt, um anschließend als Eingabe für eine Vertraulichkeitsanalyse zu dienen. Dadurch sollen frühzeitig potenzielle Vertraulichkeitsverletzungen auf Grundlage der spezifizierten Datenflussrichtlinien identifiziert werden. Das Konzept wird schließlich implementiert. In der Evaluation wird das entwickelte Konzept dazu verwendet, Vertraulichkeitsverletzungen anhand der definierten Datenflussrichtlinien festzustellen. Dazu wird die VSS in das PCM transformiert und als Eingabe für die Vertraulichkeitsanalyse genutzt. Die Evaluation umfasst sowohl funktionale Tests zur Transformation der VSS als auch Fallstudien, die verschiedene Szenarien von Vertraulichkeitsverletzungen abdecken. Die Ergebnisse zeigen, dass das Konzept die Definition vertraulicher Signale und die Spezifikation von Datenflussrichtlinien innerhalb der VSS unterstützt. Darüber hinaus wird nachgewiesen, dass durch die Vertraulichkeitsanalyse alle erwarteten Vertraulichkeitsverletzungen identifiziert werden können. Diese Arbeit leistet somit einen Beitrag zur Erkennung von Vertraulichkeitsverletzungen in vernetzten Fahrzeugen und schafft eine Grundlage für die IT-Sicherheit in diesem Bereich. |
Vortragende(r) | Jonas Koch |
---|---|
Titel | Using machine learning techniques to mitigate confidentiality violations |
Vortragstyp | Masterarbeit |
Betreuer(in) | Nils Niehues |
Vortragssprache | Deutsch |
Vortragsmodus | in Präsenz |
Kurzfassung | Wie sich ein Software-System im Laufe der Zeit entwickelt lässt sich oft nicht genau vorhersagen. Folglich existieren in der Modellierungsphase oft Ungewissheiten bezüglich des Verhaltens des Systems oder externen Faktoren. Bestehende Ansätze ermöglichen es bereits vordefinierte Arten von Ungewissheit zu modelieren und zu prüfen, ob die Auswirkungen der Ungewissheit zur der Verletzung von gegebenen Vertraulichkeitsanforderungen führt. Oft ist allerdings unklar wie und welche der gegebenen Ungewissheiten modifiziert werden müssen, um die Anforderungen zu erfüllen. Durch stumpfes Ausprobieren lassen sich zwar bei kleineren Modellen leicht verletzungsfrei Modelle finden, allerdings wächst die Laufzeit eines solchen Ansatzes exponentiell. Der in dieser Thesis vorgestellte Mitigation-Ansatz modifiziert gegebene Datenflussdiagramme mit modelierter Ungewissheit so, das die Vertraulichkeitsanforderungen erfüllt werden. Hierzu werden mittels maschinellem Lernen die Ungewissheiten identifiert, die am wahrscheinlichsten zu einer Verletzung geführt haben. Im Anschluss werden basierend auf diesen Ungewissheiten neue Modelle erstellt, die potentiell verletzungsfrei sind. Die Evaluation des Mitigationsansatz zeigt, dass auf Modelle mit unter 10 Ungewissheiten die Laufzeit des Mitigationsansatz nicht schneller als ein Brute-Force-Ansatz ist. Bei einem Modell mit 21 Ungewissheiten hingegen war die Laufzeit des Mitigations-Ansatz deutlich besser als der Brute-Force-Ansatz. Außerdem konnte gezeigt werden, dass die Laufzeit des Mitigations-Ansatz bei diesem Modell nicht exponentiell ansteigt. |
Vortragende(r) | Marcel Straub |
---|---|
Titel | Zeitbehaftete Informationsflussanalyse zur genauen Erkennung von verdeckten Zeitkanälen |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Christopher Gerking |
Vortragssprache | Deutsch |
Vortragsmodus | in Präsenz |
Kurzfassung | Zeitkanäle sind ein entscheidender Aspekt der Softwaresicherheit. Durch das zeitlich beobachtbare Verhalten eines Softwaresystem kann es unwissentlich Informationen an Dritte weitergeben. Existierende Techniken liefern oftmals falsch-positive Ergebnisse, indem sie einen Zeitunterschied erkennen, der in Wirklichkeit nicht vorliegt.
Ziel dieser Bachelorarbeit war es somit, eine zeitbehaftete Informationsflussanalyse auf Basis des Werkzeugs TimBrCheck umzusetzen, um die Präzision bei der Erkennung von Zeitkanälen zu erhöhen. TimBrCheck ist ein Werkzeug zur Analyse von Timed Bisimilarity zwischen zwei Systemen und bietet die Möglichkeit der Skalierbarkeit dieser Analyse. Da in TimBrCheck Softwarefehler vorhanden waren, musste auf zwei Automatentransformationen zurückgegriffen werden, welche die Nutzung von TimBrCheck in dem Ansatz der Arbeit ermöglichen. Weiterführend wurde in der Bachelorarbeit betrachtet, mit welcher der beiden Transformationen eine höhere Präzision bei der Erkennung von Zeitkanälen erreicht werden kann und welche Effekte sie mit sich bringen. |
- Neuen Vortrag erstellen