SDQ-Institutsseminar

Aus SDQ-Institutsseminar
(Weitergeleitet von Hauptseite)

Das SDQ-Institutsseminar ist eine ständige Lehrveranstaltung, die den Zweck hat, über aktuelle Forschungsarbeiten in den zu Software Design and Quality (SDQ) gehörigen Forschungsgruppen innerhalb von KASTEL – Institut für Informationssicherheit und Verlässlichkeit zu informieren. Insbesondere soll Studierenden die Gelegenheit gegeben werden, über ihre Bachelor- und Masterarbeiten vor einem größeren Auditorium zu berichten. Schwerpunkte liegen dabei auf der Problemstellung, den Lösungsansätzen und den erzielten Ergebnissen. Das Seminar steht aber allen Studierenden und Mitarbeitenden des KIT sowie sonstigen Interessierten offen.

Das Seminar findet auf Wunsch hybrid mit online zugeschalteten Teilnehmenden statt. Bitte dies den Betreuenden rechtzeitig mitteilen, damit diese die notwendigen Geräte aufbauen können.

Ort Gebäude 50.34, Seminarraum 010 oder online, siehe Beschreibung
Zeit jeweils freitags, 14:00–15:30 Uhr

Die Vorträge müssen den folgenden zeitlichen Rahmen einhalten (siehe auch SDQ-Wiki):

  • Masterarbeit: 30 Minuten Redezeit + 15 Minuten Diskussion
  • Bachelorarbeit: 20 Minuten Redezeit + 10 Minuten Diskussion

Weitere Informationen

Nächste Vorträge

Termine in Kalender importieren: iCal (Download)

Freitag, 23. Januar 2026, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)

The Role of Context in Automated Requirements-to-Requirements Traceability Link Recovery
Vortragende(r) David Bauch
Vortragstyp Masterarbeit
Betreuer(in) Dominik Fuchß
Vortragssprache Deutsch
Vortragsmodus in Präsenz
Kurzfassung Beim Aufbau großer Softwaresysteme müssen Entwickler und Requirements-Ingenieure eine Vielzahl unterschiedlicher Softwareanforderungen im Blick behalten. Um die Komplexität der Verwaltung dieser Anforderungen zu vereinfachen, können Traceability-Links verwendet werden, um Beziehungen zwischen Anforderungen explizit zu machen. TraceLinks sind ein wichtiges Werkzeug für viele Aufgaben im Bereich Software-Engineering, wie zum Beispiel die Analyse von Änderungsauswirkungen oder die Sicherstellung der Konsistenz sowie die Einhaltung gesetzlicher Vorschriften. In vielen Softwareprojekten sind Traceability-Informationen nicht verfügbar, da die manuelle Erstellung von Trace-Links arbeitsintensiv, fehleranfällig und kostspielig ist. Daher werden automatisierte Tools untersucht, mit denen Trace-Links aus bestehenden Softwareprojekten zurückgewonnen werden können. Neuere Entwicklungen in diesem Bereich nutzen große Sprachmodelle (LLMs) für die Aufgabe der Rückgewinnung von Trace-Links (TLR). LLMs verfügen zwar über ein breites Weltwissen, das während ihres Trainings kodiert wird, ihnen fehlt aber in der Regel das projektspezifische Wissen, das erforderlich ist, um die Anforderungen eines Softwareprojekts vollständig zu verstehen. Diese Arbeit schlägt die Verwendung von Kontext für LLM-basierte TLR zwischen Anforderungen vor, um diese Lücke zu schließen. Es werden drei Arten von Kontext untersucht, um die Leistung der automatisierten TLR zwischen Anforderungen zu verbessern. Die erste Art ist die automatisierte Umschreibung von Anforderungen, um die Wahrscheinlichkeit einer semantischen Ähnlichkeit zwischen verwandten Anforderungen zu erhöhen. Zweitens wird die Verwendung von Anforderungen als Kontext untersucht, um dem Modell neben den Anforderungen eines Trace-Link-Kandidaten einen breiteren Einblick in projektspezifische Informationen zu geben. Schließlich werden projekt-externe Trace-Link-Beispiele als Kontext verwendet, um ähnliche Anforderungskonstellationen zwischen verschiedenen Projekten zu nutzen. Diese letzte Kontextart ist die erste Implementierung von dynamischem Few-Shot-Prompting für LLM-basiertes TLR. Die Verwendung von Kontext wird im Vergleich zu einem Basissystem bewertet, das keine Kontextinformationen verwendet. Es zeigt sich, dass die Verwendung von Kontext einen geringen, aber insgesamt positiven Effekt auf die TLR-Leistung hat, wenn Anforderungsumschreibungen oder externe Trace-Links verwendet werden. Die Verwendung zusätzlicher Anforderungen als Kontext hat einen leicht negativen Effekt auf die Gesamtleistung von TLR. Es zeigt sich, dass der Effekt des Kontexts auf die TLR-Leistung je nach dem Projekt, in dem die Aufgabe ausgeführt wird, sowie je nach verschiedenen Parametern, die für jeden Kontexttyp einzigartig sind, variiert.
Transformation of Xbase Expressions to Relational Query Operations
Vortragende(r) Nils Lambertz
Vortragstyp Masterarbeit
Betreuer(in) Lars König
Vortragssprache Englisch
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung

Freitag, 23. Januar 2026, 14:00 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)

Pi-RAMSES: A Platform-Independent Research Framework for Self-Adaptive Systems
Vortragende(r) Saad Masood
Vortragstyp Masterarbeit
Betreuer(in) Raffaela Mirandola
Vortragssprache Englisch
Vortragsmodus in Präsenz
Kurzfassung This thesis proposes Platform-Independent RAMSES (Pi-RAMSES), a comprehensive research framework that evolves the legacy prototype into a robust, automated system.

The primary objective is to standardize the engineering lifecycle and extend the system’s reusability from the application level to the infrastructure level. The solution is evaluated using the Goal-Question-Metric (GQM) methodology, validating three core pillars: Standardization, Integration, and Reproducibility. The work introduces a Three-Layer Configuration Architecture to decouple infrastructure from experimental variables. As a key contribution, RAMSES Kubernetes Instantiation (RAMSESKube) is developed as the Kubernetes-native instantiation of Pi-RAMSES, utilizing abstract interfaces to bridge the gap between the imperative MAPE-K logic and the declarative orchestrator.

Freitag, 30. Januar 2026, 14:00 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)

Erstellung einer Regelabdeckung für Modelltransformationen in Tests
Vortragende(r) Mücahid Yenigün
Vortragstyp Masterarbeit
Betreuer(in) Erik Burger
Vortragssprache Deutsch
Vortragsmodus in Präsenz
Kurzfassung Im Testprozess liegt der Fokus der Anwender häufig auf einzelne Transformationsregeln oder spezifische Testmodelle. Dadurch fehlt sowohl die Nachvollziehbarkeit ihrer eigenen Testaktivitäten als auch eine fundierte Analyse des übergeordneten Testzustands. Infolge dieser eingeschränkten Transparenz verändern sich die Regelabdeckungen eines Regelmodells im Verlauf der Testschritte, wenn entwickelte oder modifizierte Modelltransformationen Einfluss auf die bestehende Regelabdeckung nehmen. Eine konsistente und kontinuierliche Bewertung dieser Veränderungen ist im Testprozess nicht immer möglich.

Diese Arbeit adressiert die beschriebene Problematik durch die Einführung eines datengetriebenen Test-Monitorings als Gray-Box-Ansatz mit geringer Abhängigkeit von der kon- kreten Implementierung. Das vorgestellte Konzept besteht aus drei Phasen: Datenerfassung, Datenpersistenz und Datenvisualisierung. In der ersten Phase wird die Regelabdeckung einzelner Modelltransformationen erfasst. In der zweiten Phase werden diese Regelabdeckungen in einer zeitreihentauglichen Datenbank gespeichert. In der dritten Phase werden die gespeicherten Daten mithilfe der Metrik des Regelabdeckungsgrads sowie weiterer Kennzahlen in verschiedenen Dashboards visualisiert. Die grafischen Darstellungen dienen der Orientierung und Analyse des Testzustands eines Regelmodells und liefern Indikatoren zur gezielten Verbesserung der Regelabdeckung.

Das datengetriebene Test-Monitoring ist in der Praxis anhand der modellbasierten Elektrik-/Elektronik-Entwicklungsumgebung PREEvision evaluiert worden. Als Datenbasis haben ein vollständiges Testpaket sowie nahezu sämtliche Testfälle eines Regelmodells gedient. Die in verschiedenen Dashboards dargestellten Visualisierungsergebnisse haben die Grundlage der Evaluation gebildet, sodass die gesamte Systeminfrastruktur ganzheitlich betrachtet werden konnte. Die Ergebnisse sind aus unterschiedlichen Perspektiven analysiert und mit Referenzberechnungen verglichen worden, die auf derselben logischen Grundlage wie die Visualisierungen basiert haben. Das System hat sowohl abgedeckte als auch nicht abgedeckte Regeln zuverlässig identifiziert und daraus korrekt die Metrik des Regelabdeckungsgrads eines Regelmodells abgeleitet. Sämtliche Dashboards haben konsistente und fachlich korrekte Endergebnisse ihrer jeweiligen Visualisierungen geliefert. Dadurch ist die Nachvollziehbarkeit der Testaktivitäten gewährleistet worden und es haben potenzielle Indikatoren zur Verbesserung der Regelabdeckung abgeleitet werden können. Auf diese Weise hat sich die Anzahl nicht abgedeckter Regeln schrittweise reduziert oder der Regelabdeckungsgrad ist gesteigert worden. Das Feedback an die Anwender ist in nahezu allen Dashboards innerhalb relativ kurzer Antwortzeiten erfolgt, lediglich in einem Einzelfall hat die Rückmeldezeit im akzeptablen Bereich gelegen.

Freitag, 13. März 2026, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: https://sdq.kastel.kit.edu/institutsseminar/Microsoft_Teams

Meta Modelling of Concrete Textual Syntax Patterns
Vortragende(r) Thomas Heinen
Vortragstyp Masterarbeit
Betreuer(in) Lars König
Vortragssprache Deutsch
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung

Freitag, 13. März 2026, 14:00 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)

A Reproducible Profiling Framework for a MQTT-to-Kafka Pipeline
Vortragende(r) Jonas Bruer
Vortragstyp Bachelorarbeit
Betreuer(in) Maximilian Hummel
Vortragssprache Deutsch
Vortragsmodus in Präsenz
Kurzfassung TBD
A Structured Approach for Building Descriptive Models from Data
Vortragende(r) Philipp Meyer
Vortragstyp Bachelorarbeit
Betreuer(in) Raziyeh Dehghani
Vortragssprache Englisch
Vortragsmodus in Präsenz
Kurzfassung TBD
Performance Modeling and Evaluation of an MQTT–Kafka Based Data Streaming Architecture
Vortragende(r) Bescher Kilani
Vortragstyp Bachelorarbeit
Betreuer(in) Maximilian Hummel
Vortragssprache Deutsch
Vortragsmodus in Präsenz
Kurzfassung TBD

weitere Termine