Semantische Suche

Freitag, 15. März 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Patrick Mehl
Titel Architektur-basierte Wartbarkeitsvorhersage von Metamodellen mittels Evolutionsszenarien
Vortragstyp Masterarbeit
Betreuer(in) Lars König
Vortragsmodus in Präsenz
Kurzfassung Im Rahmen der Masterarbeit „Architektur-basierte Wartbarkeitsvorhersage von Metamodellen mittels Evolutionsszenarien“ wurden Metamodelle für die Modellierung von Metamodell-Architekturen sowie Evolutionsszenarien, die Änderungen auf Metamodell-Architekturen beschreiben, entworfen. Das Metamodell für Metamodell-Architekturen ermöglicht die Modellierung von komplexen Metamodellen auf einer abstrakteren Ebene analog zur Software-Architektur. Für beide Metamodelle wurden Editoren für die Modellierung entwickelt. Zusätzlich wurde ein Werkzeug zur Vorhersage der Wartbarkeit, basierend auf einem Evolutionsszenario, entwickelt. Die entwickelten Werkzeuge wurden anschließend auf ihre Benutzbarkeit über eine Benutzerstudie sowie auf Funktionalität über Fallstudien analysiert.
Vortragende(r) Simon Ding
Titel Automatisierung von GUI-Tests für Webanwendungen durch den Einsatz großer Sprachmodelle
Vortragstyp Masterarbeit
Betreuer(in) Daniel Zimmermann
Vortragsmodus in Präsenz
Kurzfassung Die Testautomatisierung ist ein entscheidender Schritt zur Steigerung der Softwarequalität und zur Minimierung von Fehlern. Automatisierte Tests können durch die schnelle und effiziente Identifikation und Behebung von Problemen Zeit und Kosten sparen. Ein entscheidender Aspekt der Softwarequalität ist die Benutzeroberfläche, welche die primäre Schnittstelle für den Anwender darstellt. Für diesen Zweck eignen sich explorative Tests, die Anwendungszustände erkunden. Das effiziente Durchforsten der Anwendungszustände gestaltet sich jedoch als Herausforderung, da die Anzahl der möglichen Pfade durch die Anwendung mit jeder zusätzlichen Interaktion exponentiell ansteigt. Ein vielversprechender Ansatz ist der Einsatz von großen Sprachmodellen (LLMs) zur Generierung von Benutzeraktionen. In dieser Arbeit wird dieser Ansatz in einem realistischen Szenario erprobt und untersucht, wie effektiv LLMs darin sind, Zustände zu erreichen, die mit konventionellen Methoden schwer zugänglich sind.

Freitag, 12. April 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Jakob Trabert
Titel Automated GUI Testing of Web Applications with Large Language Models
Vortragstyp Bachelorarbeit
Betreuer(in) Daniel Zimmermann
Vortragsmodus in Präsenz
Kurzfassung In der vorgestellten Arbeit wird das Potential von Large Language Models (LLMs) für die Automatisierung von GUI-Tests in Webanwendungen untersucht, eine Methode, die gegenüber dem traditionellen Ansatz des Monkey-Testing einige Vorteile bietet. Vier leistungsfähige LLMs, nämlich WizardLM, Vicuna (beide basierend auf LLAMA), GPT-3.5-Turbo und GPT-4-Turbo, werden hinsichtlich ihrer Fähigkeit, umfangreiche und relevante Teile des Codes durch Interaktion mit der Benutzeroberfläche auszuführen, evaluiert. Die Evaluation umfasst Tests an einer einfachen, für diese Studie entwickelten Proof-of-Concept-Anwendung sowie an PHPLiteAdmin, einem komplexeren Open-Source-Datenbank-Management-Tool.

Die Ergebnisse zeigen, dass insbesondere die GPT-basierten Modelle in bestimmten Szenarien eine höhere Effizienz als der traditionelle Monkey-Tester aufweisen, vor allem bei der Generierung von sinnvollen Texteingaben. Dies unterstreicht das Innovationspotential von LLMs im Bereich der Software-Tests, zeigt aber auch die Herausforderungen und Grenzen auf, die bei der Anwendung auf komplexere Systeme zu erwarten sind. Diese Arbeit leistet somit einen wichtigen Beitrag zur Diskussion über die Weiterentwicklung und Optimierung automatisierter Testverfahren in der Softwareentwicklung.

Freitag, 3. Mai 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Valerii Zhyla
Titel Performance Modeling of Distributed Computing
Vortragstyp Masterarbeit
Betreuer(in) Larissa Schmid
Vortragsmodus in Präsenz
Kurzfassung Optimizing resource allocation in distributed computing systems is crucial for enhancing system efficiency and reliability. Predicting job execution metadata, based on resource demands and platform characteristics, plays a key role in this optimization process.

Distributed computing simulators are utilized for this purpose to model and predict system behaviors. Among the various simulators developed in recent decades, this thesis specifically focuses on the state-of-the-art simulator DCSim. DCSim simulates the nodes and links of the configured platform, generates the workloads according to configured parameter distributions, and performs the simulations. The simulated job execution metadata is accurate, yet the simulations demand computational resources and time that increase superlinearly with the number of nodes simulated.

In this thesis, we explore the application of Recurrent Neural Networks and Transformer models for predicting job execution metadata within distributed computing environments. We focus on data preparation, model training, and evaluation for handling numerical sequences of varying lengths. This approach enhances the scalability of predictive systems by leveraging deep neural networks to interpret and forecast job execution metadata based on simulated data or historical data.

We assess the models across four scenarios of increasing complexity, evaluating their ability to generalize for unseen jobs and platforms. We examine the training duration and the amount of data necessary to achieve accurate predictions and discuss the applicability of such models to overcome the scalability challenges of DCSim. The key findings of this work demonstrate that the models are capable of generalizing across sequences of lengths encountered during training but fall short in generalizing across different platforms.

Vortragende(r) Hristo Klechorov
Titel Symbolic Performance Modeling
Vortragstyp Masterarbeit
Betreuer(in) Larissa Schmid
Vortragsmodus online
Kurzfassung Predicting software performance under different configurations is a challenging task due to the large amount of possible configurations. Performance-influence models help stakeholders understand how configuration options and their interactions influence the performance of a program. A crucial part of the performance modeling process is the design of an experiment set that delivers performance measurements which are used as input for a machine learning algorithm that learns the performance model. An optimal experiment set should contain the minimal amount of experiments that produces a sufficiently accurate performance model.

The topic of this thesis is Symbolic Performance Modeling, a new white-box approach to the analysis of the configuration options' influence on the software's performance. The approach utilizes taint analysis to determine where in the source code configuration options influence the software's performance and symbolic execution to determine whether the influence is significant. We assume that only loop constructs with non-constant iteration counts change the asymptotic behavior of the program. The Feature Taint Analysis provided by VaRA is used to determine which configuration options influence loops, while the Path Tracing provided by PhASAR is used to construct all control-flow paths leading to the loops and their respective path conditions. The SMT Solver Z3 is then used to derive value ranges from the path conditions for the configuration options which influence the loop constructs. We determine the significance of a configuration option's influence based on the size of its value range.

We implement the proof-of-concept tool Symbolic Performance Modeling Value Generator to evaluate the approach with regard to its capabilities to analyze real-world applications and its performance. From the insights gained during the evaluation, we define limitations of the current implementation and propose improvements for future work.

Freitag, 10. Mai 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Lukas Greiner
Titel Supporting a Knowledge Management System for Software Engineering Research with Large Language Models
Vortragstyp Masterarbeit
Betreuer(in) Angelika Kaplan
Vortragsmodus in Präsenz
Kurzfassung Im Forschungsbereich Softwaretechnik werden viele Publikationen in Form von wissenschaftlichen Aufsätzen veröffentlicht. Für Wissenschaftler ist es wichtig, das gewonnene Wissen zu organisieren und zugänglich zu machen. Zur Erfassung und Strukturierung von Publikationen ist der Open Research Knowledge Graph (ORKG) ein System, das Publikationen aus verschiedenen Forschungsbereichen verwalten, visualisieren und vergleichen kann. Aktuell wird das Hinzufügen von Publikationen manuell durch die Nutzer durchgeführt. Um diesen Prozess zu verbessern und zu erleichtern, kann eine automatische Klassifizierung eingesetzt werden.

In dieser Masterarbeit stellen wir einen Ansatz zur Unterstützung des Import-Prozesses für den ORKG vor, indem wir Publikationen aus dem Bereich der Softwarearchitektur mit Sprachmodellen klassifizieren. Für den Ansatz beurteilen wir, wie gut die Sprachmodelle abschneiden und welchen Umwelteinfluss die Klassifizierung hat.

Für die Klassifizierung greifen wir auf den Datensatz zurück, welcher eine Taxonomie und einen Datensatz mit Softwarearchitektur-Veröffentlichungen beinhaltet. Auf dem Datensatz wenden wir verschiedene Techniken wie Splitting und Oversampling an, bevor wir ihn an die Sprachmodelle übergeben. Für die Klassifizierung verwenden wir zwei verschieden Ansätze. Zum einen trainieren wir Sprachmodelle und führen eine Hyperparameter Suchen durch. Zum anderen verwenden wir einen Zero-Shot Ansatz um Vorhersagen für die Softwarearchitektur Publikationen zu erhalten. Wir konnten zeigen, dass die trainierten Sprachmodelle gut funktionieren, wenn genügend Vertreter für die Label vorhanden sind. Mit der Oversampling-Strategie konnten wir unsere Ergebnisse verbessern. Für Kategorien mit weniger Labels konnten wir zeigen, dass der Zero-Shot Ansatz besser abschneidet. Für den Umwelteinfluss konnten wir zeigen, dass das kleinere Sprachmodell DistilBERT für die trainierten Sprachmodelle und Mistral bzw. Llama2:7b für den Zero-Shot Ansatz im Vergleich zu größeren Sprachmodellen wie DeBERTa und Llama2:70b weniger CO2-Emissionen verursachen, um gute Ergebnisse zu erzielen.

Unsere erstellte Implementierung kann für zukünftige Vorhersagen in Wissensmanagementsystemen integriert werden und unterstützt die Vorhersage für neue Taxonomien und Datensätze.

Freitag, 7. Juni 2024, 09:30 Uhr

iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Debora Marettek
Titel Elicitation and Classification of Security Requirements for Everest
Vortragstyp Masterarbeit
Betreuer(in) Sophie Corallo
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung
Vortragende(r) Robin Maisch
Titel Preventing Refactoring Attacks on Software Plagiarism Detection through Graph-Based Structural Normalization
Vortragstyp Masterarbeit
Betreuer(in) Timur Sağlam
Vortragsmodus in Präsenz
Kurzfassung TBD

Freitag, 7. Juni 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Melisa Demirhan
Titel Concept and Implementation of a Delta Chain
Vortragstyp Bachelorarbeit
Betreuer(in) Thomas Weber
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung
Vortragende(r) Thorben Willimek
Titel Definition einer Referenzarchitektur für organisationsübergreifende Zusammenarbeit in modellbasierten Entwicklungsprozessen zur Wahrung des geistigen Eigentums
Vortragstyp Bachelorarbeit
Betreuer(in) Thomas Weber
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung
Vortragende(r) Katrin Quellmalz
Titel Erzeugung von Verschlüsselungsregeln auf Modelländerungen aus Zugriffskontrollregeln auf Modellelementen
Vortragstyp Masterarbeit
Betreuer(in) Thomas Weber
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung

Freitag, 7. Juni 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Dieu Lam Vo
Titel Analyzing Efficiency of High-Performance Applications
Vortragstyp Bachelorarbeit
Betreuer(in) Larissa Schmid
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung
Vortragende(r) Daniel Scheerer
Titel Analyzing Scientific Workflow Management Systems
Vortragstyp Bachelorarbeit
Betreuer(in) Larissa Schmid
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung

Freitag, 14. Juni 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Alina Valta
Titel Optimierung des Migrationsverfahrens in modellbasierten E/E-Entwicklungswerkzeugen durch bedarfsorientierte Prozessierung der Historie von Bestandsmodellen
Vortragstyp Masterarbeit
Betreuer(in) Erik Burger
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung
Vortragende(r) Julian Roßkothen
Titel Source-Target-Mapping von komplexen Relationen in Modell-zu-Modell-Transformationen
Vortragstyp Masterarbeit
Betreuer(in) Erik Burger
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung

Freitag, 21. Juni 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Odilo Bügler
Titel Extraktion von Label-Propagationsfunktionen für Informationsflussanalysen aus architekturellen Verhaltensbeschreibungen
Vortragstyp Bachelorarbeit
Betreuer(in) Christopher Gerking
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung
Vortragende(r) Jonas Lehmann
Titel Iterative Quelltextanalyse für Informationsflusssicherheit zur Überprüfung von Vertraulichkeit auf Architekturebene
Vortragstyp Masterarbeit
Betreuer(in) Frederik Reiche
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung

Freitag, 19. Juli 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Nesta Bentum
Titel Exploring Modern IDE Functionalities for Consistency Preservation
Vortragstyp Masterarbeit
Betreuer(in) Lars König
Vortragsmodus in Präsenz
Kurzfassung TBA
Vortragende(r) Niklas Ewald
Titel Retrieval-Augmented Large Language Models for Traceability Link Recovery
Vortragstyp Masterarbeit
Betreuer(in) Dominik Fuchß
Vortragsmodus in Präsenz
Kurzfassung Kurzfassung

Freitag, 20. September 2024, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Jessica Kimberly Woschek
Titel Exploring the Traceability of Requirements and Source Code via LLMs
Vortragstyp Bachelorarbeit
Betreuer(in) Kevin Feichtinger
Vortragsmodus in Präsenz
Kurzfassung TBA
Vortragende(r) Lars Weber
Titel Generation of Checkpoints for Hardware Architecture Simulators
Vortragstyp Bachelorarbeit
Betreuer(in) Sebastian Weber
Vortragsmodus in Präsenz
Kurzfassung TBD
Vortragende(r) Dennis Fadeev
Titel Konzept und Integration eines Deltachain Prototyps
Vortragstyp Bachelorarbeit
Betreuer(in) Thomas Weber
Vortragsmodus in Präsenz
Kurzfassung TBD