Semantische Suche
Freitag, 2. Februar 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Vortragende(r) | Evgeni Cholakov |
---|---|
Titel | Modeling and analyzing zero-trust architectures taking into account various quality objectives |
Vortragstyp | Masterarbeit |
Betreuer(in) | Nicolas Boltz |
Vortragsmodus | in Präsenz |
Kurzfassung | Integrating a Zero Trust Architecture (ZTA) into a system is a step towards establishing a good defence against external and internal threats. However, there are different approaches to integrating a ZTA which vary in the used components, their assembly and allocation. The earlier in the development process those approaches are evaluated and the right one is selected the more costs and effort can be reduced. In this thesis, we analyse the most prominent standards and specifications for integrating a ZTA and derive a general model by extracting core ZTA tasks and logical components. We model these using the Palladio Component Model to enable assessing ZTAs at design time. We combine performance and security annotations to create a single model which supports both performance and security analysis. By doing this we also assess the possibility of combining performance and security analyses. |
Freitag, 8. März 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Vortragende(r) | Ian Winter |
---|---|
Titel | Context Generation for Code and Architecture Changes Using Large Language Models |
Vortragstyp | Masterarbeit |
Betreuer(in) | Yves Kirschner |
Vortragsmodus | in Präsenz |
Kurzfassung | While large language models have succeeded in generating code, the struggle is to modify large existing code bases. The Generated Code Alteration (GCA) process is designed, implemented, and evaluated in this thesis. The GCA process can automatically modify a large existing code base, given a natural language task. Different variations and instantiations of the process are evaluated in an industrial case study. The code generated by the GCA process is compared to code written by human developers. The language model-based GCA process was able to generate 13.3 lines per error, while the human baseline generated 65.8 lines per error. While the generated code did not match the overall human performance in modifying large code bases, it could still provide assistance to human developers. |
Freitag, 15. März 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Vortragende(r) | Patrick Mehl |
---|---|
Titel | Architektur-basierte Wartbarkeitsvorhersage von Metamodellen mittels Evolutionsszenarien |
Vortragstyp | Masterarbeit |
Betreuer(in) | Lars König |
Vortragsmodus | in Präsenz |
Kurzfassung | Im Rahmen der Masterarbeit „Architektur-basierte Wartbarkeitsvorhersage von Metamodellen mittels Evolutionsszenarien“ wurden Metamodelle für die Modellierung von Metamodell-Architekturen sowie Evolutionsszenarien, die Änderungen auf Metamodell-Architekturen beschreiben, entworfen. Das Metamodell für Metamodell-Architekturen ermöglicht die Modellierung von komplexen Metamodellen auf einer abstrakteren Ebene analog zur Software-Architektur. Für beide Metamodelle wurden Editoren für die Modellierung entwickelt. Zusätzlich wurde ein Werkzeug zur Vorhersage der Wartbarkeit, basierend auf einem Evolutionsszenario, entwickelt. Die entwickelten Werkzeuge wurden anschließend auf ihre Benutzbarkeit über eine Benutzerstudie sowie auf Funktionalität über Fallstudien analysiert. |
Vortragende(r) | Simon Ding |
---|---|
Titel | Automatisierung von GUI-Tests für Webanwendungen durch den Einsatz großer Sprachmodelle |
Vortragstyp | Masterarbeit |
Betreuer(in) | Daniel Zimmermann |
Vortragsmodus | in Präsenz |
Kurzfassung | Die Testautomatisierung ist ein entscheidender Schritt zur Steigerung der Softwarequalität und zur Minimierung von Fehlern. Automatisierte Tests können durch die schnelle und effiziente Identifikation und Behebung von Problemen Zeit und Kosten sparen. Ein entscheidender Aspekt der Softwarequalität ist die Benutzeroberfläche, welche die primäre Schnittstelle für den Anwender darstellt. Für diesen Zweck eignen sich explorative Tests, die Anwendungszustände erkunden. Das effiziente Durchforsten der Anwendungszustände gestaltet sich jedoch als Herausforderung, da die Anzahl der möglichen Pfade durch die Anwendung mit jeder zusätzlichen Interaktion exponentiell ansteigt. Ein vielversprechender Ansatz ist der Einsatz von großen Sprachmodellen (LLMs) zur Generierung von Benutzeraktionen. In dieser Arbeit wird dieser Ansatz in einem realistischen Szenario erprobt und untersucht, wie effektiv LLMs darin sind, Zustände zu erreichen, die mit konventionellen Methoden schwer zugänglich sind. |
Freitag, 12. April 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Vortragende(r) | Jakob Trabert |
---|---|
Titel | Automated GUI Testing of Web Applications with Large Language Models |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Daniel Zimmermann |
Vortragsmodus | in Präsenz |
Kurzfassung | In der vorgestellten Arbeit wird das Potential von Large Language Models (LLMs) für die Automatisierung von GUI-Tests in Webanwendungen untersucht, eine Methode, die gegenüber dem traditionellen Ansatz des Monkey-Testing einige Vorteile bietet. Vier leistungsfähige LLMs, nämlich WizardLM, Vicuna (beide basierend auf LLAMA), GPT-3.5-Turbo und GPT-4-Turbo, werden hinsichtlich ihrer Fähigkeit, umfangreiche und relevante Teile des Codes durch Interaktion mit der Benutzeroberfläche auszuführen, evaluiert. Die Evaluation umfasst Tests an einer einfachen, für diese Studie entwickelten Proof-of-Concept-Anwendung sowie an PHPLiteAdmin, einem komplexeren Open-Source-Datenbank-Management-Tool.
Die Ergebnisse zeigen, dass insbesondere die GPT-basierten Modelle in bestimmten Szenarien eine höhere Effizienz als der traditionelle Monkey-Tester aufweisen, vor allem bei der Generierung von sinnvollen Texteingaben. Dies unterstreicht das Innovationspotential von LLMs im Bereich der Software-Tests, zeigt aber auch die Herausforderungen und Grenzen auf, die bei der Anwendung auf komplexere Systeme zu erwarten sind. Diese Arbeit leistet somit einen wichtigen Beitrag zur Diskussion über die Weiterentwicklung und Optimierung automatisierter Testverfahren in der Softwareentwicklung. |
Freitag, 3. Mai 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: https://sdq.kastel.kit.edu/institutsseminar/Microsoft_Teams
Vortragende(r) | Valerii Zhyla |
---|---|
Titel | Performance Modeling of Distributed Computing |
Vortragstyp | Masterarbeit |
Betreuer(in) | Larissa Schmid |
Vortragsmodus | in Präsenz |
Kurzfassung | Optimizing resource allocation in distributed computing systems is crucial for enhancing system efficiency and reliability. Predicting job execution metadata, based on resource demands and platform characteristics, plays a key role in this optimization process.
Distributed computing simulators are utilized for this purpose to model and predict system behaviors. Among the various simulators developed in recent decades, this thesis specifically focuses on the state-of-the-art simulator DCSim. DCSim simulates the nodes and links of the configured platform, generates the workloads according to configured parameter distributions, and performs the simulations. The simulated job execution metadata is accurate, yet the simulations demand computational resources and time that increase superlinearly with the number of nodes simulated. In this thesis, we explore the application of Recurrent Neural Networks and Transformer models for predicting job execution metadata within distributed computing environments. We focus on data preparation, model training, and evaluation for handling numerical sequences of varying lengths. This approach enhances the scalability of predictive systems by leveraging deep neural networks to interpret and forecast job execution metadata based on simulated data or historical data. We assess the models across four scenarios of increasing complexity, evaluating their ability to generalize for unseen jobs and platforms. We examine the training duration and the amount of data necessary to achieve accurate predictions and discuss the applicability of such models to overcome the scalability challenges of DCSim. The key findings of this work demonstrate that the models are capable of generalizing across sequences of lengths encountered during training but fall short in generalizing across different platforms. |
Vortragende(r) | Hristo Klechorov |
---|---|
Titel | Symbolic Performance Modeling |
Vortragstyp | Masterarbeit |
Betreuer(in) | Larissa Schmid |
Vortragsmodus | online |
Kurzfassung | Predicting software performance under different configurations is a challenging task due to the large amount of possible configurations. Performance-influence models help stakeholders understand how configuration options and their interactions influence the performance of a program. A crucial part of the performance modeling process is the design of an experiment set that delivers performance measurements which are used as input for a machine learning algorithm that learns the performance model. An optimal experiment set should contain the minimal amount of experiments that produces a sufficiently accurate performance model.
The topic of this thesis is Symbolic Performance Modeling, a new white-box approach to the analysis of the configuration options' influence on the software's performance. The approach utilizes taint analysis to determine where in the source code configuration options influence the software's performance and symbolic execution to determine whether the influence is significant. We assume that only loop constructs with non-constant iteration counts change the asymptotic behavior of the program. The Feature Taint Analysis provided by VaRA is used to determine which configuration options influence loops, while the Path Tracing provided by PhASAR is used to construct all control-flow paths leading to the loops and their respective path conditions. The SMT Solver Z3 is then used to derive value ranges from the path conditions for the configuration options which influence the loop constructs. We determine the significance of a configuration option's influence based on the size of its value range. We implement the proof-of-concept tool Symbolic Performance Modeling Value Generator to evaluate the approach with regard to its capabilities to analyze real-world applications and its performance. From the insights gained during the evaluation, we define limitations of the current implementation and propose improvements for future work. |
Freitag, 10. Mai 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: https://sdq.kastel.kit.edu/wiki/SDQ-Institutsseminar/Microsoft_Teams
Vortragende(r) | Lukas Greiner |
---|---|
Titel | Supporting a Knowledge Management System for Software Engineering Research with Large Language Models |
Vortragstyp | Masterarbeit |
Betreuer(in) | Angelika Kaplan |
Vortragsmodus | in Präsenz |
Kurzfassung | Im Forschungsbereich Softwaretechnik werden viele Publikationen in Form von wissenschaftlichen Aufsätzen veröffentlicht. Für Wissenschaftler ist es wichtig, das gewonnene Wissen zu organisieren und zugänglich zu machen. Zur Erfassung und Strukturierung von Publikationen ist der Open Research Knowledge Graph (ORKG) ein System, das Publikationen aus verschiedenen Forschungsbereichen verwalten, visualisieren und vergleichen kann. Aktuell wird das Hinzufügen von Publikationen manuell durch die Nutzer durchgeführt. Um diesen Prozess zu verbessern und zu erleichtern, kann eine automatische Klassifizierung eingesetzt werden.
In dieser Masterarbeit stellen wir einen Ansatz zur Unterstützung des Import-Prozesses für den ORKG vor, indem wir Publikationen aus dem Bereich der Softwarearchitektur mit Sprachmodellen klassifizieren. Für den Ansatz beurteilen wir, wie gut die Sprachmodelle abschneiden und welchen Umwelteinfluss die Klassifizierung hat. Für die Klassifizierung greifen wir auf den Datensatz zurück, welcher eine Taxonomie und einen Datensatz mit Softwarearchitektur-Veröffentlichungen beinhaltet. Auf dem Datensatz wenden wir verschiedene Techniken wie Splitting und Oversampling an, bevor wir ihn an die Sprachmodelle übergeben. Für die Klassifizierung verwenden wir zwei verschieden Ansätze. Zum einen trainieren wir Sprachmodelle und führen eine Hyperparameter Suchen durch. Zum anderen verwenden wir einen Zero-Shot Ansatz um Vorhersagen für die Softwarearchitektur Publikationen zu erhalten. Wir konnten zeigen, dass die trainierten Sprachmodelle gut funktionieren, wenn genügend Vertreter für die Label vorhanden sind. Mit der Oversampling-Strategie konnten wir unsere Ergebnisse verbessern. Für Kategorien mit weniger Labels konnten wir zeigen, dass der Zero-Shot Ansatz besser abschneidet. Für den Umwelteinfluss konnten wir zeigen, dass das kleinere Sprachmodell DistilBERT für die trainierten Sprachmodelle und Mistral bzw. Llama2:7b für den Zero-Shot Ansatz im Vergleich zu größeren Sprachmodellen wie DeBERTa und Llama2:70b weniger CO2-Emissionen verursachen, um gute Ergebnisse zu erzielen. Unsere erstellte Implementierung kann für zukünftige Vorhersagen in Wissensmanagementsystemen integriert werden und unterstützt die Vorhersage für neue Taxonomien und Datensätze. |
Freitag, 7. Juni 2024, 09:30 Uhr
iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Vortragende(r) | Debora Marettek |
---|---|
Titel | Elicitation and Classification of Security Requirements for Everest |
Vortragstyp | Masterarbeit |
Betreuer(in) | Sophie Corallo |
Vortragsmodus | in Präsenz |
Kurzfassung | Unvollständige und nicht überprüfte Anforderungen können zu Missverständnissen und falschen Vorstellungen führen. Gerade im Sicherheitsbereich können verletzte Anforderungen Hinweise auf potenzielle Schwachstellen sein. Um eine Software auf Schwachstellen zu prüfen, werden Sicherheitsanforderungen an ihre Implementierung geknüpft. Hierfür müssen spezifische Anforderungsattribute identifiziert und mit dem Design verknüpft werden.
In dieser Arbeit werden 93 Sicherheitsanforderungen auf Designebene für die Open-Source-Software EVerest, einer Full-Stack-Umgebung für Ladestationen, erhoben. Mithilfe von Prompt Engineering und Fine-tuning werden Designelemente mittels GPT klassifiziert und ihre jeweiligen Erwähnungen aus den erhobenen Anforderungen extrahiert. Die Ergebnisse deuten darauf hin, dass die Klassifizierung von Designelementen in Anforderungen sowohl bei Prompt Engineering als auch bei Fine-tuning gut funktioniert (F1-Score: 0,67-0,73). In Bezug auf die Extraktion von Designelementen übertrifft Fine-tuning (F1-Score: 0,7) jedoch Prompt Engineering (F1-Score: 0,52). Wenn beide Aufgaben kombiniert werden, übertrifft Fine-tuning (F1-Score: 0,87) ebenfalls Prompt Engineering (F1-Score: 0,61). |
Vortragende(r) | Robin Maisch |
---|---|
Titel | Preventing Refactoring Attacks on Software Plagiarism Detection through Graph-Based Structural Normalization |
Vortragstyp | Masterarbeit |
Betreuer(in) | Timur Sağlam |
Vortragsmodus | in Präsenz |
Kurzfassung | TBD |
Freitag, 7. Juni 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Vortragende(r) | Melisa Demirhan |
---|---|
Titel | Concept and Implementation of a Delta Chain |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Thomas Weber |
Vortragsmodus | in Präsenz |
Kurzfassung | Die sich weiterentwickelnde Technologie erfordert eine organisationsübergreifende Zusammenarbeit, um die komplexen Aufgaben bei der Entwicklung komplexer Systeme wie Webservices, IoT und heterogener Systeme zu bewältigen. Auf diese Weise hat die Zusammenarbeit das Potenzial, den hohen Ressourcen- und Qualitätsbedarf zu mindern und von den komplementären Ressourcen der Zusammenarbeit zu profitieren. Dennoch muss während der Zusammenarbeit ein Austausch der Versionen der entwickelten Schnittstellen möglich sein. Während des Austauschs muss der Schutz des geistigen Eigentums der kooperierenden Organisationen und der Metadaten der Versionen berücksichtigt werden, um die Kompetenz der Organisation und die Designentscheidungen zu schützen. Einige existierende Ansätze integrieren einen Server, um die Zugangskontrolle und Autorisierung zu erleichtern und eine feingranulare Verschlüsselung der gemeinsam genutzten Assets und den Schutz des geistigen Eigentums zu bieten. Andere Ansätze integrieren Verschlüsselungsmechanismen in die bestehenden Versionskontrollsysteme, z. B. Git. Für die Zugriffskontrolle nutzen wir jedoch keinen Server und schützen das geistige Eigentum und zusätzlich die Metadaten. Das Thema dieser Arbeit konzentriert sich auf die Vertraulichkeit und Integrität der Modellversionen und ihrer Metadaten. Wir definieren Deltachain, die wir aus Blockchain motivieren. Jedes Element einer Deltachain ist mit einem Vorgänger verknüpft, wodurch eine Kette entsteht. Die Elemente von Deltachain bestehen aus verschlüsselten Modelländerungen mit den entsprechenden Metadaten, um die Vertraulichkeit zu gewährleisten. Darüber hinaus kapselt jedes Element von Deltachain den Hash-Wert der Modelländerung und der Metadaten ein, um die Integrität zu gewährleisten. Wir verwenden den Advanced Encryption Standard für die Verschlüsselung und SHA für das Hashing der Versionen. Um Modelländerungen zwischen zwei Versionen eines Modells zu erkennen, verwenden wir die Vitruv-Tools. Für die Definition des Metamodells und die Implementierung der Deltachain verwenden wir das Eclipse Modeling Framework. Wir evaluieren unseren Ansatz unter den Aspekten der Funktionalität, um die erwartete Leistung von Deltachain zu bestätigen, der Skalierbarkeit, um die Auswirkungen der zunehmenden Versionen und Modelle auf Deltachain zu untersuchen, und der Leistung, um Deltachain mit EMFCompare zu vergleichen. Für die Bewertungsklassen Skalierbarkeit und Leistung finden wir drei Open-Source-Modellierungsprojekte auf GitHub. |
Vortragende(r) | Thorben Willimek |
---|---|
Titel | Definition einer Referenzarchitektur für organisationsübergreifende Zusammenarbeit in modellbasierten Entwicklungsprozessen zur Wahrung des geistigen Eigentums |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Thomas Weber |
Vortragsmodus | in Präsenz |
Kurzfassung | Entwicklungsprozesse von komplexen, softwareintensiven Systemen sind heutzutage von organisationsübergreifender Zusammenarbeit geprägt. Organisationen teilen verschiedene Artefakte miteinander und leisten darauf aufbauend ihren Beitrag zur Systementwicklung. Die Synchronisation von Änderungen an solchen geteilten Artefakten erfolgt hauptsächlich in Form von regelmäßigen, aber seltenen Meetings. Darüber hinaus enthalten die Artefakte im Allgemeinen geistiges Eigentum, das geschützt werden muss, auch vor mitwirkenden Organisationen. Wir entwerfen eine Referenzarchitektur, die einen konstanten Datenfluss beim organisationsübergreifenden Austausch von Artefakten unter Schutz des geistigen Eigentums ermöglicht. |
Vortragende(r) | Katrin Quellmalz |
---|---|
Titel | Erzeugung von Verschlüsselungsregeln auf Modelländerungen aus Zugriffskontrollregeln auf Modellelementen |
Vortragstyp | Masterarbeit |
Betreuer(in) | Thomas Weber |
Vortragsmodus | in Präsenz |
Kurzfassung | In der Softwareentwicklung werden häufig Modelle genutzt. Bei einer Zusammenarbeit an diesen Modellen werden Zugriffskontrollsysteme eingesetzt, um die darin enthaltenen Daten vor unbefugtem Zugriff zu schützen. Aktuell genutzte Ansätze benötigen dafür entweder eine zentrale Zugriffskontrolle, der alle Beteiligten vertrauen müssen, oder sind nur für einen bestimmten Typ Modell nutzbar. Daher befassen wir uns in dieser Arbeit mit der Problemstellung, verschiedene Arten von Modellen ohne eine zentrale Zugriffskontrolle zu teilen. Wir stellen ein Konzept zur Ableitung von Verschlüsselungsregeln aus den Regeln einer Rollenbasierten Zugriffskontrolle, die auf Modellelemente definiert sind, vor. Durch Nutzung von symmetrischer Verschlüsselung und Digitaler Signaturen können Lese- und Schreibrechte ohne einen zentralen Server zur Zugriffskontrolle umgesetzt werden. Modelle werden in unserem Ansatz als Delta Chain und somit als Abfolge von einzelnen Modelländerungen dargestellt, wodurch unser Ansatz für verschiedene Arten von Modellen funktioniert. Die Verschlüsselungsregeln werden auf die einzelnen Modelländerungen angewendet. Zusätzlich haben wir das Konzept prototypisch implementiert. Unsere Implementierung haben wir ausführlich evaluiert. Durch eine funktionale Analyse anhand von Software-Tests konnten wir die Funktionalität unseres Ansatzes zeigen. Eine zusätzlich durchgeführte empirische Evaluation bestätigt diese Aussage, zeigt aber auch Einbußen bei Laufzeit und benötigtem Speicherplatz, die durch die Verschlüsselung in Kauf genommen werden müssen. Die für die empirische Evaluation benötigten realitätsnahen Fallstudien haben wir aus Github-Projekten abgeleitet. |
Freitag, 7. Juni 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Vortragende(r) | Dieu Lam Vo |
---|---|
Titel | Analyzing Efficiency of High-Performance Applications |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Larissa Schmid |
Vortragsmodus | in Präsenz |
Kurzfassung | Kurzfassung |
Vortragende(r) | Daniel Scheerer |
---|---|
Titel | Analyzing Scientific Workflow Management Systems |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Larissa Schmid |
Vortragsmodus | in Präsenz |
Kurzfassung | Kurzfassung |
Freitag, 14. Juni 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Vortragende(r) | Alina Valta |
---|---|
Titel | Optimierung des Migrationsverfahrens in modellbasierten E/E-Entwicklungswerkzeugen durch bedarfsorientierte Prozessierung der Historie von Bestandsmodellen |
Vortragstyp | Masterarbeit |
Betreuer(in) | Erik Burger |
Vortragsmodus | in Präsenz |
Kurzfassung | Kurzfassung |
Vortragende(r) | Julian Roßkothen |
---|---|
Titel | Source-Target-Mapping von komplexen Relationen in Modell-zu-Modell-Transformationen |
Vortragstyp | Masterarbeit |
Betreuer(in) | Erik Burger |
Vortragsmodus | in Präsenz |
Kurzfassung | Kurzfassung |
Freitag, 21. Juni 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Vortragende(r) | Odilo Bügler |
---|---|
Titel | Extraktion von Label-Propagationsfunktionen für Informationsflussanalysen aus architekturellen Verhaltensbeschreibungen |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Christopher Gerking |
Vortragsmodus | in Präsenz |
Kurzfassung | Kurzfassung |
Vortragende(r) | Jonas Lehmann |
---|---|
Titel | Iterative Quelltextanalyse für Informationsflusssicherheit zur Überprüfung von Vertraulichkeit auf Architekturebene |
Vortragstyp | Masterarbeit |
Betreuer(in) | Frederik Reiche |
Vortragsmodus | in Präsenz |
Kurzfassung | Kurzfassung |
Freitag, 19. Juli 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: https://sdq.kastel.kit.edu/institutsseminar/Microsoft_Teams
Vortragende(r) | Nesta Bentum |
---|---|
Titel | Exploring Modern IDE Functionalities for Consistency Preservation |
Vortragstyp | Masterarbeit |
Betreuer(in) | Lars König |
Vortragsmodus | in Präsenz |
Kurzfassung | TBA |
Vortragende(r) | Niklas Ewald |
---|---|
Titel | Retrieval-Augmented Large Language Models for Traceability Link Recovery |
Vortragstyp | Masterarbeit |
Betreuer(in) | Dominik Fuchß |
Vortragsmodus | in Präsenz |
Kurzfassung | Kurzfassung |
Freitag, 20. September 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Vortragende(r) | Jessica Kimberly Woschek |
---|---|
Titel | Exploring the Traceability of Requirements and Source Code via LLMs |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Kevin Feichtinger |
Vortragsmodus | in Präsenz |
Kurzfassung | TBA |
Vortragende(r) | Lars Weber |
---|---|
Titel | Generation of Checkpoints for Hardware Architecture Simulators |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Sebastian Weber |
Vortragsmodus | in Präsenz |
Kurzfassung | TBD |
Vortragende(r) | Dennis Fadeev |
---|---|
Titel | Konzept und Integration eines Deltachain Prototyps |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Thomas Weber |
Vortragsmodus | in Präsenz |
Kurzfassung | TBD |
Freitag, 27. September 2024, 11:30 Uhr
iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
(Keine Vorträge)