Institutsseminar/2024-03-15: Unterschied zwischen den Versionen
(Die Seite wurde neu angelegt: „{{Termin |datum=2024-03-15T11:30:00.000Z |raum=Raum 010 (Gebäude 50.34) |online=https://sdq.kastel.kit.edu/institutsseminar/Microsoft_Teams }}“) |
Keine Bearbeitungszusammenfassung |
||
Zeile 2: | Zeile 2: | ||
|datum=2024-03-15T11:30:00.000Z | |datum=2024-03-15T11:30:00.000Z | ||
|raum=Raum 010 (Gebäude 50.34) | |raum=Raum 010 (Gebäude 50.34) | ||
}} | }} |
Aktuelle Version vom 23. Januar 2024, 13:40 Uhr
Datum | Freitag, 15. März 2024 | |
---|---|---|
Uhrzeit | 11:30 – 13:00 Uhr (Dauer: 90 min) | |
Ort | Raum 010 (Gebäude 50.34) | |
Webkonferenz | ||
Vorheriger Termin | Fr 8. März 2024 | |
Nächster Termin | Fr 12. April 2024 |
Termin in Kalender importieren: iCal (Download)
Vorträge
Vortragende(r) | Patrick Mehl |
---|---|
Titel | Architektur-basierte Wartbarkeitsvorhersage von Metamodellen mittels Evolutionsszenarien |
Vortragstyp | Masterarbeit |
Betreuer(in) | Lars König |
Vortragssprache | |
Vortragsmodus | in Präsenz |
Kurzfassung | Im Rahmen der Masterarbeit „Architektur-basierte Wartbarkeitsvorhersage von Metamodellen mittels Evolutionsszenarien“ wurden Metamodelle für die Modellierung von Metamodell-Architekturen sowie Evolutionsszenarien, die Änderungen auf Metamodell-Architekturen beschreiben, entworfen. Das Metamodell für Metamodell-Architekturen ermöglicht die Modellierung von komplexen Metamodellen auf einer abstrakteren Ebene analog zur Software-Architektur. Für beide Metamodelle wurden Editoren für die Modellierung entwickelt. Zusätzlich wurde ein Werkzeug zur Vorhersage der Wartbarkeit, basierend auf einem Evolutionsszenario, entwickelt. Die entwickelten Werkzeuge wurden anschließend auf ihre Benutzbarkeit über eine Benutzerstudie sowie auf Funktionalität über Fallstudien analysiert. |
Vortragende(r) | Simon Ding |
---|---|
Titel | Automatisierung von GUI-Tests für Webanwendungen durch den Einsatz großer Sprachmodelle |
Vortragstyp | Masterarbeit |
Betreuer(in) | Daniel Zimmermann |
Vortragssprache | |
Vortragsmodus | in Präsenz |
Kurzfassung | Die Testautomatisierung ist ein entscheidender Schritt zur Steigerung der Softwarequalität und zur Minimierung von Fehlern. Automatisierte Tests können durch die schnelle und effiziente Identifikation und Behebung von Problemen Zeit und Kosten sparen. Ein entscheidender Aspekt der Softwarequalität ist die Benutzeroberfläche, welche die primäre Schnittstelle für den Anwender darstellt. Für diesen Zweck eignen sich explorative Tests, die Anwendungszustände erkunden. Das effiziente Durchforsten der Anwendungszustände gestaltet sich jedoch als Herausforderung, da die Anzahl der möglichen Pfade durch die Anwendung mit jeder zusätzlichen Interaktion exponentiell ansteigt. Ein vielversprechender Ansatz ist der Einsatz von großen Sprachmodellen (LLMs) zur Generierung von Benutzeraktionen. In dieser Arbeit wird dieser Ansatz in einem realistischen Szenario erprobt und untersucht, wie effektiv LLMs darin sind, Zustände zu erreichen, die mit konventionellen Methoden schwer zugänglich sind. |
- Neuen Vortrag erstellen