Institutsseminar/2024-04-12
Datum | Freitag, 12. April 2024 | |
---|---|---|
Uhrzeit | 11:30 – 12:00 Uhr (Dauer: 30 min) | |
Ort | Raum 010 (Gebäude 50.34) | |
Webkonferenz | ||
Vorheriger Termin | Fr 15. März 2024 | |
Nächster Termin | Fr 3. Mai 2024 |
Termin in Kalender importieren: iCal (Download)
Vorträge
Vortragende(r) | Jakob Trabert |
---|---|
Titel | Automated GUI Testing of Web Applications with Large Language Models |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Daniel Zimmermann |
Vortragssprache | |
Vortragsmodus | in Präsenz |
Kurzfassung | In der vorgestellten Arbeit wird das Potential von Large Language Models (LLMs) für die Automatisierung von GUI-Tests in Webanwendungen untersucht, eine Methode, die gegenüber dem traditionellen Ansatz des Monkey-Testing einige Vorteile bietet. Vier leistungsfähige LLMs, nämlich WizardLM, Vicuna (beide basierend auf LLAMA), GPT-3.5-Turbo und GPT-4-Turbo, werden hinsichtlich ihrer Fähigkeit, umfangreiche und relevante Teile des Codes durch Interaktion mit der Benutzeroberfläche auszuführen, evaluiert. Die Evaluation umfasst Tests an einer einfachen, für diese Studie entwickelten Proof-of-Concept-Anwendung sowie an PHPLiteAdmin, einem komplexeren Open-Source-Datenbank-Management-Tool.
Die Ergebnisse zeigen, dass insbesondere die GPT-basierten Modelle in bestimmten Szenarien eine höhere Effizienz als der traditionelle Monkey-Tester aufweisen, vor allem bei der Generierung von sinnvollen Texteingaben. Dies unterstreicht das Innovationspotential von LLMs im Bereich der Software-Tests, zeigt aber auch die Herausforderungen und Grenzen auf, die bei der Anwendung auf komplexere Systeme zu erwarten sind. Diese Arbeit leistet somit einen wichtigen Beitrag zur Diskussion über die Weiterentwicklung und Optimierung automatisierter Testverfahren in der Softwareentwicklung. |
- Neuen Vortrag erstellen