Institutsseminar/2021-09-10

Aus SDQ-Institutsseminar
Termin (Alle Termine)
Datum Freitag, 10. September 2021
Uhrzeit 14:00 – 15:15 Uhr (Dauer: 75 min)
Ort https://sdqweb.ipd.kit.edu/wiki/Institutsseminar/Microsoft_Teams
Webkonferenz
Vorheriger Termin Fr 20. August 2021
Nächster Termin Fr 17. September 2021

Termin in Kalender importieren: iCal (Download)

Vorträge

Vortragende(r) Martin Armbruster
Titel Commit-Based Continuous Integration of Performance Models
Vortragstyp Masterarbeit
Betreuer(in) Manar Mazkatli
Vortragssprache
Vortragsmodus
Kurzfassung Architecture-level performance models, for instance, the PCM, allow performance predictions to evaluate and compare design alternatives. However, software architectures drift over time so that initially created performance models are out-to-date fast due to the required manual high effort to keep them up-to-date.

To close the gap between the development and having up-to-date performance models, the Continuous Integration of Performance Models (CIPM) approach has been proposed. It incorporates automatically executed activities into a Continuous Integration pipeline and is realized with Vitruvius combining Java and the PCM. As a consequence, changes from a commit are extracted to incrementally update the models in the VSUM. To estimate the resource demand in the PCM, the CIPM approach adaptively instruments and monitors the source code.

In previous work, parts of the CIPM pipeline were prototypically implemented and partly evaluated with artificial projects. A pipeline combining the incremental model update and the adaptive instrumentation is absent. Therefore, this thesis presents the combined pipeline adapting and extending the existing implementations. The evaluation is performed with the TeaStore and indicates the correct model update and instrumentation. Nevertheless, there is a gap towards the calibration pipeline.

Vortragende(r) Sina Schmitt
Titel Einfluss meta-kognitiver Strategien auf die Schlussfolgerungsfähigkeiten neuronaler Sprachmodelle
Vortragstyp Bachelorarbeit
Betreuer(in) Jan Keim
Vortragssprache
Vortragsmodus
Kurzfassung Die meta-kognitive Strategie "laut nachzudenken" kann auf neuronale Sprachmodelle übertragen werden, wie Betz et al. zeigen: Ein vortrainiertes Sprachmodell ist besser in der Lage, deduktive Schlussfolgerungsprobleme zu lösen, wenn es zuvor dynamische Problemelaborationen generiert. Das Sprachmodell verwendet auf dem Datensatz von Betz et al. eine einfache Heuristik für seine Antwortvorhersage, die es mithilfe der selbst generierten Kontexterweiterungen effektiver einsetzen kann. In dieser Arbeit untersuche ich, wie dynamische Kontexterweiterungen die Performanz eines neuronalen Sprachmodells beeinflussen, wenn es nicht auf eine solche Heuristik zurückgreifen kann. Ich überprüfe (i) die Schlussfolgerungsfähigkeiten eines vortrainierten neuronalen Sprachmodells im Zero-Shot Setting, (ii) den Einfluss verschiedener vorgegebener Kontexterweiterungen auf die Zero-Shot-Performanz und (iii) die Fähigkeiten des Sprachmodells, selbst effektive Kontexterweiterungen zu generieren und zu nutzen.
Neuen Vortrag erstellen

Hinweise