Institutsseminar/2020-01-17-Zusatztermin
Datum | Freitag, 17. Januar 2020 | |
---|---|---|
Uhrzeit | 11:30 – 12:20 Uhr (Dauer: 50 min) | |
Ort | Raum 301 (Gebäude 50.34) | |
Webkonferenz | ||
Vorheriger Termin | Fr 10. Januar 2020 | |
Nächster Termin | Fr 24. Januar 2020 |
Termin in Kalender importieren: iCal (Download)
Vorträge
Vortragende(r) | Pierre Bonert |
---|---|
Titel | Detecting Data-State Anomalies in BPMN 2.0 |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Elaheh Ordoni |
Vortragssprache | |
Vortragsmodus | |
Kurzfassung | Business Process Model and Notation (BPMN) is a standard language to specify business process models. It helps organizations around the world to analyze, improve and automate their processes. It is very important to make sure that those models are correct, as faulty models can do more harm than good. While many verification methods for BPMN concentrate only on control flow, the importance of correct data flow is often neglected.
Additionally the few approaches tackling this problem, only do it on a surface level ignoring certain important aspects, such as data states. Because data objects with states can cause different types of errors than data objects without them, ignoring data states can lead to overlooking certain mistakes. This thesis tries to address the problem of detecting data flow errors on the level of data states, while also taking optional data and alternative data into account. We propose a new transformation for BPMN models to Petri Nets and specify suitable anti-patterns. Using a model checker, we are then capable of automatically detecting data flow errors regarding data states. In combination with existing approaches, which detect control flow errors or data flow errors on the level of data values, business process designers will be able to prove with a higher certainty that their models are actually flawless. |
Vortragende(r) | Cem Özcan |
---|---|
Titel | Meta-Learning Feature Importance |
Vortragstyp | Proposal |
Betreuer(in) | Jakob Bach |
Vortragssprache | |
Vortragsmodus | |
Kurzfassung | Feature Selection ist ein Prozess, der redundante Features aus Datensätzen entfernt. Das resultiert in kürzeren Trainingszeiten und verbessert die Performance von Machine Learning Modellen, weswegen Feature Selection ein wichtiger Bestandteil von Machine Learning Pipelines ist. Die Berechnung der Feature Importance ist jedoch häufig sehr aufwendig und erfordert das Training von Modellen.
Ziel dieser Arbeit ist es, einen Meta-Learning Ansatz zu entwickeln, um die Wichtigkeit verschiedener Features für ein Klassifikationsproblem vorherzusagen, ohne vorher ein Modell auf den Daten trainiert zu haben. Meta-Learning ist ein Bereich des maschinellen Lernens, das sich mit der Vorhersage der Performance von verschiedenen Machine Learning Modellen beschäftigt. Für Vorhersagen dieser Art wird ein Meta-Datensatz benötigt, dessen Einträge individuelle Datensätze repräsentieren, die von Meta-Features charakterisiert werden. Die Zielvariablen eines Meta-Datensatzes sind häufig die Performance-Werte verschiedener Klassifikationsmodelle auf den jeweiligen Datensätzen. Im Rahmen dieser Arbeit sollen Meta-Features erarbeitet und implementiert werden, die nicht nur ganze Datensätze, sondern individuelle Features eines Datensatzes charakterisieren. Als Zielvariablen werden Feature Importance Werte verschiedener Verfahren eingesetzt. Erste Ergebnisse zeigen, dass eine positive Korrelation zwischen tatsächlichen und vorhergesagten Feature Importance Werten besteht. |
- Neuen Vortrag erstellen