Institutsseminar/2018-10-12
Datum | Freitag, 12. Oktober 2018 | |
---|---|---|
Uhrzeit | 11:30 – 13:05 Uhr (Dauer: 95 min) | |
Ort | Raum 348 (Gebäude 50.34) | |
Webkonferenz | ||
Vorheriger Termin | Fr 5. Oktober 2018 | |
Nächster Termin | Fr 19. Oktober 2018 |
Termin in Kalender importieren: iCal (Download)
Vorträge
Vortragende(r) | Markus Raster |
---|---|
Titel | Informationsbedürfnisse zur Untersuchung der Begriffsgeschichte |
Vortragstyp | Proposal |
Betreuer(in) | Jens Willkomm |
Vortragssprache | |
Vortragsmodus | |
Kurzfassung | Die Begriffsgeschichte, als Konzept geschichtswissenschaftlicher Forschung, befasst sich mit der historischen Entwicklung der Semantik einzelner Begriffe. Hierbei bildet oft Wortursprung, Sprachgebrauch sowie Verbreitung Gegenstand wissenschaftlicher Untersuchungen.
Die Bachelorarbeit setzt sich mit der Kombination von Informationstechnologien, in Form von Datenbanken, mit der Forschungsarbeit der Historiker auseinander. Ziel ist es Einflussfaktoren auf die Semantik von Wörtern zu identifizieren. Dabei liegt der Fokus auf einer vollständigen Abdeckung des Themenbereiches, sowie auf einer Strukturierung der einzelnen Informationsbedürfnisse. Im Anschluss der Identifikation der Informationsbedürfnisse sollen einzelne Datenbankanfragen/Queries formuliert werden, die es ermöglichen sollen die entsprechenden Semantischen Entwicklungen der Wörter darzustellen, sowie deren Untersuchung zu vereinfachen. |
Vortragende(r) | Marco Sturm |
---|---|
Titel | On the Interpretability of Anomaly Detection via Neural Networks |
Vortragstyp | Masterarbeit |
Betreuer(in) | Edouard Fouché |
Vortragssprache | |
Vortragsmodus | |
Kurzfassung | Verifying anomaly detection results when working in on an unsupervised use case is challenging. For large datasets a manual labelling is economical unfeasible. In this thesis we create explanations to help verifying and understanding the detected anomalies. We develop a method to rule generation algorithm that describe frequent patterns in the output of autoencoders. The number of rules is significantly lower than the number of anomalies. Thus, finding explanations for these rules is much less effort compared to finding explanations for every single anomaly. Its performance is evaluated on a real-world use case, where we achieve a significant reduction of effort required for domain experts to understand the detected anomalies but can not specify the usefulness in exact numbers due to the missing labels. Therefore, we also evaluate the approach on benchmark dataset. |
Vortragende(r) | Daniel Hamann |
---|---|
Titel | Vollständigkeits- und Semantikprüfung für gesprochene Aussagen |
Vortragstyp | Bachelorarbeit |
Betreuer(in) | Sebastian Weigelt |
Vortragssprache | |
Vortragsmodus | |
Kurzfassung | Diese Arbeit betrachtet das Problem von unvollständigen Aussagen in natürlicher Sprache. Solche Aussagen enthalten nicht explizit alle Informationen, die für die vollständige Umsetzung einer Handlung benötigt werden.
Menschen fällt es leicht, aus solchen Aussagen wieder einen Sinn zu extrahieren, indem sie sich auf ihr gelerntes Wissen beziehen. Für Sprachverarbeitungssysteme ist dieser Schritt jedoch nicht so einfach nachvollziehbar. Um diesen Prozess greifbar zu machen wird ein Ansatz entwickelt, der solchen Systemen menschliches, implizites, Wissen verfügbar macht. Damit wird eine durch Wissen begründete Entscheidung über die Vollständigkeit von Aussagen gemacht. Im Weiteren werden durch den Ansatz Kandidaten generiert, welche für die fehlenden Rollen infrage kommen könnten. Diese werden mithilfe von Wissen über die Welt bezüglich ihrer Eignung für die Rolle bewertet und die Aussage somit wieder vervollständigt. Um die Funktion des implementierten PARSE-Agenten zu prüfen wurde eine Evaluation der Ergebnisse im Vergleich zu einer händisch erstellten Lösung durchgeführt. Fehlende Rollen konnten mit einer Präzision von 51% bestimmt werden und eine Vervollständigung war in 25% (Im Falle des Subjektes sogar 100%) der Fälle korrekt möglich. |
- Neuen Vortrag erstellen