Hauptseite: Unterschied zwischen den Versionen

Aus IPD-Institutsseminar
Zur Navigation springen Zur Suche springen
Zeile 21: Zeile 21:
 
|mainlabel=-
 
|mainlabel=-
 
|?Veranstaltungsdatum#ISO=Datum
 
|?Veranstaltungsdatum#ISO=Datum
 +
|sort=Veranstaltungsdatum
 +
|order=ascending
 +
|limit=1
 
|format=template
 
|format=template
 
|template=Termine für Datum
 
|template=Termine für Datum

Version vom 8. August 2017, 10:06 Uhr

Das Institutsseminar des Instituts für Programmstrukturen und Datenorganisation (IPD) ist eine ständige Lehrveranstaltung, die den Zweck hat, über aktuelle Forschungsarbeiten am Institut zu informieren. Insbesondere soll Studierenden am Institut die Gelegenheit gegeben werden, über ihre Bachelor- und Masterarbeiten vor einem größeren Auditorium zu berichten. Schwerpunkte liegen dabei auf der Problemstellung, den Lösungsansätzen und den erzielten Ergebnissen. Das Seminar steht aber allen Studierenden und Mitarbeiter/-innen des KIT sowie sonstigen Interessierten offen.

Ort Gebäude 50.34, Seminarraum 348
Zeit jeweils freitags, 11:30–13:00 Uhr

Die Vorträge müssen den folgenden zeitlichen Rahmen einhalten:

  • Diplomarbeit/Masterarbeit: 30 Minuten Redezeit + 15 Minuten Diskussion
  • Studienarbeit/Bachelorarbeit: 20 Minuten Redezeit + 10 Minuten Diskussion
  • Proposal: 12 Minuten Redezeit + 8 Minuten Diskussion

Weitere Informationen: https://sdqweb.ipd.kit.edu/wiki/Institutsseminar

Nächster Termin

Freitag, 2. Dezember 2022, 11:30 Uhr

Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Elias Kia
Titel Implementation von Feedbackmechanismen in Onlinekursen am Bespiel Masterstudy LMS
Vortragstyp Bachelorarbeit
Betreuer(in) Kai Marquardt
Vortragsmodus in Präsenz
Kurzfassung Auch wenn der Erhalt von Feedback ein wichtiger Teil des Lernprozesses ist, gibt es zu manchen Ansätzen für Feedback bisher kaum wissenschaftliche Arbeiten, welche diese in Onlinekursen isoliert betrachten. Deshalb wurden für diese Arbeit zwei Ansätze für eine genauere Untersuchung ausgewählt: Erstens ein Fortschrittsbalken zur Anzeige des Kursfortschritts und zweitens ein Overlay mit durch den Kursersteller einstellbaren Nachrichten. Damit die Auswirkungen untersucht werden können, wurden diese Feedbackmechanismen auf eine bereits bestehende Webseite mit Onlinekursen, namens "Rockstartit", implementiert. Die Implementation der Feedbackmechanismen auf der in "WordPress" mit dem Plugin "MasterStudy LMS" entwickelten Webseite, wurde dokumentiert und bewertet. Zuletzt wurde eine Evaluation zum Fortschrittsbalken durchgeführt und ein Ansatz für eine Evaluation des Overlays vorgeschlagen.
Vortragende(r) Tim Schmack
Titel Linking Architectural Analyses Based on Attacker Models
Vortragstyp Bachelorarbeit
Betreuer(in) Frederik Reiche
Vortragsmodus in Präsenz
Kurzfassung Fehler in einer Software können unter Umständen nicht behoben werden, da die Fehlerursache in der Architektur der Software liegt. Um diesen Fall vorzubeugen, gibt es verschiedenste Ansätze diese Fehler frühzeitig zu erkennen und zu eliminieren. Ein Ansatz sind Sicherheitsanalysen auf Architekturebene. Diese spezifizieren den Aspekt der Sicherheit auf unterschiedliche Weise und können dadurch verschiedene Erkenntnisse über die Sicherheit des Systems erhalten. Dabei wäre es praktischer, wenn die Erkenntnisse der Sicherheitsanalysen kombiniert werden können, um ein aussagekräftigeres Ergebnis zu erzielen. In dieser Arbeit wird ein Ansatz zum Kombinieren von zwei Architektur Sicherheitsanalysen vorgestellt. Die erste Analyse erkennt physische Schwachstellen durch einen Angreifer im System. Die zweite Analyse erkennt mögliche Ausbreitungsschritte eines Angreifers im System. Die Analysen werden kombiniert, indem die Ergebnisse der ersten Analyse zum Erstellen der Eingabemodelle für die zweite Analyse genutzt werden. Dafür wird ein Ausgabemetamodell erstellt und ein Parser implementiert, welcher die Ergebnisse der ersten Analyse in eine Instanz des Ausgabemetamodells übersetzt. Daraus werden die benötigten Informationen für die zweite Analyse extrahiert. Die Machbarkeit und der Mehrwert des Ansatzes wird in einer Fallstudie evaluiert. Diese ergab, dass die Übertragung machbar ist und aussagekräftigere Ergebnisse erzielt werden konnten.

Freitag, 2. Dezember 2022, 11:30 Uhr

Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Vincenzo Pace
Titel Attention Based Selection of Log Templates for Automatic Log Analysis
Vortragstyp Proposal
Betreuer(in) Pawel Bielski
Vortragsmodus in Präsenz
Kurzfassung Log parsing is an essential preprocessing step in text log data analysis, such as anomaly detection in cloud system monitoring.

However, selecting the optimal log parsing algorithm for a concrete task is difficult. Many algorithms exist to choose from, and each needs proper parametrization. The selected algorithm applies to the whole dataset and with parameters determined independently of the data analysis task, which is not optimal.

In this work, we evaluate a new attention-based method to automatically select the optimal log parsing algorithm for the data analysis task. The method was initially proposed in the Master Thesis and showed promising results on one log parsing algorithm and one dataset. In this work, we plan to test whether the algorithm is helpful for other algorithms and datasets.

Vortragende(r) Rakan Al Masri
Titel Generating Causal Domain Knowledge for Cloud Systems Monitoring
Vortragstyp Proposal
Betreuer(in) Pawel Bielski
Vortragsmodus in Präsenz
Kurzfassung Recently the authors of the DomainML framework for Domain Knowledge Guided Machine Learning showed that heuristically generated hierarchical and textual domain knowledge could improve the performance of machine learning tasks in cloud system monitoring.

However, they were unsuccessful in generating useful causal knowledge. The reason might be that the causal knowledge was generated with very simple heuristics.

In this work, we plan to use causal learning algorithms to generate various forms of causal knowledge. We will then evaluate them on cloud system monitoring machine learning tasks with the DomainML framework.


__NOCACHE__