Skalierung der SVDD für große Datenmengen: Unterschied zwischen den Versionen
Keine Bearbeitungszusammenfassung |
Keine Bearbeitungszusammenfassung |
||
Zeile 5: | Zeile 5: | ||
|betreuer=Adrian Englhardt | |betreuer=Adrian Englhardt | ||
|termin=Institutsseminar/2020-11-20 | |termin=Institutsseminar/2020-11-20 | ||
|kurzfassung=„Support Vector Data Description“ | |kurzfassung=Ausreißerkennung beschäftigt sich damit, ungewöhnliche Beobachtungen in Daten zu finden. Weit verbreitet ist dabei der Einsatz von maschinellen Lernverfahren, wie beispielsweise des 1-Klassen Klassifikators „Support Vector Data Description“ (SVDD). Ein Problem des SVDD Klassifikators ist allerdings, dass SVDD schlecht mit steigender Anzahl an Beobachtungen skaliert. Vorausgehende Arbeiten zeigen, dass das Training einer SVDD nicht alle Objekte des Datensatzes benötigt werden. Es zeigt sich hierbei, dass vor allem jene, die sich am Rand der Verteilung befinden, von Interesse sind. Welche Objekte genau gewählt werden sollten und wie sich eine solche Reduktion letztlich auf die Qualität des Ergebnisses auswirkt, wird in den vorausgehenden Arbeiten bislang ausschließlich auf heuristischer Ebene behandelt. In dieser Arbeit entwickeln wir einen neuen Ansatz, um SVDD schneller zu trainieren. Wir geben dabei konkrete, analytisch berechnete Fehlerschranken und ermöglichen es dem Nutzer, den Kompromiss zwischen Laufzeit und Ergebnis-Qualität selbst zu adjustieren. | ||
}} | }} |
Version vom 17. November 2020, 18:36 Uhr
Vortragende(r) | Benjamin Acar | |
---|---|---|
Vortragstyp | Proposal | |
Betreuer(in) | Adrian Englhardt | |
Termin | Fr 20. November 2020 | |
Vortragssprache | ||
Vortragsmodus | ||
Kurzfassung | Ausreißerkennung beschäftigt sich damit, ungewöhnliche Beobachtungen in Daten zu finden. Weit verbreitet ist dabei der Einsatz von maschinellen Lernverfahren, wie beispielsweise des 1-Klassen Klassifikators „Support Vector Data Description“ (SVDD). Ein Problem des SVDD Klassifikators ist allerdings, dass SVDD schlecht mit steigender Anzahl an Beobachtungen skaliert. Vorausgehende Arbeiten zeigen, dass das Training einer SVDD nicht alle Objekte des Datensatzes benötigt werden. Es zeigt sich hierbei, dass vor allem jene, die sich am Rand der Verteilung befinden, von Interesse sind. Welche Objekte genau gewählt werden sollten und wie sich eine solche Reduktion letztlich auf die Qualität des Ergebnisses auswirkt, wird in den vorausgehenden Arbeiten bislang ausschließlich auf heuristischer Ebene behandelt. In dieser Arbeit entwickeln wir einen neuen Ansatz, um SVDD schneller zu trainieren. Wir geben dabei konkrete, analytisch berechnete Fehlerschranken und ermöglichen es dem Nutzer, den Kompromiss zwischen Laufzeit und Ergebnis-Qualität selbst zu adjustieren. |