Institutsseminar/2025-05-23
| Datum | Freitag, 23. Mai 2025 | |
|---|---|---|
| Uhrzeit | 14:00 – 15:30 Uhr (Dauer: 90 min) | |
| Ort | Raum 010 (Gebäude 50.34) | |
| Prüfer/in | ||
| Webkonferenz | ||
| Vorheriger Termin | Fr 28. März 2025 | |
| Nächster Termin | Fr 6. Juni 2025 |
Termin in Kalender importieren: iCal (Download)
Vorträge
| Vortragende(r) | Steffen Schmitt |
|---|---|
| Vortragstyp | Masterarbeit |
| Betreuer(in) | Erik Burger |
| Vortragssprache | Deutsch |
| Vortragsmodus | in Präsenz |
| Kurzfassung | Mit wachsender Komplexität modellgetriebener Softwareprojekte steigen die Anforderungen an das Speichermanagement für großer Modelle. Herkömmliche Lösungen stoßen an ihre Grenzen, wenn Modelle vollständig im Arbeitsspeicher gehalten werden müssen und der Zugriff per Dereferenzierung erfolgt. Diese Arbeit präsentiert ein dynamisches Speichermanagement auf Basis von Lazy Loading für modellgetriebene Java-Anwendungen. Ziel ist es, effizient mit großen Modellen zu arbeiten, ohne diese vollständig im Hauptspeicher vorhalten zu müssen. Dadurch werden sowohl der Speicherbedarf als auch die Ladezeiten reduziert. Ein Prototyp in der Industrieanwendung PREEvision zeigt, dass bei einem genutzten Modellanteil von unter 68 % signifikante Vorteile gegenüber dem vollständigen Laden erzielt werden können. Das vorgestellte Konzept bildet zudem eine Grundlage für zukünftige Erweiterungen, etwa zur Unterstützung des Entladens von Modellelementen. |
| Vortragende(r) | Marco Schneider |
|---|---|
| Vortragstyp | Masterarbeit |
| Betreuer(in) | Angelika Kaplan |
| Vortragssprache | Deutsch |
| Vortragsmodus | in Präsenz |
| Kurzfassung | In der aktuellen Praxis ist der manuelle Aufwand, den Forschende zur Durchführung einer Literatursuche betreiben müssen, hoch. Research Knowledge Graphs (RKGs), die wissenschaftliche Beiträge speichern und miteinander verknüpfen, sowie Large Language Models (LLMs), die herausragende Leistungen im Sprachverständnis zeigen, bieten hier das Potenzial, den Suchprozess effizienter zu gestalten. Forschende können ihre Fragen in natürlicher Sprache formulieren, und ein LLM-basiertes Question-Answering (QA)-System sucht die relevanten Kontexte aus dem Graphen heraus und generiert eine passende Antwort.
Aktuelle Ansätze sind jedoch in der Praxis schwer anzuwenden, da sie nicht mit den großen und dynamischen Schemata eines RKGs zurechtkommen und zudem Trainingsdaten benötigen. Diese Arbeit präsentiert "HubLink", einen neuartigen Ansatz, der die Leistungsfähigkeit eines vortrainierten LLMs nutzt, um ohne zusätzliches Training und ohne Abhängigkeit vom Graphschema effizient Antworten im Rahmen einer Literatursuche zu liefern. Darüber hinaus haben wir eine Taxonomie und ein QA-Datenset erstellt, die eine systematische Evaluierung der Kapazitäten eines solchen Systems ermöglichen. Unsere Evaluierung des HubLink-Ansatzes zeigt, das dieser deutlich besser im Auffinden von Daten im Graphen ist, mit einer Verbesserung von über 114 % im Vergleich zu ähnlichen Methoden. Mit dieser Arbeit schaffen wir die Grundlage für weiterführende Forschung zur Literatursuche mithilfe schema-agnostischer und trainingsfreier Methoden sowie zur effizienten Vereinigung von RKGs und LLMs. |
- Neuen Vortrag erstellen