Refine
Document Type
- Bachelor Thesis (2)
- Conference Proceeding (1)
- Master's Thesis (1)
Keywords
- Zeitreihe (2)
- Ergonomie (1)
- Lernendes System (1)
- Maschinelles Lernen (1)
- Montage (1)
- Musikproduktion (1)
- Vektor (1)
- Vektorquantisierung (1)
- datenbasierte Assistenzsysteme, (1)
Institute
Learning Vector Quantization ist ein Klassifikator, der in seiner Urform im euklidischen Raum lernt. Für Zeitreihendaten benötigt es ein gesondertes Distanzmaß, nicht nur wegen der Relation der Zeitpunkte untereinander, sondern auch wegen der unterschiedlichen Längen dieser Zeitreihendaten. Als solches Distanzmaß wird Dynamic Time Warping eingesetzt. Diese Arbeit untersucht die Implementierung und dessen Zeit- und Raumkomplexität.
Im Rahmen des Projektes „PerspektiveArbeit Lausitz (PAL) - Kompetenzzentrum für die Arbeit der Zukunft in Sachsen und Brandenburg“ wird ein datenbasiertes Assistenzsystem zur Ergonomiebewertung entwickelt. Hohe Produktvarianz und flexibel wechselnde Arbeitsaufgaben fordern die Mitarbeitenden der Montage immer stärker heraus. Der Digitale Wandel bietet Möglichkeiten, die Menschen bei ihren Tätigkeiten zu unterstützen und somit dem Fachkräftemangel und der demographischen Entwicklung entgegenzuwirken. Durch Analyse und Bewertung ergonomischer Aspekte der Arbeitstätigkeit und ein Echtzeit-Feedback zur Körperhaltung soll der Mensch bei seinen Tätigkeiten entlastet werden. Hierbei kommen auch Methoden und Techniken der Künstlichen Intelligenz (KI) zum Tragen. Die Attraktivität der Arbeit wird gesteigert und die Arbeitsfähigkeit der Arbeitenden bleibt länger erhalten. Der Beitrag zeigt den Ansatz für diese dynamische Ergonomiebewertung und stellt den Einsatz und die Kombination der Hardware sowie die Anforderungsspezifikationen und die geplante
Softwarearchitektur vor
Machine learning models for timeseries have always been a special topic of interest due to their unique data structure. Recently, the introduction of attention improved the capabilities of recurrent neural networks and transformers with respect to their learning tasks such as machine translation. However, these models are usually subsymbolic architectures, making their inner working hard to interpret without comprehensive tools. In contrast, interpretable models such learning vector quantization are more transparent in the ability to interpret their decision process. This thesis tries to merge attention as a machine learning function with learning vector quantization to better handle timeseries data. A design on such a model is proposed and tested with a dataset used in connection with the attention based transformers. Although the proposed model did not yield the expected results, this work outlines improvements for further research on this approach.