Refine
Document Type
- Master's Thesis (70) (remove)
Year of publication
- 2023 (70) (remove)
Keywords
- Maschinelles Lernen (7)
- Blockchain (6)
- Kind (4)
- Raumakustik (4)
- Computerforensik (3)
- Neuronales Netz (3)
- Vektorquantisierung (3)
- Virtuelle Währung (3)
- Algorithmus (2)
- Biometrie (2)
Institute
Eine empirische Analyse von 19 DAO-Airdrops im Hinblick auf die Governance-Aktivität der Empfänger: Airdrops sind ein bekannter Incentive-Mechanismus bei Blockchain-Protokollen. In den letzten Jahren haben vor allem DAOs „retroaktive“ Airdrops für sich entdeckt, die frühe Nutzer eines Protokolls entlohnen. Diese Art der Verteilung von Token gilt allerdings auch als ein möglicher Lösungsansatz für Zentralisierung bzw. mangelnde Voting-Beteiligung in DAOs. Thema der Arbeit ist daher, welchen Effekt Airdrops auf die Governance-Aktivität in DAOs haben. Zu diesem Zweck wurden 19 DAOs empirisch untersucht. Wir vergleichen die Voting-Beteiligung der Airdrop-Empfänger auf Snapshot bzw. on-chain mit dem der Gesamtheit der Token-Halter. Außerdem wird die Verteilung der Airdrops, die Halte-Dauer und der Delegations-Anteil betrachtet. Wir stellen fest, dass die Beteiligung der Airdrop-Empfänger im Durchschnitt etwas höher ist als die von nicht-Airdrop-Empfängern. Ob Airdrops sich als Governance-Instrument eignen, ist allerdings im Einzelfall zu betrachten.
Gegenstand dieser Arbeit ist die vollständige Realisierung eines einkanaligen Antischallsystems in einem Zuluftkanal der Klimaanlage der Lokomotive Vectron durch einen geeigneten Laboraufbau. Die Umsetzung erfolgt mit der Erstellung eines Real-Time-Programms mit Matlab und Simulink. Bei ANC-Systemen wird mit Antischall gearbeitet, der mit Filtern und LMS-Algorithmen berechnet werden kann.
Großraumbüros sind aufgrund ihrer hohen Wirtschaftlichkeit, den kurzen Kommunikationswegen und der daraus verbesserten Teamarbeit trotz den Herausforderungen der letzten Jahre weiterhin sehr beliebt. Durch die komplexen Grundrisse sowie einer Viel-zahl an Gegenständen ist eine raumakustische Prognose infolge von Simulationsmethoden basierend auf dem Ray-Tracing Algorithmus sehr fehleranfällig. Begründet wird dies mit fehlenden Welleneigenschaften, wie z.B. der Beugung. Diese Arbeit stellt daher eine hybride Simulationsmethode vor, welche die tieffrequente - durch FEM ermittelte - Impulsantwort mit der mittel- und hochfrequenten Impulsantwort – erzeugt durch Ray-Tracing – kombiniert.
Diese Arbeit führt eine Analyse und Vergleich von Handelsstrategien durch, insbesondere von kurzfristigem Momentum, Mean Reversion und Paar-Arbitrage im Kontext der Bitcoin-, Ethereum- und BNB-Märkte. Eine vergleichende Bewertung wird mit der Buy-and-Hold-Strategie vorgenommen. Die unter die Lupe genommenen Handelsstrategien umfassen Ehlers Moving-Average-Crossover-Paare, einen auf Standardabweichung basierenden Mean-Reversion-Ansatz und Paarhandel. Verschiedene algorithmische Handelsframeworks werden untersucht, und die Entwicklungs- und Verbesserungsprozesse werden detailliert beschrieben.
Um die Handelsbedingungen der realen Welt so genau wie möglich zu replizieren, werden Transaktionsgebühren und Slippage in die Berechnungen einbezogen. Die Ergebnisse verdeutlichen die Herausforderung, eine Buy-and-Hold-Strategie zu übertreffen, zeigen jedoch auch die Machbarkeit, dies mit Momentum-Strategien zu erreichen, selbst unter Berücksichtigung von Transaktionskosten.
Die vorliegende Arbeit befasst sich mit der Analyse des europäischen Strommarktdesigns. Fand es in den vergangenen zwei Jahrzehnten nur wenig Beachtung in der breiten Bevölkerung, so führte die Energiekrise 2021/2022 zu unvorstellbaren Strompreisentwicklungen und das Marktmodell der Merit-Order-Systematik fand im Zuge dessen große mediale Aufmerksamkeit. Im Rahmen dieser Arbeit soll nach Aufbereitung der historischen Entwicklung des europäischen Strommarktes, eine Evaluierung des angewandten Marktmodells stattfinden. Dabei gilt es zu erforschen, welche Vor- und Nachteile sich damit ergeben, sodass bewertet werden kann, ob eine weitere Anwendung berechtigt erscheint. Neben dieser Thematik werden weiters auch alternative Lösungsansätze, welche zum Teil auch bereits innerhalb Europas Anwendung finden, herausgearbeitet und auf deren mögliches, flächendeckendes Umsetzungspotential in der Europäischen Union untersucht. Das Hauptziel dieser Arbeit ist es, anhand einer Literaturrecherche eine aktuelle Fakten- und Datenbasis aufzubauen, welche sowohl auf die kurzfristigen Ereignisse im Kontext der Energiekrise 2022, als auch auf die langfristigen Entwicklungen im Zusammenhang mit dem voranschreitenden Ausbau der Erneuerbaren Energien abzielt. Eine Gegenüberstellung der erarbeiteten Informationen soll am Ende eine schlussfolgernde Interpretation der Ergebnisse ermöglichen.
Machine learning models for timeseries have always been a special topic of interest due to their unique data structure. Recently, the introduction of attention improved the capabilities of recurrent neural networks and transformers with respect to their learning tasks such as machine translation. However, these models are usually subsymbolic architectures, making their inner working hard to interpret without comprehensive tools. In contrast, interpretable models such learning vector quantization are more transparent in the ability to interpret their decision process. This thesis tries to merge attention as a machine learning function with learning vector quantization to better handle timeseries data. A design on such a model is proposed and tested with a dataset used in connection with the attention based transformers. Although the proposed model did not yield the expected results, this work outlines improvements for further research on this approach.
Analysis of Continuous Learning Strategies at the Example of Replay-Based Text Classification
(2023)
Continuous learning is a research field that has significantly boosted in recent years due to highly complex machine and deep learning models. Whereas static models need to be retrained entirely from scratch when new data get available, continuous models progressively adapt to new data saving computational resources. In this context, this work analyzes parameters impacting replay-based continuous learning approaches at the example of a data-incremental text classification task using an MLP and LSTM. Generally, it was found that replay improves the results compared to naive approaches but achieves not the performance of a static model. Mainly, the performances increased with more replayed examples, and the number of training iterations has a significant influence as it can partly control the stability-plasticity-trade-off. In contrast, the impact of balancing the buffer and the strategy to select examples to store in the replay buffer were found to have a minor impact on the results in the present case.
Analysis of the Forensic Preparation of Biometric Facial Features for Digital User Authentication
(2023)
Biometrics has become a popular method of securing access to data as it eliminates the need for users to remember a password. Although exploiting the vulnerabilities of biometric systems increased with their usage, these could also be helpful during criminal casework.
This thesis aims to evaluate approaches to bypass electronic devices with forged faces to access data for law enforcement. Here, obtaining the necessary data in a timely manner is critical. However, unlocking the devices with a password can take several years with a brute force attack. Consequently, biometrics could be a quicker alternative for unlocking.
Various approaches were examined to bypass current face recognition technologies. The first approaches included printing the user's face on regular paper and aimed to unlock devices performing face recognition in the visible spectrum. Further approaches consisted of printing the user's infrared image and creating three-dimensional masks to bypass devices performing face recognition in the near-infrared. Additionally, the underlying software responsible for face recognition was reverse-engineered to get information about its operation mode.
The experiments demonstrate that forged faces can partly bypass face recognition and obtain secured data. Devices performing face recognition in the visible spectrum can be unlocked with a printed image of the user's face. Regarding devices with advanced near-infrared face recognition, only one could be bypassed with a three-dimensional face mask. In addition, its underlying software provided evidence about the demands of face recognition. Other devices under attack remained locked, and their software provided no clues.
Die Masterarbeit befasst sich mit dem Ausmaß von Kinder- und Jugendarmut in der Europäischen Union mit einer gesonderten Betrachtung der Armutslage in Deutschland und Slowenien. Der Schwerpunkt der Arbeit liegt dabei auf einer Analyse von Sekundärdaten und einer vorhergehenden Literaturrecherche. Ziel ist es, anhand dieser Ergebnisse weiterführende notwendige Überlegungen für den Abbau der bestehenden Problematiken aufzuzeigen.
Assessment of COI and 16S for insect species identification ti determine the diet of city bats
(2023)
Despite the numerous benefits of urbanization to human living conditions, urbanization has also negatively affected humans, their environment, and other organisms that share urban habitats with humans. Undoubtedly adverse while some wild animals avoid living in urban areas, others are more tolerant or prefer life in urban habitats. There are more than 1,400 species of bats in the world.
Therefore, they have the potential to contribute significantly to the mammalian biodiversity in urban areas. Insectivorous bats species play a key role in agriculture by improving yields and reducing chemical pesticide costs. Using metabarcoding, it is possible to determine the prey consumed by these noctule mammals based on the DNA fragments in their fecal pellets. This study
aimed to evaluate COI and 16S metabarcodes for insect species identification to determine the diet of metropolitan bats. For this purpose, COI and 16S metabarcodes were extracted, amplified, and sequenced from 65 bat feces collected in the Berlin metropolitan areas. Following a taxonomic annotation, I found that 73% of all identified insects could only be detected using the COI method, while 15% could be recovered using the 16S approach. Just 12% of all detected insects were identified simultaneously by both markers. According to this result, COI is more suitable for the taxonomic identification of insects from bat feces. However, given the bias of COI primers, it is recommended to use both markers for a more precise estimation of species diversity. Additionally,based on the insect species identified, I noticed that urban bats fed mainly on Diptera, Coleoptera,and Lepidoptera. The bat species Nyctalus noctula was most abundant in the samples. His diet analysis revealed that 91% of the samples contained the insect species Chironomus plumosus. 14 pest insect species were also found in his diet.
Bewertung des baulichen Mehraufwandes zur Bewertung der ,,Bundesförderung für effiziente Gebäude"
(2023)
Die vorliegende Arbeit befasst sich mit den unterschiedlichen Anforderungen an einer Kernsanierung, die von dem Gebäudeenergiegesetz (GEG) und der Bundesförderung für effiziente Gebäude (BEG) vorgegeben werden. Es werden unterschiedliche Sanierungskonzepte erstellt und deren Einfluss auf die Reduzierung der Treibhausgasemissionen im Gebäudesektor untersucht. Der bauliche Mehraufwand, der getätigt werden muss um den Anforderungen der BEG zu entsprechen, wird nach Erstellung der Sanierungskonzepte wirtschaftlich bewertet.
As the cryptocurrency ecosystem rapidly grows, interoperability has become increasingly crucial, enabling assets and data to interact seamlessly across multiple chains. This work describes the concept and implementation of a trustless connection between the Bitcoin Lightning Network and EVM-compatible blockchains, allowing the transfer of assets between the two ecosystems. Establishing such a connection can significantly contribute to the growth of both ecosystems as they can benefit from each other’s advantages and emerge new pos- sibilities.
Die hier vorliegende Arbeit beschäftigt sich mit den methodischen Abläufen des Kriminalitätsphänomens Caller ID Spoofing, dessen technische Hintergründe, sowie der Detektion und den sich daraus ergebenden Maßnahmen der Abwehr seitens der Betroffenen. Dabei soll im theoretischen Teil sowohl auf das Phänomen des Caller ID Spoofing an sich und dessen Einordnung in den Deliktbereich Cybercrime als auch auf die technischen Hintergründe bei der Verschleierung der eigenen Telefon-Identität eingegangen werden. Des Weiteren wird der Faktor Mensch als Schwachstelle von IT-Systemen beleuchtet. Der methodische Teil der Arbeit legt den Fokus auf die Entwicklung effektiver Lösungen zur Erkennung und Abwehr von Caller ID Spoofing, sowohl aus technischer als auch aus soziologischer Sicht. Während für ersteres bereits eine Vielzahl von wissenschaftlichen Ansätzen existieren, soll sich bei zweiteren auf den Begriff der Security Awareness konzentriert werden.
In this paper, we conduct experiments to optimize the learning rates for the Generalized Learning Vector Quantization (GLVQ) model. Our approach leverages insights from cog- nitive science rooted in the profound intricacies of human thinking. Recognizing that human-like thinking has propelled humankind to its current state, we explore the applica- bility of cognitive science principles in enhancing machine learning. Prior research has demonstrated promising results when applying learning rate methods inspired by cognitive science to Learning Vector Quantization (LVQ) models. In this study, we extend this approach to GLVQ models. Specifically, we examine five distinct cognitive science-inspired GLVQ variants: Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), and Loose Symme- try with Rarity (LSR). Our experiments involve a comprehensive analysis of the performance of these cogni- tive science-derived learning rate techniques across various datasets, aiming to identify optimal settings and variants of cognitive science GLVQ model training. Through this research, we seek to unlock new avenues for enhancing the learning process in machine learning models by drawing inspiration from the rich complexities of human cognition. Keywords: machine learning, GLVQ, cognitive science, cognitive bias, learning rate op- timization, optimizers, human-like learning, Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), Loose Symmetry with Rarity (LSR).
Adversarial robustness of a nearest prototype classifier assures safe deployment in sensitive use fields. Much research has been conducted on artificial neural networks regarding their robustness against adversarial attacks, whereas nearest prototype classifiers have not chalked similar successes. This thesis presents the learning dynamics and numerical stability regarding the Crammer-normalization and the Hein-normalization for adversarial robustness of nearest prototype classifiers. Results of conducted experiments are penned down and analyzed to ascertain the bounds given by Saralajew et al. and Hein et al. for adversarial robustness of nearest prototype classifiers.
Die vorliegende Masterarbeit widmet sich der Entwicklung von Assoziationskarten für Kindern mit depressiven Symptomen in einem Alter von sechs bis zehn Jahren. Depressive Erkrankungen sind altersübergreifend häufig innerhalb der Gesellschaft zu finden. Im Kindesalter sind diese jedoch oftmals schwerer zu erkennen, zeigen aber vor dem Hintergrund der Corona-Pandemie eine immer größer werdende Prävalenz.
Die Assoziationskarten verstehen sich als ein Versuch, die Symptome der Kinder möglichst früh und präzise zu erkennen. Es ist von großer Bedeutung, effektive Erkennungsmöglichkeiten zu entwickeln. Die Karten zeigen szenische Abbildungen, die in Zusammenarbeit mit dem Illustrator Richard Göpel entworfen worden sind. Sie sollen im Ergebnis als Stimulus dienlich sein, der mittels der Assoziation Verbindungen zu eigenen depressiven Thematiken oder persönlichen Erfahrungen erstellt. Die Nutzung der Assoziationskarten soll verborgene Gedanken, Gefühle, unbewusste Prozesse und die damit einhergehenden Zusammenhänge in den begleitenden Vorgang mit einfließen lassen. Der Grundgedanke ist, dass die Karten nicht nur als therapeutisches Werkzeug zur Anwendung kommen, sondern auch in Bereichen der sozialen Arbeit ihre Wirksamkeit entfalten können. Die Grundannahme ist, dass Kinder mittels der Karten ihre Emotionen besser verstehen und explorieren können sowie im Ergebnis einen besseren Zugang zu ihrem Selbst erreichen können. Im Rahmen der Verbalisierung innerhalb des Prozesses soll den Kindern ein Zugang zu ihrem inneren Raum ermöglicht werden, um im Ergebnis bessere Bewältigungsstrategien für ihre eigene Lebenswelt zu erreichen. Die Karten sollen altersgerecht gestaltet werden und die spezifischen Bedürfnisse der Zielgruppe Berücksichtigung finden. Die Entwicklung der Karten und die Auswertung der Wirksamkeit ist folglich ein Prototyp, mittels dessen die Karten mit den Forschungsergebnissen der Arbeit noch einmal final überarbeitet werden sollen. Die Motivwahl wird über die drei Auswertungskarten hinaus in Teilen auf die ICD-10-Diagnostik abgestimmt und soll in der späteren Anwendung gleichfalls als projektives Verfahren sowie auch als ICD-10 diagnostische Anwendung finden.
Der Schwerpunkt der vorliegenden Arbeit liegt auf der Entwicklung, Ausarbeitung und Anwendung der Karten. Auf dieser Grundlage kann dann später eine weitere vertiefte Forschung bezüglich der ICD-10-Diagnostik stattfinden. Um geeignete Assoziationskarten für Kinder mit depressiven Symptomen zu entwickeln, erfolgen innerhalb der Arbeit unterschiedliche thematische Auseinandersetzungen, die als Grundlage für das allgemeine Verständnis von depressiven Symptomen dienen sollen. Des Weiteren werden kindliche Entwicklungsprozesse sowie Themengebiete, die für das Verständnis der Assoziationskarten von Bedeutung sind, näher beleuchtet. Die Grundlage hierfür bildet eine ausführliche Literaturrecherche. Diese wird mittels eigener beruflicher und fachlicher Erfahrungen aus dem Praxisfeld heraus ergänzt. Die Ausführlichkeit dieser Auseinandersetzung liegt darin begründet, dass mit Hilfe eines Barcodes im fertigen Produkt, der oder die Anwender_in die Möglichkeit erlangt, die vorliegende Arbeit lesen zu können und hierdurch einen kompakten theoretischen Einblick in das Thema erlangen kann. Anschließend folgt ein freierer Teil, innerhalb dessen die Motivfindung und die gedankliche Auseinandersetzung zur Motivwahl, deren Anwendungsmöglichkeiten sowie die Motive selbst genauer erörtert werden. Im Rahmen von Auswertungsbögen, die von drei tiefenpsychologisch und einem verhaltenstherapeutisch fundierten Psychotherapeuten sowie einer Sozialarbeiterin angewendet wurden, entsteht die Basis für die Erforschung der Wirksamkeit der Karten. Die entwickelten Karten werden folglich, gleich eines Pilotprojektes, mit Kindern in unterschiedlichen Settings und innerhalb der angegebenen Altersspanne auf ihre Wirksamkeit und Anwendbarkeit überprüft. Der Fokus liegt hierbei auf einer detaillierten Analyse der Beobachtungen sowie der Erfahrungen der Anwender_innen und die der Kinder. Die Ergebnisse und das Endprodukt sollen folglich einen Beitrag zur Weiterentwicklung der methodenübergreifenden Arbeit und Diagnostik mit Kindern mit depressiven Symptomen leisten. Durch die Schaffung eines neuen Werkzeuges in Form von Assoziationskarten für Kinder mit depressiven Symptomen soll ein neuer innovativer Ansatz zur Förderung der mentalen Gesundheit der Betroffenen erfolgen und zu weiterer Forschung anregen
Nach einer Umfrage zum Thema Jugendbeteiligung im Mai 2022 in der Gemeinde Frohburg, werde ich vertiefende Interviews vornehmen. Die Umfrage haben wir im Rahmen eines Seminares in einer Studierendengruppe durchgeführt. Ich habe das Verständnis von Jugendbeteiligung untersucht. Bei den Interviews werden zentrale Akteur*innen befragt, die im Prozess der Jugendbeteiligung mitwirken.
Diese Arbeit untersucht die Integration einer dezentralen autonomen Organisation (DAO) in eine bestehende Lernplattform. Dabei werden mögliche Schnittpunkte zwischen den beiden Konzepten gesucht und deren Potenziale und Herausforderungen analysiert. Zunächst werden die theoretischen Grundlagen von Blockchain-Technologie, DAO und Lernplattformen vorgestellt. Darauf basierend werden die Prozesse auf einer Lernplattform auf eine mögliche Integration einer DAO untersucht. Besonderer Fokus liegt dabei auf den Prozessen Bezahlung und Bewertung. Es stellt sich heraus, dass der Reviewprozess zum einen mehr Überschneidungspunkte hat und zum anderen viele weitere Prozesse auf diesen aufbauen. Im Hauptteil der Arbeit wird daher ein Konzept für die Integration einer DAO im Bewertungsprozess entwickelt und erste Grundlagen für eine Umsetzung gelegt. Dabei werden verschiedene Ansätze, die sich auch aus den Fallstudien ergeben, betrachtet und verglichen, um den Anforderungen der Lernplattform und der Blockchain gerecht zu werden. Die Arbeit zeigt die Potenziale einer DAO in einer Lernplattform auf, wie bspw. transparenten Reviewprozess für neue Inhalte. Gleichzeitig werden mögliche Herausforderungen bei der Integration identifiziert und geeignete Lösungsansätze entwickelt. Ein Ausblick auf zukünftige Entwicklungen beinhaltet den Einsatz von Künstlicher Intelligenz bei der Entwicklung von Lerninhalten und die weitere Integration der DAO in die Lernplattform.
Diese Arbeit präsentiert ein Protokoll für vertrauliche Transaktionen auf Ethereum, das auf einer kontenbasierten Struktur und Paillier-Verschlüsselung basiert. Die Integration von Non-Interactive Zero-Knowledge Range Proofs (NIZKRP) verbessert die Sicherheit. Die Implementierung und Tests auf Ethereum zeigen vergleichbare Transaktionskosten (Sicherheitsparameter 40) im Vergleich zu Protokollen mit Bulletproofs. Bei einem Sicherheitsparameter von 128 (NIZKRP-Empfehlung) ist das Protokoll jedoch nicht anwendbar. Die Arbeit betont die Effizienz und Wettbewerbsfähigkeit, hebt jedoch die Herausforderung bei höheren Sicherheitsparametern hervor. Das Protokoll bildet eine solide Grundlage, erfordert jedoch weitere Optimierungen für breitere Anwendbarkeit.