Refine
Document Type
- Master's Thesis (180) (remove)
Year of publication
Keywords
- Maschinelles Lernen (27)
- Blockchain (13)
- Vektorquantisierung (8)
- Algorithmus (7)
- Computersicherheit (7)
- Deep learning (6)
- Kryptologie (5)
- Neuronales Netz (5)
- Virtuelle Währung (5)
- Bioinformatik (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (180) (remove)
Diese Arbeit präsentiert ein Protokoll für vertrauliche Transaktionen auf Ethereum, das auf einer kontenbasierten Struktur und Paillier-Verschlüsselung basiert. Die Integration von Non-Interactive Zero-Knowledge Range Proofs (NIZKRP) verbessert die Sicherheit. Die Implementierung und Tests auf Ethereum zeigen vergleichbare Transaktionskosten (Sicherheitsparameter 40) im Vergleich zu Protokollen mit Bulletproofs. Bei einem Sicherheitsparameter von 128 (NIZKRP-Empfehlung) ist das Protokoll jedoch nicht anwendbar. Die Arbeit betont die Effizienz und Wettbewerbsfähigkeit, hebt jedoch die Herausforderung bei höheren Sicherheitsparametern hervor. Das Protokoll bildet eine solide Grundlage, erfordert jedoch weitere Optimierungen für breitere Anwendbarkeit.
Die Auswertung von Kurznachrichten, die auf mobilen Endgeräten gespeichert sind, nimmt bei strafrechtlichen Ermittlungen immer mehr an Bedeutung zu. Häufig sind Ermittler hierbei mit umfassenden Nachrichtenmengen konfrontiert. Um einen Überblick zu erhalten, wäre eine kompakte Zusammenfassung der zahlreichen Nachrichten hilfreich. Eine Möglichkeit diese automatisiert zu erhalten, stellt die Themenmodellierung dar. Diese ist allerdings bei forensischen Kommunikationsdaten mit besonderen Herausforderungen verbunden. Zu diesen zählt die Tatsache, dass der Ermittler oft eine Erwartungshaltung an die Themen hat, wobei die für ihn interessanten Themen häufig nur zu einem geringen Anteil in den Daten vertreten sind. Um ihn bei dem Finden von Beweisen zu diesen Themen zu unterstützen, wurden zwei Methoden der halbüberwachten Themenmodellierung und Erweiterungen basierend auf Word Embeddings und paradigmatischen Relationen miteinander verglichen. Insbesondere für umgangssprachliche Kurznachrichten ist die Evaluierung der Themenmodellierung als schwierig anzusehen, da bisherige Studien gezeigt haben, dass gängige quantitative Evaluierungsmaße bei diesen nicht unbedingt die tatsächliche Interpretierbarkeit der Themen widerspiegeln. Daher bestand ein weiteres Ziel der Arbeit darin zu untersuchen, inwieweit die Ergebnisse einer regelmäßig angewendeten automatischen Evaluierungsmethode durch eine Nutzerstudie wiedergegeben werden. Insgesamt konnte festgestellt werden, dass nach der quantitativen Evaluierung die halbüberwachte Themenmodellierung unter Einbeziehung von paradigmatischen Relationen als besonders erfolgversprechend angesehen werden kann, während nach der Nutzerstudie vor allem die Word Embeddings die Ergebnisse der halbüberwachten Themenmodellierung verbessern konnten. Des Weiteren zeigte sich, dass keine Korrelation zwischen den Resultaten der automatischen Evaluierung und der Nutzerstudie vorlag.
This thesis comprehensively explores factors contributing to malaria-induced anemia and severe malarial anemia (SMA). The study utilizes a comprehensive dataset to investigate immunological interactions, genetic variations, and temporal dynamics. Findings highlight the complex interplay between immune markers, genetic traits, and cohort-specific influences. Notably, age, HIV status, and genetic variations emerge as crucial factors influencing anemia risk. The incorporation of Poisson regression models sheds light on the genetic underpinnings of SMA, emphasizing the need for personalized interventions. Overall, this research provides valuable insights into the multifaceted nature of malaria-induced complications, paving the way for further molecular investigations and targeted interventions.
Eine empirische Analyse von 19 DAO-Airdrops im Hinblick auf die Governance-Aktivität der Empfänger: Airdrops sind ein bekannter Incentive-Mechanismus bei Blockchain-Protokollen. In den letzten Jahren haben vor allem DAOs „retroaktive“ Airdrops für sich entdeckt, die frühe Nutzer eines Protokolls entlohnen. Diese Art der Verteilung von Token gilt allerdings auch als ein möglicher Lösungsansatz für Zentralisierung bzw. mangelnde Voting-Beteiligung in DAOs. Thema der Arbeit ist daher, welchen Effekt Airdrops auf die Governance-Aktivität in DAOs haben. Zu diesem Zweck wurden 19 DAOs empirisch untersucht. Wir vergleichen die Voting-Beteiligung der Airdrop-Empfänger auf Snapshot bzw. on-chain mit dem der Gesamtheit der Token-Halter. Außerdem wird die Verteilung der Airdrops, die Halte-Dauer und der Delegations-Anteil betrachtet. Wir stellen fest, dass die Beteiligung der Airdrop-Empfänger im Durchschnitt etwas höher ist als die von nicht-Airdrop-Empfängern. Ob Airdrops sich als Governance-Instrument eignen, ist allerdings im Einzelfall zu betrachten.
As new sensors are added to VR headsets, more data can be collected. This introduces a new potential threat to user privacy. We focused on the feasibility of extracting personal information from eye-tracking. To achieve this, we designed a preliminary user study focusing on the pupil response to audio stimuli. We used a variation of machine learning models to test the collected data to determine the feasibility of obtaining information such as the age or gender of the participant. Several of the experiments show promise for obtaining this information. We were able to extract with reasonable certainty whether caffeine was consumed and the gender of the participant. This demonstrates the unknown threat that embedded sensors pose to users. A further studies are planned to verify the results.
In dieser Masterarbeit wird erforscht, ob und wie Funktionalität von einem Mikrocontroller auf ein leistungsstarkes externes Gerät portiert werden kann. Dabei sollen die ausgelagerten Funktionalitäten WebAssembly nutzen, um eine Vielzahl von externen Geräten zu unterstützen. Zusätzlich wird evaluiert, wie das leistungsstarke Gerät den Mikrocontroller steuern soll, bzw. wie ein Datenaustausch hergestellt wird und wie Eingaben im leistungsstarken Gerät vollzogen werden.
In dieser Arbeit wird die Entwicklung eines Tools beschrieben, welches diverse Schritte des digitalen Achterbahnbaus prototypisch kombiniert. Entwickelt wurden eine visuelle Bewegtbilddarstellung, ein prozeduraler Streckengenerator, eine automatische Rotationszuweisung und eine Präferenzeingabefläche zur Beeinflussung der zufälligen Streckenausgabe. Der Fokus liegt darauf, die zufälligen Streckenlayouts in einer Umfrage zu evaluieren, um zu ermitteln, ob diese Software einen potentiellen Mehrwert für professionelle Achterbahndesigner bietet. Im Rahmen der Evaluation wurden sieben Achterbahnen im Tool erbaut. Dabei handelt es sich um zwei zufällig generierte, zwei vom Autor erschaffene und drei Repliken realer Bahnen. Um eventuelle Streckentyppräferenzen von Probanden zu erkennen, wurden zwei verschiedene Achterbahntypen für die Evaluation verwendet. Diese sind als Videoaufnahme in einer Umfrage mit 26 Probanden untersucht und anschließend miteinander verglichen worden. Die Probanden zeigten in ihrer Erfahrung mit Achterbahnen einen geringen bis mittelmäßigen Wissensschatz, konnten aber gute Bahnen von schlechten unterscheiden. Es war ihnen nicht eindeutig möglich, die realen Strecken von den anderen zu unterscheiden. Die Ergebnisse zeigen, dass die zufällig generierten Strecken den realen Repliken im Bezug auf Kreativität ebenbürtig sind. Auch die Qualität des Streckenlayouts weist laut den Probanden kein erkennbares Defizit auf. Die prototypische Umsetzung der Ausgabe des Tools kann als zufriedenstellend eingeschätzt werden. Ob die Applikation einen positiven Einfluss auf die Arbeit eines brancheninternen Designers hat, muss in einer weiteren Studie untersucht werden.
Computationally solving eigenvalue problems is a central problem in numerical analysis and as such has been the subject of extensive study. In this thesis we present four different methods to compute eigenvalues, each with its own characteristics, strengths and weaknesses. After formally introducing the methods we use them in various numerical experiments to test speed of convergence, stability as well as performance when used to compute eigenfaces, denoise images and compute the eigenvector centrality measure of a graph.
In dieser Masterarbeit wird sowohl säurelösliches Kollagen, als auch Gelatine als Ausgangsmaterial verwendet. Dieser Ausgangsstoff wird anschließend funktionalisiert und verschieden photovernetzt, um verschiedene nanomechanischen Eigenschaften zu generieren. Diese werden durch statische Rasterkraftspektroskopie untersucht. Das modifizierte Kollagen und Gelatine werden dann nach DIN auf ihre Zytotoxizität getestet. Nach erfolgreicher Überprüfung werden Zellversuche vorgenommen um die Zellantwort auf die unterschiedlichen mechanischen Eigenschaften untersucht. Zuletzt wird in Gelatine die Oberflächenmorphologie von Kollagen gestempelt und eine Veränderung der Zellantwort zu nicht gestempelter Gelatine überprüft.
Die Strafverfolgungsbehörden verwenden zunehmend Mobilfunkdaten, um Tathergänge zu rekonstruieren und daraufhin Tatverdächtige überführen zu können. Die Mobilfunkdaten erhalten die Strafvervolgungsbehörden auf Anfrage und richterlichen Beschluss von den Telekommunikationsanbietern. Die Anfragen sind sowohl zeitlich als auch regional stark eingegrenzt. Trotzdem ist das Datenvolumen erheblich. Auf Grund des Datenvolumens und der Heterogenität der Datenformate zwischen den Mobilfunkanbietern, gestaltet sich die Auswertung der Daten sehr aufwändig. Diese Masterarbeit adressiert die genannten Aspekte mit einer auf die Mobilfunkdaten abgestimmten Datenintegrations- und -analyse-Pipeline. Die Pipeline überführt die Mobilfunkdaten in ein harmonisiertes Datenformat und reichert sie mit einer Annotation zur Bodennutzungsklassifizierung an. Letztere sind für die Datenanalyse relevant. Grundlegend greift die Pipeline auf eine Graphdatenbank zurück, in die die Daten eingefügt werden. Anhand der Anfragesprache Cypher können relevante Daten für diverse Auswertungsfragen selektiert und zur Verfügung gestellt werden. Diese Grundlage ermöglicht eine iterative Vorgehensweise bei der Datenauswertung, so dass aus Ergebnissen einer vorangegangenen Frage, neuen Auswertungszielen schnellstmöglichst begegnet werden kann. Die in der Arbeit gezeigten Auswertungen stehen beispielhaft für das große Spektrum an Auswertungsmöglichkeiten. Insbesondere wurden Personenkreise mit speziellen Bewegungsprofilen anhand der den Funkmasten zugeordneten Landnutzungsklassen ermittelt. Die in der Arbeit verwendeten Daten wurden mit diesem Ansatz um 99% reduziert. Damit können Analyst:innen sich auf die relevanten Aussagen konzentrieren. Zudem konnte eine Korrelation zwischen Mobilität und dem Nutzungsverhalten hergestellt werden. Jedoch zeigt sich auch, dass die hohe Variabilität und Individualität der Personen in einem zeitlich und regional eng begrenzten Datenraum, der Ermittlung von allgemeinen Bewegungsprofilen entgegensteht.
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
Robust soft learning vector quantization (RSLVQ) is a probabilistic approach of Learning vector quantization (LVQ) algorithm. Basically, the RSLVQ approach describes its functionality with respect to Gaussian mixture model and its cost function is defined in terms of likelihood ratio. Our thesis work involves an approach of modifying standard RSLVQ with non-Gaussian density functions like logistic, lognormal, and Cauchy (referred as PLVQ). In this approach, we derive new update rules for prototypes using gradient of cost function with respect to non-Gaussian density functions. We also derive new learning rules for the model parameters like s and s, by differentiating the cost function with respect to parameters. The main goal of the thesis is to compare the performance results of PLVQ model with Gaussian-RSLVQ model. Therefore, the performance of these classification models have been tested on the Iris and Seeds dataset. To visualize the results of the classification models in an adequate way, the Principal component analysis (PCA) technique has been used.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
IoT- und Smart-Home-Geräte erfreuen sich zunehmender Beliebtheit. Der Bedarf nach IoT-Sicherheit stieg in den letzten Jahren stetig an, was unter anderem mit der Anzahl an Cyberangriffen auf IoT-Geräte begründet ist. Es existieren bereits Zertifizierungs- und Testprozesse, die die IT-Sicherheit von Produkten überprüfen. Um diese zu erweitern und zu beschleunigen, wurde in dieser Arbeit ein Programm konzipiert und umgesetzt, das verschiedene Vorgehen zur Firmwareanalyse implementiert und automatisiert. Hierbei wurde eine modulare Struktur verwendet, sodass weitere Analysen hinzugefügt werden können. Abschließend erstellt das Programm einen Bericht mit den Ergebnissen der Analysen. Er enthält außerdem eine Bewertung der IT-Sicherheit einer Firmware. Die der Firmwareanalyse vorausgehende Extraktion wird erläutert. Das vorgestellte Programm ermöglicht es einem Benutzer, Schwachstellen und Schutzmechanismen eines IoT-Produkts einzuschätzen.
Machine learning models for timeseries have always been a special topic of interest due to their unique data structure. Recently, the introduction of attention improved the capabilities of recurrent neural networks and transformers with respect to their learning tasks such as machine translation. However, these models are usually subsymbolic architectures, making their inner working hard to interpret without comprehensive tools. In contrast, interpretable models such learning vector quantization are more transparent in the ability to interpret their decision process. This thesis tries to merge attention as a machine learning function with learning vector quantization to better handle timeseries data. A design on such a model is proposed and tested with a dataset used in connection with the attention based transformers. Although the proposed model did not yield the expected results, this work outlines improvements for further research on this approach.
In this paper, we conduct experiments to optimize the learning rates for the Generalized Learning Vector Quantization (GLVQ) model. Our approach leverages insights from cog- nitive science rooted in the profound intricacies of human thinking. Recognizing that human-like thinking has propelled humankind to its current state, we explore the applica- bility of cognitive science principles in enhancing machine learning. Prior research has demonstrated promising results when applying learning rate methods inspired by cognitive science to Learning Vector Quantization (LVQ) models. In this study, we extend this approach to GLVQ models. Specifically, we examine five distinct cognitive science-inspired GLVQ variants: Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), and Loose Symme- try with Rarity (LSR). Our experiments involve a comprehensive analysis of the performance of these cogni- tive science-derived learning rate techniques across various datasets, aiming to identify optimal settings and variants of cognitive science GLVQ model training. Through this research, we seek to unlock new avenues for enhancing the learning process in machine learning models by drawing inspiration from the rich complexities of human cognition. Keywords: machine learning, GLVQ, cognitive science, cognitive bias, learning rate op- timization, optimizers, human-like learning, Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), Loose Symmetry with Rarity (LSR).
Adversarial robustness of a nearest prototype classifier assures safe deployment in sensitive use fields. Much research has been conducted on artificial neural networks regarding their robustness against adversarial attacks, whereas nearest prototype classifiers have not chalked similar successes. This thesis presents the learning dynamics and numerical stability regarding the Crammer-normalization and the Hein-normalization for adversarial robustness of nearest prototype classifiers. Results of conducted experiments are penned down and analyzed to ascertain the bounds given by Saralajew et al. and Hein et al. for adversarial robustness of nearest prototype classifiers.
Im Reverse Engineering und in der Malware-Analyse wurden bereits verschiedene Ansätze zur Visualisierung von Binärdaten entwickelt. Mit diesen lässt sich schnell ein Überblick über Dateien gewinnen, sodass beispielsweise verschiedene Regionen einer Datei identifiziert oder eine bösartige Datei einer Malware-Familie zugeordnet werden kann. In der vorliegenden Masterarbeit wird versucht, diese Ansätze auch sektorweise auf einen Datenstream anzuwenden. Dafür wird ein Demonstrator erstellt, mit dem Sektoren automatisiert nach Dateitypen klassifiziert werden können. Ziel ist es, einen Ansatz zur Verbesserung der aktuellen, signaturbasierten IT-forensischen Methoden zur Wiederherstellung von fragmentierten oder gelöschten Daten zu finden.
Traditional user management on the Internet has historically required individuals to give up control over their identities. In contrast, decentralized solutions promise to empower users and foster decentralized interactions. Over the last few years, the development of decentralized accounts and tokens has significantly increased, aiming at broader user adoption and shared social economies.
This thesis delves into smart contract standards and social infrastructure for Ethereum-based blockchains to enable identity-based data exchange between abstracted blockchain accounts. In this regard, the standardization landscapes of account and social token developments were analyzed in-depth to form guidelines that allow users to retain complete control over their data and grant access selectively.
Based on the evaluations, a pioneering Solidity standard is presented, natively integrating consensual restrictive on-chain assets for abstracted blockchain accounts. Further, the architecture of a decentralized messaging service has been defined to outline how new token and account concepts can be intertwined with efficient and minimal data-sharing principles to ensure security and privacy, while merging traditional server environments with global ledgers.