Refine
Document Type
- Master's Thesis (173) (remove)
Keywords
- Maschinelles Lernen (26)
- Blockchain (11)
- Vektorquantisierung (8)
- Algorithmus (7)
- Computersicherheit (7)
- Deep learning (6)
- Kryptologie (5)
- Neuronales Netz (5)
- Bioinformatik (4)
- Graphentheorie (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (173) (remove)
In dieser Arbeit wird die Entwicklung eines Tools beschrieben, welches diverse Schritte des digitalen Achterbahnbaus prototypisch kombiniert. Entwickelt wurden eine visuelle Bewegtbilddarstellung, ein prozeduraler Streckengenerator, eine automatische Rotationszuweisung und eine Präferenzeingabefläche zur Beeinflussung der zufälligen Streckenausgabe. Der Fokus liegt darauf, die zufälligen Streckenlayouts in einer Umfrage zu evaluieren, um zu ermitteln, ob diese Software einen potentiellen Mehrwert für professionelle Achterbahndesigner bietet. Im Rahmen der Evaluation wurden sieben Achterbahnen im Tool erbaut. Dabei handelt es sich um zwei zufällig generierte, zwei vom Autor erschaffene und drei Repliken realer Bahnen. Um eventuelle Streckentyppräferenzen von Probanden zu erkennen, wurden zwei verschiedene Achterbahntypen für die Evaluation verwendet. Diese sind als Videoaufnahme in einer Umfrage mit 26 Probanden untersucht und anschließend miteinander verglichen worden. Die Probanden zeigten in ihrer Erfahrung mit Achterbahnen einen geringen bis mittelmäßigen Wissensschatz, konnten aber gute Bahnen von schlechten unterscheiden. Es war ihnen nicht eindeutig möglich, die realen Strecken von den anderen zu unterscheiden. Die Ergebnisse zeigen, dass die zufällig generierten Strecken den realen Repliken im Bezug auf Kreativität ebenbürtig sind. Auch die Qualität des Streckenlayouts weist laut den Probanden kein erkennbares Defizit auf. Die prototypische Umsetzung der Ausgabe des Tools kann als zufriedenstellend eingeschätzt werden. Ob die Applikation einen positiven Einfluss auf die Arbeit eines brancheninternen Designers hat, muss in einer weiteren Studie untersucht werden.
Computationally solving eigenvalue problems is a central problem in numerical analysis and as such has been the subject of extensive study. In this thesis we present four different methods to compute eigenvalues, each with its own characteristics, strengths and weaknesses. After formally introducing the methods we use them in various numerical experiments to test speed of convergence, stability as well as performance when used to compute eigenfaces, denoise images and compute the eigenvector centrality measure of a graph.
In dieser Masterarbeit wird sowohl säurelösliches Kollagen, als auch Gelatine als Ausgangsmaterial verwendet. Dieser Ausgangsstoff wird anschließend funktionalisiert und verschieden photovernetzt, um verschiedene nanomechanischen Eigenschaften zu generieren. Diese werden durch statische Rasterkraftspektroskopie untersucht. Das modifizierte Kollagen und Gelatine werden dann nach DIN auf ihre Zytotoxizität getestet. Nach erfolgreicher Überprüfung werden Zellversuche vorgenommen um die Zellantwort auf die unterschiedlichen mechanischen Eigenschaften untersucht. Zuletzt wird in Gelatine die Oberflächenmorphologie von Kollagen gestempelt und eine Veränderung der Zellantwort zu nicht gestempelter Gelatine überprüft.
Die Strafverfolgungsbehörden verwenden zunehmend Mobilfunkdaten, um Tathergänge zu rekonstruieren und daraufhin Tatverdächtige überführen zu können. Die Mobilfunkdaten erhalten die Strafvervolgungsbehörden auf Anfrage und richterlichen Beschluss von den Telekommunikationsanbietern. Die Anfragen sind sowohl zeitlich als auch regional stark eingegrenzt. Trotzdem ist das Datenvolumen erheblich. Auf Grund des Datenvolumens und der Heterogenität der Datenformate zwischen den Mobilfunkanbietern, gestaltet sich die Auswertung der Daten sehr aufwändig. Diese Masterarbeit adressiert die genannten Aspekte mit einer auf die Mobilfunkdaten abgestimmten Datenintegrations- und -analyse-Pipeline. Die Pipeline überführt die Mobilfunkdaten in ein harmonisiertes Datenformat und reichert sie mit einer Annotation zur Bodennutzungsklassifizierung an. Letztere sind für die Datenanalyse relevant. Grundlegend greift die Pipeline auf eine Graphdatenbank zurück, in die die Daten eingefügt werden. Anhand der Anfragesprache Cypher können relevante Daten für diverse Auswertungsfragen selektiert und zur Verfügung gestellt werden. Diese Grundlage ermöglicht eine iterative Vorgehensweise bei der Datenauswertung, so dass aus Ergebnissen einer vorangegangenen Frage, neuen Auswertungszielen schnellstmöglichst begegnet werden kann. Die in der Arbeit gezeigten Auswertungen stehen beispielhaft für das große Spektrum an Auswertungsmöglichkeiten. Insbesondere wurden Personenkreise mit speziellen Bewegungsprofilen anhand der den Funkmasten zugeordneten Landnutzungsklassen ermittelt. Die in der Arbeit verwendeten Daten wurden mit diesem Ansatz um 99% reduziert. Damit können Analyst:innen sich auf die relevanten Aussagen konzentrieren. Zudem konnte eine Korrelation zwischen Mobilität und dem Nutzungsverhalten hergestellt werden. Jedoch zeigt sich auch, dass die hohe Variabilität und Individualität der Personen in einem zeitlich und regional eng begrenzten Datenraum, der Ermittlung von allgemeinen Bewegungsprofilen entgegensteht.
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
Robust soft learning vector quantization (RSLVQ) is a probabilistic approach of Learning vector quantization (LVQ) algorithm. Basically, the RSLVQ approach describes its functionality with respect to Gaussian mixture model and its cost function is defined in terms of likelihood ratio. Our thesis work involves an approach of modifying standard RSLVQ with non-Gaussian density functions like logistic, lognormal, and Cauchy (referred as PLVQ). In this approach, we derive new update rules for prototypes using gradient of cost function with respect to non-Gaussian density functions. We also derive new learning rules for the model parameters like s and s, by differentiating the cost function with respect to parameters. The main goal of the thesis is to compare the performance results of PLVQ model with Gaussian-RSLVQ model. Therefore, the performance of these classification models have been tested on the Iris and Seeds dataset. To visualize the results of the classification models in an adequate way, the Principal component analysis (PCA) technique has been used.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
IoT- und Smart-Home-Geräte erfreuen sich zunehmender Beliebtheit. Der Bedarf nach IoT-Sicherheit stieg in den letzten Jahren stetig an, was unter anderem mit der Anzahl an Cyberangriffen auf IoT-Geräte begründet ist. Es existieren bereits Zertifizierungs- und Testprozesse, die die IT-Sicherheit von Produkten überprüfen. Um diese zu erweitern und zu beschleunigen, wurde in dieser Arbeit ein Programm konzipiert und umgesetzt, das verschiedene Vorgehen zur Firmwareanalyse implementiert und automatisiert. Hierbei wurde eine modulare Struktur verwendet, sodass weitere Analysen hinzugefügt werden können. Abschließend erstellt das Programm einen Bericht mit den Ergebnissen der Analysen. Er enthält außerdem eine Bewertung der IT-Sicherheit einer Firmware. Die der Firmwareanalyse vorausgehende Extraktion wird erläutert. Das vorgestellte Programm ermöglicht es einem Benutzer, Schwachstellen und Schutzmechanismen eines IoT-Produkts einzuschätzen.
Machine learning models for timeseries have always been a special topic of interest due to their unique data structure. Recently, the introduction of attention improved the capabilities of recurrent neural networks and transformers with respect to their learning tasks such as machine translation. However, these models are usually subsymbolic architectures, making their inner working hard to interpret without comprehensive tools. In contrast, interpretable models such learning vector quantization are more transparent in the ability to interpret their decision process. This thesis tries to merge attention as a machine learning function with learning vector quantization to better handle timeseries data. A design on such a model is proposed and tested with a dataset used in connection with the attention based transformers. Although the proposed model did not yield the expected results, this work outlines improvements for further research on this approach.
In this paper, we conduct experiments to optimize the learning rates for the Generalized Learning Vector Quantization (GLVQ) model. Our approach leverages insights from cog- nitive science rooted in the profound intricacies of human thinking. Recognizing that human-like thinking has propelled humankind to its current state, we explore the applica- bility of cognitive science principles in enhancing machine learning. Prior research has demonstrated promising results when applying learning rate methods inspired by cognitive science to Learning Vector Quantization (LVQ) models. In this study, we extend this approach to GLVQ models. Specifically, we examine five distinct cognitive science-inspired GLVQ variants: Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), and Loose Symme- try with Rarity (LSR). Our experiments involve a comprehensive analysis of the performance of these cogni- tive science-derived learning rate techniques across various datasets, aiming to identify optimal settings and variants of cognitive science GLVQ model training. Through this research, we seek to unlock new avenues for enhancing the learning process in machine learning models by drawing inspiration from the rich complexities of human cognition. Keywords: machine learning, GLVQ, cognitive science, cognitive bias, learning rate op- timization, optimizers, human-like learning, Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), Loose Symmetry with Rarity (LSR).
Adversarial robustness of a nearest prototype classifier assures safe deployment in sensitive use fields. Much research has been conducted on artificial neural networks regarding their robustness against adversarial attacks, whereas nearest prototype classifiers have not chalked similar successes. This thesis presents the learning dynamics and numerical stability regarding the Crammer-normalization and the Hein-normalization for adversarial robustness of nearest prototype classifiers. Results of conducted experiments are penned down and analyzed to ascertain the bounds given by Saralajew et al. and Hein et al. for adversarial robustness of nearest prototype classifiers.
Im Reverse Engineering und in der Malware-Analyse wurden bereits verschiedene Ansätze zur Visualisierung von Binärdaten entwickelt. Mit diesen lässt sich schnell ein Überblick über Dateien gewinnen, sodass beispielsweise verschiedene Regionen einer Datei identifiziert oder eine bösartige Datei einer Malware-Familie zugeordnet werden kann. In der vorliegenden Masterarbeit wird versucht, diese Ansätze auch sektorweise auf einen Datenstream anzuwenden. Dafür wird ein Demonstrator erstellt, mit dem Sektoren automatisiert nach Dateitypen klassifiziert werden können. Ziel ist es, einen Ansatz zur Verbesserung der aktuellen, signaturbasierten IT-forensischen Methoden zur Wiederherstellung von fragmentierten oder gelöschten Daten zu finden.
Traditional user management on the Internet has historically required individuals to give up control over their identities. In contrast, decentralized solutions promise to empower users and foster decentralized interactions. Over the last few years, the development of decentralized accounts and tokens has significantly increased, aiming at broader user adoption and shared social economies.
This thesis delves into smart contract standards and social infrastructure for Ethereum-based blockchains to enable identity-based data exchange between abstracted blockchain accounts. In this regard, the standardization landscapes of account and social token developments were analyzed in-depth to form guidelines that allow users to retain complete control over their data and grant access selectively.
Based on the evaluations, a pioneering Solidity standard is presented, natively integrating consensual restrictive on-chain assets for abstracted blockchain accounts. Further, the architecture of a decentralized messaging service has been defined to outline how new token and account concepts can be intertwined with efficient and minimal data-sharing principles to ensure security and privacy, while merging traditional server environments with global ledgers.
Diese Arbeit beschäftigt sich mit der Konzeption und Erstellung einer Kompetenzmatrix zur Verbesserung der Selbsteinschätzung von Studierenden im Bereich des Medieninformatik Studiums an der Hochschule Mittweida. Neben der Erstellung der Matrix wurde zusätzlich eine Evaluation an Studierenden und Absolventen durchgeführt. Eine Auswertung sowie eine Handlungsempfehlung und eine Weiterentwicklungsmöglichkeit der Matrix und aller erarbeiteten Bestandteile befindet sich ebenfalls in dieser Arbeit.
Die vorliegende Arbeit untersucht, wie eine Ontologie mobile Kommunikation für forensische Auswertungen abbilden kann und welche Chancen sich aus dieser Art von Repräsentation ergeben. Prinzipiell stellen Ontologien einen Lösungsansatz für die wachsenden Herausforderungen im Bereich der digitalen Forensik dar. Vor allem die Heterogenität und stark zunehmende Menge der auszuwertenden Daten stellt die Strafverfolgungsbehörden vor Probleme. Forensische Tools unterstützen bei der Extraktion und Analyse von Daten. Allerdings weisen sie in bestimmten Aspekten ihre individuellen Grenzen auf. Ontologien ermöglichen dabei die Interoperabilität zwischen forensischen Tools und somit die Kombination der jeweiligen Vorteile von diesen Tools. Somit können insbesondere (Teil-)Automatisierungen im Ermittlungsprozess realisiert werden, was zur Ersparnis von Zeit und Ressourcen führt. Darüber hinaus lassen sich anhand von Ontologien logische Schlussfolgerungen herleiten und weitere Methoden aus dem Bereich der künstlichen Intelligenz anwenden. Diese Arbeit verwendet die CASE-Ontologie als Grundlage zur Entwicklung einer Ontologie, welche mobile Kommunikation im Kontext forensischer Untersuchungen repräsentiert. Darüber hinaus wird im experimentellen Teil der Arbeit das Datenmodell einer forensischen Plattform zur Auswertung mobiler Kommunikation auf die entworfene Ontologie abgebildet. Zusätzlich wird ein semantischer Webserver prototypisch aufgesetzt, um einen Anwendungstest der Ontologie durchführen zu können.
Analysis of the Forensic Preparation of Biometric Facial Features for Digital User Authentication
(2023)
Biometrics has become a popular method of securing access to data as it eliminates the need for users to remember a password. Although exploiting the vulnerabilities of biometric systems increased with their usage, these could also be helpful during criminal casework.
This thesis aims to evaluate approaches to bypass electronic devices with forged faces to access data for law enforcement. Here, obtaining the necessary data in a timely manner is critical. However, unlocking the devices with a password can take several years with a brute force attack. Consequently, biometrics could be a quicker alternative for unlocking.
Various approaches were examined to bypass current face recognition technologies. The first approaches included printing the user's face on regular paper and aimed to unlock devices performing face recognition in the visible spectrum. Further approaches consisted of printing the user's infrared image and creating three-dimensional masks to bypass devices performing face recognition in the near-infrared. Additionally, the underlying software responsible for face recognition was reverse-engineered to get information about its operation mode.
The experiments demonstrate that forged faces can partly bypass face recognition and obtain secured data. Devices performing face recognition in the visible spectrum can be unlocked with a printed image of the user's face. Regarding devices with advanced near-infrared face recognition, only one could be bypassed with a three-dimensional face mask. In addition, its underlying software provided evidence about the demands of face recognition. Other devices under attack remained locked, and their software provided no clues.
Analysis of Continuous Learning Strategies at the Example of Replay-Based Text Classification
(2023)
Continuous learning is a research field that has significantly boosted in recent years due to highly complex machine and deep learning models. Whereas static models need to be retrained entirely from scratch when new data get available, continuous models progressively adapt to new data saving computational resources. In this context, this work analyzes parameters impacting replay-based continuous learning approaches at the example of a data-incremental text classification task using an MLP and LSTM. Generally, it was found that replay improves the results compared to naive approaches but achieves not the performance of a static model. Mainly, the performances increased with more replayed examples, and the number of training iterations has a significant influence as it can partly control the stability-plasticity-trade-off. In contrast, the impact of balancing the buffer and the strategy to select examples to store in the replay buffer were found to have a minor impact on the results in the present case.
RNA tertiary contact interactions between RNA tetraloops and their receptors stabilize the folding of ribosomal RNA and support the maturation of the ribosome. Here we use FRET assisted structure prediction to develop structural models of two ribosomal tertiary contacts, one consisting of a kissing loop and a GAAA tetraloop and one consisting of the tetraloop receptor (TLR) and a GAAA tetraloop. We build bound and unbound states of the ribosomal contacts de novo, label the RNA in silico and compute FRET histograms based on MD simulations and accessible contact volume (ACV) calculations. The predicted mean FRET efficiency from molecular dynamics (MD) simulations and ACV determination show agreement for the KL-TLGAAA construct. The KL construct revealed too high FRET efficiency and artificial dye behavior, which requires further investigation of the model. In the case of the TLR, the importance of the correct dye and construct parameters in the modeling was shown, which also leads to a renewed modeling. This hybrid approach of experiment and simulation will promote the elucidation of dynamic RNA tertiary contacts and accelerate the discovery of novel RNA interactions as potential future drug targets.
Im Rahmen der vorliegenden Masterarbeit wurden zwei CAN-Bus-Steuergeräte konzeptioniert und entwickelt, welche auf einem forensischen Demonstrator verbaut wurden. Die Funktionen der Steuergeräte sind zum einen die Steuerung einer Beleuchtungseinheit, zum anderen die Abstandsmessung sowie die Akkustandsüberwachung. Als Steuergeräte fungieren Arduino Nanos, welche über SPI mit CAN-Modulen kommunizieren können. Mit Hilfe der Analysesoftware BUSMASTER können CAN-Botschaften auf den CAN-Bus des Demonstrators gesendet werden. Der Demonstrator dient dabei als Grundlage für spätere forensische Untersuchungen des Controller Area Networks.
Analyse dezentraler Identifikation mittels Sidetree-Protokolls, am Beispiel von Microsoft ION
(2021)
This master thesis deals with the field of decentralized identification, using the example of the Microsoft Identity Overlay Network (ION). In the introduction, basic terms such as identity and identification are described. A special emphasis is placed on the explaining of the principle of decentralized identifiers (DIDs) and the SSI concept. ION is an implementation of the Sidetree protocol and uses its core components. This is the reason why more details and special parts of Sidetree are described in the methods chapter. Afterwards the ION history and network topology is typify more in detail. An ION node will be installed and operated on top of the Bitcoin blockchain. The installation process and the problems that arise are recorded. Then the ION tools (a programming library and its values) will be explained and the example program code is shown. As a practical addition of the ION tools, a verifiable credential solution is scripted. This solution shows the creation of ION-DID and the signature options of these identifiers. In the results chapter the knowledge acquired via the decentralized identification is evaluated. A theoretical security analysis for ION is implemented. Furthermore, a list of the currently possible uses for the network is enumerated. A discussion is initiated that compares the advantages and disadvantages of ION. The thesis ends with a conclusion and an outlook for ION and decentralized identification.
In dieser Arbeit ging es darum, eine Softwarelösung zu entwickeln, die auf die Anforderungen der Game Accessibility Guidelines abgestimmt ist. Die Godot Game Engine wurde als Entwicklungsplattform ausgewählt, da sie sich durch eine hohe Flexibilität und Skalierbarkeit auszeichnet. Durch die Verwendung dieser Engine war es möglich, eine stabile und robuste Basis zu schaffen, auf der die Implementierungen aufgebaut werden konnten. Ein wichtiger Aspekt bei der Entwicklung war die Wahl der richtigen Softwarearchitektur. Es wurde untersucht, welche Architekturen sich am besten eignen, um eine optimale Leistung und eine hohe Benutzerfreundlichkeit zu gewährleisten. Dazu wurden verschiedene Ansätze getestet und verglichen, um die bestmögliche Lösung zu finden. Im nächsten Schritt wurden die Implementierungen von Studierenden getestet und evaluiert. Dabei wurden Aspekte wie die Benutzerfreundlichkeit und der Mehraufwand, der durch die Nutzung der implementierten Features entsteht, untersucht. Es wurde auch darauf geachtet, wie verständlich die Implementierungen gestaltet sind und wie leicht sie zu bedienen sind. Die Ergebnisse der Evaluation wurden dann reflektiert und der Aufwand der Implementationen wurde in Hinblick darauf untersucht, dass es sich bei den Anforderungen fast ausschließlich um solche handelt, die laut den Game Accessibility Guidelines als Anforderungen mit geringer Komplexität eingestuft werden. Dies bedeutet, dass die Implementierung dieser Anforderungen relativ einfach sein und keine großen Schwierigkeiten bereiteten sollten. Insgesamt war die Entwicklung der Softwarelösung ein Erfolg und hat gezeigt, dass die Einschätzung der Komplexität der Game Accessibility Guidelines größtenteils bestätigt werden kann. Des Weiteren wurde die Implementation von den Studierenden gut angenommen. Die Ergebnisse der Evaluation können dazu beitragen, einen technischen Ansatzpunkt für zukünftige Bewertungen der Anforderungen und Implementationsversuche zu bieten.
To investigate the effects of climate change on interactions within ecosystems, a microcosm experiment was conducted. The effects of temperature increase and predator diversity on Collembola communities and their decomposition rate were investigated. The predators used were mites and Chilopods, whose predation effects on several response variables were analysed. This data included Collembola abundance, biomass and body mass as well as basal respiration and microbial biomass carbon. These response variables were tested against the predictors in several models. Temperature showed high significance in interaction with mite abundance in almost all models. Furthermore, the results of the basal respiration and microbial biomass carbon support the suggestion of a trophic cascade within the animal interaction.
In dieser Arbeit werden acht Arten von Belohnungssysteme in Mobile Games auf deren Einfluss auf das Verhalten der Spieler und den daraus resultierenden Wiederspielwert eines Spiels untersucht. Zwei dieser Systeme werden für einen Praxistest ausgewählt und detailliert betrachtet. Dabei handelt es sich um das Punktestand System und das Level System. Die Konzeption der Systeme ist um- fangreich beschrieben und die Implementation ist anhand von relevanten Beispielen oder Grafiken aus der Spiele-Engine veranschaulicht. Diese Belohnungssysteme werden innerhalb eines sonst identischen Spiels separat integriert und in einem AB Test getestet. Für die Auswertung des Praxis- tests werden während der Testphase diverse Spieldaten der Spieler erhoben und im Anschluss an den Test wurde von jedem Nutzern ein Fragebogen beantwortet. Auf diese Weise werden objektive Spieldaten sowie subjektive wahrgenommene Faktoren des Spielverhaltens erfasst und konnten in der Auswertung miteinander verknüpft werden. Die dabei entstandenen Ergebnisse zeigen, dass beide Belohnungssysteme die Spieler zum spielen motiviert haben. Jedoch hat das Punktestand System einen höheren Wiederspielwert erzielen können, da hierbei die intrinsische Motivation der Spieler mittels direkter Beeinflussbarkeit der verwendeten Verstärkung angesprochen wird. Außer- dem haben die Tester innerhalb des Punktestand Systems im Median eine größere Reichweite erspielen können. Daraus lässt sich schlussfolgern, dass sie durch das Erhalten beziehungsweise Ausbleiben von Belohnungen dazu motiviert wurden das Spiel stetig weiter spielen zu wollen. Daher hat sich dieses Belohnugnssystem als das für das im Praxisbeispiel verwendete Spiel optimale Be- lohnungssystem herausgestellt. Der subjektiv vom Spieler empfundene Spaßfaktor war bei beiden Belohnungssystemen gleich gut. Das Ergebnis der durchgeführten Forschung besagt, dass durch das Belohnungssystem das Spielverhalten und daraus resultierend der Wiederspielwert eines Spiels sowohl positiv als auch negativ beeinflusst werden kann. Die Art der Belohnung muss in Abhän- gigkeit von der im Gamedesign im Vordergrund stehenden Tätigkeit gewählt werden. Zielen das Belohnungssystem und die Hauptaktion des Spiels auf die gleiche Handlung ab, so werden Spieler intrinsisch dazu motiviert diese vermehrt ausführen zu wollen. Die optimale Art der Belohnung muss daher die individuellen Charakteristika eines Spiels unterstützen.
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Blockchain-Governance wird oft mit der Führung von Unternehmen oder von Nationalstaaten verglichen, obwohl diese sich selbst eher als Decentralized Autonomous Organizations (DAOs) und damit als reine Software verorten. In dieser Arbeit wird die Polkadot-Governance in jener Ebene, in der Menschen über Polkadot Entscheidungen treffen, dargestellt, um sie dann mit rechtlichen Konzepten, die den Rahmen für die Entscheidungsfindung in Unternehmen und Staaten bilden, sowie mit den rechtlichen Grundlagen für die Entscheidungsfindung einer DAO zu vergleichen.
Bei Hodenhochstand, auch Kryptorchismus genannt, handelt es sich um eine der am häufigs- ten auftretenden Störungen der Geschlechtsentwicklung bei Hunden. Die Ursachen für diese Krankheit sind bisher unklar. Es wird davon ausgegangen, dass es multifaktorielle Auslöser gibt. Um den genetischen Hintergrund dieser Krankheit bei der Rasse Altdeutscher Schafpudel zu betrachten, wurden in dieser Studie ausgewählte Hunde einer Zucht untersucht. In diesem Zusammenhang wurde eine Visualisierung der Verwandtschaftsverhältnisse einer vorangegangenen Studie um die untersuchten Individuen ergänzt. Die Nanoporensequenzierungen wurde für die Analyse von sechs Genloci genutzt. Diese Sequenzdaten wurden anschließend auf Sequenz- und Strukturvarianten untersucht. Diese Arbeit vergleicht die Resultate mit vorausgegangenen Untersuchungen, um einen Zusammenhang zwischen Kryptorchismus und einer detektierbaren genetischen Veränderung zu ermitteln.
The occurence of prostate cancer (PCa) has been consistently rising since three decades and remains the third leading cause of cancer-related deaths after lung and bowel cancer in Germany. Despite of new methods of early detection, such as prostate-specific antigen (PSA) testing, it persists to be the most common cancer in german men with over 63,400 new diagnoses in Germany every year and exhibits high prevalence in other countries of Northern andWestern Europe as well [64]. Men over the age of 70 are most commonly affected by the lethal disease, whereas an indisposition before 50 is rare. The malignant prostate tumor can be healed through operation or irradiation while the cancer hasn’t reached the stage of metastasis in which other therapeutic methods have to be employed [14] [15]. In the metastatic phase, the patient usually exhibits symptoms when the tumors size affects the urethra or the cancer spreads to other tissue, often the bones [16].
The high prevalence of this disease marks the importance of further research into prognosis and diagnosis methods, whereby identification of further biomarkers in PCa poses a major topic of scientific analysis. For this task, the effectiveness of high-throughput RNA sequencing of the transcriptome (RNA molecules of an organism or specific cell type) is frequently exploited [66]. RNA sequencing or RNA-Seq in short, offers the possibility of transcriptome assessment, enabling the identification of transcriptional aberrations in diseases as well as uncharacterized RNA species such as non-coding RNAs (ncRNAs) which remain undetected by conventional methods [49]. To alleviate interpretation of the sequenced reads they are assembled to reconstruct the transcriptome as close to the original state as possible, thus enabling rapid detection of relevant biomolecules in the data [49]. Transcriptomic studies often require highly accurate and complete gene annotations on the reference genome of the examined organism. However, most gene annotations and reference genomes are far from complete, containing a multitude of unidentified protein-coding and non-coding genes and transcripts. Therefore, refinement of reference genomes and annotations by inclusion of novel sequences, discovered in high quality transcriptome assemblies, is necessary [24].
Glycans play an important role in the intracellular interactions of pathogenic bacteria. Pathogenic bacteria possess binding proteins capable of recognizing certain sugar motifs on other cells, which are found in glycan structures. Artificial carbohydrate synthesis allows scientists to recreate those sugar motifs in a rational, precise, and pure form. However, due to the high specificity of sugar-binding proteins, known as lectins, to glycan structures, methods for identifying suitable binding agents need to be developed. To tackle this hurdle, the Fraunhofer Institute for Cell Therapy and Immunology (Fraunhofer IZI) and the Max-Planck Institute of Colloids and Interfaces (MPIKG) developed a binding assay for the high throughput testing of sugar motifs that are presented on modular scaffolds formed by the assembly of four DNA strands into simple, branched DNA nanostructures. The first generation of this assay was used in combination with bacteria that express a fluorescent protein as a proof-of-concept. Here, the assay was optimized to be used with bacteria not possessing a marker gene for a fluorescent protein by staining their genomic DNA with SYBR® Green. For the binding assay, DNA nanostructures were combined with artificially synthesized mannose polymers, typical targets for many lectins on the surface of bacteria, presenting them in a defined constellation to bind bacteria strongly due to multivalent cooperativity. The testing of multiple mannose polymers identified monomeric mannose with a 5’-carbon linker and 1,2-linked dimeric mannose with linker as the best binding candidates for E. coli, presumably due to binding with the FimH protein on the surface. Despite similarities between the FimH proteins of E. coli and K. pneumoniae, binding was only observed between E. coli and the different sugar molecules on DNA structures. Furthermore, the degree of free movement seemed to affect the binding of mannose polymers to targeted proteins, since when utilizing a more flexible DNA nanostructure, an increase in binding could be observed. An alternative to the simple DNA nanostructures described above is the use of larger, more complex DNA origami structures consisting of several hundred strands. DNA origami structures are capable of carrying dozens of modifications at the same time. The results for the DNA origami structure showed a successful functionalization with up to 71 1,2-linked dimeric mannose with linker molecules. These results point towards a solution for the high-throughput analysis of potential binding agents for pathogenic bacteria e.g. as an alternative treatment for antibiotic-resistant.
Cryptorchidism is the most common disorder of sex development in dogs. It describes a failure of one or both testes to descend into the scrotum in due time. It is a heritable multifactorial disease. In this work, selected dogs of a german sheep poodle breed were sequenced with nanopore sequencing and subsequently examined for genetic variations correlating with cryptorchidism. The relationships of the studied dogs were also analyzed and visually processed.
In dieser Arbeit wurde das SARS-CoV-2 Nukleokapsid-Protein sowie dessen N- und C-terminale Domäne kloniert und die darauf folgende Expression in E.coli und die Aufreinigung optimiert. Anschließend wurden die Proteine als Antigene für indirekte ELISAs verwendet. Die IgG-Antwort aus Seren von COVID-19 Patienten wurde bestimmt, um die Sensitivität und Spezifität hinsichtlich der Detektionsfähigkeit gegenüber den Varianten des N-Proteins zu vergleichen. Weiterhin wurde das Verhalten dieser Immunantworten über einen Zeitraum der akuten Infektion bis frühen Konvaleszenz mit einem Zeitraum von bis zu 10 Monaten nach Symptombeginn bei verschiedenen klinischen Schweregraden untersucht.
Assessment of COI and 16S for insect species identification ti determine the diet of city bats
(2023)
Despite the numerous benefits of urbanization to human living conditions, urbanization has also negatively affected humans, their environment, and other organisms that share urban habitats with humans. Undoubtedly adverse while some wild animals avoid living in urban areas, others are more tolerant or prefer life in urban habitats. There are more than 1,400 species of bats in the world.
Therefore, they have the potential to contribute significantly to the mammalian biodiversity in urban areas. Insectivorous bats species play a key role in agriculture by improving yields and reducing chemical pesticide costs. Using metabarcoding, it is possible to determine the prey consumed by these noctule mammals based on the DNA fragments in their fecal pellets. This study
aimed to evaluate COI and 16S metabarcodes for insect species identification to determine the diet of metropolitan bats. For this purpose, COI and 16S metabarcodes were extracted, amplified, and sequenced from 65 bat feces collected in the Berlin metropolitan areas. Following a taxonomic annotation, I found that 73% of all identified insects could only be detected using the COI method, while 15% could be recovered using the 16S approach. Just 12% of all detected insects were identified simultaneously by both markers. According to this result, COI is more suitable for the taxonomic identification of insects from bat feces. However, given the bias of COI primers, it is recommended to use both markers for a more precise estimation of species diversity. Additionally,based on the insect species identified, I noticed that urban bats fed mainly on Diptera, Coleoptera,and Lepidoptera. The bat species Nyctalus noctula was most abundant in the samples. His diet analysis revealed that 91% of the samples contained the insect species Chironomus plumosus. 14 pest insect species were also found in his diet.
Das Ziel der vorliegenden Masterarbeit war es, die entstehenden Auswirkungen auf die Entscheidungsfindung durch die Transferierung von dilemmatischen Gedankenexperimenten auf die virtuelle Realität zu untersuchen. Studien zeigen, dass die Immersion in virtuelle Welten mittels Head-Mounted-Displays deutlich höher ist, als bei der Nutzung von Computerbildschirmen. Dadurch lassen sich neue Anwendungen in der Experimentalpsychologie ableiten. Anhand der Daten aus bereits bekannten Variationen des Trolley-Dilemmas werden die hier gewonnenen Ergebnisse verglichen. Dazu wurden im Rahmen einer qualitativen, empirischen Forschung mit 33 Probanden eine praktische und ethisch begutachtete Simulation mit zugehörigen psychologischen Fragebögen und direkt an die Simulation anschließende Fragebögen zum Immersionsgrad durchgeführt. Im Rahmen der qualitativen Inhaltsanalyse konnten Erkenntnisse in den folgenden Bereichen gewonnen werden: Entscheidungsfindung in VR-Trolley-Dilemmata unter Einsatz eines persönlichen Dilemmas, Immersion in zeitlich begrenzten Simulationen und Herausforderungen im Ablauf von VR-Simulationen. Die Veränderung der kontextuellen Bedeutung bei der Präsentation von Dilemmas und Trilemmas führte zu Unterschieden der Befürwortung des utilitaristischen Prinzips im Vergleich zu Onlinebefragungen.
Our current research aims to establish a complete ribonucleic acid (RNA) production line from plasmid design to purification of in vitro transcribed RNA and labeling of RNA. RNA is the central molecule within the central dogma of molecular biology and is involved in most essential processes within a cell[1]. In many cases, only compact three-dimensional structures of the respective RNA are able to fulfill their function. In this context, RNA tertiary contacts such as kissing loops and pseudoknots are essential to stabilize three-dimensional folding[2]. We will produce a tertiary contact consisting of a kissing loop and a GAAA tetraloop that occurs in eukaryotic ribosomal RNA[3,4]. The RNA sequence is integrated into a vector plasmid. Subsequently, the plasmid is amplified in E. coli. After following plasmid purification steps, the RNA sequence will be transcribed in vitro[5,6]. In order for the RNA be used for Förster resonance energy transfer (FRET) experiments at the single molecule level, fluorescent dyes must be coupled to the RNA molecule[7].
Recently a deep neural network architecture designed to work on graph- structured data have been capturing notice as well as getting implemented in various domains and application. However, learning representation (feature embedding) from graphical data picking pace in research and constructing graph(s) from dataset remains a challenge. The ability to map the data to lower dimensions further makes the task easier while providing comfort in applying many operations. Graph neural network (GNN) is one of the novel neural network models that is catching attention as it is outperforming in various applications like recommender systems, social networks, chemical synthesis, and many more. This thesis discusses a unique approach for a fundamental task on graphs; node classification. The feature embedding for a node is aggregated by applying a Recurrent neural network (RNN), then a GNN model is trained to classify a node with the help of aggregated features and Q learning supports in optimizing the shape of neural networks. This thesis starts with the working principles of the Feedforward neural network, recurrent units like simple RNN, Long short-term memory (LSTM), and Gated recurrent unit (GRU), followed by concepts of Reinforcement learning (RL) and the Q learning algorithm. An overview of the fundamentals of graphs, followed by the GNN architecture and workflow, is discussed subsequently. Some basic GNN models are discussed in brief later before it approaches the technical implementation details, the output of the model, and a comparison with a few other models such as GraphSage and Graph attention network (GAN).
In vielen Einsatzbereichen sind digitale Nachbildungen realer Gebäude von großer Wichtigkeit. Die Erstellung dieser Nachbildungen erfordert bei älteren bzw. historischen Gebäuden allerdings meist erheblichen Vermessungs- und Nachbearbeitungsaufwand mit großem Personal- und Zeitbedarf. Häufig wurde ein Gebäude stilistisch an die jeweilige Zeit angepasst, sodass einzelne Zustände nur mit historischem Bildmaterial reproduzierbar sind.
Am Beispiel mehrerer ausgewählter, aktuell existierender Gebäude der Stadt Mittweida sind realitätsnahe, digitale und veränderbare Modelle mittels eines möglichst automatisierten Workflows erstellt.
Die äußere Erscheinung dieser Modelle kann mit dem entwickelten System automatisiert an andere Stile anpasst werden, welche durch z.B. historisches Bildmaterials von Gebäuden vorgegeben sind. Aufgrund der vielfältigen Einsatzbereiche und weiten Verbreitung finden hierfür Verfahren der Photogrammetrie für die Erstellung und neuronale Netze für die Stilanpassung Anwendung, welche auf handelsüblicher Hardware eingesetzt werden können. Eine Evaluierung erfolgte durch bildlichen Vergleich der stilangepassten Modelle mit dem zugehörigen Bildmaterial.
Soziale Medien ermöglichen den öffentlichen Austausch von Nachrichten im digitalen Raum. Viele Personen missbrauchen diese Plattformen jedoch für die Verbreitung von Hass. Die Bestimmung und die Prävention derartiger Kommentare stellt eine große Herausforderung dar. In dieser Arbeit werden Möglichkeiten zur Bestimmung und Prognose von Toxizität als Kennzahl
für die sentimentale Ausdrucksform des Hasses aufgezeigt. Nach der begründeten Auswahl der Perspective API als Werkzeug zur Bestimmung von Toxizität werden mit diesem Werkzeug über 600.000 deutschsprachigen Twitter-Kommentare aus dem Frühjahr 2021 annotiert. Die Annotation bildet die Grundlage für die Untersuchung der Ausbreitung toxischer deutscher Sprache.
Mit Methoden der intelligenten Datenanalyse werden im Datensatz Einflussfaktoren ermittelt, die das Absetzen eines toxischen Kommentars begünstigen. Die gefundenen Einflussfaktoren werden final dazu verwendet, um die Toxizität von Antworten, ohne ein Wissen über deren Inhalt,
mit Hilfe künstlicher Intelligenz zu prognostizieren.
Ziel dieser Arbeit ist es, Konzepte zur Steigerung der intrinsischen Motivation innerhalb der Lernsimulation Finanzmars zu erstellen und zu untersuchen. Zur Erstellung dieser Konzepte sollen potentiell motivationsfördernde Elemente aus dem Bereich der Gamification sowie aus E-Commerce-Geschäftsmodellen kombiniert und verwendet werden. Dabei sollen zwei Belohnungssysteme entwickelt werden, bestehend aus einerseits klassischen Belohnungen digitaler Spiele sowie andererseits aus Belohnungen mit zufälliger Gewinnausschüttung, sogenannten Lootboxen. Als Forschungsobjekt dieser Arbeit wird die Lernsimulation Finanzmars verwendet, in welche die zu erstellenden Konzepte integriert werden. Diese werden sodann in einer anschließenden Evaluation auf potentielle Motivationssteigerungen untersucht. Diesbezüglich gilt es, für jedes zu untersuchende Konzept eine eigene Spielversion von Finanzmars zu entwickeln. Eine Probandengruppe soll während der Evaluation diese Spielversionen testen, sodass ihre Spielerdaten entsprechend untersucht werden können. Um Abseits der Spielerdaten auch die Probandenmeinungen hinsichtlich ihrer Motivation evaluieren zu können, gilt es, darauffolgende Fragebögen zu konzipieren und diese von Probanden bearbeitet werden zu lassen.
Diese Arbeit thematisiert die Konzeption und Durchführung einer Studie, welche die inner- und interpersonellen Koordinationsmuster in Videospielen mit multipler Eingabe anhand eines lokalen Softwareprototypen untersucht. Im Rahmen dieses Projekts dient ein konzipierter Softwareprototyp mit einem angepassten Gamedesign auf Koordinationsherausforderung als Prototyp für die Studie mit einer Einzelspielergruppe und einer Multiplayergruppe. Die Koordinationsmuster werden in einer Studie durch einen Fragebogen und einen Probandentest mit drei Durchläufen der Level des Softwareprototypen ermittelt und analysiert. Die Ergebnisse zeigen, dass die interpersonellen Koordinationsmuster der Multiplayer nach dem ersten Durchlauf den innerpersonellen Koordinationsmustern unterlegen sind. Die Kommunikation als interpersonelles Koordinationsmuster scheint eine verlangsamende Wirkung im ersten Durchlauf zu besitzen. Beide Gruppen weisen Vermeidungsstrategien und Vereinfachungsstrategien der koordinatorischen Herausforderungen auf. Hinsichtlich der gesammelten Erfahrungen bezüglich der koordinatorischen Aufgaben zeigt sich über die Durchläufe hinweg eine Verbesserung, insbesondere beim Zeitaspekt sowie eine Annäherung der Werte beider Gruppen aneinander.
Die hier vorliegende Arbeit beschäftigt sich mit den methodischen Abläufen des Kriminalitätsphänomens Caller ID Spoofing, dessen technische Hintergründe, sowie der Detektion und den sich daraus ergebenden Maßnahmen der Abwehr seitens der Betroffenen. Dabei soll im theoretischen Teil sowohl auf das Phänomen des Caller ID Spoofing an sich und dessen Einordnung in den Deliktbereich Cybercrime als auch auf die technischen Hintergründe bei der Verschleierung der eigenen Telefon-Identität eingegangen werden. Des Weiteren wird der Faktor Mensch als Schwachstelle von IT-Systemen beleuchtet. Der methodische Teil der Arbeit legt den Fokus auf die Entwicklung effektiver Lösungen zur Erkennung und Abwehr von Caller ID Spoofing, sowohl aus technischer als auch aus soziologischer Sicht. Während für ersteres bereits eine Vielzahl von wissenschaftlichen Ansätzen existieren, soll sich bei zweiteren auf den Begriff der Security Awareness konzentriert werden.
Diese Masterarbeit analysiert die Möglichkeiten der Auditierung von Künstlicher Intelligenz in der Theorie und der Praxis. Im Rahmen eines anwendungsnahen Szenarios wird mithilfe des Frameworks Avalanche ein kontinuierlich lernendes System konstruiert. Deren Gewichtswerte sowie die Änderung der Gewichte werden in einer Logdatei gespeichert. Der Verlauf der Änderungen sowie der entstehende Speicherbedarf bei variierender Hidden Layer-Zahl und Neuronenanzahl gibt Rückschlüsse über die Anwendbarkeit der betrachteten Methode. Diese Vorgehensweise ist alleinstehend nicht ausreichend für eine umfassende Auditierung, wodurch weiterführende Forschung notwendig ist.
As the cryptocurrency ecosystem rapidly grows, interoperability has become increasingly crucial, enabling assets and data to interact seamlessly across multiple chains. This work describes the concept and implementation of a trustless connection between the Bitcoin Lightning Network and EVM-compatible blockchains, allowing the transfer of assets between the two ecosystems. Establishing such a connection can significantly contribute to the growth of both ecosystems as they can benefit from each other’s advantages and emerge new pos- sibilities.
Diese Masterarbeit zeigt einen Ansatz zur Vorhersage von Zugverspätungen mit Hilfe von Supervised Learning. Dazu werden Modelle mit verschiedenen Algorithmen getestet und miteinander verglichen. Außerdem wird gezeigt, wie das entwickelte Vorhersagemodell in eine Blockchain-Anwendung integriert werden kann.
Diese Arbeit untersucht die Integration einer dezentralen autonomen Organisation (DAO) in eine bestehende Lernplattform. Dabei werden mögliche Schnittpunkte zwischen den beiden Konzepten gesucht und deren Potenziale und Herausforderungen analysiert. Zunächst werden die theoretischen Grundlagen von Blockchain-Technologie, DAO und Lernplattformen vorgestellt. Darauf basierend werden die Prozesse auf einer Lernplattform auf eine mögliche Integration einer DAO untersucht. Besonderer Fokus liegt dabei auf den Prozessen Bezahlung und Bewertung. Es stellt sich heraus, dass der Reviewprozess zum einen mehr Überschneidungspunkte hat und zum anderen viele weitere Prozesse auf diesen aufbauen. Im Hauptteil der Arbeit wird daher ein Konzept für die Integration einer DAO im Bewertungsprozess entwickelt und erste Grundlagen für eine Umsetzung gelegt. Dabei werden verschiedene Ansätze, die sich auch aus den Fallstudien ergeben, betrachtet und verglichen, um den Anforderungen der Lernplattform und der Blockchain gerecht zu werden. Die Arbeit zeigt die Potenziale einer DAO in einer Lernplattform auf, wie bspw. transparenten Reviewprozess für neue Inhalte. Gleichzeitig werden mögliche Herausforderungen bei der Integration identifiziert und geeignete Lösungsansätze entwickelt. Ein Ausblick auf zukünftige Entwicklungen beinhaltet den Einsatz von Künstlicher Intelligenz bei der Entwicklung von Lerninhalten und die weitere Integration der DAO in die Lernplattform.
Ziel dieser Arbeit ist die Entwicklung eines Modells, das über einen mehrstufigen Angriffsprozess das Passwort eines spezifischen Benutzers unabhängig von der Stärke des Passworts rekonstruiert. Der Fokus des Modells liegt auf dem benutzerspezifischen Angriff und dessen Präprozessor. Dieser soll unter Berücksichtigung der bisherigen Design- und Konstruktionsprinzipien des Benutzers sowie unter Einbeziehung seiner persönlichen Informationen die wahrscheinlichsten Passwort-Kandidaten generieren.
Diese Masterarbeit prüft forensische Ansätze zur Analyse von Mesh-Netzwerken am Beispiel eines Meshtastic®-Netzes. Hierzu wurden Daten des Funknetzwerkes extern, sowie durch Aufzeichnung des internen Nachrichtenverkehrs erhoben. Mit diesen Daten konnte die Existenz des Netzwerkes nachgewiesen, dessen Teilnehmer identifiziert, sowie deren geographische Positionen offengelegt werden. Darüber hinaus konnte die Netzwerkstruktur partiell rekonstruiert und der Nachrichteninhalt protokolliert werden. Schließlich konnten Maßnahmen identifiziert werden, sich einer Analyse zu entziehen, was einerseits Perspektiven der Sicherheitsintensivierung offenbart und andererseits fortführende forensische Untersuchungen bedingt.
In dieser Arbeit werden das Parameterbasierte Verfahren StyleFlow und das semantische System StyleClip untersucht um das StyleGan zu kontrollieren. Dabei sollen die gewählten Attribute bestmöglich editiert werden und sich dabei möglichst wenig gegenseitig beeinflussen. Zusätzlich Experimente auf realen Daten zeigen, dass durch die Invertierung in den Raum des StyleGan Fehler in den Attributen auftreten und bei der Editierung vermehrt Artefakte auftreten. In weiteren Untersuchungen werden die beiden Systeme genutzt, um zum einem Veränderungen entsprechend dem realen Verhalten durchzuführen und zum anderem eine Attributverteilung von Identitäten auf eine andere zu Übertragen. Dabei wird auch die Bildqualität allgemein und für eine Gesichtserkennung untersucht. Mit den untersuchten Systemen sind diese Operationen zu einem gewissen Maß möglich, dabei fällt die Bewertung aufgrund relativer Metriken schwierig.
This thesis investigates the efficacy of four machine learning algorithms, namely linear regression, decision tree, random forest and neural network in the task of lead scoring. Specifically, the study evaluates the performance of these algorithms using datasets without sampling and with random under-sampling and over-sampling using SMOTE. The performance of each algorithm is measure using various performance metrics, including accuracy, AUC-ROC, specificity, sensitivity, precision, recall, F1 score, and G-mean. The results indicate that models trained on the dataset without sampling achieved higher accuracy than those trained on the dataset with either random under-sampling or random over-sampling using SMOTE. However, the neural network demonstrated remarkable results on each dataset compared to the other algorithms. These findings provide valuable insights into the effectiveness of machine learning algorithms for lead scoring tasks, particularly when using different sampling techniques. The findings of this study can aid lead management practices in selecting the most suitable algorithm and sampling technique for their needs. Furthermore, the study contributes to the literature by providing a comprehensive evaluation of the performance of machine learning algorithms for lead scoring tasks. This thesis has practical implications for businesses looking to improve their lead management practices, and future research could extend the analysis to other machine learning algorithms or more extensive datasets.
Das Ziel dieser Masterarbeit ist die Evaluierung des Realtime Multi-Person 2D Pose Estimation Frameworks OpenPose. Dazu wird die Forschungsfrage gestellt, bis zu welcher Pixelgröße ein Mensch allgemein von dem System mit einer Sicherheit von über 50% richtig detektiert und dargestellt wird. Um die Forschungsfrage zu beantworten ist eine Studie mit sieben Probanden durchgeführt wurden. Aus der Datenerhebung geht hervor, dass der gesuchte Confidence Value zwischen 110px und 150px Körpergröße in von Menschen digitalen Bildern erreicht wird.
Private Blockchain-Netzwerke können von Unternehmen für die Integritätssicherung von Produktionsdaten verwendet werden. Die Hochschule Mittweide entwickelt im Rahmen des Forschungsprojektes safe-UR-chain ein derartiges Blockchain-Netzwerk. Teil dieser Entwicklung ist die Auswahl und Optimierung eines Konsensverfahrens für das Netzwerk. Für diese Aufgabe fehlt es momentan an einem System, das den Vergleich von Konsensverfahren anhand ihrer Leistungsmetriken ermöglicht. Diese Arbeit befasst sich mit der Entwicklung eines derartigen Systems sowie der Implementierung dreier Konsensverfahren, die anhand ihrer vom System erfassten Leistungsmetriken verglichen werden.