Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
IoT- und Smart-Home-Geräte erfreuen sich zunehmender Beliebtheit. Der Bedarf nach IoT-Sicherheit stieg in den letzten Jahren stetig an, was unter anderem mit der Anzahl an Cyberangriffen auf IoT-Geräte begründet ist. Es existieren bereits Zertifizierungs- und Testprozesse, die die IT-Sicherheit von Produkten überprüfen. Um diese zu erweitern und zu beschleunigen, wurde in dieser Arbeit ein Programm konzipiert und umgesetzt, das verschiedene Vorgehen zur Firmwareanalyse implementiert und automatisiert. Hierbei wurde eine modulare Struktur verwendet, sodass weitere Analysen hinzugefügt werden können. Abschließend erstellt das Programm einen Bericht mit den Ergebnissen der Analysen. Er enthält außerdem eine Bewertung der IT-Sicherheit einer Firmware. Die der Firmwareanalyse vorausgehende Extraktion wird erläutert. Das vorgestellte Programm ermöglicht es einem Benutzer, Schwachstellen und Schutzmechanismen eines IoT-Produkts einzuschätzen.
Die vorliegende Bachelorarbeit widmet sich dem Entwurf und der prototypischen Implementierung einer Teilnehmeridentifikationsmethode für LabCon, ein Nutzerverwaltungssystem für Online-Praktika. Der Fokus liegt auf dem Einsatz von Digital Fingerprinting, einer Technologie, die durch die Extraktion charakteristischer Merkmale der Browser und der Geräte von Nutzern eine eindeutige Identifikation ermöglicht.
Die Arbeit bezieht sich auf die Verwendung von Lügendetektoren als Beweismittel vor Gericht. Die Einführung in die Geschichte stellt die Entwicklung dieser Technologie dar. Des Weiteren werden die theoretischen Grundlagen und die Funktionsweisen von Lügendetektortests, sowie deren Kritikpunkte beleuchtet. Insbesondere werden verschiedene Testmethoden und deren Fehleranfälligkeit diskutiert. Zudem wird auf die rechtlichen Aspekte, vorwiegend auf die Beweiswürdigung, sowie auf die Zulässigkeit solcher Tests in gerichtlichen Verfahren, eingegangen.
Instant Messenger gehören zu den am häufigsten verwendeten Applikationen auf mobilen Endgeräten. Sie werden von nahezu allen Altersgruppen genutzt, dabei verwenden eine Vielzahl der Nutzer diese täglich zum Austausch von textuellen Nachrichten, Sprachnachrichten oder multimedialer Dateien. Die Anzahl der Nutzer nimmt seit Jahren kontinuierlich zu. Einer der verbreitetsten Anwendungen ist „Threema“, welche von 22 Prozent der Befragten in Deutschland genutzt wird. Weltweit beträgt die Anzahl der Nutzer elf Millionen. Im Kontext forensischer Untersuchungen wird die Bedeutung der Rekonstruktion von Artefakten von Instant Messenger-Diensten immer größer, da über diese auch ein Austausch von Informationen durch Täter, Opfer und Zeugen von Straftaten stattfindet. Solche Artefakte umfassen Bild- und Videomaterial sowie Standorte oder Textnachrichten. Diese können hilfreich sein, um den Tathergang zu rekonstruieren.
In der vorliegenden Bachelorarbeit werden die Artefakte der Instant Messengers „Threema“ anhand von Beispieldaten aufbereitet und ausgewertet. Dabei stehen Chatverläufe, ausgetauschte Standorte und Kontaktinformationen im Fokus, wobei sie keine Entschlüsselung der Daten oder Rekonstruktion von multimedialen Daten oder gelöschte Daten umfasst. Die Untersuchungen ergaben, dass die Daten in den SQLite- Datenbanken ThreemaData.sqlite und Threema.sqlite-wal abgelegt werden.
Die vorliegende Arbeit befasst sich mit den Anforderungen zur Verbesserung der Mitarbeiterzufriedenheit und -effizienz anhand der Webanwendung des SYSTEMHAUS am Neumarkt. Dazu erfolgt die Recherche gängiger Methoden im Bereich der User Experience. Mit den theoretischen Grundlagen wird der aktuelle Entwicklungsstand analysiert. Es erfolgt eine Evaluation, aus welcher ein Problemkatalog erstellt wurde. Kern der Arbeit ist die Erstellung eines Kriterienkataloges mit konkreten Maßnahmen zur Verbesserung der User Experience. Diese Maßnahmen werden mit Hilfe eines Prototyps visualisiert.
Machine learning models for timeseries have always been a special topic of interest due to their unique data structure. Recently, the introduction of attention improved the capabilities of recurrent neural networks and transformers with respect to their learning tasks such as machine translation. However, these models are usually subsymbolic architectures, making their inner working hard to interpret without comprehensive tools. In contrast, interpretable models such learning vector quantization are more transparent in the ability to interpret their decision process. This thesis tries to merge attention as a machine learning function with learning vector quantization to better handle timeseries data. A design on such a model is proposed and tested with a dataset used in connection with the attention based transformers. Although the proposed model did not yield the expected results, this work outlines improvements for further research on this approach.
Verschiedenste telefonische Betrugsmaschen, die auf die ältere Generation abzielen, sind in den letzten Jahren in Deutschland exorbitant gestiegen. Ob Schockanruf, WhatsApp-Betrug oder Enkeltrick: die Folgen eines solchen Betrugsfalls werden nur selten aufgezeigt. Anhand einer quantitativen Umfrage und einem Interview mit einer Betroffenen werden in dieser Arbeit die Betrugspräsenz, die Trendentwicklung und der aktuelle Aufklärungsstand am Beispiel des Enkeltricks, sowohl analog als auch digital untersucht. Abschließend werden Handlungsempfehlungen für potenziell gefährdete Menschen ausgesprochen.
In this paper, we conduct experiments to optimize the learning rates for the Generalized Learning Vector Quantization (GLVQ) model. Our approach leverages insights from cog- nitive science rooted in the profound intricacies of human thinking. Recognizing that human-like thinking has propelled humankind to its current state, we explore the applica- bility of cognitive science principles in enhancing machine learning. Prior research has demonstrated promising results when applying learning rate methods inspired by cognitive science to Learning Vector Quantization (LVQ) models. In this study, we extend this approach to GLVQ models. Specifically, we examine five distinct cognitive science-inspired GLVQ variants: Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), and Loose Symme- try with Rarity (LSR). Our experiments involve a comprehensive analysis of the performance of these cogni- tive science-derived learning rate techniques across various datasets, aiming to identify optimal settings and variants of cognitive science GLVQ model training. Through this research, we seek to unlock new avenues for enhancing the learning process in machine learning models by drawing inspiration from the rich complexities of human cognition. Keywords: machine learning, GLVQ, cognitive science, cognitive bias, learning rate op- timization, optimizers, human-like learning, Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), Loose Symmetry with Rarity (LSR).
Adversarial robustness of a nearest prototype classifier assures safe deployment in sensitive use fields. Much research has been conducted on artificial neural networks regarding their robustness against adversarial attacks, whereas nearest prototype classifiers have not chalked similar successes. This thesis presents the learning dynamics and numerical stability regarding the Crammer-normalization and the Hein-normalization for adversarial robustness of nearest prototype classifiers. Results of conducted experiments are penned down and analyzed to ascertain the bounds given by Saralajew et al. and Hein et al. for adversarial robustness of nearest prototype classifiers.
Im Reverse Engineering und in der Malware-Analyse wurden bereits verschiedene Ansätze zur Visualisierung von Binärdaten entwickelt. Mit diesen lässt sich schnell ein Überblick über Dateien gewinnen, sodass beispielsweise verschiedene Regionen einer Datei identifiziert oder eine bösartige Datei einer Malware-Familie zugeordnet werden kann. In der vorliegenden Masterarbeit wird versucht, diese Ansätze auch sektorweise auf einen Datenstream anzuwenden. Dafür wird ein Demonstrator erstellt, mit dem Sektoren automatisiert nach Dateitypen klassifiziert werden können. Ziel ist es, einen Ansatz zur Verbesserung der aktuellen, signaturbasierten IT-forensischen Methoden zur Wiederherstellung von fragmentierten oder gelöschten Daten zu finden.
Diese Arbeit beschäftigt sich mit verschiedenen Mehrspielermechaniken und deren Auswirkung auf bestimmte Aspekte des Spielerlebnis. Dafür soll ein zweidimensionales Plattformerspiel erstellt werden. Hierfür erfolgt zunächst die Definition der zu implementierenden Mehrspielermechaniken. Anschließend wird ein Konzept für die einzelnen Mechaniken erstellt wie sie konkret im Spiel eingebaut werden. Danach soll die Umsetzung der erstellten Konzepte erfolgen. Dieses Spiel wird dann mit der Hilfe von Probanden evaluiert. Die Ergebnisse der Evaluation werden danach analysiert, um Aussagen über die Veränderung zuvor ausgewählter Aspekte zwischen den Verschiedenen Mechaniken zu treffen. Umgesetzt wird der praktische Teil der Arbeit in Unity. Es wird in C# programmiert.
In Zeiten, in denen Unternehmen rechenintensive Anwendungen auf externe Server auslagern, gewinnt Cloudcomputing immer mehr an Bedeutung. Das Problem dabei ist, um Operationen auf herkömmlichen, verschlüsselten, ausgelagerten Daten ausführen zu können, müssen diese zuerst entschlüsselt werden. Vertrauliche Daten liegen in dem Zeitraum der Bearbeitung unverschlüsselt vor, was zu einem Datenschutz- und Sicherheitsproblem führt. Dieses Problem kann durch vollständig homomorphe Verschlüsselungen gelöst werden. Diese moderne Verschlüsselungstechnik erlaubt das Ausführen von Operationen auf verschlüsselten Daten und wird in dieser Arbeit grundlegend vorgestellt. Weiterhin werden Bibliotheken, die homomorphe Verschlüsselungen implementieren, vorgestellt und mittels Benchmarking miteinander verglichen. Anschließend wird ein Anwendungsbeispiel formuliert, das die Vor- und Nachteile homomorpher Verschlüsselungen simulieren soll. Die Implementierung des Anwendungsbeispiels erfolgt mithilfe der im Benchmarking ermittelten leistungsstärksten Bibliothek - der Microsoft SEAL Bibliothek. Mit den in dieser Arbeit erlangten Erkenntnissen soll der Einstieg in die komplexe Thematik der homomorphen Verschlüsselungen vereinfacht werden und gleichzeitig zur Auseinandersetzung mit dieser Verschlüsselungsmethodik angeregt werden.
Traditional user management on the Internet has historically required individuals to give up control over their identities. In contrast, decentralized solutions promise to empower users and foster decentralized interactions. Over the last few years, the development of decentralized accounts and tokens has significantly increased, aiming at broader user adoption and shared social economies.
This thesis delves into smart contract standards and social infrastructure for Ethereum-based blockchains to enable identity-based data exchange between abstracted blockchain accounts. In this regard, the standardization landscapes of account and social token developments were analyzed in-depth to form guidelines that allow users to retain complete control over their data and grant access selectively.
Based on the evaluations, a pioneering Solidity standard is presented, natively integrating consensual restrictive on-chain assets for abstracted blockchain accounts. Further, the architecture of a decentralized messaging service has been defined to outline how new token and account concepts can be intertwined with efficient and minimal data-sharing principles to ensure security and privacy, while merging traditional server environments with global ledgers.
Die vorliegende Bachelorarbeit befasst sich mit der digitalen Blutspurenmusteranalyse in dreidimensionalen Modellen, welche mit Hilfe der Software „Blender“ durchgeführt wird. Das Ziel ist es, 3D-Koordinaten aus den gegebenen 2D-Koordinaten der Modelltextur zu generieren, um anschließend auf diesen Koordinaten Trajektorien einzeichnen zu können. Diese sollen die Flugbahnen der jeweiligen Blutstropfen zurück zum Ursprungsort repräsentieren.
Der Inhalt dieser Arbeit befasst sich mit der Verbesserung und somit Optimierung einer Multiplex-Färbung für die Metastasen des malignen Melanoms, wobei das sogenannte CODEX-System verwendet wird. Wie bei vielen anderen Krebserkrankungen ist die Metastasierung ausschlaggebend für eine hohe Mortalität. Um besser gegen die Metastasen vorgehen zu können, ist ein Verständnis ihrer Mikroumgebung und somit auch die Wechselwirkungen zwischen Tumor und Normalgewebe notwendig. Mithilfe der Multiplex-Technologie kann diese Mikroumgebung durch die Markierung von bis zu 50 Markern gleichzeitig in einem Gewebeschnitt weitreichend dargestellt werden. Anhand von Markern für Phosphoproteine kann zudem die Aktivierung bestimmter Signalwege nachgewiesen werden, wie zum Beispiel die des MAPK-Signalwegs, welcher in malignen Melanomen aufgrund bestimmter Mutationen in diesem Signalweg oftmals hochreguliert ist.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, ob die Programme Magnet AXIOM und Kipo Analyzer sich für die Klassifikation von Kinderpornographie eignen. Dazu wird folgende Forschungsfrage gestellt: Erkennen die Programme Magnet AXIOM und Kipo Analyzer ausreichend kinderpornographisches Material von gesicherten Asservaten, um die Anforderungen zur Entlastung von Ermittlern zu erfüllen? Zur Beantwortung dieser Frage wurde ein selbst zusammengestellter Datensatz mit den Programmen getestet. Hierbei erzielte das Programm Magnet AXIOM einen Recall von 70,13 % und eine Spezifität von 60,42 %. Im Vergleich erzielte der Kipo Analyzer einen Recall von 42,56 % und eine Spezifität von 97,5 %. Die Präzision und der F1-Score fiel bei beiden Programmen schlecht aus durch den unausgeglichenen Datensatz. Abschließend kann keine endgültige Aussage über die Eignung der Programme hinsichtlich der Klassifikation von Kinderpornographie gemacht werden. Die Programme müssten mit unterschiedlichen Datensätzen und Zusammensetzungen getestet werden.
Der Einsatz digitaler Mittel in der Tatortrekonstruktion soll in der Zukunft eine große Stütze in der Verbrechensaufklärung werden. Die Rekonstruktion des Bewegungsablaufs eines Opfers, ist als Bewegungsanalyse ein großer Teil dieses Forschungsgebietes. Um eine möglichst natürliche und anatomische korrekte Simulation der Bewegungsabläufe zu ermöglichen, werden Ragdollmodelle benötigt. Diese Arbeit befasst sich mit der Optimierung des Erstellungsprozesses und des Aufbaus dieser bereits bestehenden Ragdollmodelle, in der aktuellen forensischen Tathergangsrekonstruktion.
Das Ziel der vorliegenden Arbeit ist es eine Übersicht über aktuell relevante und am Markt vertretene Zutrittskontrollsysteme zu erstellen. Dazu wird zuerst die grundlegende Theorie hinter den einzelnen Zutrittskontrollsystemen vorgestellt. Im Anschluss werden die vorgestellten Zutrittskontrollsysteme durch selbst ausgewählte Kriterien nach Sicherheit und Komfort bewertet. Dabei stellte sich der Handvenenscan in dem Bereich Sicherheit durch das sehr niedrige Verlust-, Weitergabe- und Nachahmungsrisiko und im Bereich Komfort durch die kontaktlose Verwendung, dem geringen Aufwand, der niedrigen Schmutzempfindlichkeit und dem niedrigen Schmutzempfinden als hervorragend heraus. Anschließend wird ein Flussdiagramm als Entscheidungshilfe vorgestellt. Dieses hat den Zweck das geeignete Zutrittskontrollsystem für die private Nutzung oder der Nutzung im Unternehmen zu finden. Dabei werden aktuell auf dem Markt befindliche Produkte vorgestellt.
Diese Bachelorarbeit untersucht die Auswirkungen von auditiven und visuellen Reizen auf das Spielerlebnis beim Lösen von interaktionsbasierten Rätseln.
In der Welt des Spieldesigns spielen sensorische Hinweise eine entscheidende Rolle um Spieler zu fesseln, sie in das Spiel eintauchen zu lassen und sie durch Herausforderungen zu führen.
Die Arbeit befasst sich mit der Frage, welche Art sensorischer Reize faszinieren und damit Immersion und Effektivität bei der Vermittlung von Rätselinformationen bewirken. Darüber hinaus wird untersucht, wie individuelle Vorlieben und Fähigkeiten sensorische Reizverarbeitung betreffend den allgemeinen Spielspaß beeinflussen können.
Der visuelle mikroskopische Spermanachweis gilt bis heute als aussagekräftigster Nachweis von Spermien in der forensischen Fallarbeit. Anhand der markanten Zellmorphologie kann ein Spermium von anderen Zellen und Partikeln unter dem Mikroskop abgegrenzt und unterschieden werden. Voraussetzung hierfür sind jedoch eine zuverlässige Aufarbeitungsmethode, um die Spermien eines Asservats auf einen Objektträger zu überführen und eine valide Färbemethode, welche die Spermien erst sichtbar macht.
Zielsetzung dieser Arbeit ist es, eine zeitsparende und effiziente Färbemethode zu finden, die in der praktischen Laborarbeit für den mikroskopischen Spermanachweis sicher angewandt werden kann. Verglichen werden hierfür im Folgenden die lichtmikroskopische Kernechtrot-Pikroindigokarmin- und die fluoreszenzmikroskopische SPERM HY-LITER-Färbung. Weiterführend werden reale Fallproben auf Spermien untersucht, um somit praxisnahe Gewissheit über die Effizienz der Methoden zu erlangen.
Die Recyclingfähigkeit von faserbasierten Lebensmittelverpackungen wird durch Restanhaftungen des Lebensmittels vor Probleme gestellt. Dadurch ausgelöste Verkeimungen bei der Altpapierlagerung beeinträchtigen den Recyclingprozess. Die entwickelten Mikroorganismen beeinflussen wiederum die Herstellungskette innerhalb einer Papierfabrik, da es zu hohen organischen Belastungen kommen kann. Die Bachelorarbeit untersucht den mikrobiologischen Einfluss von Lebensmitteln, auf die Altpapierlagerung derer faserbasierter Verpackungen.
Die Arbeit gibt eine Einführung in Schnorr-Multisignaturen im Kontext des Taproot-Updates, wie es im Bitcoin Improvement Proposal (BIP) Nr. 340 vorgeschlagen wird. Schnorr-Multisignaturen bieten einen effizienten und sicheren Weg für mehrere Parteien, gemeinsam eine einzige Signatur zu erstellen, die ihre gemeinsame Zustimmung repräsentiert. Das Taproot-Update zielt darauf ab, die Privatsphäre, Skalierbarkeit und Flexibilität des Bitcoin-Protokolls durch die Einführung von Schnorr-Multisignaturen als zentrales Element zu verbessern. Die Arbeit beginnt mit einem Überblick über die Grundlagen digitaler Signaturen und zeigt die Schwächen bestehender Signaturschemata in Bitcoin auf. Anschließend werden die theoretischen und mathematischen Grundlagen von Schnorr-Multisignaturen untersucht, einschließlich ihrer Konstruktion, Sicherheitseigenschaften und Vorteile gegenüber traditionellen Schemata. Die Bedeutung des Taproot-Updates für das Bitcoin-Netzwerk wird diskutiert und hervorgehoben, wie das Update die Effizienz von Transaktionen und den Schutz der
Privatsphäre verbessern kann. Die Einführung von Schnorr-Signaturen im Bitcoin Core war ein wichtiger Schritt. Signaturen sind häufig Angriffen ausgesetzt, weshalb weitere Anpassungen wie die Implementierung von MuSig2 sinnvoll sind. Nach der Effizienzsteigerung sollte der Fokus nun verstärkt auf die Sicherheit gelegt werden.
Diese Arbeit beschäftigt sich mit der Konzeption und Erstellung einer Kompetenzmatrix zur Verbesserung der Selbsteinschätzung von Studierenden im Bereich des Medieninformatik Studiums an der Hochschule Mittweida. Neben der Erstellung der Matrix wurde zusätzlich eine Evaluation an Studierenden und Absolventen durchgeführt. Eine Auswertung sowie eine Handlungsempfehlung und eine Weiterentwicklungsmöglichkeit der Matrix und aller erarbeiteten Bestandteile befindet sich ebenfalls in dieser Arbeit.
Die folgende Arbeit befasst sich mit dem forensischen Informationspotential von Smart Home Security Geräten, in diesem Fall dem Starter-Kit der Firma Ring. Hierfür wurde die Funktionsweise des Systems genauer untersucht und es wurden Manipulationsversuche und Datensicherungen durchgeführt. Diese Manipulationen bezogen sich hier genauer auf die zwei internetfähigen Geräte, die Basisstation und die Kamera. Die Datensicherungen fokussierten sich insbesondere auf den allgemein gesicherten Daten und Hinweisen zu den Manipulationen.
Ziel der Arbeit ist es, innerhalb einer forensischen Analyse die Ablagestruktur der Chatanwendung Viber unter dem Betriebssystem iOS zu analysieren. Darüber hinaus sollen Dateien analysiert werden, um relevante Informationen zu Chats zu extrahieren und auswertbar zu machen. Bei der Recherche zum aktuellen Forschungsstand wurden kaum Arbeiten gefunden, welche eine tiefgehende forensische Analyse von Viber auf iOS-Geräten zum Gegenstand haben. Für die Auswertung wurden Testdaten in Form von Einzel- und Gruppenchats auf iOS-Geräten erstellt und die Geräte anschließend IT-forensisch ausgelesen. Durch die Verwendung des Auslesegerätes UFED Touch2 konnte die Ablagestruktur mittels des UFED-Readers analysiert und dokumentiert werden. Die Analyse der Dateien brachte Informationen aus den zwei Hauptdatenbanken 'Settings.data' und 'Contacts.data' hervor. Hierbei wurden alle Tabellen analysiert und Informationen zu den relevanten Spalten dokumentiert. Abschließend wurden für einen Leitfaden zur Rekonstruktion von Chats SQL-Befehle erstellt, welche zum einen eine Zusammenfassung von Informationen zu Konversationen und zum anderen eine Wiederherstellung von Chatverläufen der einzelnen Konversationen möglich machen sollen.
Im Jahr 2019 verzeichnete das Bundeskriminalamt in der Polizeilichen Kriminalstatistik einen neuen Höchststand an erfassten Fällen der Computerkriminalität. Zeitgleich lag die Aufklärungsquote für diesen Bereich der Kriminalität auf dem zweitniedrigsten Stand seit Beginn der Erfassung im Jahr 1987. Die digitale Forensik steht vor der Herausforderung, dass eine Ermittlung eine stetig wachsende Menge an heterogenen Daten umfasst. Eine Quelle für diese Daten bildet das Microsoft Betriebssystem Windows 10.
Diese Bachelorarbeit beschäftigt sich mit Artefakten eines Windows 10 Systems und damit, wie diese miteinander korreliert werden können. Ziel ist es eine Möglichkeit zu finden, den Forensiker bei einer forensischen Untersuchung zu unterstützen. Für diesen Zweck wurde eine Ontologie entwickelt, welche anhand ähnlicher Artefaktattribute eine Korrelation ermöglicht. Die praktische Umsetzung der Ontologie erfolgte mithilfe der Graphdatenbank Neo4j. Die Möglichkeiten der Datenbank wurde anhand von, für den Forensiker interessanten, Abfragen demonstriert.
Anlegen und Charakterisieren von Anreicherungskulturen aus Oberflächengewässern im Norden Finnlands
(2020)
Es wurden Wasserproben aus Finnland biochemisch charakterisiert. So wurden EcoPlates von BIOLOG benutzt, um die Wasserproben von heterotrophen mikrobiellen Gemeinschaften zu charakterisieren und klassifizieren. Zudem wurden Anreicherungskulturen erstellt und auf ihre Verwertung von Stickstoffquellen durch Phänotyp Mikroarray und auf ihre Zellwandzusammensetzung mit Gram-Färbung untersucht. Die daraus resultierenden Ergebnisse werden für die Bestimmung und Charakterisierung von den Anreicherungskulturen verwendet.
Die vorliegende Arbeit untersucht, wie eine Ontologie mobile Kommunikation für forensische Auswertungen abbilden kann und welche Chancen sich aus dieser Art von Repräsentation ergeben. Prinzipiell stellen Ontologien einen Lösungsansatz für die wachsenden Herausforderungen im Bereich der digitalen Forensik dar. Vor allem die Heterogenität und stark zunehmende Menge der auszuwertenden Daten stellt die Strafverfolgungsbehörden vor Probleme. Forensische Tools unterstützen bei der Extraktion und Analyse von Daten. Allerdings weisen sie in bestimmten Aspekten ihre individuellen Grenzen auf. Ontologien ermöglichen dabei die Interoperabilität zwischen forensischen Tools und somit die Kombination der jeweiligen Vorteile von diesen Tools. Somit können insbesondere (Teil-)Automatisierungen im Ermittlungsprozess realisiert werden, was zur Ersparnis von Zeit und Ressourcen führt. Darüber hinaus lassen sich anhand von Ontologien logische Schlussfolgerungen herleiten und weitere Methoden aus dem Bereich der künstlichen Intelligenz anwenden. Diese Arbeit verwendet die CASE-Ontologie als Grundlage zur Entwicklung einer Ontologie, welche mobile Kommunikation im Kontext forensischer Untersuchungen repräsentiert. Darüber hinaus wird im experimentellen Teil der Arbeit das Datenmodell einer forensischen Plattform zur Auswertung mobiler Kommunikation auf die entworfene Ontologie abgebildet. Zusätzlich wird ein semantischer Webserver prototypisch aufgesetzt, um einen Anwendungstest der Ontologie durchführen zu können.
Im Rahmen von vielen Kriminalfällen werden Audio- und Videoaufnahmen asserviert und ausgewertet. Häufig sind in den Mediendateien unabsichtliche Aufzeichnungen des Stromnetzfrequenz- brummen enthalten. Diese können extrahiert und analysiert werden. Sofern entsprechende Aufzeichnungen über vergangene Stromnetzfrequenzverläufe vorliegen, können selbige zur Identifikation des Aufnahmeortes und Aufnhahmezeitpunktes herangezogen werden. Innerhalb dieser Bachelorarbeit wird ein Stromfrequenz-Messgerät für den Aufbau einer Stromfrequenzdatenbank konzipiert. Weiterhin werden Störeinflüsse evaluiert, die eine erfolgreiche Messung verhindern können.
Die vorliegende Arbeit beschäftigt sich mit der Erforschung des Datenvorkommens im Hinblick auf die Ermittlung flüchtiger Daten an ausgewählten Wireless Local Area Network (WLAN)-Routern. Diese werden im Hinblick auf strafrechtlich relevante Fragestellungen untersucht. Es werden die Möglichkeiten der methodisch und systematischen Datensicherung eruiert und wie diese gewonnen und ausgewertet werden können.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher der Webclients des Instant-Messenger-Dienstes Threema und des Social-Media-Dienstes Instagram aus forensischer Sicht betrachtet. Hierfür werden die Funktionsweisen der Anwendungen und die auf dem Gerät im RAM enthaltenen Artefakte forensisch analysiert und diskutiert. Anhand der aus dieser Arbeit gezogenen Erkenntnisse sollen zukünftige forensische Untersuchungen, die in Verbindung mit einer oder beiden dieser Anwendungen stehen, unterstützt werden, gefundene Artefakte zu identifizieren und interpretieren.
Die fortschreitende Digitalisierung stellt Ermittlungs- und Strafverfolgungsbehörden vor große Herausforderungen. Die steigenden Datenmengen sind insbesondere für die Aufklärung von Delikten wie der Kinderpornografie ein Problem, da große Datenbestände manuell gesichtet werden müssen. Um Herr der Lage zu bleiben, müssen neue Ermittlungsansätze eingeführt werden, die sich technisch unterstützender Werkzeuge wie KI bedienen. Zielen solche Hilfsmittel heute auf die Reduktion der händisch zu analysierenden Materialien ab. Bisher fehlt eine semantische Betrachtungsmöglichkeit der kinderpornografischen Inhalte, um Bild- und Videomaterialien einer Aufnahmeserie zuordnen zu können. Diese Forschungsarbeit befasst sich mit der Konzeption der semantischen Analyse kinderpornografischer Materialien.
Analysis of the Forensic Preparation of Biometric Facial Features for Digital User Authentication
(2023)
Biometrics has become a popular method of securing access to data as it eliminates the need for users to remember a password. Although exploiting the vulnerabilities of biometric systems increased with their usage, these could also be helpful during criminal casework.
This thesis aims to evaluate approaches to bypass electronic devices with forged faces to access data for law enforcement. Here, obtaining the necessary data in a timely manner is critical. However, unlocking the devices with a password can take several years with a brute force attack. Consequently, biometrics could be a quicker alternative for unlocking.
Various approaches were examined to bypass current face recognition technologies. The first approaches included printing the user's face on regular paper and aimed to unlock devices performing face recognition in the visible spectrum. Further approaches consisted of printing the user's infrared image and creating three-dimensional masks to bypass devices performing face recognition in the near-infrared. Additionally, the underlying software responsible for face recognition was reverse-engineered to get information about its operation mode.
The experiments demonstrate that forged faces can partly bypass face recognition and obtain secured data. Devices performing face recognition in the visible spectrum can be unlocked with a printed image of the user's face. Regarding devices with advanced near-infrared face recognition, only one could be bypassed with a three-dimensional face mask. In addition, its underlying software provided evidence about the demands of face recognition. Other devices under attack remained locked, and their software provided no clues.
The Tutte polynomial is an important tool in graph theory. This paper provides an introduction to the two-variable polynomial using the spanning subgraph and rank-generating polynomials. The equivalency of definitions is shown in detail, as well as evaluations and derivatives. The properties and examples of the polynomial, i.e. the universality, coefficient relations, closed forms and recurrence relations are mentioned. Moreover, the thesis contains the connection between the dichromate and other significant polynomials.
Analysis of Continuous Learning Strategies at the Example of Replay-Based Text Classification
(2023)
Continuous learning is a research field that has significantly boosted in recent years due to highly complex machine and deep learning models. Whereas static models need to be retrained entirely from scratch when new data get available, continuous models progressively adapt to new data saving computational resources. In this context, this work analyzes parameters impacting replay-based continuous learning approaches at the example of a data-incremental text classification task using an MLP and LSTM. Generally, it was found that replay improves the results compared to naive approaches but achieves not the performance of a static model. Mainly, the performances increased with more replayed examples, and the number of training iterations has a significant influence as it can partly control the stability-plasticity-trade-off. In contrast, the impact of balancing the buffer and the strategy to select examples to store in the replay buffer were found to have a minor impact on the results in the present case.
Die vorliegende Arbeit befasst sich mit dem Fakeshop Phänomen als Cybercrime Delikt. Nach einer kurzen Erläuterung des Bereiches Cybercrime und einer Darstellung der Phänomenologie eines Fakeshops wird dieser anhand einer beschriebenen Sachlage auf seine Strafbarkeit analysiert. Zur Analyse werden Rechtsnormen aus dem Strafgesetzbuch hinzugezogen, die in der Literatur dem Cybercrime im engeren Sinne zugeordnet sind. Anhand dessen soll erörtert werden, welche Tatbestandsmerkmale der Paragrafen durch den Sachverhalt festgestellt werden können und ob der objektive Tatbestand bei einem Fakeshop Phänomen erfüllt wird. Des Weiteren werden mögliche Folgen, die durch einen Fakeshop auftreten können präsentiert und im Anschluss dessen einige Möglichkeiten aufgezeigt, um sich präventiv gegen eine Fakeshop-Falle schützen zu können.
Die Arbeit beschäftigt sich mit dem Bakterium Cereibacter sphaeroides, seiner Fähigkeit zur Wasserstoffproduktion im Rahmen der Stickstofffixierung sowie den Möglichkeiten der genetischen Modifikation des Bakteriums. Ziel der Arbeit ist die Entwicklung eines Baseneditors, der mit Hilfe des CRISPR/Cas9-Systems eine Zielregion modifizieren kann. Zur Erzeugung eines solchen Baseneditors wurde zunächst eine sgRNA synthetisiert und deren Funktion in einem in vitro Verdau mit Cas9 überprüft. Als Substrat wurden PCR-Produkte einer Region des rpoN-Gens verwendet. Dieses kodiert für den Transkriptionsfaktor σ54, welcher bei der Expression des Nitrogenasesystems eine Rolle spielt. Ein SNP auf diesem Gen steht im Verdacht mit der höheren Wasserstoffproduktion in Gegenwart von verfügbarem Stickstoff eines Substammes von C. sphaeroides zu stehen. Es zeigte sich, dass die sgRNA für die angestrebte Target-Region (rpoN-Gen) genutzt werden kann.
Nach Etablierung des Cas9-Verdaus sollte ein Baseneditor mittels in vitro Proteinsynthese hergestellt und anschließend für eine Baseneditierung eingesetzt werden. Die Synthese des Baseneditors konnte bisher noch nicht erfolgreich abgeschlossen werden.
Ein weiteres Teilprojekt befasste sich mit der Identifizierung von Kontaminationen in einigen Dauerkulturen von C. sphaeroides. Hierzu wurde ein 16s-Metabarcoding mittels Nanoporensequenzierung durchgeführt. Es wurde jedoch fast ausschließlich C. sphaeroides in der Sequenzierung nachgewiesen.
Zukünftig sollen noch Optimierungen hinsichtlich der Synthese des Baseneditors vorgenommen werden. Anschließend soll der Baseneditor zur in vitro Basenmodifikation eingesetzt werden. Nach erfolgreicher in vitro Baseneditierung soll das System anschließend in ein in vivo System in C. sphaeroides implementiert werden. Langfristiges Ziel ist die Nutzung eines genetisch veränderten C. sphaeroides Stammes als Wasserstoffproduzent.
In dieser Bachelorarbeit wird das Thema der Cheiloskopie behandelt. Genauer gesagt wird die Geschlechtsbestimmung anhand der einzigartigen Lippenmuster intensiver thematisiert. Dafür kommen sowohl künstliche Intelligenzen als auch Elemente der Bildverarbeitung zum Einsatz. Die Arbeit zielt darauf ab den gesamten Prozess weitestgehend zu automatisieren und zu optimieren
The GeoFlow II experiment aims to replicate Earth’s core dynamics using a rotating spherical container with controlled temperature differences and simulated gravity. During the GeoFlow II campaign, a massive dataset of images was collected, necessitating an automated system for image processing and fluid flow visualization in the northern hemisphere of the spherical container. From here, we aim to detect the special structures appearing on the post processed images. Recognizing YOLOv5’s proficiency in object detection, we apply Yolov5 model for this task.
Seit 2018 befindet sich das Projekt „BuggyTech Engine“ an der Hochschule Mittweida in studentischer Entwicklung. Auf dieser Game Engine soll das von der Autorin konzipierte Spiel „Neon Nova“ laufen, wofür sie ein Game Design Document (GDD) erstellte. Das GDD stellt als grundlegendes Dokument, welches sämtliche relevanten Aspekte eines zu entwickelnden Spiels beschreibt, ein Herzstück in der Videospielentwicklung dar. Es dient als zentrales Werkzeug für das Entwicklerteam, um gemeinschaftlich auf ein klares Ziel hinzuarbeiten. In der klassischen Softwareentwicklung werden Anforderungen und Spezifikationen an eine zu entwickelnde Software detailliert in Form eines Lastenheftes verschriftlicht, welches für die Entwickler ähnliche Funktionen hat, wie das GDD. Diese Konzepte werden, neben der Erarbeitung zusätzlicher Wissensgrundlagen, zunächst dargestellt und auf Inhalte, sowie Vor- und Nachteile untersucht. Im Hauptteil dieser Arbeit wird die Eignung eines GDD als Grundlage für die Anforderungsanalyse einer Game Engine am Beispiel von Neon Nova und der BuggyTech Engine untersucht. Der Prozess der Erstellung des Lastenheftes wird dargelegt und die Ergebnisse vorgestellt. Zudem wurden Datenmodelle und UI Layouts für die spezifische Anwendung in de BuggyTech Engine konzipiert. Abschließend wird ein Fazit über den Prozess und die Geeignetheit der aufeinander aufbauenden Arbeitsweise der beiden Dokumente gezogen, welche normalerweise nicht miteinander in Kontakt kommen. Das Ergebnis der Arbeit ist ein vollständiges, für die Weiterentwicklung der BuggyTech Engine nutzbares Lastenheft.
Die Anforderungen an die Qualität und den Realismus von Videospielen und deren visuellen Effekten steigen kontinuierlich. Dies führt zu der Herausforderung, beeindruckende Effekte und eine gute Performance zu gewährleisten. Die Auswahl einer geeigneten Technik für ein Leistungsproblem ist daher wichtig. Aus diesem Grund widmet sich die Bachelorarbeit dem Vergleich verschiedener Methoden zur Optimierung der Darstellung visueller Effekte in Unity. Neben einer Literaturrecherche werden ausgewählte Verbesserungsmöglichkeiten wie zum Beispiel ein Level-of-Detail System oder Batching implementiert. Als nächstes findet eine Evaluation dieser Techniken in einem Testszenario mit ausgewählten Metriken wie beispielsweise Bildrate und Grafikkartenauslastung statt. Anschließend erfolgt der Vergleich ihrer Effektivität in Bezug auf die originale Version des visuellen Effektes. Die Ergebnisse der Untersuchung zeigen, dass insbesondere das Level-of-Detail System und die Culling-Methode einen signifikanten Einfluss auf die Grafikkartenauslastung haben. Zudem weisen die meisten Optimierungstechniken in Bezug auf die Metriken Vor- und Nachteile auf. Obwohl die erzielten Ergebnisse nicht unmittelbar auf die praktische Anwendung in Spielen übertragbar sind, ermöglichen sie dennoch eine wertvolle Vergleichbarkeit der angewendeten Methoden.
Das Ziel der vorliegenden Bachelorarbeit ist es, digitale Spuren im Speicher eines elektrischen Tretrollers zu untersuchen. Der Roller stammt aus einem ehemaligen Verleihsystem und es existiert von Beginn dieser Arbeit an keine Kenntnis darüber, ob digitale Informationen auf dem Speicher zugänglich und überhaupt vorhanden sind. Es wird resultierend aus der vergangenen Nutzung des Rollers innerhalb des „Sharing-Angebotes“ davon aus gegangen, dass entsprechende Daten erzeugt worden sind. Dazu können Informationen zählen, die z.B. Aufschluss über die zurückgelegte Strecke geben. Es gilt herauszufinden, ob sich diese und auch andere Daten auf dem Speicher der „IoT-Elektronik“ des Rollers befinden. In Abhängigkeit des Resultates liegt der Fokus auf entsprechender Rekonstruktion dieser Daten. Soweit es machbar erscheint, obliegt ein weiterer Analyseaspekt der Firmware des E-Scooters, um das Zusammenspiel der lokalen Hardware-Komponenten und des entfernten „Backends“ nachvollziehen zu können. Der Roller wird für diese Bachelorarbeit physisch zerlegt und es kommen unterschiedliche, software-basierte Werkzeuge für die Analyse zum Einsatz.
Diese Arbeit behandelt das Thema der Sichtbarmachung von Fingerabdrücken, sowie deren photogrammetrische Aufnahme. Dabei wird die Frage geklärt, ob der Qualitätsverlust eines photogrammetrischen Scans das Erkennen des Grundmusters, einzelner Minuten und eventuell auch kleineren Strukturen beeinträchtigt. Es werden die angewandten Methoden zur Sichtbarmachung, Sicherung und Photogrammmetrie präsentiert, sowie die daraus resultierenden Ergebnisse.
RNA tertiary contact interactions between RNA tetraloops and their receptors stabilize the folding of ribosomal RNA and support the maturation of the ribosome. Here we use FRET assisted structure prediction to develop structural models of two ribosomal tertiary contacts, one consisting of a kissing loop and a GAAA tetraloop and one consisting of the tetraloop receptor (TLR) and a GAAA tetraloop. We build bound and unbound states of the ribosomal contacts de novo, label the RNA in silico and compute FRET histograms based on MD simulations and accessible contact volume (ACV) calculations. The predicted mean FRET efficiency from molecular dynamics (MD) simulations and ACV determination show agreement for the KL-TLGAAA construct. The KL construct revealed too high FRET efficiency and artificial dye behavior, which requires further investigation of the model. In the case of the TLR, the importance of the correct dye and construct parameters in the modeling was shown, which also leads to a renewed modeling. This hybrid approach of experiment and simulation will promote the elucidation of dynamic RNA tertiary contacts and accelerate the discovery of novel RNA interactions as potential future drug targets.
Die Arbeit behandelt das Zephyr Echtzeitbetriebssystem. Im Rahmen der Arbeit wird besprochen wie ein System-on-a-Module (SoM) in Zephyr umgesetzt werden kann, und welche Optionen das Konfigurationssystem bietet um die Zephyrapplikation an Hardware- und Systemänderungen anzupassen ohne den Quellcode für den jeweiligen Build verändern zu müssen. Dafür wurde eine Beispielapplikation auf Basis des i.MX RT1170 Prozessors von NXP erstellt. Dieser Chip soll beim Projektpartner in Zukunft die Grundlage für ein System-on-a-Module bilden, welches in die Grundplatinen der verschiedenen Geräte eingesetzt wird. Zum Schluss der Arbeit wird außerdem besprochen wie ein Bootloader verwendet werden kann um Updates in ein laufendes System einzuspielen.
Die A12 Businessanwendung der Firma mgm technology partners GmbH ist modellgetrieben. Damit die Architektur grafisch dargestellt werden kann, wird ein Layout-System benötigt, an das unterschiedliche Anforderungen gestellt werden. Sie umfassen unter anderem die Minimierungen der Knotenüberschneidungen, der Kantenüberschneidungen und der Biegungen der Kanten.
In der vorliegenden Arbeit werden bereits existierende Layout-Algorithmen betrachtet. Dabei wird besonders darauf geachtet, wie sich diese an die gestellten Anforderungen anpassen lassen. Es stellt sich heraus, dass die Layouts dazu jeweils unterschiedlich gut geeignet sind. Um eine Messbarkeit der Ästhetik zu ermöglichen, werden Metriken definiert.
Es werden zwei Layouts gewählt, welche zur Umsetzung aller Anforderungen besonders geeignet sind. Dabei handelt es sich um das Radial Baum Layout und das kraftgesteuerte Layout, das bereits ein gutes Layout darstellt. Es kann gezeigt werden, dass mithilfe von Anpassungen eine deutliche Verbesserung der Ästhetik von Layouts erreicht wird.
Als Ergebnis der Arbeit entsteht eine Implementierung des kraftgesteuerten Layouts, welche Knotenüberschneidungen fast vollständig eliminiert, ohne dabei andere Aspekte der Graphendarstellung zu stören.
Diese Arbeit untersucht, die Herausforderungen bei der teilautomatischen Erstellung von Testdaten für die digitale Forensik. Insbesondere handelt es sich um Bildmetadaten im EXIF-Format, aus der Fotogalerie eines Smartphones, die mit GPS-Daten und zugehörigen Zeitstempeln für eine feste Route angereichert werden. Dazu wird auf Metadaten, Geokoordinaten und Zeitstempel eingegangen sowie der aktuelle Stand zu EXIF aufgezeigt. Mit diesem Wissen entsteht ein Programm, das die Testdaten erzeugt.
Das Videospiel immer häufiger auch als erzählerisches Medium genutzt. Von den Entwicklern fordert dies eine Gradwanderung zwischen Game Design und Erzählung. Es mussten mit der Zeit neue Wege gefunden werden, Narrativen in das Spiel einzubinden. Diese Arbeit thematisiert die Untersuchung der Wahrnehmung und Interpretation von Environmental Storytelling in 2D-und 3D-Umgebungen. Es wird untersucht, ob es, abhängig von der Dimensionalität, Unterschiede in der Effektivität verschiedener Erzählerischer Mittel gibt. Um diese Frage zu beantworten, werden zwei sich inhaltlich gleichende Demos erstellt, die sich nur durch ihre Darstellung unterscheiden. Die, durch eine Befragung der zwei Testgruppen, erhobenen Daten werden anschließend evaluiert. Es ergab sich, dass dreidimensionale Umgebungen eher zum Erkunden einladen, es werden jedoch im Gegensatz zu 2D-Welten leichter wichtige Objekte übersehen. Für weitere Forschungen, sollten einzelne Aspekte des Environmental Storytelling genauer untersucht und bewusst auf die entsprechende Dimensionalität angewandt werden.
Im Rahmen der vorliegenden Masterarbeit wurden zwei CAN-Bus-Steuergeräte konzeptioniert und entwickelt, welche auf einem forensischen Demonstrator verbaut wurden. Die Funktionen der Steuergeräte sind zum einen die Steuerung einer Beleuchtungseinheit, zum anderen die Abstandsmessung sowie die Akkustandsüberwachung. Als Steuergeräte fungieren Arduino Nanos, welche über SPI mit CAN-Modulen kommunizieren können. Mit Hilfe der Analysesoftware BUSMASTER können CAN-Botschaften auf den CAN-Bus des Demonstrators gesendet werden. Der Demonstrator dient dabei als Grundlage für spätere forensische Untersuchungen des Controller Area Networks.