Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Neue Versionen einer Programmiersprache eröffnen neue Möglichkeiten, komplexe Zusammenhänge auszudrücken. So ermöglichte auch C++20 in dem dieser Arbeit vorausgegangenen Forschungsmodul eine Alternative zu Vererbung mit virtuellen Funktionen, welche sich in Microbenchmarks als performanter erwies. Eine Messung in einem vollwertigen Software-Projekt erfordert jedoch zunächst eine Modernisierung dessen. So ist u.a. die 3D-Engine OGRE lediglich auf dem Stand von C++11. Es stellt sich die Frage, ob der Arbeitsaufwand und die Risiken, die mit einer Modernisierung und anschließender Umsetzung der Alternative verbunden sind, letztlich zu rechtfertigen wären. Zumindest für den ersten Schritt kann dies auch unabhängig vom zweiten bestimmt werden. Detaillierte Beschreibungen und Microbenchmarks zu neuen Features können zwar oft gefunden werden, jedoch sind die exakten Hindernisse im konkreten Fall schwer einzuschätzen und die tatsächlichen Vorteile für ein vollwertiges Software-Projekt sind aus bloßen Microbenchmarks nicht direkt abzuleiten. Die vorliegende Arbeit beschreibt die mit der Umsetzung neuer Features verbundenen Hindernisse in der 3D-Engine OGRE. Anhand inkrementeller Messungen wird schließlich entschieden, welche Modernisierungen an und für sich lohnenswert sind und von welchen abzuraten ist.
Diese Arbeit thematisiert verschiedene Repräsentationen von Schwachstellen in Bosskämpfen und untersucht die Wirkung dieser auf die Spieler und die Spielerfahrung. Dabei wird ein Spiel geplant und erstellt, welches in mehreren Bosskampfszenarien unterschiedliche Indikatoren verwendet. Deren Wirkung wurde mithilfe von Testpersonen untersucht und analysiert. Dabei wurde festgestellt, dass Spieler mehr nach ihren gelernten Verhaltensmustern agieren, als auf die Schwachstellen zu achten. Sollte dieses Verhalten aufgebrochen werden, sind logische und angeheftete Schwachstellen sehr gut wahrnehmbar, was durch eine farbliche Abgrenzung vom Boss unterstützt werden kann.
Ransomware ist eine Schadsoftware, die als Erpressersoftware Daten verschlüsselt und eine Lösegeldforderung stellt. Um Ransomware-Sample vor der Detektion zu schützen, werden sogenannte Packer eingesetzt. Dabei wird die schädliche Routine einer Ransomware gepackt und bei Ausführung automatisch entpackt. Während Ransomware in den letzten Jahren stark weiterentwickelt wurde, sind einige der Methoden zum Entpacken teilweise bedeutend älter. Diese Arbeit untersucht, inwiefern, mithilfe vom Einsatz von Debuggern, aktuelle Ransomware-Samples mit solchen Methoden entpackt werden können. Dafür wird zuerst recherchiert, welche gängigen Methoden zum Entpacken gepackter Schadsoftware unter Verwendung eines Debuggers bestehen. Diese Methoden werden auf eine Auswahl von aktuellen Ransomware-Samples angewendet und die Ergebnisse analysiert. Dadurch entsteht am Ende der Arbeit eine Übersicht darüber bestehen, mit welchen Methoden aktuelle Ransomware-Samples noch entpackt werden und somit Analysen von Ransomware unterstützen können.
Durch Eindringen in die Wirtszelle kann sich das SARS-CoV-2-Virus verbreiten. Das adaptive Immunsystem bildet verzögert die humorale Immunantwort durch hochspezifische Antikörper aus. Die Antikörper neutralisieren das SARS-CoV-2. Im Laufe der Immunabwehr steigen die Antikörpertiter der verschiedenen Antikörperklassen unterschiedlich an. Mittels Serumproben sollte herausgefunden werden, wie der IgG-Titer nach einem positiven PCR-Ergebnis von der Zeit abhängig verläuft und ob es Unterschiede zwischen verschiedenen Geschlechtern und Altersklassen gibt. Für die Ermittlung der IgG-Titer wurden einmal der ELISA mittels Generic Assays CoV-2 IgG und einmal der CLIA mittels LIAISON® SARS-CoV-2 TrimericS IgG angewandt. Zudem fand eine Vergleichsmessung der Tests statt.
Im Allgemeinen stieg der Titer innerhalb der ersten 50 Tage an, da sich in dieser Zeit die IgG-Antikörper ab Tag 14 bilden, und erreichte das Maximum im Bereich 40-50 Tage. Danach fiel der Titer leicht bis auf 60 -70 % des Maximums, da die Antikörper nach und nach absterben.
Die Vergleichsmessung ergab einen linearen Zusammenhang von 64 % zwischen Generic Assays und LIAISON®. Bezogen auf die qualitative Aussage der Tests gab es eine 96 % Übereinstimmung der Ergebnisse.
Die vorliegende Arbeit untersucht die Erstellung prozeduraler Materialien in Hinblick auf die Verwitterung von Naturstein an einer Skulptur. Dazu werden die betrachteten Gesteinsarten zunächst hinsichtlich ihres Verwitterungsverhaltens untersucht. Beim Dokumentieren der Nachbildung der Materialien zeigt die Arbeit Vor- und Nachteile, sowie Grenzen der prozeduralen Methode auf. Betrachtet wird dabei auch die Realisierbarkeit der Parametrisierung. Weiterhin gibt die Arbeit einen Ausblick darauf, welche Vorgehensweise für welchen Anwendungsfall geeignet ist.
Diese Arbeit beschäftigt sich damit, verschiedene Methoden des maschinellen Lernens zu testen und mit der Frage, ob es damit möglich ist, auffällige Anmeldungen zu erkennen. Es ist von Interesse, spezielle abnormale Anmeldemuster zu erkennen, welche im Kontext eines Angriffes genutzt werden. Diese können anschließend verwendet werden, um Angreifer bzw. kompromittierte Nutzer aus einem Netzwerk zu identifizieren. Die Schwierigkeit, dementsprechende auffällige Anmeldungen zu erkennen, steigt dabei mit zunehmender Anzahl an Angriffen. Des Weiteren beeinflusst die Vielfalt in den Verhaltensweisen die Erkennung. Demzufolge werden verschiedene Methoden getestet, mehrere Szenarien simuliert und anschließend werden anhand eines echten Testfalls die Methoden bzw. das Verfahren validiert. Als Endergebnis der Arbeit entstehen eine Software und ein Verfahren zur Erkennung von auffälligen Anmeldungen.
In response to prevailing environmental conditions, Arabidopsis thaliana plants must increase their photosynthetic capacity to acclimate to potential harmful environmental high light stress. In order to measure these changes in acclimation capacity, different high throughput imaging-based methods can be used. In this master thesis we studied different Arabidopsis thaliana knockout mutants-and accessions in their capacity to acclimate to potential harmful environmental high light and cold temperature conditions using a high throughput phenotyping system with an integrated chlorophyll fluorescence measurement system. In order to determine the acclimation capacity, Arabidopsis thaliana knockout mutants of previously not high light assigned genes as well as accessions of two different haplotype groups with a reference and alternative allele from different countries of origin were grown under switching high light and temperature environmental conditions. Photosynthetic analysis showed that knockout mutant plants did differ in their Photosystem II operating efficiency during an increased light irradiance switch but did not significantly differ a week later under the same circumstances from the wildtype. High throughput phenotyping of haplotype accessions revealed significant better acclimation capacity in non-photochemical quenching and steady-state photosynthetic efficiency in Russian domiciled accessions with an altered SPPA gene during high light and cold stress.
Die Blutaltersbestimmung kann Aufschluss über die Tatzeit eines Verbrechens geben und ist damit von hohem forensischem Wert. Bisher gibt es noch keine etablierte Methode, um das Alter von ausgetretenem Blut zu bestimmen, da sie meistens sehr kostenaufwendig oder unzuverlässig sind. Das Einbeziehen der Umweltfaktoren stellt dabei eine weitere große Herausforderung dar. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Blut im Zeitraum von 21 Tagen unter dem Einfluss der Luftfeuchtigkeit untersucht. Hierbei werden besonders die alterskorrelierenden Features analysiert. Zu den alterskorrelierenden Features zählen die Oxyhämoglobin- und Methämoglobin-Peaks und die hypsochrome Verschiebung der Soret-Bande. Die Luftfeuchtigkeit wurde mit Hilfe eines Raspberry Pi’s gesteuert. Bei der Auswertung der Ergebnisse konnte festgestellt werden, dass das Oxyhämoglobin bei höherer Luftfeuchtigkeit zunächst langsamer oxidiert und dass die Verschiebung der Soret-Bande langsamer verläuft. Nach 21 Tagen ist jedoch kein Unterschied mehr zu erkennen.
Arthrose ist eine der häufigsten Gelenkkrankheiten, die im Alter auftritt. Es kommt dabei u.a. zu einer degenerativen Veränderung des Gelenkknorpels. Momentan existieren nur symptomatische Behandlungen. Ein neu erforschter regenerativer Therapieansatz ist die Injektion von „Nanofat“ in das arthrotische Gelenk. In dieser Arbeit wird Nanofat durch zwei verschiedene Aufreinigungesmethoden gewonnen: Variante eins mit der Tulipfilter und Variante zwei mit der Lipocube-Aufreinigung. Diese Arbeit vergleicht die Eigenschaften der adipösen Stammzellen miteinander, welche aus Variante eins und zwei gewonnen werden. Die adipösen Stammzellen werden dabei in Vitalität, Seneszenz, Apoptose, Proliferation, Migration, Genexpression und Lebende-Tote Zellen untersucht. Dabei hat sich gezeigt, dass es zwischen den beiden Aufreiningungsmethoden keine messbaren Unterschiede zwischen den adipösen Stammzellen gibt. Somit kann gesagt werden, dass die unterschiedlichen Aufarbeitungsmethoden die adipösen Stammzellen in der Weiterkultivierung nicht beeinflussen.
Soziale Netzwerke spielen eine große Rolle für die digitale Kommunikation. Menschen tauschen sich aus und teilen Informationen. Die große Anzahl an Nachrichten, die täglich veröffentlicht werden, stellt Entwickler vor ein großes Problem: den Mangel an Kontrolle. Obwohl es Regeln gibt, halten sich viele Nutzer nicht daran. Diese Problematik erfordert ein verbessertes System, welches toxische Inhalte erkennt und klassifiziert. Ziel der Arbeit war es, verschiedene Methoden für maschinelles Lernen zu kombinieren. Weiterhin wurden die Fragen beantwortet, was Toxizität in Verbindung mit sozialen Medien bedeutet und ob
Toxizität in einem linearen Zusammenhang mit Hasssprache steht. Das bestmögliche Ergebnis der Klassifizierung ist ein micro F1-Wert von 0.76192.
Immer häufiger greifen technikbegeisterte Personen zu Smart-Home Geräten für ihre eigenen vier Wänden. Durch diese Geräte, kann der Weg zur Tür abgenommen oder die Bestellung über eine Onlineplattform erleichtert werden. Der Nutzen dieser meist kleinen aber durchdachten komplexen Maschinen ist enorm. Um der Schnelllebigkeit entgegen zu wirken, werden immer kreativere Wege gesucht. IoT-Geräte ermöglichen das Ersetzen der lokalen Einstellung am Gerät selbst. Bspw. kann so die Heizungssteuerung auf dem Heimweg vorgenommen werden. Dadurch spielt eine klare Sicherheitsdefinition für den Umgang mit persönlichen Daten eine größer werdende Rolle. Hierbei stellt sich die Frage, wie anfällig solche Anlagen sind. Das Kernstück dieser Arbeit wird sich mit der Feststellung von möglichen Schwachstellen in Innogy Smart-Home-Geräten beschäftigen. Insbesondere werden Endgeräte untersucht, welche bereits Einzug in den Alltag gefunden haben. Ansätze der Informationssicherheit und der digitalen Forensik werden in realitätsnahen Szenarien aufgezeigt und analysiert. Es werden Richtlinien des Bundesamtes für Sicherheit in der Informationstechnik und gesetzliche Vorgaben berücksichtigt. Teile des Sicherheitskonzeptes werden transparent dargestellt.
Das Berechtigungssystem ist ein grundlegender Sicherheitsmechanismus der Android-Plattform. Diese Arbeit widmet sich diesem im Kontext der speziellen Bedrohung durch Android-Trojaner, welche durch die Modifikation legitimer Applikationen erstellt werden. Unter den Fragestellungen, inwiefern Android-Trojaner Systemberechtigungen benötigen und wie sie diese als trojanisierte Applikationen auf Applikationsebene erhalten können, werden die beiden Aspekte zusammengeführt und untersucht. Dazu erfolgt eine Analyse der Funktionsweise des Berechtigungssystems in aktuellen AndroidVersionen, welche sich auf die Dokumentation, den Android-Quelltext und praktische Versuche stützt.
Neben bestehender Literatur, die zur Beantwortung der Fragestellungen herangezogen wird, ist die Analyse der Verwendung von Berechtigungen in den Open-Source Trojanern AndroRAT und dem Metasploit-Android-Payload Teil der Arbeit. Die beiden Schadprogramme werden außerdem für die Trojanisierung existierender Applikationen verwendet. Dabei werden Möglichkeiten aufgezeigt, wie bei der Modifikation einer legitimen Applikation Berechtigungsanfragen hinzugefügt werden können. Zudem wird gezeigt, wie die Manipulation einer Kompatibilitätsangabe im Rahmen der Trojanisierung zu dem Erhalt der Berechtigungen führt.
In dieser Arbeit geht es um die Untersuchung eines auf wenige Kernmechaniken reduziertes Rollenspiel auf die Motivation des Spielers. Hierfür wurde anhand einer angefertigten Applikation eine quantitative Nutzerstudie mit sechs Probanden durchgeführt. Die Ergebnisse sind dabei gemischt ausgefallen und es konnte kein eindeutiger Beweis auf die Beeinflussung der Motivation durch das Testszenario festgestellt werden.
Die folgende Arbeit behandelt die Methoden digitaler Bildmanipulationen sowie die Erkennung solcher Manipulationen anhand etablierter Detektionsverfahren. Das Hauptaugenmerk liegt dabei auf der Planung und Implementierung einer Software zur automatisierten Detektion duplizierter Regionen innerhalb eines digitalen Bildes. Anschließend an diese Implementierung folgt eine detaillierte Auswertung der Detektionsergebnisse sowie eine Bewertung der Qualität der Software gegenüber bestehenden Verfahren.
Im Rahmen dieser Arbeit wurden zwei verschiedene Rührkesselreaktoren betrieben. Der Erste diente dazu, den Biogasbildungsprozess aus stickstoffreichen Substraten abzubilden. Im Laufe des Versuches wurde dem Reaktor durch die Nitrifikation/Denitrifikation-Verfahren stickstoffreduzierter Klarlauf hinzugefügt. Dabei wurde ein Anstieg der Methanausbeute und der Biogasbildung beobachtet. Der zweite Reaktor wurde als SBR (Sequencing Batch Reactor) betrieben, um das Anammox-Verfahren als alternative stickstoffreduzierende Methode bei Gärresten zu untersuchen. Dabei wurde am Ende des Versuchs ein Abbau des Ammoniumstickstoffes von ca. 20 % erreicht.
Sequences are an important data structure in molecular biology, but unfortunately it is difficult for most machine learning algorithms to handle them, as they rely on vectorial data. Recent approaches include methods that rely on proximity data, such as median and relational Learning Vector Quantization. However, many of them are limited in the size of the data they are able to handle. A standard method to generate vectorial features for sequence data does not exist yet. Consequently, a way to make sequence data accessible to preferably interpretable machine learning algorithms needs to be found. This thesis will therefore investigate a new approach called the Sensor Response Principle, which is being adapted to protein sequences. Accordingly, sequence similarity is measured via pairwise sequence alignments with different sequence alignment algorithms and various substitution matrices. The measurements are then used as input for learning with the Generalized Learning Vector Quantization algorithm. A special focus lies on sequence length variability as it is suspected to affect the sequence alignment score and therefore the discriminative quality of the generated feature vectors. Specific datasets were generated from the Pfam protein family database to address this question. Further, the impact of the number of references and choice of substitution matrices is examined.
In this thesis, we focus on using machine learning to automate manual or rule-based processes for the deduplication task of the data integration process in an enterprise customer experience program. We study the underlying theoretical foundations of the most widely used machine learning algorithms, including logistic regression, random forests, extreme gradient boosting trees, support vector machines, and generalized matrix learning vector quantization. We then apply those algorithms to a real, private data set and use standard evaluation metrics for classification, such as confusion matrix, precision, and recall, area under the precision-recall curve, and area under the Receiver Operating Characteristic curve to compare their performances and results.
Differentiation is ubiquitous in the field of mathematics and especially in the field of Machine learning for calculations in gradient-based models. Calculating gradients might be complex and require handling multiple variables. Supervised Learning Vector Quantization models, which are used for classification tasks, also use the Stochastic Gradient Descent method for optimizing their cost functions. There are various methods to calculate these gradients or derivatives, namely Manual Differentiation, Numeric Differentiation, Symbolic Differentiation, and Automatic Differentiation. In this thesis, we evaluate each of the methods mentioned earlier for calculating derivatives and also compare the use of these methods for the variants of Generalized Learning Vector Quantization algorithms.
Financial fraud for banks can be a reason for huge monetary losses. Studies have shown that, if not mitigated, financial fraud can lead to bankruptcy for big financial institutions and even insolvency for individuals. Credit card fraud is a type of financial fraud that is ever growing. In the future, these numbers are expected to increase exponentially and that’s why a lot of researchers are focusing on machine learning techniques for detecting frauds. This task, however, is not a simple task. There are mainly two reasons
• varying behaviour in committing fraud
• high level of imbalance in the dataset (the majority of normal or genuine cases largely outnumbers the number of fraudulent cases)
A predictive model usually tends to be biased towards the majority of samples, in an unbalanced dataset, when this dataset is provided as an input to a predictive model.
In this Thesis this problem is tackled by implementing a data-level approach where different resampling methods such as undersampling, oversampling, and hybrid strategies along with bagging and boosting algorithmic approaches have been applied to a highly skewed dataset with 492 idetified frauds out of 284,807 transactions.
Predictive modelling algorithms like Logistic Regression, Random Forest, and XGBoost have been implemented along with different resampling techniques to predict fraudulent transactions.
The performance of the predictive models was evaluated based on Receiver Operating CharacteristicArea under the curve (AUC-ROC), Precision Recall Area under the Curve (AUC-PR), Precision, Recall, F1 score metrics.
Embeddings for Product Data
(2022)
The E-commerce industry has grown exponentially in the last decade, with giants like Amazon, eBay, Aliexpress, and Walmart selling billions of products. Machine learning techniques can be used within the e-commerce domain to improve the overall customer journey on a platform and increase sales. Product data, in specific, can be used for various applications, such as product similarity, clustering, recommendation, and price estimation. For data from these products to be used for such applications, we have to perform feature engineering. The idea is to transform these products into feature vectors before training a machine learning model on them. In this thesis, we propose an approach to create representations for heterogeneous product data from Unite’s platform in the form of structured tabular records. These tables consist of attributes having different information ranging from product-ids to long descriptions. Our model combines popular deep learning approaches used in natural language processing to create numerical representations, which contain mostly non-zeros elements in an array or matrix called as dense representation for all products. To evaluate the quality of these feature vectors, we validate how well the similarities between products are captured by these dense representations. The evaluations are further divided into two categories. The first category directly compares the similarities between individual products. On the other hand, the second category uses these dense vectors in any of the above- mentioned applications as inputs. It then evaluates the quality of these dense representation vectors based on the accuracy or performance of the defined application. As result, we explain the impact of different steps within our model on the quality of these learned representations.
An einem Tatort lassen sich verschiedene Arten von Spuren finden. Die Blutspuren zählen dabei zu den wichtigsten. Sie lassen sich auf unterschiedliche Art und Weise analysieren. Eine Möglichkeit ist die Untersuchung des Blutalters, um beispielsweise Hinweise über den Zeitraum einer Tat zu erlangen. Schon seit dem 20. Jahrhundert suchen Wissenschaftler nach einer geeigneten Methode zum Ermitteln des Alters einer Blutspur. Bisher ist das aber noch keinem gelungen. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Schweineblut über einen Zeitraum von sechs Wochen bei gleichbleibenden Umwelteinflüssen untersucht. Im Vordergrund steht hierbei die alterskorrelierende Veränderung der Blutzusammensetzung. Das Hauptaugenmerk liegt vor allem auf den Peaks der Hämoglobinderivate und des Globins. Bei der Auswertung der Ergebnisse wurde festgestellt, dass all diese charakteristischen Hochpunkte auch nach sechs Wochen noch weiter ansteigen und sich somit die Zusammensetzung des Blutes weiterhin verändert.
Der technologische Fortschritt ermöglicht das Speichern von größeren Datenmengen. Dies hat zur Folge, dass Daten mehr Platz auf einem Datenträger einnehmen und die Wahrscheinlichkeit des Aufteilens einer Datei auf mehrere auf dem Datenträger verteilte Positionen steigt. Von dieser sogenannten Fragmentierung sind auch JPEG-Dateien betroffen, wobei sich die Frage stellt, wie ein Zusammensetzen der Fragmente ohne die notwendigen Informationen aus dem Dateisystem möglich ist.
Ziel dieser Masterarbeit ist es, eine prototypische Implementierung eines intelligenten Carving Algorithmus zur Rekonstruktion fragmentierter JPEG-Dateien zu entwickeln, welcher durch erzeugte Testszenarien evaluiert wird.
Um dieses Ziel zu erreichen, wird ein Programm erstellt, welches sich an dem Smart Carving-Prinzip orientiert und diverse Carving-Methoden einbezieht. Für die anschließende Beurteilung der Lauffähigkeit des Prototyps werden Szenarien zum Testen von Stärken und Schwächen entwickelt. Die Ergebnisse aus diesen werden durch eine Evaluationsstrategie bewertet.
Anhand der Ergebnisse wird deutlich, dass der entwickelte Prototyp noch viele Schwächen aufweist. Bei manchen Szenarien können vollständig korrekte Ergebnisse geliefert werden und die JPEG-Dateien rekonstruiert werden, bei anderen Szenarien sind die Ergebnisse unzureichend. Diese Ergebnisse und der Fakt, dass der Prototyp lediglich für kleine Datenmengen konzipiert und erprobt wurde, zeigen, dass ein Einsatz des Programms in einer realen Umgebung noch nicht möglich ist.
Im Kontext der Wissensvermittlung existieren vielseitige E-Learning Tools, die oft ein dediziertes Lehr-Lern-Szenario betrachten. Die zugrundeliegende Software konzentriert sich somit häufig auf einen spezifischen Bereich oder eine gesonderte Fragestellung, sodass eine Erweiterung des Angebots nicht ohne weiteres möglich ist. Es soll untersucht werden, welche serverseitigen Anforderungen ein System für die E-Learning-Domäne erfüllen muss, um keine derartigen Restriktionen aufzuweisen und gleichzeitig für den Einsatz verschiedener Szenarien der digitalen Lehre geeignet zu sein.
Die vorliegende Arbeit dient als Grundlage zur Umsetzung für eine automatisierte Klassifizierung von textuellen Fehlermeldungen. Das Hauptziel ist ein grundlegendes Verständnis für die Herangehensweise zum Aufbau eines maschinellen Lernsystems zu erreichen. Es werden verschiedene Arten des maschinellen Lernens erläutert. Auswahl und Aufbau eines Lernmodells werden von unterschiedlichen Seiten beleuchtet, um einen Überblick der einzelnen Schritte zu gewinnen. Zur Gewährleistung eines praktischen Lösungsansatz wurden bereits erste Tests mit einem ausgewählten Lernmodell durchgeführt.
In dieser Arbeit soll es um die Digitalisierung von Asservaten zur nachfolgenden Simulation im digitalen Raum handeln. Das Hauptaugenmerk soll dabei auf der Evaluation der Übertragbarkeit von Relationen zwischen den genannten Asservaten liegen. Zu zeigen soll sein, dass beim Anziehen einer Hose an einen Körper Relationen in Form individueller Falten entstehen, welche zum einen durch die Digitalisierung nicht verloren gehen sollen. Zum anderen soll analysiert werden inwieweit diese Relationen als Nebenprodukt bei dem Nachbau einer digitalen Anzieh-Simulation mit Hilfe der Digitalisate entstehen. Die Qualität dieser Relationen wird dabei im Vergleich zu den real-weltlichen Relationen Vergleichen. Neben der Hose als erstes Asservat wird sich außerdem einer Kleiderpuppe als zweites Asservat gewidmet. Die Kleiderpuppe bildet dabei eine Abstraktion zu einem menschlichen Körper auf Grund von Vereinfachungen dar. Auch wenn die Forensik über eine große Vielfalt an Methoden zur computergestützten Aufnahme, Analyse und Rekonstruktion von Spuren verfügt zeigt sich ein großer Bedarf hinsichtlich Techniken in Bezug auf die computergestützte Modellierung. Des Weiteren soll vor allem das Hauptaugenmerk von biometrischen Merkmalen wie beispielsweise Fingerabdrücken auf weitere wichtige Bestandteile eines Tatortes wie die Kleidung gerichtet werden. Mit Bezug auf diese Aussagen soll diese Arbeit zeigen, dass die Forensik zum aktuellen Zeitpunkt nicht über die benötigten Methoden verfügt, weshalb Methoden der Film- und Spieleindustrie benötigt werden. Eine spätere Evaluation soll dabei der Nutzen dieser Methoden hervorgehoben werden. Bei diesen Betrachtungen ist vor allem der Unterschied wichtig, dass bei der Film- und Spieleindustrie die gewählte Perspektive entscheidend für den Realitätsgrad der Simulierungen ist, wohingegen in der Forensik stets der höchste Realitätsgrad eines ganzen Abbildes angestrebt wird. Um den Nutzen in der Forensik zu analysieren wird der enthaltene Wahrheitsgehalt der Methoden evaluiert. So können zukünftig diese Erkenntnisse als Grundlagen für die Entwicklung eigener Methoden im Fachbereich der Forensik genutzt werden.
Das Ziel dieser Arbeit ist es, einen Superabsorber (SAP), welcher auf Stärkebasis hergestellt wurde, auf seine leichte biologische Abbaubarkeit zu untersuchen. Durchgeführt wird dafür der OECD 301 F Test, da sich dieser auch mit schwer löslichen Substanzen anwenden lässt. Zusätzlich zum Abbau des SAP wurde auch der Abbau von reiner Stärke getestet, um diese miteinander vergleichen zu können. Bei dem Test 301 F handelt es sich explizit um den manometrischen Respirometer Test, welcher unter aeroben Bedingungen in Lösung stattfindet. Bei diesem wird der Druckunterschied gemessen, welcher sich durch das Atmen der Mikroorganismen, in Verbindung mit dem gleichzeitigen Binden des entstehenden Kohlenstoffdioxids, ausbildet. Die Ergebnisse zeigen, dass das SAP zwar keine Hemmende Wirkung auf die Referenzsubstanz Kaliumhydrogenphthalat zeigt, aber auch nicht leicht biologisch abbaubar ist. In den zwei durchgeführten Versuchen konnte ein maximaler biologischer Abbau von 16,33 % innerhalb der 28 Tage Testdauer nachgewiesen werden. Im Vergleich dazu erreichte die reine Stärke, in derselben Zeit, eine Abbaurate von 27,03 %. Somit sind beide Stoffe nicht leicht biologisch abbaubar, auch wenn sie sich bereits zum Teil abgebaut haben. Das SAP baut sich langsamer ab als die Stärke, was wohlmöglich an der zusätzlichen Vernetzung liegen könnte und das daraus folgende höher Molekulargewicht. Die Mikroorganismen können sich zwar auf dem SAP anlagern, aber nicht direkt abbauen durch die Vernetzung. Weitere entscheidende Faktoren für einen biologischen Abbau sind die Verwendeten Mikroorganismen, welche den Stoffabbauen und das System in dem getestet wird.
Die vorliegende Arbeit betrachtet die Möglichkeiten zur Sicherung von Foto- und Videobeiträgen aus sozialen Netzwerken, um diese im Rahmen der Strafverfolgung als Beweismittel nutzbar zu machen. Vier ausgewählte Sicherungsmethoden werden in einem Sicherungsversuch angewendet und im Anschluss miteinander verglichen. Schließlich wird aus den so ermittelten positiven Eigenschaften der Methoden eine hypothetische optimale Methode formuliert, welche für eine zukünftige Anwendung implementiert werden könnte.
Diese Bachelorarbeit befasst sich mit der Prozessautomatisierung während einer Vorfallsreaktion (Incident Response) in der digitalen Forensik. Die Idee dafür kam während der Tätigkeit bei der intersoft consulting services AG auf.
Das Ziel der vorliegenden Arbeit ist es, zu beantworten ob die Automatisierung eines Incident Response-Prozess mit dem Tool KAPE schneller und effektiver gestaltet werden kann, ohne die forensischen Prinzipien außer Acht zu lassen. Dafür wurden eigene Konfigurationsdateien erstellt, welche auf die interne Arbeitsumgebung angepasst sind und anschließend geprüft, ob das Tool die Anforderungen hinsichtlich der forensischen Prinzipien erfüllt. Weiterhin wurde die Verwendung des Tools hinsichtlich seiner Geschwindigkeit mit dem bisherigen Vorgehen verglichen.
Die Untersuchung zeigte, dass das individualisierte Tool mit den eigens erstellten Konfigurationen eine enorme Zeitreduktion gegenüber dem bisherigen Vorgehen erreichen konnte und dies auch unter der Einhaltung der forensischen Prinzipien möglich ist.
Zusammenfassend lässt sich sagen, dass das Tool KAPE für die Prozessautomatisierung eines Incident Response eine merkliche Rolle spielen kann, insbesondere wenn es auf die interne Unternehmensumgebung angepasst ist und einer ständigen Weiterentwicklung folgt.
Convolutional Neural network (CNN) has been one of most powerful and popular preprocessing techniques employed for image classification problems. Here, we use other signal processing techniques like Fourier transform and wavelet transform to preprocess the images in conjunction with different classifiers like MLP, LVQ, GLVQ and GMLVQ and compare its performance with CNN.
Mikrospektralphotometrie : Nachweis und vollständige Eliminierung von Blutspuren auf Textilfasern
(2022)
Der Nachweis des Blutes, seien es noch so minimale Mengen, ist bei den polizeilichen Ermittlungen von sehr hoher Bedeutung. Für den Nachweis sehr geringer Mengen Blut auf einzelnen Textilfasern wird die Mikrospektralphotometrie eingesetzt. Um den vorherrschenden Kenntnistand und eine Verifizierung dieser Methode ermöglichen zu können, werden verschiedene, mit Blut präparierte Faserarten, mit dieser Technik untersucht. Zudem werden verschiedene Reinigungsmittel getestet, um eine zerstörungsfreie Reinigung der Fasern von dem Blut zu ermöglichen. Damit kann das Farbspektrum der Fasern ohne die Beeinflussung von Blutanhaftungen aufgenommen werden. Dieses Spektrum ist in den polizeilichen Ermittlungen wichtig, um Spurenfasern dem Vergleichsmaterial zuordnen zu können.
Konzeption und Umsetzung eines Komplexpraktikums zur Erstellung einer WebApp für Mobile Endgeräte
(2020)
Die vorliegende Arbeit befasst sich mit der Erstellung eines Komplexpraktikums zur Entwicklung einer WebApp für mobile Endgeräte. Ziel der Arbeit ist es, den aktuellen Stand der Technik im Bereich der Entwicklung von Webanwendungen zu analysieren und auf Grundlage der daraus gewonnenen Erkenntnisse selbst eine Webanwendung zu konzipieren und umzusetzen. Diese Anwendung dient ihrerseits als Basis für die Erstellung von 4 Seminaren für die Studenten des 2. Semesters im Studiengang Medieninformatik und Interaktives Entertainment der Hochschule Mittweida, in deren Rahmen sie diese nachprogrammieren und dadurch mit den Technologien und Konzepten vertraut gemacht werden.
Methodenvergleich zur Hydroxyprolinbestimmung in Kollagenmaterialien von verschiedenen Tierarten
(2019)
Kollagen kommt ausschließlich bei Wirbeltieren vor und ist eines der bedeutsamsten Proteine im Reich der Säuger (Menschen inbegriffen). Etwa 25% aller Proteine eines Säugetieres sind Kollagene. Kollagen kommt hauptsächlich in Knochen, Unterhaut, Sehnen, Bändern, Knorpel und Blutgefäßen vor und gewährleistet dem Gewebe Struktur und Stabilität durch Ausbildung zugfester Kollagenfibrillen.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.
Die vorliegende Bachelorarbeit verschafft einen Einblick über die theoretischen Grundlagen und Voraussetzungen des Workflows einer CGI Serienproduktion. Dabei werden theoretische Aspekte eines optimalen Workflows untersucht und auf die Grundlagen einer CGI-Visualisierung eingegangen. Anschließend werden Erkenntnisse aus Interviews mit fachlichen Experten solcher Produktionen mit der Theorie verglichen, einzelne Arbeitsschritte und Problemstellungen auf Optimierungsmöglichkeiten analysiert und Lösungswege zur Verbesserung des Workflows für die Zukunft beschrieben.
Das HIGS-Projekt (Hochintegrierte Ganzzellsensoren für die Umwelt- und Medizintechnik) beschäftigt sich als Teil des BioSAM-Verbunds (Biologische Sensor-Aktor-Systeme auf der Basis von funktionalisierten Mikroorganismen) mit der Entwicklung von Ganzzellsensoren, die in der Umwelt- und Medizintechnik Einsatz finden sollen. In diesen Sensoren sollen mit Hilfe von gentechnisch veränderten Hefezellen biomolekulare und nichtbiologische Analyten erkannt werden. Die Besonderheit hierbei ist, dass sich die Zellen in einem Mikrofluidiksystem befinden sollen, welches den Einsatz in konventioneller Arbeitsumgebung ermöglicht, ohne die Bestimmung des Sicherheitsstandards S1 zu verletzen [o.V., 2014]. Als Versuchsanalyt während der Entwicklung dient das Pheromon, welcher das Wachstum der Hefezellen des Kreuzungstyps a hemmt und in genetisch modifizierten Modellhefen die Produktion eines rot fluoreszierenden Proteins bewirkt. Im späteren fertigen Biosensor soll der Arzneimittelwirkstoff Diclofenac detektiert werden. Nachgewiesen wird der Analyt über die Fluoreszenz der Hefezellen, welche durch den Analyten ausgelöst wird. Bei Diclofenac handelt es sich um einen schmerzlindernden Wirkstoff, welcher häufig in frei verkäuflichen schmerzlindernden Medikamenten enthalten ist. Da allerdings ein Großteil des Schmerzmittels wieder ausgeschieden oder von der Haut abgewaschen wird, gelangen größere Mengen des Diclofenac in die Abwässer und somit in das Ökosystem.
Diese Arbeit liefert einen Überblick über verschiedene elektronische Zutrittskontrollsysteme und deren Funktionsweise. Des Weiteren werden Angriffstechniken erläutert, mit denen diese Systeme angegriffen und umgangen werden können. Dabei wird besonders auf RFID und biometrische Systeme eingegangen. Die Angriffstechniken sind allgemein formuliert um einen möglichst großen Überblick über mögliche Angriffstechniken und -vektoren geben zu können.
Erstellung eines Autopsy-Moduls zum Erkennen und Carven von Dateien von Kryptowährungs Wallets
(2022)
Zum Erkennen und Carven von Dateien von Kryptowährungs-Wallets wird ein Autopsy-Modul erstellt und evaluiert. Dieses soll bei Electrum, Exodus, Firefly, Wasabi, Monero, Ledger Live, Guarda und den Browser-Erweiterungen Coinbase, Binance und MetaMask auf Untersuchungsdatenträgers nach relevanten Dateien suchen, auch wenn diese gelöscht sind oder das Dateisystem defekt ist. Dazu wird das in Autopsy verwendete PhotoRec um Signaturen erweitert.
Die vorliegende Arbeit befasst sich mit einem Vergleich zwischen nationalen und internationalen Verwendungsmöglichkeiten des Werkzeugs eDiscovery in der M365 Cloud. Dabei werden verschiedene technische Einschränkungen vorgestellt, welche die Datenschutzrechtlich konforme Nutzung dieses Werkzeuges ermöglich sollen.
Die tägliche Arbeit von Softwareentwicklern ist es, Software so zu schreiben, dass sie auch in Zukunft so schnell und flexibel entwickelt werden kann wie am ersten Tag. Dafür stehen ihnen zahlreiche Methoden und Tools zur Unterstützung zur Verfügung. Jedoch stellt die Einrichtung und erstmalige Anwendung solcher Hilfsmittel oftmals eine Hürde dar, vor allem, wenn man selbst in diesem Bereich noch keine Erfahrung gesammelt hat. In dieser Arbeit wird dieser Ansatz durch die Entwicklung und Anwendung einer statischen Code-Analyse und Modultests auf eine bestehende NodeJS-Software verfolgt. Diese Software ist Teil einer übergeordneten Projektinfrastruktur, auf deren Komponenten diese Testverfahren später ebenfalls angewendet werden sollen. Für die Evaluation werden etablierte Tools zur Implementierung und Automatisierung der Testprozesse ausgewählt. Der Vergleich dieser Tools erfolgt dann auf der Grundlage gewichteter Kriterien die anhand einer subjektiven Einschätzung bewertet werden. Zunächst werden die Tools JSLint, JSHint und ESLint für die statische Codeanalyse evaluiert. Dann werden Unit-Tests entworfen und definiert und anschließend mit den Unit-Test-Frameworks Mocha, Jest und Vitest implementiert. Schließlich werden die Tests mit einem CI-Tool automatisiert. Aus der Vielzahl an Plattformen wurden BitBucket Pipelines, CirleCI und Buddy als Testobjekte ausgewählt. Es stellte sich heraus, dass eine Vielzahl projektspezifischer Faktoren bei der Auswahl der CI Tools eine Rolle spielen. Die Evaluierung der Tools lieferte eine solide Grundlage für weitere Tests und damit Vertrauen und Sicherheit in die Zukunft von EnjineIO. Diese Arbeit ist besonders für Softwareentwickler interessant, die noch keine Erfahrung mit Softwaretests gemacht haben und einen Einblick in dieses Thema erhalten möchten. Zudem dient sie dazu, einen Einblick in die Besonderheiten der genannten Softwaretest-Tools zu erhalten, wenn ein Team den Wechsel auf eines davon plant.
Der Einsatz von künstlicher Intelligenz soll in der Zukunft auch die Verbrechensaufklärung unterstützen. Ein Teilgebiet dessen ist die Bewegungsanalyse von Menschen. Ein wichtiger Aspekt dabei ist die Verformung und Bewegung der Wirbelsäule, mit der Frage, wie viele Wirbel als digitale Knochen einzeln benötigt werden, um eine Bewegung noch möglichst natürlich und anatomisch korrekt darstellen zu können. Diese Arbeit befasst sich mit der Reduktion der Wirbelsäule bzw. einzelner Wirbel anhand der Erstellung und Posierung von 3DSkeletten, welche je über anders zusammengefasste Wirbel verfügen.
Die vorliegende Arbeit untersucht eine Datenbank mit der Bezeichnung UsageReportsBuffer, die der Webbrowser Chrome auf Android-Geräten anlegt, sowie mögliche Implikationen für die digitalforensische Auswertung. Von besonderem Interesse sind die Fragen, welche Informationen nach welchen Regeln in der Datenbank abgelegt werden, welchem Zweck die Datenbank dient und ob der Nutzer des Gerätes Einfluss auf den Datenbestand nehmen kann. Die Untersuchung ergibt, dass die circa 100 zuletzt aufgerufenen URLs, sowie dazugehörige Zeitstempel gespeichert werden. Der Nutzer kann dieser Datenerhebung nicht widersprechen oder die Datenbank löschen. Die Aufzeichnung kann lediglich durch Verwendung der Inkognito-Funktion unterbunden werden. Jedoch wird die Datenbank von aktuellen Versionen der Chrome-Anwendung nicht mehr angelegt.
Die vorliegende Bachelorarbeit befasst sich mit dem konzeptionellen Aufbau und Werdegang während der Erstellung des Moduls ”Angewandte Datenanalyse” im datenanalytischen Kontext. Hierbei wird zu Beginn auf die grundlegenden Bereiche der Lehre, des Lernens und der Datenanalyse eingegangen. Diese Grundlagen sollen als Basis für das Verständnis der vorliegenden Analysen dienen. Anschließend werden bereits bestehende Module in ihrem Aufbau reflektiert und ihre Methoden analysiert, um herauszufiltern, welche Methoden für das Modul am besten geeignet sind. Im Anschluss wird eine Anforderungsanalyse erstellt, die die wichtigsten funktionalen und qualitativen Anforderungen an das neu entstehende Modul umfasst. Aus der Anforderungsanalyse hervorgehend wird das Grob- und das Detailkonzept umgesetzt, sowie die wichtigsten Inhalte aufgelistet. Um abschließend einen Ansatz zu erhalten, ob die jeweiligen Angaben ihre in sich stimmige Korrektheit besitzen, wird eine Evaluation durchgeführt. Anhand dieser wird kontrolliert, ob die jeweiligen Aufgabenstellungen den Anforderungen entsprechen, oder ob diese angepasst werden müssen. Am Ende der Bachelorarbeit wird ein allgemeines Fazit gezogen und gleichzeitig zukünftige Ansätze erläutert und wie mit der Umsetzung des Moduls weiter vorgegangen werden kann.
Das Ziel der vorliegenden Arbeit ist die Evaluation von Methoden zur Erzeugung von Körpermustern im Kontext der forensischen 3D-Rekonstruktion. Dabei wurde die Hypothese verfolgt, dass eine Photogrammetrie-CAVE für diese Anwendung die besten Ergebnisse erzielen kann. Um diese Hypothese zu untersuchen, wurde in dieser Arbeit hinterfragt, welche Methoden für diese Anwendung infrage kommen, wie effizient und genau diese sind und welche Unterschiede zwischen den Methoden zu erkennen sind. Um diese Fragen zu beantworten, wurden im Rahmen der Arbeit mehrere Modelle von verschiedenen Probanden unter Nutzung drei verschiedener Softwares erzeugt und evaluiert. Die Evaluation zeigt dabei große Unterschiede im Zeitaufwand und der Genauigkeit der Modelle. Weitere Forschung auf diesem Gebiet könnte die Nutzung der in dieser Arbeit verwendeten Software verfeinern, aber auch neue Ansätze und Softwaretypen auf ihre Tauglichkeit für diesen Anwendungsbereich testen.
Offensive Sprache im Internet ist ein stark diskutiertes Problem in sozialen Medien. Angriffe richten sich oftmals gegen Einzelpersonen, können aber auch auf Gruppen und andere Strukturen abzielen. Die Erkennung angreifender Inhalte funktioniert in vielen Ansätzen bereits sehr gut. Die Erkennung der Ziele hingegen ist bisher nur wenig erforscht. Die vorliegende Arbeit befasst sich mit der Aufarbeitung des aktuellen Forschungsstandes zu offensiver gerichteter Sprache, den Grundlagen derer Erkennung und dem Vergleich verschiedener Ansätze. Die Auswirkungen von Vorverarbeitung und Parametrisierung der Modelle werden analytisch diskutiert.
In dieser Bachelorarbeit wird ein E-Learning Kurs zum Kompetenzerwerb auf dem Gebiet der IT-Sicherheit konzipiert, implementiert und evaluiert. Dazu werden zunächst für Endnutzende relevante Themen der IT-Sicherheit identifiziert und die theoretischen Fundierungen für die Umsetzung als ein Web-based Training gelegt. Die Umsetzung des Konzeptes in einen Moodle-Kurs wird beschrieben. Es wird eine Evaluation der Usability des Kurses und des Lernerfolges durchgeführt.
Die vorliegende Masterarbeit befasst sich mit der Entwicklung einer Android-Applikation zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Dabei richtet sich der Fokus zuerst auf das aus den USA stammende AMBER-Alert-System – ein System zur Suche vermisster Kinder – und im weiteren Verlauf auf den aktuellen Stand eines solchen Systems innerhalb Deutschlands. Bisher haben sich nur wenige Arbeiten mit der Umsetzung einer solchen App auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Implementierung einer prototypischen App zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Diesbezüglich werden bereits existierende Applikationen betrachtet und daraus ein konzeptioneller Entwurf entwickelt. Dieser Entwurf dient als Grundlage für die prototypische Implementierung der App.
Die vorliegende Arbeit stellt eine effektive Möglichkeit dar, um einen Großteil der Bevölkerung in Deutschland zur schnellen Suche und sicheren Bergung bei vermissten Kindern zu erreichen.
Das Programm WhatsAppOn ist ein in Python geschriebenes, kommandozeilenbasiertes Programm, welches das Tracken des WhatsApp-Online-Status einer Person auf verschiedenen Betriebssystemen ermöglicht. Das Programm wurde auf den Betriebssystemen Windows und Linux getestet. Die Testphase umfasst eine Dauer von neun Wochen. Nach der Testphase wurden die Daten mittels eines Programmes weiterverarbeitet. Die Daten konnten daraufhin ausgewertet werden. Bei der Auswertung stellte sich heraus, dass Schlafphasen der Testperson festgestellt werden können. Arbeitszeiten der Testperson ließen sich nur teilweise ermitteln.
Die Blutaltersbestimmung hat sich in den letzten Jahrzehnten zu einer der bedeutsamsten Methoden der Tatzeitermittlung entwickelt und ist in der forensischen Wissenschaft nicht mehr weg zu denken. Bis heute wird an diesem Verfahren geforscht, da sich noch keine Methode richtig etabliert hat. Eine große Herausforderung bei der Blutaltersbestimmung spielen die Umwelteinflüsse. In dieser Bachelorarbeit wird humanes Vollblut 21 Tage unter den Umwelteinflüssen, Temperatur und Luftfeuchtigkeit in einem Klimaschrank gelagert. Die in verschiedenen Abständen entnommenen Proben werden dann mittels der UV/VIS Spektroskopie als Spektren dargestellt und ausgewertet. Dabei stehen die alterskorrelierenden Features im Mittelpunkt, welche deutliche Veränderungen aufzeigen. Dazu zählen die Oxy- und Methämoglobin-Peaks und die Blauverschiebung der Soret-Bande. Für die Auswertung wurden zwei Messreihen extra hinzugezogen. Somit konnte im ersten Ver-gleich festgestellt werden, dass die Luftfeuchtigkeit keinen Einfluss auf die Oxidation hat und sich die Soret-Bande bei geringer Luftfeuchte nur in den ersten drei Stunden schneller nach links verschiebt. Im zweiten Vergleich konnte herausgefunden werden, dass die Temperatur einen großen Einfluss auf die Oxidation hat. Denn eine höhere Temperatur sorgt für eine schnellere Oxidation. Auch konnte verdeutlicht werden, dass sich die Soret-Bande bei einer höheren Temperatur etwas schneller verschiebt. Die Temperatur hat die Messreihen stärker beeinflusst als die Luftfeuchtigkeit.