Refine
Document Type
- Bachelor Thesis (687)
- Master's Thesis (173)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (54)
- Softwareentwicklung (52)
- Computersicherheit (45)
- Maschinelles Lernen (43)
- Videospiel (43)
- Computerspiel (23)
- Blockchain (22)
- Virtuelle Realität (17)
- Algorithmus (16)
- Programmierung (16)
Institute
- Angewandte Computer‐ und Biowissenschaften (916) (remove)
Seit nun mehr vielen Jahren ist der Einsatz von Software in allen Lebenslagen nicht mehr wegzudenken. Das Leben von fast allen Menschen wird täglich, bewusst oder unbewusst, von Software gesteuert, unterstützt oder beeinflusst. Da Softwareprodukte auch immer weitreichendere Eingriffe in persönliche Daten nehmen, sollte ein Hauptaugenmerk der Softwareentwicklung stets auf Sicherheit und Datenschutz gelegt werden. Umso wichtiger ist es daher, dass nicht nur Sicherheitsuntersuchungen durchgeführt werden, sondern dass diese auch möglichst umfassend und strukturiert realisiert werden.
Die vorliegende Arbeit beschäftigt sich daher mit der Entwicklung einer Methodik zur schrittweisen Überführung eines abstrakten Architekturmodells, wie beispielsweise einem Datenflussdiagramm, hin zu einem möglichst vollständigen Testplan zur Durchführung reproduzierbarer Penetrationstests, unter Einsatz von Hilfsmodellen zur Gefahrenklassifizierung. Hierbei sollen Konzepte, wie Threat-Modeling auf Basis des STRIDE-Modells und Finden von Sicherheitslücken mithilfe der Common Vulnerability and Exposures-Datenbank zum Einsatz kommen.
In vielen Fällen der Kriminalistik steht die Eingrenzung eines Verdächtigenkreises im Vordergrund. Doch zur Verfügung stehen oftmals nur Zeugenaussagen oder Videomaterial, mit denen ein Phantombild oder eine grobe Beschreibung des Verdächtigen erstellt werden kann. Um anhand von Video- oder Fotomaterial eine Person besser beschreiben zu können, ist es Ziel dieser Arbeit ein statistisches Modell zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations herzuleiten.
Bei einer ersten Untersuchung wird geprüft, ob es möglich ist, Individuen der Körperhöhe 175 cm und 185 cm anhand sonstiger anthropometrischer Maße zu unterscheiden. Die positiven Resultate werden genutzt, um Möglichkeiten zu finden, eine Trennung der beiden Körperhöhengruppen auch mittels Pose Estimations vorzunehmen. Dazu wird ein erstes Regressionsmodell aufgestellt. Außerdem werden andere Charakteristiken des menschlichen Körpers genauer betrachtet, weitere Körpergruppen definiert und jene versucht mittels Pose Estimations vorherzusagen. Dabei können jedoch keine qualitativen statistischen Modelle zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations hergeleitet werden. Aufgrund dessen wird die direkte Vergleichbarkeit zwischen anthropometrischen Maßen und definierten Strecken der Pose Estimations untersucht. Diese kann jedoch nicht bestätigt werden. Daher wird an der Einteilung in Körpergruppen festgehalten. Um jene besser vorhersagen zu können, werden für alle Individuen weitere Aufnahmen aus wohl definierten Perspektiven gefertigt und anschließend mittels OpenPose verarbeitet. Die resultierenden Pose Estimations werden genutzt um dreidimensionale Rigs zu erzeugen. Dadurch sollen mit einer frontalen Betrachtung einhergehende Fehlerquellen, wie Drehungen oder Beugungen einzelner Körperteile, eliminiert werden. Um zu prüfen, welche Verbesserungen die dreidimensionalen Rigs mit sich bringen, werden die Untersuchungen aus dem ersten Teil dieser Arbeit wiederholt. Dabei wird festgestellt, dass mit wenigen Ausnahmen alle Ergebnisse verbessert werden können. Jedoch bleibt die Qualität einiger statistischer Modelle bei den durchgeführten Kreuzvalidierungen zu optimieren.
In this work, a protocol for portable nanopore sequencing of DNA from pollen collected from honey bees, bumble bees, and wild bees was developed. DNA metabarcoding is applied to identify genera within the mixed DNA samples. The DNA extraction and ITS and ITS2 PCR parameters tested for this purpose were applied to the collected pollen sample and the amplicons were then decoded using the Flongle sequencer adapter from Oxford Nanopore Technologies. It is shown that the main pollinator resources at the different sites can be identified in percentage proportions. The protocol generated in this study can be used for further ecological questions.
Ein Maus-Infektionsmodell wurde genutzt um neutralisierende Antikörper gegen SARS-CoV-2 zu untersuchen. Nach Beendigung des Infektionsexperimentes wurden Lungen- und Gehirnpräparate fixiert und histologische Färbungen des SARS-CoV-2 Nukleokapsids und von Zellen der angeborenen Immunantwort vorgenommen. Der Nachweis von humanem ACE2 wurde untersucht und in Organhomogenaten bestätigt. Ein Bewertungsschema zur Validierung eingesetzter neutralisierender Antikörper wurde mit einer vergleichenden Hämatoxylin und Eosin Färbung erstellt und interpretiert.
In dieser Masterthesis wird evaluiert, wie gut sich Deep-Learning-Modelle für eine Toxizitätsbestimmung im digitalen Raum eignen. Hierfür wird die Transformer-Architektur anhand verschiedener Pre-Trainings auf BERT-, DistilBERT-, RoBERTa- und GPT-2-Basis mithilfe der toxisch-binär annotierten GermEval-Datensätze aus den Jahren 2018, 2019 und 2021 angepasst. Das Feintuning der Modelle findet sowohl mit Supervised-, als auch mit Semi-Supervised-Learning via GAN statt. Im Anhang dieser Arbeit steht der genutzte Programmcode zur Verfügung.
Das Feintuning via GAN stellt eine Besonderheit in der Herangehensweise automatisierter NLP-Aufgaben darf. Als Ergebnis dieser Arbeit kann deren Wirksamkeit in binären Textklassifizierungsaufgaben im deutschen Sprachraum bestätigt werden.
Onlinequellen wurden zum Zeitpunkt des Abrufs mithilfe des Firefox-Addons “SingleFile” in eine HTML-Datei gespeichert. Sowohl der HTML-Teil, als auch die Mediendateien, Stylesheets und Skriptdateien befinden sich komprimiert in der Datei. Jede Onlinequelle wurde während des Speichervorgangs bei woleet.io registriert, sodass später die Integrität der HTML-Datei geprüft werden kann. Hierfür speichert Woleet die Signatur und Zeitstempel einer Datei innerhalb der Bitcoin-Blockchain. Soll die Integrität einer Datei geprüft werden, kann dies über gildas-lormeau.github.io/singlefile-woleet/index.html erfolgen.
Das Thema dieser Arbeit liegt im Schwerpunkt der perpetuierenden Corona-Pandemie und dem zukünftigen Internetnutzungsverhalten der Gesellschaft. Hier soll untersucht werden, wie sich das Internetnutzungsverhalten auf die Bevölkerung auswirkt, aufgrund des Wandels der Gesellschaft. Dabei wurden wissenschaftliche Fragestellungen formuliert und durch eine Literarturrecherche in Bezug gebracht.
Untersucht wurden die folgenden zugrundeliegenden Themenbereiche:
- Internetnutzungsverhalten der Gesellschaft,
- Veränderung des Internetnutzungsverhalten,
- Zukunftsaussichten der Gesellschaft zur digitalen Umgebung,
- Internetnutzung und Internetkriminalität,
- Altersstruktur von Internetkriminalität,
- Auswirkungen der Internetkriminalität,
- Berichte von Tätern und Opfern zur Internetkriminalität,
- Beratungsstellen für Opfer,
- Verhinderung der Internetkriminalität,
- Reduzierung der Internetkriminalität durch die Regierung und
- Maßnahmen der Regierung zur Internetkriminalität.
Diese Arbeit befasst sich mit der Erstellung einer Schutzbedarfsanalyse am Universitäts Klinikum Carl Gustav Carus Dresden. Dabei wird die Vorgehensweise für die Standard Absicherung nach dem BSI-Standard 200-2 IT-Grundschutz Methodik, welche vom BSI empfohlen wird, der neu entwickelten Methode gegenüber gestellt.
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
Konzeption zum Aufbau einer Werkstatt 4.0 mit prototypischen
IoT Elementen, teilweise simuliert
(2020)
Bei dieser Arbeit wurden verschiedene Vergleiche zwischen Datenübertragungsarten gezogen und welche in einer Werkstatt 4.0 implementiert werden können. Die Vergleiche finden sich meist in Tabellenform wieder, da diese die beste Möglichkeit zur Gegenüberstellung bieten. Weiterhin wurde ein Konzept für eine Benutzerverwaltung erstellt. Dabei war die Vorgabe mit dem ASP.Net Framework „Razor Pages“ und WPF zu arbeiten. Diese Arbeit ist sowohl für studierende der Informatikstudiengänge als auch für Technik affine Studenten interessant.
Genetic sequence variations at the level of gene promoters influence the binding of transcription factors. In plants, this often leads to differential gene expression across natural accessions and crop cultivars. Some of these differences are propagated through molecular networks and lead to macroscopic phenotypes. However, the link between promoter sequence variation and the variation of its activity is not yet well understood. In this project, we use the power of deep learning in 728 genotypes of Arabidopsis thaliana to shed light on some aspects of that link. Convolutional neural networks were successfully implemented to predict the likelihood of a gene being expressed from its promoter sequence. These networks were also capable of highlighting known and putative new sequence motifs causal for the expression of genes. We tested our algorithms in various scenarios, including single and multiple point mutations, as well as indels on synthetic and real promoter sequences and the respective performance characteristics of the algorithm have been estimated. Finally, we showed that the decision boundary to classify genes as expressed and non-expressed depends on the sensitivity of the transcriptome profiling assay and changing it has an impact on the algorithm’s performance.
Data streams change their statistical behaviour over the time. These changes can occur gradually or abruptly with unforeseen reasons, which may effect the expected outcome. Thus it is important to detect concept drift as soon as it occurs. In this thesis we chose distance based methodology to detect presence of concept drift in the data streams. We used generalized learning vector quantization(GLVQ) and generalized matrix learning vector quantization( GMLVQ) classifiers for distance calculation between prototypes and data points. Chi-square and Kolmogorov–Smirnov tests are used to compare the distance distributions of test and train data sets to indicate the drift presence.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
Das Ziel der vorliegenden Bachelorarbeit ist es zu beantworten, inwieweit Chatbots die Aufgaben von Projektmitgliedern vor allem im Bereich Projektmanagement optimieren können. Dabei wird auf theoretische Grundlagen aufbauend, eine Analyse zur Umsetzung eines solchen Systems durchgeführt, die vor allem auf die Anforderungen innerhalb eines Projektmanagements Bezug nimmt. Im Ergebnis der Ausarbeitung soll mithilfe eines entwickelten Prototyps belegt werden, ob die genannten künstlich intelligenten Systeme es möglich machen können, gewisse Arbeitsabläufe zu erleichtern beziehungsweise diese den Projektmanagern komplett abzunehmen. Innerhalb eines abschließenden Probandentests soll demonstriert werden, dass der Einsatz des Prototyps in einem größeren Projekt sinnvoll sein kann. Weiterhin soll ebenfalls gezeigt werden, dass eine Moral- sowie Arbeitssteigerung aller Projektmitglieder durch den Prototyp möglich ist.
The aim of this bachelor thesis is to find out how the use of artificial intelligence, specifically the one used in combat situations, can increase the playing time or even the replay value of games in the action role-playing genre. Thereby, it focuses mainly on combat situations between a player and an artificial intelligence.
To begin with, this bachelor thesis examines the action role-playing genre in order to find a suitable definition for it. Accordingly, action role-playing games involve titles that send the player on a hero’s journey-like adventure in which they must prove their skills in combat against virtual opponents. The greatest challenge of these real-time battles comes from the required quick reflexes, skill queries and hand-eye coordination.
Next, six means of increasing the replayability of a game are explored: Experience and Nostalgia, Variety and Randomness, Goals and Completion, Difficulty, Learning, and Social Aspect. The paper then proceeds to give an explanation for the term Artificial Intelligence and examines the various methods used to create intelligent behavior as well as the general advancement of the research field. Special attention is given to the implementation methods of Finite State Machines and Behavior Trees, as they are the most widely used methods for creating behavioral patterns of virtual characters.
Finally, a study conducted as part of the bachelor thesis is described, which compares a mathematically balanced artificial intelligence with a behaviorally balanced one in terms of game performance regarding the willingness of test subjects to purchase and play through the game as well as its replay value. The thesis concludes with the findings that while the behavioral approach is more promising than the mathematical approach, a combination of the two methods ultimately leads to the best outcome. Furthermore, the study shows that the use of artificial intelligence to individualize gaming experiences is promising for the future of the gaming industry.
Die Biometrie bildet in heutigen Zeiten in den Bereichen der forensischen Arbeit und der Sicherheit ein besonderen Teil. Dabei werden in heutigen Verfahren biometrische Merkmale wie Gesichtsmaße, Fingerabdrücke oder auch Irismuster verwendet. Jedoch stößt die Verwendung dieser Merkmale oft an ihrer Grenzen, wenn es darum geht, vermummte Täter auf Überwachungsaufnahmen zu identifizieren. An dieser Stelle soll der Täter mittels eines Rigs auf der Aufnahme vermessen werden. Die erhaltenen Maße sollen anschließend mit den Maßen von Personen im Reale verglichen werden, um dadurch den Täter von der Aufnahme zu identifizieren. In dieser Arbeit wird ein gegebener Datensatz näher untersucht. Der Datensatz enthält anthropometrische Maße, Front-Rigs (2D-Rigs) sowie 3D-Rigs von 170 Frauen und 170 Männern. Ziel soll es sein, die im Datensatz gegebene Separierbarkeit mittels eines optimalen Trenn- beziehungsweise Klassifikationsverfahrens nachzuweisen. Zum Einen wird die Vergleichbarkeit der Front- und 3D-Rigs überprüft. Dafür wird eine Möglichkeit gesucht, eine mögliche Abweichung zwischen den Dimensionen der Rigs mittels eines allgemeinen Fehlers beziehungsweise Verhältnisses auszudrücken. Zum Anderen werden verschiedene Klassifikationsverfahren durchgeführt, die zwischen zwei Körperhöhengruppen gegebene Separierbarkeit optimal nachzuweisen. Abschließend wird ein weiteres Merkmal neben der Körperhöhe gesucht, um Personen in Gruppen einzuteilen. Im Verlauf der Arbeit wird ersichtlich, dass zwischen den Front-Rigs und 3DRigs ein Unterschied besteht, der sich jedoch schwer in ein allgemeinen Fehler beziehungsweise ein allgemeines Verhältnis fassen lässt. Mittels der Manhattan-Distanz kann die Separierbarkeit nur schwer nachgestellt werden. Durch die Verwendung von k-NNs und logistischen Regressionen ist die Separierbarkeit trotz auftretender Falschklassifikationen nachzuweisen. Als weiteres Merkmal zur Körperhöhe wird das Verhältnis von Oberkörper zu Unterkörper betrachtet. Die mittels dieses Verhältnisses bestimmten Gruppen sind ebenfalls nachweisbar. In Zukunft sollte der Unterschied zwischen Front- und 3D-Rigs verkleinert beziehungsweise verallgemeinert werden, um die Vergleichbarkeit zu steigern. Des Weiteren sollte die Separierbarkeit mittels weiterer Klassifikationverfahren nachgewiesen werden. Außerdem sollte über eine Erweiterung des Datensatzes um weitere Individuen oder auch andere Körperhöhen nachgedacht werden. Zudem sollten auch andere Merkmale zur Gruppierung der Personen weiter untersucht werden.
Fake News und Betrugsschemata sind heutzutage ein allgegenwärtiger Bestandteil des Internets. Erfahrene Nutzer haben gelernt damit umzugehen und Richtiges von Falschem zu unterscheiden. Doch auch die erfahrensten Benutzer des Internets können von geschickten Hochstaplern und Betrügern manipuliert werden. Die Betreiber der sozialen Medien, können und wollen oftmals nicht für die Sicherheit ihrer Nutzer garantieren, weswegen ein Ansatz benötigt wird, welcher diese Betreiber ablöst. Nachdem Non-Fungible Tokens gezeigt haben, wie digitales Eigentum implementiert werden kann, zeigen sogennante Soulbound Tokens, wie digitales Vertrauen im Internet existieren kann. Diese Art von Tokens sind nicht transferierbar und für immer an ihren Besitzer gebunden, wodurch diverse, digitale Persönlichkeiten entstehen können, deren Glaubwürdigkeit von Soulbound Tokens bewiesen wird. Decentralized Reputation (DeRep) beschreibt dabei eine Reputationsplattform, auf welcher Benutzer Soulbound Tokens als Bewertung für andere Nutzer ausstellen können. Zusammen mit weiteren Funktionen, wie einem Bewertungsalgorithmus für die Profile der Nutzer, wird veranschaulicht, wie Reputation mithilfe von Soulbound Tokens generiert werden kann und welche Herausforderung dabei entstehen.
Prototyp eines standardisierten Fingerabdrucks zur Validierung von Such- und Sicherungsverfahren
(2022)
Die vorliegende Bachelorarbeit beschäftigt sich mit der theoretischen Modellierung eines Prototyps von einem Fingerabdruckstempel. Dabei behandelt sie die chemischen, physischen sowie technischen Merkmale und deren Funktionsweise innerhalb des Stempels. Dieser soll im Hinblick auf die Tatortarbeit dazu dienen, künstliche Fingerabdrücke zu schaffen, um an ihnen die verschiedenen Spurensicherungsverfahren zu testen. Im Zuge dessen geht die Arbeit näher auf das chemische Spurensicherungsverfahren der Kaltbedampfung in einer Vakuumkammer ein. Die Grundlage für dieses Verfahren bildet flüssiges Cyanacrylat, mit dem versucht wird, latente Fingerabdrücke auf einem Objektträger unter verschiedenen Bedingungen sichtbar zu machen. Dabei wird analysiert, welche Voraussetzungen gegeben sein müssen, damit sich der Fingerabdruck in der Vakuumkammer optimal entwickelt.
In dieser Bachelorarbeit war das Hauptziel die Etablierung eines Antikörper Panels für T-Zellen und MDSCs für die Analyse von Leukozyten in Psoriasis vulgaris Blut- und Gewebeproben. Psoriasis ist eine chronische Entzündungserkrankung der Haut und betrifft rund 2-3 % der Bevölkerung weltweit. Die Untersuchung der verschiedenen Zelltypen erfolgte dabei mit Hilfe der Durchflusscytometrie. Im ersten Teil dieser Arbeit mussten dafür die Antikörper mit Beads titriert werden, um deren optimale Einsatzkonzentration zu finden und mögliche falsche Ergebnisse in späteren Probenanalysen ausschließen zu können. Es wurde für jeden Antikörper eine Konzentration ausgewählt, jedoch gab es bei einigen keine Eindeutigen Ergebnisse, wie bei CCR4 und CD45RA, für die weitere Titrationsschritte nötig wären. Im Anschluss wurde erfolgreich eine Kompensation mit diesen Antikörpern durchgeführt. Nach Etablierung des Antikörperpanels wurden Blut- und Gewebeproben zweier Psoriasis betroffenen Patienten auf T-Zellen und MDSCs vor und unter Therapie betrachtet. Die Therapie erfolgte mit Anthralin, dessen Wirkung noch nicht vollständig geklärt ist. Für die Gewebeprobenanalyse wurden zuvor drei Varianten für die Isolation der Immunzellen aus Gewebe ausgetestet. Dabei unterschieden sich die Varianten in der Inkubationszeit mit DNase und Kollagenase. Die Überprüfung innerhalb einer Patientenprobe mit der ausgewählten Variante war jedoch nicht erfolgreich. Um die Zelltypen aus Blutproben betrachten zu können, wurden PBMCs aus dem Blut isoliert und die Zellen anschließend mit den Antikörpern gefärbt. Bei beiden Patienten zeigte sich die Th17.1-Population als größte und die Th2-Population als kleinste. Dass die Psoriasis eine Th17 dominierte Krankheit ist, konnte damit bestätigt werden. Es gab kaum Veränderungen innerhalb der Subpopulationen zum 2. Zeitpunkt. Für die MDSCs zeigte sich eine größere PMN-MDSC Population. Dies könnte zeigen, dass die während einer Anthralinbehandlung rekrutierten MDSCs, der Gruppe der PMN-MDSCs angehören. Jedoch ähneln sich diese in ihrer Morphologie mit denen der Neutrophilen, weshalb die Überprüfung der T-Zell Suppression, welche nur durch die MDSCs gegeben ist, mittels CFSE-Färbung angeschlossen werden sollte. An diese Bachelorarbeit schließt sich eine weitere Studie an, welche sich näher mit der Wirkungsweise der Anthralinbehandlung bei Psoriasis und der damit verbundenen MDSCs beschäftigen wird.
Entwurf und Implementierung einer Importfunktion für XML-Dateien nach dem openTRANS®-Standard
(2022)
Um Geschäftsdokumente wie beispielsweise Aufträge digital zu repräsentieren, werden Standards benötigt, die die darin enthaltenen Informationen einheitlich darstellen. Einer dieser Standards ist openTRANS®.
Diese Arbeit befasst sich mit dem Entwurf und der Implementierung einer Importfunktion für Auftragsdaten, die in Form von openTRANS®-gerechten XML-Dateien vorliegen.
Pollinating insects are of vital importance for the ecosystem and their drastic decline imposes severe consequences for the environment and humankind. The comprehension of their interaction networks is the first step in order to preserve these highly complex systems. For that purpose, the following study describes a protocol for the investigation of honey bee pollen samples from different agro-environmental areas by DNA extraction, PCR amplification and nanopore sequencing of the barcode regions rbcL and ITS. It was shown, that the most abundant species were classified consistently by both DNA barcodes, while species richness was enhanced by single-barcode detection of less abundant species. The analysis of the the different landscape variables exhibited a decline of species richness, Shannon diversity index, and species evenness with increasing organic crop area. However, sampling was only carried out in August and further investigations are suggested to display a more complete picture of honey bee foraging throughout the seasons.
Die Aufgabe von Penetrationstestern ist es, Sicherheitslücken in IT-Systemen zu finden. Dieser Prozess kann innerhalb eines Pentest-Labors geübt werden. Das Ziel der Arbeit war es, ein Konzept zu erstellen, das ein solches Labor auf Basis von Cloud-Computing erstellt. Die Erstellung fand dabei nach einem fünfstufigen Vorgehen statt. Anforderungsanalyse, Evaluation eines Cloud-Providers und eines Automatisierungstools, Grundlagen der gewählten Lösungen, Konzeptionierung und Implementation. Ziel der Analyse war es, Anforderungen zu sammeln, das die Umgebung erfüllen soll. Hauptziel war es demnach einfach und mit minimalem Zeitaufwand verschiedene Infrastruktur-Szenarien zu erstellen. Ein solches Szenario war beispielsweise ein unsicheres Office Netzwerk. Auf diesen Forderungen aufbauend wurden verschiedene Cloud-Provider sowie Anbieter von Automatisierungstools verglichen und es wurde eine Entscheidung für je einen getroffen. Die Wahl fiel auf OpenStack als On-Premise Cloud-Lösung und Terraform als Tool, das automatisiert die Infrastrukturen erzeugen soll. Jene wurden in dem darauffolgenden Kapitel genauer vorgestellt und deren Funktion sowie Betrieb erläutert. Nachdem das Fundament für das Konzept gelegt war, erfolgte das Planen, was für verschiedenen Systeme für das Szenario des Office Netzwerk nötig waren. Dabei handelte es sich um Windows Server und Client, Linux Client und eine Metasploitable Maschine. Daraufhin folgte die Evaluation, wie diese Systeme bereitgestellt und bei Instanziierung konfiguriert werden sollen. Entschieden wurde sich für manuell erstellte Systemabbilder und zur Konfiguration das Tool Cloud-Init.
Abschließend wurde das Konzept an einem Prototyp, mit dem Ziel der Prüfung auf Fehlerfreiheit, umgesetzt. Die Implementation erfolgte ohne Probleme und das Labor stand mit dem geforderten Szenario, das innerhalb von 10 Minuten mit einem Befehl erstellt werden konnte, zur Verfügung. Zukünftige Arbeiten könnten das Konzept in einer Langzeitstudie auf eventuell auftretende Fehler hin prüfen. Zudem können weitere Szenarien und weitere Autmatisierungstools implementiert werden.
Einhaltung regulatorischer Anforderungen an Kreditinstitute durch den Einsatz eines SIEM-Systems
(2022)
Die vorliegende Arbeit thematisiert die Einhaltung neuer aufsichtsrechtlicher Anforderungen an die IT-Sicherheit von Kreditinstituten durch den Einsatz eines SIEM-Systems. In diesem Kontext werden zuerst die zum Zeitpunkt der Veröffentlichung dieser Thesis geltenden Anforderungen detailliert vorgestellt und erklärt. Anschließend wird der Aufbau und die Funktionsweise eines SIEM-Systems differenziert beleuchtet und die Eignung dessen zur Einhaltung der Rahmenbedingungen geprüft. Darüber hinaus wird ein Leitfaden zur anforderungskonformen Implementation eines SIEM-Systems am Beispiel der Softwarelösung Splunk Enterprise präsentiert.
In dieser Bachelorarbeit wird sich mit der Frage beschäftigt ,Ob und inwieweit ist es möglich, das Griffgeschehen bzw. den Griff zu rekonstruieren?’. Um diese zu beantworten, wird sich mit der Anatomie der menschlichen Hand und deren Bewegungsmöglichkeiten auseinandergesetzt. Mit der Hand wird sich deshalb beschäftigt, da diese im Alltag eine wichtige Funktion besitzt und Spuren in Form von Abdrücken auf Objekten hinterlässt. Aufgrund dieser Spuren werden in dieser Arbeit verschiedene Modelle der Hand, einer Vase als Beispiel Objekt und dem Griff um diesen erstellt. Des Weiteren wird sich mit der Erstellung einer bewegungsfähigen Hand in Blender beschäftigt, welche schlussendlich für die Rekonstruktion von zwei verschiedenen Griffen verwendet wird. Es stellt sich heraus, dass die Rekonstruktion von Griffen mit dieser Methode jedoch mit geringen Abweichungen möglich ist. Diese könnten vermindert bzw. verhindert werden, indem die Modelle weiter verbessert werden oder die Stichprobe der Griffe und Personen vergrößert wird.
Evaluierung der Microsoft HoloLens für den Einsatz der KI-basierten forensischen Personenanalyse
(2021)
Diese Arbeit betrachtet verschiedene Methoden aus dem Machine-Learning, geht im genaueren auf Deep-Neural-Networks ein und versucht diese für die forensische Personenanlyse einzusetzen. Gestützt wurde sich auf auf das MediaPipe-Framework.
Die HoloLens 1 schränkte die Möglichkeiten darauf ein, Bildaufnahmen auf ihr zu tätigen und die Inferenz an einer externen Maschine auszuführen. Um die Möglichkeit der Inferenz auf AR-Geräten zu ermöglichen weiter zu untersuchen, wurden die aktuelle Forschung im Bereich von Edgie-AI betrachtet.
Die HoloLens 1 bietet keine Möglichkeit die Inferenz der aktuellen Frameworks auf dem Gerät durchzuführen. Es konnte eine Inferenz auf einer externen Maschine durchgeführt werden und an die HoloLens übertragen werden. Weiter wurde die aktuelle Forschung betrachtet, welche sich mit spezialisierten Hardware für die Inferenz von NN betrachtet.
Neue Versionen einer Programmiersprache eröffnen neue Möglichkeiten, komplexe Zusammenhänge auszudrücken. So ermöglichte auch C++20 in dem dieser Arbeit vorausgegangenen Forschungsmodul eine Alternative zu Vererbung mit virtuellen Funktionen, welche sich in Microbenchmarks als performanter erwies. Eine Messung in einem vollwertigen Software-Projekt erfordert jedoch zunächst eine Modernisierung dessen. So ist u.a. die 3D-Engine OGRE lediglich auf dem Stand von C++11. Es stellt sich die Frage, ob der Arbeitsaufwand und die Risiken, die mit einer Modernisierung und anschließender Umsetzung der Alternative verbunden sind, letztlich zu rechtfertigen wären. Zumindest für den ersten Schritt kann dies auch unabhängig vom zweiten bestimmt werden. Detaillierte Beschreibungen und Microbenchmarks zu neuen Features können zwar oft gefunden werden, jedoch sind die exakten Hindernisse im konkreten Fall schwer einzuschätzen und die tatsächlichen Vorteile für ein vollwertiges Software-Projekt sind aus bloßen Microbenchmarks nicht direkt abzuleiten. Die vorliegende Arbeit beschreibt die mit der Umsetzung neuer Features verbundenen Hindernisse in der 3D-Engine OGRE. Anhand inkrementeller Messungen wird schließlich entschieden, welche Modernisierungen an und für sich lohnenswert sind und von welchen abzuraten ist.
Diese Arbeit thematisiert verschiedene Repräsentationen von Schwachstellen in Bosskämpfen und untersucht die Wirkung dieser auf die Spieler und die Spielerfahrung. Dabei wird ein Spiel geplant und erstellt, welches in mehreren Bosskampfszenarien unterschiedliche Indikatoren verwendet. Deren Wirkung wurde mithilfe von Testpersonen untersucht und analysiert. Dabei wurde festgestellt, dass Spieler mehr nach ihren gelernten Verhaltensmustern agieren, als auf die Schwachstellen zu achten. Sollte dieses Verhalten aufgebrochen werden, sind logische und angeheftete Schwachstellen sehr gut wahrnehmbar, was durch eine farbliche Abgrenzung vom Boss unterstützt werden kann.
Ransomware ist eine Schadsoftware, die als Erpressersoftware Daten verschlüsselt und eine Lösegeldforderung stellt. Um Ransomware-Sample vor der Detektion zu schützen, werden sogenannte Packer eingesetzt. Dabei wird die schädliche Routine einer Ransomware gepackt und bei Ausführung automatisch entpackt. Während Ransomware in den letzten Jahren stark weiterentwickelt wurde, sind einige der Methoden zum Entpacken teilweise bedeutend älter. Diese Arbeit untersucht, inwiefern, mithilfe vom Einsatz von Debuggern, aktuelle Ransomware-Samples mit solchen Methoden entpackt werden können. Dafür wird zuerst recherchiert, welche gängigen Methoden zum Entpacken gepackter Schadsoftware unter Verwendung eines Debuggers bestehen. Diese Methoden werden auf eine Auswahl von aktuellen Ransomware-Samples angewendet und die Ergebnisse analysiert. Dadurch entsteht am Ende der Arbeit eine Übersicht darüber bestehen, mit welchen Methoden aktuelle Ransomware-Samples noch entpackt werden und somit Analysen von Ransomware unterstützen können.
Durch Eindringen in die Wirtszelle kann sich das SARS-CoV-2-Virus verbreiten. Das adaptive Immunsystem bildet verzögert die humorale Immunantwort durch hochspezifische Antikörper aus. Die Antikörper neutralisieren das SARS-CoV-2. Im Laufe der Immunabwehr steigen die Antikörpertiter der verschiedenen Antikörperklassen unterschiedlich an. Mittels Serumproben sollte herausgefunden werden, wie der IgG-Titer nach einem positiven PCR-Ergebnis von der Zeit abhängig verläuft und ob es Unterschiede zwischen verschiedenen Geschlechtern und Altersklassen gibt. Für die Ermittlung der IgG-Titer wurden einmal der ELISA mittels Generic Assays CoV-2 IgG und einmal der CLIA mittels LIAISON® SARS-CoV-2 TrimericS IgG angewandt. Zudem fand eine Vergleichsmessung der Tests statt.
Im Allgemeinen stieg der Titer innerhalb der ersten 50 Tage an, da sich in dieser Zeit die IgG-Antikörper ab Tag 14 bilden, und erreichte das Maximum im Bereich 40-50 Tage. Danach fiel der Titer leicht bis auf 60 -70 % des Maximums, da die Antikörper nach und nach absterben.
Die Vergleichsmessung ergab einen linearen Zusammenhang von 64 % zwischen Generic Assays und LIAISON®. Bezogen auf die qualitative Aussage der Tests gab es eine 96 % Übereinstimmung der Ergebnisse.
Die vorliegende Arbeit untersucht die Erstellung prozeduraler Materialien in Hinblick auf die Verwitterung von Naturstein an einer Skulptur. Dazu werden die betrachteten Gesteinsarten zunächst hinsichtlich ihres Verwitterungsverhaltens untersucht. Beim Dokumentieren der Nachbildung der Materialien zeigt die Arbeit Vor- und Nachteile, sowie Grenzen der prozeduralen Methode auf. Betrachtet wird dabei auch die Realisierbarkeit der Parametrisierung. Weiterhin gibt die Arbeit einen Ausblick darauf, welche Vorgehensweise für welchen Anwendungsfall geeignet ist.
Diese Arbeit beschäftigt sich damit, verschiedene Methoden des maschinellen Lernens zu testen und mit der Frage, ob es damit möglich ist, auffällige Anmeldungen zu erkennen. Es ist von Interesse, spezielle abnormale Anmeldemuster zu erkennen, welche im Kontext eines Angriffes genutzt werden. Diese können anschließend verwendet werden, um Angreifer bzw. kompromittierte Nutzer aus einem Netzwerk zu identifizieren. Die Schwierigkeit, dementsprechende auffällige Anmeldungen zu erkennen, steigt dabei mit zunehmender Anzahl an Angriffen. Des Weiteren beeinflusst die Vielfalt in den Verhaltensweisen die Erkennung. Demzufolge werden verschiedene Methoden getestet, mehrere Szenarien simuliert und anschließend werden anhand eines echten Testfalls die Methoden bzw. das Verfahren validiert. Als Endergebnis der Arbeit entstehen eine Software und ein Verfahren zur Erkennung von auffälligen Anmeldungen.
In response to prevailing environmental conditions, Arabidopsis thaliana plants must increase their photosynthetic capacity to acclimate to potential harmful environmental high light stress. In order to measure these changes in acclimation capacity, different high throughput imaging-based methods can be used. In this master thesis we studied different Arabidopsis thaliana knockout mutants-and accessions in their capacity to acclimate to potential harmful environmental high light and cold temperature conditions using a high throughput phenotyping system with an integrated chlorophyll fluorescence measurement system. In order to determine the acclimation capacity, Arabidopsis thaliana knockout mutants of previously not high light assigned genes as well as accessions of two different haplotype groups with a reference and alternative allele from different countries of origin were grown under switching high light and temperature environmental conditions. Photosynthetic analysis showed that knockout mutant plants did differ in their Photosystem II operating efficiency during an increased light irradiance switch but did not significantly differ a week later under the same circumstances from the wildtype. High throughput phenotyping of haplotype accessions revealed significant better acclimation capacity in non-photochemical quenching and steady-state photosynthetic efficiency in Russian domiciled accessions with an altered SPPA gene during high light and cold stress.
Die Blutaltersbestimmung kann Aufschluss über die Tatzeit eines Verbrechens geben und ist damit von hohem forensischem Wert. Bisher gibt es noch keine etablierte Methode, um das Alter von ausgetretenem Blut zu bestimmen, da sie meistens sehr kostenaufwendig oder unzuverlässig sind. Das Einbeziehen der Umweltfaktoren stellt dabei eine weitere große Herausforderung dar. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Blut im Zeitraum von 21 Tagen unter dem Einfluss der Luftfeuchtigkeit untersucht. Hierbei werden besonders die alterskorrelierenden Features analysiert. Zu den alterskorrelierenden Features zählen die Oxyhämoglobin- und Methämoglobin-Peaks und die hypsochrome Verschiebung der Soret-Bande. Die Luftfeuchtigkeit wurde mit Hilfe eines Raspberry Pi’s gesteuert. Bei der Auswertung der Ergebnisse konnte festgestellt werden, dass das Oxyhämoglobin bei höherer Luftfeuchtigkeit zunächst langsamer oxidiert und dass die Verschiebung der Soret-Bande langsamer verläuft. Nach 21 Tagen ist jedoch kein Unterschied mehr zu erkennen.
Arthrose ist eine der häufigsten Gelenkkrankheiten, die im Alter auftritt. Es kommt dabei u.a. zu einer degenerativen Veränderung des Gelenkknorpels. Momentan existieren nur symptomatische Behandlungen. Ein neu erforschter regenerativer Therapieansatz ist die Injektion von „Nanofat“ in das arthrotische Gelenk. In dieser Arbeit wird Nanofat durch zwei verschiedene Aufreinigungesmethoden gewonnen: Variante eins mit der Tulipfilter und Variante zwei mit der Lipocube-Aufreinigung. Diese Arbeit vergleicht die Eigenschaften der adipösen Stammzellen miteinander, welche aus Variante eins und zwei gewonnen werden. Die adipösen Stammzellen werden dabei in Vitalität, Seneszenz, Apoptose, Proliferation, Migration, Genexpression und Lebende-Tote Zellen untersucht. Dabei hat sich gezeigt, dass es zwischen den beiden Aufreiningungsmethoden keine messbaren Unterschiede zwischen den adipösen Stammzellen gibt. Somit kann gesagt werden, dass die unterschiedlichen Aufarbeitungsmethoden die adipösen Stammzellen in der Weiterkultivierung nicht beeinflussen.
Soziale Netzwerke spielen eine große Rolle für die digitale Kommunikation. Menschen tauschen sich aus und teilen Informationen. Die große Anzahl an Nachrichten, die täglich veröffentlicht werden, stellt Entwickler vor ein großes Problem: den Mangel an Kontrolle. Obwohl es Regeln gibt, halten sich viele Nutzer nicht daran. Diese Problematik erfordert ein verbessertes System, welches toxische Inhalte erkennt und klassifiziert. Ziel der Arbeit war es, verschiedene Methoden für maschinelles Lernen zu kombinieren. Weiterhin wurden die Fragen beantwortet, was Toxizität in Verbindung mit sozialen Medien bedeutet und ob
Toxizität in einem linearen Zusammenhang mit Hasssprache steht. Das bestmögliche Ergebnis der Klassifizierung ist ein micro F1-Wert von 0.76192.
Immer häufiger greifen technikbegeisterte Personen zu Smart-Home Geräten für ihre eigenen vier Wänden. Durch diese Geräte, kann der Weg zur Tür abgenommen oder die Bestellung über eine Onlineplattform erleichtert werden. Der Nutzen dieser meist kleinen aber durchdachten komplexen Maschinen ist enorm. Um der Schnelllebigkeit entgegen zu wirken, werden immer kreativere Wege gesucht. IoT-Geräte ermöglichen das Ersetzen der lokalen Einstellung am Gerät selbst. Bspw. kann so die Heizungssteuerung auf dem Heimweg vorgenommen werden. Dadurch spielt eine klare Sicherheitsdefinition für den Umgang mit persönlichen Daten eine größer werdende Rolle. Hierbei stellt sich die Frage, wie anfällig solche Anlagen sind. Das Kernstück dieser Arbeit wird sich mit der Feststellung von möglichen Schwachstellen in Innogy Smart-Home-Geräten beschäftigen. Insbesondere werden Endgeräte untersucht, welche bereits Einzug in den Alltag gefunden haben. Ansätze der Informationssicherheit und der digitalen Forensik werden in realitätsnahen Szenarien aufgezeigt und analysiert. Es werden Richtlinien des Bundesamtes für Sicherheit in der Informationstechnik und gesetzliche Vorgaben berücksichtigt. Teile des Sicherheitskonzeptes werden transparent dargestellt.
Das Berechtigungssystem ist ein grundlegender Sicherheitsmechanismus der Android-Plattform. Diese Arbeit widmet sich diesem im Kontext der speziellen Bedrohung durch Android-Trojaner, welche durch die Modifikation legitimer Applikationen erstellt werden. Unter den Fragestellungen, inwiefern Android-Trojaner Systemberechtigungen benötigen und wie sie diese als trojanisierte Applikationen auf Applikationsebene erhalten können, werden die beiden Aspekte zusammengeführt und untersucht. Dazu erfolgt eine Analyse der Funktionsweise des Berechtigungssystems in aktuellen AndroidVersionen, welche sich auf die Dokumentation, den Android-Quelltext und praktische Versuche stützt.
Neben bestehender Literatur, die zur Beantwortung der Fragestellungen herangezogen wird, ist die Analyse der Verwendung von Berechtigungen in den Open-Source Trojanern AndroRAT und dem Metasploit-Android-Payload Teil der Arbeit. Die beiden Schadprogramme werden außerdem für die Trojanisierung existierender Applikationen verwendet. Dabei werden Möglichkeiten aufgezeigt, wie bei der Modifikation einer legitimen Applikation Berechtigungsanfragen hinzugefügt werden können. Zudem wird gezeigt, wie die Manipulation einer Kompatibilitätsangabe im Rahmen der Trojanisierung zu dem Erhalt der Berechtigungen führt.
In dieser Arbeit geht es um die Untersuchung eines auf wenige Kernmechaniken reduziertes Rollenspiel auf die Motivation des Spielers. Hierfür wurde anhand einer angefertigten Applikation eine quantitative Nutzerstudie mit sechs Probanden durchgeführt. Die Ergebnisse sind dabei gemischt ausgefallen und es konnte kein eindeutiger Beweis auf die Beeinflussung der Motivation durch das Testszenario festgestellt werden.
Die folgende Arbeit behandelt die Methoden digitaler Bildmanipulationen sowie die Erkennung solcher Manipulationen anhand etablierter Detektionsverfahren. Das Hauptaugenmerk liegt dabei auf der Planung und Implementierung einer Software zur automatisierten Detektion duplizierter Regionen innerhalb eines digitalen Bildes. Anschließend an diese Implementierung folgt eine detaillierte Auswertung der Detektionsergebnisse sowie eine Bewertung der Qualität der Software gegenüber bestehenden Verfahren.
Im Rahmen dieser Arbeit wurden zwei verschiedene Rührkesselreaktoren betrieben. Der Erste diente dazu, den Biogasbildungsprozess aus stickstoffreichen Substraten abzubilden. Im Laufe des Versuches wurde dem Reaktor durch die Nitrifikation/Denitrifikation-Verfahren stickstoffreduzierter Klarlauf hinzugefügt. Dabei wurde ein Anstieg der Methanausbeute und der Biogasbildung beobachtet. Der zweite Reaktor wurde als SBR (Sequencing Batch Reactor) betrieben, um das Anammox-Verfahren als alternative stickstoffreduzierende Methode bei Gärresten zu untersuchen. Dabei wurde am Ende des Versuchs ein Abbau des Ammoniumstickstoffes von ca. 20 % erreicht.
Sequences are an important data structure in molecular biology, but unfortunately it is difficult for most machine learning algorithms to handle them, as they rely on vectorial data. Recent approaches include methods that rely on proximity data, such as median and relational Learning Vector Quantization. However, many of them are limited in the size of the data they are able to handle. A standard method to generate vectorial features for sequence data does not exist yet. Consequently, a way to make sequence data accessible to preferably interpretable machine learning algorithms needs to be found. This thesis will therefore investigate a new approach called the Sensor Response Principle, which is being adapted to protein sequences. Accordingly, sequence similarity is measured via pairwise sequence alignments with different sequence alignment algorithms and various substitution matrices. The measurements are then used as input for learning with the Generalized Learning Vector Quantization algorithm. A special focus lies on sequence length variability as it is suspected to affect the sequence alignment score and therefore the discriminative quality of the generated feature vectors. Specific datasets were generated from the Pfam protein family database to address this question. Further, the impact of the number of references and choice of substitution matrices is examined.
In this thesis, we focus on using machine learning to automate manual or rule-based processes for the deduplication task of the data integration process in an enterprise customer experience program. We study the underlying theoretical foundations of the most widely used machine learning algorithms, including logistic regression, random forests, extreme gradient boosting trees, support vector machines, and generalized matrix learning vector quantization. We then apply those algorithms to a real, private data set and use standard evaluation metrics for classification, such as confusion matrix, precision, and recall, area under the precision-recall curve, and area under the Receiver Operating Characteristic curve to compare their performances and results.
Differentiation is ubiquitous in the field of mathematics and especially in the field of Machine learning for calculations in gradient-based models. Calculating gradients might be complex and require handling multiple variables. Supervised Learning Vector Quantization models, which are used for classification tasks, also use the Stochastic Gradient Descent method for optimizing their cost functions. There are various methods to calculate these gradients or derivatives, namely Manual Differentiation, Numeric Differentiation, Symbolic Differentiation, and Automatic Differentiation. In this thesis, we evaluate each of the methods mentioned earlier for calculating derivatives and also compare the use of these methods for the variants of Generalized Learning Vector Quantization algorithms.
Financial fraud for banks can be a reason for huge monetary losses. Studies have shown that, if not mitigated, financial fraud can lead to bankruptcy for big financial institutions and even insolvency for individuals. Credit card fraud is a type of financial fraud that is ever growing. In the future, these numbers are expected to increase exponentially and that’s why a lot of researchers are focusing on machine learning techniques for detecting frauds. This task, however, is not a simple task. There are mainly two reasons
• varying behaviour in committing fraud
• high level of imbalance in the dataset (the majority of normal or genuine cases largely outnumbers the number of fraudulent cases)
A predictive model usually tends to be biased towards the majority of samples, in an unbalanced dataset, when this dataset is provided as an input to a predictive model.
In this Thesis this problem is tackled by implementing a data-level approach where different resampling methods such as undersampling, oversampling, and hybrid strategies along with bagging and boosting algorithmic approaches have been applied to a highly skewed dataset with 492 idetified frauds out of 284,807 transactions.
Predictive modelling algorithms like Logistic Regression, Random Forest, and XGBoost have been implemented along with different resampling techniques to predict fraudulent transactions.
The performance of the predictive models was evaluated based on Receiver Operating CharacteristicArea under the curve (AUC-ROC), Precision Recall Area under the Curve (AUC-PR), Precision, Recall, F1 score metrics.
Embeddings for Product Data
(2022)
The E-commerce industry has grown exponentially in the last decade, with giants like Amazon, eBay, Aliexpress, and Walmart selling billions of products. Machine learning techniques can be used within the e-commerce domain to improve the overall customer journey on a platform and increase sales. Product data, in specific, can be used for various applications, such as product similarity, clustering, recommendation, and price estimation. For data from these products to be used for such applications, we have to perform feature engineering. The idea is to transform these products into feature vectors before training a machine learning model on them. In this thesis, we propose an approach to create representations for heterogeneous product data from Unite’s platform in the form of structured tabular records. These tables consist of attributes having different information ranging from product-ids to long descriptions. Our model combines popular deep learning approaches used in natural language processing to create numerical representations, which contain mostly non-zeros elements in an array or matrix called as dense representation for all products. To evaluate the quality of these feature vectors, we validate how well the similarities between products are captured by these dense representations. The evaluations are further divided into two categories. The first category directly compares the similarities between individual products. On the other hand, the second category uses these dense vectors in any of the above- mentioned applications as inputs. It then evaluates the quality of these dense representation vectors based on the accuracy or performance of the defined application. As result, we explain the impact of different steps within our model on the quality of these learned representations.
An einem Tatort lassen sich verschiedene Arten von Spuren finden. Die Blutspuren zählen dabei zu den wichtigsten. Sie lassen sich auf unterschiedliche Art und Weise analysieren. Eine Möglichkeit ist die Untersuchung des Blutalters, um beispielsweise Hinweise über den Zeitraum einer Tat zu erlangen. Schon seit dem 20. Jahrhundert suchen Wissenschaftler nach einer geeigneten Methode zum Ermitteln des Alters einer Blutspur. Bisher ist das aber noch keinem gelungen. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Schweineblut über einen Zeitraum von sechs Wochen bei gleichbleibenden Umwelteinflüssen untersucht. Im Vordergrund steht hierbei die alterskorrelierende Veränderung der Blutzusammensetzung. Das Hauptaugenmerk liegt vor allem auf den Peaks der Hämoglobinderivate und des Globins. Bei der Auswertung der Ergebnisse wurde festgestellt, dass all diese charakteristischen Hochpunkte auch nach sechs Wochen noch weiter ansteigen und sich somit die Zusammensetzung des Blutes weiterhin verändert.
Der technologische Fortschritt ermöglicht das Speichern von größeren Datenmengen. Dies hat zur Folge, dass Daten mehr Platz auf einem Datenträger einnehmen und die Wahrscheinlichkeit des Aufteilens einer Datei auf mehrere auf dem Datenträger verteilte Positionen steigt. Von dieser sogenannten Fragmentierung sind auch JPEG-Dateien betroffen, wobei sich die Frage stellt, wie ein Zusammensetzen der Fragmente ohne die notwendigen Informationen aus dem Dateisystem möglich ist.
Ziel dieser Masterarbeit ist es, eine prototypische Implementierung eines intelligenten Carving Algorithmus zur Rekonstruktion fragmentierter JPEG-Dateien zu entwickeln, welcher durch erzeugte Testszenarien evaluiert wird.
Um dieses Ziel zu erreichen, wird ein Programm erstellt, welches sich an dem Smart Carving-Prinzip orientiert und diverse Carving-Methoden einbezieht. Für die anschließende Beurteilung der Lauffähigkeit des Prototyps werden Szenarien zum Testen von Stärken und Schwächen entwickelt. Die Ergebnisse aus diesen werden durch eine Evaluationsstrategie bewertet.
Anhand der Ergebnisse wird deutlich, dass der entwickelte Prototyp noch viele Schwächen aufweist. Bei manchen Szenarien können vollständig korrekte Ergebnisse geliefert werden und die JPEG-Dateien rekonstruiert werden, bei anderen Szenarien sind die Ergebnisse unzureichend. Diese Ergebnisse und der Fakt, dass der Prototyp lediglich für kleine Datenmengen konzipiert und erprobt wurde, zeigen, dass ein Einsatz des Programms in einer realen Umgebung noch nicht möglich ist.