Refine
Document Type
- Bachelor Thesis (52)
- Master's Thesis (4)
Keywords
- Computerforensik (56) (remove)
Institute
- Angewandte Computer‐ und Biowissenschaften (56) (remove)
Mittels GPM3 können komplexe DNA- Mischspuren analysiert und STR- Profile ausgewertet werden. Zudem können durch Berechnungen die Genotypen, die in einer Mischung vorliegen, voneinander differenziert werden. Vor allem komplexe Mischspuren stellen einen Schwerpunkt bei der Spurenuntersuchung dar. Eine Anwendung von GPM3 ist die komponentenweise Dekonvolution von DNA- Mischspuren, bei der die Profile der beteiligten Personen aufgetrennt und die Wichtungen aller möglichen Genotypen ausgezählt werden. Dabei werden die Genotypkonstellationen (GTK) basierend auf den Peakhöhen, der Degradationsstärke und stochastischen Effekten bei Einsetzten von geringen DNA- Mengen modelliert. Der von der Firma Qualitype vorgegebene Grenzwert für die Wichtung, ab welcher mit einer hohen Wahrscheinlichkeit angenommen werden kann, dass es sich bei dieser GTK um den richtigen Genotyp der beteiligten Person handelt, liegt bei 90 %. Folglich werden Untersuchungen im Rahmen dieser Arbeit zu diesem Grenzwert anhand von verschiedenen 2- Personen- Mischungen in unterschiedlichen Konzentrationen mittels der Dekonvolution mit dem vollständig- kontinuierlichen Modell durchgeführt.
In der Arbeit werden dazu die jeweiligen Abstände der Wichtungen in Prozent der GTK der beteiligten Personen jeder Mischung berechnet und überprüft, ob die am höchsten gewichteten Genotypen in GPM3 den richtigen Allelkombinationen der jeweiligen Person entsprechen. Hierbei wird der Abstand der Konstellation mit der größten Wichtung zur „wahren“ Konstellation berechnet. Aus den Mittelwerten der prozentualen Abstände soll anschließend der Ähnlichkeitswert der Wichtung, ab welchem noch mit sehr hoher Wahrscheinlichkeit die richtige GTK ausgegeben wird, ermittelt werden.
Das Ziel der Bachelorarbeit ist es, die Möglichkeiten und Grenzen der Dekonvolution von Mischspuren mit der GPM3- Software bei verschiedenen Analysebedingungen zu bewerten und einen Auswerteparameter in Abhängigkeit von den Abständen der Wichtungen in Prozent und den Konzentrationen der einzelnen Mischungen zu validieren. Zudem soll die Nachweisgrenze der Analysemethode untersucht werden, um eine Aussage über die Minimalmenge an einzusetzender DNA treffen zu können
Diese Arbeit widmet sich dem Vergleich forensischer Software in der mobilen Forensik. Das Ziel der Arbeit besteht darin, forensische Images mit mehreren Tools zu analysieren und die Ergebnisse gegenüberzustellen. Dabei wird insbe-sondere auf die Qualität der Ergebnisse und der auf die Analyse verwendete Zeitaufwand berücksichtigt. Der Vergleich schließt die Tools XRY von MSAB, Oxygen Forensic Detective von Oxygen Forensics und das Open-Source Tool Autopsy ein.
Diese Arbeit befasst sich mit dem Vergleich der forensischen Analyse von mobilen Endgeräten zwischen der Software Cellebrite Physical Analyzer, der Software Autopsy Digital Forensics und den Skripten aLEAPP und iLEAPP. Hierzu wurden zwei mobile Endgeräte mit den Betriebssystemen Android und iOS mit unterschiedlichen Anwendungen und Testdatensätzen versehen. Im Anschluss wurden die forensischen Datensicherungen durch die Softwareprodukte automatisiert aufbereitet. Die Ergebnisse der automatisierten Datenaufbereitungen wurden miteinander und mit den zu erwartenden Informationen verglichen. Hierbei konnte festgestellt werden, dass die Software Autopsy Digital Forensics und die Skripte aLEAPP und iLEAPP im Bereich der Aufbereitung mobiler Endgeräte, zum jetzigen Zeitpunkt, nicht die Ergebnisse der kommerziellen Software Cellebrite Physical Analyzer liefert.
In der vorliegenden Arbeit wird eine Methodik entwickelt, mit der ausgewählte forensische Software-Tools miteinander verglichen werden können. Dieser Ver-gleich basiert auf einem erstellten Image, welches diverse Artefakte beinhaltet. Auf Grundlage dieser Artefakte wird eine Bewertungsmatrix erzeugt, welche für den Vergleich der ausgewählten Forensik-Tools X-Ways, Axiom und Autopsy genutzt wird. Anhand der Ergebnisse, die durch die Matrix generiert wurden, lässt sich Axiom als bestes der drei getesteten Tools herausstellen. Hierbei muss allerdings berücksichtigt werden, dass die Beurteilung nach subjektiven Kriterien geschehen ist und keine eindeutige Aussage getroffen werden kann, ob ein forensisches Tool eine erfolgreiche Auswertung liefert
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, ob die Programme Magnet AXIOM und Kipo Analyzer sich für die Klassifikation von Kinderpornographie eignen. Dazu wird folgende Forschungsfrage gestellt: Erkennen die Programme Magnet AXIOM und Kipo Analyzer ausreichend kinderpornographisches Material von gesicherten Asservaten, um die Anforderungen zur Entlastung von Ermittlern zu erfüllen? Zur Beantwortung dieser Frage wurde ein selbst zusammengestellter Datensatz mit den Programmen getestet. Hierbei erzielte das Programm Magnet AXIOM einen Recall von 70,13 % und eine Spezifität von 60,42 %. Im Vergleich erzielte der Kipo Analyzer einen Recall von 42,56 % und eine Spezifität von 97,5 %. Die Präzision und der F1-Score fiel bei beiden Programmen schlecht aus durch den unausgeglichenen Datensatz. Abschließend kann keine endgültige Aussage über die Eignung der Programme hinsichtlich der Klassifikation von Kinderpornographie gemacht werden. Die Programme müssten mit unterschiedlichen Datensätzen und Zusammensetzungen getestet werden.
Die Auswertung von Kurznachrichten, die auf mobilen Endgeräten gespeichert sind, nimmt bei strafrechtlichen Ermittlungen immer mehr an Bedeutung zu. Häufig sind Ermittler hierbei mit umfassenden Nachrichtenmengen konfrontiert. Um einen Überblick zu erhalten, wäre eine kompakte Zusammenfassung der zahlreichen Nachrichten hilfreich. Eine Möglichkeit diese automatisiert zu erhalten, stellt die Themenmodellierung dar. Diese ist allerdings bei forensischen Kommunikationsdaten mit besonderen Herausforderungen verbunden. Zu diesen zählt die Tatsache, dass der Ermittler oft eine Erwartungshaltung an die Themen hat, wobei die für ihn interessanten Themen häufig nur zu einem geringen Anteil in den Daten vertreten sind. Um ihn bei dem Finden von Beweisen zu diesen Themen zu unterstützen, wurden zwei Methoden der halbüberwachten Themenmodellierung und Erweiterungen basierend auf Word Embeddings und paradigmatischen Relationen miteinander verglichen. Insbesondere für umgangssprachliche Kurznachrichten ist die Evaluierung der Themenmodellierung als schwierig anzusehen, da bisherige Studien gezeigt haben, dass gängige quantitative Evaluierungsmaße bei diesen nicht unbedingt die tatsächliche Interpretierbarkeit der Themen widerspiegeln. Daher bestand ein weiteres Ziel der Arbeit darin zu untersuchen, inwieweit die Ergebnisse einer regelmäßig angewendeten automatischen Evaluierungsmethode durch eine Nutzerstudie wiedergegeben werden. Insgesamt konnte festgestellt werden, dass nach der quantitativen Evaluierung die halbüberwachte Themenmodellierung unter Einbeziehung von paradigmatischen Relationen als besonders erfolgversprechend angesehen werden kann, während nach der Nutzerstudie vor allem die Word Embeddings die Ergebnisse der halbüberwachten Themenmodellierung verbessern konnten. Des Weiteren zeigte sich, dass keine Korrelation zwischen den Resultaten der automatischen Evaluierung und der Nutzerstudie vorlag.
Diese Arbeit untersucht, die Herausforderungen bei der teilautomatischen Erstellung von Testdaten für die digitale Forensik. Insbesondere handelt es sich um Bildmetadaten im EXIF-Format, aus der Fotogalerie eines Smartphones, die mit GPS-Daten und zugehörigen Zeitstempeln für eine feste Route angereichert werden. Dazu wird auf Metadaten, Geokoordinaten und Zeitstempel eingegangen sowie der aktuelle Stand zu EXIF aufgezeigt. Mit diesem Wissen entsteht ein Programm, das die Testdaten erzeugt.
Das Ziel der vorliegenden Bachelorarbeit besteht darin, die technischen und rechtlichen Aspekte von Cloudsicherungen für Strafverfolgungsbehörden zu beleuchten,um die aktuellen Gegebenheiten und somit eventuelle Defizite auf zu zeigen. Daher werden zu Beginn grundlegende Fakten benannt. Im Anschluss erfolgen praktische Untersuchungen bezüglich forensischer Sicherungsmethoden an PC und Mobiltelefon. Das Hauptaugenmerk liegt auf dem Zusammenschluss von Recht und Technik. Das Ergebnis bildet die Erarbeitung einer Handlungsempfehlung, bestehend aus Checkliste und Fragenkatalog.
Diese Arbeit beschäftigt sich mit der Untersuchung von Bild- und Videomaterial auf Anzeichen von Manipulationen. Erst werden Methoden vorgestellt, die bei regulären Manipulationen zu Erfolgen führen können. Anschließend werden mit den gleichen Methoden Deep-Fake Videos untersucht, um zu prüfen, ob diese einfachen Methoden auch bei Deep-Fakes funktionieren können.