005.8 Internetkriminalität, Computersicherheit, Datensicherung, Computerforensik, Identitätsverwaltung
Refine
Document Type
- Bachelor Thesis (92)
- Master's Thesis (14)
- Diploma Thesis (3)
Keywords
- Computerforensik (49)
- Computersicherheit (37)
- Datensicherung (18)
- Android <Systemplattform> (3)
- Digitalisierung (3)
- Mobiles Endgerät (3)
- Rekonstruktion (3)
- Active Directory (2)
- Computerkriminalität (2)
- Firewall (2)
Institute
Vor dem Hintergrund der stetigen Digitalisierung gewinnen ebenfalls der Schutz von Daten und die Privatsphäre im digitalen Raum an Bedeutung. Insbesondere das Management digitaler Identitäten befindet sich im Umbruch. Zentralisierte Identitätsprovider haben begonnen, mit dem Konzept der Passkey-Technologien ein neues Authentifizierungsverfahren in ihre Systeme zu implementieren, welches künftig das Passwort ablösen soll. Das Konzept Self-Sovereign Identity (SSI) bietet ein dezentralisiertes System zur eigenständigen Identitätsverwaltung. Die Arbeit befasst sich mit der prototypischen Entwicklung einer erweiterbaren Schnittstelle zur Validierung digitaler Nachweise in einem SSI-Ökosystem in Form eines Plugins für das Content-Management-System WordPress. Dieses Plug-in soll eine alternative Authentifizierungsmethode zu Passkey-Technologien von Identitätsprovidern darstellen.
Diese Arbeit präsentiert ein Protokoll für vertrauliche Transaktionen auf Ethereum, das auf einer kontenbasierten Struktur und Paillier-Verschlüsselung basiert. Die Integration von Non-Interactive Zero-Knowledge Range Proofs (NIZKRP) verbessert die Sicherheit. Die Implementierung und Tests auf Ethereum zeigen vergleichbare Transaktionskosten (Sicherheitsparameter 40) im Vergleich zu Protokollen mit Bulletproofs. Bei einem Sicherheitsparameter von 128 (NIZKRP-Empfehlung) ist das Protokoll jedoch nicht anwendbar. Die Arbeit betont die Effizienz und Wettbewerbsfähigkeit, hebt jedoch die Herausforderung bei höheren Sicherheitsparametern hervor. Das Protokoll bildet eine solide Grundlage, erfordert jedoch weitere Optimierungen für breitere Anwendbarkeit.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung ob und warum die Anzahl von IT-Sicherheitslücken exponentiell steigt. In Zuge dessen wird der Zusammenhang zwischen der Entwicklung von Sicherheitslücken und der Entwicklung der Code-Länge über die Zeit untersucht. Um die Forschungsfrage zu beantworten, wurden CVE-Daten ausgewertet. Dabei wird nicht nur die allgemeine CVE-Entwicklung, sondern auch ausgewählte Software-Systeme im Speziellen betrachtet. Um die Code-Länge zu untersuchen, wurden die LOC der einzelnen Software-Systeme analysiert. Die Untersuchung ergab, dass die Entwicklung der CVE gesamt einen exponentiellen Trend verfolgt. Die CVE-Entwicklung der einzelnen Software-Systeme verfolgt im Gegensatz dazu in der Mehrheit einen linearen Trend. Auch die LOC-Entwicklung der Software-Systeme passt sich diesem Trend an. Somit zeigt sich, dass die drastische Entwicklung der Sicherheitslücken nicht ausschließlich durch eine drastische LOC-Entwicklung beeinflusst wird, sondern von verschiedenen Faktoren abhängt, die sich untereinander verstärken.
Die Auswertung von Kurznachrichten, die auf mobilen Endgeräten gespeichert sind, nimmt bei strafrechtlichen Ermittlungen immer mehr an Bedeutung zu. Häufig sind Ermittler hierbei mit umfassenden Nachrichtenmengen konfrontiert. Um einen Überblick zu erhalten, wäre eine kompakte Zusammenfassung der zahlreichen Nachrichten hilfreich. Eine Möglichkeit diese automatisiert zu erhalten, stellt die Themenmodellierung dar. Diese ist allerdings bei forensischen Kommunikationsdaten mit besonderen Herausforderungen verbunden. Zu diesen zählt die Tatsache, dass der Ermittler oft eine Erwartungshaltung an die Themen hat, wobei die für ihn interessanten Themen häufig nur zu einem geringen Anteil in den Daten vertreten sind. Um ihn bei dem Finden von Beweisen zu diesen Themen zu unterstützen, wurden zwei Methoden der halbüberwachten Themenmodellierung und Erweiterungen basierend auf Word Embeddings und paradigmatischen Relationen miteinander verglichen. Insbesondere für umgangssprachliche Kurznachrichten ist die Evaluierung der Themenmodellierung als schwierig anzusehen, da bisherige Studien gezeigt haben, dass gängige quantitative Evaluierungsmaße bei diesen nicht unbedingt die tatsächliche Interpretierbarkeit der Themen widerspiegeln. Daher bestand ein weiteres Ziel der Arbeit darin zu untersuchen, inwieweit die Ergebnisse einer regelmäßig angewendeten automatischen Evaluierungsmethode durch eine Nutzerstudie wiedergegeben werden. Insgesamt konnte festgestellt werden, dass nach der quantitativen Evaluierung die halbüberwachte Themenmodellierung unter Einbeziehung von paradigmatischen Relationen als besonders erfolgversprechend angesehen werden kann, während nach der Nutzerstudie vor allem die Word Embeddings die Ergebnisse der halbüberwachten Themenmodellierung verbessern konnten. Des Weiteren zeigte sich, dass keine Korrelation zwischen den Resultaten der automatischen Evaluierung und der Nutzerstudie vorlag.
Die vorliegende Arbeit beschäftigt sich mit der Umsetzung einer Viewer X-Tension für die Darstellung von ESE Datenbanken in X-Ways Forensics. Dazu wird vor allem der konkrete Aufbau und die Struktur einer ESE Datenbank analysiert und vorgestellt. Weiterhin werden die technischen Grundlagen der Software X-Ways Forensics und der X-Tensions-API zur Erstellung einer Erweiterung gelegt. Zudem werden die Schritte der Umsetzung aufgezeigt und die konkrete Programmimplementierung an Code-Beispielen erläutert.
Im Reverse Engineering und in der Malware-Analyse wurden bereits verschiedene Ansätze zur Visualisierung von Binärdaten entwickelt. Mit diesen lässt sich schnell ein Überblick über Dateien gewinnen, sodass beispielsweise verschiedene Regionen einer Datei identifiziert oder eine bösartige Datei einer Malware-Familie zugeordnet werden kann. In der vorliegenden Masterarbeit wird versucht, diese Ansätze auch sektorweise auf einen Datenstream anzuwenden. Dafür wird ein Demonstrator erstellt, mit dem Sektoren automatisiert nach Dateitypen klassifiziert werden können. Ziel ist es, einen Ansatz zur Verbesserung der aktuellen, signaturbasierten IT-forensischen Methoden zur Wiederherstellung von fragmentierten oder gelöschten Daten zu finden.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, ob die Programme Magnet AXIOM und Kipo Analyzer sich für die Klassifikation von Kinderpornographie eignen. Dazu wird folgende Forschungsfrage gestellt: Erkennen die Programme Magnet AXIOM und Kipo Analyzer ausreichend kinderpornographisches Material von gesicherten Asservaten, um die Anforderungen zur Entlastung von Ermittlern zu erfüllen? Zur Beantwortung dieser Frage wurde ein selbst zusammengestellter Datensatz mit den Programmen getestet. Hierbei erzielte das Programm Magnet AXIOM einen Recall von 70,13 % und eine Spezifität von 60,42 %. Im Vergleich erzielte der Kipo Analyzer einen Recall von 42,56 % und eine Spezifität von 97,5 %. Die Präzision und der F1-Score fiel bei beiden Programmen schlecht aus durch den unausgeglichenen Datensatz. Abschließend kann keine endgültige Aussage über die Eignung der Programme hinsichtlich der Klassifikation von Kinderpornographie gemacht werden. Die Programme müssten mit unterschiedlichen Datensätzen und Zusammensetzungen getestet werden.
Die folgende Arbeit befasst sich mit dem forensischen Informationspotential von Smart Home Security Geräten, in diesem Fall dem Starter-Kit der Firma Ring. Hierfür wurde die Funktionsweise des Systems genauer untersucht und es wurden Manipulationsversuche und Datensicherungen durchgeführt. Diese Manipulationen bezogen sich hier genauer auf die zwei internetfähigen Geräte, die Basisstation und die Kamera. Die Datensicherungen fokussierten sich insbesondere auf den allgemein gesicherten Daten und Hinweisen zu den Manipulationen.
Ziel der Arbeit ist es, innerhalb einer forensischen Analyse die Ablagestruktur der Chatanwendung Viber unter dem Betriebssystem iOS zu analysieren. Darüber hinaus sollen Dateien analysiert werden, um relevante Informationen zu Chats zu extrahieren und auswertbar zu machen. Bei der Recherche zum aktuellen Forschungsstand wurden kaum Arbeiten gefunden, welche eine tiefgehende forensische Analyse von Viber auf iOS-Geräten zum Gegenstand haben. Für die Auswertung wurden Testdaten in Form von Einzel- und Gruppenchats auf iOS-Geräten erstellt und die Geräte anschließend IT-forensisch ausgelesen. Durch die Verwendung des Auslesegerätes UFED Touch2 konnte die Ablagestruktur mittels des UFED-Readers analysiert und dokumentiert werden. Die Analyse der Dateien brachte Informationen aus den zwei Hauptdatenbanken 'Settings.data' und 'Contacts.data' hervor. Hierbei wurden alle Tabellen analysiert und Informationen zu den relevanten Spalten dokumentiert. Abschließend wurden für einen Leitfaden zur Rekonstruktion von Chats SQL-Befehle erstellt, welche zum einen eine Zusammenfassung von Informationen zu Konversationen und zum anderen eine Wiederherstellung von Chatverläufen der einzelnen Konversationen möglich machen sollen.
Die vorliegende Arbeit untersucht, wie eine Ontologie mobile Kommunikation für forensische Auswertungen abbilden kann und welche Chancen sich aus dieser Art von Repräsentation ergeben. Prinzipiell stellen Ontologien einen Lösungsansatz für die wachsenden Herausforderungen im Bereich der digitalen Forensik dar. Vor allem die Heterogenität und stark zunehmende Menge der auszuwertenden Daten stellt die Strafverfolgungsbehörden vor Probleme. Forensische Tools unterstützen bei der Extraktion und Analyse von Daten. Allerdings weisen sie in bestimmten Aspekten ihre individuellen Grenzen auf. Ontologien ermöglichen dabei die Interoperabilität zwischen forensischen Tools und somit die Kombination der jeweiligen Vorteile von diesen Tools. Somit können insbesondere (Teil-)Automatisierungen im Ermittlungsprozess realisiert werden, was zur Ersparnis von Zeit und Ressourcen führt. Darüber hinaus lassen sich anhand von Ontologien logische Schlussfolgerungen herleiten und weitere Methoden aus dem Bereich der künstlichen Intelligenz anwenden. Diese Arbeit verwendet die CASE-Ontologie als Grundlage zur Entwicklung einer Ontologie, welche mobile Kommunikation im Kontext forensischer Untersuchungen repräsentiert. Darüber hinaus wird im experimentellen Teil der Arbeit das Datenmodell einer forensischen Plattform zur Auswertung mobiler Kommunikation auf die entworfene Ontologie abgebildet. Zusätzlich wird ein semantischer Webserver prototypisch aufgesetzt, um einen Anwendungstest der Ontologie durchführen zu können.
Die vorliegende Arbeit beschäftigt sich mit der Erforschung des Datenvorkommens im Hinblick auf die Ermittlung flüchtiger Daten an ausgewählten Wireless Local Area Network (WLAN)-Routern. Diese werden im Hinblick auf strafrechtlich relevante Fragestellungen untersucht. Es werden die Möglichkeiten der methodisch und systematischen Datensicherung eruiert und wie diese gewonnen und ausgewertet werden können.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher der Webclients des Instant-Messenger-Dienstes Threema und des Social-Media-Dienstes Instagram aus forensischer Sicht betrachtet. Hierfür werden die Funktionsweisen der Anwendungen und die auf dem Gerät im RAM enthaltenen Artefakte forensisch analysiert und diskutiert. Anhand der aus dieser Arbeit gezogenen Erkenntnisse sollen zukünftige forensische Untersuchungen, die in Verbindung mit einer oder beiden dieser Anwendungen stehen, unterstützt werden, gefundene Artefakte zu identifizieren und interpretieren.
Diese Arbeit untersucht, die Herausforderungen bei der teilautomatischen Erstellung von Testdaten für die digitale Forensik. Insbesondere handelt es sich um Bildmetadaten im EXIF-Format, aus der Fotogalerie eines Smartphones, die mit GPS-Daten und zugehörigen Zeitstempeln für eine feste Route angereichert werden. Dazu wird auf Metadaten, Geokoordinaten und Zeitstempel eingegangen sowie der aktuelle Stand zu EXIF aufgezeigt. Mit diesem Wissen entsteht ein Programm, das die Testdaten erzeugt.
In einer Welt, in welcher die Anzahl der mit digitalen Geräten ausgeübten Straf-taten die zuständigen Behörden zu überrollen scheint, ist es an der digitalen Forensik, neue Wege der Verbrechensbekämpfung zu beschreiten. Um eine Viel-zahl an digitalen Spuren auszuwerten, benötigt es außerdem spezialisierter Werkzeuge und Methodiken. Das in Korrelation mit dieser Arbeit entwickelte Programm verfolgt das Ziel, einen bisher manuellen Ablauf in der forensischen Software „X-Ways Forensics“ zu automatisieren und somit Aufwand und Komplexität zu reduzieren. Genauer versucht die sogenannte „X-Tension“, eine Datei vom Dateityp „.vmdk“ innerhalb eines Falles ausfindig zu machen, um diese anschließend als neues für sich stehendes Asservat auswerten zu können. Die Arbeit zeigt dabei die Arbeitsweise des Programmes sowie Chancen für die Zukunft auf.
In dieser Arbeit soll sich mit der Möglichkeit beschäftigt werden, den Prozess zur Freischaltung von Firewallregeln zu vereinfachen. Dafür soll ein Programm entwickelt werden, welches diesen Prozess automatisiert und dadurch den schwierigen Prozess vereinfachen soll. Des Weiteren wurde recherchiert, welche Richtlinien zum Schutz des Netzwerkes erforderlich sind und mit Firewalls umgesetzt werden können. Die Implementierung der Richtlinien soll hier als Code erfolgen und es einfach machen, diese Richtlinien automatisch durchzusetzen. Mithilfe dieser als Code implementierten Richtlinien sollen Anträge zur Freischaltung von Firewallregeln geprüft und validiert werden. Wurde der Antrag zur Freischaltung einer Firewallregel erfolgreich validiert, soll die Firewallregel automatisch implementiert werden. Durch diese und weitere Automatisierungen soll die menschliche Interaktion möglichst reduziert werden. Dadurch soll Zeit gespart werden und der Prozess zur Freischaltung einer Firewallregel effizienter durchgeführt werden können. Dafür wurde ein Programm implementiert, welches als Studie dienen und ein Machbarkeitsbeweis darstellen soll.
Diese Arbeit beschäftigt sich mit der Erstellung eines Leitfadens für die Prüfung der Daten- und Cybersicherheitsrisiken für Medizinprodukte. Es werden die rechtlichen Grundlagen der Bewertung und die zugehörigen Empfehlungen dargestellt. Hierzu werden Empfehlungen aus Deutschland, der EU und der USA betrachtet und vergleichen. Die Umsetzung der Prüfung der Daten- und Cybersicherheitsrisiken wird mit Hilfe eines Beispiels erläutert und in der Folge daraus der zur Konformitätsprüfung wünschenswerte Umfang einer Dokumentation ermittelt. Für die Prüfung der technischen Angaben zur Risikobehandlung für Medizinprodukte, entsprechend der Empfehlungen des Bundesamtes für Sicherheit in der Informationstechnik, wurde zudem eine Einteilung in Schwierigkeitsgrade der Beurteilung vorgenommen.
Phishing Bedrohungen in Unternehmen : eine Untersuchung von Angriffstrends und Schutzmaßnahmen
(2023)
Diese Bachelorarbeit befasst sich mit Phishing Bedrohungen für Unternehmen, sowohl Angriffstrends als auch Schutzmaßnahmen.
Ziel der vorliegenden Arbeit ist es, bisher getroffene Schutzmaßnahmen zu analysieren und ihre Wirksamkeit anhand von zwei ausgewählten Fallbeispiele zu untersuchen. Dafür werden die Phishing Angriffe auf die amerikanischen Unternehmen „Twitter“ und „Uber“ genauer betrachtet und warum diese erfolgreich waren. Es soll beurteilt werden, ob die vorgestellten Leitfäden und Schutzmaßnahmen diese beiden Phishing Angriffe hätten verhindern können. Die Untersuchung zeigte, dass die gängigen Schutzmaßnahmen und das Einhalten von Leitfäden nicht ausgereicht haben, um die Unternehmen vor einem erfolgreichen Phishing Angriff zu schützen. Außerdem kommt dem Mensch bei der Bekämpfung von Phishing eine viel zu große Bedeutung zu und vernachlässigt das Handeln auf Managementebene.
In dieser Bachelorarbeit steht die Untersuchung eines IoT-Gerätes im Fokus. Das Smart Home Security Kit der Firma D-Link wird in allen Bestandteilen auf deren Funktionsweise getestet und analysiert. Das Vierkomponentensystem verfügt über eine Überwachungskamera, einen Fenster-/ Türsensor, einer Sirene
und einem Hub. Im Vordergrund der steht die Datensicherheit und die Zuverlässigkeit der Verwahrung von sensiblen Nutzerinformationen. Es findet die Untersuchung der Hard- und Software sowie der Cloud, App und Website statt. Übertragungsprotokolle und genutzte Sicherheitsstandards werden kritisch beleuchtet. Am Ende findet die Überprüfung der Hardware auf mögliche Manipulationen statt. Es soll ein Überblick über mögliche Vorangehensweisen und Tools gegeben werden, welche auf andere Systeme angewendet werden könnten.
Die vorliegende Arbeit beschäftigt sich mit den Fragen, welche Indikatoren für einer Kompromittierung (IoC) in Active Directory gefunden werden können, wo sich diese befinden und mit welchen Werkzeugen sie offline erfasst werden können. Das Ziel ist, diese Fragen mittels einer Übersicht über die Indikatoren einer Kompromittierung und einer Übersicht über relevante Dateien für eine forensische Untersuchung zu beantworten.
Für die Erstellung der Übersichten wurden Angriffsmethoden auf Active Directory nach relevanten Ereignissen analysiert. Diese Ereignisse wurden in einer Testumgebung nachgestellt und anschließend offline mit den recherchierten Werkzeugen analysiert.
Durch die Ergebnisse der Arbeit konnte gezeigt werden, welche IoCs in Active Directory grundsätzlich existieren können, wo sich diese befinden und mit welchen Werkzeugen die Indikatoren offline erhoben werden. Es wird ebenfalls ersichtlich, welche Indikatoren nicht erhoben werden können und warum dies so ist.
Der Grund für die eingeschränkte Offline-Erhebung von gewissen IoCs ist das Fehlen von Werkzeugen, die bestimmte Informationen aus der Datenbank offline extrahieren können.