Refine
Document Type
- Bachelor Thesis (703) (remove)
Year of publication
Keywords
- Computerforensik (52)
- Softwareentwicklung (42)
- Videospiel (42)
- Computersicherheit (37)
- Computerspiel (23)
- Datensicherung (17)
- Maschinelles Lernen (17)
- Virtuelle Realität (15)
- Forensik (14)
- Programmierung (13)
Institute
- Angewandte Computer‐ und Biowissenschaften (703) (remove)
The games industry has significantly grown over the last 30 years. Projects are getting bigger and more expensive, making it essential to plan, structure and track them more efficiently.
The growth of projects has increased the administrative workload for producers, project managers and leads, as they have to monitor and control the progress of the project in order to keep a permanent overview of the project. This is often accompanied by a lack of insight into the project and basic communication within the team. Therefore, the goal of this thesis is to enhance conventional project management methods with process structures that occur frequently in game development.
This thesis initially elaborates on what project management in the game industry actually is: Here, methods are considered, especially agile methods and progress tracking prac-tices, which were created for software development and have become a standard in game development. Subsequently, an example is used to demonstrate how process management can function within the development of video games. Based on this, the ideal is depicted, which is implemented and used in a tool at the German games studio KING Art GmbH. This ideal is compared with expert interviews in order to verify its gen-eral validity in the industry.
By integrating process structures, the administrative effort can be reduced, communica-tion within game development can be simplified, while the current project status can be permanently presented. This benefits both project management and leads, as well as the entire team. Further application tests of this theory would have to be organized to check scalability and to draw comparisons to other applications.
Diese Arbeit behandelt die Wirkungsweise von optischen Reizen in Videospielen, sowie deren Einfluss auf instinktive Handlungen von Spielern. Es soll dabei untersucht werden, ob sich diese Reize von elementaren Prinzipien erfolgreicher Level Design Ansätze ableiten lassen. Hierfür wird auf Grundlage einer umfassenden Recherche eine modulare Testkammer im Stil eines Puzzlespiels konzipiert und umgesetzt. Die Probanden werden bei der Lösung acht verschiedener Bereiche beobachtet und protokolliert sowie zu einzelnen Aspekten befragt. Bei der Auswertung dieser stellen sich Farbunterschiede und starke Farbkonstraste als wirksamste optische Reize heraus.
Für eine akkurate Analyse der Auswirkungen auf instinktive Handlungsmuster, sind umfangreichere Vor-Untersuchungen in Bereichen der Psychologie von Instinkten und visuellen Wahrnehmung notwendig.
Innerhalb dieser Arbeit wurde geprüft, ob die Sensorgröße einer digitalen Kamera einen Einfluss auf Umfang und Qualität von photogrammetrisch erstellter 3D Modelle besitzt. Konkret wurden die Kameras Lumix GC91-M und Nikon D7500 für diese Arbeit verwendet. Dafür wurden zwei verschiedene Versuchsaufbauten entworfen. Im ersten Versuchsaufbau wurde geprüft, wie zuverlässig die Wiedergabe von dreidimensionalen Objekten auf großflächigen Strukturen ist. Im zweiten Versuchsaufbau wurde die Wiedergabe von komplexen dreidimensionalen Strukturen überprüft. Mit der Software "Agisoft Metashape" wurden automatisiert 3D Modelle erstellt. Im Rahmen dieser Arbeit konnte gezeigt werden, dass die Sensorgröße einen geringen Einfluss auf die Modelle besitzt. Dieser zeigt sich vor allem bei geringen Abständen (einen Meter) zu dem fotografierten Objekt.
Die Digitalisierung überschreitet jedes Jahr neue Grenzen, besonders in Zeiten von Covid-19. Dadurch werden vermehrt Privatcomputer für die Arbeit genutzt und vice versa. Durch die Vermischung von Privat- und Unternehmensdaten gewinnen immer mehr Cyberkriminelle Zugang zu sensiblen Daten mit welchen sie Unternehmen und Privatpersonen angreifen könnten. Zusätzlich professionalisieren sich die Täter und verwenden sich stetig verbessernde Schadsoftwaren. Um mögliche Angriffsvektoren zu simulieren wird eine Testumgebung erstellt, zum Testen solcher Attacken. Diese Arbeit wird zur Erschaffung einer möglichst sicheren Arbeitsumgebung erstellt. Schlussendlich sollen mit dem Wissen von Angriffsvektoren Leser, Studierende und Fachpersonal weitergebildet werden.
Untersuchungen zu Chancen und Limits von Texture Maps im Umfeld der Entwicklung digitaler 3D Spiele
(2017)
Der Fortschritt in Computerhard- und software ermöglicht der Spieleindustrie, immer technisch versiertere digitale Spiele zu entwickeln. Besonders der Bereich des 3D und 2D Designs profitiert davon, obgleich immer noch Grenzen vorzufinden sind, welche in Hinsicht auf die Generierung von Game Assets zu berücksichtigen sind. Die vorliegende Arbeit untersucht dabei den aktuellen Forschungsstand und analysiert diesbezüglich Chancen und Limits sogenannter Texture Maps zur Erzeugung von Detail auf dreidimensionalen Objekten. Die Resultate dieser Untersuchung sollen am ausgewählten Beispiel der Videospielreihe Tomb Raider aufgezeigt werden.
Innerhalb dieser Bachelorarbeit werden Adaptive Musik, unterschiedliche Techniken der Videospielmusik und Elemente der Musiktheorie vorgestellt. Um die adaptiven und klanglichen Fähigkeiten der unterschiedlichen Techniken, welche sich während der Entwicklung der Videospiele etabliert haben, aufzuzeigen, wird final eine Übersicht darüber erstellt.
Die hochschuleigene Veranstaltungsreihe beta (Base of Technology, Entertainment and Arts) ist eine studentisch organisierte Fachkonferenz, welche seit 2015 von den Medieninformatik-Studenten des fünften Semesters im Rahmen des Abschlussprojekts des Moduls Game Development organisiert wird. Begleitet durch einen vergleichsweise kurzen Projektzeitraum von ca. 5 Monaten und einem zu erwartenden kleinen Eventmanagement-Team stehen die verantwortlichen Organisatoren dabei in jedem Jahr vor der anspruchsvollen Aufgabe, neben vielen anderen Tätigkeitsfeldern seine Öffentlichkeitsarbeit zu leiten.
Der Fokus dieser Abschlussarbeit besteht darin, einen Leitfaden zu konzipieren, der zukünftige Eventmanagement-Teams in dieser Aufgabe unterstützt. Dabei erarbeitet der Verfasser wirtschaftsnahe Methoden zur Entwicklung einer Public-Relations-Strategie sowie konkrete Vorgehensweisen zur Vorbereitung, Durchführung sowie Nachbereitung der PR eines Events. Die Etablierung von strategischen Evaluationsplänen strebt die Möglichkeit zur effektiven (stark begrenzten) Ressourcenplanung an.
Digitale 3D-Modelle finden zunehmend auch im Bereich der Kriminalistik Anwendung, da sie nicht nur zur dauerhaften Dokumentation eines Tatortes beitragen, sondern auch wertvolle Erkenntnisse hinsichtlich des Tatherganges liefern können. Die vorliegende Arbeit befasst sich mit der Überprüfung des Generierungsprozesses derartiger 3D-Modelle hinsichtlich der in der IT-Forensik geltenden Richtlinien für die Reproduzierbarkeit und Dokumentation. Diese Untersuchung ist von Bedeutung, da die digitale 3D Tatortrekonstruktion nicht nur für die Ermittler selbst Hinweise liefert, sondern auch vor Gericht maßgebliche Beweiskraft haben kann, insofern sie die Anforderungen erfüllt. Für die Überprüfung wurden die beiden Softwarelösungen Agisoft Metashape und Meshroom genutzt, um zahlreiche Modelle unterschiedlicher Parametersets zu generieren. Anschließend wurden die mit gleichen Ausgangsbedingungen generierten Modelle hinsichtlich ihrer Ähnlichkeit verglichen, um so die Reproduzierbarkeit zu untersuchen. Mithilfe der Handbücher wurden zudem die einzelnen Prozessschritte näher betrachtet und somit die Möglichkeiten der Dokumentation überprüft.
Die Modellierung einer Tathergang-Simulation kann wichtige Hinweise und Ergebnisse zum Tatgeschehen liefern. Die gegenwärtige Technik befindet sich immer noch in der Entwicklungsphase. In dieser Arbeit wurde geprüft, ob das Game Engine Programm Unity für die Nutzung von Tathergang-Simulationen, basierend auf Menschmodellen, geeignet ist. Dafür wurde ein Fallbeispiel hinzugezogen, um mit dessen Hilfe eine Ragdoll in verschiedenen Simulationsszenarien testen zu können. Die modellierte Ragdoll wurde im Hinblick auf die Anpassungsfähigkeit an individuelle Menschmodelle getestet. Außerdem fand eine Berechnung des Impulses und der daraus resultierenden Geschwindigkeiten statt, die während der Simulationen entstanden sind.
In dieser Arbeit soll die Erweiterung eines bestehenden Spielprototypen durch visuell anreichernde Effekte vorgenommen und deren Auswirkung auf das Spielerlebnis untersucht werden. Dazu wird eine Testumgebung geschaffen, in der Tester mehrmals denselben Abschnitt in verschiedenen Intensitätsstufen der gestalteten Effekte durchspielen. Anschließend halten die Testpersonen ihre gesammelten Erfahrungen in ihrem jeweiligen Testdokument fest, welche schließlich ausgewertet werden, um die Auswirkung auf das Spielerlebnis qualifizieren zu können.
In dieser Arbeit soll es um die Digitalisierung von Asservaten zur nachfolgenden Simulation im digitalen Raum handeln. Das Hauptaugenmerk soll dabei auf der Evaluation der Übertragbarkeit von Relationen zwischen den genannten Asservaten liegen. Zu zeigen soll sein, dass beim Anziehen einer Hose an einen Körper Relationen in Form individueller Falten entstehen, welche zum einen durch die Digitalisierung nicht verloren gehen sollen. Zum anderen soll analysiert werden inwieweit diese Relationen als Nebenprodukt bei dem Nachbau einer digitalen Anzieh-Simulation mit Hilfe der Digitalisate entstehen. Die Qualität dieser Relationen wird dabei im Vergleich zu den real-weltlichen Relationen Vergleichen. Neben der Hose als erstes Asservat wird sich außerdem einer Kleiderpuppe als zweites Asservat gewidmet. Die Kleiderpuppe bildet dabei eine Abstraktion zu einem menschlichen Körper auf Grund von Vereinfachungen dar. Auch wenn die Forensik über eine große Vielfalt an Methoden zur computergestützten Aufnahme, Analyse und Rekonstruktion von Spuren verfügt zeigt sich ein großer Bedarf hinsichtlich Techniken in Bezug auf die computergestützte Modellierung. Des Weiteren soll vor allem das Hauptaugenmerk von biometrischen Merkmalen wie beispielsweise Fingerabdrücken auf weitere wichtige Bestandteile eines Tatortes wie die Kleidung gerichtet werden. Mit Bezug auf diese Aussagen soll diese Arbeit zeigen, dass die Forensik zum aktuellen Zeitpunkt nicht über die benötigten Methoden verfügt, weshalb Methoden der Film- und Spieleindustrie benötigt werden. Eine spätere Evaluation soll dabei der Nutzen dieser Methoden hervorgehoben werden. Bei diesen Betrachtungen ist vor allem der Unterschied wichtig, dass bei der Film- und Spieleindustrie die gewählte Perspektive entscheidend für den Realitätsgrad der Simulierungen ist, wohingegen in der Forensik stets der höchste Realitätsgrad eines ganzen Abbildes angestrebt wird. Um den Nutzen in der Forensik zu analysieren wird der enthaltene Wahrheitsgehalt der Methoden evaluiert. So können zukünftig diese Erkenntnisse als Grundlagen für die Entwicklung eigener Methoden im Fachbereich der Forensik genutzt werden.
Mikrospektralphotometrie : Nachweis und vollständige Eliminierung von Blutspuren auf Textilfasern
(2022)
Der Nachweis des Blutes, seien es noch so minimale Mengen, ist bei den polizeilichen Ermittlungen von sehr hoher Bedeutung. Für den Nachweis sehr geringer Mengen Blut auf einzelnen Textilfasern wird die Mikrospektralphotometrie eingesetzt. Um den vorherrschenden Kenntnistand und eine Verifizierung dieser Methode ermöglichen zu können, werden verschiedene, mit Blut präparierte Faserarten, mit dieser Technik untersucht. Zudem werden verschiedene Reinigungsmittel getestet, um eine zerstörungsfreie Reinigung der Fasern von dem Blut zu ermöglichen. Damit kann das Farbspektrum der Fasern ohne die Beeinflussung von Blutanhaftungen aufgenommen werden. Dieses Spektrum ist in den polizeilichen Ermittlungen wichtig, um Spurenfasern dem Vergleichsmaterial zuordnen zu können.
Der Einsatz digitaler Mittel in der Tatortrekonstruktion soll in der Zukunft eine große Stütze in der Verbrechensaufklärung werden. Die Rekonstruktion des Bewegungsablaufs eines Opfers, ist als Bewegungsanalyse ein großer Teil dieses Forschungsgebietes. Um eine möglichst natürliche und anatomische korrekte Simulation der Bewegungsabläufe zu ermöglichen, werden Ragdollmodelle benötigt. Diese Arbeit befasst sich mit der Optimierung des Erstellungsprozesses und des Aufbaus dieser bereits bestehenden Ragdollmodelle, in der aktuellen forensischen Tathergangsrekonstruktion.
Im Rahmen dieser Arbeit wurde ein mikrofluidischer Chip mit dem speziellen Design für ein reversibles Vakuumbonding sowie der Fähigkeit zur hydrodynamischen Fokussierung entwickelt. Die Anwendung erfolgte mit der Zielstellung, DNA Origami mithilfe dieses mikrofluidischen Setups auf einer Oberfläche zu immobilisieren.
In dieser Arbeit wurden neuartige Proteasen aus psychrotoleranten Bakterienstämmen isoliert und auf ihre biochemischen Eigenschaften charakterisiert. Des Weiteren konnten S8 Familie Proteasen Gene amplifiziert werden und Unterschiede in der Aminosäuresequenz konnten in Zusammenhang mit den biochemischen Eigenschaften der Proteasen in Verbindung gebracht werden.
In dieser Arbeit geht es um die Validierung von Richard Bartles Modell der Spielerarchetypen in einem Einzelspieler-Videospiel. Das Modell wurde für die Entwicklung des Spiels Explorer Bot angewendet. Die Validität des Modells wurde anschließend über zwei Faktoren bestimmt. Zum einen wurden die Meinungen über Explorer Bot der Spieler mittels einer Umfrage aufgezeichet. Der andere Faktor besteht aus der Existenz der Archetypen unter den Spielern Explorer Bots.
Diese Arbeit beschreibt das methodische Vorgehen bei einem Penetrationstest. Am praktischen Beispiel einer Unified Communication Infrastruktur, mit Komponenten des Herstellers innovaphone und Linphone, wird eine Sicherheitsanalyse demonstriert. Dabei wird die Konzeption und Durchführung, sowie der Umgang mit identifizierten Schwachstellen betrachtet. Insbesondere werden Techniken zum Ausnutzen von Voice-over-IP Schwachstellen gezeigt, der technische Hintergrund erläutert und Gegenmaßnahmen vorgestellt. Abschließend folgt eine Diskussion über eine mögliche Gestaltung einer sicheren Unified Communications Infrastruktur.
Die Dokumentation eines kriminalistisch relevanten Tatortes ist eines der wichtigsten Bestandteile der forensischen Untersuchung. Dafür dienen heute unter anderem Laserscanner. In dieser Arbeit wird ein Ablauf für die Erstellung eines 3D-Modells aus Laserscannerdaten von der Erstellung der Scandaten bis zur Verarbeitung dieser in der Software auch anhand von Fallbeispielen erläutert. Dafür dienen FARO Laserscanner Focus 3D X 130 und die Software FARO SCENE. Außerdem werden die entstandenen Modelle evaluiert und der Aspekt des Zeitaufwandes betrachtet.
Die vorliegende Bachelorarbeit behandelt das Thema Leichendaktyloskopie im Rahmen der Identifizierung von unbekannten Toten. Dabei wird zunächst auf die Grundlagen der Daktyloskopie eingegangen. Im zweiten Teil werden verschiedene Leichenerscheinungen und Arten sowie die speziellen und Standardmethoden der Leichendaktyloskopie erläutert. Der praktische Teil dreht sich um den Vergleich zwischen Fingerabdrücken von lebenden und verstorbenen Personen. Dafür wurden in verschiedenen Testreihen Fingerabdrücke mithilfe von Fingerabdruckscannern aufgenommen und diese anhand von fünf Kriterien bewertet. Es soll herausgefunden werden, ob signifikante Unterschiede zwischen den Fingerabdrücken von lebenden und verstorbenen Personen bestehen.
Diese Bachelorarbeit erforscht den Videospielentwicklungsprozess und dessen fallspezifischen Schwierigkeiten für Ein-Mann-Spielentwickler. Mithilfe der Fachliteratur wird die konventionelle Konstellation in der Videospielindustrie für mehrköpfige Teams dargestellt. Die davon hergeleiteten, potentiell kritischen Gegebenheiten der Videospielentwicklung für Ein-Mann-Spieleentwickler werden anhand von Expertenaussagen aufgelöst und mit denen für Entwicklerteams verglichen. Die Analyse zeigt, dass trotz umfassenderen Kompetenzansprüchen und höheren Belastungsquellen die Ein-Mann-Spieleentwicklung ein verhältnismäßig motivierteres Produktivitätspotential besitzt.
In dieser Arbeit wurde die Entwicklung eines neuen Extraktionsverfahrens für Cannabinoide in Aufgüssen von hanfhaltigen Teeerzeugnissen beschrieben. Es wurden Aufgüsse, welche ausschließlich durch den Zusatz von Wasser hergestellt wurden und Aufgüsse, welche durch den Zusatz von fetthaltigen Zutaten wie Sahne und Speiseöl hergestellt wurden, betrachtet. Des Weiteren wurde der Einfluss fetthaltiger Komponenten auf die in hanfhaltigen Tees enthaltenen Cannabinoide Δ9-Tetrahydrocannabinol und Δ9-Tetrahydrocannabinol-9 -Carbonsäure A untersucht.
Modularität in 3D-Videospielumgebungen und Techniken zur Verwendung und Minimierung der Nachteile
(2017)
Diese Arbeit thematisiert die Vorteile und Nachteile der Verwendung von modularen Asset-Sets sowie den Arbeitsablauf bei der Erstellung dieser in einer Echtzeit-3D-Umgebung. Am Ende sollen der Produktionsaufwand der Assets sowie die zu erwartende Performance besser eingeschätzt werden können. Zudem soll der Leser Zugriff auf Techniken erhalten, mit denen sich die Nachteile durch die Verwendung von modularen Assets minimieren lassen.
In dieser Arbeit wird ein Messgerät zur Bestimmung von emotionalen Erregungszuständen vorgestellt.
Dieses soll eine Anwendung in der Untersuchung von Probanden in VR-Umgebungen finden. Hierdurch stellen sich Anforderungen, die von klassischen Messgeräten nur begrenzt erfüllt werden.
Die somit erfassten Vitaldaten benötigen eine Verarbeitung, bevor aus ihnen Rückschlüsse gezogen werden können. Hierfür werden drei verschiedene Algorithmen verwendet. Die so gewonnen Ergebnisse werden untereinander und mit professionell gewonnen Daten verglichen.
Diese Arbeit befasst sich mit der Erstellung einer Vorgehensweise für das Durchführen von Sicherheitstests von Cloud-Infrastrukturen des Typs Microsoft Azure. Dafür werden anfangs der grundlegende Aufbau und die technische Realisierung der genannten Infrastruktur erarbeitet. Dies beinhaltet eine Feststellung der potenziellen Angriffsfläche nach außen. Ebenso geschieht eine Erfassung und Kontextualisierung des bereits bestehenden Wissens in Bezug auf Sicherheitstests von Azure-Cloud-Umgebungen. Im Detail umfasst dies die Generierung einer Übersicht über anerkannte und erprobte Vorgehensweisen, Best Practices, verfügbare und zu verwendende Tools sowie häufige Sicherheitslücken in Azure Umgebungen. Darüber hinaus müssen offenkundige Grenzen innerhalb bestehender gesetzlicher Regularien sowie technischer Implementierungen für die Erstellung des Konzepts erfasst werden. Im Anschluss werden die erlangten Informationen genutzt, um vereinheitlicht eine Guideline zu entwerfen, nach welchem ein strukturierter Sicherheitstest einer Azure-Cloud-Infrastruktur durchgeführt werden kann. Letztendlich erfolgt eine vergleichende Diskussion der vorliegenden Feststellungen mit bestehenden anderen Vorgehensweisen, um diese Arbeit einzuordnen.
In der vorliegenden Arbeit werden neue Pulver als Alternative für das Rußpulver hergestellt, geprüft und bewertet. Ziel ist es ein für den Anwender gesünderes, kostengünstiges und einfach erhältliches Pulver zu entwickeln. Hierfür wurden unterschiedliche Alltagsmaterialien verwendet. Die dafür angewendeten Grundlagen und Methoden werden erklärt und evaluiert.
Die vorliegende Arbeit befasst sich mit den Anforderungen zur Verbesserung der Mitarbeiterzufriedenheit und -effizienz anhand der Webanwendung des SYSTEMHAUS am Neumarkt. Dazu erfolgt die Recherche gängiger Methoden im Bereich der User Experience. Mit den theoretischen Grundlagen wird der aktuelle Entwicklungsstand analysiert. Es erfolgt eine Evaluation, aus welcher ein Problemkatalog erstellt wurde. Kern der Arbeit ist die Erstellung eines Kriterienkataloges mit konkreten Maßnahmen zur Verbesserung der User Experience. Diese Maßnahmen werden mit Hilfe eines Prototyps visualisiert.
Die Daten auf Mobilgeräten besitzen als Beweise in kriminalpolizeilichen Ermittlungsverfahren eine große Bedeutung. Besonders interessant sind dabei die Chats von diversen Instant-Messaging-Diensten. Aufgrund der stetigen technischen Weiterentwicklung der Smartphones und der Sicherheitsarchitektur des Android-Betriebssystems wird es jedoch zunehmend erschwert bzw. unmöglich, diese Chats mit den klassischen forensischen Sicherungsverfahren zu extrahieren. In der vorliegenden Arbeit wird daher die Entwicklung eines Tools zur Sicherung von Chats über die Benutzerschnittstelle beschrieben. Die angewandte Methodik erstellt dafür Screenshots über die Android Debug Bridge. Diese werden anschließend mit einer Texterkennungs-Software weiterverarbeitet, um die Durchsuchbarkeit der Chatinhalte für die Ermittler sicherzustellen.
Die vorliegende Arbeit beschäftigt sich mit der Umsetzung einer Viewer X-Tension für die Darstellung von ESE Datenbanken in X-Ways Forensics. Dazu wird vor allem der konkrete Aufbau und die Struktur einer ESE Datenbank analysiert und vorgestellt. Weiterhin werden die technischen Grundlagen der Software X-Ways Forensics und der X-Tensions-API zur Erstellung einer Erweiterung gelegt. Zudem werden die Schritte der Umsetzung aufgezeigt und die konkrete Programmimplementierung an Code-Beispielen erläutert.
Die Idee des Autors dieser Bachelorarbeit, sich mit der Entwicklung eines Tools zur Detektion falsch positiver Zeitstempel in Zeitreihen zu beschäftigen, formte sich während seiner Tätigkeit für die Abteilung IT-Forensik [int18c] der intersoft consulting services AG.
„Die intersoft consulting services AG ist spezialisiert auf Beratungsleistungen in den Bereichen Datenschutz, IT-Sicherheit und IT-Forensik [int18b].“
Gerade in dem Geschäftsumfeld der IT-Forensik ist häufig die Erstellung einer Zeitreihe nötig um eine IT-Forensische Analyse voranzutreiben. Da die intersoft consulting services AG hauptsächlich im Unternehmensfeld tätig ist, ist besonders das Analysieren von Desktoprechnern beim Verdacht der Weitergabe von firminternen Daten von Relevanz. Dabei hilft die Erstellung einer Zeitreihe, um die Vorgänge auf dem Desktoprechner nachvollziehen zu können. Dabei ist es möglich, auf manipulierte, falsch positive Zeitstempel zu stoßen, welche die forensische Analyse erschweren und verfälschen können.
Das entwickelte Tool detectFPTimetamps.py kann dabei helfen, den Prozess der Analyse durch eine Zeitreihe zu vereinfachen und zu erleichtern, indem die falsch positiven Zeitstempel detektiert werden. Das Tool ist in Python 3 geschrieben und enthält die Suite Plaso/log2timeline, TSK (R) und das Tool analyzeMFT.py.
So wird ein Tool geschaffen, welches einer ständigen Anpassung an den Stand der Technik und dann das Dateisystem benötigt.
Die vorliegende Bachelorarbeit befasst sich mit dem Gerichtssaal der Zukunft. Besonders durch Auswertung von Literatur wird dargestellt, wer in einem Gerichtssaal mit welchen Aufgaben agiert und wie der Strafprozess abläuft. Die Spuren und Beweise, die den Ablauf des Strafverfahrens im Wesentlichen beeinflussen, werden deshalb genauer betrachtet. Dabei wird zwischen analogen und modernen digitalen Spuren unterschieden. Zum Schluss wird geklärt warum Monitore bereits in jedem Gerichtssaal enthalten sein sollten und welche weiteren möglichen Veränderungen im Gerichtssaal vollzogen werden könnten, um modernen Methoden, wie der 3D-Tatortrekonsturktion, gerecht zu werden.
Vor Ihnen liegt die Bachelorarbeit „Prototypische" Systemintegration und Evaluation von Open Source Sprachmodellen zur automatischen Spracherkennung gesprochener deutscher Texte“. Durch mein Praktikum im Bereich der Audioanalyse und Transkribierung kam ich auf die Idee, mich ausführlicher mit dem Thema zu beschäftigen. Ziel war es, “robuste“ Spracherkenner zu finden und verschiedene Ansätze zu präsentieren, die für das Aufgabengebiet der Forensik von Nutzen sein könnten. Die Nachforschungen waren nicht immer einfach, da die vorhandenen freien Spracherkenner Projektarbeiten via Github sind und diese kompliziert zu verstehen bzw. zu implementieren sind. Doch nach einer umfangreichen Analyse der zur Verfügung stehenden Modelle gelang es mir, die Forschungsfrage zu beantworten.
In dieser Arbeit wurde der Einfluss der Molekülgröße von per- und polyfluorierten Alkylsubstanzen auf den Summenparameter AOF mittels eines ungekoppelten Systems im AOF-Gesamtverfahren untersucht. Dazu wurden drei käuflich erworbene PFAS-Standards ausgewählt und daraus selbst hergestellte PFAS-Standardlösungen und PFAS-Kombinationslösungen analysiert. Es wurde insbesondere der Durchbruch der im Anreicherungsschritt genutzten Aktivkohle durch eine LC-MS-Einzelstoffanalytik der Waschlösungen untersucht. Aus den Ergebnissen wurden Aussagen zum Sorptionsverhalten der untersuchten PFAS bei der Anreicherung an der Aktivkohle abgeleitet und dahingehend Grenzen des AOF-Gesamtverfahrens hinsichtlich der Quantifizierung von PFAS aufgezeigt.
In dieser Arbeit wird die Auswirkung der landwirtschaftlichen Nutzung im Nahbereich der Gewässer auf den Blattabbau in kleinen Fließgewässern der Agrarlandschaft untersucht. Hierzu wurde ein Freilandversuch an zwölf Messstellen in Deutschland durchgeführt, um den Blattabbau durch Makroinvertebraten und Mikroorganismen zu bestimmen. Die Abbauraten wurden auf einen Zusammenhang mit der landwirtschaftlichen Nutzung des Nahbereichs der Gewässer, der Ausprägung von allgemeinen abiotischen Umweltstressoren und der Dichte und Artzusammensetzung der Zerkleinerer überprüft.
The Blockchain is a technology which has the capabilities to change the way, the world operates. As promising as this may be, there are still many challenges which do not exist or are way simpler to solve in conventional software solutions. Services which are offered over the blockchain suffer from so called Block-confirmation-times where the customer simply has to wait till the transaction is confirmed. In this paper possible solutions to that problem will be examined and challenges that arise from the specific criteria of the Ethereum Blockchain will be analyzed.
Das Lehrmodul „Datenrepräsentation“ wird im 3 Semester in den Studiengängen der Informatik an der Hochschule Mittweida durchgeführt. In den Vorlesungen werden dabei verschiedene Datenrepräsentationstechnologien vorgestellt. Zur praktischen Umsetzung dieser Technologien finden außerdem eine Reihe von Praktikumsveranstaltungen statt. Diese Arbeit behandelt die Verbesserung und Erweiterung ausgewählter Praktikumsinhalte des Lehrmoduls Datenrepräsentation. Bestehende Praktikumseinheiten werden zunächst hinsichtlich der Struktur analysiert. Danach werden Verbesserungsmöglichkeiten erläutert und schließlich realisiert. Im Rahmen dieser Arbeit werden außerdem neue Praktikumseinheiten konzipiert, welche unter anderem die Technologien JSON und RESTful Webservices behandeln. Es werden neue Praktikumsanleitungen erstellt sowie Beispielprogramme implementiert, welche in den Praktikumsveranstaltungen des Lehrmoduls eingesetzt werden können.
Digitaler Fingerabdruck PC
(2017)
Die vorliegende Arbeit befasst sich mit der Grundlagenentwicklung zur Erzeugung digitaler Fingerabdrücke eines PC Nutzers. Über eine Herleitung durch digitale Spuren werden Features identifiziert, die durch einen Nutzer am PC individualisiert werden können. Mit Hilfe eines selbstentwickelten Demonstrators werden diese erhoben und anschließend mögliche Vergleichsprozesse vorgestellt.
Die folgende Arbeit befasst sich mit dem forensischen Informationspotential von Smart Home Security Geräten, in diesem Fall dem Starter-Kit der Firma Ring. Hierfür wurde die Funktionsweise des Systems genauer untersucht und es wurden Manipulationsversuche und Datensicherungen durchgeführt. Diese Manipulationen bezogen sich hier genauer auf die zwei internetfähigen Geräte, die Basisstation und die Kamera. Die Datensicherungen fokussierten sich insbesondere auf den allgemein gesicherten Daten und Hinweisen zu den Manipulationen.
Die Motion Capture Technologie wird immer häufiger zur Erstellung von realistisch wirkenden Animationen in Studios hinzugezogen. Die folgende Arbeit soll die Unterschiede zwischen dieser Technologie und der herkömmlichen 3D Keyframe Animation eruieren und dabei insbesondere auf die Entwicklung des AAA-Independent Titels “Hellblade“ eingehen, um dies an einem praktischen Beispiel zu ermessen.
In dieser Arbeit soll sich mit der Möglichkeit beschäftigt werden, den Prozess zur Freischaltung von Firewallregeln zu vereinfachen. Dafür soll ein Programm entwickelt werden, welches diesen Prozess automatisiert und dadurch den schwierigen Prozess vereinfachen soll. Des Weiteren wurde recherchiert, welche Richtlinien zum Schutz des Netzwerkes erforderlich sind und mit Firewalls umgesetzt werden können. Die Implementierung der Richtlinien soll hier als Code erfolgen und es einfach machen, diese Richtlinien automatisch durchzusetzen. Mithilfe dieser als Code implementierten Richtlinien sollen Anträge zur Freischaltung von Firewallregeln geprüft und validiert werden. Wurde der Antrag zur Freischaltung einer Firewallregel erfolgreich validiert, soll die Firewallregel automatisch implementiert werden. Durch diese und weitere Automatisierungen soll die menschliche Interaktion möglichst reduziert werden. Dadurch soll Zeit gespart werden und der Prozess zur Freischaltung einer Firewallregel effizienter durchgeführt werden können. Dafür wurde ein Programm implementiert, welches als Studie dienen und ein Machbarkeitsbeweis darstellen soll.
Diese Arbeit beschreibt eine Anwendung zur Extraktion und Verarbeitung von Ereignisprotokollen unter Microsoft Windows. Sie erfasst hierfür die Konzeption, den Aufbau sowie deren Funktionsweise und geht dabei auch auf die entwickelten Werkzeuge der Anwendung ein. Zielsetzung war die Bereitstellung wenig verbreiteter Werkzeuge für die Ereignisprotokollanalyse, wobei besonderes Augenmerk auf eine Nutzung im Kontext von Incident-Response-Fällen gelegt wurde.
Die A12 Businessanwendung der Firma mgm technology partners GmbH ist modellgetrieben. Damit die Architektur grafisch dargestellt werden kann, wird ein Layout-System benötigt, an das unterschiedliche Anforderungen gestellt werden. Sie umfassen unter anderem die Minimierungen der Knotenüberschneidungen, der Kantenüberschneidungen und der Biegungen der Kanten.
In der vorliegenden Arbeit werden bereits existierende Layout-Algorithmen betrachtet. Dabei wird besonders darauf geachtet, wie sich diese an die gestellten Anforderungen anpassen lassen. Es stellt sich heraus, dass die Layouts dazu jeweils unterschiedlich gut geeignet sind. Um eine Messbarkeit der Ästhetik zu ermöglichen, werden Metriken definiert.
Es werden zwei Layouts gewählt, welche zur Umsetzung aller Anforderungen besonders geeignet sind. Dabei handelt es sich um das Radial Baum Layout und das kraftgesteuerte Layout, das bereits ein gutes Layout darstellt. Es kann gezeigt werden, dass mithilfe von Anpassungen eine deutliche Verbesserung der Ästhetik von Layouts erreicht wird.
Als Ergebnis der Arbeit entsteht eine Implementierung des kraftgesteuerten Layouts, welche Knotenüberschneidungen fast vollständig eliminiert, ohne dabei andere Aspekte der Graphendarstellung zu stören.
Offshore Kriminalität : Herausforderungen in der Bekämpfung von Steuerhinterziehung und Geldwäsche
(2022)
Die vorliegende Arbeit befasst sich mit der Analyse der verschiedenen Bekämpfungs- und Präventionsmöglichkeiten für Geldwäsche und Steuerhinterziehung. Das Hauptziel ist dabei die Untersuchung von Problemen, die bei der derzeitigen Umsetzung solcher Maßnahmen auftreten, vor allem wenn die Straftaten mithilfe von Offshore-/ Briefkastenfirmen begangen wurden.
Diese Bachelorarbeit behandelt die Entwicklung des Film Noir, von seinen Vorläufern bis hin zu seinen Nachfolgern beziehungsweise Weiterentwicklungen im Neo Noir. Unter Neo Noir werden dabei sowohl Filme als auch andere narrative Medien verstanden, die sich inhaltlich mit entsprechenden Thematiken befassen. Der Fokus liegt dabei auf modernen Videospielen und deren Vergleich mit zum Neo Noir gehörigen Spielfilmen. Untersucht werden vor allem die zentralen Motive von Noir-Erzählungen. Die Analyse findet anhand von je zwei besonders exemplarischen Filmen und Spielen statt. Dabei baut sie auf Kategorien auf, die zuvor unter Berücksichtigung der Fachliteratur erarbeitet wurden.
In this work, the task is to cluster microarray gene expression data of the cyanobacterium Nostoc PCC 7120 for detection of messenger RNA (mRNA) degradation patterns. Searched are characteristic patterns of degradation which are caused by specific enzymes (ribonucleases) allowing a further biological investigation regarding biochemical mechanisms. The mRNA degradation is part of the regulation of gene expression because it regulates the amount and longevity of mRNA, which is available for translation into proteins. A particular class of RNA degrading enzymes are exoribonucleases which degrade the molecule from its ends, whereby a degradation from the 5’ end, the 3’ end or from both ends is theoretically possible.
In this investigation, the information about exoribonucleolytic degradation is given in a microarray data set containing gene expression values of 1,251 genes. The data set provides gene expression vectors containing the expression values of up to ten short distinct sections of a gene ordered from the genes 5’ end to its 3’ end. For each gene, expression vectors are available for both nitrogen fixing and non-nitrogen fixing conditions, which have to be considered separately due to biological reasons. Accordingly, after filtering and preprocessing, two datasets for clustering are obtained consisting of 133 ten-dimensional expression vectors. The similarity of the expression vectors is judged by a newly correlation based similarity measure and compared with the results obtained by use of the Euclidean distance. A non-linear transformation of the correlations was applied to obtain a dissimilarity measure. By choice of parameters within this transformation a user specific differentiation between negative and positive correlated gene expression vectors and an adequate adjustment regarding the noise level of gene expression values is possible.
Clustering was performed using Affinity Propagation (AP). The number of clusters obtained by AP depends on the so-called self-similarity for the data vectors. This dependence was used to identify stable cluster solutions by self-similarity control. To evaluate the clustering results, Median Fuzzy c-Means (M-FCM) was used. Further, several cluster validity measures are applied and visual inspections by t-distributed Stochastic Neighbor Embedding (t-SNE) as well as cluster visualization are provided for mathematical interpretation analysis of clusters.
To validate the clustering results biologically, the found data structure is checked for biological adequacy. A deeper investigation into the mechanisms behind mRNA-degradation was achieved by use of a RNA-Seq data set. Contained 40 (base pair) bp long reads for non-nitrogen fixing and nitrogen fixing conditions were assembled using bacteria-specific ab-initio assembly of Rockhopper. Thus, mRNA (transcript)-sequences of the clustered genes are obtained. A further investigation of the untranslated regions (UTRs) is performed here due to the assumption that exoribonucleases recognize specific transcript-sequences outside of the annotated gene regions as their binding sites. These UTRs need to be analyzed regarding sequence similarity using motif-finding algorithms.
Eine Untersuchung des Netzwerkverkehrs von 4 verschiedenen mobilen Applikationen mit Hilfe der Comminity Edition der Burp Suite der Firma PortSwigger auf sicherheitsrelevante Schwachstellen sowie das Aufzeigen der Grenzen bei der die Burp Suite zur Untersuchung von Netzwerkverkehr verwendet werden kann.
Das Programm WhatsAppOn ist ein in Python geschriebenes, kommandozeilenbasiertes Programm, welches das Tracken des WhatsApp-Online-Status einer Person auf verschiedenen Betriebssystemen ermöglicht. Das Programm wurde auf den Betriebssystemen Windows und Linux getestet. Die Testphase umfasst eine Dauer von neun Wochen. Nach der Testphase wurden die Daten mittels eines Programmes weiterverarbeitet. Die Daten konnten daraufhin ausgewertet werden. Bei der Auswertung stellte sich heraus, dass Schlafphasen der Testperson festgestellt werden können. Arbeitszeiten der Testperson ließen sich nur teilweise ermitteln.
Die vorliegende wissenschaftliche Arbeit befasst sich mit der Fragestellung, ob ausgewählte Ansätze des Datenmanagements in verteilten Systemen einsatzfähig sind und somit zu einer Optimierung des Systems führen. Hierzu werden die Ansätze des Datenmanagements in Bezug auf ein bereits gegebenes verteiltes System betrachtet. Diesbezüglich lassen sich drei Aspekte des Datenmanagements adressieren und anhand einer exemplarisch ausgewählten Technologie die Einsatzfähigkeit des gewählten Ansatzes in Bezug auf das verteilte System belegen. Ziel in diesem Kontext ist anhand von ausgewählten Technologien der Übertragung, der persistenten Speicherung und der Verteilung und Virtualisierung von Daten deren Einsatzfähigkeit in einem gegebenen verteilten System zu prüfen und deren Optimierungspotential für das System aufzuzeigen. Innerhalb der folgenden sechs Kapitel beinhaltet Kapitel 1 die Einleitung inklusive Motivation, Zielstellung und Aufbau. Kapitel 2 fokussiert auf die theoretischen Grundlagen und Rahmenbedingungen sowie deren Erläuterungen. Inhalt von Kapitel 3 sind die Analyse der gegebenen Problemstellung und die Ableitung benötigter Anforderungen sowie die darauf aufbauende Konzepterstellung. Diese beinhaltet überdies die Technologieauswahl und aus dem Konzept resultierende Testfälle. Kapitel 4 dient zur Darstellung des Implementationsprozesses der gewählten Technologien. Kapitel 5 stellt darüber hinaus die Durchführung und Auswertung der erstellten Testfälle und die Gegenüberstellung von Vertretern der persistenten Speicherung von Daten dar. In Kapitel 6 ist eine Zusammenfassung der Arbeit vorzufinden, die den Abschluss der Arbeit darstellt und einen Ausblick für weitere mögliche Änderungen am gegebenen System gibt.
In der vorliegenden Arbeit geht es darum, herauszufinden, ob es möglich ist, die Heldenreise nach Joseph Campbell, auf Erklärvideos anzuwenden. Dabei wer-den die verschiedenen Formen des Storytellings analysiert, sowie erörtert, was ein gutes Erklärvideo ausmacht. Die Heldenreise wird weiter analysiert, um festzustellen, inwieweit die Heldenreise als Blaupause benutzt werden kann. Auf Basis dieser Blaupause wird ein Erklärvideo im Lernbereich erstellt und mit Hilfe einer Umfrage ausgewertet, ob es sinnvoll ist, diese Vorlage zu nutzen.
In der vorliegenden Arbeit werden drei Verfahren zum Nachweis von Legionella spec. auf ihre Einsatzfähigkeit in belasteten Wässern untersucht. Es werden theoretische Aus-sagen zum Thema Legionellen gemacht sowie die prinzipiellen Grundlagen der Metho-den - Kulturverfahren, ScanVIT® Legionella-Test und LegiolertTM-Test - dargestellt. Die Ergebnisse von untersuchten Kühlwasser- und Abwasserproben werden anschlie-ßend gegenübergestellt.
Das Ziel der vorliegenden Bachelorarbeit war es, ein Vorgehen zur systematischen Analyse von Spielmechaniken, welche darauf abzielen Gewohnheiten bei den SpielerInnen durch die Nutzung operanter Konditionierung, zu entwickeln. Außerdem sollten durch die Analyse verschiedener Mechaniken bestimmte Muster, die bei der Verwendung dieser Methoden auftreten, herausgearbeitet werden. Dazu wurde ein Fragenkatalog auf Basis der theoretischen Grundlagen der Gewohnheitsbildung, sowie der operanten Konditionierung entwickelt und auf verschiedene Beispiele angewandt. Das entwickelte Vorgehen stellte eine gute Grundlage für die Diskussion der betrachteten Mechaniken dar. Folgende Muster konnten durch die Analyse gefunden werden: Für das Erzeugen eines regelmäßigen Verhaltens wird das Zielverhalten in fixierten Abständen verstärkt, Verstärkung wird häufiger genutzt als Bestrafung um ein Spielverhalten zu konditionieren, für die Zielgruppe der Core Gamer wird die stattfindende Konditionierung eher verborgen und die Motivatoren Angst, Schmerz, soziale Anerkennung und soziale Ablehnung werden seltener genutzt als Hoffnung und Genuss. Die Bachelorarbeit ist nicht nur für die Spieleentwicklung interessant, sondern auch für den bewussten Konsum von Videospielen und für die gesetzliche Regulierung der betrachteten Methoden.
Ziel der vorliegenden Bachelorarbeit ist es, über das Thema Verschlüsselungstrojaner aufzuklären und dabei auf eine mögliche Prävention durch die Produkte Sandstorm und Intercept X der Firma Sophos einzugehen. Dabei wird besonders auf die Gefahren und Präventionsmöglichkeiten im Allgemeinen eingegangen sowie eine Sicherheitsanalyse im Themenspezifischen Kontext durchgeführt. Weiterhin wird der Anbieter Sophos mit anderen Anbietern verglichen und anhand von verschiedenen Parametern bewertet.
Instant Messenger gehören zu den am häufigsten verwendeten Applikationen auf mobilen Endgeräten. Sie werden von nahezu allen Altersgruppen genutzt, dabei verwenden eine Vielzahl der Nutzer diese täglich zum Austausch von textuellen Nachrichten, Sprachnachrichten oder multimedialer Dateien. Die Anzahl der Nutzer nimmt seit Jahren kontinuierlich zu. Einer der verbreitetsten Anwendungen ist „Threema“, welche von 22 Prozent der Befragten in Deutschland genutzt wird. Weltweit beträgt die Anzahl der Nutzer elf Millionen. Im Kontext forensischer Untersuchungen wird die Bedeutung der Rekonstruktion von Artefakten von Instant Messenger-Diensten immer größer, da über diese auch ein Austausch von Informationen durch Täter, Opfer und Zeugen von Straftaten stattfindet. Solche Artefakte umfassen Bild- und Videomaterial sowie Standorte oder Textnachrichten. Diese können hilfreich sein, um den Tathergang zu rekonstruieren.
In der vorliegenden Bachelorarbeit werden die Artefakte der Instant Messengers „Threema“ anhand von Beispieldaten aufbereitet und ausgewertet. Dabei stehen Chatverläufe, ausgetauschte Standorte und Kontaktinformationen im Fokus, wobei sie keine Entschlüsselung der Daten oder Rekonstruktion von multimedialen Daten oder gelöschte Daten umfasst. Die Untersuchungen ergaben, dass die Daten in den SQLite- Datenbanken ThreemaData.sqlite und Threema.sqlite-wal abgelegt werden.
Die vorliegende Arbeit befasst sich mit der Automatisierung des Schreibens von Unit-Tests. Das Hauptziel ist es für den Bereich iOS eine Lösung umzusetzen und diese auszuwerten. Dabei wird der Codegenerator Sourcery verwendet und die Templates für das Generieren der Unit-Tests in den verschiedenen Templatesprachen umgesetzt. Die Umsetzung sowie die verschiedenen Templatesprachen werden ausgewertet, um die Basis für weitere Entwicklung zu schaffen.
In einer Welt, in welcher die Anzahl der mit digitalen Geräten ausgeübten Straf-taten die zuständigen Behörden zu überrollen scheint, ist es an der digitalen Forensik, neue Wege der Verbrechensbekämpfung zu beschreiten. Um eine Viel-zahl an digitalen Spuren auszuwerten, benötigt es außerdem spezialisierter Werkzeuge und Methodiken. Das in Korrelation mit dieser Arbeit entwickelte Programm verfolgt das Ziel, einen bisher manuellen Ablauf in der forensischen Software „X-Ways Forensics“ zu automatisieren und somit Aufwand und Komplexität zu reduzieren. Genauer versucht die sogenannte „X-Tension“, eine Datei vom Dateityp „.vmdk“ innerhalb eines Falles ausfindig zu machen, um diese anschließend als neues für sich stehendes Asservat auswerten zu können. Die Arbeit zeigt dabei die Arbeitsweise des Programmes sowie Chancen für die Zukunft auf.
Die vorliegende Arbeit setzt sich mit der Windows 10 Timeline auseinander. Da diese erst vor kurzem entwickelt und von Microsoft veröffentlich wurde, gibt es wenige forensische Analysen. Ziel ist es, die Windows 10 Timeline und ihre Datenbank genauer zu betrachten. Es soll unter anderem herausgefunden werden, welche Daten die Datenbank überhaupt speichert, wie diese Daten in die Tabellen gespeichert werden und wie die Tabellen in den Datenbanken miteinander arbeiten. Weiterhin soll der forensische Wert der Windows 10 Timeline erforscht werden. Demnach ist ein weiteres Ziel, die Relevanz der Windows 10 Timeline in digital forensischen Ermittlungen zu untersuchen.
StyleGAN2: Eine Analyse und dessen Übertragbarkeit auf die
Erzeugung synthetischerGanzkörperbilder
(2020)
Die vorliegende Bachelorarbeit befasst sich mit der Analyse der künstlichen Intelligenz Style-GAN2. Dabei richtet sich der Fokus zuerst auf den Aufbau von StyleGAN und im weiteren Verlauf auf die Weiterentwicklung StyleGAN2. Mit StyleGAN2 lassen sich fotorealistische Bilder von nicht existierenden Menschen, Tieren oder anderen Objekten erzeugen, z. B. menschliche Porträts, Katzen, Autos, Pferde und Kirchen. Bisher haben sich nur wenige Arbeiten mit der Erzeugung fotorealistischer Ganzkörperbilder von nicht existierenden Menschen auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Erzeugung synthetischer Ganzkörperbilder mit StyleGAN2. Diesbezüglich werden aus verschiedenen Arbeiten ideale Datensatz-, Bild- und Modelmerkmale abgeleitet und eine Vorgehensweise zur Erzeugung eines idealen Bilddatensatzes erläutert. Dieser Bilddatensatz wird zum Trainieren von StyleGAN2 benötigt. In einer Schritt für Schritt Anleitung wird das genaue Vorgehen zum Trainieren und Erzeugen synthetischer Ganzkörperbilder mit StyleGAN2 erklärt. Die vorliegende Arbeit soll als Anleitung zum Erzeugen synthetischer Ganzkörperbilder mit
StyleGAN2 dienen. Diese kann für verschiedene Bereiche genutzt werden, z. B. für den ECommerce, die Filmindustrie oder zur Bekämpfung von Straftaten.
Diese Arbeit thematisiert das Zusammenspiel verschiedenster Projektmanagement Ansätze mit den Psychologischen Persönlichkeitstypen nach dem Myers-Briggs-Typenindikator.
Es wird hierbei auf die Erstellung eines dynamischen Evaluationstools eingegangen und den konkreten Hintergedanken zur Fragenerstellung selbiger. Ziel war es ebenfalls die Arbeitsmoral und Vorstellungen einzelner Teammitglieder zu verbessern. Außerdem ist eine Verbindung der Arbeitsstile und Persönlichkeitstypen eine große Chance, Teams zu optimieren und die Produktivität zu steigern
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
Die vorliegende Bachelorarbeit hatte zum Ziel, die auf der Kläranlage Schönerlinde bestehende Aktivkohleanlage zur Reinigung schwefelwasserstoffbelasteter Abluft zu optimieren. Dafür wurden sechs Aktivkohlen, mit unterschiedlichen Eigenschaften, in einer Versuchsanlage getestet. Es konnten drei unimprägnierte, zwei imprägnierte und eine dotierte Aktivkohle für die Experimente ausgewählt werden. Über die Ermittlung der Standzeiten und der Konzentrationen an Schwefelwasserstoff, die in den knapp sechs Wochen über die Kohle strömten, wurden die Beladungen berechnet. Somit konnten alle Aktivkohlen miteinander verglichen werden. Die Ergebnisse zeigten, dass die derzeit in der Aktivkohleanlage verwendete imprägnierte Kohle, DGF 4 KI 2 Bio von der Firma Carbo Tech, nicht die beste ist. Mit Kosten von 77,6 Tsd. € pro Jahr ist die dotierte Aktivkohle Dopetac sulfo 100® von der Firma Adfis die wirtschaftlichste Kohle. Diese überzeugte mit langen Standzeiten, der höchsten Beladung an Schwefel und dem günstigsten Preis.
Die vorliegende Arbeit beschäftigt sich mit der Analyse und dem Nachweis von unberechtigten RDP Zugriffen in Windows Netzwerkumgebungen. Dafür werden alle technischen Grundlagen zum Verständnis des RDP geklärt und mögliche
Angriffsszenarien sowie das Vorgehen von Angreifern aufgezeigt. Anschließend werden Indikatoren für unberechtigte Zugriffe erläutert und präventive Maßnahmen zum Schutz dargelegt.
In der vorliegenden Bachelorarbeit wurde ein Prototyp einer Software konzipiert und implementiert, die es ermöglicht, eine Active Directory Domain nach potenziellen Schwachstellen zu durchsuchen und deren Ausnutzbarkeit zu testen. Dabei simuliert die Software das Vorgehen eines Penetrationstesters, um zu erörtern, ob ein solches Tool diesen ersetzen kann. Die Arbeit beschreibt das Vorgehen des Autors während der Programmierung dieser Software sowie die Funktionsweise des Programms. Durch die Entwicklung und Reflektion dieses Tools konnte gezeigt werden, dass menschliche Penetrationstester deutliche Vorteile gegenüber automatisierten Programmen aufweisen und solche Tools aufgrund einiger Faktoren nur unterstützend, aber nicht ersetzend, verwendet werden können.
Die vorliegende Bachelorarbeit befasst sich mit dem modernen Fahrzeug, das sich im Wandel der Digitalisierung zu einem datenverarbeitenden und stark mit der Umwelt vernetzten System entwickelt hat. Besonders durch die Auswertung von Literatur wird aufgezeigt, welche Risiken mit der zunehmenden Digitalisierung eines Fahrzeugs einhergehen
Die vorliegende Arbeit betrachtet die Möglichkeiten zur Sicherung von Foto- und Videobeiträgen aus sozialen Netzwerken, um diese im Rahmen der Strafverfolgung als Beweismittel nutzbar zu machen. Vier ausgewählte Sicherungsmethoden werden in einem Sicherungsversuch angewendet und im Anschluss miteinander verglichen. Schließlich wird aus den so ermittelten positiven Eigenschaften der Methoden eine hypothetische optimale Methode formuliert, welche für eine zukünftige Anwendung implementiert werden könnte.
Die Bachelorarbeit behandelt die automatische Überprüfung hinsichtlich "Indicators of Compromisse" auf Linux-Systemen.
Sie beschreibt die Anfertigung eines forensischen Hilfstools welches die Aufgabe der automatisierten Überprüfung so weit wie möglich übernehmen soll. Hierbei waren 26 Indicators of Compromise als Grundlage gegeben, welche im Rahmen der Arbeit betrachtet werden. Das forensische Hilfstool setzt sich im Ergebnis aus zwei Hauptskripten zusammen, wovon eines zur Datenerhebung auf dem zu untersuchenden System dient, das andere zur Datenanalyse auf einem separaten Analysesystem. Die Arbeit stellt für jeden der betrachteten Indikatoren ausführlich dar wie eine automatisierte Überprüfung erfolgt, und falls nicht möglich ist, wodurch diese eingeschränkt wird und welche Schritte manuell erfolgen müssen. Als Endergebnis der Arbeit wird festgehalten, dass für alle Indikatoren mindestens eine Teilautomatisierung umsetzbar ist. Eine komplette Automatisierung für alle Indikatoren ist nicht möglich. Jedoch gelingt es durch das Hilfstool die manuelle Arbeit entscheidend zu verkürzen und zu erleichtern.
Leichte Sprache bietet Menschen mit eingeschränktem Leseverständnis die Möglichkeit der selbstständigen Informationsbeschaffung. Der Übersetzungsprozess verläuft überwiegend intellektuell und ohne technische Unterstützung. Die vorliegende Arbeit beschäftigte sich mit der Optimierung
eines zur Unterstützung des Übersetzungsprozesses entwickelten Annotationstools für Leichte Sprache. Dabei sollte geprüft werden, ob anhand von UI-Designpattern sowie visuellen Anpassungen Verbesserungen der User Experience hervorgerufen werden konnten.
Diese Bachelorarbeit beschäftigt sich mit der Analyse des Bussystems FlexRay. Dieses System wird vor allem für sicherheitskritische Aspekte im Fahrzeug eingesetzt. Somit kann das FlexRay über das Leib und Leben des Fahrers und aller Verkehrsteilnehmer mitwirken. Gerade in heu-tigen Zeiten, wo immer mehr Technologie zur Sicherheit des Verkehrs beitragen soll, wird vor allem in die Sicherheit des Systems im Bezug zur Zuverlässigkeit geforscht. Die Absicherung vor Manipulationen oder Angriffen auf den Bus wird jedoch nur wenig untersucht. Daher soll diese Ausarbeitung zur Analyse des Bussystems, bezüglich der IT-Sicherheit dienen. Dabei ist die Thematik dieser Arbeit noch nicht abgeschlossen, sie bildet jedoch eine gute Grundlage für weiterführende Versuche.
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung einer Schädelfraktur in einem archäologischen Fund. Es werden Hypothesen über die Ursache diskutiert und in Teilen experimentell überprüft. Aufgrund von zeitlichen Einschränkungen und fehlenden Materialien wurde eine andere Hypothese getestet, als ursprünglich vorgesehen: Es wurde versucht, die Krafteinwirkung eines Grabungswerkzeuges auf einen archäologischen Schädel durch Versuche mit künstlich "gealterten" Schweineschädeln nachzustellen. Da nur eine kleine Testgruppe an Schädeln zur Verfügung stand und keine originalen Werkzeuge verwendet wurden, konnten die Versuche die Hypothese nicht eindeutig belegen oder wiederlegen. Die in dieser Arbeit angestellten Überlegungen und Erfahrungen können aber als Grundlage für weiterführende Arbeiten dienen.
Diese Arbeit behandelt die Entwicklung der Daktyloskopie als Instrument der Personenidentifizierung sowie der Bestimmung weiterer Informationen aus Fingerabdrücken. Unter Berücksichtigung des technischen Fortschritts des digitalen Zeitalters wird im Laufe der Arbeit nicht nur auf neue Methoden in der Daktyloskopie, sondern auch auf die Herausforderungen der Sichtbarmachung daktyloskopischer Spuren eingegangen. Daraus resultieren die Möglichkeiten Informationen zum Spurenverursacher zu erfahren, das Alter eines Abdrucks einzuschätzen und mittels der neuen Verfahren Abdrücke auf problematischen Oberflächen sichtbar zu machen. Auch die Entstehung des Fingerabdruck-Klassifizierungssystems wird in der Arbeit beschrieben. Durch die Auseinandersetzung mit jeglichen Entwicklungen in der Daktyloskopie soll schließlich geklärt werden, ob diese erfolgsversprechender sind, herkömmliche Mittel zur Sichtbarmachung daktyloskopischer Spuren ersetzen werden und ob in der Zukunft eine Automatisierung sowie Digitalisierung der Spurensuche stattfinden wird.
Das Testen von Software ist unabdingbar und wird nicht nur für Desktop Applikationen, sondern auch für Applikationen auf mobilen Geräten benötigt. Der Prozess des Testens ist aufwändig. Es gibt durch künstliche Intelligenz gestützte Lösungen, welche Systemtests zu großen Teilen eigenständig generieren und dem Entwickler das Testen erleichtern, zum Beispiel das AI4Test Projekt der Systems Multimedia Solutions GmbH.
Das Ziel dieser Bachelorarbeit besteht darin, das AI4Test Projekt zu analysieren und die bestehende Struktur so zu erweitern, dass iOS-Geräte neben Android und Desktop Geräten unterstützt werden. Dabei wird eine generalisierte Schnittstelle zur Interaktion mit Geräten geschaffen.
Das Ziel der Bachelorarbeit wird erreicht. Das AI4Test Projekt wird vorgestellt, die Schnittstelle generalisiert und die Plattform iOS wird prinzipiell unterstützt.
Die vorliegende Bachelorarbeit setzt sich mit der Fragestellung auseinander, ob langfristige Verhaltensveränderung durch Gamification erreicht werden kann. Dazu werden in dieser Arbeit die erfolgreiche Implementation von Gamification, die Faktoren der Langzeitbindung in Spielen und die verhaltensbeeinflussenden Methodiken der Verhaltenstherapie untersucht. Die erarbeiteten Faktoren der verschiedenen Bereiche werden abschließend auf Schnittmengen überprüft und zu einem theoretischen Modell zusammengefügt.
Die vorliegende Bachelorarbeit beschäftigt sich mit maschinellem Lernen im Kontext des autonomen Fahrens. Das Ziel dieser Arbeit ist das Anlernen eines Steuerungsmechanismus eines simulierten Fahrzeugs, auf Grundlage maschineller Lernverfahren, speziell dem Deep Reinforcement Learning. Dazu werden zunächst die Grundlagen des autonomen Fahrens und des maschinellen Lernens geklärt. Mit der Unity-Engine und dem ML-Agents Toolkit wurden Szenen erstellt, in denen Agenten trainiert werden. In verschiedenen Szenen mit unterschiedlichen Komplexitäten und Aufgaben sollen die Agenten lernen ein simuliertes Fahrzeug zu steuern und die jeweilige Aufgabe zu erfüllen. Um das Fahrzeug zu steuern muss der Agent die Längs- und Querführung übernehmen. Die Aufgaben können zum Beispiel anhalten in einem Zielbereich, ausweichen vor Hindernissen oder folgen eines bestimmten Streckenverlaufs umfassen. Die Ergebnisse zeigten, dass es möglich ist ein simuliertes Fahrzeug, mit einem durch Deep Reinforcement Learning angelernten Steuerungsmechanismus, zu steuern. In den meisten Szenen zeigten die Agenten ein gutes Verhalten. Durch die Ergebnisse konnten Erkenntnisse gewonnen werden, welche Faktoren bei Lernvorgängen besonders wichtig sind. Es zeigte sich, dass unter anderem die Wahl einer guten Belohnungsfunktion ausschlaggebend war.
Phishing Bedrohungen in Unternehmen : eine Untersuchung von Angriffstrends und Schutzmaßnahmen
(2023)
Diese Bachelorarbeit befasst sich mit Phishing Bedrohungen für Unternehmen, sowohl Angriffstrends als auch Schutzmaßnahmen.
Ziel der vorliegenden Arbeit ist es, bisher getroffene Schutzmaßnahmen zu analysieren und ihre Wirksamkeit anhand von zwei ausgewählten Fallbeispiele zu untersuchen. Dafür werden die Phishing Angriffe auf die amerikanischen Unternehmen „Twitter“ und „Uber“ genauer betrachtet und warum diese erfolgreich waren. Es soll beurteilt werden, ob die vorgestellten Leitfäden und Schutzmaßnahmen diese beiden Phishing Angriffe hätten verhindern können. Die Untersuchung zeigte, dass die gängigen Schutzmaßnahmen und das Einhalten von Leitfäden nicht ausgereicht haben, um die Unternehmen vor einem erfolgreichen Phishing Angriff zu schützen. Außerdem kommt dem Mensch bei der Bekämpfung von Phishing eine viel zu große Bedeutung zu und vernachlässigt das Handeln auf Managementebene.
Entwicklung einer CRISPRCas9 basierten Methode zur chromogenen in situ-Markierung spezifischer DNS
(2020)
Ziel der Arbeit war es, die Möglichkeit der in‒situ Markierung (ISH) durch das CRISPRCas9-System aus Streptococcus pyogenes zu nutzen, um damit ein chromogenes Detektionsverfahren für spezifische DNS-Sequenzen zu entwickeln (chromogene CRISPR-ISH). Das bisherige CRISPR-FISH-Verfahren von [Ishii et al. 2019] nutzte als Signalgeber Fluoreszenzfarbstoffe. Nachteilig ist, dass die für den Nachweis von Fluoreszenzsignalen nötige Technik wie Fluoreszenzmikroskop und -kamera kostenintensiv ist. Dadurch sind diese technischen Voraussetzungen für kleine Labore oder Bildungseinrichtungen häufig nicht erschwinglich. Weiterhin werden Fluoreszenzsignale nach wiederholtem Lichtkontakt instabil, wodurch die so markierten Präparate nicht mehrmals betrachtet werden können und für den wiederholten Gebrauch nicht geeignet sind. Die in dieser Arbeit entwickelte Methode sollte es ermöglichen, das Prinzip der CRISPR-Cas-basierten Markierung zu nutzen, ohne den Nachteilen der Fluoreszenz zu unterliegen. Um dieses Ziel zu erreichen, wurde die
CRISPR-FISH Methode sukzessive umgestaltet. Die bisher eingesetzten Fluoreszenzfarbstoffe wurden ersetzt. Die Zellkernfärbung (bisher durch DAPI) und die Visualisierung der Ribonukleoproteine (bisher durch Atto550) sollte mit nicht-fluoreszenten Farben realisiert werden. Die Ergebnisse sollten als Dauerpräparte so konserviert werden, dass diese beliebig häufig mit einem Lichtmikroskop betrachtet werden können.
In Zeiten, in denen Unternehmen rechenintensive Anwendungen auf externe Server auslagern, gewinnt Cloudcomputing immer mehr an Bedeutung. Das Problem dabei ist, um Operationen auf herkömmlichen, verschlüsselten, ausgelagerten Daten ausführen zu können, müssen diese zuerst entschlüsselt werden. Vertrauliche Daten liegen in dem Zeitraum der Bearbeitung unverschlüsselt vor, was zu einem Datenschutz- und Sicherheitsproblem führt. Dieses Problem kann durch vollständig homomorphe Verschlüsselungen gelöst werden. Diese moderne Verschlüsselungstechnik erlaubt das Ausführen von Operationen auf verschlüsselten Daten und wird in dieser Arbeit grundlegend vorgestellt. Weiterhin werden Bibliotheken, die homomorphe Verschlüsselungen implementieren, vorgestellt und mittels Benchmarking miteinander verglichen. Anschließend wird ein Anwendungsbeispiel formuliert, das die Vor- und Nachteile homomorpher Verschlüsselungen simulieren soll. Die Implementierung des Anwendungsbeispiels erfolgt mithilfe der im Benchmarking ermittelten leistungsstärksten Bibliothek - der Microsoft SEAL Bibliothek. Mit den in dieser Arbeit erlangten Erkenntnissen soll der Einstieg in die komplexe Thematik der homomorphen Verschlüsselungen vereinfacht werden und gleichzeitig zur Auseinandersetzung mit dieser Verschlüsselungsmethodik angeregt werden.
Learning Vector Quantization ist ein Klassifikator, der in seiner Urform im euklidischen Raum lernt. Für Zeitreihendaten benötigt es ein gesondertes Distanzmaß, nicht nur wegen der Relation der Zeitpunkte untereinander, sondern auch wegen der unterschiedlichen Längen dieser Zeitreihendaten. Als solches Distanzmaß wird Dynamic Time Warping eingesetzt. Diese Arbeit untersucht die Implementierung und dessen Zeit- und Raumkomplexität.
Das Ziel der vorliegenden Arbeit ist die Evaluation von Methoden zur Erzeugung von Körpermustern im Kontext der forensischen 3D-Rekonstruktion. Dabei wurde die Hypothese verfolgt, dass eine Photogrammetrie-CAVE für diese Anwendung die besten Ergebnisse erzielen kann. Um diese Hypothese zu untersuchen, wurde in dieser Arbeit hinterfragt, welche Methoden für diese Anwendung infrage kommen, wie effizient und genau diese sind und welche Unterschiede zwischen den Methoden zu erkennen sind. Um diese Fragen zu beantworten, wurden im Rahmen der Arbeit mehrere Modelle von verschiedenen Probanden unter Nutzung drei verschiedener Softwares erzeugt und evaluiert. Die Evaluation zeigt dabei große Unterschiede im Zeitaufwand und der Genauigkeit der Modelle. Weitere Forschung auf diesem Gebiet könnte die Nutzung der in dieser Arbeit verwendeten Software verfeinern, aber auch neue Ansätze und Softwaretypen auf ihre Tauglichkeit für diesen Anwendungsbereich testen.
Diese Arbeit beschäftigt sich mit der Altersbestimmung der forensisch relevanten Schmeißfliegenart Lucilia sericata anhand der Augenfärbung während der Puppenentwicklung. Das Puppenstadium macht ca. 50 % der Gesamtentwicklung vom Ei bis zur Fliege aus, eine geeignete Methode zur differenzierten Altersbestimmung von Puppen findet derzeit allerdings noch keine Anwendung. Durch vorangegangene Studien zur Puppenentwicklung ist die Augenfärbung zunehmend als Merkmal aufgefallen, sodass in dieser Arbeit untersucht werden soll, ob anhand der Augenfärbung eine Altersbestimmung möglich ist und ob diese in Zukunft als Marker eingesetzt werden kann. Hierfür wurde die Färbung mithilfe des RGB-Farbmodells analysiert. Die Augenfärbung von Lucilia sericata ändert sich über die komplette Metamorphose hinweg hoch signifikant (p<0,0001). Des Weiteren konnte die Färbung in drei Phasen unterteilt werden: larvale Färbung, Rotfärbung und Braunfärbung. Eine Altersbestimmung mithilfe der linearen Regression ist durch sprunghafte Farbänderungen derzeit noch nicht möglich.
Die vorliegende Arbeit beschäftigt sich mit den Fragen, welche Indikatoren für einer Kompromittierung (IoC) in Active Directory gefunden werden können, wo sich diese befinden und mit welchen Werkzeugen sie offline erfasst werden können. Das Ziel ist, diese Fragen mittels einer Übersicht über die Indikatoren einer Kompromittierung und einer Übersicht über relevante Dateien für eine forensische Untersuchung zu beantworten.
Für die Erstellung der Übersichten wurden Angriffsmethoden auf Active Directory nach relevanten Ereignissen analysiert. Diese Ereignisse wurden in einer Testumgebung nachgestellt und anschließend offline mit den recherchierten Werkzeugen analysiert.
Durch die Ergebnisse der Arbeit konnte gezeigt werden, welche IoCs in Active Directory grundsätzlich existieren können, wo sich diese befinden und mit welchen Werkzeugen die Indikatoren offline erhoben werden. Es wird ebenfalls ersichtlich, welche Indikatoren nicht erhoben werden können und warum dies so ist.
Der Grund für die eingeschränkte Offline-Erhebung von gewissen IoCs ist das Fehlen von Werkzeugen, die bestimmte Informationen aus der Datenbank offline extrahieren können.
Die folgende Arbeit lehnt sich an die Hypothesen von Franz und Behringer et al. 2017 an. Zum einen wurde die Hypothese über die möglichen Funktionen des Blebbens von Skelettmuskelzellen dargelegt und zum anderen die Neuinterpretation über die Expression der Kreatinkinase unter ischämischen Dispositionen. Das Blebben, also die Bildung von Vesikeln unter Exozytose, ist in der Biologie bereits allseits bekannt. Die wichtigste Funktion ist die Übertragung von Signalstoffen zu den benachbarten Zellen oder auch Organen. Hier wird die Hypothese aufgestellt, dass das Blebben ein Schutzmechanismus vor der Nekrose bzw. Apoptose darstellen könnte.
Die Kreatinkinase ist bis dato als Biomarker für Myokardinfarkte bekannt. Jedoch wird vermutet, dass dieses Protein ebenfalls zum Schutzmechanismus beitragen könnte. In unseren Untersuchungen werden neben der Kreatinkinase auch die muskelspezifischen Biomarker Myostatin, Atrogin1 und MuRF1 mit einbezogen.
Zu Beginn des Versuches wurde eine primäre Muskelzellkultur etabliert und anschließend zu definierten Zeiten hypoxischen Bedingungen ausgesetzt. Im Zuge dessen wurde die RNA isoliert und die relativen Expressionen der oben genannten Biomarker mittels qRT-PCR ermittelt. Die Ergebnisse zeigen zwar eine Abhängigkeit zwischen der Expression und der Hypoxiedauer, jedoch sind diese teilweise von Probe zu Probe so unterschiedlich, dass bisher keine signifikante Aussage getätigt werden kann.
Da anhand einer Desminfärbung dargestellt werden konnte, dass die Zellkulturen eine enorm unterschiedliche prozentuale Anzahl an Muskelzellen besitzen, wird das möglicherweise ein Grund dafür sein, dass die Ergebnisse stark voneinander abwichen.
Der Einsatz von künstlicher Intelligenz soll in der Zukunft auch die Verbrechensaufklärung unterstützen. Ein Teilgebiet dessen ist die Bewegungsanalyse von Menschen. Ein wichtiger Aspekt dabei ist die Verformung und Bewegung der Wirbelsäule, mit der Frage, wie viele Wirbel als digitale Knochen einzeln benötigt werden, um eine Bewegung noch möglichst natürlich und anatomisch korrekt darstellen zu können. Diese Arbeit befasst sich mit der Reduktion der Wirbelsäule bzw. einzelner Wirbel anhand der Erstellung und Posierung von 3DSkeletten, welche je über anders zusammengefasste Wirbel verfügen.
Das Berechtigungssystem ist ein grundlegender Sicherheitsmechanismus der Android-Plattform. Diese Arbeit widmet sich diesem im Kontext der speziellen Bedrohung durch Android-Trojaner, welche durch die Modifikation legitimer Applikationen erstellt werden. Unter den Fragestellungen, inwiefern Android-Trojaner Systemberechtigungen benötigen und wie sie diese als trojanisierte Applikationen auf Applikationsebene erhalten können, werden die beiden Aspekte zusammengeführt und untersucht. Dazu erfolgt eine Analyse der Funktionsweise des Berechtigungssystems in aktuellen AndroidVersionen, welche sich auf die Dokumentation, den Android-Quelltext und praktische Versuche stützt.
Neben bestehender Literatur, die zur Beantwortung der Fragestellungen herangezogen wird, ist die Analyse der Verwendung von Berechtigungen in den Open-Source Trojanern AndroRAT und dem Metasploit-Android-Payload Teil der Arbeit. Die beiden Schadprogramme werden außerdem für die Trojanisierung existierender Applikationen verwendet. Dabei werden Möglichkeiten aufgezeigt, wie bei der Modifikation einer legitimen Applikation Berechtigungsanfragen hinzugefügt werden können. Zudem wird gezeigt, wie die Manipulation einer Kompatibilitätsangabe im Rahmen der Trojanisierung zu dem Erhalt der Berechtigungen führt.
Die Arbeit untersucht das Problem, der Named Entity Recognition in großen Textkorpora. Für klassische Modelle sind meist große gelabelte Datenmengen nötig, die häufig aber nicht zur Verfügung stehen, weil manuelle Annotation sehr zeitaufwendig ist. Deshalb wurde ein Halbüberwachtes
(Semi-Supervised) Verfahren untersucht, um ausgehend von einer kleinen Menge manuell annotierter Daten iterativ mit möglichst wenig Annotationsaufwand ein solides Modell zu trainieren. Das Verfahren nutzt gezielte manuelle Annotation, um den Lerneffekt durch Self-Training zu erhöhen. Die Untersuchungen haben jedoch gezeigt, dass durch Self-Training in diesem Fall keine Verbesserung erzielt werden konnte. Es kann aber eine erhebliche Menge
manueller Annotation durch die gezielte Auswahl von statistisch unsicheren Sätzen für die manuelle Annotation eingespart werden und dadurch effizienter eine bessere Performance erreicht werden.
Diese Arbeit befasst sich mit dem Vergleich der forensischen Analyse von mobilen Endgeräten zwischen der Software Cellebrite Physical Analyzer, der Software Autopsy Digital Forensics und den Skripten aLEAPP und iLEAPP. Hierzu wurden zwei mobile Endgeräte mit den Betriebssystemen Android und iOS mit unterschiedlichen Anwendungen und Testdatensätzen versehen. Im Anschluss wurden die forensischen Datensicherungen durch die Softwareprodukte automatisiert aufbereitet. Die Ergebnisse der automatisierten Datenaufbereitungen wurden miteinander und mit den zu erwartenden Informationen verglichen. Hierbei konnte festgestellt werden, dass die Software Autopsy Digital Forensics und die Skripte aLEAPP und iLEAPP im Bereich der Aufbereitung mobiler Endgeräte, zum jetzigen Zeitpunkt, nicht die Ergebnisse der kommerziellen Software Cellebrite Physical Analyzer liefert.
Konfiguration IT-forensischer Untersuchungspläne mittels wiederverwendbarer Methodenbausteine
(2017)
Das Ziel der vorliegenden Bachelorarbeit war es, die in meinem hochschulinternen Praxisprojekt, eingereicht am 12.05.2017, generierten Bausteine zur automatischen Erstellung von IT-forensischen Untersuchungsplänen zu verbessern und weiterzuentwickeln, um so eine höhere Abdeckung von Fällen zu erreichen. Dazu wurde Literatur gesichtet und ein Interview mit Herrn Alexander Sigel, DigiTrace GmbH Köln, geführt. Das Praxisprojekt wurde ebenfalls von Herrn Sigel betreut.
In dieser Arbeit konnten erfolgreich neue Bausteine konfiguriert und bereits vorhandene Attribute von bestehenden Bausteinen sinnvoll erweitert werden. Die automatisch generierten Untersuchungspläne, ausgehend von diesen Bausteinen, können als Gedankenstütze oder Checkliste dienen und Fehler während der Untersuchung oder während der Erstellung des Untersuchungsplans minimieren. Durch die zielgerichtete Abfrage nach bestimmen Untersuchungszielen auf bestimmten zu untersuchenden IT-forensischen Geräten, Objekten, auf denen ein bestimmtes Betriebssystem installiert ist, können die ausgegebenen Untersuchungsschritte gezielt an den Untersuchungsauftrag angepasst werden.
Die Bachelorarbeit ist sowohl für Studierende als auch für selbstständige oder angestellte IT-Forensiker interessant, die im Zuge ihrer Arbeit Untersuchungspläne erstellen, um die Untersuchung systematisch zu gestalten.
Erhöhung stickstoffreicher Substratanteile bei der Vergärung landwirtschaftlicher Biogassubstrate
(2021)
In der vorliegenden Arbeit sollte die Erhöhung von stickstoffreichen Substratanteilen bei der Vergärung landwirtschaftlicher Biogassubstrate untersucht werden. Der Abbau von Stickstoff während der anaeroben Vergärung führt zu der Bildung von Ammoniumstickstoff bzw. Ammoniak. Dieser kann die Methanproduktion hemmen und den Biogasprozess instabilisieren. Für den Versuch dienten drei Biogasanlagen alsFallbeispiele und wurden in den Labormaßstab als Reaktor A, B und C übertragen. Anschließend wurde der Anteil an Maissilage im Substratinput der Reaktoren reduziert und durch Wirtschaftsdünger ersetzt. Bei Reaktor A konnte der Anteil an Maissilage am Gesamtsubstrat um 6% reduziert werden. Dies hatte einen Rückgang von 2% in der spezifischen Methangproduktion zur Folge. Bei Reaktor B wurde der Anteil an Maissilage um 10% reduziert, was mit einer Verminderung von 18% in der spezifischen Methanproduktion einherging. Bei Reaktor C konnte der Maissilageanteil um 12% reduziert werden. Die spezifische Methanproduktion ging dabei um 13% zurück. In einer weiteren Versuchsphase sollte bei Reaktor B durch eine Steigerung der Raumbelastung die Methanproduktion wieder gesteigert werden. Erste Ergebnisse zeigen einen leichten Anstieg in der Methanproduktion. Bei Reaktor C sollte durch den Einsatz von stickstoffreduziertem Rezirkulat die Methanproduktion und Prozessstabilität verbessert werden. Erste Ergebnisse deuten auf einen Erfolg dieser Maßnahme hin.
Evaluation softwarespezifischer Physik Engines hinsichtlich
der Verwendung im forensischen Kontext
(2020)
Das Ziel dieser Arbeit ist die Überprüfung der Bullet Physik Engine und der PhysX Engine hinsichtlich ihrer Tauglichkeit im Kontext der forensischen Fallsimulationen. Nach dem Behandeln der Theorie werden dafür experimentelle Ansätze in Form von Ragdollsimulationen genutzt, um die beiden Engines miteinander zu vergleichen und zu bewerten. Diese Versuche werden in den Programmen Blender und Unreal Engine 4 durchgeführt, welche die beiden Physikalgorithmen einbinden und so ebenfalls miteinander verglichen werden können. Zusätzlich wurde eine Standard Operating Procedure für die Erstellung von Ragdolls in Blender angefertigt.
Das Vitamin Biotin ist als Coenzym in verschiedene Vorgänge im Körper involviert und beeinflusst zudem auch das Wachstum und die Erhaltung von Epidermiszellen. Besonders bei der Stabilität und Gesundheit von Rinderklauen spielt dies eine große Rolle - ein Biotinstatus der Rinder könnte also der Prävention von diversen Klauenerkrankungen dienen. Die vorliegende Bachelorarbeit beschäftigt sich daher mit der Validierung eines ELISAs zur Bestimmung von Biotin in Rinderblut. Dafür wurden die Leistungsmerkmale Präzision, Richtigkeit, Wiederfindung, Linearität und Robustheit untersucht und die Ergebnisse diskutiert.
Ziel dieser Arbeit ist die Einführung und Implementierung eines Konzeptes, das diese hochsensiblen Daten trennt und unabhängig voneinander verwaltet. Auf diese Weise soll verhindert werden, dass ein Angreifer, bei unautorisiertem Zugriff auf eine Datenbank, keinen Zugang zu allen Sensor- und Identitätsdaten hat. Zu diesem Zweck wird ein Service vorgestellt, der die aufgezeichneten Daten in mehrere Komponenten aufteilt und unabhängig voneinander speichert. Damit die Anwendung keine Kenntnis über den Datenspeicherort besitzen muss, soll außerdem sichergestellt werden, dass die Anwendung und die Datenquellen nicht selbst miteinander kommunizieren müssen.
Ziel dieser Arbeit ist es, Cyberangriffe auf die verschiedenen Differenzierungs- und Klassifizierungsmöglichkeiten zu untersuchen. Dabei wird sich besonders mit Täterschäften, Tätermotivation und der Vorgehensweise bei Angriffen beschäftigt. Anschließend werden zehn im Zeitraum 2016 bis 2020 vorgefallene Cyberangriffe voneinander differenziert und in die beschriebenen Klassifikationen eingeordnet.
Wirksamkeitstestung des Helikase-Primase Inhibitors PXI26250 gegen das Herpes simplex Virus Typ 1
(2018)
Die vorliegende Arbeit thematisiert die Wirkstofftestung des neuartigen Helikase-Primase Inhibitors PXI26250 gegen eine HSV-1 Infektion in einer in vitro Untersuchung der Zelllinie A549-Luc. Dabei werden insbesondere die Einflüsse verschiedener Konzentrationen des Medikaments und die zeitlichen Auswirkungen unterschiedlicher Inkubationszeiten auf die Infektionsintensität analysiert. Neben einer Antikörpermarkierung infizierter Zellen mittels Immunocytochemie werden für die Quantifizierung der Ergebnisse weiterhin ein Cytotoxizitäts - sowie Zellviabilitäts Assay hinzugezogen.