Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
In der vorliegenden Arbeit geht es darum, herauszufinden, ob es möglich ist, die Heldenreise nach Joseph Campbell, auf Erklärvideos anzuwenden. Dabei wer-den die verschiedenen Formen des Storytellings analysiert, sowie erörtert, was ein gutes Erklärvideo ausmacht. Die Heldenreise wird weiter analysiert, um festzustellen, inwieweit die Heldenreise als Blaupause benutzt werden kann. Auf Basis dieser Blaupause wird ein Erklärvideo im Lernbereich erstellt und mit Hilfe einer Umfrage ausgewertet, ob es sinnvoll ist, diese Vorlage zu nutzen.
Die Vorbereitung eines Rennwagens für eine Fahrt ist aufwändig. Daher soll ein 3d Modell des Formula Student Rennwagens ’elCobra’ in die Simulationsplattform Assetto Corsa integriert werden, um einfache Manöver virtuell nachstellen zu können. Am Schluss wird ein Fragebogen aufgestellt, auf dessen Basis das Modell und die Materialien des Fahrzeugs nach unterschiedlichen Kriterien evaluiert, und Mitglieder des Technikum Mittweida Motorsport damit befragt werden.
In dieser Arbeit wird eine Vorgehensweise für die Erstellung von Grafiken zur Nachempfindung eines 2D Cartoon Looks mithilfe von 3D-Daten vorgestellt und evaluiert. Dafür werden vorerst essenzielle Definitionen in Bezug auf Stil geklärt, wichtige Stilelemente identifiziert, erläutert und in einer 3D-Umgebung praktisch umgesetzt. Es wird dabei eine tatsächliche Nachbildung von Spielelementen durchgeführt, um diese schlussendlich bewerten zu können.
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
There are multiple ways to gain information about an individual and its health status, but an increasingly popular field in medicine has become the analysis of human breath, which carries a lot of information about metabolic processes within the individuals body. The information in exhaled breath consists of volatile (organic) compounds (VOCs). These VOCs are products of metabolic processes within the individuals body, thus might be an indicator for diseases disturbing those processes. The compounds are to be detected by mass-spectrometric (MS) or ion-mobility spectrometric (IMS) techniques, making the analysis of these compounds not only bounded to exhaled breath. The resulting data is spectral data, capturing concentrations of the VOCs indirectly through intensities. However, a number of about 3000 VOCs [1] could already be determined in human exhaled breath. The number of research paper about VOC-analysis and detection had risen nearly constantly over the last decade 1. Furthermore, the technique to identify VOCs could also be used to capture biomarker from alien species within the individuals body. Extracting VOCs from an individual can be done by non- or minimal invasive techniques. However, the manual identification of VOCs and biomarkers related to a certain disease or infection is not feasible due to the complexity of the sample and often unknown metabolic products, thus automized techniques are needed. [1–4] To establish breath analysis as a diagnosis tool, machine learning methodes could be used. Machine learning has become a popular and common technique when dealing with medical data, due to the rapid analysis. Taking this advantage, breath analysis using machine learning could become the model of choice for diagnosis, keeping in mind that conventional methodes are laboratory based and thus when trying detect bacterial infection need sometimes several days to identify the organism. [5]
Diese Arbeit beschäftigt sich mit der Frage, ob und inwiefern es möglich ist, das Griffgeschehen anhand sichergestellter Spuren digital zu rekonstruieren. Um die Frage zu beantworten, wird sich neben der Anatomie der Hand auch mit den Ansprüchen der Photogrammetrie sowie der Erstellung und Weiterverarbeitung von 3D-Modellen beschäftigt. Das Ziel besteht zum einen darin, mittels photogrammetrischer Aufnahmen, ein 3DModell von dem Spurenträger sowie dem Spurenverursacher zu erstellen. Die Hand soll hierbei ausgestreckt sein. Zum anderen soll mit den entstandenen Modellen der Griff wiederhergestellt werden, in dem das Handmodell in Blender bewegt werden soll. Es stellte sich heraus, dass sich die vorgestellten Methoden zur Erstellung eines Handmodells nicht eigneten, um der Fragestellung dieser Arbeit nachzugehen. Der Hauptgrund besteht darin, dass die Hand, anders als die Tasse, kein Objekt ist und somit nicht auf den Drehteller abgestellt werden kann. Anders als bei Objekten, konnten die Photogrammetrischen Aufnahmen folglich ausschließlich händisch aufgenommen werden. Zudem erwiesen sich die Aufnahmen der ausgestreckten Hand als schwierig. Besondere Probleme bereitete hierbei das Stillhalten der Hand aufgrund der unnatürlichen Pose und der Dauer der Bildaufnahmen. Insgesamt dienen die Ergebnisse dieser Arbeit als Grundlage für weitere Forschungsthemen im Bereich Photogrammetrie sowie der Rekonstruktion des Griffgeschehens.
Hinsichtlich des verändernden Stoffwechsels stellen Kiesel- und Grünalgen eine interessante und gut nutzbare, wenn auch lose und schwer definierbare Gruppierung innerhalb der biologischen Systematik dar: Ihr Potenzial, die Eigenschaften von Pflanzen (dank Photosynthese) und Mikroorganismen (in ihrer jeweiligen Größe und ihrem bedingt heterotrophen Stoffwechsel) zu kombinieren, ist bisher unübertroffen und eröffnet Möglichkeiten u. a. für die Bereiche der Abwasserbehandlung und die Kultivierung von Mikroalgen in Abwassermedien. Obwohl ihre Eignung für wirtschaftliche Zwecke ihr volles Potenzial noch nicht vollständig erreicht hat, scheint der Weg dorthin sicherlich diese Richtung einzuschlagen – mit der Biotechnologie als ein sich ständig weiterentwickelndes Fachgebiet, ist die Verwendung von Algen
für bestimmte Zwecke an die bisherigen Erkenntnisse und den daraus resultierenden Möglichkeiten gebunden. In diesem Versuch wurden insgesamt vier Mikroalgen, drei Grünalgen (C. vulgaris, A. obliquus und C. reinhardtii) und eine Kieselalge (N. pelliculosa), auf ihr Wachstumsverhalten in unterschiedlich konzentrierten Abwassermedien, von 20 % bis 100 % in 20 %-Schritten, getestet. In Bezug auf die erzielten Ergebnisse scheint der vielversprechendste Kandidat für diese Zwecke C. reinhardtii zu sein, welcher das schnellste Wachstum innerhalb der Inkubationszeit von 3 Tagen erreicht hatte und die meisten Nährstoffe aus dem Abwassermedium entfernte. In geringeren Abwasserkonzentrationen kam es stattdessen zum starken Wachstum von A. obliquus, womit dieser Organismus eine Alternative zu geringer belasteten Medien (hinsichtlich der Nährstoffe, als auch der Keimbelastung) darstellt. Außerdem wurden je 5 L A. obliquus und C. vulgaris Inokula in einem größeren Aquarium mit ca. 50 L Abwasser inkubiert unter strengeren Parameterbedingungen und höheren
Kontaminationsrisiko. Dennoch konnte auch hier innerhalb von fünf Tagen ein Abbau von ca. 99,40 % des Phosphats auf 0,055 mg/L erreicht werden, innerhalb einer Woche bzw. sieben Tagen von 99,92 % auf 0,007 mg/L ortho-Phosphat. Ob diese Organismen auch weiterhin eine wichtige Rolle in zukünftigen Technologien für die Abwasserreinigung spielen, hängt von weiteren Studien auf diesem Gebiet ab sowie neuen Innovationen bezüglich der wirtschaftlichen Nutzbarkeit für Unternehmen, welche durch Investitionen den weiteren Ausbau sowie die Forschung im Gebiet der
Algennutzung fördern.
Die vorliegende Bachelorarbeit befasst sich mit dem Thema, ob sich Errungenschaften, auf Video on Demand Portalen, positiv auf die Langzeitbindung der Kunden auswirken können. Diesbezüglich werden in dieser Bachelorarbeit Erfolgsfaktoren von Gamification ausgearbeitet. Aus diesen, wird gemeinsam mit den Grundlagen von Video on Demand und der Verhaltenstherapie ein Konzept entwickelt, dass ein erfolgreiches Einsetzen von Achievements auf Video on Demand Plattformen ermöglichen soll. Das Konzept wird dabei durch eine Umfrage von Video on Demand Konsumenten gestützt.
Active Learning (AL) ist eine besondere Trainingsstrategie im überwachten maschinellen Lernen, mit dem Ziel die Accuracy eines Klassifikators zu verbessern, indem ein Klassifikator mit nur wenig gelabelten, aber dafür hoch informativen Datenpunkten (DP) gelernt wird. In der medizinischen Forschung liegen oftmals nur wenig gelabelte DP vor. AL kann eine sinnvolle Strategie sein, um die Kosten und den Aufwand für das Labeln ungelabelter DP zu senken. Mit Pool-Based AL wurden bisher die größten Erfolge verzeichnet. In der vorliegenden Arbeit wurden zwei biologische, binäre Klassifikationsprobleme mit Uncertainty Sampling Pool-Based AL und Query by Bagging Comitee Pool-Based AL untersucht. Der Generalized Learning Vector Quantization (GLVQ) und ein Multilayer Perzeptron (MLP) wurden als Klassifikatoren verwendet. Anhand eines linear trennbaren und eines nicht linear trennbaren Datensatzes wurden die Auswirkungen der Anzahl an gelabelten DP, mit welcher die Klassifikatoren zu Beginn trainiert wurden, auf die Accuracy untersucht. Die AL-Accuracy näherte sich für das anfängliche Training der Klassifikatoren mit 10 % gelabelten DP bereits stark an die Accuracy im klassischen maschinellen Lernen an und war teilweise sogar größer. In einem weiteren Experiment wurden daher die Klassifikatoren anfänglich mit nur 1 % gelabelten DP trainiert. Es wurde die Auswirkung der Anzahl nachgelabelter DP, mit welcher die Klassifikatoren nachtrainiert wurden, auf die Accuracy untersucht. Für den linear trennbaren Datensatz war die Anwendung von AL mit dem GLVQ und 10 nachgelabelten DP sowie mit dem MLP und 50 nachgelabelten DP erfolgreich. Bei dem nicht linear trennbaren Datensatz wurde mit dem MLP zumindest eine Tendenz, dass AL die Accuracy verbessert, festgestellt. Jedoch reichten 50 nachgelabelte DP nicht aus.
The games industry has significantly grown over the last 30 years. Projects are getting bigger and more expensive, making it essential to plan, structure and track them more efficiently.
The growth of projects has increased the administrative workload for producers, project managers and leads, as they have to monitor and control the progress of the project in order to keep a permanent overview of the project. This is often accompanied by a lack of insight into the project and basic communication within the team. Therefore, the goal of this thesis is to enhance conventional project management methods with process structures that occur frequently in game development.
This thesis initially elaborates on what project management in the game industry actually is: Here, methods are considered, especially agile methods and progress tracking prac-tices, which were created for software development and have become a standard in game development. Subsequently, an example is used to demonstrate how process management can function within the development of video games. Based on this, the ideal is depicted, which is implemented and used in a tool at the German games studio KING Art GmbH. This ideal is compared with expert interviews in order to verify its gen-eral validity in the industry.
By integrating process structures, the administrative effort can be reduced, communica-tion within game development can be simplified, while the current project status can be permanently presented. This benefits both project management and leads, as well as the entire team. Further application tests of this theory would have to be organized to check scalability and to draw comparisons to other applications.
Eine empirische Analyse von 19 DAO-Airdrops im Hinblick auf die Governance-Aktivität der Empfänger: Airdrops sind ein bekannter Incentive-Mechanismus bei Blockchain-Protokollen. In den letzten Jahren haben vor allem DAOs „retroaktive“ Airdrops für sich entdeckt, die frühe Nutzer eines Protokolls entlohnen. Diese Art der Verteilung von Token gilt allerdings auch als ein möglicher Lösungsansatz für Zentralisierung bzw. mangelnde Voting-Beteiligung in DAOs. Thema der Arbeit ist daher, welchen Effekt Airdrops auf die Governance-Aktivität in DAOs haben. Zu diesem Zweck wurden 19 DAOs empirisch untersucht. Wir vergleichen die Voting-Beteiligung der Airdrop-Empfänger auf Snapshot bzw. on-chain mit dem der Gesamtheit der Token-Halter. Außerdem wird die Verteilung der Airdrops, die Halte-Dauer und der Delegations-Anteil betrachtet. Wir stellen fest, dass die Beteiligung der Airdrop-Empfänger im Durchschnitt etwas höher ist als die von nicht-Airdrop-Empfängern. Ob Airdrops sich als Governance-Instrument eignen, ist allerdings im Einzelfall zu betrachten.
Ist Biodiesel, welcher aus Algen gewonnen wird, als klimaneutraler Kraftstoff Ersatz für fossile Brennstoffe eine wirtschaftlich sinnvolle Alternative? Oder ist das doch nur biotechnologisches Wunschdenken. Mit dieser Frage beschäftigt sich die nachfolgende Ausarbeitung. Dabei werden zunächst Biokraftstoffe als ganzes beleuchtet, um danach zwei Algen vorzustellen welche häufig im Zusammenhang mit Biofuels genannt werden. Es werden verschiedene Kultivierungs- und Produktionssysteme erläutert. Anschließend folgt eine Einschätzung der Ausbeute aus den Prozessen zusammen mit einer Einschätzung zur Nachhaltigkeit. Am Ende wird ein Blick in die Zukunft der Technologie gewagt und Kritikpunkte offengelegt.
Due to the intractability of the Discrete Logarithm Problem (DLP), it has been widely used in the field of cryptography and the security of several cryptosystems is based on the hardness of computation of DLP. In this paper, we start with the topics on Number Theory and Abstract Algebra as it will enable one to study the nature of discrete logarithms in a comprehensive way, and then, we concentrate on the application and computation of discrete logarithms. Application of discrete logarithms such as Diffie Hellman key exchange, ElGamal signature scheme, and several attacks over the DLP such as Baby-step Giant-step method, Silver Pohlig Hellman algorithm, etc have been analyzed. We also focus on the elliptic curve along with the discrete logarithm over the elliptic curve. Attacks for the elliptic curve discrete logarithm problem, ECDLP have been discussed. Moreover, the extension of several discrete logarithms-based protocols over the elliptic curve such as the elliptic curve digital signature algorithm, ECDSA have been discussed also.
Die Kreatur des Aliens aus dem gleichnamigen Science-Fiction/-Horrorfilm ist seit Jahren ein fester Bestandteil der modernen Medienkultur. Ausgehend von der Frage „Warum wirkt die Figur des furchteinflößenden Aliens so gut?“ wird in der vorliegenden Arbeit eine Analyse der körperlichen aber auch sozialen Merkmale des Film-Aliens sowie ähnlicher Kreaturen aus der Medienwelt vorgelegt, die auf die Ursachen der starken psychischen und emotionalen Wirkung dieser Figuren abzielt. Dabei zeigt sich, dass es eine spezifische Kombination von Merkmalen gibt, die sich auf eine konstruierte Alien-Figur übertragen lassen und eine starke emotionale Wirkung beim Menschen erzielen kann.
In der vorliegenden Arbeit werden neue Pulver als Alternative für das Rußpulver hergestellt, geprüft und bewertet. Ziel ist es ein für den Anwender gesünderes, kostengünstiges und einfach erhältliches Pulver zu entwickeln. Hierfür wurden unterschiedliche Alltagsmaterialien verwendet. Die dafür angewendeten Grundlagen und Methoden werden erklärt und evaluiert.
Diese Arbeit beschäftigt sich mit der Altersbestimmung der forensisch relevanten Schmeißfliegenart Lucilia sericata anhand der Augenfärbung während der Puppenentwicklung. Das Puppenstadium macht ca. 50 % der Gesamtentwicklung vom Ei bis zur Fliege aus, eine geeignete Methode zur differenzierten Altersbestimmung von Puppen findet derzeit allerdings noch keine Anwendung. Durch vorangegangene Studien zur Puppenentwicklung ist die Augenfärbung zunehmend als Merkmal aufgefallen, sodass in dieser Arbeit untersucht werden soll, ob anhand der Augenfärbung eine Altersbestimmung möglich ist und ob diese in Zukunft als Marker eingesetzt werden kann. Hierfür wurde die Färbung mithilfe des RGB-Farbmodells analysiert. Die Augenfärbung von Lucilia sericata ändert sich über die komplette Metamorphose hinweg hoch signifikant (p<0,0001). Des Weiteren konnte die Färbung in drei Phasen unterteilt werden: larvale Färbung, Rotfärbung und Braunfärbung. Eine Altersbestimmung mithilfe der linearen Regression ist durch sprunghafte Farbänderungen derzeit noch nicht möglich.
Die vorliegende Masterarbeit befasst sich mit der Entwicklung einer Android-Applikation zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Dabei richtet sich der Fokus zuerst auf das aus den USA stammende AMBER-Alert-System – ein System zur Suche vermisster Kinder – und im weiteren Verlauf auf den aktuellen Stand eines solchen Systems innerhalb Deutschlands. Bisher haben sich nur wenige Arbeiten mit der Umsetzung einer solchen App auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Implementierung einer prototypischen App zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Diesbezüglich werden bereits existierende Applikationen betrachtet und daraus ein konzeptioneller Entwurf entwickelt. Dieser Entwurf dient als Grundlage für die prototypische Implementierung der App.
Die vorliegende Arbeit stellt eine effektive Möglichkeit dar, um einen Großteil der Bevölkerung in Deutschland zur schnellen Suche und sicheren Bergung bei vermissten Kindern zu erreichen.
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
In dieser Arbeit werden ausgewählteWerbenetzwerke in Android-Apps im Hinblick auf deren Datenerhebung betrachtet. Dabei stellen sich folgende Forschungsfragen: Welche Daten werden an die Werbenetzwerke übermittelt? Wie decken sich die übermittelten Daten mit den Angaben seitens der Werbenetzwerke? Wie werden die Daten von dem Android-Gerät erhoben und welchen Einfluss haben die Daten auf die Privatsphäre des Benutzers? Um die Forschungsfragen zu beantworten, ist eine Auswahl von 100 Apps aus dem Google Play Store getroffen und auf deren enthaltenen Werbenetzwerke analysiert worden. Anschließend wurde der Netzwerkverkehr von ausgewählten Werbenetzwerken mithilfe eines Proxy-Server betrachtet, um die übermittelten Daten abzufangen. Gleichzeitig sind die Datenschutzerklärungen
der ausgewählten Werbenetzwerke im Hinblick auf deren Angaben zu erhobenen Daten betrachtet worden.
Abschließend wurde der Quellcode von den Werbenetzwerken angeschaut, um herauszufinden wie die Daten aus dem Android-System erhoben werden.
Die Ergebnisse der Analyse des Datenverkehrs zeigen, dass neben Daten über das verwendete Gerät, die ausführende App, zur ungefähren Positionsbestimmung und zu Einstellungsparameter auch Statusinformationen, wie Ladezustand der Batterie und freier Speicherplatz, übertragen werden. Es wurde festgestellt, dass Werbenetzwerke erheblich mehr Daten erheben und übermitteln als in deren Datenschutzerklärungen angegeben. Durch die Analyse des Quellcodes der Werbenetzwerke konnte herausgefunden werden, dass Daten zum einen über API-Aufrufe an das Android-System ermittelt werden und zum anderen durch entsprechende Algorithmen der Werbenetzwerke. Mithilfe der Ergebnisse konnte gezeigt werden, dass seitens der Werbenetzwerke eine bessere und umfangreichere Angabe zu den erhobenen Daten wünschenswert ist.
Weiterhin konnten unter den Daten keine personenbezogenen Informationen gefunden werden, welche eine Zuordnung zu einem einzelnen Individuum erlauben. Jedoch wurden Informationen gefunden, die eine Zuordnung der Daten zu einem einzelnen Gerät erlauben.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher der Webclients des Instant-Messenger-Dienstes Threema und des Social-Media-Dienstes Instagram aus forensischer Sicht betrachtet. Hierfür werden die Funktionsweisen der Anwendungen und die auf dem Gerät im RAM enthaltenen Artefakte forensisch analysiert und diskutiert. Anhand der aus dieser Arbeit gezogenen Erkenntnisse sollen zukünftige forensische Untersuchungen, die in Verbindung mit einer oder beiden dieser Anwendungen stehen, unterstützt werden, gefundene Artefakte zu identifizieren und interpretieren.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher unter den Betriebssystemen Microsoft Windows und Linux der Web Clients der Instant-Messengerdienste WhatsApp und Telegram aus forensischer Perspektive beleuchtet. Hierfür werden die technischen Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät im Internetcache enthaltene Artefakte digital forensisch analysiert und diskutiert. Die gewonnenen Erkenntnisse sollen zukünftige forensische Untersuchungen, bei denen Instant-Messengerdienste wie WhatsApp oder Telegram eine Rolle spielen, vereinfachen und die Interpretation der gefundenen Artefakte unterstützen.
Digitale 3D-Modelle finden zunehmend auch im Bereich der Kriminalistik Anwendung, da sie nicht nur zur dauerhaften Dokumentation eines Tatortes beitragen, sondern auch wertvolle Erkenntnisse hinsichtlich des Tatherganges liefern können. Die vorliegende Arbeit befasst sich mit der Überprüfung des Generierungsprozesses derartiger 3D-Modelle hinsichtlich der in der IT-Forensik geltenden Richtlinien für die Reproduzierbarkeit und Dokumentation. Diese Untersuchung ist von Bedeutung, da die digitale 3D Tatortrekonstruktion nicht nur für die Ermittler selbst Hinweise liefert, sondern auch vor Gericht maßgebliche Beweiskraft haben kann, insofern sie die Anforderungen erfüllt. Für die Überprüfung wurden die beiden Softwarelösungen Agisoft Metashape und Meshroom genutzt, um zahlreiche Modelle unterschiedlicher Parametersets zu generieren. Anschließend wurden die mit gleichen Ausgangsbedingungen generierten Modelle hinsichtlich ihrer Ähnlichkeit verglichen, um so die Reproduzierbarkeit zu untersuchen. Mithilfe der Handbücher wurden zudem die einzelnen Prozessschritte näher betrachtet und somit die Möglichkeiten der Dokumentation überprüft.
Menschen hinterlassen bei jeder Berührung eines Gegenstandes Fingerabdrücke, durch die sie eindeutig identifiziert werden können, sofern die Qualität dieser aus-reichend ist. Geachtet wird dabei vor allem auf das Grundmuster und den Papillarleisten eines Fingerabdrucks, in denen sich individuell angeordnete Minuzien wiederfinden. Die Qualität dieser Spuren hängt nicht nur von der Person selbst ab, sondern wird u.a. auch durch äußere Gegebenheiten beeinflusst. In dieser Arbeit wird speziell auf den Einfluss filmischer Verunreinigungen auf daktyloskopischer Spuren eingegangen. Zum Einsatz kommen dabei sowohl feste, als auch flüssige Verunreinigungen, die für festgelegte Zeitintervalle auf die Fingerabdrücke einwirken. Die Qualität der verunreinigten Fingerspuren wird analysiert, im jeweiligen Kontext ausgewertet und kann dabei zukünftigen Arbeiten eine Grundlage bieten. Filmisch verunreinigte Fingerabdrücke können sich durchaus auch nach längerer Einwirkzeit sichern lassen, sofern die Sicherungsmethoden passend ausgewählt und angewendet werden.
Analyse des Einflusses verschiedener Umweltfaktoren auf die spektroskopische Blutaltersbestimmung
(2017)
Blutspuren gehören zu den wichtigsten Beweisen in der Forensik. Neben der morphologischen Untersuchung wie bei der Blutmusteranalyse, kann ebenfalls das Blut an sich untersucht werden um das Alter zu bestimmen. Somit lassen sich nicht nur Tathergänge rekonstruieren, auch eine Überprüfung der Aussagen von Zeugen oder Tatverdächtigen ist somit möglich. Allerdings erschweren Umweltfaktoren die Bestimmung des Alters. Der Einfluss der Faktoren Licht, Temperatur und Luftfeuchtigkeit wurde in dieser Arbeit mit Hilfe einer spektroskopischen Analysemethode, der UV/VIS-Spektroskopie, über einen Zeitraum von 21 Tagen untersucht. Für die Bestimmung des Blutalters wurden neben den vier spezifischen Blutpeaks, zwei Peaks aus dem UV-Bereich näher betrachtet. Es konnte beobachtet werden, dass vor allem die Temperaturverhältnisse einen großen Einfluss auf die Umwandlung von Oxyhämoglobin zu Methämoglobin haben. Die Umsetzungsrate ist hierbei viel geringer. Die Betrachtung der Peaks im UV-Bereich ergab, dass diese von Lichteinflüssen stärker beeinflusst werden. Jedoch eignen sich die Peaks nur bis zu einem Zeitraum von maximal fünf Tagen, da bei älteren Spuren die Werte nicht mehr zuverlässig sind.
Die Altersbestimmung von Blut kann hilfreiche Aufschlüsse über das gesamte geschehene Verbrechen liefern. So kann nicht nur die Leichenliegezeit bestimmt, sondern auch Zeugenaussagen auf ihre Wahrheit überprüft werden. In der Forensik gibt es kostspielige Methoden, um das Alters eines Blutfleckes bestimmen zu können. Hierbei ist auch zu beachten, dass Umwelteinflüsse die Untersuchung und Bestimmung im Wesentlichen erschweren können.
In dieser Bachelorarbeit wurde sich daher auf die spektroskopische Untersuchung mittels UV/VIS-Spektroskopie über einen Zeitraum von 40 Tagen konzentriert. Für das Experiment wurde ausschließlich der Faktor Temperaturverhältnis einbezogen. Für die Blutaltersbestimmung wurden die Peaks der Hämoglobinderivate Methämoglobin und Oxyhämoglobin näher betrachtet. Es konnte beobachtet werden, dass die Peaks, aufgrund der Oxidation von Hämoglobin, mit zunehmenden Alter abnehmen. Des Weiteren konnte festgestellt werden, dass das Blut in kalten Umgebungen langsamer altert, als in warmen Umgebungen.
Für die Unfallrekonstruktion bietet die Erstellung eines 3D-Modelles viele Vorteile. Es fallen weniger Daten bei der Datenakquirierung an und somit wird benötigte Zeit an der Unfallstelle reduziert. Zusätzlich lassen sich Messungen direkt am 3D-Modell vornehmen. Um eine möglichst genaue 3D-Rekonstruktion zu ermöglichen, wurde in dieser Arbeit der Einfluss von verschiedenen Aufnahmemethodiken und softwarespezifischen Prozessparametern, auf das mithilfe der Photogrammetrie Software Agisoft PhotoScan erstellte Modell untersucht. Da es bisher wenig Literatur gab, welche sichmit der richtigen Parametrisierung des Rekonstruktionsprozesses auseinandersetzte, wurde dabei deshalb empirisch vorgegangen. Als unterschiedliche Aufnahmemethoden wurden die Aufnahme direkt mit der Kamera aus der Hand, an einem Stativ und aus der Luft mit drei verschiedenen Kamerasystemen analysiert. Die rekonstruierten 3D-Modelle wurden auf ihre Abweichung und auf die optische Ähnlichkeit zum realen Modell untersucht. Das Ziel dieser Arbeit war die Optimierung des Rekonstruktions- und Aufnahmeprozesses für die Aufnahme einer Fahrbahn. Dabei stellten sich heraus, dass sich für verschiedene Aufnahmemethodiken unterschiedliche Prozessparameter eignen und dass die Parametrisierung, neben der Aufnahmemethodik, einen großen Einfluss auf das fertige 3D-Modell hat.
Die Biometrie ist eine Methode für die Zugriffssicherung auf sensible Daten, welche sich seit dem letzten Jahrzehnt immer mehr durchgesetzt hat. Sie wird vor allem in dem Bereich mobiler Endgeräte verbreitet eingesetzt, da die Implementierung kostengünstig ist. Außerdem muss sich der Benutzer keine Zugangsdaten merken, um Zugriff zu erlangen. Mit dem zunehmenden Nutzen werden jedoch auch Ansätze evaluiert, um diese Sicherheitsbeschränkungen von biometrischen Systemen zu umgehen.
In dieser Arbeit werden Ansätze evaluiert, um Zugang zu gesicherten Daten für forensische Zwecke zu erhalten. Bei Straftaten ist es entscheidend, in kurzer Zeit an die benötigten Daten zu kommen. Mit einem Brute-Force-Angriff kann es jedoch mehrere Jahre dauern, Passwörter zu knacken. Daher kann die Biometrie eine schnellere Lösung sein, um mobile Geräte zu entsperren. Hier liegt der Fokus auf der Erstellung von Fingerabdruck-Artefakten, um sich Zugang zu verschaffen.
Um diese These zu überprüfen, werden Experimente mit verschiedenen Ansätzen durchgeführt, um gängige Typen von Fingerabdrucksensoren zu umgehen. Zu Beginn wurden 2D-Ansätze evaluiert. Hierbei werden Fingerabdrücke mit einem Laserdrucker auf verschiedenste Materialien gedruckt. Als nächstes werden 3D-Ansätze getestet, wozu ein SLA Drucker verwendet wird. Darüber hinaus sind Hilfsmittel evaluiert worden, um die Eigenschaften der Fingerabdruckartefakte zu verbessern, damit sie sich mehr wie ein menschlicher Finger verhalten.
Die Experimente zeigen, dass es möglich ist, Fingerabdrucksensoren mit Artefakten zu umgehen, um an gesicherte Daten zu gelangen. Optische Sensoren akzeptieren 2D gedruckte Fingerabdrücke. Im Gegensatz dazu benötigen kapazitive und ultraschallbasierte Sensoren andere Artefakte. Wir konnten die Sicherheitssperre mit 3D Fingerabdrücken überwinden. Darüber hinaus sind Hilfsmittel nützlich, wenn eine Lebenderkennung integriert ist.
In dieser Bachelorarbeit wird der Messengerdienst WhatsApp auf Mobilgeräten mit Android-Betriebssystem aus digitalforensischer Perspektive beleuchtet. Dazu werden technische Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät gespeicherte Dateien und die enthaltenen forensischen Artefakte ebenso diskutiert wie mehrere Möglichkeiten, WhatsApp betreffende Daten zu extrahieren. Des Weiteren werden sowohl das WhatsApp-interne als auch das Android-Systemlog analysiert, um den erstellten Einträgen die zugrunde liegenden Nutzeraktivitäten zuordnen zu können. Anschließend wird ein Programm vorgestellt, das die gewonnenen Erkenntnisse nutzt, um automatisiert aus den gegebenen Logdateien Ereignisse zu extrahieren und aufzubereiten.
Die Arbeit soll für forensische Untersuchungen, bei denen WhatsApp eine Rolle spielt, sowohl die Informationen als auch ein Werkzeug bereitstellen, mit dem die Aktivitäten des Nutzers nachvollzogen und wichtige Spuren gefunden werden können.
Das Ziel der vorliegenden Bachelorarbeit besteht darin, den Renesas Synergy S7G2 Mikrocontroller und dessen Merkmale und Funktionen in Bezug auf Sicherheitsmechanismen zu analysieren, um eventuelle Schwächen zu identifizieren. Dafür werden zu Beginn Mikrocontroller und deren Eigenschaften grundlegend erklärt. Weiterführend werden sowohl praktische als auch theoretische Untersuchungen und Betrachtungen des S7G2s angestellt, wobei das Hauptaugenmerk in der Praxis auf der JTAGSchnittstelle liegt. Abschließend wird der Renesas Controller und dessen Merkmale mit denen des Atmel ATXMEGA-A3BU-Xplained Mikrocontrollers verglichen, um die Sicherheit beider zu diskutieren.
Das Ziel dieser Arbeit ist die Analyse von Kampfszenarien in Videospielen, mit dem Fokus auf der Gewichtung von unterschiedlichen Charakter-Klassen und Teamzusammenstellung.
Dazu wird dies an zwei Videospielen analysiert. Danach wird eine Anforderungsanalyse durchgeführt und es erfolgt die prototypische Umsetzung eines Softwaretools, in dem sich Kampfszenarien simulieren lassen. Ergänzend dazu wird eine visuelle Evaluation implementiert. Anhand der Auswertung von Testsimulationen wird dann eine erneute Analyse durchgeführt.
Analyse dezentraler Identifikation mittels Sidetree-Protokolls, am Beispiel von Microsoft ION
(2021)
This master thesis deals with the field of decentralized identification, using the example of the Microsoft Identity Overlay Network (ION). In the introduction, basic terms such as identity and identification are described. A special emphasis is placed on the explaining of the principle of decentralized identifiers (DIDs) and the SSI concept. ION is an implementation of the Sidetree protocol and uses its core components. This is the reason why more details and special parts of Sidetree are described in the methods chapter. Afterwards the ION history and network topology is typify more in detail. An ION node will be installed and operated on top of the Bitcoin blockchain. The installation process and the problems that arise are recorded. Then the ION tools (a programming library and its values) will be explained and the example program code is shown. As a practical addition of the ION tools, a verifiable credential solution is scripted. This solution shows the creation of ION-DID and the signature options of these identifiers. In the results chapter the knowledge acquired via the decentralized identification is evaluated. A theoretical security analysis for ION is implemented. Furthermore, a list of the currently possible uses for the network is enumerated. A discussion is initiated that compares the advantages and disadvantages of ION. The thesis ends with a conclusion and an outlook for ION and decentralized identification.
Das Ziel dieser Arbeit ist die Untersuchung der in Blender vorhandenen Tools zur Erstellung einer Fallsimulation mit einfachen Objekten und Menschmodellen. Nach einem kurzen Überblick über die Theorie werden verschiedene Kräfte in mehreren Testreihen untersucht und schlussendlich kombiniert. Diese Testreihen werden mit dem Programm Blender durchgeführt. Zusätzlich wurde eine Anleitung zur Erstellung einer Ragdoll in Blender 2.8 an-gefertigt.
Diese Bachelorarbeit beschäftigt sich mit der Analyse des Bussystems FlexRay. Dieses System wird vor allem für sicherheitskritische Aspekte im Fahrzeug eingesetzt. Somit kann das FlexRay über das Leib und Leben des Fahrers und aller Verkehrsteilnehmer mitwirken. Gerade in heu-tigen Zeiten, wo immer mehr Technologie zur Sicherheit des Verkehrs beitragen soll, wird vor allem in die Sicherheit des Systems im Bezug zur Zuverlässigkeit geforscht. Die Absicherung vor Manipulationen oder Angriffen auf den Bus wird jedoch nur wenig untersucht. Daher soll diese Ausarbeitung zur Analyse des Bussystems, bezüglich der IT-Sicherheit dienen. Dabei ist die Thematik dieser Arbeit noch nicht abgeschlossen, sie bildet jedoch eine gute Grundlage für weiterführende Versuche.
Die Aufgabe der V2X-Kommunikation ist es, zukünftig die Sicherheit und Effizienz im Straßenverkehr zu erhöhen. Das Ziel dieser Arbeit besteht darin, sicherheitsrelevante Aspekte von Car2X Protokollen zu analysieren. Grundlage bildet hier der europäischen ETSI-Standard. Da es sich bei dieser Arbeit um eine Literaturrecherche handelt, werden zu diesem Zweck die Veröffentlichungen des Standards herangezogen. Zunächst wird das Netzwerk aufgezeigt, in dem die Kommunikation zwischen den Fahrzeugen und der Infrastruktur stattfindet. Anschließend werden wichtige Protokolle analysiert und verschiedene Angriffspunkte untersucht. Die verschiedenen Angriffe werden mit anderen Forschungsarbeiten verglichen und analysiert. In dieser Arbeit wurde festgestellt, dass trotz spezieller Sicherheitsvorkehrungen, Angriffe auf das Netzwerk und die Protokolle möglich sind.
In der vorliegenden Arbeit wird das Thema Cybercrime umfangreich behandelt. Dabei wird unter anderem auf den klassischen Cyberangriff und auf das Thema Social Engineering eingegangen. Die Problematik der Cybercrime, wird für jeden leicht verständlich erklärt. Dabei wird eine neue und allgemeine Anatomie von Cyberangriffen erarbeitet und es werden aktuelle Beispiele diskutiert. Ziel der Arbeit ist es, ein Sicherheitsbewusstsein zu schaffen mit dem jeder sich sicherer in der digitalen Welt bewegen kann.
Ziel der vorliegenden Bachelorarbeit war es, ein Open-Source-Softwarepaket zusammen zu stellen, das zur computergestützten Tatortrekonstruktion verwendet werden kann. Dazu wurden verschiedene Add-ons für die Open-Source-Software Blender in ihrer Funktionsweise vorgestellt und anschließend miteinander verglichen. Hierbei wurde insbesondere auf Nutzerfreundlichkeit und Eignung zur Tatortrekonstruktion eingegangen. Anschließend wurde das daraus resultierende Softwarepaket zur Erstellung einer Tatortrekonstruktion anhand eines Fallbeispiels verwendet.
Die vorliegende Arbeit befasst sich mit der Analyse von bestehenden Konzepten zur Nutzung Prozeduraler Content Generierung in Games, sowie mit einer aus der Analyse resultierenden Bewertung dieser. Durch eine Aufschlüsselung von Konzepten veröffentlichter Games und algorithmischer Ansätze wird ermittelt, welche Möglichkeiten für die Entwicklung von Games bestehen und wie computergesteuerte Generierung als Werkzeug das künstlerisch-handwerkliche Produkt des Entwicklers erweitern kann.
Zur Analyse stehen neun repräsentative Games, die Prozedurale Content Generierung nutzen, sowie fünf algorithmische Konzepte, mit deren Hilfe Content prozedural generiert werden kann. Die Ergebnisse von Analyse und Bewertung von Games und Algorithmen belegen die Bedeutung Prozeduraler Content Generierung als Werkzeug zur Erweiterung des menschlichen Schaffensvermögens. Untersuchte Konzepte werden ergänzend zu einem Kompendium mit weiteren Methoden und Literaturhinweisen entwickelt.
Das Testen von Software ist unabdingbar und wird nicht nur für Desktop Applikationen, sondern auch für Applikationen auf mobilen Geräten benötigt. Der Prozess des Testens ist aufwändig. Es gibt durch künstliche Intelligenz gestützte Lösungen, welche Systemtests zu großen Teilen eigenständig generieren und dem Entwickler das Testen erleichtern, zum Beispiel das AI4Test Projekt der Systems Multimedia Solutions GmbH.
Das Ziel dieser Bachelorarbeit besteht darin, das AI4Test Projekt zu analysieren und die bestehende Struktur so zu erweitern, dass iOS-Geräte neben Android und Desktop Geräten unterstützt werden. Dabei wird eine generalisierte Schnittstelle zur Interaktion mit Geräten geschaffen.
Das Ziel der Bachelorarbeit wird erreicht. Das AI4Test Projekt wird vorgestellt, die Schnittstelle generalisiert und die Plattform iOS wird prinzipiell unterstützt.
Die vorliegende Arbeit beschäftigt sich mit der Analyse von
Festplattenverschlüsselungssoftware. Dabei werden BitLocker von Microsoft, FileVault von Apple unter MacOS und LUKS unter Linux betrachtet. Des Weiteren wird die Verschlüsselung Data Protection der iPhones und Android Encryption von Googles Betriebssystem analysiert. Bei der Untersuchung werden die verwendeten kryptographischen Algorithmen, die Schlüsselhierarchie und hardwarebasierenden Technologien behandelt. Zudem werden Angriffsmöglichkeiten präsentiert, die bei einer forensischen Analyse verwendet werden können, um die Verschlüsselung zu umgehen.
Die vorliegende Arbeit befasst sich mit einer Verbesserung des Produktverwaltungsprozesses eines Magento Onlineshops sowie einer verbesserten Bestellverarbeitung und dessen Integration zu Unternehmenssystemen. Mögliche Optimierungsansätze werden anhand der System-landschaft des Unternehmens XECURIS GmbH & Co. KG aufgezeigt. Unternehmen sind darum bemüht, Workflows möglichst effektiv und mit geringem Zeitaufwand zu gestalten. Insbesondere Unternehmen im IT-Umfeld sind darauf angewiesen, dass komplexe Geschäftsabläufe automatisiert und fehlerfrei abgearbeitet werden. Ziel der Arbeit ist es, Schwächen an der bestehenden Infrastruktur des Unternehmens zu analysieren, Optimierungsansätze zu entwickeln sowie Ansätze zu deren Implementation aufzuzeigen.
Die vorliegende Arbeit beschäftigte sich mit einer Analyse von Methoden des maschinellen Lernens, mit Hinblick auf ihre unterstützende Wirkung für den intralingualen Übersetzungsprozess von deutschen standardsprachlichen zu Leichte Sprache Texten. Für diesen Zweck wurde ein Vergleich von relevanten Methoden, in diesem Fall die der statistischen maschinellen Übersetzung und die der neuronalen maschinellen Übersetzung aus dem Bereich des maschinellen Lernens und des Natural Language Processing aufgestellt. Dabei wurde der potenzielle Funktionsumfang, die Voraussetzungen sowie die Implementierbarkeit verglichen. Das Ergebnis dieses Vergleiches war es das, dass Potenzial durchaus gegeben ist mittels dieser Methoden den Übersetzungsprozess zu unterstützen. Jedoch bedingt das Fehlen eines Textkorpus für deutsche Standard Sprache und ein dazugehöriger Textkorpus der Leichten Sprache, das diese Methoden nicht implementiert, wurden konnten. Es konnten drei Funktionen umgesetzt werden, die den Übersetzungsprozess unterstützen. Zum einen die Funktion für die Anzeige von gebräuchlicheren Synonymen von Wörtern, eine Funktion für die automatische Generierung von
Zusammenfassungen und eine Funktion für Anzeige von Umformulierungen für Zahlen aus den Bereichen hohe Zahlen, alte Jahreszahlen und Prozent Zahlen. Die Evaluation der Funktionen mittels einer zufällig generierten Wortliste und ausgewählter Nachrichten für die Zusammenfassung und Zahlenbereiche ergab. Das diese Funktionen eine unterstützende Wirkung haben, jedoch stark fehleranfällig sind.
Im Rahmen der zwölfwöchigen Bearbeitungszeit wurde in dieser Bachelorarbeit die Analyse und das Zeitmanagement von Routineparameter in unserem Labor, labopart – Medizinische Laboratorien in Chemnitz, getätigt. Ziel war es durch statistische Erfassungen und intensive Mitarbeit, die Notwendigkeit der Anschaffung neuer Analyzer sowie weitere Optimierungsgründe finden und beschreiben zu können.
Der Einsatz von künstlicher Intelligenz soll in der Zukunft auch die Verbrechensaufklärung unterstützen. Ein Teilgebiet dessen ist die Bewegungsanalyse von Menschen. Ein wichtiger Aspekt dabei ist die Verformung und Bewegung der Wirbelsäule, mit der Frage, wie viele Wirbel als digitale Knochen einzeln benötigt werden, um eine Bewegung noch möglichst natürlich und anatomisch korrekt darstellen zu können. Diese Arbeit befasst sich mit der Reduktion der Wirbelsäule bzw. einzelner Wirbel anhand der Erstellung und Posierung von 3DSkeletten, welche je über anders zusammengefasste Wirbel verfügen.
Hass und Hetze im Netz haben in den letzten Jahren stetig zugenommen. Vor allem in den sozialen Medien sind Anfeindungen, Hass und Hetze immer dominanter geworden. Dies stellt auch die Strafverfolgungsbehörden vor neue Aufgaben. Um Verfasser von Hasskommentaren über soziale Netzwerke effektiver identifizieren zu können, nehmen Polizei und Justiz seit einiger Zeit die OSINT-Recherche (Open Source Intelligence) zu Hilfe. Hierfür durchsuchen die Ermittler digital das Profil oder die Profile der Verfasser von Hasskommentaren und sichern Informationen, welche zur Identifizierung der Personen führen können. Diese Arbeit soll aufzeigen, wie die OSINT-Recherche im Vergleich zu den Standardermittlungen einzuordnen ist. Außerdem soll untersucht werden, wie Hasskommentare im Netz klassifiziert werden können und welche Art von Informationen die Nutzer freiwillig im digitalen Raum veröffentlichen.
Die Einführung eines IT-Notfallmanagement kann auf freiwilligen Basis oder durch rechtliche Verpflichtungen erfolgen. Hierbei ist die Verwendung von etablierten Standards und Normen gerade für kleine und mittelständische Unternehmen (KMU) empfehlenswert, aber herausfordernd. In der vorliegenden Bachelorarbeit werden einschlägige gesetzliche Verpflichtungen für KMU betrachtet. Es wird sodann auf bekannte Normen und Standards des IT-Notfallmanagements eingegangen. Mit einer selbstentwickelten Methode werden diese auf ihre KMU-Tauglichkeit geprüft. Das Ziel besteht darin, den verpflichteten KMU den für sie geeignetsten der betrachten Standards und Normen aufzuzeigen.
Die Analyse von Logdateien bietet in der Mobil-Forensik die Möglichkeit herauszufinden, wann welche Aktionen am Handy stattgefunden haben. Das Thema dieser Bachelorarbeit ist die Analyse bestimmter Protokolldateien unter Android. Der Schwerpunkt liegt in der Untersuchung der Ordner usagestats, recent_images und com.whatsapp, welche auf der Datenpartition liegen. In der Zielfragestellung dieser Studie gilt es festzustellen, ob die Protokolldateien in den jeweiligen Ordnern einen Hinweis auf die letzten Aktivitäten des Nutzers geben. Da sich bisher wenige Studien genauer mit der Protokollierung dieser Logdateien auseinandergesetzt haben, werden zu diesem Zwecke verschiedene Szenarien mit einem Android-Smartphone durchgeführt, um zu verstehen, was in den jeweiligen Dateien protokolliert wird. Dazu werden dieselben Szenarien auf drei unterschiedlichen Betriebssystemversionen getestet, um mögliche Unterschiede festzustellen und wesentliche Rückschlüsse für die Forensik zu folgern. Es ist zu beobachten, dass sich einige der untersuchten Dateien zur Beantwortung der Ausgangsfrage eignen, während andere Protokolldateien eher als kritisch zu betrachten sind.