Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Im Folgenden wird sich mit der Blutspurenmusteranalyse beschäftigt. Hierzu werden in der folgenden Arbeit drei Experimente vorgestellt bei denen verschiedene Arten von Blutspuren hergestellt werden und somit eine große Datenbank an fotographisch festgehaltenen Blutspuren erstellt wird. Diese Datenbank hilft dann den Prozess der Analyse von Blutspuren zu automatisieren. Die Bilder werden dazu benutzt ein neuronales Netz zu trainieren und anhand des Trainings wird evaluiert, wie präzise das Netz ist.
Verschiedene Videospiele bieten einen unterschiedlichen Grad an Herausforderung und Schwierigkeit. Die meisten von ihnen verfügen trotz unterschiedlicher Schwierigkeitsgrade über keine Möglichkeit dem Spieler eine passende Herausforderung zu schaffen. In dieser Arbeit soll sich damit beschäftigt werden, basierend auf den spielerischen Fähigkeiten der Person, eine passende Herausforderung im Spiel zu schaffen. Dazu wird die folgende Forschungsfrage gestellt: Ist es möglich durch eine adaptive Anpassung von Parametern in Videospielen für Spieler jedes Leistungsniveaus eine ähnlich anspruchsvolle Herausforderung zu erzeugen?' Diese wird durch die Entwicklung und Umsetzung von Fähigkeitentests realisiert, dessen Ergebnisse einen Bossfight beeinflussen. Um die Forschungsfrage zu beantworten, wird die entwickelte Testreihe mit einigen Probanden absolviert und deren Feedback vernommen. Dieses Feedback führt zu dem Schluss, dass die Tests geeignet sind für die Leistungsermittlung, aber der Bossfight und die Umgebung nicht für ein spielerisches Umfeld sorgen, was die Forschungsfrage unvollständig beantwortet lässt. Weitere Arbeiten könnten sich mit der Umsetzung einer besseren Testumgebung und einem besseren Anwendungsfall beschäftigen.
In der Bachelorarbeit wird der Zusammenhang zwischen der Verwendung von Kunst und der Videospielproduktion dargestellt. Als Ziel der Arbeit soll eine Aufschlüsselung der Kunstbereiche Concept Art und Illustration klarstellen, inwiefern eine Unterscheidung in der Industrie eine Rolle spielen. Mit der Untersuchung soll ein realistischer Eindruck über die Funktionsweise der Kunst in den beiden Bereichen analysiert werden. Das Ergebnis zeigt, dass die initiale Motivation zur Erstellung grundlegend verschieden ist und für den Entwickler das Maß für die Qualität der Werke ist.
Untersuchung der Verwendung von Emojis in verschiedenen sprachlichen und kulturellen Kontexten
(2021)
Die modernen Kommunikationswege bieten inzwischen verschiedene Möglichkeiten, neben Text auch weitere Informationen zu teilen, zum Beispiel mittels Emojis. Diese werden in der Forensik noch nicht tiefgreifend analysiert. Um einen Einstieg in die Untersuchung der Verwendung von Emojis zu finden, beschäftigt sich diese Arbeit mit Unterschieden der Emoji-Nutzung in verschiedenen Kulturen und Sprachen. Dazu wurden mehrere statistische Analysen durchgeführt. Des Weiteren wird das Sentiment der Emojis untersucht und getestet, ob Emojis in allen Kulturen die gleiche Bedeutung haben. Zur Ermittlung der Bedeutung wurden Wortrelationen verwendet. In allen drei untersuchten Aspekten konnten Unterschiede festgestellt werden.
In dieser Arbeit wird der SAUZEROR-Algorithmus für Nukleotidstrukturen angepasst und auf seine Funktionalität und Performanz überprüft. DNA- und RNA-Strukturen sind in jeder lebenden Zelle vorhanden. Bei den RNA Strukturen haben die ncRNA eine immer größer werdende Bedeutung und die Funktion der ncRNA liegt in ihren geometrischen Aufbau. Der SAUZERORAlgorithmus erzeugt durch 3D-Koordinaten einer RNA-Struktur eine zER-Profil, welches eine 1D Repräsentation des Moleküles wiederspiegelt. Die zER-Profile können mit dynamsicher Programmierung aligniert werden und durch verschiede Scorings (zER-Score, NORM-Score, RMSD, GDT-TS oder TM-Score) bewertet werden. Für die Funktionalitätsprüfung wurden einzelene t-RNAs herangezogen und verglichen. Bei der Performanz ist der balance-x-FSCOR Benchmark benutzt wurden. Das Ergebnis war, dass der SAUZEROR-Algorithmus die wenigste Zeit benötigt und die zweitbeste Performanz abliefert.
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
Im Rahmen dieser Arbeit wird das ZigBee Protokoll genauer untersucht. Dabei wird gezielt auf die häufigsten Angriffsmethoden eingegangen, welche anschließend bewertet werden. Die Bewertung erfolgt mittels eines in der Arbeit vorgestellten Bewertungsschemas mit einer anschließenden Einordnung in eine Bedrohungsmatrix. Zuletzt werden einige der Attacken in einem Experiment durchgeführt, um die theoretische Einordnung zu überprüfen.
Diese Arbeit erläutert, wie automatisiert aus den derzeit gängigen Browsern - namentlich Internet Explorer, Microsoft Edge, Google Chrome, Mozilla Firefox sowie Opera, die Datenbanken aus forensischen Windows-Datenträgerkopien extrahiert werden können. Dabei werden diese Browser in dem Datenträgerabbild mittels Registry-Verweisen festgestellt und anschließend ihre Datenbanken aus den gängigen Pfaden extrahiert. Daraufhin werden alle Verläufe mittels einer dynamischen Liste gefiltert. Als Ergebnis entsteht ein neues Datenträgerabbild mit den enthaltenen Datenbanken der Browser. Das Ergebnis soll den Ermittlern Zeit bei der Durchsuchung der Browserdaten sparen, indem der Verlauf bereits gefiltert vorliegt.
Die vorliegende Arbeit beschäftigt sich mit der Analyse, Konzeption, Implementation und Evaluation eines dezentralen Feedback-Systems für die Blockchain Academy Mittweida. Es wurde nach einer Lösung gesucht, das Feedback für die angebotenen Kurse auf der Seite der Blockchain Academy Mittweida erfassen zu können. Dabei sollte die Anonymität des Nutzers stets gewahrt bleiben, jedoch für den Betreiber die Möglichkeit gegeben sein, unberechtigtes oder doppeltes Feedback erkennen und aussortieren zu können. Diese Anforderungen konnten durch die Linkable-Ring-Signature gewährleistet werden. Bei diesem Verfahren kann der Nutzer stellvertretend für seine Gruppe eine Nachricht signieren. Der Betreiber kann überprüfen, ob eine signierte Nachricht aus dieser Gruppe stammt und ob es bereits eine Nachricht von einem Nutzer eingegangen ist, ohne die Anonymität des Nutzers aufzuheben. Das System wurde möglichst dezentral gestaltet, um keine zentrale Angriffsstelle bieten zu können und sicherheitsrelevante Teile abkapseln zu können. Es wurde ein Smart Contract angelegt, welcher die zum Signieren benötigten öffentlichen Schlüssel der Gruppenmitglieder eines Kurses bereithält. Die zweite Komponente stellt eine Browsererweiterung dar. Mit dieser kann der Nutzer sich in die Feedbackgruppe zu einem Kurs eintragen und seine Schlüsselpaare für die Signatur Generierung speichern lassen. Die dritte Komponente ist ein Plugin auf dem WordPress-System der Blockchain Academy Mittweida, mit welchem das Feedback auf Verknüpfbarkeit geprüft werden kann. Mittels eines funktionalen Testverfahrens und einer Probandengruppe wurde die erarbeitete Lösung untersucht. In beiden Fällen bestand die Lösung die an diese gestellten Anforderungen und wurde positiv von der Probandengruppe aufgenommen. Es wurde sich mehrheitlich für die vorgestellte Lösung und gegen eine Lösung mit einem Kennwort, welches der Nutzer eingeben muss, bevor er eine Umfrage ausfüllen kann, entschieden. Im Wintersemester 2022/2023 an der Hochschule Mittweida könnte die Anwendung zusammen mit dem Masterstudiengang Blockchain & Distributed Ledger Technologies (DLT) in einem größeren Praxistest eingesetzt und weiter erprobt und verbessert werden.
Die vorliegende Arbeit befasst sich mit dem Cybercrime-Phänomen Phishing. Durch die Analyse von echten Delikten im Bereich des Phishings wird betrachtet, inwieweit das Phänomen durch das Strafgesetzbuch erfasst wird. Dafür wird sich an Paragrafen orientiert, die aus der Cybercrime-Konvention hervorgegangen sind, beziehungsweise durch diese geändert wurden und dem Bereich Cybercrime im engeren Sinn zugeordnet werden können. Neben einer Definition des Begriffes Cybercrime werden eine begriffliche Einordnung des Phänomens Phishing vorgenommen und die Grundzüge dieses aufgezeigt. Anschließend wird mithilfe der Delikte erörtert, welche Tatbestandsmerkmale der einzelnen Paragrafen sich bei den Delikten detektieren lassen und inwieweit die Begehungsweise Einfluss auf die detektierbaren Tatbestandsmerkmale hat. Bei der Erörterung wird auch auf den Begriff Daten eingegangen und welche Definition diesem innerhalb der betrachten Paragrafen zugrunde liegt.
Serielle Auswertung von Datensätzen einer Wildtierkamera mit dem Schwerpunkt Kennzeichendetektion
(2022)
Nummernschild- und Objektdetektion sind wichtige Bestandteile der Verkehrsüberwachung. Jedoch befassen sich die meisten Forschungsarbeiten zu diesen Themen mit der Detektion auf gut beleuchteten Bildern und nur wenige mit der Detektion auf sehr schlecht beleuchteten Aufnahmen. Diese Arbeit versucht, verschiedene Objektdetektionsalgorithmen auf schlecht beleuchteten Bildern zu vergleichen, sowie den Einfluss verschiedener einfacher Bildverbesserungsmethoden auf das Detektionsergebnis zu bewerten. Auf Grundlage dieser Ergebnisse wird anschließend eine Anwendung entwickelt, welche automatisiert Datensätze mehrerer Wildtierkameras auswertet, um diese zur einfacheren Verwendung zur Verfügung zu stellen.
Für die genetische Untersuchung eines Organismus ist es heutzutage unerlässlich dessen Genom vorliegen zu haben. Diese Arbeit schafft diese essentielle Grundlage für die weiteren Untersuchungen des altdeutschen Schafpudels. Die Assemblierung des Genoms wird dabei mit Illumina-Short-Reads und Nanopore-Long-Reads durchgeführt. Es werden drei verschiedene Ansätze getestet: das Short-Read-Assembly, das Long-Read-Assembly und das Hybrid-Assembly. Die Assemblies aller drei Ansätze werden im Folgenden auf ihre Qualität überprüft und miteinander verglichen, um das Assembly schrittweise zu verbessern. Das Ziel ist, dass das Assembly ähnliche Qualitäts-Metriken wie die Chromosomen-Level-Assemblies der bisher schon assemblierten Genome anderer Hundearten aufweist.
Der Videospielmarkt weltweit wächst immer weiter. Durch die hohe Nachfrage und das entsprechend große Angebot wird die Aufgabe des Marketings in der Videospielentwicklung immer wichtiger. Die meisten jungen Entwicklerstudios achten allerdings wenig auf das Marketing. Durch den übersättigten Markt sind gute Marketingmaßnahmen unverzichtbar für den Erfolg des Spiels geworden. Die vorliegende Arbeit zeigt auf, wie sich Maßnahmen mit dem Game Design verbinden lassen, um die erfolgreiche Vermarktung des Produkts zu gewährleisten. Diese Handlungsempfehlung wurde verfasst, um jungen Entwicklern eine Hilfestellung zu geben, wie sich das Marketing bereits während der Entwicklung in diesen Prozess integrieren lässt.
In dieser Arbeit geht es um die Konzeption und Implementierung eines Softwaretools für die Annotation von Spielpartieabläufen selektierter Automatic Battle- Spiele. Es werden drei Spiele dieser Art, auch als Vertreter des Auto-Battler-Genres klassizierbar, auf Gemeinsamkeiten und Unterschiede untersucht und im Anschluss ein Konzept für ein allgemein anwendbares Annotationstool erstellt. Anschließend erfolgt eine Implementierung für jenes Tool und ein Vergleich zum Annotationsprozess, bei welchem keine Unterstützung durch ein dafür entwickeltes Softwaretool erfolgt. Es konnten Erkenntnisse gewonnen werden zur potenziellen Verbesserung der Annotation von Automatic Battle-Spielen durch Verwendung einer Software, welche speziell für diesen Zweck ausgelegt ist.
Over the past few years, wind and solar power plants have increasingly contributed to energy production. However, due to fluctuating energy sources, the energy production data contain disruption. Such disrupted data lead to the wrong prediction performance, and they need to be estimated by other values. In this thesis, we provide a comparative study to estimate the online disrupted data based on the data of similar groups of power plants, We apply three estimation techniques, e.g., mean, interpolation, and k-nearest neighbor to estimate the disruption on training data. We then apply four clustering algorithms, e.g., k-means, neural gas, hierarchical agglomerative, and affinity propagation, with two similarity measures, e.g., euclidean and dynamic time warping to form groups of power plants and compare the results. Experimental results show that when KNN estimation is applied to data, and neural gas and agglomerative with dtw are used to cluster the data, the cluster quality scores and execution time give better results compared to others. Therefore, we conclude and choose KNN estimation to reconstruct the online disrupted data on each group of a similar power plants.
Untersuchung der Themendynamik in sozialen Netzen am Beispiel deutschsprachiger Texte auf Twitter
(2021)
Die vorliegende wissenschaftliche Abschlussarbeit behandelt die Untersuchung von Themenentwicklungen in deutschsprachigen Texten. Dazu wurden Twitterdaten von Bundestagsparteien analysiert. Über verschiedene Vorverarbeitungsschritte wurde eine LDA an das Problem angepasst. Mittels verschiedener Distanz- und Ähnlichkeitsmaße wurde eine Beschreibung der Themendynamik durchgeführt. Weiterhin wurden verschiedene Rahmenbedingungen erprobt, die zu einer Verbesserung der Ergebnisse führten.
Im Rahmen dieser Arbeit wurde ein Arbeitsablauf entwickelt, welcher es ermöglicht daktyloskopische Spuren aus photogrammetrischen 3D-Modellen abzulösen. In der anschließenden Evaluation wird geklärt, ob diese digital abgelösten Spuren denselben Informationsgehalt haben wie real abgelöste Spuren. Dargestellt werden daktyloskopische Grundlagen, Methoden aus der 3D-Modellierung sowie die Photogrammmetrie. Außerdem werden die verwendeten Methoden sowie die daraus resultierenden Ergebnisse präsentiert.
Die vorliegende Arbeit beschäftig sich mit der bildgebenden Darstellung zur Dokumentation verschiedener Verletzungsmuster. Der Fokus liegt auf den verschiedenen Techniken zur individuellen zweidimensionalen Wunderstellung sowie den Lösungsansätzen zu deren Gestaltung. Die texturbasierten Wunden dienen zur Darstellung fallspezifischer 3D-Menschenmodelle, um diese zur Tatortrekonstruktion einsetzten zu können.
Studying and understanding the metabolism of plants is essential to better adapt them to future climate conditions. Computational models of plant metabolism can guide this process by providing a platform for fast and resource-saving in silico analyses. The reconstruction of these models can follow kinetic or stoichiometric approaches with Flux Balance Analysis being one of the most common one for stoichiometric models. Advances in metabolic modelling over the years include the increasing number of compartments, the automation of the reconstruction process, the modelling of plant-environment interactions and genetic variants or temporally and spatially resolved models. In addition, there is a growing focus on introducing synthetic pathways in plants to increase their agricultural potential regarding yield, growth and nutritional value. One example is the β-hydroxyaspartate cycle (BHAC) to bypass photorespiration. After the implementation in a stoichiometric C3 plant model, in silico flux analyses can help to understand the resulting metabolic changes. When comparing with in vivo experiments with BHAC plants, the metabolic model can reproduce most results with exceptions regarding growth and oxaloacetate. To evaluate whether the BHAC is suitable to establish a synthetic C4 cycle, the pathway is implemented in a two-cell type model that is capable of running a C4 cycle. The results show that the BHAC is only beneficial under light limitation in the bundle sheath cell. An additional engineering target for improved performance of plants is malate synthase. This work serves as the basis for further analyses combining the different factors boosting the advantages of the BHAC and for in vivo experiments in C3 and C4 plants.
Hass und Hetze im Netz haben in den letzten Jahren stetig zugenommen. Vor allem in den sozialen Medien sind Anfeindungen, Hass und Hetze immer dominanter geworden. Dies stellt auch die Strafverfolgungsbehörden vor neue Aufgaben. Um Verfasser von Hasskommentaren über soziale Netzwerke effektiver identifizieren zu können, nehmen Polizei und Justiz seit einiger Zeit die OSINT-Recherche (Open Source Intelligence) zu Hilfe. Hierfür durchsuchen die Ermittler digital das Profil oder die Profile der Verfasser von Hasskommentaren und sichern Informationen, welche zur Identifizierung der Personen führen können. Diese Arbeit soll aufzeigen, wie die OSINT-Recherche im Vergleich zu den Standardermittlungen einzuordnen ist. Außerdem soll untersucht werden, wie Hasskommentare im Netz klassifiziert werden können und welche Art von Informationen die Nutzer freiwillig im digitalen Raum veröffentlichen.
In the past few years Generative models have become an interesting topic in the field of Machine Learning (ML). Variational Autoencoder (VAE) is one of the popular frameworks of generative models based on the work of D.P Kingma and M. Welling [6] [7]. As an alternative to VAE the authors in [12] proposed and implemented Information Theoretic Learning (ITL) based Autoencoder. VAE and ITL Autoencoder are a combination of the neural networks and probabilistic graphical models (PGM) [7]. In modern statistics it is difficult to compute the approximation ofthe probability densities. In this paper we make use of Variational Inference (VI) technique from machine learning that approximate the distributions through optimization. The closeness between the distributions are measured by the information theoretic divergence measures such as Kullbach-Liebler, Euclidean and Cauchy Schwarz divergences. In this thesis, we study theoretical and experimental results of two different frameworks of generative models which generate images of MNIST handwritten characters [8] and Yale face database B [3]. The results obtained show that the proposed VAE and ITL Autoencoder are capable of generating the underlying structure of the example datasets
Digital data is rising day by day and so is the need for intelligent, automated data processing in daily life. In addition to this, in machine learning, a secure and accurate way to classify data is important. This holds utmost importance in certain fields, e.g. in medical data analysis. Moreover, in order to avoid severe consequences, the accuracy and reliability of the classification are equally important. So if the classification is not reliable, instead of accepting the wrongly classified data point, it is better to reject such a data point. This can be done with the help of some strategies by using them on top of a trained model or including them directly in the objective function of the desired training model. We discuss such strategies and analyze the results on data sets in this thesis.
Korrelation von Zeitstempeln und Pfadangaben von Ausführungsartefakten eines Windows 1x Systems
(2022)
Die Sicherheitslage in Deutschland wird für das Berichtsjahr 2021 durch das Bundesamt für Sicherheit in der Informationstechnik (BSI) als angespannt bis kritisch beschrieben. Ein Grund für diese Einschätzung ist, die Zunahme von Ransomware-Angriffen und die daraus resultierenden Schäden. Derartige Angriffe müssen im Rahmen eines Incident Response und Digital Forensic (kurz DFIR) Prozess aufgeklärt, eingedämmt und weitgehend rückgängig gemacht werden. Die immer größer werdenden Mengen an heterogenen Daten und die immer kürzeren Zeitabschnitte, die für eine Analyse zur Verfügung stehen, sind Herausforderungen, mit denen die Incident Responder und die Digitalen Forensiker konfrontiert sind.
Diese Arbeit verfolgt das Ziel, den Aufwand einer forensischen Untersuchung zu verringern, in dem Ausführungsartefakte von Windows 1x Systemen anhand der in ihnen enthaltenen Pfadangaben und Zeitstempel miteinander korreliert werden. Die praktische Anwendbarkeit der in dieser Arbeit gewonnen Erkenntnisse wurde in einem Proof-of-Concept demonstriert. Dessen Umsetzung erfolgte mithilfe von Angular, Flask und Neo4j.
Die Bachelorarbeit umfasst eine Auseinandersetzung mit dem aktuellen Straftatphänomen Cybertrading. In Zusammenarbeit mit Beteiligten des Strafverfolgungsprozesses und entsprechender Literatur wird das Phänomen aus den Gesichtspunkten der Wirtschaft, des Bankwesens, des Rechts, der Psychologie und der Polizei näher beleuchtet. Mithilfe dieser Erkenntnisse werden die Problemfelder im Umgang mit der Betrugsstraftat aufgedeckt.
Die vorliegende Bachelorarbeit befasst sich mit der Sicherung und qualitativen Bewertung von ermittlungsrelevanten Daten, die auf Fitnesstrackern/Fitness-Smartwatches ausgewählter Hersteller abgelegt sind. Das Ziel dieser Arbeit besteht darin, zu untersuchen, unter welcher Konstellation die abgelegten Daten forensisch gesichert werden können, wenn keine Zugriffsmöglichkeit zum ursprünglich gekoppelten Smartphone besteht. Die Untersuchung erstreckt sich dabei auf die Simulation von Verbindungsumgebungen zwischen Fitnesstrackern/Fitness-Smartwatch und Android-Gerät sowie dem Auslesen und Interpretieren vorhandener Speicherchips.
This Bachelor thesis investigates the learning rules of the Hebbian, Oja and BCM neuron models for their convergence to, and the stability of, the fixed points. Existing research is presented in a structured manner using consistent notation. Hebbian learning is neither convergent nor stable. Oja learning converges to a stable fixed point, which is the eigenvector corresponding to the largest eigenvalue of the covariance matrix of the input data. BCM learning converges to a fixed point which is stable, when assuming a discrete distribution of orthogonal inputs that occur with equal probability. Hebbian learning can therefore not be used in further applications, where convergence to a stable fixed point is required. Furthermore, this Bachelor thesis came to the conclusion that determining the fixed points of the BCM learning rule explicitly involves extensive calculation and other methods for verifying the stability of possible fixed points should be considered.
In regelmäßigen Abständen werden bei Milchkühen in Deutschland Daten über die Zusammensetzung der Milch erhoben, um eine gleichbleibende Qualität sicherstellen zu können. Gleichzeitig dienen die Milchinhaltsstoffe als erste Indikatoren für eine Veränderung des Stoffwechsels der Kuh und ein damit einhergehend erhöhtes Erkrankungsrisiko. Aus diesem Grund wird in dieser Arbeit untersucht, ob es möglich ist, Vorhersagen über Erkrankungen bei Milchkühen anhand dieser Milchleistungsprüfungsdaten zu treffen. Dafür werden maschinelle Lernverfahren angewendet, im Speziellen Multi-Label- und binäre Klassifikationsverfahren. Die genutzten Klassifikatoren umfassen Multi-Layer Perzeptrone, Naive Bayes-Klassifikatoren sowie Support Vector Machines mit verschiedenen Kernels. Die Vorhersagen werden mit Konfusionsmatrizen und den dazugehörigen Evaluationsmaßen ausgewertet und verglichen.
Untersuchung potenzieller Angriffsvektoren auf Container-Infrastrukturen unter Nutzung von Docker
(2021)
Die Digitalisierung ist eine der größten Herausforderungen der Wirtschaft. Eine Containervirtualisierung kann dabei vielversprechende Lösungen bieten, unterliegt jedoch ebenso Angriffen. Diese Arbeit zeigt am Beispiel von Docker auf, mit welchen Angriffsvektoren auf eine Container-Infrastruktur gewirkt und mit welchen Schutzmaßnahmen diese gehärtet werden kann. Die Untersuchungen stellen dar, wie schützenswerte Daten erbeutet, exogen Einfluss auf die in Containern verarbeiteten Daten genommen und mit
Schadsoftware auf gesamte Infrastruktur gewirkt werden kann. Dabei werden Host, Container und weitere Komponenten gleichermaßen berücksichtigt. Die Abhängigkeiten innerhalb von Containern werden zwar voneinander isoliert, jedoch teilen sich Host und Container einen gemeinsamen Kernel. Aus diesem Grund rücken Containerausbrüche und Kernelangriffe in den Fokus. Für den sicheren Einsatz von Containern können korrekte Konfigurationen bezüglich der Systemaufrufe, Capabilities, Kontrollgruppen, Namensräume
oder des Rootless Mode von entscheidender Bedeutung sein.
Ziel dieser Arbeit ist die manuelle und automatische Annotation anatomischer und anthropologischer Leitstrukturen und Messpunkte am Beispiel von Mandibulae männlicher Soldaten der napoleonischen Armee. Hierbei werden Mandibulae der Skelettsammlung Rödelheim mit Hilfe von Photogrammetrie digitalisiert und mittels der Software AnthroWorks3D hinsichtlich anatomischer und osteometrischer Landmarken annotiert. Ziel ist eine Automatisierung des Setzens der osteometrischen Landmarken, die mittels einer Schablone realisiert wird. Dabei soll untersucht werden, welche Mandibula die „Durchschnittlichste“ ist und wie effizient der Automatisierungsprozess im Vergleich zu einer manuellen Annotation ist. Anhand statistischer Analysen wird ein Überblick über aussagekräftige Kenngrößen innerhalb der Stichprobe gegeben. Untersuchungen der anatomischen Skelettvarianten dienen der Einschätzung bzgl. deren Einflusses auf AnthroWorks3D.
In der vorliegenden Arbeit wird die Papillarliniendicke anhand eines neu erstellten Programmes bestimmt und analysiert. Die dafür entwickelte Methode und ihre Grundlagen werden gesondert erklärt und evaluiert.
Bei der Überprüfung des Merkmals auf geschlechtsspezifische Unterschiede kann eine signifikante Abweichung der Verteilungen beobachtet werden. Weiterhin wird ein Regressionsmodell anhand der extrahierten Merkmale trainiert und ausgewertet.
Die einzelnen Phasen der Angriffe auf Computernetzwerke werden heute zunehmend mit speziell dafür konzipierter Software durchgeführt. Für die Aufrechterhaltung der Verbindung zum kompromittierten Netzwerk sind sogenannte Command & Control Frameworks ein gängiges Mittel. Ein Vertreter dieser Frameworks ist PowerShell Empire, welches hauptsächlich auf der Skriptsprache PowerShell von Microsoft basiert, die Angriffsziele jedoch nicht auf Windowssysteme beschränkt sind. In dieser Arbeit wird dieses Framework vorgestellt und Szenarien für den Einsatz aufgezeigt. Durch Untersuchung von Netzwerkmitschnitten, sollen zudem Erkennungsmerkmale zur Identifikation der Aktivität von Empire herausgearbeitet werden.
DID-Methoden, Wallets, Agents und Verifiable-Credentials sind grundlegende Begriffe im Kontext von Self-Sovereign-Identity (SSI) und stellvertretend für neuartige Methoden der Identitätsverwaltung im Internet. Es werden gegenwärtig Entwürfe von Standards und Spezifikationen unterschiedlicher Gruppen und Gremien forciert, die dem Paradigma von SSI gerecht werden wollen. Aus der Vielzahl technologischer Ansätze, die bereits entstanden sind, werden einige wichtige näher betrachtet und hinsichtlich ihrer Interoperabilität untersucht. Ausganspunkt ist dabei der Trust-over-IP-Stack, wie er von gleichnamiger Organisation (Trust-over-IP-Foundation) vorangetrieben wird. Dabei spielen weitere Normungsgremien eine Rolle, wie z. B. die Decentralized-Identity-Foundation (DIF) oder das World-Wide-Web-Consortium (W3C). Gegenstand der Untersuchung ist der aktuelle Stand der Technik und dessen Implikationen hinsichtlich ihrer Interoperabilität, Portabilität sowie dem angestrebten Ziel der Dezentralisierung. Dabei stehen insbesondere die beiden Entwürfe zu den Standards der Decentralized-Identifiers und des Verifiable-Credentials-Data-Models im Mittelpunkt. Es werden aber auch weitere Spezifikationen betrachtet, die diese ergänzen und für derartige Identitätsverwaltungssysteme von Bedeutung sind.
Seit 1949 wird Lithium, meist in Form von Lithiumcarbonat, zur akuten und prophylaktischen Behandlung affektiver Störungen eingesetzt. Der Lithiumspiegel der Patientinnen muss dabei genau eingestellt und regelmäßig überwacht werden. Die vorliegende Arbeit beschäftigt sich mit der Lithiummessung mittels ionenselektiver Elektroden (ISE) im Speichel und der Herstellung eines Kunstspeichels zur Kalibrierung der Elektroden. Bei der Lithiummessung kann es durch Störionen zu Quereinflüssen kommen, sodass die Lithiummessung beeinflusst wird. Diese Interferenzen sollen untersucht werden.
Simulating complex physical systems involves solving nonlinear partial differential equations (PDEs), which can be very expensive. Generative Adversarial Networks (GAN) has recently been used to generate solutions to PDEs-governed complex systems without having to numerically solve them.
However, concerns are raised that the standard GAN system cannot capture some important physical and statistical properties of a complex PDE-governed system, along side with other concerns for difficult and unstable training, the noisy appearance of generated samples and lack of robust assessment methods of the sample quality apart from visual examination. In this thesis, a standard GAN system is trained on a data set of Heat transfer images. We show that the generated data set can capture the true distribution of training data with respect to both visual and statistical properties, specifically the vertical statistical profile. Furthermore, we construct a GAN model which can be conditioned using variance-induced class label. We show that the variance threshold t = 0. 01 constructs a good conditional class label, such that the generated images achieve 96% accuracy
rate in complying with the given conditions.
Hyper- und Hyponatriämie
(2019)
Die Arbeit beschäftigt sich mit dem Einfluss von Natrium auf die Hypo- und Hypernatriämie. Zusätzlich soll die These über die Wirkung von Östradiol auf die Hyponatriämie gestützt oder widerlegt werden, um herauszufinden ob Frauen im fortpflanzungsfähigem Alter besonders anfällig für eine Hyponatriämie sind. Bei einem Zusammenhang zwischen der Hyponatriämie und dem Östradiolwert, ergeben sich neue relevante Aspekte die bei der Prävention oder bei der Aufnahme einer Frau in der Klinik von großer Bedeutung sind.
Die grundlegende Theorie des Blutsalzes sowie die Ursachen, Symptome und Therapie werden erläutert. Anschließend werden die bei Labopart Medizinische Laboratorien gemessenen Werte aus dem Jahr 2018 betrachtet und ausgewertet. Der Weg der Proben wird von der Blutabnahme bis zum Messergebnis dokumentiert. In der klinischen Chemie durchlaufen diese die in der Arbeit beschriebenen Stationen. Diese grundlegende Basis soll eine Diskussion und Interpretation der fünfzig höchsten und niedrigsten Natriumwerte erlauben, damit ein Natriumungleichgewicht schneller in Betracht gezogen oder behandelt werden kann. Zugleich lassen sich die Ergebnisse in der Prävention einsetzen.
Erstellen eines Leitfadens zur Sicherstellung der gestalterischen Kontinuität von Concept Art
(2020)
Das Ziel dieser Arbeit ist es einen Leitfaden zur Sicherstellung der gestalterischen Kontinuität von Concept Art zu erstellen. Um das zu erreichen wurden zuerst die essenziellen Begriffe Concept Art und Kontinuität definiert. Aus diesen Definitionen wurden anschließend Methoden abgeleitet die eine Sicherstellung der Kontinuität gewährleisten können. Schlussendlich wurde eine Expertenumfrage durchgeführt und analysiert. Die Analyseergebnisse wurden mit den theoretischen Erkenntnissen in einem Leitfaden zusammengefasst
Die Kryokonservierung gibt die Möglichkeit, Pflanzen als genetische Ressourcen über einen langen Zeitraum zu lagern. Dabei stellt sie eine sichere und kostengünstige Methode dar, die zudem frei von äußeren Umweltfaktoren ist. Die optimierte PVS2 Methode Dresden hat sich bei Fragaria bereits bewährt und wird fortan für diese Obstart im Julius Kühn-Institut Dresden verwendet. Bei Erstversuchen mit Wildbirnen 2019 zeigte sich für die Kryokonservierung noch deutliches Optimierungspotenzial. Die Regenerationsraten konnten in der vorliegenden Arbeit durch eine veränderte Präparationsweise signifikant gesteigert werden. Dabei lag der Fokus auf die unterschiedliche Anzahl der Hüllblätter des Primordien Gewebes. Zusätzlich wurde die Methode des slow coolings mit dormanten Knospen als Alternativmethode zur Anwendung von PVS2 getestet.
Influenza A viruses are responsible for the outbreak of epidemics as well as pandemics worldwide. The surface protein neuraminidase of this virus is responsible, among other things, for the release of virions from the cell and is thus of interest in pharmacological research. The aim of this work is to gain knowledge about evolutionary changes in sequences of influenza A neuraminidase through different methods. First, EVcouplings is used with the goal of identifying evolutionary couplings within the protein sequences, but this analysis was unsuccessful. This is probably due to the great sequence length of neuraminidase. Second, the natural vector method will be used for sequence embedding purposes, in hopes to visualize sequential progression of the virus protein over time. Last, interpretable machine learning methods will be applied to examine if the data is classifiable by the different years and to gain information if the extracted information conform to the results from the EVcouplings analysis. Additionally to using the class label year, other labels such as groups or subtypes are used in classification with varying results. For balanced classes the machine learning models performed adequately, but this was not the case for imbalanced data. Groups and subtypes can be classified with a high accuracy, which was not the case for the years, continents or hosts. To identify the minimal number of features necessary for linear separation of neuraminidase group 1 subtypes, a logistic regression was performed at last, resulting in the identification of 15 combinations of nine amino acid frequencies. Since the sequence embedding as well as the machine learning methods did not show neuraminidase evolution over time, further research is necessary, for example with focus on one subtype with balanced data.
Die Digitalisierung überschreitet jedes Jahr neue Grenzen, besonders in Zeiten von Covid-19. Dadurch werden vermehrt Privatcomputer für die Arbeit genutzt und vice versa. Durch die Vermischung von Privat- und Unternehmensdaten gewinnen immer mehr Cyberkriminelle Zugang zu sensiblen Daten mit welchen sie Unternehmen und Privatpersonen angreifen könnten. Zusätzlich professionalisieren sich die Täter und verwenden sich stetig verbessernde Schadsoftwaren. Um mögliche Angriffsvektoren zu simulieren wird eine Testumgebung erstellt, zum Testen solcher Attacken. Diese Arbeit wird zur Erschaffung einer möglichst sicheren Arbeitsumgebung erstellt. Schlussendlich sollen mit dem Wissen von Angriffsvektoren Leser, Studierende und Fachpersonal weitergebildet werden.
In dieser Arbeit wird die Entwicklung einer Client-Server-Infrastruktur für die probabilistische Privacy Preserving Record Linkage (PPRL) vorgestellt. Ziel ist die Integration der entwickelten Dienste in eine Implementierung des Personal Health Train. Die Anwendbarkeit wird anhand von Fallbeispielen demonstriert und die Toleranz des PPRL-Ansatzes gegenüber kleinen Fehlern zwischen sonst übereinstimmenden Datensätzen hervorgehoben. Das Ergebnis ist eine robuste PPRL-Infrastruktur für den Einsatz in der verteilten Datenanalyse.
In der vorliegenden Masterarbeit wird der, im Jahr 2018 im Application Center Microcontroller entwickelte, forensische Demonstrator für das Controller Area Network (CAN) analysiert und auf Basis dessen ein Redesign konzipiert, entwickelt und getestet. Gemäß der in dieser Arbeit vermittelten Grundlagen zu aktuellen Bussystemen der Automobilindustrie und ihrer Datenübertragung, werden entsprechende CAN-Nachrichten implementiert und auf den CAN-Bus gesandt. Die Auswertung dieser Botschaften erfolgt durch die CAN-Analysesoftware BUSMASTER. Eine entsprechende Visualisierung der Daten wird durch die, für den BUSMASTER entwickelte, grafische Oberfläche realisiert.
Diese Arbeit befasst sich mit der Gestaltung und Kombination verschiedener Bildkompositionen und der Ermittlung von deren Einfluss auf die vom Betrachter wahrgenommene Bildstimmung. Dabei werden Environment Concept Artworks aus verschiedenen Bildelementen zusammengesetzt, welche bestimmte Auswirkungen auf die empfundene Stimmung haben sollen. Der Effekt der entwickelten Bilder auf die Stimmung eines Betrachters wurde durch eine Befragung von Testpersonen ermittelt. Die Ergebnisse der Umfrage lassen sich durch verschiedene Bildelemente klar begründen und bestätigen die der Arbeit zu Grunde liegende Forschungsfrage. Die in dieser Arbeit ermittelten Informationen, bieten einen guten Ausgangspunkt für die Entwicklung von 2D-Werken mit der klaren Absicht eine konkrete Bildstimmung auszulösen, und sind auch außerhalb des Anwendungsfalls Environment Concept Art nutzbar.
Das Ziel dieser Arbeit ist es, die Möglichkeit der Nutzung von Rust als Ersatz für C und Java zu evaluieren. Diese beiden wurden als Vertreter von hardwarenahen bzw. einfacheren und höheren Sprachen gewählt. Sie sind außerdem bekannt dafür, unsicher bzw. langsam zu sein. In beiden Punkten soll Rust genauso gut oder besser sein als C und Java. Daher werden sie für die drei Sprachen verglichen. Da für die Wahl einer Programmiersprache auch entscheidend ist, wie aufwendig es ist, ein Programm zu erstellen, wird die Komplexität als dritter Aspekt für den Vergleich genutzt.
Anhand von Benchmarks wird zunächst die grobe Geschwindigkeit und Speichernutzung untersucht, während die Sicherheit der Sprachen in der Theorie und an einer realen Sicherheitslücke betrachtet wird.
Für einen ausführlichen Vergleich wird ein in allen drei Sprachen erstellter Webserver genutzt. Mittels diverser Metriken wird die Komplexität des Quellcodes analysiert und anschließend mit Laufzeitmessungen die Performanz.
Im Ergebnis ist Rust geeignet, C zu ersetzen, da es ähnlich schnell ist und ähnlich komplex, aber deutlich sicherer. Java hingegen ist zwar langsamer, aber dafür einfacher als Rust und sollte daher weiter eingesetzt werden für Programme, bei denen eine hohe Leistung nicht wichtig ist.
Die Biometrie ist eine Methode für die Zugriffssicherung auf sensible Daten, welche sich seit dem letzten Jahrzehnt immer mehr durchgesetzt hat. Sie wird vor allem in dem Bereich mobiler Endgeräte verbreitet eingesetzt, da die Implementierung kostengünstig ist. Außerdem muss sich der Benutzer keine Zugangsdaten merken, um Zugriff zu erlangen. Mit dem zunehmenden Nutzen werden jedoch auch Ansätze evaluiert, um diese Sicherheitsbeschränkungen von biometrischen Systemen zu umgehen.
In dieser Arbeit werden Ansätze evaluiert, um Zugang zu gesicherten Daten für forensische Zwecke zu erhalten. Bei Straftaten ist es entscheidend, in kurzer Zeit an die benötigten Daten zu kommen. Mit einem Brute-Force-Angriff kann es jedoch mehrere Jahre dauern, Passwörter zu knacken. Daher kann die Biometrie eine schnellere Lösung sein, um mobile Geräte zu entsperren. Hier liegt der Fokus auf der Erstellung von Fingerabdruck-Artefakten, um sich Zugang zu verschaffen.
Um diese These zu überprüfen, werden Experimente mit verschiedenen Ansätzen durchgeführt, um gängige Typen von Fingerabdrucksensoren zu umgehen. Zu Beginn wurden 2D-Ansätze evaluiert. Hierbei werden Fingerabdrücke mit einem Laserdrucker auf verschiedenste Materialien gedruckt. Als nächstes werden 3D-Ansätze getestet, wozu ein SLA Drucker verwendet wird. Darüber hinaus sind Hilfsmittel evaluiert worden, um die Eigenschaften der Fingerabdruckartefakte zu verbessern, damit sie sich mehr wie ein menschlicher Finger verhalten.
Die Experimente zeigen, dass es möglich ist, Fingerabdrucksensoren mit Artefakten zu umgehen, um an gesicherte Daten zu gelangen. Optische Sensoren akzeptieren 2D gedruckte Fingerabdrücke. Im Gegensatz dazu benötigen kapazitive und ultraschallbasierte Sensoren andere Artefakte. Wir konnten die Sicherheitssperre mit 3D Fingerabdrücken überwinden. Darüber hinaus sind Hilfsmittel nützlich, wenn eine Lebenderkennung integriert ist.
In der regenerativen Medizin, insbesondere beim Tissue Engineering, spielt die natürliche extrazelluläre Matrix eine große und immer bedeutsamere Rolle. Ein wichtiger Schritt für die medizinische Anwendung ist die Probenvorbereitung. Um die genaue Zusammensetzung des fertigen Produkts bestimmen zu können, muss eine einheitliche Methode für die Extraktion der Bestandteile zur Verfügung stehen. Ein anderer Teil der Probenvorbereitung ist die Dezellularisierung. Um bei der Anwendung in der regenerativen Medizin Abstoßungsreaktionen zu vermeiden, sollen die Zellen des zur Herstellung des Produkts verwendeten Gewebes nahezu vollständig entfernt werden. In dieser Arbeit wurde eine Methode zur Extraktion der extrazellulären Matrix optimiert und etabliert. Zusätzlich wurden verschiedene Dezellularisierungsansätze für die Gewebe untersucht. Die Ergebnisse zeigen, dass eine Extraktion mit dem GuHCl-Puffer für 24 beziehungsweise 48 h gute Ergebnisse bei der anschließenden Evaluation mittels Massenspektrometrie mit sich bringt. Allerdings ist der Erfolg der Extraktion stark gewebeabhängig. Für die Dezellularisierung hat sich die Anwendung des pH-WechselVerfahrens als wirksam erwiesen. Jedoch konnten mit Hilfe der gewählten Bedingungen die bestehenden Grenzwerte für eine erfolgreiche Dezellularisierung nicht erreicht werden.
Die vorliegende Arbeit befasst sich im Rahmen der Aufgabenstellung damit, ein Systemkonzept eines möglichen Systems für die automatisierte Suche und Verwaltung von Bedrohungsinformationen zu entwickeln und daran beteiligte Prozessschritte näher zu betrachten. Dieses System ist erforderlich, um OSCTI-Informationen aus verschiedenen Quellen zu sammeln, Wissen über Bedrohungsverhalten zu extrahieren und diese zu korrelieren, um ein möglichst vollständiges Bild über eine Bedrohung zu erhalten und diese Informationen unter anderem im Rahmen für des Threat Huntings nutzbar zu machen.
Due to the intractability of the Discrete Logarithm Problem (DLP), it has been widely used in the field of cryptography and the security of several cryptosystems is based on the hardness of computation of DLP. In this paper, we start with the topics on Number Theory and Abstract Algebra as it will enable one to study the nature of discrete logarithms in a comprehensive way, and then, we concentrate on the application and computation of discrete logarithms. Application of discrete logarithms such as Diffie Hellman key exchange, ElGamal signature scheme, and several attacks over the DLP such as Baby-step Giant-step method, Silver Pohlig Hellman algorithm, etc have been analyzed. We also focus on the elliptic curve along with the discrete logarithm over the elliptic curve. Attacks for the elliptic curve discrete logarithm problem, ECDLP have been discussed. Moreover, the extension of several discrete logarithms-based protocols over the elliptic curve such as the elliptic curve digital signature algorithm, ECDSA have been discussed also.
In dieser Arbeit geht es um die Grundlage einer grünen Alternative zur chemischen Aufbereitung gelöster Metallionen. Im Fokus stehen dabei zwei wirtschaftlich wichtige Elemente: Cobalt und Nickel. In einem vorangegangenen Praktikum wurden dafür bereits Peptide mittels Isothermer Titrationskalorimetrie (ITC) untersucht, welche in der Lage waren, diese beiden Metallionen zu binden. Diese Peptide wurden mittels Phagen Display selektiert. Da die zwei Peptide die gewünschten Affinitäten aufwiesen, wurden mit diesen Fusionsproteine konstruiert, wobei die Peptide als Insert, neben weiteren Funktionalitäten, hinzugefügt wurden. Somit entstanden Proteine, welche als Fusionsproteine (FP) bezeichnet werden. Ein Zusätzliches FP mit sieben Histidinen wurde als Positivkontrolle mitgeführt, da Histidin bekanntermaßen beide Elemente binden kann
In der vorliegenden Bachelorarbeit wird die Wahrnehmung von übermäßiger Polizeigewalt mit der tatsächlichen Vorgehensweise der Polizeibeamten abgestimmt und mit der gesetzlichen Vorgabe zur Herangehensweise verglichen. Gemäß der in dieser Arbeit vermittelten Grundlagen zu Hellfeld und Dunkelfeld sowie der Anzeigebereitschaft wird ein grundlegendes Verständnis für die beschriebene Problematik fundiert. Die aufgeführten Beispiele dienen der Untersuchung des Problems und zur differenzierten Auseinandersetzung mit der Thematik, zum einen der Analyse des jeweiligen Falles und deren beschriebene Situation zur Lage und zum anderen der angeschnittene Umriss zur juristischen Sachlage dieser.
Das Chemokin CCL2 spielt bei entzündlichen Prozessen, wie dem ischämischen Schlaganfall, eine wichtige Rolle. Die biologische Aktivität von CCL2 kann durch eine N-terminale Modifikation, katalysiert durch die Enzyme Dipeptidyl-Peptidase 4 und (iso)Glutaminyl-Cyclase, beeinflusst werden. In dieser Arbeit soll der Einfluss von CCL2 und CCL2-modifizierenden Enzymen auf das Überleben primärer Neurone unter ischämischen Bedingungen untersucht werden. Dazu werden verschiedene knock-out Mauslinien des Stamm C56Bl/6 verwendet. Für die quantitative Analyse der Lebensfähigkeit wurden MTT- und LDH-Assays genutzt. Somit konnte gezeigt werden, das CCL2, DP4 und (iso)QC das Überleben primärer Neurone unter ischämischen Bedingungen beeinflussen. Durch immunzytochemische Färbungen wurde die Expression von CCL2, sowie eine Veränderung der Neuritenanzahl und -länge vor und nach Ischämie nachgewiesen.
Diese Arbeit thematisiert die Evaluation von Unterschieden bei interaktivem linearem und nichtlinearem Storytelling. Es stellte sich die Frage, welche der beiden Erzählweisen in einem Videospiel bei Nutzern beliebter ist und wie dieses praktisch überprüft werden kann. Dazu wurde ein Videospiel entwickelt, das dieselbe Geschichte sowohl in einer linearen als auch in einer nichtlinearen Erzählweise erzählt. So sollen Unterschiede der beiden Varianten deutlich gemacht werden. Durch einen Probandentest wurde dann mithilfe des Videospiels und eines Fragebogens die Untersuchung durchgeführt. Diese ergab, dass nichtlineares Storytelling als Erzählweise bevorzugt wird, da es dem Spieler mehr Entscheidungsmöglichkeiten bietet und somit interaktive Spielerlebnisse fördert. Ebenfalls konnten Probleme aufgezeigt und bestätigt werden, die dadurch auftreten, dass interaktives und nichtlineares Storytelling nicht wirklich vom linearen Pfad abweicht. Das steht konträr zu einer Interaktivität, die Videospiele eigentlich bieten sollten.
Diese Arbeit untersucht die Bedeutung der neuen de novo Mutation JAK2 c.2765G>C, p. R922P, die bei einem Kind mit den klinischen Anzeichen eines myelodysplastischen Syndroms identifiziert wurde. Dazu sollte die Mutante zunächst kloniert und anschließend in murine Pro-B-Zellen transfiziert werden, die nur in Anwesenheit des Zytokins IL-3 lebensfähig sind. Durch Entzug des Zytokins sollte das onkogene Potential der Mutante untersucht werden, da bei konstitutiv aktiver Januskinase2 (JAK2) eine Interleukin-unabhängige Proliferation der Zellen weiterhin stattfindet.
Kläranlagen sollten nach Möglichkeit dem neusten Stand der Technik entsprechen, um die Betriebskosten so gering wie möglich zu halten. Bei älteren Kläranlagen besteht neben der Erneuerung die Möglichkeit, den Prozess der Abwasserbehandlung durch bestimmte Verfahren der Vor- bzw. Nachbehandlung zu ergänzen. Dies kann zu einer besseren Wirtschaftlichkeit und Nachhaltigkeit führen. In dieser Arbeit wurde die Optimierung der werksinternen Kläranlage der Molkerei Hainichen-Freiberg GmbH & Co. KG mithilfe einer vorgeschalteten Druckentspannungsflotationsanlage untersucht. Durch die Flotation werden suspendierte Stoffe im Abwasser abgeschieden. Die Reduktionsraten hinsichtlich des chemischen Sauerstoffbedarfs, des Gesamtstickstoffs und des Gesamtphosphats wurden bei verschiedenen Flock- und Fällmitteldosierungen ermittelt. Anschließend wurden die einzelnen Varianten hinsichtlich der Optimierung der werksinternen Kläranlage und der Wirtschaftlichkeit auf die spezifische Abwassermenge der Molkerei Hainichen-Freiberg GmbH & Co. KG beurteilt.
Eine Optimierung führt einerseits zu einer besseren Wirtschaftlichkeit der Anlage, andererseits kann der Prozess der Abwasserbehandlung nachhaltiger gestaltet werden, beispielsweise durch ein anaerobes Verfahren bei dem Biogas erzeugt wird.
In der vorliegenden Arbeit wird ein bereits bestehendes Annotationstool für die Übersetzung von Standardsprache in Leichte Sprache hinsichtlich seiner Usability analysiert. Anschließend werden, unter Verwendung von UI Design Patterns, Komponenten entwickelt, welche die Usability des Systems verbessern sollen. In einer Evaluation werden die Annahmen bezüglich der Usability-Verbesserungen geprüft.
Eine Vielzahl der heutigen Cyber Angriffe auf Unternehmen haben das Ziel sich in deren Netzwerk auszubreiten, um so an kritische Informationen zu gelangen oder das Unternehmen anderweitig zu schädigen. Eine Betrachtung dieses als Lateral Movement bezeichnete Vorgehen ist Thema der vorliegenden Bachelorarbeit. Hauptaugenmerk wird auf die forensische Analyse wahrscheinlich auftretender Methoden und den dabei anfallenden Spuren gelegt. Bei den Spuren wurde sich größtenteils auf Ereignisse in Protokolldateien, sowie auf Registry- und Programmausührungs-Artefakte bezogen. Als Ergebnis wurde eine tabellarische Übersicht der zu priorisierenden Spuren erstellt, die Ermittlern zu einer effektiveren forensischen Analyse solcher IT Vorfälle verhelfen soll.
Die Frage, ob MOBAs wie League of Legends für eine erhöhte Selbstwirksamkeit sorgen können, ist nicht nur für die Videospielindustrie interessant, sondern hat aufgrund der hohen Verbreitung von Videospielen gesamtgesellschaftliche
Relevanz. Aufgrund der jährlich steigenden Zahlen von depressiven Erkrankungen in Europa ergibt sich insbesondere für Spiele, die in großen Teilen der Bevölkerung verbreitet sind, eine Chance das Problem neu zu adressieren. Da es, insbesondere was MOBAs betrifft, Hinweise darauf gibt, dass diese zur kurzfristigen Steigerung der bei Depressiven verminderten Selbstwirksamkeit beitragen können, wurde anhand von „League of Legends“ der Versuch unternommen diese Effekte über die Spielmechanik zurückzuverfolgen und mit einer Umfrage die tatsächliche Kurzzeitwirkung des Spiels auf seine Anwender nachzuweisen. Es ließ sich darüber feststellen, dass League of Legends-Spieler in der Tat eine durchschnittlich höhere Selbstwirksamkeit aufweisen und diese über eine Spielrunde noch gesteigert werden kann. Damit hat diese Arbeit einen Beitrag dazu geleistet die Nützlichkeit von MOBAs für therapeutische Zwecke zu untersuchen.
Heutzutage werden digitale Geräte weitestgehend in allen Lebensbereichen genutzt. Die Bedeutung dieser Geräte nimmt ebenfalls für Straftäter und Kriminelle zu. Aus diesem Grund existieren gesetzliche Maßnahmen zur Durchführung von Online-Durchsuchungen. In dieser Arbeit wird sowohl auf den § 49 BKAG als auch auf den § 100b StPO eingegangen. Speziell der § 100b StPO soll bezüglich des Opferschutzes beleuchtet werden. Die Opferschutzrichtlinie der EU sowie die Grundrechtseingriffe der Maßnahme werden in diesem Zusammenhang untersucht. Weiterhin erfolgt in dieser Arbeit eine Prüfung des § 100b StPO mit den dazugehörigen Grundrechtseingriffen im Sinne des Verhältnismäßigkeitsgrundsatzes.
Probabilistic Micropayments
(2022)
Probabilistic micropayments are important cryptography research topics in electronic commerce. The Probabilistic micropayments have the potential to be researched in order to obtain efficient algorithms with low transaction costs and high speeding computer power. To delve into the topic, it is vital to scrutinize the cryptographic preliminaries such as hash functions and digital signatures. This thesis investigates the important probabilistic methods based on a centralized or decentralized network. Firstly, centralized networks such as lottery-based tickets, Payword, coin-flipping, and MR2 are described, and an approach based on blind signatures is also discussed. Then, decentralized network methods such as MICROPAY3, a transferable scheme on the blockchain network, along with an efficient model for cryptocurrencies, are explained. Then we compare the different probabilistic micropayment methods by improving their drawback with a new technique. To set the results from the theoretical analysis of different methods into some context, we analyze the attacks that reduce the security and, therefore, the system’s efficiency. Particularly, we discuss various methods for detecting double-spending and eclipse attacks occurrence
In der vorliegenden Bachelorarbeit wird auf den Nutzen sowie aktuelle Möglichkeiten bei der IT-forensischen Analyse des Arbeitsspeichers aktueller Computersysteme mit DDR4- Speichermodulen eingegangen. Es wird sich dabei sowohl auf generelle, als auch im Zuge der DDR4-Technik eingeführte, Funktionalitäten des physischen Arbeitsspeichers bezogen. Die Auswertbarkeit des Arbeitsspeichers wird aus IT-forensischer Sicht betrachtet und damit auftretende Problematiken für die IT-Forensik evaluiert. In der vorliegenden Arbeit wird vorrangig auf Methodiken der Analyse verschiedener Windows Hibernation Files, sowie den Cold Boot Ansatz eingegangen. Bei letzterem liegt der Schwerpunkt auf der Analyse verschleierter (gescrambelter) Arbeitsspeicherinhalte, sowie einem möglichen Ansatz effektiv Scrambler-Schlüssel aus diesen zu ermitteln.
Diese Arbeit behandelt, wie in einem rundenbasierten Strategiespiel ein System zur Integration linearen Missionsdesigns implementiert wurde. Es erlaubt, Missionen anzulegen und in Szenarien zu gruppieren, welche sich wiederum in einer Kampagne zusammenfassen lassen. Dabei können beliebig viele Kampagnen gleichzeitig existieren, ohne dass sich deren Inhalte überschneiden. Die Implementierung des Systems ist umfangreich beschrieben und wird mit relevanten Code-Beispielen veranschaulicht. Das Spiel wurde hinsichtlich der Player Experience, Usability und User Experience mit den Fragebögen MEEGA+ und AttrakDiff evaluiert. Eine Evaluation der User Experience mit AttrakDiff wurde auch für den zum Spiel gehörenden Inhaltseditor durchgeführt. Die dabei ermittelten Ergebnisse zeigen, dass beide Anwendungen von den Probanden grundsätzlich gut bis sehr gut wahrgenommen werden. Durch eine Detailanalyse der einzelnen Wertungen sowie dem zusätzlich gegebenen Feedback konnten Stärken und Schwächen identifiziert werden. Um die Schwachpunkte in zukünftigen Entwicklungsbestrebungen effizient bearbeiten zu können, sind passende Vorschläge und detaillierte Erklärungen der Ursachen beigefügt worden. Der Mehrwert des Kampagnensystems hinsichtlich wahrgenommener Qualität und Motivation wird durch einen Vergleich mit Evaluationsergebnissen einer früheren Version bewiesen. Diese wurden in dem dieser Arbeit vorangegangenen Forschungsmodul, in welchem die damalige Spielversion ebenfalls mit MEEGA+ evaluiert wurde, ermittelt. Zum Verständnis der Arbeit wird Vorwissen mit der Game Engine Unity sowie ihrer grundlegenden Konzepte, bspw. GameObjects und daran angebundene Komponenten, vorausgesetzt. Da an verschiedenen Stellen Bezug auf das Forschungsmodul sowie den darin erlangten Erkenntnissen genommen wird, ist die Konsultation des zugehörigen Abschlussberichtes empfehlenswert. Er liegt dieser Arbeit als digitale Anlage F bei.
Neuronal gesteuerte Agenten werden über genetische Entwicklung fortgebildet und optimieren somit ihre Verhaltensweisen in einer vorgegebenen Umgebung, um entsprechende Bedürfnisse maximal zu erfüllen. Dafür wird eine statische Umgebung erstellt, in welcher zu bestimmten Zeiten gegebene Orte geöffnet haben. Für die Agenten gilt es nun herauszufinden, wie sie ihre Zeit am effektivsten Nutzen können.
Classification label security determines the extent to which predicted labels from classification results can be trusted. The uncertainty surrounding classification labels is resolved by the security to which the classification is made. Therefore, classification label security is very significant for decision-making whenever we are encountered with a classification task. This thesis investigates the determination of the classification label security by utilizing fuzzy probabilistic assignments of Fuzzy c-means. The investigation is accompanied by implementation, experimentation, visualization and documentation of the results.
Vicia faba leaves and calli were transformed using CRISPR Cas RNP. Two kinds of CPP fused SpyCas9 were used with sgRNA7, sgRNA5 or sgRNA13 targeting PDS exon 1, PDS exon 2 or MgCh exon 3 respectively. RNP were applied using high pressure spraying, biolistic delivery, incubation in RNP solution and infiltration of leaf tissue. A PCR and restriction enzyme based approach was used for detection of mutation. Screening of 679 E. coli colonies containing the cloned fragments resulted in detection of 14 mutations. Most of the 14 mutations were deletions of sizes 150, 500 or 730 bp. 5 out of the 14 mutations were point mutations located two to three bp upstream of PAM.
In dieser Arbeit wird ein Konzept für die Fahrprofilauswahl mittels machine learning vorgestellt. Hierbei wird ein Einblick in die Grundlagen und Methodiken des maschinellen Lernens sowie Fahrzeugelektronik gegeben. Des Weiteren wird das Thema künstliche neuronale Netzwerke detailliert erklärt, da es in der Arbeit Anwendung finden wird. Im späteren Verlauf wird ein LSTMNetzwerk implementiert und ausgewertet, um aus den Erfahrungen wichtige Erkenntnisse ableiten zu können. Aufbauend auf den Erkenntnissen, wird ein Konzept für die Fahrprofilauswahl definiert.
Tokenization projects are currently very present when it comes to new blockchain technologies. After explaining the fundamentals of cross-chain interaction, the bachelor thesis will focus on tokenizing technology for Bitcoin on Ethereum. To get a more practical context, implementing the currently most successful decentralized tokenization project is described.
Diese Arbeit befasst sich mit der forensischen Untersuchung von Systemen mit dem Trusted Plattform Module (TPM) von Apple, dem T2 Chip. Mittelpunkt ist die
physische Datensicherung über das Forensik Analysewerkzeug MacQuisition von BlackBag Technologies. Die Sicherheitsrichtlinien von den Apple Geräten mit verbautem TPM verhindern solche Sicherungen und schützen die Daten auf dem System. MacQuisition ist die erste Lösung für die Forensik, um dennoch ein physisches und gleichzeitig entschlüsseltes Abbild zu erzeugen. Dafür schafft es MacQuisition auf den Direct Memory Access (DMA) fähigen Enhanced Serial Peripheral Interface (eSPI) Bus zu gelangen und die Sicherheitsvorkehrungen zu umgehen.
Das Ziel der vorliegenden Bachelorarbeit besteht darin, die technischen und rechtlichen Aspekte von Cloudsicherungen für Strafverfolgungsbehörden zu beleuchten,um die aktuellen Gegebenheiten und somit eventuelle Defizite auf zu zeigen. Daher werden zu Beginn grundlegende Fakten benannt. Im Anschluss erfolgen praktische Untersuchungen bezüglich forensischer Sicherungsmethoden an PC und Mobiltelefon. Das Hauptaugenmerk liegt auf dem Zusammenschluss von Recht und Technik. Das Ergebnis bildet die Erarbeitung einer Handlungsempfehlung, bestehend aus Checkliste und Fragenkatalog.
Diese Arbeit zielt darauf ab, ein modernes Konzept für eine offene, webbasierte Notizsoftware vorzustellen, die auf einem gemieteten oder Heimserver installiert werden kann. Dabei steht im Vordergrund, dass die eigenen Daten bei einem selbst bleiben. Ein solches Konzept hat, anhand des Vergleiches mit existierenden Lösungen und aus gewonnenen Erkenntnissen bei der Entwicklung des Prototyps, eine gute Zukunft, da es sich auch genug sinnvoll von existierenden Lösungen abhebt, so dass eine weiterführende Entwicklung lohnenswert scheint.
Geeignet ist diese Arbeit für Personen, die sich für die Entstehung eines Softwareprototyps im Rahmen einer Bachelorarbeit interessieren und für die, die das Konzept interessant finden.
Das Konzept wurde klar definiert und kompakt mit existierenden Lösungen verglichen, daraufhin wurden die gewählten Technologien aufgeschlüsselt und anschließend der Prototyp und die Erkenntnisse vorgestellt.
Aufgrund der Vielzahl an angebotenen Dienste die auf unterschiedliche Systemen betrieben und miteinander verbunden sind, sowie sensible Informationen enthalten, ist die IT-Sicherheit enorm wichtig geworden. Heterogene IT-Infrastrukturen und interagierende Softwaresysteme verkomplizieren die Administration solcher Umgebungen. In diesem Zusammenhang wird „Automatisierung“ häufig als ein Lösungsansatz propagiert. In dieser Arbeit wird ein Automatisierungs-Referenzrahmen in Verbindung mit einer Konfigurationsverwaltungslösung eingeführt um eine abstrakte Sichtweise auf das Thema zu geben. Der BISS Automatisierungs-Referenzrahmen teilt einzelne Bestandteile, wie Entwicklung, Erweiterungsdienste,
Konfigurationsverwaltungslösung und IT-Infrastruktur in verschiedene Domänen ein. Die Kommunikation zwischen den Domänen ist reguliert und begrenzt um die Sicherheit der Umgebung zu gewährleisten. Eine praktische Anwendung des entworfenen Referenzrahmens und seinen Domänen wird mit Ansible als Konfigurationsverwaltungslösung in einer Software-Defined Netzwerkinfrastruktur von Cisco aufgezeigt. Mit der Einbindung von Sicherheitskomponenten, wie Check Point Firewalls und F5 Big-Ips, werden exemplarische Fallbeispiele einer Automatisierung heterogener Umgebungen demonstriert.
Im Rahmen dieser Arbeit wird die metrische Analyse des menschlichen Kiefers erforscht. Dies beinhaltet das Themengebiet der Bissspurenanalyse, um den Beweiswert der Kiefervermessung vor Gericht feststellen zu können. Es sollen anschließend folgende Fragen beantwortet werden können: „Wie funktioniert die Vermessung?“, „Ist diese objektiv und reproduzierbar?“ und „Was wird für die gerichtliche Verwertbarkeit benötigt?“. Letzteres bezieht sich insbesondere auf die Art und Anzahl identifizierender Merkmale. Über dem Thema steht die These, dass das menschliche Gebiss einzigartig ist.
Die Einführung eines IT-Notfallmanagement kann auf freiwilligen Basis oder durch rechtliche Verpflichtungen erfolgen. Hierbei ist die Verwendung von etablierten Standards und Normen gerade für kleine und mittelständische Unternehmen (KMU) empfehlenswert, aber herausfordernd. In der vorliegenden Bachelorarbeit werden einschlägige gesetzliche Verpflichtungen für KMU betrachtet. Es wird sodann auf bekannte Normen und Standards des IT-Notfallmanagements eingegangen. Mit einer selbstentwickelten Methode werden diese auf ihre KMU-Tauglichkeit geprüft. Das Ziel besteht darin, den verpflichteten KMU den für sie geeignetsten der betrachten Standards und Normen aufzuzeigen.
Ziel dieser Diplomarbeit ist es, eine Übersicht über einsetzbare Systeme zur stationären und mobilen Einzelarbeitsplatzabsicherung nach DGUV 139 in einem
Chemiewerk zu erstellen. Dabei sollen die Vor- und Nachteile der Systeme analysiert und nach technischen und wirtschaftlichen Kriterien bewertet und verglichen werden. Für eventuell bestehende Schwächen sollen Lösungsvorschläge zur Beseitigung gefunden werden.
Die Bachelorarbeit erläutert, was Deepfakes sind und inwiefern solche, unter Zuhilfenahme von maschinellem Lernen erzeugten, Bild- und Videomanipulationen in juristischen Zusammenhängen in Erscheinung treten oder Einfluss auf Vorgänge im Bereich des Rechtsverkehrs haben können. Dies wird unter anderem anhand dreier ausgewählter Szenarien verdeutlicht.
Ziel der Arbeit ist es, ein smartes IoT-Gerät mit Cloud-Anbindung auf Sicherheit und Datenschutz zu untersuchen. Als Untersuchungsobjekt wurde eine \smarte" Alarmananlage für den privaten Haushalt ausgewählt. Im Unterschied zu anderen \smarten" IoT-Geräten im täglichen Leben geht hier das Sicherheitsrisiko über den Ausfall ohne Konsequenzen bzw. den Verlust von Daten hinaus. Entsprechend hoch sind die Erwartungen an die Sicherheit. Ein solches Gerät soll schützen und nicht eine zusätzliche Gefährdung bzw. Schwachstelle darstellen. Als Produkt wurde die Einbruchmeldeanlage (EMA) der Firma Egardia gewählt. Hierbei handelt es sich um ein System im mittleren Preissegment für Alarmanlagen zum Selbsteinbau. Die Norm für die Zertifizierung von EMAs ist die DIN EN 50131.
Es gibt vier Sicherheitsgrade, nach denen EMAs und ihre Komponenten eingeteilt werden können. Besonders hochwertige Produkte besitzen den Grad 2. Das System von Egardia hat wie die meisten EMAs keine Zertifizierung, ist in dieser Hinsicht ebenfalls ein durchschnittliches EMA. Grund hierfür ist, dass auf den Webseiten von Onlinehändlern Produkte hauptsächlich mit Funktionen und Preis beworben werden. Zerttifizierungen, die niemand kennt oder einfordert, spielen für Kunden keine Rolle. Neben der konkreten Untersuchung dieses Geräts auf seine Sicherheit soll als Ergebnis der Arbeit geprüft werden, ob für mögliche, gefundene Schwachstellen Lösungen existieren.
Gleichzeitig soll gezeigt werden, wie die Entwicklung eines sicheren Produkts umgesetzt werden kann und welche Rahmenbedingungen in Gesellschaft, Wirtschaft und Politik eventuell die Sicherheit und Nachhaltigkeit von IoT-Geräten gefährden.
Introducing natural adversarial observations to a Deep Reinforcement Learning agent for Atari Games
(2021)
Deep Learning methods are known to be vulnerable to adversarial attacks. Since Deep Reinforcement Learning agents are based on these methods, they are prone to tiny input data changes. Three methods for adversarial example generation will be introduced and applied to agents trained to play Atari games. The attacks target either single inputs or can be applied universally to all possible inputs of the agents. They were able to successfully shift the predictions towards a single action or to lower the agent’s confidence in certain actions, respectively. All proposed methods had a severe impact on the agent’s performance while producing invisible adversarial perturbations. Since natural-looking adversarial observations should be completely hidden from a human evaluator, the negative impact on the performance of the agents should additionally be undetectable. Several variants of the proposed methods were tested to fulfil all posed criteria. Overall, seven generated observations for two of three Atari games are classified as natural-looking adversarial observations.
Diese Arbeit stellt verschiedene Datenbankmanagementsysteme vor und vergleicht diese, um ein, für die Aufgabenstellung geeignetes, Datenbanksystem auszuwählen. Die Aufgabenstellung umfasst die Erstellung einer Datenbank zur Speicherung und Suche nach Login Daten, welche aus DatenLeaks stammen. Zum durchsuchen der Datenbank soll eine Oberfläche in Form einer Webseite Programmiert werden, die es zudem auch erlaubt entsprechende Textdateien mit Login Daten hochzuladen. Die hochgeladenen Dateien sollen automatisiert Analysiert werden und die so extrahierten Passwörter und Nutzernamen in die Datenbank zu schreiben.
Diese Arbeit hat das Ziel, einen kontinuierlichen Prozess in einem Festbettreaktor zur mikrobiellen Entfernung von Sulfat und Schwermetallen aus Bergbauwasser zu optimieren. Hierfür wurden zunächst Vorversuche getätigt, in welchen die Aktivität von sulfatreduzierenden Bakterien (SRB) mit den Substraten Methanol und Acetat im pH-Bereich 5-8 und bei den Temperaturen 20°C und 30 °C untersucht wurde. Im Anschluss wurde aufbauend auf den Ergebnissen der Vorversuche der Bioreaktor in Betrieb genommen und in den kontinuierlichen Betrieb überführt. In dieser Phase wurden wichtige Prozessdaten für den Betrieb aufgenommen, die Verweilzeit sowie die Methanolkonzentration optimiert.
Die Zahl der Webapplikationen ist in den letzten Jahren stetig gestiegen. Da sie immer komplexer werden, ändert sich auch die Art der Bedienung. Eine moderne Webapplikation sollte bei der Verwendung das Gefühl einer nativen Applikation vermitteln. Das Konzept der Single Page Application trägt diesem Anspruch Rechnung. Heutige Prestige-Beispiele für solche Anwendungen sind unter anderem Gmail oder Slack. Die entsprechenden Apps sind meist mit bekannten Single Page Application Frameworks wie Angular, React oder VueJS umgesetzt. Im letzten Jahr gesellte sich das Framework Blazor von Microsoft dazu. Der große Unterschied zu allen bereits existieren Frameworks besteht hier darin, dass für den Client kein JavaScript, sondern C# verwendet wird. Dies erlaubt es, komplexe Webanwendungen ohne JavaScript zu entwickeln. Gerade für .NET-Desktop-Entwickler könnte dieses Framework ansprechend sein. Die vorliegende Arbeit soll einen Vergleich zwischen Blazor und den bereits etablierten Frameworks Angular, React und VueJS liefern. Anschließend soll noch der Prototyp einer Blazor-Applikation designed und einige wichtige Funktionen sollen vorgestellt werden.
Identity-Wallets für Android : Datensicherheit und Entwicklung eines Flutter-basierten Prototypen
(2022)
Das Modell der Selbst-Souveränen digitalen Identität (SSI) ist ein seit 2015 diskutiertes und entwickeltes Konzept zum Identitätsmanagement, das dem Nutzer die volle Kontrolle über seine digitale Identität verspricht. Um dies gewährleisten zu können, müssen u.a. Anwendungen, zumeist Apps für mobile Betriebssysteme entwickelt werden, die dem Nutzer dies ermöglichen. Diese Arbeit untersucht mit esatus Wallet, Lissi Wallet, ID-Wallet, Connect.Me und Jolocom SmartWallet fünf bereits bestehende Wallet-Anwendungen für das Betriebssystem Android hinsichtlich ihrer Datensicherheit. Als Grundlage für die Sicherheitsbewertung dient der Mobile Application Security Verification Standard (MASVS) des gemeinnützigen Open Web Application Projects (OWASP). Dabei wurden bei allen Apps, vor allem Connect.Me, Mängel festgestellt. Diese beziehen sich vornehmlich auf die zum Teil fehlende Verschlüsselung von Daten aber auch auf den Umgang mit zur Verschlüsselung verwendeten Passwörtern. Weiterhin wird gezeigt wie mittels dem Framework Flutter eine nach Stand der Technik sichere Wallet-Anwendung entwickelt werden kann.
Automatisierte Detektion von Minutien und Bestimmung der Grundmuster von Fingerabdrücken mittels der Methoden Crossing Number Concept und Template Matching sowie Vergleich verschiedener Vorverarbeitungsarten in der Software MATLAB. Zunächst werden die Grundmuster der Fingerabdruckbilder mittels MATLAB bestimmt und mit den tatsächlich vorhanden Grundmustertypen in den jeweiligen Fingerabdrücken abgeglichen. Danach werden Gabel-Minutien in den ausgedünnten Papillarlinienbildern der Fingerabdrücke mittels MATLAB detektiert. Hierbei kommen das Crossing Number Concept und das Template Matching Verfahren zur Anwendung. In jedem Verfahren wird die Precision berechnet und die Methoden untereinander verglichen. Zuletzt wird analysiert, wie sich Änderungen in den Vorverarbeitungsschritten der Fingerabdruckbilder auf das Papillarlinienbild auswirken.
Zusammenfassung der verbreitetsten Theorien zur Entstehung und Vererbung von Papillarleistenmustern und weiteren biometrischen Merkmalen der menschlichen Hand. Zusätzlich Beschreibung einer durchgeführten biometrischen Datenaufnahme zweier Familien bezüglich der Vererbungsforschung mit nachfolgender Auswertung der Ergebnisse.
Durch die stetige Abnahme der Biodiversität auf der Erde, aufgrund von äußeren Umweltfaktoren, müssen Möglichkeiten zur Erhaltung der genetischen Vielfalt gefunden werden. Mit Hilfe des Verfahrens der Kryokonservierung kann die genetische Vielfalt von besonderen Sorten und Wildarten erhalten werden. Aufgrund dessen soll die Methode der Kryokonservierung mittels PVS2-Vitrifikation bei Prunus am JKI in Dresden-Pillnitz etabliert werden. Parallel dazu wird die PVS3-Methode bei unterschiedlichen Inkubationszeiten und Temperaturen betrachtet. Sowohl die PVS2- als auch die PVS3-Vitrifikation wurden noch nicht bei Prunus-Wildarten im JKI Dresden-Pillnitz angewendet. Die Regenerationsrate der PVS2-Vitrifikation betrug zwischen 5 und 85 %, welche überwiegend nach einer Kälteadaption von drei Wochen erreicht wurde. Die durchgeführten Versuche mit der PVS3-Methode erbrachten noch keinen Erfolg.
Diese Arbeit befasst sich mit dem Vergleich der forensischen Analyse von mobilen Endgeräten zwischen der Software Cellebrite Physical Analyzer, der Software Autopsy Digital Forensics und den Skripten aLEAPP und iLEAPP. Hierzu wurden zwei mobile Endgeräte mit den Betriebssystemen Android und iOS mit unterschiedlichen Anwendungen und Testdatensätzen versehen. Im Anschluss wurden die forensischen Datensicherungen durch die Softwareprodukte automatisiert aufbereitet. Die Ergebnisse der automatisierten Datenaufbereitungen wurden miteinander und mit den zu erwartenden Informationen verglichen. Hierbei konnte festgestellt werden, dass die Software Autopsy Digital Forensics und die Skripte aLEAPP und iLEAPP im Bereich der Aufbereitung mobiler Endgeräte, zum jetzigen Zeitpunkt, nicht die Ergebnisse der kommerziellen Software Cellebrite Physical Analyzer liefert.
Diese Arbeit befasst sich mit der Entwicklung eines epochenübergreifenden Aufgaben- und Objektmanagementsystems zur prozeduralen Generierung von Narrativen. Dabei wurde ein Questsystem als Managementinstanz für Aufgaben und Objekte entwickelt sowie ein auf L-Systemen und der Graphentheorie basierender Algorithmus zur prozeduralen Generierung Narrativen entwickelt.
Die Datenschutzgrundverordnung hat in der Europäischen Union für ein einheitliches Datenschutzrecht gesorgt. Sie fordert unter anderem eine einfache und verständliche Sprache von Datenschutzerklärungen und benennt umfangreiche, inhaltliche Anforderungen. Im Praxisumfeld ist es aber immer noch nicht selbstverständlich, dass Datenschutzerklärungen sich an formalen und inhaltlichen Festlegungen der Datenschutzgrundverordnung und weiterer geltender deutscher Gesetze orientieren. Das in dieser Arbeit erstellte Python-Programm zur automatisierten Analyse von Datenschutzerklärungen kategorisiert Themenabschnitte mit Hilfe einer Stichwortsuche und prüft die Datenschutzerklärung anhand eines festgelegten Katalogs an Testkriterien. Abschließend wird eine Bewertung auf Basis der Form und des Inhalts vorgenommen.
In dieser Bachelorarbeit wird die theoretische Planung einer digitalen Windows-Laborumgebung beschrieben, welche zur Untersuchung von Schadsoftware genutzt werden soll. Mithilfe von virtuellen Maschinen wird ein Modell eines Firmennetzwerkes konzipiert. Es wird sich unter anderem mit den Themen Virtualisierung, Microsoft Active Directory, Microsoft Exchange Server und Malwareanalyse befasst.
In dieser Arbeit werden drei Modelle entworfen und verglichen, mit welchen Meinungsführer in einem Twitter-Netzwerk erkannt werden können. Dazu wird ein Datensatz mit 600.000 Tweets von 100.000 Twitter-Nutzern von April bis Juni 2021 ausgewertet. Zur Bestimmung des Einflusses eines Nutzers werden sowohl topologische Informationen des Netzwerkes als auch Reaktionen auf einzelne Tweets einbezogen. Anschließend werden Korrelationen zwischen dem Grad der Meinungsführerschaft und der Toxizität der Tweets untersucht. Dafür wurde eine Recherche zu Software zur Analyse von Graphen durchgeführt und Neo4j als passendes Werkzeug ausgewählt. Es konnte gezeigt werden, dass der ArticleRank als Zentralitätsalgorithmus geeignet ist, Meinungsführer zu erkennen. Meinungsführer sind weniger toxisch als andere Nutzer, allerdings ist dies nur ein schwacher Indikator. Durch die Modellierung der Häufigkeit, wie oft Nutzer interagieren, können verschiedene Fragen beantwortet werden. Durch diesen Algorithmus können Konzepte der Kommunikationswissenschaft in Bezug auf Meinungsführer in sozialen Netzwerken nachgeweisen werden.
Diese Arbeit präsentiert einen forensischen Leitfaden zu Spezialverfahren der Datenrettung von Festplatten unter Nutzung des PC-3000 Express Systems. Die Grundlage bilden essentielle Informationen rund um eine Festplatte und die Bedienung des PC-3000 Express Systems. Anschließend wird ein in drei Teile gegliederter forensischer Leitfaden vorgestellt, der dem Leser mit jeder Unterteilung eine Konkretisierung auf das Thema Spezialverfahren der Datenrettung von Festplatten präsentieren soll. Auf der Grundlage des forensischen Leitfadens werden im Anschluss zwei Festplatten untersucht und mit Hilfe des PC-3000 Express Systems und kompatiblen Ersatzteilspendern erfolgreich gesichert. Ziel der Arbeit ist es, einen zukünftigen Benutzer in die Arbeit mit dem PC-3000 Express System einzuführen. Dabei soll der Arbeitsablauf bei der Untersuchung einer Festplatte fest an den Ablauf einer forensischen Untersuchung gebunden sein. So kann unabhängig vom forensischen Tätigkeitsfeld sichergestellt werden, dass ein Benutzer zukünftig auftretende Probleme von Festplatten effektiv und lösungsorientiert handhaben kann.
Offshore Kriminalität : Herausforderungen in der Bekämpfung von Steuerhinterziehung und Geldwäsche
(2022)
Die vorliegende Arbeit befasst sich mit der Analyse der verschiedenen Bekämpfungs- und Präventionsmöglichkeiten für Geldwäsche und Steuerhinterziehung. Das Hauptziel ist dabei die Untersuchung von Problemen, die bei der derzeitigen Umsetzung solcher Maßnahmen auftreten, vor allem wenn die Straftaten mithilfe von Offshore-/ Briefkastenfirmen begangen wurden.
In dieser Masterarbeit werden sichere steganografische sowie kryptografische Methoden vorgestellt, erläutert, untersucht und innerhalb eines eigens entwickelten Software-Prototypen mit intuitiver Benutzerschnittstelle kombiniert. Noch immer werden Menschenrechtsverteidigende in totalitären Systemen und anderen Krisengebieten systematisch verfolgt, inhaftiert, gefoltert oder sogar exekutiert, weil ihre digital gespeicherten Daten eine antitotalitäre und investigative Tätigkeit beweisen. Die in dieser Arbeit gesammelten Erkenntnisse sowie der darauf basierende Prototyp sollen zu einem besseren Schutz dieser Menschen beitragen.
Im Zeitalter der zunehmenden Digitalisierung wird die analoge Dokumentation nach und nach aus allen Lebensbereichen verdrängt. Besonders im Bereich der Endoskopreinigung ist diese allerdings noch stark vertreten. Auch dort soll eine digitale Lösung entstehen, um den Arbeitsablauf zu vereinfachen und sicherer zu gestalten.
Diese Arbeit befasst sich mit der Entwicklung eines Clients zur Erfassung von manuellen Reinigungsschritten bei medizinischen Endoskopen. Es wird die Ausganssituation in Krankenhäusern beschrieben und dann auf Grundlage eines bereits existierenden Systems eine neue Lösung erarbeitet. Diese neue Software löst die Probleme, welche im Zusammenhang mit einer analogen Aufzeichnung dieser Reinigungsschritte entstehen. Der Entwicklungsprozess sowie das Endprodukt, in Form eines Webclients, wird hier beschrieben.
Das Bundesamt für Umwelt definiert Endokrine Disruptoren als ,,Chemikalien oder Mischungen von Chemikalien, die die natürliche biochemische Wirkweise von Hormonen stören und dadurch schädliche Effekte (…) hervorrufen.‘‘ [Umweltbundesamt, 2020]. Zum Schutz von Mensch und Natur ist eine effektive Eliminierung von diesen Substanzen notwendig, was jedoch eine sensitive Detektion voraussetzt. Mit Hilfe von Reporter-Gen-Assays wie z.B. dem A-YES lassen sich estrogenwirksame Substanzen in Wasser nachweisen. Im Zuge der kontinuierlichen Optimierung der Hefezell-Assays der new_diagnostics GmbH sollte in dieser Arbeit durch Integration des alternativen Reporterenzyms Meerrettichperoxidase (HRP) in Hefebiosensoren die Möglichkeit geprüft werden, inwieweit eine Verbesserung der Testsensitivität und/oder die Vereinfachung von Verfahrensabläufen möglich ist. Nach Aufbau dafür notwendiger Hrp-Kassetten bzw. Plasmide konnte gezeigt werden, dass diese erfolgreich in den Hefesystemen d.h. in A. adeninivorans und in S. cerevisiae integriert werden konnten. Für die Bewertung der Funktionalität von hefeproduzierter HRP wurde im Vorfeld eine Analytik etabliert, die die Detektion funktionaler HRP bis zu einer Konzentration von ca. ≥ 0,2 Units/ml ermöglichte.
Fermat proposed fermat’s little theorem in 1640, but a proof was not officially published until 1736. In this thesis paper, we mainly focus on different proofs of fermat’s little theorem like combinatorial proof by counting necklaces, multinomial proofs, proof by modular arithmetic, dynamical systems proof, group theory proof etc. We also concentrate on the generalizations of fermat’s little theorem given by Euler and Laplace. Euler was the first scientist to prove the fermat’s little theorem. We will also go through three different proofs given by Euler for fermat’s little theorem. This theorem has many applications in the field of mathematics and cryptography. We focus on applications of fermat’s little theorem in cryptography like primality testing and publickey cryptography. Primality test is used to determine if the given number n is a prime number or composite number. In this paper, we also concentrate on fermat primality test and Miller-Rabin primality test, which is an extension of fermat primality test. We also discuss the most widely used public-key cryptosystem i.e, the RSA Algorithm, named after its developers R. Rivest, A. Shamir, and L. Adleman. The algorithm was invented in 1978 and depends heavily on fermat’s little theorem.
In Machine Learning, Learning Vector Quantization(LVQ) is well known as supervised learning method. LVQ has been studied to generate optimal reference vectors because of its simple and fast learning algorithm [12]. In many tasks of classification, different variants of LVQ are considered while training a model. In this thesis, the two variants of LVQ, Generalized Matrix Learning Vector Quantization(GMLVQ) and Generalized Tangent Learning Vector Quantization(GTLVQ) have been discussed. And later, transfer learning technique for different variants of LVQ has been implemented, visualized and we have compared the results using different datasets.