Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Im Folgenden wird sich mit der Blutspurenmusteranalyse beschäftigt. Hierzu werden in der folgenden Arbeit drei Experimente vorgestellt bei denen verschiedene Arten von Blutspuren hergestellt werden und somit eine große Datenbank an fotographisch festgehaltenen Blutspuren erstellt wird. Diese Datenbank hilft dann den Prozess der Analyse von Blutspuren zu automatisieren. Die Bilder werden dazu benutzt ein neuronales Netz zu trainieren und anhand des Trainings wird evaluiert, wie präzise das Netz ist.
Verschiedene Videospiele bieten einen unterschiedlichen Grad an Herausforderung und Schwierigkeit. Die meisten von ihnen verfügen trotz unterschiedlicher Schwierigkeitsgrade über keine Möglichkeit dem Spieler eine passende Herausforderung zu schaffen. In dieser Arbeit soll sich damit beschäftigt werden, basierend auf den spielerischen Fähigkeiten der Person, eine passende Herausforderung im Spiel zu schaffen. Dazu wird die folgende Forschungsfrage gestellt: Ist es möglich durch eine adaptive Anpassung von Parametern in Videospielen für Spieler jedes Leistungsniveaus eine ähnlich anspruchsvolle Herausforderung zu erzeugen?' Diese wird durch die Entwicklung und Umsetzung von Fähigkeitentests realisiert, dessen Ergebnisse einen Bossfight beeinflussen. Um die Forschungsfrage zu beantworten, wird die entwickelte Testreihe mit einigen Probanden absolviert und deren Feedback vernommen. Dieses Feedback führt zu dem Schluss, dass die Tests geeignet sind für die Leistungsermittlung, aber der Bossfight und die Umgebung nicht für ein spielerisches Umfeld sorgen, was die Forschungsfrage unvollständig beantwortet lässt. Weitere Arbeiten könnten sich mit der Umsetzung einer besseren Testumgebung und einem besseren Anwendungsfall beschäftigen.
In der Bachelorarbeit wird der Zusammenhang zwischen der Verwendung von Kunst und der Videospielproduktion dargestellt. Als Ziel der Arbeit soll eine Aufschlüsselung der Kunstbereiche Concept Art und Illustration klarstellen, inwiefern eine Unterscheidung in der Industrie eine Rolle spielen. Mit der Untersuchung soll ein realistischer Eindruck über die Funktionsweise der Kunst in den beiden Bereichen analysiert werden. Das Ergebnis zeigt, dass die initiale Motivation zur Erstellung grundlegend verschieden ist und für den Entwickler das Maß für die Qualität der Werke ist.
Untersuchung der Verwendung von Emojis in verschiedenen sprachlichen und kulturellen Kontexten
(2021)
Die modernen Kommunikationswege bieten inzwischen verschiedene Möglichkeiten, neben Text auch weitere Informationen zu teilen, zum Beispiel mittels Emojis. Diese werden in der Forensik noch nicht tiefgreifend analysiert. Um einen Einstieg in die Untersuchung der Verwendung von Emojis zu finden, beschäftigt sich diese Arbeit mit Unterschieden der Emoji-Nutzung in verschiedenen Kulturen und Sprachen. Dazu wurden mehrere statistische Analysen durchgeführt. Des Weiteren wird das Sentiment der Emojis untersucht und getestet, ob Emojis in allen Kulturen die gleiche Bedeutung haben. Zur Ermittlung der Bedeutung wurden Wortrelationen verwendet. In allen drei untersuchten Aspekten konnten Unterschiede festgestellt werden.
In dieser Arbeit wird der SAUZEROR-Algorithmus für Nukleotidstrukturen angepasst und auf seine Funktionalität und Performanz überprüft. DNA- und RNA-Strukturen sind in jeder lebenden Zelle vorhanden. Bei den RNA Strukturen haben die ncRNA eine immer größer werdende Bedeutung und die Funktion der ncRNA liegt in ihren geometrischen Aufbau. Der SAUZERORAlgorithmus erzeugt durch 3D-Koordinaten einer RNA-Struktur eine zER-Profil, welches eine 1D Repräsentation des Moleküles wiederspiegelt. Die zER-Profile können mit dynamsicher Programmierung aligniert werden und durch verschiede Scorings (zER-Score, NORM-Score, RMSD, GDT-TS oder TM-Score) bewertet werden. Für die Funktionalitätsprüfung wurden einzelene t-RNAs herangezogen und verglichen. Bei der Performanz ist der balance-x-FSCOR Benchmark benutzt wurden. Das Ergebnis war, dass der SAUZEROR-Algorithmus die wenigste Zeit benötigt und die zweitbeste Performanz abliefert.
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
Im Rahmen dieser Arbeit wird das ZigBee Protokoll genauer untersucht. Dabei wird gezielt auf die häufigsten Angriffsmethoden eingegangen, welche anschließend bewertet werden. Die Bewertung erfolgt mittels eines in der Arbeit vorgestellten Bewertungsschemas mit einer anschließenden Einordnung in eine Bedrohungsmatrix. Zuletzt werden einige der Attacken in einem Experiment durchgeführt, um die theoretische Einordnung zu überprüfen.
Diese Arbeit erläutert, wie automatisiert aus den derzeit gängigen Browsern - namentlich Internet Explorer, Microsoft Edge, Google Chrome, Mozilla Firefox sowie Opera, die Datenbanken aus forensischen Windows-Datenträgerkopien extrahiert werden können. Dabei werden diese Browser in dem Datenträgerabbild mittels Registry-Verweisen festgestellt und anschließend ihre Datenbanken aus den gängigen Pfaden extrahiert. Daraufhin werden alle Verläufe mittels einer dynamischen Liste gefiltert. Als Ergebnis entsteht ein neues Datenträgerabbild mit den enthaltenen Datenbanken der Browser. Das Ergebnis soll den Ermittlern Zeit bei der Durchsuchung der Browserdaten sparen, indem der Verlauf bereits gefiltert vorliegt.
Die vorliegende Arbeit beschäftigt sich mit der Analyse, Konzeption, Implementation und Evaluation eines dezentralen Feedback-Systems für die Blockchain Academy Mittweida. Es wurde nach einer Lösung gesucht, das Feedback für die angebotenen Kurse auf der Seite der Blockchain Academy Mittweida erfassen zu können. Dabei sollte die Anonymität des Nutzers stets gewahrt bleiben, jedoch für den Betreiber die Möglichkeit gegeben sein, unberechtigtes oder doppeltes Feedback erkennen und aussortieren zu können. Diese Anforderungen konnten durch die Linkable-Ring-Signature gewährleistet werden. Bei diesem Verfahren kann der Nutzer stellvertretend für seine Gruppe eine Nachricht signieren. Der Betreiber kann überprüfen, ob eine signierte Nachricht aus dieser Gruppe stammt und ob es bereits eine Nachricht von einem Nutzer eingegangen ist, ohne die Anonymität des Nutzers aufzuheben. Das System wurde möglichst dezentral gestaltet, um keine zentrale Angriffsstelle bieten zu können und sicherheitsrelevante Teile abkapseln zu können. Es wurde ein Smart Contract angelegt, welcher die zum Signieren benötigten öffentlichen Schlüssel der Gruppenmitglieder eines Kurses bereithält. Die zweite Komponente stellt eine Browsererweiterung dar. Mit dieser kann der Nutzer sich in die Feedbackgruppe zu einem Kurs eintragen und seine Schlüsselpaare für die Signatur Generierung speichern lassen. Die dritte Komponente ist ein Plugin auf dem WordPress-System der Blockchain Academy Mittweida, mit welchem das Feedback auf Verknüpfbarkeit geprüft werden kann. Mittels eines funktionalen Testverfahrens und einer Probandengruppe wurde die erarbeitete Lösung untersucht. In beiden Fällen bestand die Lösung die an diese gestellten Anforderungen und wurde positiv von der Probandengruppe aufgenommen. Es wurde sich mehrheitlich für die vorgestellte Lösung und gegen eine Lösung mit einem Kennwort, welches der Nutzer eingeben muss, bevor er eine Umfrage ausfüllen kann, entschieden. Im Wintersemester 2022/2023 an der Hochschule Mittweida könnte die Anwendung zusammen mit dem Masterstudiengang Blockchain & Distributed Ledger Technologies (DLT) in einem größeren Praxistest eingesetzt und weiter erprobt und verbessert werden.
Die vorliegende Arbeit befasst sich mit dem Cybercrime-Phänomen Phishing. Durch die Analyse von echten Delikten im Bereich des Phishings wird betrachtet, inwieweit das Phänomen durch das Strafgesetzbuch erfasst wird. Dafür wird sich an Paragrafen orientiert, die aus der Cybercrime-Konvention hervorgegangen sind, beziehungsweise durch diese geändert wurden und dem Bereich Cybercrime im engeren Sinn zugeordnet werden können. Neben einer Definition des Begriffes Cybercrime werden eine begriffliche Einordnung des Phänomens Phishing vorgenommen und die Grundzüge dieses aufgezeigt. Anschließend wird mithilfe der Delikte erörtert, welche Tatbestandsmerkmale der einzelnen Paragrafen sich bei den Delikten detektieren lassen und inwieweit die Begehungsweise Einfluss auf die detektierbaren Tatbestandsmerkmale hat. Bei der Erörterung wird auch auf den Begriff Daten eingegangen und welche Definition diesem innerhalb der betrachten Paragrafen zugrunde liegt.
Serielle Auswertung von Datensätzen einer Wildtierkamera mit dem Schwerpunkt Kennzeichendetektion
(2022)
Nummernschild- und Objektdetektion sind wichtige Bestandteile der Verkehrsüberwachung. Jedoch befassen sich die meisten Forschungsarbeiten zu diesen Themen mit der Detektion auf gut beleuchteten Bildern und nur wenige mit der Detektion auf sehr schlecht beleuchteten Aufnahmen. Diese Arbeit versucht, verschiedene Objektdetektionsalgorithmen auf schlecht beleuchteten Bildern zu vergleichen, sowie den Einfluss verschiedener einfacher Bildverbesserungsmethoden auf das Detektionsergebnis zu bewerten. Auf Grundlage dieser Ergebnisse wird anschließend eine Anwendung entwickelt, welche automatisiert Datensätze mehrerer Wildtierkameras auswertet, um diese zur einfacheren Verwendung zur Verfügung zu stellen.
Für die genetische Untersuchung eines Organismus ist es heutzutage unerlässlich dessen Genom vorliegen zu haben. Diese Arbeit schafft diese essentielle Grundlage für die weiteren Untersuchungen des altdeutschen Schafpudels. Die Assemblierung des Genoms wird dabei mit Illumina-Short-Reads und Nanopore-Long-Reads durchgeführt. Es werden drei verschiedene Ansätze getestet: das Short-Read-Assembly, das Long-Read-Assembly und das Hybrid-Assembly. Die Assemblies aller drei Ansätze werden im Folgenden auf ihre Qualität überprüft und miteinander verglichen, um das Assembly schrittweise zu verbessern. Das Ziel ist, dass das Assembly ähnliche Qualitäts-Metriken wie die Chromosomen-Level-Assemblies der bisher schon assemblierten Genome anderer Hundearten aufweist.
Der Videospielmarkt weltweit wächst immer weiter. Durch die hohe Nachfrage und das entsprechend große Angebot wird die Aufgabe des Marketings in der Videospielentwicklung immer wichtiger. Die meisten jungen Entwicklerstudios achten allerdings wenig auf das Marketing. Durch den übersättigten Markt sind gute Marketingmaßnahmen unverzichtbar für den Erfolg des Spiels geworden. Die vorliegende Arbeit zeigt auf, wie sich Maßnahmen mit dem Game Design verbinden lassen, um die erfolgreiche Vermarktung des Produkts zu gewährleisten. Diese Handlungsempfehlung wurde verfasst, um jungen Entwicklern eine Hilfestellung zu geben, wie sich das Marketing bereits während der Entwicklung in diesen Prozess integrieren lässt.
In dieser Arbeit geht es um die Konzeption und Implementierung eines Softwaretools für die Annotation von Spielpartieabläufen selektierter Automatic Battle- Spiele. Es werden drei Spiele dieser Art, auch als Vertreter des Auto-Battler-Genres klassizierbar, auf Gemeinsamkeiten und Unterschiede untersucht und im Anschluss ein Konzept für ein allgemein anwendbares Annotationstool erstellt. Anschließend erfolgt eine Implementierung für jenes Tool und ein Vergleich zum Annotationsprozess, bei welchem keine Unterstützung durch ein dafür entwickeltes Softwaretool erfolgt. Es konnten Erkenntnisse gewonnen werden zur potenziellen Verbesserung der Annotation von Automatic Battle-Spielen durch Verwendung einer Software, welche speziell für diesen Zweck ausgelegt ist.
Over the past few years, wind and solar power plants have increasingly contributed to energy production. However, due to fluctuating energy sources, the energy production data contain disruption. Such disrupted data lead to the wrong prediction performance, and they need to be estimated by other values. In this thesis, we provide a comparative study to estimate the online disrupted data based on the data of similar groups of power plants, We apply three estimation techniques, e.g., mean, interpolation, and k-nearest neighbor to estimate the disruption on training data. We then apply four clustering algorithms, e.g., k-means, neural gas, hierarchical agglomerative, and affinity propagation, with two similarity measures, e.g., euclidean and dynamic time warping to form groups of power plants and compare the results. Experimental results show that when KNN estimation is applied to data, and neural gas and agglomerative with dtw are used to cluster the data, the cluster quality scores and execution time give better results compared to others. Therefore, we conclude and choose KNN estimation to reconstruct the online disrupted data on each group of a similar power plants.
Untersuchung der Themendynamik in sozialen Netzen am Beispiel deutschsprachiger Texte auf Twitter
(2021)
Die vorliegende wissenschaftliche Abschlussarbeit behandelt die Untersuchung von Themenentwicklungen in deutschsprachigen Texten. Dazu wurden Twitterdaten von Bundestagsparteien analysiert. Über verschiedene Vorverarbeitungsschritte wurde eine LDA an das Problem angepasst. Mittels verschiedener Distanz- und Ähnlichkeitsmaße wurde eine Beschreibung der Themendynamik durchgeführt. Weiterhin wurden verschiedene Rahmenbedingungen erprobt, die zu einer Verbesserung der Ergebnisse führten.
Im Rahmen dieser Arbeit wurde ein Arbeitsablauf entwickelt, welcher es ermöglicht daktyloskopische Spuren aus photogrammetrischen 3D-Modellen abzulösen. In der anschließenden Evaluation wird geklärt, ob diese digital abgelösten Spuren denselben Informationsgehalt haben wie real abgelöste Spuren. Dargestellt werden daktyloskopische Grundlagen, Methoden aus der 3D-Modellierung sowie die Photogrammmetrie. Außerdem werden die verwendeten Methoden sowie die daraus resultierenden Ergebnisse präsentiert.
Die vorliegende Arbeit beschäftig sich mit der bildgebenden Darstellung zur Dokumentation verschiedener Verletzungsmuster. Der Fokus liegt auf den verschiedenen Techniken zur individuellen zweidimensionalen Wunderstellung sowie den Lösungsansätzen zu deren Gestaltung. Die texturbasierten Wunden dienen zur Darstellung fallspezifischer 3D-Menschenmodelle, um diese zur Tatortrekonstruktion einsetzten zu können.
Studying and understanding the metabolism of plants is essential to better adapt them to future climate conditions. Computational models of plant metabolism can guide this process by providing a platform for fast and resource-saving in silico analyses. The reconstruction of these models can follow kinetic or stoichiometric approaches with Flux Balance Analysis being one of the most common one for stoichiometric models. Advances in metabolic modelling over the years include the increasing number of compartments, the automation of the reconstruction process, the modelling of plant-environment interactions and genetic variants or temporally and spatially resolved models. In addition, there is a growing focus on introducing synthetic pathways in plants to increase their agricultural potential regarding yield, growth and nutritional value. One example is the β-hydroxyaspartate cycle (BHAC) to bypass photorespiration. After the implementation in a stoichiometric C3 plant model, in silico flux analyses can help to understand the resulting metabolic changes. When comparing with in vivo experiments with BHAC plants, the metabolic model can reproduce most results with exceptions regarding growth and oxaloacetate. To evaluate whether the BHAC is suitable to establish a synthetic C4 cycle, the pathway is implemented in a two-cell type model that is capable of running a C4 cycle. The results show that the BHAC is only beneficial under light limitation in the bundle sheath cell. An additional engineering target for improved performance of plants is malate synthase. This work serves as the basis for further analyses combining the different factors boosting the advantages of the BHAC and for in vivo experiments in C3 and C4 plants.
Hass und Hetze im Netz haben in den letzten Jahren stetig zugenommen. Vor allem in den sozialen Medien sind Anfeindungen, Hass und Hetze immer dominanter geworden. Dies stellt auch die Strafverfolgungsbehörden vor neue Aufgaben. Um Verfasser von Hasskommentaren über soziale Netzwerke effektiver identifizieren zu können, nehmen Polizei und Justiz seit einiger Zeit die OSINT-Recherche (Open Source Intelligence) zu Hilfe. Hierfür durchsuchen die Ermittler digital das Profil oder die Profile der Verfasser von Hasskommentaren und sichern Informationen, welche zur Identifizierung der Personen führen können. Diese Arbeit soll aufzeigen, wie die OSINT-Recherche im Vergleich zu den Standardermittlungen einzuordnen ist. Außerdem soll untersucht werden, wie Hasskommentare im Netz klassifiziert werden können und welche Art von Informationen die Nutzer freiwillig im digitalen Raum veröffentlichen.
In the past few years Generative models have become an interesting topic in the field of Machine Learning (ML). Variational Autoencoder (VAE) is one of the popular frameworks of generative models based on the work of D.P Kingma and M. Welling [6] [7]. As an alternative to VAE the authors in [12] proposed and implemented Information Theoretic Learning (ITL) based Autoencoder. VAE and ITL Autoencoder are a combination of the neural networks and probabilistic graphical models (PGM) [7]. In modern statistics it is difficult to compute the approximation ofthe probability densities. In this paper we make use of Variational Inference (VI) technique from machine learning that approximate the distributions through optimization. The closeness between the distributions are measured by the information theoretic divergence measures such as Kullbach-Liebler, Euclidean and Cauchy Schwarz divergences. In this thesis, we study theoretical and experimental results of two different frameworks of generative models which generate images of MNIST handwritten characters [8] and Yale face database B [3]. The results obtained show that the proposed VAE and ITL Autoencoder are capable of generating the underlying structure of the example datasets
Digital data is rising day by day and so is the need for intelligent, automated data processing in daily life. In addition to this, in machine learning, a secure and accurate way to classify data is important. This holds utmost importance in certain fields, e.g. in medical data analysis. Moreover, in order to avoid severe consequences, the accuracy and reliability of the classification are equally important. So if the classification is not reliable, instead of accepting the wrongly classified data point, it is better to reject such a data point. This can be done with the help of some strategies by using them on top of a trained model or including them directly in the objective function of the desired training model. We discuss such strategies and analyze the results on data sets in this thesis.
Korrelation von Zeitstempeln und Pfadangaben von Ausführungsartefakten eines Windows 1x Systems
(2022)
Die Sicherheitslage in Deutschland wird für das Berichtsjahr 2021 durch das Bundesamt für Sicherheit in der Informationstechnik (BSI) als angespannt bis kritisch beschrieben. Ein Grund für diese Einschätzung ist, die Zunahme von Ransomware-Angriffen und die daraus resultierenden Schäden. Derartige Angriffe müssen im Rahmen eines Incident Response und Digital Forensic (kurz DFIR) Prozess aufgeklärt, eingedämmt und weitgehend rückgängig gemacht werden. Die immer größer werdenden Mengen an heterogenen Daten und die immer kürzeren Zeitabschnitte, die für eine Analyse zur Verfügung stehen, sind Herausforderungen, mit denen die Incident Responder und die Digitalen Forensiker konfrontiert sind.
Diese Arbeit verfolgt das Ziel, den Aufwand einer forensischen Untersuchung zu verringern, in dem Ausführungsartefakte von Windows 1x Systemen anhand der in ihnen enthaltenen Pfadangaben und Zeitstempel miteinander korreliert werden. Die praktische Anwendbarkeit der in dieser Arbeit gewonnen Erkenntnisse wurde in einem Proof-of-Concept demonstriert. Dessen Umsetzung erfolgte mithilfe von Angular, Flask und Neo4j.
Die Bachelorarbeit umfasst eine Auseinandersetzung mit dem aktuellen Straftatphänomen Cybertrading. In Zusammenarbeit mit Beteiligten des Strafverfolgungsprozesses und entsprechender Literatur wird das Phänomen aus den Gesichtspunkten der Wirtschaft, des Bankwesens, des Rechts, der Psychologie und der Polizei näher beleuchtet. Mithilfe dieser Erkenntnisse werden die Problemfelder im Umgang mit der Betrugsstraftat aufgedeckt.
Die vorliegende Bachelorarbeit befasst sich mit der Sicherung und qualitativen Bewertung von ermittlungsrelevanten Daten, die auf Fitnesstrackern/Fitness-Smartwatches ausgewählter Hersteller abgelegt sind. Das Ziel dieser Arbeit besteht darin, zu untersuchen, unter welcher Konstellation die abgelegten Daten forensisch gesichert werden können, wenn keine Zugriffsmöglichkeit zum ursprünglich gekoppelten Smartphone besteht. Die Untersuchung erstreckt sich dabei auf die Simulation von Verbindungsumgebungen zwischen Fitnesstrackern/Fitness-Smartwatch und Android-Gerät sowie dem Auslesen und Interpretieren vorhandener Speicherchips.
This Bachelor thesis investigates the learning rules of the Hebbian, Oja and BCM neuron models for their convergence to, and the stability of, the fixed points. Existing research is presented in a structured manner using consistent notation. Hebbian learning is neither convergent nor stable. Oja learning converges to a stable fixed point, which is the eigenvector corresponding to the largest eigenvalue of the covariance matrix of the input data. BCM learning converges to a fixed point which is stable, when assuming a discrete distribution of orthogonal inputs that occur with equal probability. Hebbian learning can therefore not be used in further applications, where convergence to a stable fixed point is required. Furthermore, this Bachelor thesis came to the conclusion that determining the fixed points of the BCM learning rule explicitly involves extensive calculation and other methods for verifying the stability of possible fixed points should be considered.
In regelmäßigen Abständen werden bei Milchkühen in Deutschland Daten über die Zusammensetzung der Milch erhoben, um eine gleichbleibende Qualität sicherstellen zu können. Gleichzeitig dienen die Milchinhaltsstoffe als erste Indikatoren für eine Veränderung des Stoffwechsels der Kuh und ein damit einhergehend erhöhtes Erkrankungsrisiko. Aus diesem Grund wird in dieser Arbeit untersucht, ob es möglich ist, Vorhersagen über Erkrankungen bei Milchkühen anhand dieser Milchleistungsprüfungsdaten zu treffen. Dafür werden maschinelle Lernverfahren angewendet, im Speziellen Multi-Label- und binäre Klassifikationsverfahren. Die genutzten Klassifikatoren umfassen Multi-Layer Perzeptrone, Naive Bayes-Klassifikatoren sowie Support Vector Machines mit verschiedenen Kernels. Die Vorhersagen werden mit Konfusionsmatrizen und den dazugehörigen Evaluationsmaßen ausgewertet und verglichen.
Untersuchung potenzieller Angriffsvektoren auf Container-Infrastrukturen unter Nutzung von Docker
(2021)
Die Digitalisierung ist eine der größten Herausforderungen der Wirtschaft. Eine Containervirtualisierung kann dabei vielversprechende Lösungen bieten, unterliegt jedoch ebenso Angriffen. Diese Arbeit zeigt am Beispiel von Docker auf, mit welchen Angriffsvektoren auf eine Container-Infrastruktur gewirkt und mit welchen Schutzmaßnahmen diese gehärtet werden kann. Die Untersuchungen stellen dar, wie schützenswerte Daten erbeutet, exogen Einfluss auf die in Containern verarbeiteten Daten genommen und mit
Schadsoftware auf gesamte Infrastruktur gewirkt werden kann. Dabei werden Host, Container und weitere Komponenten gleichermaßen berücksichtigt. Die Abhängigkeiten innerhalb von Containern werden zwar voneinander isoliert, jedoch teilen sich Host und Container einen gemeinsamen Kernel. Aus diesem Grund rücken Containerausbrüche und Kernelangriffe in den Fokus. Für den sicheren Einsatz von Containern können korrekte Konfigurationen bezüglich der Systemaufrufe, Capabilities, Kontrollgruppen, Namensräume
oder des Rootless Mode von entscheidender Bedeutung sein.
Ziel dieser Arbeit ist die manuelle und automatische Annotation anatomischer und anthropologischer Leitstrukturen und Messpunkte am Beispiel von Mandibulae männlicher Soldaten der napoleonischen Armee. Hierbei werden Mandibulae der Skelettsammlung Rödelheim mit Hilfe von Photogrammetrie digitalisiert und mittels der Software AnthroWorks3D hinsichtlich anatomischer und osteometrischer Landmarken annotiert. Ziel ist eine Automatisierung des Setzens der osteometrischen Landmarken, die mittels einer Schablone realisiert wird. Dabei soll untersucht werden, welche Mandibula die „Durchschnittlichste“ ist und wie effizient der Automatisierungsprozess im Vergleich zu einer manuellen Annotation ist. Anhand statistischer Analysen wird ein Überblick über aussagekräftige Kenngrößen innerhalb der Stichprobe gegeben. Untersuchungen der anatomischen Skelettvarianten dienen der Einschätzung bzgl. deren Einflusses auf AnthroWorks3D.
In der vorliegenden Arbeit wird die Papillarliniendicke anhand eines neu erstellten Programmes bestimmt und analysiert. Die dafür entwickelte Methode und ihre Grundlagen werden gesondert erklärt und evaluiert.
Bei der Überprüfung des Merkmals auf geschlechtsspezifische Unterschiede kann eine signifikante Abweichung der Verteilungen beobachtet werden. Weiterhin wird ein Regressionsmodell anhand der extrahierten Merkmale trainiert und ausgewertet.
Die einzelnen Phasen der Angriffe auf Computernetzwerke werden heute zunehmend mit speziell dafür konzipierter Software durchgeführt. Für die Aufrechterhaltung der Verbindung zum kompromittierten Netzwerk sind sogenannte Command & Control Frameworks ein gängiges Mittel. Ein Vertreter dieser Frameworks ist PowerShell Empire, welches hauptsächlich auf der Skriptsprache PowerShell von Microsoft basiert, die Angriffsziele jedoch nicht auf Windowssysteme beschränkt sind. In dieser Arbeit wird dieses Framework vorgestellt und Szenarien für den Einsatz aufgezeigt. Durch Untersuchung von Netzwerkmitschnitten, sollen zudem Erkennungsmerkmale zur Identifikation der Aktivität von Empire herausgearbeitet werden.
DID-Methoden, Wallets, Agents und Verifiable-Credentials sind grundlegende Begriffe im Kontext von Self-Sovereign-Identity (SSI) und stellvertretend für neuartige Methoden der Identitätsverwaltung im Internet. Es werden gegenwärtig Entwürfe von Standards und Spezifikationen unterschiedlicher Gruppen und Gremien forciert, die dem Paradigma von SSI gerecht werden wollen. Aus der Vielzahl technologischer Ansätze, die bereits entstanden sind, werden einige wichtige näher betrachtet und hinsichtlich ihrer Interoperabilität untersucht. Ausganspunkt ist dabei der Trust-over-IP-Stack, wie er von gleichnamiger Organisation (Trust-over-IP-Foundation) vorangetrieben wird. Dabei spielen weitere Normungsgremien eine Rolle, wie z. B. die Decentralized-Identity-Foundation (DIF) oder das World-Wide-Web-Consortium (W3C). Gegenstand der Untersuchung ist der aktuelle Stand der Technik und dessen Implikationen hinsichtlich ihrer Interoperabilität, Portabilität sowie dem angestrebten Ziel der Dezentralisierung. Dabei stehen insbesondere die beiden Entwürfe zu den Standards der Decentralized-Identifiers und des Verifiable-Credentials-Data-Models im Mittelpunkt. Es werden aber auch weitere Spezifikationen betrachtet, die diese ergänzen und für derartige Identitätsverwaltungssysteme von Bedeutung sind.
Seit 1949 wird Lithium, meist in Form von Lithiumcarbonat, zur akuten und prophylaktischen Behandlung affektiver Störungen eingesetzt. Der Lithiumspiegel der Patientinnen muss dabei genau eingestellt und regelmäßig überwacht werden. Die vorliegende Arbeit beschäftigt sich mit der Lithiummessung mittels ionenselektiver Elektroden (ISE) im Speichel und der Herstellung eines Kunstspeichels zur Kalibrierung der Elektroden. Bei der Lithiummessung kann es durch Störionen zu Quereinflüssen kommen, sodass die Lithiummessung beeinflusst wird. Diese Interferenzen sollen untersucht werden.
Simulating complex physical systems involves solving nonlinear partial differential equations (PDEs), which can be very expensive. Generative Adversarial Networks (GAN) has recently been used to generate solutions to PDEs-governed complex systems without having to numerically solve them.
However, concerns are raised that the standard GAN system cannot capture some important physical and statistical properties of a complex PDE-governed system, along side with other concerns for difficult and unstable training, the noisy appearance of generated samples and lack of robust assessment methods of the sample quality apart from visual examination. In this thesis, a standard GAN system is trained on a data set of Heat transfer images. We show that the generated data set can capture the true distribution of training data with respect to both visual and statistical properties, specifically the vertical statistical profile. Furthermore, we construct a GAN model which can be conditioned using variance-induced class label. We show that the variance threshold t = 0. 01 constructs a good conditional class label, such that the generated images achieve 96% accuracy
rate in complying with the given conditions.
Hyper- und Hyponatriämie
(2019)
Die Arbeit beschäftigt sich mit dem Einfluss von Natrium auf die Hypo- und Hypernatriämie. Zusätzlich soll die These über die Wirkung von Östradiol auf die Hyponatriämie gestützt oder widerlegt werden, um herauszufinden ob Frauen im fortpflanzungsfähigem Alter besonders anfällig für eine Hyponatriämie sind. Bei einem Zusammenhang zwischen der Hyponatriämie und dem Östradiolwert, ergeben sich neue relevante Aspekte die bei der Prävention oder bei der Aufnahme einer Frau in der Klinik von großer Bedeutung sind.
Die grundlegende Theorie des Blutsalzes sowie die Ursachen, Symptome und Therapie werden erläutert. Anschließend werden die bei Labopart Medizinische Laboratorien gemessenen Werte aus dem Jahr 2018 betrachtet und ausgewertet. Der Weg der Proben wird von der Blutabnahme bis zum Messergebnis dokumentiert. In der klinischen Chemie durchlaufen diese die in der Arbeit beschriebenen Stationen. Diese grundlegende Basis soll eine Diskussion und Interpretation der fünfzig höchsten und niedrigsten Natriumwerte erlauben, damit ein Natriumungleichgewicht schneller in Betracht gezogen oder behandelt werden kann. Zugleich lassen sich die Ergebnisse in der Prävention einsetzen.
Erstellen eines Leitfadens zur Sicherstellung der gestalterischen Kontinuität von Concept Art
(2020)
Das Ziel dieser Arbeit ist es einen Leitfaden zur Sicherstellung der gestalterischen Kontinuität von Concept Art zu erstellen. Um das zu erreichen wurden zuerst die essenziellen Begriffe Concept Art und Kontinuität definiert. Aus diesen Definitionen wurden anschließend Methoden abgeleitet die eine Sicherstellung der Kontinuität gewährleisten können. Schlussendlich wurde eine Expertenumfrage durchgeführt und analysiert. Die Analyseergebnisse wurden mit den theoretischen Erkenntnissen in einem Leitfaden zusammengefasst
Die Kryokonservierung gibt die Möglichkeit, Pflanzen als genetische Ressourcen über einen langen Zeitraum zu lagern. Dabei stellt sie eine sichere und kostengünstige Methode dar, die zudem frei von äußeren Umweltfaktoren ist. Die optimierte PVS2 Methode Dresden hat sich bei Fragaria bereits bewährt und wird fortan für diese Obstart im Julius Kühn-Institut Dresden verwendet. Bei Erstversuchen mit Wildbirnen 2019 zeigte sich für die Kryokonservierung noch deutliches Optimierungspotenzial. Die Regenerationsraten konnten in der vorliegenden Arbeit durch eine veränderte Präparationsweise signifikant gesteigert werden. Dabei lag der Fokus auf die unterschiedliche Anzahl der Hüllblätter des Primordien Gewebes. Zusätzlich wurde die Methode des slow coolings mit dormanten Knospen als Alternativmethode zur Anwendung von PVS2 getestet.
Influenza A viruses are responsible for the outbreak of epidemics as well as pandemics worldwide. The surface protein neuraminidase of this virus is responsible, among other things, for the release of virions from the cell and is thus of interest in pharmacological research. The aim of this work is to gain knowledge about evolutionary changes in sequences of influenza A neuraminidase through different methods. First, EVcouplings is used with the goal of identifying evolutionary couplings within the protein sequences, but this analysis was unsuccessful. This is probably due to the great sequence length of neuraminidase. Second, the natural vector method will be used for sequence embedding purposes, in hopes to visualize sequential progression of the virus protein over time. Last, interpretable machine learning methods will be applied to examine if the data is classifiable by the different years and to gain information if the extracted information conform to the results from the EVcouplings analysis. Additionally to using the class label year, other labels such as groups or subtypes are used in classification with varying results. For balanced classes the machine learning models performed adequately, but this was not the case for imbalanced data. Groups and subtypes can be classified with a high accuracy, which was not the case for the years, continents or hosts. To identify the minimal number of features necessary for linear separation of neuraminidase group 1 subtypes, a logistic regression was performed at last, resulting in the identification of 15 combinations of nine amino acid frequencies. Since the sequence embedding as well as the machine learning methods did not show neuraminidase evolution over time, further research is necessary, for example with focus on one subtype with balanced data.
Die Digitalisierung überschreitet jedes Jahr neue Grenzen, besonders in Zeiten von Covid-19. Dadurch werden vermehrt Privatcomputer für die Arbeit genutzt und vice versa. Durch die Vermischung von Privat- und Unternehmensdaten gewinnen immer mehr Cyberkriminelle Zugang zu sensiblen Daten mit welchen sie Unternehmen und Privatpersonen angreifen könnten. Zusätzlich professionalisieren sich die Täter und verwenden sich stetig verbessernde Schadsoftwaren. Um mögliche Angriffsvektoren zu simulieren wird eine Testumgebung erstellt, zum Testen solcher Attacken. Diese Arbeit wird zur Erschaffung einer möglichst sicheren Arbeitsumgebung erstellt. Schlussendlich sollen mit dem Wissen von Angriffsvektoren Leser, Studierende und Fachpersonal weitergebildet werden.
In dieser Arbeit wird die Entwicklung einer Client-Server-Infrastruktur für die probabilistische Privacy Preserving Record Linkage (PPRL) vorgestellt. Ziel ist die Integration der entwickelten Dienste in eine Implementierung des Personal Health Train. Die Anwendbarkeit wird anhand von Fallbeispielen demonstriert und die Toleranz des PPRL-Ansatzes gegenüber kleinen Fehlern zwischen sonst übereinstimmenden Datensätzen hervorgehoben. Das Ergebnis ist eine robuste PPRL-Infrastruktur für den Einsatz in der verteilten Datenanalyse.
In der vorliegenden Masterarbeit wird der, im Jahr 2018 im Application Center Microcontroller entwickelte, forensische Demonstrator für das Controller Area Network (CAN) analysiert und auf Basis dessen ein Redesign konzipiert, entwickelt und getestet. Gemäß der in dieser Arbeit vermittelten Grundlagen zu aktuellen Bussystemen der Automobilindustrie und ihrer Datenübertragung, werden entsprechende CAN-Nachrichten implementiert und auf den CAN-Bus gesandt. Die Auswertung dieser Botschaften erfolgt durch die CAN-Analysesoftware BUSMASTER. Eine entsprechende Visualisierung der Daten wird durch die, für den BUSMASTER entwickelte, grafische Oberfläche realisiert.
Diese Arbeit befasst sich mit der Gestaltung und Kombination verschiedener Bildkompositionen und der Ermittlung von deren Einfluss auf die vom Betrachter wahrgenommene Bildstimmung. Dabei werden Environment Concept Artworks aus verschiedenen Bildelementen zusammengesetzt, welche bestimmte Auswirkungen auf die empfundene Stimmung haben sollen. Der Effekt der entwickelten Bilder auf die Stimmung eines Betrachters wurde durch eine Befragung von Testpersonen ermittelt. Die Ergebnisse der Umfrage lassen sich durch verschiedene Bildelemente klar begründen und bestätigen die der Arbeit zu Grunde liegende Forschungsfrage. Die in dieser Arbeit ermittelten Informationen, bieten einen guten Ausgangspunkt für die Entwicklung von 2D-Werken mit der klaren Absicht eine konkrete Bildstimmung auszulösen, und sind auch außerhalb des Anwendungsfalls Environment Concept Art nutzbar.
Das Ziel dieser Arbeit ist es, die Möglichkeit der Nutzung von Rust als Ersatz für C und Java zu evaluieren. Diese beiden wurden als Vertreter von hardwarenahen bzw. einfacheren und höheren Sprachen gewählt. Sie sind außerdem bekannt dafür, unsicher bzw. langsam zu sein. In beiden Punkten soll Rust genauso gut oder besser sein als C und Java. Daher werden sie für die drei Sprachen verglichen. Da für die Wahl einer Programmiersprache auch entscheidend ist, wie aufwendig es ist, ein Programm zu erstellen, wird die Komplexität als dritter Aspekt für den Vergleich genutzt.
Anhand von Benchmarks wird zunächst die grobe Geschwindigkeit und Speichernutzung untersucht, während die Sicherheit der Sprachen in der Theorie und an einer realen Sicherheitslücke betrachtet wird.
Für einen ausführlichen Vergleich wird ein in allen drei Sprachen erstellter Webserver genutzt. Mittels diverser Metriken wird die Komplexität des Quellcodes analysiert und anschließend mit Laufzeitmessungen die Performanz.
Im Ergebnis ist Rust geeignet, C zu ersetzen, da es ähnlich schnell ist und ähnlich komplex, aber deutlich sicherer. Java hingegen ist zwar langsamer, aber dafür einfacher als Rust und sollte daher weiter eingesetzt werden für Programme, bei denen eine hohe Leistung nicht wichtig ist.
Die Biometrie ist eine Methode für die Zugriffssicherung auf sensible Daten, welche sich seit dem letzten Jahrzehnt immer mehr durchgesetzt hat. Sie wird vor allem in dem Bereich mobiler Endgeräte verbreitet eingesetzt, da die Implementierung kostengünstig ist. Außerdem muss sich der Benutzer keine Zugangsdaten merken, um Zugriff zu erlangen. Mit dem zunehmenden Nutzen werden jedoch auch Ansätze evaluiert, um diese Sicherheitsbeschränkungen von biometrischen Systemen zu umgehen.
In dieser Arbeit werden Ansätze evaluiert, um Zugang zu gesicherten Daten für forensische Zwecke zu erhalten. Bei Straftaten ist es entscheidend, in kurzer Zeit an die benötigten Daten zu kommen. Mit einem Brute-Force-Angriff kann es jedoch mehrere Jahre dauern, Passwörter zu knacken. Daher kann die Biometrie eine schnellere Lösung sein, um mobile Geräte zu entsperren. Hier liegt der Fokus auf der Erstellung von Fingerabdruck-Artefakten, um sich Zugang zu verschaffen.
Um diese These zu überprüfen, werden Experimente mit verschiedenen Ansätzen durchgeführt, um gängige Typen von Fingerabdrucksensoren zu umgehen. Zu Beginn wurden 2D-Ansätze evaluiert. Hierbei werden Fingerabdrücke mit einem Laserdrucker auf verschiedenste Materialien gedruckt. Als nächstes werden 3D-Ansätze getestet, wozu ein SLA Drucker verwendet wird. Darüber hinaus sind Hilfsmittel evaluiert worden, um die Eigenschaften der Fingerabdruckartefakte zu verbessern, damit sie sich mehr wie ein menschlicher Finger verhalten.
Die Experimente zeigen, dass es möglich ist, Fingerabdrucksensoren mit Artefakten zu umgehen, um an gesicherte Daten zu gelangen. Optische Sensoren akzeptieren 2D gedruckte Fingerabdrücke. Im Gegensatz dazu benötigen kapazitive und ultraschallbasierte Sensoren andere Artefakte. Wir konnten die Sicherheitssperre mit 3D Fingerabdrücken überwinden. Darüber hinaus sind Hilfsmittel nützlich, wenn eine Lebenderkennung integriert ist.
In der regenerativen Medizin, insbesondere beim Tissue Engineering, spielt die natürliche extrazelluläre Matrix eine große und immer bedeutsamere Rolle. Ein wichtiger Schritt für die medizinische Anwendung ist die Probenvorbereitung. Um die genaue Zusammensetzung des fertigen Produkts bestimmen zu können, muss eine einheitliche Methode für die Extraktion der Bestandteile zur Verfügung stehen. Ein anderer Teil der Probenvorbereitung ist die Dezellularisierung. Um bei der Anwendung in der regenerativen Medizin Abstoßungsreaktionen zu vermeiden, sollen die Zellen des zur Herstellung des Produkts verwendeten Gewebes nahezu vollständig entfernt werden. In dieser Arbeit wurde eine Methode zur Extraktion der extrazellulären Matrix optimiert und etabliert. Zusätzlich wurden verschiedene Dezellularisierungsansätze für die Gewebe untersucht. Die Ergebnisse zeigen, dass eine Extraktion mit dem GuHCl-Puffer für 24 beziehungsweise 48 h gute Ergebnisse bei der anschließenden Evaluation mittels Massenspektrometrie mit sich bringt. Allerdings ist der Erfolg der Extraktion stark gewebeabhängig. Für die Dezellularisierung hat sich die Anwendung des pH-WechselVerfahrens als wirksam erwiesen. Jedoch konnten mit Hilfe der gewählten Bedingungen die bestehenden Grenzwerte für eine erfolgreiche Dezellularisierung nicht erreicht werden.
Die vorliegende Arbeit befasst sich im Rahmen der Aufgabenstellung damit, ein Systemkonzept eines möglichen Systems für die automatisierte Suche und Verwaltung von Bedrohungsinformationen zu entwickeln und daran beteiligte Prozessschritte näher zu betrachten. Dieses System ist erforderlich, um OSCTI-Informationen aus verschiedenen Quellen zu sammeln, Wissen über Bedrohungsverhalten zu extrahieren und diese zu korrelieren, um ein möglichst vollständiges Bild über eine Bedrohung zu erhalten und diese Informationen unter anderem im Rahmen für des Threat Huntings nutzbar zu machen.
Due to the intractability of the Discrete Logarithm Problem (DLP), it has been widely used in the field of cryptography and the security of several cryptosystems is based on the hardness of computation of DLP. In this paper, we start with the topics on Number Theory and Abstract Algebra as it will enable one to study the nature of discrete logarithms in a comprehensive way, and then, we concentrate on the application and computation of discrete logarithms. Application of discrete logarithms such as Diffie Hellman key exchange, ElGamal signature scheme, and several attacks over the DLP such as Baby-step Giant-step method, Silver Pohlig Hellman algorithm, etc have been analyzed. We also focus on the elliptic curve along with the discrete logarithm over the elliptic curve. Attacks for the elliptic curve discrete logarithm problem, ECDLP have been discussed. Moreover, the extension of several discrete logarithms-based protocols over the elliptic curve such as the elliptic curve digital signature algorithm, ECDSA have been discussed also.
In dieser Arbeit geht es um die Grundlage einer grünen Alternative zur chemischen Aufbereitung gelöster Metallionen. Im Fokus stehen dabei zwei wirtschaftlich wichtige Elemente: Cobalt und Nickel. In einem vorangegangenen Praktikum wurden dafür bereits Peptide mittels Isothermer Titrationskalorimetrie (ITC) untersucht, welche in der Lage waren, diese beiden Metallionen zu binden. Diese Peptide wurden mittels Phagen Display selektiert. Da die zwei Peptide die gewünschten Affinitäten aufwiesen, wurden mit diesen Fusionsproteine konstruiert, wobei die Peptide als Insert, neben weiteren Funktionalitäten, hinzugefügt wurden. Somit entstanden Proteine, welche als Fusionsproteine (FP) bezeichnet werden. Ein Zusätzliches FP mit sieben Histidinen wurde als Positivkontrolle mitgeführt, da Histidin bekanntermaßen beide Elemente binden kann