Refine
Document Type
- Bachelor Thesis (108)
- Master's Thesis (31)
- Diploma Thesis (3)
Year of publication
- 2020 (142) (remove)
Keywords
- Computerforensik (11)
- Computersicherheit (11)
- Maschinelles Lernen (7)
- Softwareentwicklung (7)
- Videospiel (7)
- Blockchain (5)
- Künstliche Intelligenz (5)
- Bildverarbeitung (4)
- Bioinformatik (4)
- Digitalisierung (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (142) (remove)
In bioinformatics one important task is to distinguish between native and mirror protein models based on the structural information. This information can be obtained from the atomic coordinates of the protein backbone. This thesis tackles the problem of distinction of these conformations, looking at the statistics of the dihedral angles’ distribution regarding the protein backbone. This distribution is visualized in Ramachandran plots. By means of an interpretable machine learning classification method – Generalized Matrix Learning Vector Quantization – we are able to distinguish between native and mirror protein models with high accuracy. Further, the classifier model supplies supplementary information on the important distributional regions for distinction, like α-helices and β-strands.
Diese Arbeit behandelt die Wirkungsweise von optischen Reizen in Videospielen, sowie deren Einfluss auf instinktive Handlungen von Spielern. Es soll dabei untersucht werden, ob sich diese Reize von elementaren Prinzipien erfolgreicher Level Design Ansätze ableiten lassen. Hierfür wird auf Grundlage einer umfassenden Recherche eine modulare Testkammer im Stil eines Puzzlespiels konzipiert und umgesetzt. Die Probanden werden bei der Lösung acht verschiedener Bereiche beobachtet und protokolliert sowie zu einzelnen Aspekten befragt. Bei der Auswertung dieser stellen sich Farbunterschiede und starke Farbkonstraste als wirksamste optische Reize heraus.
Für eine akkurate Analyse der Auswirkungen auf instinktive Handlungsmuster, sind umfangreichere Vor-Untersuchungen in Bereichen der Psychologie von Instinkten und visuellen Wahrnehmung notwendig.
The emerging Internet of Things (IoT) technology interconnects billions of embedded devices with each other. These embedded devices are internet-enabled, which collect, share, and analyze data without any human interventions. The integration of IoT technology into the human environment, such as industries, agriculture, and health sectors, is expected to improve the way of life and businesses. The emerging technology possesses challenges and numerous
security threats. On these grounds, it is a must to strengthen the security of IoT technology to avoid any compromise, which affects human life. In contrast to implementing traditional cryptosystems on IoT devices, an elliptic curve cryptosystem (ECC) is used to meet the limited resources of the devices. ECC is an elliptic curve-based public-key cryptography which provides equivalent security with shorter key size compared to other cryptosystems such as Rivest–Shamir–Adleman (RSA). The security of an ECC hinges on the hardness to solve the elliptic curve discrete logarithm problem (ECDLP). ECC is faster and easier to implement and also consumes less power and bandwidth. ECC is incorporated in internationally recognized standards for lightweight applications due to the
benefits ECC provides.
A Protein is a large molecule that consists of a vast number of atoms; one can only imagine the complexity of such a molecule. Protein is a series of amino acids that bind to each other to form specific sequences known as peptide chains. Proteins fold into three-dimensional conformations (or so-called protein’s native structure) to perform their functions. However, not every protein folds into a correct structure as a result of mutations occurring in their amino acid sequences. Consequently, this mutation causes many protein misfolding diseases. Protein folding is a severe problem in the biological field. Predicting changes in protein stability free energy in relation to the amino acid mutation (ΔΔG) aids to better comprehend the driving forces underlying how proteins fold to their native structures. Therefore, measuring the difference in Gibbs free energy provides more insight as to how protein folding occurs. Consequently, this knowledge might prove beneficial in designing new drugs to treat protein misfolding related diseases. The protein-energy profile aids in understanding the sequential, structural, and functional relationship, by assigning an energy profile to a protein structure. Additionally, measuring the changes in the protein-energy profile consequent to the mutation (ΔΔE) by using an approach derived from statistical physics will lead us to comprehend the protein structure thoroughly. In this work, we attempt to prove that ΔΔE values will be approximate to ΔΔG values, which can lead the future studies to consider that the energy profile is a good predictor of protein binding affinity as Gibbs free energy to solve the protein folding problem.
Digitale 3D-Modelle finden zunehmend auch im Bereich der Kriminalistik Anwendung, da sie nicht nur zur dauerhaften Dokumentation eines Tatortes beitragen, sondern auch wertvolle Erkenntnisse hinsichtlich des Tatherganges liefern können. Die vorliegende Arbeit befasst sich mit der Überprüfung des Generierungsprozesses derartiger 3D-Modelle hinsichtlich der in der IT-Forensik geltenden Richtlinien für die Reproduzierbarkeit und Dokumentation. Diese Untersuchung ist von Bedeutung, da die digitale 3D Tatortrekonstruktion nicht nur für die Ermittler selbst Hinweise liefert, sondern auch vor Gericht maßgebliche Beweiskraft haben kann, insofern sie die Anforderungen erfüllt. Für die Überprüfung wurden die beiden Softwarelösungen Agisoft Metashape und Meshroom genutzt, um zahlreiche Modelle unterschiedlicher Parametersets zu generieren. Anschließend wurden die mit gleichen Ausgangsbedingungen generierten Modelle hinsichtlich ihrer Ähnlichkeit verglichen, um so die Reproduzierbarkeit zu untersuchen. Mithilfe der Handbücher wurden zudem die einzelnen Prozessschritte näher betrachtet und somit die Möglichkeiten der Dokumentation überprüft.
Im Rahmen dieser Arbeit wurde ein mikrofluidischer Chip mit dem speziellen Design für ein reversibles Vakuumbonding sowie der Fähigkeit zur hydrodynamischen Fokussierung entwickelt. Die Anwendung erfolgte mit der Zielstellung, DNA Origami mithilfe dieses mikrofluidischen Setups auf einer Oberfläche zu immobilisieren.
Vor Ihnen liegt die Bachelorarbeit „Prototypische" Systemintegration und Evaluation von Open Source Sprachmodellen zur automatischen Spracherkennung gesprochener deutscher Texte“. Durch mein Praktikum im Bereich der Audioanalyse und Transkribierung kam ich auf die Idee, mich ausführlicher mit dem Thema zu beschäftigen. Ziel war es, “robuste“ Spracherkenner zu finden und verschiedene Ansätze zu präsentieren, die für das Aufgabengebiet der Forensik von Nutzen sein könnten. Die Nachforschungen waren nicht immer einfach, da die vorhandenen freien Spracherkenner Projektarbeiten via Github sind und diese kompliziert zu verstehen bzw. zu implementieren sind. Doch nach einer umfangreichen Analyse der zur Verfügung stehenden Modelle gelang es mir, die Forschungsfrage zu beantworten.
Die Diplomarbeit beschreibt die Entwicklung und Integration eines Reporting Moduls im Sinne der Business Intelligence-Anwendung zur managementunterstützenden Entscheidungsfindung. Ziel ist die Schaffung eines Grundkonzepts für die Einführung einer BI-Lösung bei Endkunden von Infinica, die die Infinica Plattform einsetzen und ein Berichtswesen ihrer Dokumentgenerierungen einführen wollen. Ein Konzept soll dabei gefunden werden, wie aus der Infinica Plattform für ein fachspezifisches Berichtswesen relevante Daten erzeugt und in Datenquellen für BI-Lösungen überführt werden können. Mithilfe eines Reporting-Tools sollen die Daten performant abgefragt und Berichte einfach erzeugt und angepasst werden können.
he automatic comparison of RNA/DNA or rather nucleotide sequences is a complex task requiring careful design due to the computational complexity. While alignment-based models suffer from computational costs in time, alignment-free models have to deal with appropriate data preprocessing and consistently designed mathematical data comparison. This work deals with the latter strategy. In particular, a systematic categorization is proposed, which emphasizes two key concepts that have to be combined for a successful comparison analysis: 1) the data transformation comprising adequate mathematical sequence coding and feature extraction, and 2) the subsequent (dis-)similarity evaluation of the transformed data by means of problem specific but mathematically consistent proximity measures. Respective approaches of different categories
of the introduced scheme are examined with regard to their suitability to distinguish natural RNA virus sequences from artificially generated ones encompassing varying degrees of biological feature preservation. The challenge in this application is the limited additional biological information available, such that the decision has to be made solely on the basis of the sequences and their
inherent structural characteristics. To address this, the present work focuses on interpretable, dissimilarity based classification models of machine learning, namely variants of Learning Vector Quantizers. These methods are known to be robust and highly interpretable, and therefore,
allow to evaluate the applied data transformations together with the chosen proximity measure with respect to the given discrimination task. First analysis results are provided and discussed, serving as a starting point for more in-depth analysis of this problem in the future.
Eine Untersuchung des Netzwerkverkehrs von 4 verschiedenen mobilen Applikationen mit Hilfe der Comminity Edition der Burp Suite der Firma PortSwigger auf sicherheitsrelevante Schwachstellen sowie das Aufzeigen der Grenzen bei der die Burp Suite zur Untersuchung von Netzwerkverkehr verwendet werden kann.
Die vorliegende wissenschaftliche Arbeit befasst sich mit der Fragestellung, ob ausgewählte Ansätze des Datenmanagements in verteilten Systemen einsatzfähig sind und somit zu einer Optimierung des Systems führen. Hierzu werden die Ansätze des Datenmanagements in Bezug auf ein bereits gegebenes verteiltes System betrachtet. Diesbezüglich lassen sich drei Aspekte des Datenmanagements adressieren und anhand einer exemplarisch ausgewählten Technologie die Einsatzfähigkeit des gewählten Ansatzes in Bezug auf das verteilte System belegen. Ziel in diesem Kontext ist anhand von ausgewählten Technologien der Übertragung, der persistenten Speicherung und der Verteilung und Virtualisierung von Daten deren Einsatzfähigkeit in einem gegebenen verteilten System zu prüfen und deren Optimierungspotential für das System aufzuzeigen. Innerhalb der folgenden sechs Kapitel beinhaltet Kapitel 1 die Einleitung inklusive Motivation, Zielstellung und Aufbau. Kapitel 2 fokussiert auf die theoretischen Grundlagen und Rahmenbedingungen sowie deren Erläuterungen. Inhalt von Kapitel 3 sind die Analyse der gegebenen Problemstellung und die Ableitung benötigter Anforderungen sowie die darauf aufbauende Konzepterstellung. Diese beinhaltet überdies die Technologieauswahl und aus dem Konzept resultierende Testfälle. Kapitel 4 dient zur Darstellung des Implementationsprozesses der gewählten Technologien. Kapitel 5 stellt darüber hinaus die Durchführung und Auswertung der erstellten Testfälle und die Gegenüberstellung von Vertretern der persistenten Speicherung von Daten dar. In Kapitel 6 ist eine Zusammenfassung der Arbeit vorzufinden, die den Abschluss der Arbeit darstellt und einen Ausblick für weitere mögliche Änderungen am gegebenen System gibt.
Die vorliegende Arbeit befasst sich mit der Automatisierung des Schreibens von Unit-Tests. Das Hauptziel ist es für den Bereich iOS eine Lösung umzusetzen und diese auszuwerten. Dabei wird der Codegenerator Sourcery verwendet und die Templates für das Generieren der Unit-Tests in den verschiedenen Templatesprachen umgesetzt. Die Umsetzung sowie die verschiedenen Templatesprachen werden ausgewertet, um die Basis für weitere Entwicklung zu schaffen.
Die vorliegende Arbeit setzt sich mit der Windows 10 Timeline auseinander. Da diese erst vor kurzem entwickelt und von Microsoft veröffentlich wurde, gibt es wenige forensische Analysen. Ziel ist es, die Windows 10 Timeline und ihre Datenbank genauer zu betrachten. Es soll unter anderem herausgefunden werden, welche Daten die Datenbank überhaupt speichert, wie diese Daten in die Tabellen gespeichert werden und wie die Tabellen in den Datenbanken miteinander arbeiten. Weiterhin soll der forensische Wert der Windows 10 Timeline erforscht werden. Demnach ist ein weiteres Ziel, die Relevanz der Windows 10 Timeline in digital forensischen Ermittlungen zu untersuchen.
StyleGAN2: Eine Analyse und dessen Übertragbarkeit auf die
Erzeugung synthetischerGanzkörperbilder
(2020)
Die vorliegende Bachelorarbeit befasst sich mit der Analyse der künstlichen Intelligenz Style-GAN2. Dabei richtet sich der Fokus zuerst auf den Aufbau von StyleGAN und im weiteren Verlauf auf die Weiterentwicklung StyleGAN2. Mit StyleGAN2 lassen sich fotorealistische Bilder von nicht existierenden Menschen, Tieren oder anderen Objekten erzeugen, z. B. menschliche Porträts, Katzen, Autos, Pferde und Kirchen. Bisher haben sich nur wenige Arbeiten mit der Erzeugung fotorealistischer Ganzkörperbilder von nicht existierenden Menschen auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Erzeugung synthetischer Ganzkörperbilder mit StyleGAN2. Diesbezüglich werden aus verschiedenen Arbeiten ideale Datensatz-, Bild- und Modelmerkmale abgeleitet und eine Vorgehensweise zur Erzeugung eines idealen Bilddatensatzes erläutert. Dieser Bilddatensatz wird zum Trainieren von StyleGAN2 benötigt. In einer Schritt für Schritt Anleitung wird das genaue Vorgehen zum Trainieren und Erzeugen synthetischer Ganzkörperbilder mit StyleGAN2 erklärt. Die vorliegende Arbeit soll als Anleitung zum Erzeugen synthetischer Ganzkörperbilder mit
StyleGAN2 dienen. Diese kann für verschiedene Bereiche genutzt werden, z. B. für den ECommerce, die Filmindustrie oder zur Bekämpfung von Straftaten.
Die vorliegende Arbeit beschäftigt sich mit der Analyse und dem Nachweis von unberechtigten RDP Zugriffen in Windows Netzwerkumgebungen. Dafür werden alle technischen Grundlagen zum Verständnis des RDP geklärt und mögliche
Angriffsszenarien sowie das Vorgehen von Angreifern aufgezeigt. Anschließend werden Indikatoren für unberechtigte Zugriffe erläutert und präventive Maßnahmen zum Schutz dargelegt.
Die vorliegende Bachelorarbeit befasst sich mit dem modernen Fahrzeug, das sich im Wandel der Digitalisierung zu einem datenverarbeitenden und stark mit der Umwelt vernetzten System entwickelt hat. Besonders durch die Auswertung von Literatur wird aufgezeigt, welche Risiken mit der zunehmenden Digitalisierung eines Fahrzeugs einhergehen
Leichte Sprache bietet Menschen mit eingeschränktem Leseverständnis die Möglichkeit der selbstständigen Informationsbeschaffung. Der Übersetzungsprozess verläuft überwiegend intellektuell und ohne technische Unterstützung. Die vorliegende Arbeit beschäftigte sich mit der Optimierung
eines zur Unterstützung des Übersetzungsprozesses entwickelten Annotationstools für Leichte Sprache. Dabei sollte geprüft werden, ob anhand von UI-Designpattern sowie visuellen Anpassungen Verbesserungen der User Experience hervorgerufen werden konnten.
Das Ziel dieser Arbeit ist es die bestehende ALP, um ein Analysetool zu ergänzen. Dieses Analysetool soll Dozenten einen Anhaltspunkt geben, ob die Lernenden Lernerfolge erzielen oder, ob es in bestimmten Bereichen Probleme gibt. Dazu werden die Grundlagen von Lernerfolg und Learning Analytics analysiert. Zusätzlich werden ähnliche Tools analysiert, um von diesen Inspiration und Anforderungen zu beziehen. Diese Anforderungen und die Anforderungen der ALP gehen in ein zu erstellendes Konzept ein, mit dem, unter anderem, der Lernerfolg von Lernenden durch das Analysetool gemessen werden soll. Anhand des Konzeptes wird die bestehende Architektur angepasst und erweitert. Dabei gilt es beim Umsetzen des Konzeptes nicht nur das Analysetool zu entwickeln, sondern auch nötige Änderungen an anderen Bestandteilen der ALP, wie der mobilen Applikation vorzunehmen. Zum Evaluieren wird zunächst die mobile Applikation durch eine Probandengruppen getestet, um Daten für das Analysetool zu generieren. Mit diesen Daten wird das Analysetool von Lehrenden auf seine User Experience und Nützlichkeit getestet.
Entwicklung einer CRISPRCas9 basierten Methode zur chromogenen in situ-Markierung spezifischer DNS
(2020)
Ziel der Arbeit war es, die Möglichkeit der in‒situ Markierung (ISH) durch das CRISPRCas9-System aus Streptococcus pyogenes zu nutzen, um damit ein chromogenes Detektionsverfahren für spezifische DNS-Sequenzen zu entwickeln (chromogene CRISPR-ISH). Das bisherige CRISPR-FISH-Verfahren von [Ishii et al. 2019] nutzte als Signalgeber Fluoreszenzfarbstoffe. Nachteilig ist, dass die für den Nachweis von Fluoreszenzsignalen nötige Technik wie Fluoreszenzmikroskop und -kamera kostenintensiv ist. Dadurch sind diese technischen Voraussetzungen für kleine Labore oder Bildungseinrichtungen häufig nicht erschwinglich. Weiterhin werden Fluoreszenzsignale nach wiederholtem Lichtkontakt instabil, wodurch die so markierten Präparate nicht mehrmals betrachtet werden können und für den wiederholten Gebrauch nicht geeignet sind. Die in dieser Arbeit entwickelte Methode sollte es ermöglichen, das Prinzip der CRISPR-Cas-basierten Markierung zu nutzen, ohne den Nachteilen der Fluoreszenz zu unterliegen. Um dieses Ziel zu erreichen, wurde die
CRISPR-FISH Methode sukzessive umgestaltet. Die bisher eingesetzten Fluoreszenzfarbstoffe wurden ersetzt. Die Zellkernfärbung (bisher durch DAPI) und die Visualisierung der Ribonukleoproteine (bisher durch Atto550) sollte mit nicht-fluoreszenten Farben realisiert werden. Die Ergebnisse sollten als Dauerpräparte so konserviert werden, dass diese beliebig häufig mit einem Lichtmikroskop betrachtet werden können.
Die Arbeit untersucht das Problem, der Named Entity Recognition in großen Textkorpora. Für klassische Modelle sind meist große gelabelte Datenmengen nötig, die häufig aber nicht zur Verfügung stehen, weil manuelle Annotation sehr zeitaufwendig ist. Deshalb wurde ein Halbüberwachtes
(Semi-Supervised) Verfahren untersucht, um ausgehend von einer kleinen Menge manuell annotierter Daten iterativ mit möglichst wenig Annotationsaufwand ein solides Modell zu trainieren. Das Verfahren nutzt gezielte manuelle Annotation, um den Lerneffekt durch Self-Training zu erhöhen. Die Untersuchungen haben jedoch gezeigt, dass durch Self-Training in diesem Fall keine Verbesserung erzielt werden konnte. Es kann aber eine erhebliche Menge
manueller Annotation durch die gezielte Auswahl von statistisch unsicheren Sätzen für die manuelle Annotation eingespart werden und dadurch effizienter eine bessere Performance erreicht werden.
Evaluation softwarespezifischer Physik Engines hinsichtlich
der Verwendung im forensischen Kontext
(2020)
Das Ziel dieser Arbeit ist die Überprüfung der Bullet Physik Engine und der PhysX Engine hinsichtlich ihrer Tauglichkeit im Kontext der forensischen Fallsimulationen. Nach dem Behandeln der Theorie werden dafür experimentelle Ansätze in Form von Ragdollsimulationen genutzt, um die beiden Engines miteinander zu vergleichen und zu bewerten. Diese Versuche werden in den Programmen Blender und Unreal Engine 4 durchgeführt, welche die beiden Physikalgorithmen einbinden und so ebenfalls miteinander verglichen werden können. Zusätzlich wurde eine Standard Operating Procedure für die Erstellung von Ragdolls in Blender angefertigt.
Ziel dieser Arbeit ist die Einführung und Implementierung eines Konzeptes, das diese hochsensiblen Daten trennt und unabhängig voneinander verwaltet. Auf diese Weise soll verhindert werden, dass ein Angreifer, bei unautorisiertem Zugriff auf eine Datenbank, keinen Zugang zu allen Sensor- und Identitätsdaten hat. Zu diesem Zweck wird ein Service vorgestellt, der die aufgezeichneten Daten in mehrere Komponenten aufteilt und unabhängig voneinander speichert. Damit die Anwendung keine Kenntnis über den Datenspeicherort besitzen muss, soll außerdem sichergestellt werden, dass die Anwendung und die Datenquellen nicht selbst miteinander kommunizieren müssen.
Das Fluorchinolon Levofloxacin hemmt die Gyrase in Mitochondrien, wodurch die mitochondriale DNA in der supercoiled-Form repliziert wird. Dabei entstehen Katenate, die bei einer Zellteilung nur an ein Tochtermolekül weitergegeben werden. Dies hat zur Folge, dass Zellen ohne mtDNA, sogenannte ρ0-Zellen, entstehen.
Diese Eigenschaft von Levofloxacin sollte genutzt werden, um ρ0-Zellen zweier Krebszelllinien (HeLa und PC 3) herzustellen. Zusätzlich wurde die Wirkung von Levofloxacin auf diese Krebszellen untersucht, um einen neuen möglichen Therapieansatz zu finden. Überprüft wurde dies mit Hilfe von Fluoreszenzmikroskopie, einem metabolischen Test und einer relativen Quantifizierung mittels qPCR.
Anhand der Ergebnisse konnten Unterschiede zwischen den beiden Zelllinien beobachtet werden. Levofloxacin bewirkte eine Proliferationshemmung und die Induzierung einer Apoptose bei höheren Konzentrationen, was eine toxische Wirkung auf die Krebszellen beweist. Es war jedoch nicht möglich, ρ0-Zellen herzustellen. Bei den HeLa-Zellen konnte eine Abnahme der mtDNA beobachtet werden, bei den PC 3-Zellen kam es dagegen zu einem Anstieg, was auf eine Überproduktion an mitochondrialer DNA zurückzuführen wäre. Die Herstellung von ρ0-HeLa-Zellen wäre mit Levofloxacin bei einer längeren Antibiotikabehandlung möglich.
In dieser Arbeit wird der Probenahmeplan der Trinkwasseranlage im Versorgungsgebiet Oechsetal, die TWA Schorngraben, und der Probenahmeplan des Versorgungsgebietes Vacha auf lokale Risiken untersucht, um daraufhin eine risikobewertungsbasierte Anpassung des Probenahmeplans vorzuschlagen. Hierbei wird eine Beschreibung des Systems angefertigt und mit Hilfe der Trinkwasserdaten können schließlich bestimmte chemische Parameter mit Grenzwert darauf untersucht werden, ob sie vom Probenahmeplan gestrichen oder die Probenahmehäufigkeit reduziert werden soll.
Ein Compiler oder Assembler wandelt Quellcode in ein ausführbares Programm um. Das resultierende Binary besteht aus Befehlen und Ressourcen, wie Bilder, Sounds oder anderen Informationen. Ohne den Ausführungskontext kann jedoch nicht im Vorhinein mit absoluter Sicherheit eine Angabe gemacht werden, bei welchen Bytes es sich um Anweisungen und bei welchen Abschnitten im Programm es sich um Ressourcen handelt. Bei einer Untersuchung oder einem
Dekompilierungsvorgang der binären Datei gestaltet sich diese bzw. dieser ohne vorliegenden Quellcode sehr schwierig. Als Beispiel für eine Von-Neumann-Architektur wurde in dieser Arbeit der Game Boy mit seiner
Sharp-LR35902-CPU gewählt. Mit Banking verwendet die Architektur sowohl historische Technologien, ähnelt aber dennoch sehr den derzeit häufig genutzten x86-64-CPUs von Intel oder AMD. Außerdem bieten die kleinen Programme von maximal zwei Mebibyte die Möglichkeit, auch in ineffiziente Ansätze auszuprobieren. In dieser Arbeit wurde anhand der folgenden sieben Lösungsansätze erläutert, wie man eine Befehl-Ressourcen-Trennung erzielen kann.
Manueller Ansatz (siehe Kapitel 3.1)
Metadaten-Ansatz (siehe Kapitel 3.2)
Alles-Befehle-Ansatz (siehe Kapitel 3.3)
Statistischer Ansatz (siehe Kapitel 3.4)
Emulationsansatz (siehe Kapitel 3.5)
Programmflussansatz (siehe Kapitel 3.6)
Brute-Force-Ansatz (siehe Kapitel 3.7)
Insbesondere wurden drei automatisierte bzw. teilautomatisierte Ansätze implementiert und anschließend
mit einer manuellen Trennung als Referenzwert verglichen. Dabei erzielte, bei dem verwendeten Kontrollprogramm ”StefaN”, der Programmflussansatz ein gutes Ergebnis.
Das mittels Emulationsansatz gewonnene Ergebnis schloss etwas schlechter ab. Der Brute-Force-Ansatz scheiterte an exponentiellen Wachstum und erzielte damit das schlechteste Ergebnis. Eine korrekte Trennung konnte nur mit dem manuellen Ansatz erreicht werden. In dieser Arbeit konnte keine vollautomatisierte Lösung für das Problem gefunden werden. Grundsätzlich kann festgehalten werden, dass eine Befehl-Ressourcen-Trennung einer ausführbaren Binärdatei auch in Zukunft eine Herausforderung darstellt.
Diese Arbeit hat das Ziel, einen kontinuierlichen Prozess in einem Festbettreaktor zur mikrobiellen Entfernung von Sulfat und Schwermetallen aus Bergbauwasser zu optimieren. Hierfür wurden zunächst Vorversuche getätigt, in welchen die Aktivität von sulfatreduzierenden Bakterien (SRB) mit den Substraten Methanol und Acetat im pH-Bereich 5-8 und bei den Temperaturen 20°C und 30 °C untersucht wurde. Im Anschluss wurde aufbauend auf den Ergebnissen der Vorversuche der Bioreaktor in Betrieb genommen und in den kontinuierlichen Betrieb überführt. In dieser Phase wurden wichtige Prozessdaten für den Betrieb aufgenommen, die Verweilzeit sowie die Methanolkonzentration optimiert.
Das Ziel dieser Arbeit ist es zu beantworten, inwieweit sich die Werkzeuge und Methoden der Videospielentwicklung für eine Digitalisierung von anthropologischen Funden und deren Untersuchung am Beispiel der Game Engine “Unity“ [Unity Technologies, 2020o] eignen. Um diese Frage zu beantworten, wurde ein Prototyp zur osteometrischen Vermessung von Knochenfunden mithilfe von Unity entwickelt. Es wurde eine Pipeline zum photogrammetrischen Scannen von Knochenmaterial entwickelt und die Pipeline sowie der Prototyp wurden von Anthropologen der Abteilung für historische Anthropologie und Humanökologie des Johann-Friedrich-Blumenbach Instituts für Zoologie und Anthropologie der Universität Göttingen getestet, um die daraus resultierenden Ergebnisse zur Evaluation zu verwenden. Dabei ist es gelungen eine Scanpipeline, sowie eine Software zur Vermessung der Scans zu entwickeln, welche nach Angaben der Anthropologen eine Anwendung in ihrem Arbeitsalltag finden könnte. Ebenfalls gab die Hälfte der getesteten Anthropologen an, dass die Messungen im virtuellen 3D-Raum eine alternative zur physischen Messung darstellen kann. Allerdings weichen die Messungen im Prototyp zum aktuellen Zeitpunkt noch um durchschnittlich zwei bis vier Prozent (je nach Art der Messung) von den physischen Messungen am selben Knochen ab. In der Zuverlässigkeit der Messungen kann der Prototyp allerdings mit den Messungen im Physischen mithalten. Die deskriptive Beschreibung von morphologischen Merkmalen fiel den Anthropologen schwerer als im Physischen, was sich auch in einer erhöhten Streuung in den gemessenen Werten widerspiegelt. Als Hauptgründe wurden dafür die fehlende Haptik und Schwierigkeiten beim Einschätzen der Perspektive im 3D Raum angegeben. Das zeigt, dass der entwickelte Prototyp die physische Untersuchung nicht ersetzen kann, allerdings eigen sich die Werkzeuge und Methoden der Videospielentwicklung für eine Digitalisierung von anthropologischen Funden und deren Untersuchung insofern, dass die virtuelle Untersuchung die physischen Untersuchung unterstützen kann und somit einen Mehrwert bietet. Dies gilt besonders in Anwendungsfeldern, in denen das Knochenmaterial schwer für den Untersuchenden zugänglich ist.
Der Funktionalitätstest von elektrisch betriebenen Küchenmaschinen laut DIN EN 60619 beim Schlagen von Sahne hat eine große Streuung und geringe Reproduzierbarkeit. Ein Grund kann in den Unterschieden der verwendeten Sahne liegen, die laut Norm zulässig sind. Um den Einfluss der Sahne auf den Funktionalitätstest von Küchenmaschinen zu verringern, muss die Norm spezifiziert oder eine Sahne verwendet werden, die nur einen minimalen Einfluss hat. Um dies zu erreichen müssen Parameter ermittelt werden, die den Einfluss der Sahne genauer beschreiben. Hierfür wurde die Einflussgrößen Sahnetempertatur, Fettgehalt, Einsatz des Stabilisators Carrageen, das Ultrahocherhitzen und das Kühlen von Schlagwerkzeug und Schüssel genauer untersucht. Dabei wird der Einfluss eben genannter Einflussgrößen auf die Bestimmung des spezifischen Volumens und des Abtropfgewichtes verdeutlicht, welche im Prüfverfahren Anwendung finden.
In dieser Arbeit wird ein Konzept für die Fahrprofilauswahl mittels machine learning vorgestellt. Hierbei wird ein Einblick in die Grundlagen und Methodiken des maschinellen Lernens sowie Fahrzeugelektronik gegeben. Des Weiteren wird das Thema künstliche neuronale Netzwerke detailliert erklärt, da es in der Arbeit Anwendung finden wird. Im späteren Verlauf wird ein LSTMNetzwerk implementiert und ausgewertet, um aus den Erfahrungen wichtige Erkenntnisse ableiten zu können. Aufbauend auf den Erkenntnissen, wird ein Konzept für die Fahrprofilauswahl definiert.
In Anbetracht des hohen Vernetzungsgrades der Wirtschaft stellen Cyberangriffe eine größere Gefahr dar denn je. Erfolgreiche Angriffe können heutzutage schwerwiegende Folgen haben und nicht nur die Wirtschaft, sondern auch die Politik beeinflussen. Somit werden gute Schutzmaßnahmen zunehmend wichtiger. Penetrationstests und Vulnerability Assessments helfen dabei Netzwerke sicherer zu gestalten und nach außen eine möglichst geringe Angriffsfläche zu bieten. Speziell Netzwerkscanner nehmen hier eine tragende Rolle ein, da sie automatisiert Schwachstellen finden und diese bewerten. Dennoch liefern nicht alle Netzwerkscanner die gleichen Resultate und bewerten Schwachstellen unterschiedlich. In dieser Arbeit sollen die vier der bekanntesten Netzwerkscanner hinsichtlich ihres Scanverhaltens, der Bewertung der Befunde, sowie der gefundenen False Positives und False Negatives verglichen werden. Letztendlich soll diese Arbeit dazu dienen, je nach Anwendungsfall den Scanner auszuwählen, der das beste Ergebnis liefert.
Die vorliegende Arbeit befasst sich mit der Analyse verschiedener Remoting Verfahren für die Verwendung von Webservices. Hauptziel ist aber, dass auf die Funktionalität der firmeninternen Webservices über einen Request-Handler zugegriffen werden kann. Um nicht bei jeder Anpassung oder Neuerstellung eines Webservice die URLs in den Anwenderprogrammen anpassen zu müssen, soll der Request-Handler die URL des angefragten Webservice ermitteln und eine
Kommunikation zwischen Anwenderprogramm und Webservice aufbauen und den Datenaustausch steuern.
Erstes Ziel der Arbeit ist es, eine Anwendung mit der Unity Engine zu erstellen, welche grundlegende Mechaniken einer First Person Zielübung beinhaltet.
Hierzu soll eine spielbare Karte mit Präzisionszielen entwickelt werden, welche mit gezieltem Klicken zerstört werden können. Dabei sollen neben einer ”realistisch“ aussehenden Map, zwei weitere Varianten erstellt werden, die in unterschiedlichen Abstufungen zusätzliche visuelle Elemente und Distraktoren beinhalten. Um die Wirksamkeit der Distraktoren prüfbar zu gestalten, sollen möglichst effiziente und starke Distraktoren im Vergleich zu einer Kontrolle ohne Distraktoren eingesetzt werden. Dadurch wird die Aussagefähigkeit der zu ermittelnden Daten unterstützt. Die Distraktoren sollen für potentielle Probanden des Testspiels den Durchlauf der Levels sowie das Auffinden und Treffen von Zielen erschweren.
Diese Karten werden von Grund auf gemodelt und die Funktionalität der Anwendung wird über die Skriptsprache C# implementiert.
Das zweite Ziel besteht darin, ein Spieleexperiment zu entwickeln, welches basierend auf der gestalteten FPS Anwendung eine Nachweismöglichkeit für die Wirksamkeit visueller Distraktoren auf Spieleteilnehmer hat. Dazu sollen Probanden mit Vorkenntnissen im FPS-Gaming für das Experiment rekrutiert werden. Die Teilnehmer werden die verschieden gestalteten Karten nach der Regie des Entwicklers durchlaufen und danach einen passend zur Aufgabenstellung entwickelten Fragebogen beantworten. Ebenfalls wird die Zeit gestoppt, welche diese Spieler für einen Durchlauf der verschiedenen Levels benötigen. Es wird weiterhin betrachtet, inwieweit sich durch wiederholtes Durchlaufen der Karten die Zeiten der Probanden verändern. Der zu entwickelnde Test soll zeigen, ob die Spieler abgelenkt werden und ob bei den Probanden durch wiederholtes Training eine Verbesserung der Spielleistung möglich ist, obwohl visuelle Distraktoren unterschiedlichster Art und Vielfältigkeit den Spieler behindern bzw. ablenken. Damit soll ermittelt werden, ob Testspieler in einem bestimmten und wenn ja, welchem Zeitraum in der Lage sind, bekannte Distraktoren auszublenden.
Mit dem gewählten experimentellen Ansatz kann eventuell am Rande auch ein kleiner bestätigender Baustein für die Hypothese erbracht werden, dass das Spielen von Videospielen eher positive, leistungssteigernde Effekte bezüglich des Wahrnehmungsvermögens und der Motorikfähigkeiten von Spielern haben kann, wie in einer umfassenden und sehr gut abgesicherten Studie von Green und Bavelier im Jahr 2003 gezeigt. Dort konnte nachgewiesen werden, dass die visuellen Fähigkeiten bei Gewohnheitsspielern gegenüber Nicht-Spielern verbessert sind, aber auch Nicht-Videospiel-Spieler durch das Spieletraining diese Fähigkeiten verbessern.
Im Rahmen der vorliegenden Arbeit werden in einem minimalistischen Ansatz die Testpersonen hinsichtlich der Trainierbarkeit ihrer visuellen und koordinativen Fähigkeiten geprüft. Die Grundidee fokussiert jedoch ganz spezifisch nur auf den Einfluss ablenkender Elemente im Spieledesign.
Ziel der Arbeit ist es, ein smartes IoT-Gerät mit Cloud-Anbindung auf Sicherheit und Datenschutz zu untersuchen. Als Untersuchungsobjekt wurde eine \smarte" Alarmananlage für den privaten Haushalt ausgewählt. Im Unterschied zu anderen \smarten" IoT-Geräten im täglichen Leben geht hier das Sicherheitsrisiko über den Ausfall ohne Konsequenzen bzw. den Verlust von Daten hinaus. Entsprechend hoch sind die Erwartungen an die Sicherheit. Ein solches Gerät soll schützen und nicht eine zusätzliche Gefährdung bzw. Schwachstelle darstellen. Als Produkt wurde die Einbruchmeldeanlage (EMA) der Firma Egardia gewählt. Hierbei handelt es sich um ein System im mittleren Preissegment für Alarmanlagen zum Selbsteinbau. Die Norm für die Zertifizierung von EMAs ist die DIN EN 50131.
Es gibt vier Sicherheitsgrade, nach denen EMAs und ihre Komponenten eingeteilt werden können. Besonders hochwertige Produkte besitzen den Grad 2. Das System von Egardia hat wie die meisten EMAs keine Zertifizierung, ist in dieser Hinsicht ebenfalls ein durchschnittliches EMA. Grund hierfür ist, dass auf den Webseiten von Onlinehändlern Produkte hauptsächlich mit Funktionen und Preis beworben werden. Zerttifizierungen, die niemand kennt oder einfordert, spielen für Kunden keine Rolle. Neben der konkreten Untersuchung dieses Geräts auf seine Sicherheit soll als Ergebnis der Arbeit geprüft werden, ob für mögliche, gefundene Schwachstellen Lösungen existieren.
Gleichzeitig soll gezeigt werden, wie die Entwicklung eines sicheren Produkts umgesetzt werden kann und welche Rahmenbedingungen in Gesellschaft, Wirtschaft und Politik eventuell die Sicherheit und Nachhaltigkeit von IoT-Geräten gefährden.
Vicia faba leaves and calli were transformed using CRISPR Cas RNP. Two kinds of CPP fused SpyCas9 were used with sgRNA7, sgRNA5 or sgRNA13 targeting PDS exon 1, PDS exon 2 or MgCh exon 3 respectively. RNP were applied using high pressure spraying, biolistic delivery, incubation in RNP solution and infiltration of leaf tissue. A PCR and restriction enzyme based approach was used for detection of mutation. Screening of 679 E. coli colonies containing the cloned fragments resulted in detection of 14 mutations. Most of the 14 mutations were deletions of sizes 150, 500 or 730 bp. 5 out of the 14 mutations were point mutations located two to three bp upstream of PAM.
Möglichkeiten und Grenzen der blender-internen Physik Engine zur Simulation von Schussverläufen
(2020)
The following work deals with the problem of digital crime scene reconstruction based on the simulation of the trajectory of a projectile. To be able to make a realistic realization of this trajectory, the physical laws as well as the external influences are explained. This knowledge is used in conjunction with the expertise of software technology to test appropriate parameter combinations for their efficiency. Therefore the focus is on the step-by-step parameterization of the trajectory using the open-source software Blender. The resulting possibilities and limitations of such a reconstruction are considered in a differentiated way
In dieser Arbeit soll festgestellt werden, wie die künstliche Intelligenz als Schadsoftware funktioniert. Unter anderem werden das Cyber-Angriff-Modell und das IT-Sicherheitsprozess vom Bundesamt für Informationstechnik und Sicherheit vorgestellt. Anschließend werden die mit der automatisierten Malware einhergehenden Sicherheitsrisiken und die Auswirkung der künstlichen Intelligenz als Schadsoftware auf das Cyber-Angriff-Modell und das IT-Sicherheitsprozess überprüft.
Das Chemokin CCL2 spielt bei entzündlichen Prozessen, wie dem ischämischen Schlaganfall, eine wichtige Rolle. Die biologische Aktivität von CCL2 kann durch eine N-terminale Modifikation, katalysiert durch die Enzyme Dipeptidyl-Peptidase 4 und (iso)Glutaminyl-Cyclase, beeinflusst werden. In dieser Arbeit soll der Einfluss von CCL2 und CCL2-modifizierenden Enzymen auf das Überleben primärer Neurone unter ischämischen Bedingungen untersucht werden. Dazu werden verschiedene knock-out Mauslinien des Stamm C56Bl/6 verwendet. Für die quantitative Analyse der Lebensfähigkeit wurden MTT- und LDH-Assays genutzt. Somit konnte gezeigt werden, das CCL2, DP4 und (iso)QC das Überleben primärer Neurone unter ischämischen Bedingungen beeinflussen. Durch immunzytochemische Färbungen wurde die Expression von CCL2, sowie eine Veränderung der Neuritenanzahl und -länge vor und nach Ischämie nachgewiesen.
Gold cyanidation is a process by which gold is removed from low-grade ore. Due to its efficiency it has found widespread application around the world, including Peru. The process requires free cyanide in high concentration. After the gold extraction is completed, free cyanide as well as metal cyanide complexes remain in the effluent of gold mines and refineries. Often these effluents are kept in storage ponds where they pose considerable risk to health and environ-ment. Thus, it is preferable to degrade cyanide to minimize the risk of exposure. In the context of this thesis cyanide degradation was explored in a UV-light based prototype. Degradation with a combination of hydrogen peroxide and UV-light has proven to be very effective at degrading cyanide concentrations of 100 mg/L and 1000 mg/L. Furthermore, the presence of ammonia as a degradation product could also be confirmed. Membrane distillation may provide an alternative to cyanide destruction in the form of cyanide recovery. Promising results were gathered from several membrane experiment.
Aufgrund der Vielzahl an angebotenen Dienste die auf unterschiedliche Systemen betrieben und miteinander verbunden sind, sowie sensible Informationen enthalten, ist die IT-Sicherheit enorm wichtig geworden. Heterogene IT-Infrastrukturen und interagierende Softwaresysteme verkomplizieren die Administration solcher Umgebungen. In diesem Zusammenhang wird „Automatisierung“ häufig als ein Lösungsansatz propagiert. In dieser Arbeit wird ein Automatisierungs-Referenzrahmen in Verbindung mit einer Konfigurationsverwaltungslösung eingeführt um eine abstrakte Sichtweise auf das Thema zu geben. Der BISS Automatisierungs-Referenzrahmen teilt einzelne Bestandteile, wie Entwicklung, Erweiterungsdienste,
Konfigurationsverwaltungslösung und IT-Infrastruktur in verschiedene Domänen ein. Die Kommunikation zwischen den Domänen ist reguliert und begrenzt um die Sicherheit der Umgebung zu gewährleisten. Eine praktische Anwendung des entworfenen Referenzrahmens und seinen Domänen wird mit Ansible als Konfigurationsverwaltungslösung in einer Software-Defined Netzwerkinfrastruktur von Cisco aufgezeigt. Mit der Einbindung von Sicherheitskomponenten, wie Check Point Firewalls und F5 Big-Ips, werden exemplarische Fallbeispiele einer Automatisierung heterogener Umgebungen demonstriert.
Im Jahr 2019 verzeichnete das Bundeskriminalamt in der Polizeilichen Kriminalstatistik einen neuen Höchststand an erfassten Fällen der Computerkriminalität. Zeitgleich lag die Aufklärungsquote für diesen Bereich der Kriminalität auf dem zweitniedrigsten Stand seit Beginn der Erfassung im Jahr 1987. Die digitale Forensik steht vor der Herausforderung, dass eine Ermittlung eine stetig wachsende Menge an heterogenen Daten umfasst. Eine Quelle für diese Daten bildet das Microsoft Betriebssystem Windows 10.
Diese Bachelorarbeit beschäftigt sich mit Artefakten eines Windows 10 Systems und damit, wie diese miteinander korreliert werden können. Ziel ist es eine Möglichkeit zu finden, den Forensiker bei einer forensischen Untersuchung zu unterstützen. Für diesen Zweck wurde eine Ontologie entwickelt, welche anhand ähnlicher Artefaktattribute eine Korrelation ermöglicht. Die praktische Umsetzung der Ontologie erfolgte mithilfe der Graphdatenbank Neo4j. Die Möglichkeiten der Datenbank wurde anhand von, für den Forensiker interessanten, Abfragen demonstriert.
Diese Arbeit zielt darauf ab, ein modernes Konzept für eine offene, webbasierte Notizsoftware vorzustellen, die auf einem gemieteten oder Heimserver installiert werden kann. Dabei steht im Vordergrund, dass die eigenen Daten bei einem selbst bleiben. Ein solches Konzept hat, anhand des Vergleiches mit existierenden Lösungen und aus gewonnenen Erkenntnissen bei der Entwicklung des Prototyps, eine gute Zukunft, da es sich auch genug sinnvoll von existierenden Lösungen abhebt, so dass eine weiterführende Entwicklung lohnenswert scheint.
Geeignet ist diese Arbeit für Personen, die sich für die Entstehung eines Softwareprototyps im Rahmen einer Bachelorarbeit interessieren und für die, die das Konzept interessant finden.
Das Konzept wurde klar definiert und kompakt mit existierenden Lösungen verglichen, daraufhin wurden die gewählten Technologien aufgeschlüsselt und anschließend der Prototyp und die Erkenntnisse vorgestellt.
Das Ziel der vorliegenden Bachelorarbeit besteht darin, die technischen und rechtlichen Aspekte von Cloudsicherungen für Strafverfolgungsbehörden zu beleuchten,um die aktuellen Gegebenheiten und somit eventuelle Defizite auf zu zeigen. Daher werden zu Beginn grundlegende Fakten benannt. Im Anschluss erfolgen praktische Untersuchungen bezüglich forensischer Sicherungsmethoden an PC und Mobiltelefon. Das Hauptaugenmerk liegt auf dem Zusammenschluss von Recht und Technik. Das Ergebnis bildet die Erarbeitung einer Handlungsempfehlung, bestehend aus Checkliste und Fragenkatalog.
Tokenization projects are currently very present when it comes to new blockchain technologies. After explaining the fundamentals of cross-chain interaction, the bachelor thesis will focus on tokenizing technology for Bitcoin on Ethereum. To get a more practical context, implementing the currently most successful decentralized tokenization project is described.
Verschiedene Videospiele bieten einen unterschiedlichen Grad an Herausforderung und Schwierigkeit. Die meisten von ihnen verfügen trotz unterschiedlicher Schwierigkeitsgrade über keine Möglichkeit dem Spieler eine passende Herausforderung zu schaffen. In dieser Arbeit soll sich damit beschäftigt werden, basierend auf den spielerischen Fähigkeiten der Person, eine passende Herausforderung im Spiel zu schaffen. Dazu wird die folgende Forschungsfrage gestellt: Ist es möglich durch eine adaptive Anpassung von Parametern in Videospielen für Spieler jedes Leistungsniveaus eine ähnlich anspruchsvolle Herausforderung zu erzeugen?' Diese wird durch die Entwicklung und Umsetzung von Fähigkeitentests realisiert, dessen Ergebnisse einen Bossfight beeinflussen. Um die Forschungsfrage zu beantworten, wird die entwickelte Testreihe mit einigen Probanden absolviert und deren Feedback vernommen. Dieses Feedback führt zu dem Schluss, dass die Tests geeignet sind für die Leistungsermittlung, aber der Bossfight und die Umgebung nicht für ein spielerisches Umfeld sorgen, was die Forschungsfrage unvollständig beantwortet lässt. Weitere Arbeiten könnten sich mit der Umsetzung einer besseren Testumgebung und einem besseren Anwendungsfall beschäftigen.
Erstellen eines Leitfadens zur Sicherstellung der gestalterischen Kontinuität von Concept Art
(2020)
Das Ziel dieser Arbeit ist es einen Leitfaden zur Sicherstellung der gestalterischen Kontinuität von Concept Art zu erstellen. Um das zu erreichen wurden zuerst die essenziellen Begriffe Concept Art und Kontinuität definiert. Aus diesen Definitionen wurden anschließend Methoden abgeleitet die eine Sicherstellung der Kontinuität gewährleisten können. Schlussendlich wurde eine Expertenumfrage durchgeführt und analysiert. Die Analyseergebnisse wurden mit den theoretischen Erkenntnissen in einem Leitfaden zusammengefasst
Diese Arbeit befasst sich mit der Entwicklung eines epochenübergreifenden Aufgaben- und Objektmanagementsystems zur prozeduralen Generierung von Narrativen. Dabei wurde ein Questsystem als Managementinstanz für Aufgaben und Objekte entwickelt sowie ein auf L-Systemen und der Graphentheorie basierender Algorithmus zur prozeduralen Generierung Narrativen entwickelt.
In der vorliegenden Bachelorarbeit wird die Wahrnehmung von übermäßiger Polizeigewalt mit der tatsächlichen Vorgehensweise der Polizeibeamten abgestimmt und mit der gesetzlichen Vorgabe zur Herangehensweise verglichen. Gemäß der in dieser Arbeit vermittelten Grundlagen zu Hellfeld und Dunkelfeld sowie der Anzeigebereitschaft wird ein grundlegendes Verständnis für die beschriebene Problematik fundiert. Die aufgeführten Beispiele dienen der Untersuchung des Problems und zur differenzierten Auseinandersetzung mit der Thematik, zum einen der Analyse des jeweiligen Falles und deren beschriebene Situation zur Lage und zum anderen der angeschnittene Umriss zur juristischen Sachlage dieser.
Diese Arbeit befasst sich mit der forensischen Untersuchung von Systemen mit dem Trusted Plattform Module (TPM) von Apple, dem T2 Chip. Mittelpunkt ist die
physische Datensicherung über das Forensik Analysewerkzeug MacQuisition von BlackBag Technologies. Die Sicherheitsrichtlinien von den Apple Geräten mit verbautem TPM verhindern solche Sicherungen und schützen die Daten auf dem System. MacQuisition ist die erste Lösung für die Forensik, um dennoch ein physisches und gleichzeitig entschlüsseltes Abbild zu erzeugen. Dafür schafft es MacQuisition auf den Direct Memory Access (DMA) fähigen Enhanced Serial Peripheral Interface (eSPI) Bus zu gelangen und die Sicherheitsvorkehrungen zu umgehen.
Konzept, Entwurf und prototypische Implementierung einer Web-Oberfläche für einen Roboadvisor
(2020)
Die vorliegende Arbeit thematisiert die prototypische Entwicklung einer Web-Oberfläche zur Datenpflege für das Unternehmen Franke-Media.net. Im Zuge der Entwicklung wurde ein/e Datenformular/Eingabemaske nach Anforderungen der zuständigen Fachredaktion und eine Navigationsoberfläche nach den Anforderungen des Unternehmens geschaffen. Anschließend wurde die Web-Oberfläche nach zwei Methoden des Usability-Testings getestet und evaluiert. Im Verlauf der Arbeit wird auf Grundwissen über Finanzdienstleistungen, Vergleichsportale und Web-Anwendungen eingegangen. Es werden zudem verschiedene Techniken zum Erreichen des Ziels betrachtet. Anschließend folgen die Konzipierung und das Erstellen einer ersten prototypischen Oberfläche. Den Abschluss der Arbeit bilden die Usability-Tests sowie die Auswertung der Ergebnisse dieser.
Aufgrund der unvorhergesehenen Corona-Krise, dadurch entstandener Komplikationen und den daraus resultierenden zeitlichen Problemen konnten nicht alle Funktionen implementiert werden.
Die Erkenntnisse und Ergebnisse der Bachelorarbeit dienen als Ausblick für darauf auf-bauende Arbeiten.
Die Arbeit beschäftigt sich mit der Weiterentwicklung eines LIMS für die AUD-GmbH in Chemnitz. Als Orientierung dient eine vorangegangene Bachelorarbeit („Entwicklung eines Plans für ein LIMS auf Grundlage des Baukastensystems Nuclos“ von Florian Quellmalz), welche sich mit einem ähnlichen Thema beschäftigt hat. Mithilfe des Open Source Programms „Nuclos“ soll die Grundlage für ein funktionierendes LIMS geschaffen werden. Hierfür werden Informationen über Datenbankerstellung, die internen Laborprozesse und relevante Arbeitsschritte gesammelt, verarbeitet und anhand dessen in das LIMS einbezogen.
Footage of organoids taken by means of fluorescence microscopy and segmented as well as triangulated by image analysis software like LimeSeg and Mastodon often needs to be visualized in aesthetic manner for presentation of the results in scientific papers, talks and demonstrations. The goal of this work was to create a simple to use addon “Biobox” for the open source 3D – visualization package “Blender” which would allow to import triangulated 3D data with animation over time (4D), produced by image analysis software, and optimize it for efficient usage. ”Biobox” offers several visualization tools for the creation of rendered images and animation videos by biologists.
The optimization of imported data was performed by using Blender intern modifiers. The optimized data can then be visualized by using several tools built for visualizing the organoid in frozen, animated and semi-transparent manners. A dynamic link for object selection and dynamic data exchange between Blender and Mastodon was developed. Additionally, a user interface was developed for manual correction errors of segmentation and steering the object detection algorithms of LimeSeg. The benchmark of the developed addon “Biobox” was performed on real scientific data. The benchmark test demonstrated that developed optimization result in significant (~5 fold) decrease of RAM usage and acceleration of visualization more than 160 times.
Ziel dieser Arbeit ist die Entwicklung eines Konzepts und einer Erstimplementation zur Benutzerdatenerfassung, um verschiedene Digitalisierungsprozesse messen zu können. Die durch die Benutzerdatenerfassung gesammelten objektiven Interaktionsdaten sollen weitere Daten, wie z. B. eine Benutzerakzeptanzstudie bei einer vergleichenden Evaluation von Prozessen zur Dokumentenerfassung hinsichtlich der Benutzbarkeit ergänzen und unterstützen.
Financial fraud for banks can be a reason for huge monetary losses. Studies have shown that, if not mitigated, financial fraud can lead to bankruptcy for big financial institutions and even insolvency for individuals. Credit card fraud is a type of financial fraud that is ever growing. In the future, these numbers are expected to increase exponentially and that’s why a lot of researchers are focusing on machine learning techniques for detecting frauds. This task, however, is not a simple task. There are mainly two reasons
• varying behaviour in committing fraud
• high level of imbalance in the dataset (the majority of normal or genuine cases largely outnumbers the number of fraudulent cases)
A predictive model usually tends to be biased towards the majority of samples, in an unbalanced dataset, when this dataset is provided as an input to a predictive model.
In this Thesis this problem is tackled by implementing a data-level approach where different resampling methods such as undersampling, oversampling, and hybrid strategies along with bagging and boosting algorithmic approaches have been applied to a highly skewed dataset with 492 idetified frauds out of 284,807 transactions.
Predictive modelling algorithms like Logistic Regression, Random Forest, and XGBoost have been implemented along with different resampling techniques to predict fraudulent transactions.
The performance of the predictive models was evaluated based on Receiver Operating CharacteristicArea under the curve (AUC-ROC), Precision Recall Area under the Curve (AUC-PR), Precision, Recall, F1 score metrics.
Anlegen und Charakterisieren von Anreicherungskulturen aus Oberflächengewässern im Norden Finnlands
(2020)
Es wurden Wasserproben aus Finnland biochemisch charakterisiert. So wurden EcoPlates von BIOLOG benutzt, um die Wasserproben von heterotrophen mikrobiellen Gemeinschaften zu charakterisieren und klassifizieren. Zudem wurden Anreicherungskulturen erstellt und auf ihre Verwertung von Stickstoffquellen durch Phänotyp Mikroarray und auf ihre Zellwandzusammensetzung mit Gram-Färbung untersucht. Die daraus resultierenden Ergebnisse werden für die Bestimmung und Charakterisierung von den Anreicherungskulturen verwendet.
In this thesis two novel methods for removing undesired background illumination are de-veloped. These include a wavelet analysis based approach and an enhancement of a deep learning method. These methods have been compared with conventional methods, using real confocal microscopy images and synthetic generated microscopy images. These synthetic images were created utilizing a generator introduced in this thesis.
Das Alter eines Blutflecks an einem Tatort kann bei der Verfolgung einer Straftat Informationen über den Tatzeitpunkt liefern und für eine Rekonstruktion des Tatgeschehens dienen. Jedoch existiert in der heutigen Zeit keine anwendbare Methode, um eine exakte Aussage über das Blutalter zu tätigen, wenn man die herrschenden Umweltbedingungen mit einberechnen will.
In dieser Arbeit wird die Blutalterung ex vivo mit Hilfe der UV-VIS- Spektroskopie unter dem Einfluss der Luftfeuchte und Sonneneinstrahlung analysiert. Dazu wurden bekannte Features, welche alterskorrelierende Veränderungen zeigen, zur Untersuchung herangezogen.
Zur Umweltsteuerung konnte mit Hilfe eines Raspberry Pi’s 4 Model B und einem USBLuftbefeuchter eine Methode entwickelt werden, um einen angegebenen Luftfeuchtewert über einen gewünschten Zeitraum zu halten und aufzuzeichnen.
Es zeigten sich deutliche Unterschiede bei der Umsetzung von Oxyhämoglobin zu Met-Hämoglobin bei unterschiedlichen Luftfeuchtewerten. Die Sonneneinstrahlung hingegen
zeigt keinen signifikanten Einfluss auf die alterskorrelierenden Features.
Keiner schaut mehr Fernsehen. Die Benutzung von Videostreaming ist beim Großteil der digital vertrauten Bevölkerung in Fleisch und Blut übergegangen und erstreckt sich über den gesamten Globus. Die Giganten der Streaming-Anbieter sind YouTube, Amazon und Netflix und sie sind dem Modell des Fernsehens meilenweit voraus. Mit komplex verstrickten Algorithmen sollen uns, den Nutzern, die Inhalte geboten werden, die uns dazu bringen, noch mehr zu konsumieren. Wie weit und auf welche Weise muss ein System entwickelt sein, um jedem Nutzer Inhalte anzubieten, die unheimlich oder faszinierende Weise auf uns zugeschnitten sind?
Das Ziel dieser Forschung ist es, das System der Vorschläge von Netflix auf die Qualität, Passgenauigkeit und Effizienz im Hinblick auf Präferenzen und Bedürfnisse zu bestimmen, die die Nutzer in Verbindung mit Netflix aufweisen.
Um die Forschungsfrage zu beantworten, wurden innerhalb einer mehrteiligen, iterativen Meinungsumfrage Bewertungen von Vorschlägen von Freunden, Bekannten und Familie mit den Vorschlägen von Netflix in den Zusammenhang mit dem eigenen Filmgeschmack, Präferenzen, Nutzung des Accounts und Verhalten beim Streaming gebracht. Dabei wurde bestätigt, dass die Vorschläge von Netflix stärker zum Filmgeschmack passen, hierbei jedoch Differenzierungen bei der Popularität und Unterhaltsamkeit des Vorschlags zu beobachten sind. Des Weiteren zeigte die empirische Untersuchung auf, dass verhaltenspsychologische und sozialwissenschaftliche Aspekte Einflüsse auf die Effizienz einer künstlichen Intelligenz haben und noch nicht voll ständig in die Optimierung in das System der Netflix Vorschläge eingeflossen sind.
Robust soft learning vector quantization (RSLVQ) is a probabilistic approach of Learning vector quantization (LVQ) algorithm. Basically, the RSLVQ approach describes its functionality with respect to Gaussian mixture model and its cost function is defined in terms of likelihood ratio. Our thesis work involves an approach of modifying standard RSLVQ with non-Gaussian density functions like logistic, lognormal, and Cauchy (referred as PLVQ). In this approach, we derive new update rules for prototypes using gradient of cost function with respect to non-Gaussian density functions. We also derive new learning rules for the model parameters like s and s, by differentiating the cost function with respect to parameters. The main goal of the thesis is to compare the performance results of PLVQ model with Gaussian-RSLVQ model. Therefore, the performance of these classification models have been tested on the Iris and Seeds dataset. To visualize the results of the classification models in an adequate way, the Principal component analysis (PCA) technique has been used.
Käufer haben häufig das Problem die Sicherheit von Produkte einzuschätzen. In der Bachelorarbeit möchte ich darauf eingehen, welche Zertifizierungsmöglichkeiten existieren und in welche Branchen sie sich einordnen. Daraufhin wird eine Klassifizierung und Einordnung der Zertifikate zur IT-Sicherheit durchgeführt. Im Schwerpunkt liegen hierbei die Produktzertifizierungen. Die Transparenz wird für den Verbraucher übergreifend betrachtet. Die Ergebnisse zeigen auf, ob sich Zertifikate gut oder weniger gut für die unterschiedlichen Branchen eigenen und ob gegebenenfalls Risiken damit verbunden sind.
The number of Internet of Things (IoT) devices is increasing rapidly. The Trustless Incentivized Remote Node Network, in short IN3 (Incubed), enables trustworthy and fast access to a blockchain for a large number of low-performance IoT devices. Although currently IN3 only supports the verification of Ethereum data, it is not limited to one blockchain due to modularity. This thesis describes the fundamentals, the concept and the implementation of the Bitcoin verification in IN3.
In der vorliegenden Arbeit wird eine Methodik entwickelt, mit der ausgewählte forensische Software-Tools miteinander verglichen werden können. Dieser Ver-gleich basiert auf einem erstellten Image, welches diverse Artefakte beinhaltet. Auf Grundlage dieser Artefakte wird eine Bewertungsmatrix erzeugt, welche für den Vergleich der ausgewählten Forensik-Tools X-Ways, Axiom und Autopsy genutzt wird. Anhand der Ergebnisse, die durch die Matrix generiert wurden, lässt sich Axiom als bestes der drei getesteten Tools herausstellen. Hierbei muss allerdings berücksichtigt werden, dass die Beurteilung nach subjektiven Kriterien geschehen ist und keine eindeutige Aussage getroffen werden kann, ob ein forensisches Tool eine erfolgreiche Auswertung liefert
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
In der vorliegenden Arbeit wird ein bereits bestehendes Annotationstool für die Übersetzung von Standardsprache in Leichte Sprache hinsichtlich seiner Usability analysiert. Anschließend werden, unter Verwendung von UI Design Patterns, Komponenten entwickelt, welche die Usability des Systems verbessern sollen. In einer Evaluation werden die Annahmen bezüglich der Usability-Verbesserungen geprüft.
Im Rahmen dieser Arbeit wird die metrische Analyse des menschlichen Kiefers erforscht. Dies beinhaltet das Themengebiet der Bissspurenanalyse, um den Beweiswert der Kiefervermessung vor Gericht feststellen zu können. Es sollen anschließend folgende Fragen beantwortet werden können: „Wie funktioniert die Vermessung?“, „Ist diese objektiv und reproduzierbar?“ und „Was wird für die gerichtliche Verwertbarkeit benötigt?“. Letzteres bezieht sich insbesondere auf die Art und Anzahl identifizierender Merkmale. Über dem Thema steht die These, dass das menschliche Gebiss einzigartig ist.
Eine Vielzahl der heutigen Cyber Angriffe auf Unternehmen haben das Ziel sich in deren Netzwerk auszubreiten, um so an kritische Informationen zu gelangen oder das Unternehmen anderweitig zu schädigen. Eine Betrachtung dieses als Lateral Movement bezeichnete Vorgehen ist Thema der vorliegenden Bachelorarbeit. Hauptaugenmerk wird auf die forensische Analyse wahrscheinlich auftretender Methoden und den dabei anfallenden Spuren gelegt. Bei den Spuren wurde sich größtenteils auf Ereignisse in Protokolldateien, sowie auf Registry- und Programmausührungs-Artefakte bezogen. Als Ergebnis wurde eine tabellarische Übersicht der zu priorisierenden Spuren erstellt, die Ermittlern zu einer effektiveren forensischen Analyse solcher IT Vorfälle verhelfen soll.
Die Einführung eines IT-Notfallmanagement kann auf freiwilligen Basis oder durch rechtliche Verpflichtungen erfolgen. Hierbei ist die Verwendung von etablierten Standards und Normen gerade für kleine und mittelständische Unternehmen (KMU) empfehlenswert, aber herausfordernd. In der vorliegenden Bachelorarbeit werden einschlägige gesetzliche Verpflichtungen für KMU betrachtet. Es wird sodann auf bekannte Normen und Standards des IT-Notfallmanagements eingegangen. Mit einer selbstentwickelten Methode werden diese auf ihre KMU-Tauglichkeit geprüft. Das Ziel besteht darin, den verpflichteten KMU den für sie geeignetsten der betrachten Standards und Normen aufzuzeigen.
Diese Arbeit thematisiert die Evaluation von Unterschieden bei interaktivem linearem und nichtlinearem Storytelling. Es stellte sich die Frage, welche der beiden Erzählweisen in einem Videospiel bei Nutzern beliebter ist und wie dieses praktisch überprüft werden kann. Dazu wurde ein Videospiel entwickelt, das dieselbe Geschichte sowohl in einer linearen als auch in einer nichtlinearen Erzählweise erzählt. So sollen Unterschiede der beiden Varianten deutlich gemacht werden. Durch einen Probandentest wurde dann mithilfe des Videospiels und eines Fragebogens die Untersuchung durchgeführt. Diese ergab, dass nichtlineares Storytelling als Erzählweise bevorzugt wird, da es dem Spieler mehr Entscheidungsmöglichkeiten bietet und somit interaktive Spielerlebnisse fördert. Ebenfalls konnten Probleme aufgezeigt und bestätigt werden, die dadurch auftreten, dass interaktives und nichtlineares Storytelling nicht wirklich vom linearen Pfad abweicht. Das steht konträr zu einer Interaktivität, die Videospiele eigentlich bieten sollten.
Die Kryokonservierung gibt die Möglichkeit, Pflanzen als genetische Ressourcen über einen langen Zeitraum zu lagern. Dabei stellt sie eine sichere und kostengünstige Methode dar, die zudem frei von äußeren Umweltfaktoren ist. Die optimierte PVS2 Methode Dresden hat sich bei Fragaria bereits bewährt und wird fortan für diese Obstart im Julius Kühn-Institut Dresden verwendet. Bei Erstversuchen mit Wildbirnen 2019 zeigte sich für die Kryokonservierung noch deutliches Optimierungspotenzial. Die Regenerationsraten konnten in der vorliegenden Arbeit durch eine veränderte Präparationsweise signifikant gesteigert werden. Dabei lag der Fokus auf die unterschiedliche Anzahl der Hüllblätter des Primordien Gewebes. Zusätzlich wurde die Methode des slow coolings mit dormanten Knospen als Alternativmethode zur Anwendung von PVS2 getestet.
Kläranlagen sollten nach Möglichkeit dem neusten Stand der Technik entsprechen, um die Betriebskosten so gering wie möglich zu halten. Bei älteren Kläranlagen besteht neben der Erneuerung die Möglichkeit, den Prozess der Abwasserbehandlung durch bestimmte Verfahren der Vor- bzw. Nachbehandlung zu ergänzen. Dies kann zu einer besseren Wirtschaftlichkeit und Nachhaltigkeit führen. In dieser Arbeit wurde die Optimierung der werksinternen Kläranlage der Molkerei Hainichen-Freiberg GmbH & Co. KG mithilfe einer vorgeschalteten Druckentspannungsflotationsanlage untersucht. Durch die Flotation werden suspendierte Stoffe im Abwasser abgeschieden. Die Reduktionsraten hinsichtlich des chemischen Sauerstoffbedarfs, des Gesamtstickstoffs und des Gesamtphosphats wurden bei verschiedenen Flock- und Fällmitteldosierungen ermittelt. Anschließend wurden die einzelnen Varianten hinsichtlich der Optimierung der werksinternen Kläranlage und der Wirtschaftlichkeit auf die spezifische Abwassermenge der Molkerei Hainichen-Freiberg GmbH & Co. KG beurteilt.
Eine Optimierung führt einerseits zu einer besseren Wirtschaftlichkeit der Anlage, andererseits kann der Prozess der Abwasserbehandlung nachhaltiger gestaltet werden, beispielsweise durch ein anaerobes Verfahren bei dem Biogas erzeugt wird.
Heutzutage werden digitale Geräte weitestgehend in allen Lebensbereichen genutzt. Die Bedeutung dieser Geräte nimmt ebenfalls für Straftäter und Kriminelle zu. Aus diesem Grund existieren gesetzliche Maßnahmen zur Durchführung von Online-Durchsuchungen. In dieser Arbeit wird sowohl auf den § 49 BKAG als auch auf den § 100b StPO eingegangen. Speziell der § 100b StPO soll bezüglich des Opferschutzes beleuchtet werden. Die Opferschutzrichtlinie der EU sowie die Grundrechtseingriffe der Maßnahme werden in diesem Zusammenhang untersucht. Weiterhin erfolgt in dieser Arbeit eine Prüfung des § 100b StPO mit den dazugehörigen Grundrechtseingriffen im Sinne des Verhältnismäßigkeitsgrundsatzes.
In der vorliegenden Bachelorarbeit wird auf den Nutzen sowie aktuelle Möglichkeiten bei der IT-forensischen Analyse des Arbeitsspeichers aktueller Computersysteme mit DDR4- Speichermodulen eingegangen. Es wird sich dabei sowohl auf generelle, als auch im Zuge der DDR4-Technik eingeführte, Funktionalitäten des physischen Arbeitsspeichers bezogen. Die Auswertbarkeit des Arbeitsspeichers wird aus IT-forensischer Sicht betrachtet und damit auftretende Problematiken für die IT-Forensik evaluiert. In der vorliegenden Arbeit wird vorrangig auf Methodiken der Analyse verschiedener Windows Hibernation Files, sowie den Cold Boot Ansatz eingegangen. Bei letzterem liegt der Schwerpunkt auf der Analyse verschleierter (gescrambelter) Arbeitsspeicherinhalte, sowie einem möglichen Ansatz effektiv Scrambler-Schlüssel aus diesen zu ermitteln.
IT-Forensische Analyse moderner Android Betriebssysteme : Sicherheitsbericht zu Android Trojanern
(2020)
In der vorliegenden Bachelorarbeit soll ein Überblick über die Anfälligkeit moderner Android Betriebssysteme auf Trojaner gegeben werden. Dieser Trojaner, welcher während der Bachelorarbeit erstellt wurde, soll eine Backdoor enthalten, wodurch dieser eine HTTPS-Verbindung zum Ziel-System aufbaut. Über diese Verbindung soll an-schließend eine Meterpreter Session auf dem Ziel-System etabliert werden, um Zu-gang zu dem infizierten System zu erlangen.
Diese Arbeit untersucht die Bedeutung der neuen de novo Mutation JAK2 c.2765G>C, p. R922P, die bei einem Kind mit den klinischen Anzeichen eines myelodysplastischen Syndroms identifiziert wurde. Dazu sollte die Mutante zunächst kloniert und anschließend in murine Pro-B-Zellen transfiziert werden, die nur in Anwesenheit des Zytokins IL-3 lebensfähig sind. Durch Entzug des Zytokins sollte das onkogene Potential der Mutante untersucht werden, da bei konstitutiv aktiver Januskinase2 (JAK2) eine Interleukin-unabhängige Proliferation der Zellen weiterhin stattfindet.
Mathematics Behind the Zcash
(2020)
Among all the new developed cryptocurrencies from Bitcoin, Zcash comes out to be the strongest cryptocurrency providing both transparency and anonymity to the transactions and its users by deploying the strong mathematics of zk-SNARKs.
We discussed the zero knowledge proofs which is a basic building block for providing the functionality to zk-SNARKs. It offers schnorr and sigma protocols with interactive and noninteractive versions. Non-interactive proofs are further used in Zcash transactions where the validation of sent transaction is proved by cryptographic proof.
Further, we deploy zk-SNARKs proofs following common reference string as public parameter when transaction is made. The proof allows sender to prove that she knows a secret for an instance such that the proof is succinct, can be verified very efficiently and does not leak the
secret. Non-malleability, small proofs and very effective verification make zk-SNARKs a classic tool in Zcash. Since we deal with NP problems therefore we have considered the elliptic curve cryptography to provide the same security like RSA but with smaller parameter size.
Lastly, we explain Zcash transaction process after minting the coin, the corresponding transaction completely hides the sender, receiver and amount of transaction using zero knowledge proof.
As future considerations, we talk about the improvements that can be done in term of decentralization, efficiency by comparing with top ranked cryptocurrencies namely Ethereum and Monero, privacy preserving against the thread of quantum computers and enhancements in shielded transactions.
Die vorliegende Arbeit befasst sich mit der Konzipierung und Realisierung einer Augmented Reality Web Applikation für die Staatlichen Kunstsammlungen Dresden.
Dabei wird der Nutzen von Augmented Reality im Museum anhand eines erarbeiteten Konzepts evaluiert und die Möglichkeiten der technischen Umsetzung eines solchen Konzepts, mittels moderner Webtechnologien geprüft.
In response to prevailing environmental conditions, Arabidopsis thaliana plants must increase their photosynthetic capacity to acclimate to potential harmful environmental high light stress. In order to measure these changes in acclimation capacity, different high throughput imaging-based methods can be used. In this master thesis we studied different Arabidopsis thaliana knockout mutants-and accessions in their capacity to acclimate to potential harmful environmental high light and cold temperature conditions using a high throughput phenotyping system with an integrated chlorophyll fluorescence measurement system. In order to determine the acclimation capacity, Arabidopsis thaliana knockout mutants of previously not high light assigned genes as well as accessions of two different haplotype groups with a reference and alternative allele from different countries of origin were grown under switching high light and temperature environmental conditions. Photosynthetic analysis showed that knockout mutant plants did differ in their Photosystem II operating efficiency during an increased light irradiance switch but did not significantly differ a week later under the same circumstances from the wildtype. High throughput phenotyping of haplotype accessions revealed significant better acclimation capacity in non-photochemical quenching and steady-state photosynthetic efficiency in Russian domiciled accessions with an altered SPPA gene during high light and cold stress.
Die Blutaltersbestimmung kann Aufschluss über die Tatzeit eines Verbrechens geben und ist damit von hohem forensischem Wert. Bisher gibt es noch keine etablierte Methode, um das Alter von ausgetretenem Blut zu bestimmen, da sie meistens sehr kostenaufwendig oder unzuverlässig sind. Das Einbeziehen der Umweltfaktoren stellt dabei eine weitere große Herausforderung dar. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Blut im Zeitraum von 21 Tagen unter dem Einfluss der Luftfeuchtigkeit untersucht. Hierbei werden besonders die alterskorrelierenden Features analysiert. Zu den alterskorrelierenden Features zählen die Oxyhämoglobin- und Methämoglobin-Peaks und die hypsochrome Verschiebung der Soret-Bande. Die Luftfeuchtigkeit wurde mit Hilfe eines Raspberry Pi’s gesteuert. Bei der Auswertung der Ergebnisse konnte festgestellt werden, dass das Oxyhämoglobin bei höherer Luftfeuchtigkeit zunächst langsamer oxidiert und dass die Verschiebung der Soret-Bande langsamer verläuft. Nach 21 Tagen ist jedoch kein Unterschied mehr zu erkennen.
Die Kreatur des Aliens aus dem gleichnamigen Science-Fiction/-Horrorfilm ist seit Jahren ein fester Bestandteil der modernen Medienkultur. Ausgehend von der Frage „Warum wirkt die Figur des furchteinflößenden Aliens so gut?“ wird in der vorliegenden Arbeit eine Analyse der körperlichen aber auch sozialen Merkmale des Film-Aliens sowie ähnlicher Kreaturen aus der Medienwelt vorgelegt, die auf die Ursachen der starken psychischen und emotionalen Wirkung dieser Figuren abzielt. Dabei zeigt sich, dass es eine spezifische Kombination von Merkmalen gibt, die sich auf eine konstruierte Alien-Figur übertragen lassen und eine starke emotionale Wirkung beim Menschen erzielen kann.
Konzeption und Umsetzung eines Komplexpraktikums zur Erstellung einer WebApp für Mobile Endgeräte
(2020)
Die vorliegende Arbeit befasst sich mit der Erstellung eines Komplexpraktikums zur Entwicklung einer WebApp für mobile Endgeräte. Ziel der Arbeit ist es, den aktuellen Stand der Technik im Bereich der Entwicklung von Webanwendungen zu analysieren und auf Grundlage der daraus gewonnenen Erkenntnisse selbst eine Webanwendung zu konzipieren und umzusetzen. Diese Anwendung dient ihrerseits als Basis für die Erstellung von 4 Seminaren für die Studenten des 2. Semesters im Studiengang Medieninformatik und Interaktives Entertainment der Hochschule Mittweida, in deren Rahmen sie diese nachprogrammieren und dadurch mit den Technologien und Konzepten vertraut gemacht werden.
Diese Arbeit liefert einen Überblick über verschiedene elektronische Zutrittskontrollsysteme und deren Funktionsweise. Des Weiteren werden Angriffstechniken erläutert, mit denen diese Systeme angegriffen und umgangen werden können. Dabei wird besonders auf RFID und biometrische Systeme eingegangen. Die Angriffstechniken sind allgemein formuliert um einen möglichst großen Überblick über mögliche Angriffstechniken und -vektoren geben zu können.
Diese Arbeit beschäftigt sich mit der Methode der automatisierten Geschlechtsbestimmung über Abbilder des daktyloskopischen Fingerabdrucks und der deren Umsetzung als Programm zur praktischen Anwendung. Die theoretischen Grundlagen hierfür liefern mehrere Studien, die bereits im Rahmen zweier wissenschaftlicher Arbeiten betrachtet und in die praktische Anwendung in Form einer Software umgesetzt wurden.
Ziel dieser Arbeit war es, die Software zur automatisierten Geschlechtsbestimmung weiter um Prozesse der Bildverarbeitung zu erweitern, um die Genauigkeit und die Effizienz zu steigern.
Sowohl diese Veränderungen, als auch die gesamte Software an sich, sollte im Anschluss evaluiert werden, um deren Funktionsleistungen in messbaren Ergebnissen aufzuzeigen. Die daraus gezogenen Erkenntnisse sollen anschließend Ausblicke zur weiteren Verwendung geben.
Des Weiteren gibt die Arbeit Aufschluss über die Zusammenhänge des genetisch zufälligen Determinismus bei der Entstehung des Fingerabdrucks mit den zu beobachteten Phänomenen des scheinbaren Geschlechtsdeterminismus.
Aus Gründen der besseren Lesbarkeit wird in dieser Bachelorarbeit die Sprachform des generischen Maskulinums angewandt. Es wird an dieser Stelle darauf hingewiesen, dass die ausschließliche Verwendung der männlichen Form geschlechtsunabhängig zu verstehen ist.
Die folgende Arbeit behandelt die Methoden digitaler Bildmanipulationen sowie die Erkennung solcher Manipulationen anhand etablierter Detektionsverfahren. Das Hauptaugenmerk liegt dabei auf der Planung und Implementierung einer Software zur automatisierten Detektion duplizierter Regionen innerhalb eines digitalen Bildes. Anschließend an diese Implementierung folgt eine detaillierte Auswertung der Detektionsergebnisse sowie eine Bewertung der Qualität der Software gegenüber bestehenden Verfahren.
Convolutional Neural network (CNN) has been one of most powerful and popular preprocessing techniques employed for image classification problems. Here, we use other signal processing techniques like Fourier transform and wavelet transform to preprocess the images in conjunction with different classifiers like MLP, LVQ, GLVQ and GMLVQ and compare its performance with CNN.
Die vorliegende Bachelorarbeit befasst sich mit dem Pilzwachstum an zerlegten Schweinegliedmaßen. Es wurden 3 Bedingungen (lose/nackt, Jeansstoff/“Bekleidung“ und Plastiktüte) sowie 2 Auslegemöglichkeiten (Erdoberfläche und 20 cm tief im Boden) gewählt. Unter welchen dieser gewählten Bedingungen das Pilzwachstum startet oder das weiterführende Wachstum begünstigt oder behindert wird, ist Aufgabenstellung dieser Bachelorarbeit. Dazu wurden 90 Versuchsobjekte in die Natur verbracht und für ungefähr 6 Monate beobachtet.
Data streams change their statistical behaviour over the time. These changes can occur gradually or abruptly with unforeseen reasons, which may effect the expected outcome. Thus it is important to detect concept drift as soon as it occurs. In this thesis we chose distance based methodology to detect presence of concept drift in the data streams. We used generalized learning vector quantization(GLVQ) and generalized matrix learning vector quantization( GMLVQ) classifiers for distance calculation between prototypes and data points. Chi-square and Kolmogorov–Smirnov tests are used to compare the distance distributions of test and train data sets to indicate the drift presence.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
In dieser Arbeit geht es um die Untersuchung eines auf wenige Kernmechaniken reduziertes Rollenspiel auf die Motivation des Spielers. Hierfür wurde anhand einer angefertigten Applikation eine quantitative Nutzerstudie mit sechs Probanden durchgeführt. Die Ergebnisse sind dabei gemischt ausgefallen und es konnte kein eindeutiger Beweis auf die Beeinflussung der Motivation durch das Testszenario festgestellt werden.
Immer häufiger greifen technikbegeisterte Personen zu Smart-Home Geräten für ihre eigenen vier Wänden. Durch diese Geräte, kann der Weg zur Tür abgenommen oder die Bestellung über eine Onlineplattform erleichtert werden. Der Nutzen dieser meist kleinen aber durchdachten komplexen Maschinen ist enorm. Um der Schnelllebigkeit entgegen zu wirken, werden immer kreativere Wege gesucht. IoT-Geräte ermöglichen das Ersetzen der lokalen Einstellung am Gerät selbst. Bspw. kann so die Heizungssteuerung auf dem Heimweg vorgenommen werden. Dadurch spielt eine klare Sicherheitsdefinition für den Umgang mit persönlichen Daten eine größer werdende Rolle. Hierbei stellt sich die Frage, wie anfällig solche Anlagen sind. Das Kernstück dieser Arbeit wird sich mit der Feststellung von möglichen Schwachstellen in Innogy Smart-Home-Geräten beschäftigen. Insbesondere werden Endgeräte untersucht, welche bereits Einzug in den Alltag gefunden haben. Ansätze der Informationssicherheit und der digitalen Forensik werden in realitätsnahen Szenarien aufgezeigt und analysiert. Es werden Richtlinien des Bundesamtes für Sicherheit in der Informationstechnik und gesetzliche Vorgaben berücksichtigt. Teile des Sicherheitskonzeptes werden transparent dargestellt.
Genetic sequence variations at the level of gene promoters influence the binding of transcription factors. In plants, this often leads to differential gene expression across natural accessions and crop cultivars. Some of these differences are propagated through molecular networks and lead to macroscopic phenotypes. However, the link between promoter sequence variation and the variation of its activity is not yet well understood. In this project, we use the power of deep learning in 728 genotypes of Arabidopsis thaliana to shed light on some aspects of that link. Convolutional neural networks were successfully implemented to predict the likelihood of a gene being expressed from its promoter sequence. These networks were also capable of highlighting known and putative new sequence motifs causal for the expression of genes. We tested our algorithms in various scenarios, including single and multiple point mutations, as well as indels on synthetic and real promoter sequences and the respective performance characteristics of the algorithm have been estimated. Finally, we showed that the decision boundary to classify genes as expressed and non-expressed depends on the sensitivity of the transcriptome profiling assay and changing it has an impact on the algorithm’s performance.
Konzeption zum Aufbau einer Werkstatt 4.0 mit prototypischen
IoT Elementen, teilweise simuliert
(2020)
Bei dieser Arbeit wurden verschiedene Vergleiche zwischen Datenübertragungsarten gezogen und welche in einer Werkstatt 4.0 implementiert werden können. Die Vergleiche finden sich meist in Tabellenform wieder, da diese die beste Möglichkeit zur Gegenüberstellung bieten. Weiterhin wurde ein Konzept für eine Benutzerverwaltung erstellt. Dabei war die Vorgabe mit dem ASP.Net Framework „Razor Pages“ und WPF zu arbeiten. Diese Arbeit ist sowohl für studierende der Informatikstudiengänge als auch für Technik affine Studenten interessant.
This bachelor thesis aims for the creation of an add on to the open source software Blender, wich is capable of making a procedural texture, that resebles human skin. Its purpose lies in aiding the process of facial reconstruction in the forensic field.
The beginning covers the importance of facial reconstruction and its general workings. It is followed by the scientific backround of the human skin. The main part of the thesis covers the creation of the material and its integration into an add on. Finally its results are evaluated against photographs of real human skin. The Thesis concludes with a summary and speculatory look into the future.
Steganographie und Steganalyse : Untersuchung moderner Methoden, Werkzeuge und Angriffsvektoren
(2020)
Diese Abschlussarbeit befasst sich mit Steganographie und Steganalyse. Es werden allgemeine Einblicke in beide Bereiche und detailliertere Beschreibungen verschiedener Methoden und Algorithmen gegeben. Den Ausarbeitungen liegen zwei Testreihen zugrunde, in denen speziell erzeugt Steganogramme mit verschiedenen Programmen und Methoden analysiert werden. Es wird die Möglichkeit der Einordnung der Bilddateien in unauffällig und auffällige Dateien thematisiert und anhand der Testobjekte überprüft und ausgewertet. Des Weiteren erfolgt ein Vergleich verschiedener Steganalyseprogramme und die Auswirkungen unterschiedlicher Faktoren, wie zum Beispiel das Ausgabeformat der Steganogramme, auf die Steganalyse. Auch der Faktor der Verschlüsselung wird im Laufe der Arbeit thematisiert.
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
Die in dieser Arbeit entwickelte Software trägt den Titel Inceptum, der bereits vorgegeben war und für Beginn oder ein Vorhaben steht. Die Software soll zukünftig als Stütze dienen, um nicht mehr viele unterschiedliche Softwarelösungen nutzen zu müssen, sondern nur noch eine zentrale, das reduziert das wiederholte Eingeben von kohärenten Daten. Jira und SAP sollen jedoch nicht ersetzt werden, Inceptum dient lediglich als Ergänzung und als Schnittstelle der unterschiedlichen Daten um daraus eine auswertbare Sammlung an Informationen zu erhalten, was zuvor in mühsamer Handarbeit in Excel-Tabellen erledigt werden musste. Somit soll viel Zeit und Arbeit eingespart werden, was immer mit hohen Kosten verbunden ist. Diese Art von individueller Verbindung hebt das Konzept der Software von den gängigen Projektmanagement-Softwarelösungen ab.
Der in dieser Arbeit entwickelte Grundstein der Software beinhaltet alle Vorkehrungen, um diese Schnittstellen später anbinden zu können. Kein Teil dieser Arbeit ist das Entwickeln der Schnittstellen an sich. Die Schnittstelle zu
der Ticketverwaltungssoftware Jira ist bereits fertig programmiert und deren Anbindung an die Software wird lediglich untersucht. Die Anbindung an SAP ist ebenfalls nicht in dieser Arbeit vorgesehen. Die Daten aus Excel sollen möglichst ersetzt werden, um später darauf nicht mehr zurückgreifen zu müssen. Die Positionierung der Software Inceptum wird in der Grafik 1.2 noch einmal visualisiert. Kein Bestandteil der Arbeit ist außerdem das Anlegen, Bearbeiten und Löschen von Mitarbeitern, sowie deren Verfügbarkeitsänderungen, die Software baut lediglich auf der Grundlage dessen auf. Auch die Tabelle zur Darstellung von Verfügbarkeiten der Mitarbeiter pro Zeiteinheit ist kein Bestandteil der Arbeit.