Refine
Document Type
- Bachelor Thesis (88)
- Master's Thesis (37)
- Diploma Thesis (6)
Year of publication
- 2021 (131) (remove)
Keywords
- Maschinelles Lernen (9)
- Softwareentwicklung (9)
- Videospiel (9)
- Computerforensik (8)
- Computersicherheit (8)
- Blut (4)
- Datensicherung (4)
- Altersbestimmung (3)
- Android <Systemplattform> (3)
- Datenschutz (3)
Institute
- Angewandte Computer‐ und Biowissenschaften (131) (remove)
In der vorliegenden Pilotstudie wurden Wangenschleimhautabstriche und Nagelproben von Patienten nach einer erfolgten hämatopoetischen Stammzelltransplantation auf einen gemischten Chimärismus untersucht. Dafür wurden STR- und SNP-Analysen mit den Referenzprobenmaterialien aus isolierter Stammzellspender- und Empfänger-DNA vor Transplantation und den nach Transplantation entnommenen Wangenschleimhautabstrichen und Nagelproben durchgeführt. Es wurden sieben Probanden untersucht, wovon sechs eine allogene Stammzelltransplantation erhalten haben und ein Proband eine autologe Stammzelltransplantation durchlaufen hatte. Bei allen Proben nach einer allogenen Stammzelltransplantation konnte im epidermalen Material anteilig das Mikrosatelliten- und SNP- Profil des Spenders in den DNA-Isolaten des Empfängers nachgewiesen werden. In den Wangenschleimhautabstrichen wurde stets eine gemischte Chimärismussituation festgestellt. Die Ergebnisse weisen einen detektierten Spenderanteil von 11 bis 39 % auf. In den Nagelproben konnte ein Anteil an Spender-DNA bis zu 44 % nachgewiesen werden. Die Analysen bestätigen die Existenz eines Spenderanteils in Nagelproben und Wangenepithel eines Stammzellempfängers nach allogener Transplantation. Weitere Studien sind notwendig, um zu untersuchen, welche Faktoren die Anzahl der vorhandenen Spenderzellen in dem epidermalen Gewebe bestimmen.
Es wurde die Auswirkung des Insektizids Dimethoat auf die Hornmilbe Oppia nitens untersucht. Dazu wurden zwei Labortests nach der ISO-Richtlinie 23266:2020-06 durchgeführt. Die Auswertung der Tests bezog sich auf die Untersuchung der Mortalität und der Reproduktion der Testorganismen bei unterschiedlichen Konzentrationen an Dimethoat. Die Ergebnisse, die in diesen Tests gewonnen wurden, wurden mit den Ergebnissen des Referenztestes an Hypoaspis aculeifer verglichen. Diese Ergebnisse wurden im Praxismodul „Zucht von Oppia nitens und Testsystem mit Hypoaspis aculeifer“, die 2021 eingereicht wurde, gewonnen.
Zu wissen, wie alt eine Blutspur an einem Tatort ist, kann enorm bei der kriminalistischen Fallarbeit helfen. Daher beschäftigt sich die Wissenschaft mit der Frage nach der Bestimmung des Blutalters. Um diese Forschung zu unterstützen, wurden Derivate des Hämoglobins (Blutfarbstoff) hergestellt und spektroskopisch untersucht. Dabei wurden hauptsächlich Derivate gewählt, die bekannterweise bei der Alterung entstehen. Die entstandenen Spektren sollen beim Erstellen einer Datenbank helfen und somit den Kenntnisstand der aktuellen Forschung festigen und erweitern. Ebenfalls wurden chromatografische Daten analysiert, um die Struktur eines potentiellen Biomarkers für die Blutaltersbestimmung herauszubekommen bzw.
die Grundlage für weitere Experimente dazu zu legen.
Priming in Videospielen
(2021)
Spektakuläre Überfälle, Luxusimmobilien, Sportwagen, Gewalttaten und Tumulte im öffentlichen Raum und darüber hinaus die dreiste Beanspruchung von Sozialleistungen: Dies ist das Bild, dass die Medien von den Clans zeichnen. Das Thema Clankriminalität bestimmt seit wenigen Jahren den politischen als auch medialen Diskurs in Deutschland und dabei ist das Phänomen kein Neues, sondern besteht seit mehreren Jahrzehnten. Von Polizeibehörden wurde das Problem gesehen und behandelt, während man in der Politik aufgrund der Angst vor Rassismus-Vorwürfen das Thema lange Zeit nicht weiter antastete. Zwischen diesen Debatten über Rassismus und Political Correctness schafft die Kriminalität Fakten. Neben Gewalt, Drohungen und Betrugsmaschen, die das gesamte Bundesgebiet betreffen, wird in den Familien eine Paralleljustiz gelebt und die deutsche Rechtsordnung nicht anerkannt. Für Außenstehende ist das Clangefüge und deren Organisationsstrukturen sowie Lebensweise nur schwer nachzuvollziehen, daher bedarf es einer genaueren Untersuchung dieses Kriminalitätsphänomens, insbesondere im Hinblick auf die Migrations- und Integrationsgeschichte, der hier in der Rede stehenden Familien. Diese Arbeit versucht die Thematik sachlich und objektiv zu behandeln und zu erklären, wie Clankriminalität überhaupt erst entstehen konnte, welche Fehler in der Integrationspolitik in der Vergangenheit gemacht wurden und welche Ansätze zur Bekämpfung der Clankriminalität ihre Anwendung finden.
Diese Arbeit bildet einen Einstig in die Grundlagen der IT-Forensik und befasst sich mit der Evaluation der beiden Programme „X-Ways Forensics“ und „Magnet AXIOM“. Dabei werden die Stärken und Schwächen der beiden Tools aufgezeigt und Empfehlungen geben, für wen und für welchen Einsatz, welches Programm geeignet ist.
In this work, a transgenic zebrafish line that expresses the fluorophore dsRed under the endogenous zebrafish cochlin promotor is supposed to be established, using the CRISPR/Cas9 system. dsRed was cloned into a pBluescript vector, followed by the cloning of the cochlin locus into this vector. This bait construct was then supposed to be micro injected into wild type AB zebrafish embryos. The micro injection of Cas9 mRNA, single guide RNA and a bait construct was practiced with the tyrosinase gene, which was disrupted using CRISPR/Cas9.
Untersuchung potenzieller Angriffsvektoren auf Container-Infrastrukturen unter Nutzung von Docker
(2021)
Die Digitalisierung ist eine der größten Herausforderungen der Wirtschaft. Eine Containervirtualisierung kann dabei vielversprechende Lösungen bieten, unterliegt jedoch ebenso Angriffen. Diese Arbeit zeigt am Beispiel von Docker auf, mit welchen Angriffsvektoren auf eine Container-Infrastruktur gewirkt und mit welchen Schutzmaßnahmen diese gehärtet werden kann. Die Untersuchungen stellen dar, wie schützenswerte Daten erbeutet, exogen Einfluss auf die in Containern verarbeiteten Daten genommen und mit
Schadsoftware auf gesamte Infrastruktur gewirkt werden kann. Dabei werden Host, Container und weitere Komponenten gleichermaßen berücksichtigt. Die Abhängigkeiten innerhalb von Containern werden zwar voneinander isoliert, jedoch teilen sich Host und Container einen gemeinsamen Kernel. Aus diesem Grund rücken Containerausbrüche und Kernelangriffe in den Fokus. Für den sicheren Einsatz von Containern können korrekte Konfigurationen bezüglich der Systemaufrufe, Capabilities, Kontrollgruppen, Namensräume
oder des Rootless Mode von entscheidender Bedeutung sein.
We investigate the folding and thermodynamic stability of a tertiary contact of baker's yeast ribosomal ribonucleic acid (rRNA), which is supposed to be essential for the maturation process of ribosomes in eukaryotes at lower temperatures1. Ribosomes are cellular machines essential for all living organisms. RNA is at the center of these machines and responsible for translation of genetic information into proteins2,3. Only recently, the rRNA tertiary contact of interest was discovered in Zurich by the research group of Vikram Govind Panse. Gerhardy et al.1 showed in vitro that within the 60s-preribosome under defined metal ion concentrations the tertiary contact become visible between a GAAA-tetraloop and a kissing loop motif. Our aim is now to understand this RNA structure, especially the formation of the rRNA tertiary contact, in terms of thermodynamics and kinetics at various experimental conditions, such as temperature and metal ion concentration of K(I), Na(I) and Mg(II). Therein, we use optical spectroscopy like UV/VIS spectroscopy and ensemble Förster or Fluorescence Resonance Energy Transfer (FRET) folding studies. Our findings will help to further characterize this newly discovered ribosomal RNA contact and to elucidate its function within the ribosomal maturation process.
Diese Diplomarbeit befasst sich mit der Evaluierung der Entwicklungsumgebung „MIT App Inventor 2“. Dazu wird eine Android-App, zur Visualisierung, Bewertung und Speicherung von Messwerten, welche von einem mobilen Sensorknoten eines Umgebungsscanner per Bluetooth Low Energy bereitgestellt werden, erstellt. Hauptziel ist die Bewertung von „MIT App Inventor 2“ im Hinblick auf die technischen Anforderungen und Installationsablauf der Entwicklungsumgebung, den Schwierigkeitsgrad des Entwicklungsprozesses der Android-App und das Änderungsmanagement bei Änderungen an der App. Außerdem wird die Funktionalität, mögliche Einschränkungen und der Ressourcenverbrauch der Entwicklungsumgebung bewertet.
The objective of this Bachelor Project is the creation of a tool that should support forensic investigators during IT forensic interventions. It uses Kismet as the base program and adds functionalities to it via the plugin interface. The installation of the plugin shall be explained, how the plugin works, and a recommendation on how to use it. To understand the underlying basics, an introduction about WLAN and Bluetooth is given. The tests that were performed with the new plugin are described as well as their results. It is therefore briefly discussed why the tool is applicable for locating Wi-Fi devices, especially access points, but not Bluetooth devices. Using all this a few ideas on how to improve the tool and what can be researched in this area are provided.
Das Ziel dieser Masterarbeit ist die Evaluierung des Realtime Multi-Person 2D Pose Estimation Frameworks OpenPose. Dazu wird die Forschungsfrage gestellt, bis zu welcher Pixelgröße ein Mensch allgemein von dem System mit einer Sicherheit von über 50% richtig detektiert und dargestellt wird. Um die Forschungsfrage zu beantworten ist eine Studie mit sieben Probanden durchgeführt wurden. Aus der Datenerhebung geht hervor, dass der gesuchte Confidence Value zwischen 110px und 150px Körpergröße in von Menschen digitalen Bildern erreicht wird.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer Testumgebung für das Fuzzing eines HTTP-Relay einer Firewall. Das Hauptziel ist aber die Entwicklung der sich in der Testumgebung befindenden Testcases, welche die Firewall durch Fuzzing prüfen. Dieser Vorgang soll als Black-box Testing Ansatz konzipiert werden und das Fuzzing der Firewall über das Netzwerk berücksichtigen. Dafür soll ein bereits existierender Fuzzer verwendet werden, welcher als Framework von den Testcases verwendet und instrumentiert wird. Zusätzlich soll während der Durchführung Logfiles verfasst und anschließend ausgewertet werden, um Aufschluss über die Ergebnisse zu erhalten.
In der vorliegenden Bachelorarbeit wird anhand von den Vorgaben und veröffentlichen Dokumentationen des BSI eine Schablone für universitäre Einrichtungen erarbeitet, die als Musterlösung für die Implementierung des IT-Grundschutzes an einer Universität dienen soll. Als Beispiel wird dabei die Hochschule Mittweida und ihre infrastrukturellen und organisatorischen Gegebenheiten herangezogen. Diese konkreten Gegebenheiten sollen und müssen bei der Umsetzung des IT-Grundschutz-Profils an die Rahmenbedingungen der jeweiligen umsetzenden Institution angepasst werden. Es werden die einzelnen Schritte der Standard-Absicherung nach IT-Grundschutz durchgeführt und erläutert. Damit soll ein Schutzniveau gewährleistet werden, das dem normalen Schutzbedarf entspricht. Für Zielobjekte mit erhöhtem Schutzbedarf wird zusätzlich eine Risikoanalyse benötigt, die in der vorliegenden Arbeit ebenfalls beispielhaft dargestellt wird.
Aufbauend auf der CRISPR-FISH Methode, welche basierend auf dem CRISPRCas9-System die Detektion spezifischer DNA-Sequenzen mittels Fluoreszenzmikroskopie ermöglicht, wird in dieser Arbeit versucht, eine weiterführende Methode zu entwickeln, um die Detektion spezifischer DNA-Sequenzen mithilfe eines Transmissionselektronenmikroskops und somit eine höhere Auflösung zu erreichen.
Menschen hinterlassen bei jeder Berührung eines Gegenstandes Fingerabdrücke, durch die sie eindeutig identifiziert werden können, sofern die Qualität dieser aus-reichend ist. Geachtet wird dabei vor allem auf das Grundmuster und den Papillarleisten eines Fingerabdrucks, in denen sich individuell angeordnete Minuzien wiederfinden. Die Qualität dieser Spuren hängt nicht nur von der Person selbst ab, sondern wird u.a. auch durch äußere Gegebenheiten beeinflusst. In dieser Arbeit wird speziell auf den Einfluss filmischer Verunreinigungen auf daktyloskopischer Spuren eingegangen. Zum Einsatz kommen dabei sowohl feste, als auch flüssige Verunreinigungen, die für festgelegte Zeitintervalle auf die Fingerabdrücke einwirken. Die Qualität der verunreinigten Fingerspuren wird analysiert, im jeweiligen Kontext ausgewertet und kann dabei zukünftigen Arbeiten eine Grundlage bieten. Filmisch verunreinigte Fingerabdrücke können sich durchaus auch nach längerer Einwirkzeit sichern lassen, sofern die Sicherungsmethoden passend ausgewählt und angewendet werden.
In dieser Bachelorarbeit steht die Untersuchung eines IoT-Gerätes im Fokus. Das Smart Home Security Kit der Firma D-Link wird in allen Bestandteilen auf deren Funktionsweise getestet und analysiert. Das Vierkomponentensystem verfügt über eine Überwachungskamera, einen Fenster-/ Türsensor, einer Sirene
und einem Hub. Im Vordergrund der steht die Datensicherheit und die Zuverlässigkeit der Verwahrung von sensiblen Nutzerinformationen. Es findet die Untersuchung der Hard- und Software sowie der Cloud, App und Website statt. Übertragungsprotokolle und genutzte Sicherheitsstandards werden kritisch beleuchtet. Am Ende findet die Überprüfung der Hardware auf mögliche Manipulationen statt. Es soll ein Überblick über mögliche Vorangehensweisen und Tools gegeben werden, welche auf andere Systeme angewendet werden könnten.
Konzeption und prototypische Implementierung eines Event-und Audio-Systems für eine Game Engine
(2021)
Genau wie jedes Auto zum Fahren einen Motor und jeder Mensch zum Leben ein
Herz benötigt, hat fast jedes Videospiel eine genauso essentielle Komponente - die Game Engine. Sie besteht aus weiteren vielen kleinen Teilen, deren Aufbau wohl überlegt sein sollte. Diese Arbeit hat es sich zum Ziel gemacht, die Konzeption zweier Komponenten für ein bereits vorhandenes System vorzunehmen. Dabei inbegriffen sind softwaretechnische Diagramme, Erweiterungen bekannter und existenter Systeme sowie vorausschauende Überlegungen. Die betreffende Engine wurde im Rahmen eines Projekts der Hochschule Mittweida entworfen. Das Ziel dabei war es, eine modulare und erweiterbare Architektur zu schaffen, an welche nun mit zwei konkreten Komponenten exemplarisch angeknüpft werden soll. Es werden Wissensgrundlagen geschaffen, Konzepte für ein Event- und Audio-Subsystem entworfen sowie diese teilweise umgesetzt. Ein Inbetriebnehmen sowie Testen beider Systeme wurde vorgenommen. Dadurch sind ehemalige Schwachstellen und Ansatzpunkte für die Weiterentwicklung ersichtlich.
In der folgenden Bachelorarbeit sollen die Bedingungen zur Herstellung von Fakefingerabdrücken, die mit einem Tintenstrahldrucker und einem Material aus Holz-leim und Glycerin hergestellt wurden verbessert werden. Grund dafür ist, dass es im vorangegangenen Praktikumsbeleg noch Mängel bei der Herstellung der Fakes gab. Außerdem sollen die idealen Bedingungen (Materialzusammensetzung und Bearbeitungsmethoden) herausgefunden werden, um Fakes dieser Art herzustellen. Außerdem soll ein neues Unterscheidungsmerkmal für die Erkennung von Fakefingerabdrücken untersucht werden, um in Zukunft die Unterscheidung zwischen Original und Fälschung zu verbessern.
Ziel dieser Arbeit ist es, Konzepte zur Steigerung der intrinsischen Motivation innerhalb der Lernsimulation Finanzmars zu erstellen und zu untersuchen. Zur Erstellung dieser Konzepte sollen potentiell motivationsfördernde Elemente aus dem Bereich der Gamification sowie aus E-Commerce-Geschäftsmodellen kombiniert und verwendet werden. Dabei sollen zwei Belohnungssysteme entwickelt werden, bestehend aus einerseits klassischen Belohnungen digitaler Spiele sowie andererseits aus Belohnungen mit zufälliger Gewinnausschüttung, sogenannten Lootboxen. Als Forschungsobjekt dieser Arbeit wird die Lernsimulation Finanzmars verwendet, in welche die zu erstellenden Konzepte integriert werden. Diese werden sodann in einer anschließenden Evaluation auf potentielle Motivationssteigerungen untersucht. Diesbezüglich gilt es, für jedes zu untersuchende Konzept eine eigene Spielversion von Finanzmars zu entwickeln. Eine Probandengruppe soll während der Evaluation diese Spielversionen testen, sodass ihre Spielerdaten entsprechend untersucht werden können. Um Abseits der Spielerdaten auch die Probandenmeinungen hinsichtlich ihrer Motivation evaluieren zu können, gilt es, darauffolgende Fragebögen zu konzipieren und diese von Probanden bearbeitet werden zu lassen.
Das Thema dieser Arbeit liegt im Schwerpunkt der perpetuierenden Corona-Pandemie und dem zukünftigen Internetnutzungsverhalten der Gesellschaft. Hier soll untersucht werden, wie sich das Internetnutzungsverhalten auf die Bevölkerung auswirkt, aufgrund des Wandels der Gesellschaft. Dabei wurden wissenschaftliche Fragestellungen formuliert und durch eine Literarturrecherche in Bezug gebracht.
Untersucht wurden die folgenden zugrundeliegenden Themenbereiche:
- Internetnutzungsverhalten der Gesellschaft,
- Veränderung des Internetnutzungsverhalten,
- Zukunftsaussichten der Gesellschaft zur digitalen Umgebung,
- Internetnutzung und Internetkriminalität,
- Altersstruktur von Internetkriminalität,
- Auswirkungen der Internetkriminalität,
- Berichte von Tätern und Opfern zur Internetkriminalität,
- Beratungsstellen für Opfer,
- Verhinderung der Internetkriminalität,
- Reduzierung der Internetkriminalität durch die Regierung und
- Maßnahmen der Regierung zur Internetkriminalität.
Tauglichkeitsanalyse der Unity-internen Physik-Engine für forensische Tathergangs Simulationen
(2021)
In dieser Arbeit soll die Tauglichkeit der Unity internen Physik-Engine in Hinblick auf die Simulation forensischer Tathergänge. Nach dem Erörtern der theoretischen Grundlagen, wird dafür eine experimentelle Szene in Unity erstellt. Dabei handelt es sich um die Nachstellung einer Kollision zwischen Menschen und Fahrzeug. Erhaltene Ergebnisse werden anschließend analysiert und mittels
dieser ein Fazit zur These aufgestellt.
Since its foundation as an application of algebra, coding theory is obtaining a day by day increasing importance. For instance, any communication system needs the concepts of coding theory to function efficiently. In this thesis, reader will find an introductory explanation to linear codes and binary hamming codes including some of the algebraic tools devised in their applications. All the described software applications are verified using SageMath 9.0 using Hochschule Mittweida’s JupyterHub.
Diese Arbeit soll einen Leitfaden für die Spurensuche mit forensischen Lichtquellen darstellen. Den Ausgangspunkt bilden Blut, Sperma, Speichel und Urin sowie jeweils vier Vergleichssubstanzen, welche unter Tageslicht ähnlich aussehen und mithilfe der Spurensuchlampe ausgeschlossen werden sollen. Der Versuch wird mit verschiedenfarbigen saugenden sowie nicht saugenden Spurenträgern durchgeführt. Ebenfalls werden Fingerabdrücke nach chemischer Bedampfung auf mögliche verbesserte Sichtbarkeit in verschiedenen Lichtspektren untersucht. Ziel ist es, in Abhängigkeit der Spurenträgerfarbe und -beschaffenheit darzustellen, mit welchen Lichtspektren und Filtern welche Spuren wie aussehen. Dies soll neben der verbesserten Sichtbarkeit eine Unterscheidung zu den Vergleichssubstanzen und den Spuren untereinander ermöglichen. Durch den Ausschluss anderer Substanzen mithilfe forensischer Lichtquellen wird die Anzahl notwendiger chemischer Nachweistests reduziert. Eine Handlungsanleitung und die entstandenen Fotos als Referenz sollen den Einsatz von Spurensuchlampen sowohl am Tatort als auch im Labor erleichtern.
Gamification mit Unterstützung von Augmented Reality und Navigation am Beispiel des Einzelhandels
(2021)
Gamification bezeichnet die Integrierung von spielebasierten Elementen in spielfernen Kontext und strebt an die Motivation des Users zu erhöhen und Verhaltensweisen zu beeinflussen. Diese Arbeit befasst sich mit dem Potenzial, dass Augmented Reality (AR) und Navigation für Gamification mit sich bringt. Dabei werden am Beispiel des Einzelhandels, sowohl in Anlehnung an bewährte Anwendungen, als auch durch die Ableitung belegter Grundlagen aus Games und Verhaltenspsychologie, Gamification-Elemente konzeptioniert. Mithilfe der Einbindung von AR und Navigation werden dabei neue Möglichkeiten eröffnet, Gamification-Elemente zu erweitern. Ein dazu implementierter Prototyp dient zur Veranschaulichung und als Proof of Concept.
The occurence of prostate cancer (PCa) has been consistently rising since three decades and remains the third leading cause of cancer-related deaths after lung and bowel cancer in Germany. Despite of new methods of early detection, such as prostate-specific antigen (PSA) testing, it persists to be the most common cancer in german men with over 63,400 new diagnoses in Germany every year and exhibits high prevalence in other countries of Northern andWestern Europe as well [64]. Men over the age of 70 are most commonly affected by the lethal disease, whereas an indisposition before 50 is rare. The malignant prostate tumor can be healed through operation or irradiation while the cancer hasn’t reached the stage of metastasis in which other therapeutic methods have to be employed [14] [15]. In the metastatic phase, the patient usually exhibits symptoms when the tumors size affects the urethra or the cancer spreads to other tissue, often the bones [16].
The high prevalence of this disease marks the importance of further research into prognosis and diagnosis methods, whereby identification of further biomarkers in PCa poses a major topic of scientific analysis. For this task, the effectiveness of high-throughput RNA sequencing of the transcriptome (RNA molecules of an organism or specific cell type) is frequently exploited [66]. RNA sequencing or RNA-Seq in short, offers the possibility of transcriptome assessment, enabling the identification of transcriptional aberrations in diseases as well as uncharacterized RNA species such as non-coding RNAs (ncRNAs) which remain undetected by conventional methods [49]. To alleviate interpretation of the sequenced reads they are assembled to reconstruct the transcriptome as close to the original state as possible, thus enabling rapid detection of relevant biomolecules in the data [49]. Transcriptomic studies often require highly accurate and complete gene annotations on the reference genome of the examined organism. However, most gene annotations and reference genomes are far from complete, containing a multitude of unidentified protein-coding and non-coding genes and transcripts. Therefore, refinement of reference genomes and annotations by inclusion of novel sequences, discovered in high quality transcriptome assemblies, is necessary [24].
Es wurden 30 Futtermittel durch die Verwendung einer Protease aus Streptomyces griseus auf ihren Gehalt an Durchflussprotein untersucht. Durch die Behandlung mit Pepsin und Pankreatin wurde anschließend die Dünndarmverdaulichkeit des Durchflussproteins bestimmt. Die bestimmten Durchflussproteinwerte wurden in der Diskussion mit geschätzten
Durchflussproteinwerten aus der Rohproteinfraktionierung sowie aus dem erweiterten Hohenheimer Futterwerttests verglichen.
In dieser Arbeit wurde das SARS-CoV-2 Nukleokapsid-Protein sowie dessen N- und C-terminale Domäne kloniert und die darauf folgende Expression in E.coli und die Aufreinigung optimiert. Anschließend wurden die Proteine als Antigene für indirekte ELISAs verwendet. Die IgG-Antwort aus Seren von COVID-19 Patienten wurde bestimmt, um die Sensitivität und Spezifität hinsichtlich der Detektionsfähigkeit gegenüber den Varianten des N-Proteins zu vergleichen. Weiterhin wurde das Verhalten dieser Immunantworten über einen Zeitraum der akuten Infektion bis frühen Konvaleszenz mit einem Zeitraum von bis zu 10 Monaten nach Symptombeginn bei verschiedenen klinischen Schweregraden untersucht.
Cryptorchidism is the most common disorder of sex development in dogs. It describes a failure of one or both testes to descend into the scrotum in due time. It is a heritable multifactorial disease. In this work, selected dogs of a german sheep poodle breed were sequenced with nanopore sequencing and subsequently examined for genetic variations correlating with cryptorchidism. The relationships of the studied dogs were also analyzed and visually processed.
In dieser Masterthesis wird evaluiert, wie gut sich Deep-Learning-Modelle für eine Toxizitätsbestimmung im digitalen Raum eignen. Hierfür wird die Transformer-Architektur anhand verschiedener Pre-Trainings auf BERT-, DistilBERT-, RoBERTa- und GPT-2-Basis mithilfe der toxisch-binär annotierten GermEval-Datensätze aus den Jahren 2018, 2019 und 2021 angepasst. Das Feintuning der Modelle findet sowohl mit Supervised-, als auch mit Semi-Supervised-Learning via GAN statt. Im Anhang dieser Arbeit steht der genutzte Programmcode zur Verfügung.
Das Feintuning via GAN stellt eine Besonderheit in der Herangehensweise automatisierter NLP-Aufgaben darf. Als Ergebnis dieser Arbeit kann deren Wirksamkeit in binären Textklassifizierungsaufgaben im deutschen Sprachraum bestätigt werden.
Onlinequellen wurden zum Zeitpunkt des Abrufs mithilfe des Firefox-Addons “SingleFile” in eine HTML-Datei gespeichert. Sowohl der HTML-Teil, als auch die Mediendateien, Stylesheets und Skriptdateien befinden sich komprimiert in der Datei. Jede Onlinequelle wurde während des Speichervorgangs bei woleet.io registriert, sodass später die Integrität der HTML-Datei geprüft werden kann. Hierfür speichert Woleet die Signatur und Zeitstempel einer Datei innerhalb der Bitcoin-Blockchain. Soll die Integrität einer Datei geprüft werden, kann dies über gildas-lormeau.github.io/singlefile-woleet/index.html erfolgen.
Diese Arbeit behandelt die Herleitung und Verwendung eines alternativen Unähnlichkeitsmaßes im Neural - Gas - Algorithmus. Dabei werden zuerst ausgewählte Algorithmen vorgestellt und in das Feld der Vektorquantisierer eingeordnet. Anschließend wird die sogenannte Tangentenmetrik mathematisch motiviert und vermutete Vorteile gegenüber anderen Metriken anhand künstlich
erzeugten und real existierenden Beispielen experimentell untersucht. Weiterhin werden die Laufzeitkomplexität und beobachtete Limitierungen des neuen Algorithmus näher beleuchtet.
Our current research aims to establish a complete ribonucleic acid (RNA) production line from plasmid design to purification of in vitro transcribed RNA and labeling of RNA. RNA is the central molecule within the central dogma of molecular biology and is involved in most essential processes within a cell[1]. In many cases, only compact three-dimensional structures of the respective RNA are able to fulfill their function. In this context, RNA tertiary contacts such as kissing loops and pseudoknots are essential to stabilize three-dimensional folding[2]. We will produce a tertiary contact consisting of a kissing loop and a GAAA tetraloop that occurs in eukaryotic ribosomal RNA[3,4]. The RNA sequence is integrated into a vector plasmid. Subsequently, the plasmid is amplified in E. coli. After following plasmid purification steps, the RNA sequence will be transcribed in vitro[5,6]. In order for the RNA be used for Förster resonance energy transfer (FRET) experiments at the single molecule level, fluorescent dyes must be coupled to the RNA molecule[7].
There are multiple ways to gain information about an individual and its health status, but an increasingly popular field in medicine has become the analysis of human breath, which carries a lot of information about metabolic processes within the individuals body. The information in exhaled breath consists of volatile (organic) compounds (VOCs). These VOCs are products of metabolic processes within the individuals body, thus might be an indicator for diseases disturbing those processes. The compounds are to be detected by mass-spectrometric (MS) or ion-mobility spectrometric (IMS) techniques, making the analysis of these compounds not only bounded to exhaled breath. The resulting data is spectral data, capturing concentrations of the VOCs indirectly through intensities. However, a number of about 3000 VOCs [1] could already be determined in human exhaled breath. The number of research paper about VOC-analysis and detection had risen nearly constantly over the last decade 1. Furthermore, the technique to identify VOCs could also be used to capture biomarker from alien species within the individuals body. Extracting VOCs from an individual can be done by non- or minimal invasive techniques. However, the manual identification of VOCs and biomarkers related to a certain disease or infection is not feasible due to the complexity of the sample and often unknown metabolic products, thus automized techniques are needed. [1–4] To establish breath analysis as a diagnosis tool, machine learning methodes could be used. Machine learning has become a popular and common technique when dealing with medical data, due to the rapid analysis. Taking this advantage, breath analysis using machine learning could become the model of choice for diagnosis, keeping in mind that conventional methodes are laboratory based and thus when trying detect bacterial infection need sometimes several days to identify the organism. [5]
In dieser Arbeit wird ein Versuch zur Erfassung der Aufmerksamkeit und des Gedächtnisses im Zusammenhang mit traditioneller Kunst durchgeführt. Anhand digital veränderter Werke soll erforscht werden, ob Probanden etwaige Modifikationen an bekannten Gemälden wahrnehmen. Anhand wissenschaftlicher Daten werden die per Umfrage erhaltenen Ergebnisse analysiert und ausgewertet.
Empirischer Vergleich der Realitätsnähe verschiedener Algorithmen zur Simulation von Flüssigkeiten
(2021)
In dieser Bachelorarbeit werden die beiden FluidSimulation Solver SPH (Smoothed Particle Hydrodynamics) und PBD (Position Based Dynamics) unter dem Aspekt des Realismus miteinander verglichen. Im ersten Teil werden die theoretischen Grundlagen vermittelt, die für das Verhalten von Wasser verantwortlich sind. Dadurch wird dann eine Liste mit Kriterien erstellt, um die einzelnen Versuche zu bewerten. Schließlich werden sechs Versuche durchgeführt, welche durch jene Liste bewertet werden. Schlussendlich werden diese Ergebnisse zusammengefasst, und der Schluss gezogen, dass SPH mehr für eine realistische Wassersimulation geeignet ist.
BGP und OSPF sind zwei am häufigsten verwendete Routingprotokolle des Internets. Beide Protokolle sind in ihrem grundlegenden Aufbau über 20 Jahre alt. Da das Internet die Basis unseres Informationsaustausches ist und die Basis des Internets das Routing ist, sollten die verantwortlichen Routingprotokolle entsprechend sicher sein. Durch eine Sicherheitsanalyse der standardisierten RFCs soll eine grundlegende Einschätzung der beiden Protokolle vorgenommen werden. Dazu werden Aufbau, Funktionsweise, Schwachstellen und eine Auswahl möglicher Angriffe auf das jeweilige Protokoll näher erläutert. Sicherheitsmechanismen und ihr Nutzen in Bezug auf die Absicherung und Abwehr von Angriffen werden bewertet.
In vielen Fällen der Kriminalistik steht die Eingrenzung eines Verdächtigenkreises im Vordergrund. Doch zur Verfügung stehen oftmals nur Zeugenaussagen oder Videomaterial, mit denen ein Phantombild oder eine grobe Beschreibung des Verdächtigen erstellt werden kann. Um anhand von Video- oder Fotomaterial eine Person besser beschreiben zu können, ist es Ziel dieser Arbeit ein statistisches Modell zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations herzuleiten.
Bei einer ersten Untersuchung wird geprüft, ob es möglich ist, Individuen der Körperhöhe 175 cm und 185 cm anhand sonstiger anthropometrischer Maße zu unterscheiden. Die positiven Resultate werden genutzt, um Möglichkeiten zu finden, eine Trennung der beiden Körperhöhengruppen auch mittels Pose Estimations vorzunehmen. Dazu wird ein erstes Regressionsmodell aufgestellt. Außerdem werden andere Charakteristiken des menschlichen Körpers genauer betrachtet, weitere Körpergruppen definiert und jene versucht mittels Pose Estimations vorherzusagen. Dabei können jedoch keine qualitativen statistischen Modelle zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations hergeleitet werden. Aufgrund dessen wird die direkte Vergleichbarkeit zwischen anthropometrischen Maßen und definierten Strecken der Pose Estimations untersucht. Diese kann jedoch nicht bestätigt werden. Daher wird an der Einteilung in Körpergruppen festgehalten. Um jene besser vorhersagen zu können, werden für alle Individuen weitere Aufnahmen aus wohl definierten Perspektiven gefertigt und anschließend mittels OpenPose verarbeitet. Die resultierenden Pose Estimations werden genutzt um dreidimensionale Rigs zu erzeugen. Dadurch sollen mit einer frontalen Betrachtung einhergehende Fehlerquellen, wie Drehungen oder Beugungen einzelner Körperteile, eliminiert werden. Um zu prüfen, welche Verbesserungen die dreidimensionalen Rigs mit sich bringen, werden die Untersuchungen aus dem ersten Teil dieser Arbeit wiederholt. Dabei wird festgestellt, dass mit wenigen Ausnahmen alle Ergebnisse verbessert werden können. Jedoch bleibt die Qualität einiger statistischer Modelle bei den durchgeführten Kreuzvalidierungen zu optimieren.
In meiner vorherigen Arbeit wurden mit Hilfe von Ansätzen in der Deterministik und Probabilistik nach den Regelwerken [DIN12010] und [DIN22010] Gegenmaßnamen aufgezeigt, was beim heutigen Komponentenausfall in Kraftwerken dazu führt, diese schnellstmöglich zu beheben. Wie dort beschrieben, hat seit den siebziger Jahren die exponierte Computertechnologie sowie der anzuwendenden Wechselwirkung mit der Prozessleittechnik und deren Simulation wie in meiner Projektarbeit diskutiert wird, eingesetzt. In dieser Arbeit wird das Regelwerk [DIN32010] erörtert. Es wird eine partielle Softwareentwicklung im eingebetteten System in den Programmiersprachen ‘C‘ bzw. ‘C++‘ gestellt, welche anhand der ‘Funktionalen Sicherheit‘ über die Bussysteme in der Sicherheitstechnik darstellt werden. Die einzelnen Kapitel werden in Anforderungen von Werkzeugen, Anforderung an die Softwaresicherheit, Anforderung aus der Hardware, Planung der Validation, Planung der Softwarearchitektur, Planung der Softwarekapselung, Planung von Systemdesign, Planung von Moduldesign, Planung von Hardware zu Software, Softwareintegration, Softwarevalidation und Softwaremodifikation diskutiert.
In this work, a protocol for portable nanopore sequencing of DNA from pollen collected from honey bees, bumble bees, and wild bees was developed. DNA metabarcoding is applied to identify genera within the mixed DNA samples. The DNA extraction and ITS and ITS2 PCR parameters tested for this purpose were applied to the collected pollen sample and the amplicons were then decoded using the Flongle sequencer adapter from Oxford Nanopore Technologies. It is shown that the main pollinator resources at the different sites can be identified in percentage proportions. The protocol generated in this study can be used for further ecological questions.
Die vorliegende Arbeit beschäftigt sich mit der KI-gestützten Klassifikation von Flügelbildern verschiedener Spezies der Familie Calliphoridae, auch Schmeißfliege genannt. Hauptziel soll dabei die Klassifikation nach Gattung sowie nach Spezies sein. Außerdem soll eine automatische Landmarkendetektion auf Fliegenflügeln entwickelt werden und anschließend als Merkmalsextraktor für das Klassifikationsmodell dienen. Dabei werden unterschiedliche Methoden der Bildverarbeitung sowie des maschinellen Lernens angewandt, kombiniert und bezüglich der Ergebnisse analysiert und verglichen.
Ziel dieser Arbeit ist die Entwicklung eines Modells, das über einen mehrstufigen Angriffsprozess das Passwort eines spezifischen Benutzers unabhängig von der Stärke des Passworts rekonstruiert. Der Fokus des Modells liegt auf dem benutzerspezifischen Angriff und dessen Präprozessor. Dieser soll unter Berücksichtigung der bisherigen Design- und Konstruktionsprinzipien des Benutzers sowie unter Einbeziehung seiner persönlichen Informationen die wahrscheinlichsten Passwort-Kandidaten generieren.
Seit nun mehr vielen Jahren ist der Einsatz von Software in allen Lebenslagen nicht mehr wegzudenken. Das Leben von fast allen Menschen wird täglich, bewusst oder unbewusst, von Software gesteuert, unterstützt oder beeinflusst. Da Softwareprodukte auch immer weitreichendere Eingriffe in persönliche Daten nehmen, sollte ein Hauptaugenmerk der Softwareentwicklung stets auf Sicherheit und Datenschutz gelegt werden. Umso wichtiger ist es daher, dass nicht nur Sicherheitsuntersuchungen durchgeführt werden, sondern dass diese auch möglichst umfassend und strukturiert realisiert werden.
Die vorliegende Arbeit beschäftigt sich daher mit der Entwicklung einer Methodik zur schrittweisen Überführung eines abstrakten Architekturmodells, wie beispielsweise einem Datenflussdiagramm, hin zu einem möglichst vollständigen Testplan zur Durchführung reproduzierbarer Penetrationstests, unter Einsatz von Hilfsmodellen zur Gefahrenklassifizierung. Hierbei sollen Konzepte, wie Threat-Modeling auf Basis des STRIDE-Modells und Finden von Sicherheitslücken mithilfe der Common Vulnerability and Exposures-Datenbank zum Einsatz kommen.
Ein Maus-Infektionsmodell wurde genutzt um neutralisierende Antikörper gegen SARS-CoV-2 zu untersuchen. Nach Beendigung des Infektionsexperimentes wurden Lungen- und Gehirnpräparate fixiert und histologische Färbungen des SARS-CoV-2 Nukleokapsids und von Zellen der angeborenen Immunantwort vorgenommen. Der Nachweis von humanem ACE2 wurde untersucht und in Organhomogenaten bestätigt. Ein Bewertungsschema zur Validierung eingesetzter neutralisierender Antikörper wurde mit einer vergleichenden Hämatoxylin und Eosin Färbung erstellt und interpretiert.
Diese Arbeit befasst sich mit der Erstellung einer Schutzbedarfsanalyse am Universitäts Klinikum Carl Gustav Carus Dresden. Dabei wird die Vorgehensweise für die Standard Absicherung nach dem BSI-Standard 200-2 IT-Grundschutz Methodik, welche vom BSI empfohlen wird, der neu entwickelten Methode gegenüber gestellt.
Diese Diplomarbeit zeigt zu Beginn die Risiken, die moderne Angriffe auf ein Produktionsnetzwerk darstellen, in mehreren Facetten auf. Um diesen möglichen Schaden für Unternehmen abzuwenden, wird eine mögliche Lösung vorgestellt, die diese Angriffe, die trotz bereits vorhandener Sicherheitsmaßnahmen erfolgreich sein können, erkennen kann. Diese Lösung wird planmäßig durch die Einbindung in die Infrastruktur eines Produktionsnetzwerkes umgesetzt. Um die volle Funktionalität sicherstellen zu können, wird die Lösung auch in einem separatem Testnetzwerk durch Powershell-Scripte und Pentesting-Tools, die in Kali Linux gebündelt sind, überprüft. Dies soll dem Schutz der vorhandenen, teils überholten Infrastruktur in der Produktion dienen, die durch ihr teilweise hohes Alter durch dieses Pentesting ausfallen könnten. Abschließend werden die ermittelten Ergebnisse bewertet. Ein Fazit über die Möglichkeiten der Optimierung sowie ein Ausblick in eine mögliche Zukunft runden diese Diplomarbeit ab.
Private Blockchain-Netzwerke können von Unternehmen für die Integritätssicherung von Produktionsdaten verwendet werden. Die Hochschule Mittweide entwickelt im Rahmen des Forschungsprojektes safe-UR-chain ein derartiges Blockchain-Netzwerk. Teil dieser Entwicklung ist die Auswahl und Optimierung eines Konsensverfahrens für das Netzwerk. Für diese Aufgabe fehlt es momentan an einem System, das den Vergleich von Konsensverfahren anhand ihrer Leistungsmetriken ermöglicht. Diese Arbeit befasst sich mit der Entwicklung eines derartigen Systems sowie der Implementierung dreier Konsensverfahren, die anhand ihrer vom System erfassten Leistungsmetriken verglichen werden.
Nach derzeitigem Wissensstand existiert in der Forensik aktuell keine einheitlich verwendete Methodik eine in der Vergangenheit liegende Tatzeit zurück rechnen zu können. Einzelne zum Einsatz kommende Verfahren sind sehr kosten- oder zeitaufwendig und darüber hinaus zum Teil sehr unzuverlässig bzw. ungenau. Als Alternative zu diesen Verfahren existiert die Idee den Tatzeitpunkt anhand der Alterung vom am Tatort sichergestellten Blutspuren zu bestimmen. Die Herausforderung hierbei ist allerdings, dass noch nicht ausreichend erforscht wurde, inwiefern die Blutalterung durch Umwelteinflüsse, wie Luftfeuchtigkeit oder Raumtemperatur, beeinflusst wird. Um einen Beitrag zu dieser Fragestellung zu leisten, wird im Rahmen dieser Arbeit die Alterung von Blut in einem Zeitraum von drei Wochen und unter konstanten Umweltbedingungen spektroskopisch untersucht und verglichen. Dabei wird sich verstärkt auf die Umsetzung von Oxyhämoglobin zu Methämoglobin, sowie auf die Verschiebung der Soret-Bande als alterskorrelierende Feature konzentriert. Nach Auswertung der vorliegenden Datensätze kann gezeigt werden, dass beide Features signifikant durch die Temperatur beeinflusst werden. Aufbauend auf diese Ergebnisse kann in Zukunft weiter an der Untersuchung unterschiedlicher Wetterverhältnisse- und Kombinationen in Bezug auf die Blutalterung gearbeitet werden. Auch der Einfluss von Blutverdünnern und ähnlichen Substanzen sollte bei zukünftigen Versuchen nicht vernachlässigt werden.
Einer der Leitsätze der Fitnesstrainingsmethode CrossFit ist prepare for the known & unknowable – bereite dich auf das Bekannte und das Unvorhersehbare vor. Dem Unvorhersehbaren sah sich die Welt ab 2020 in Form der Corona Krise gegenüberstehen und nahezu alle Branchen sollten erfahren, wie wichtig es ist, über die bestehende Geschäftstätigkeit hinaus zu denken. An diesem Weiter- und Umdenken hing für zahlreiche Unternehmen das eigene Überleben und es mussten Wege gefunden werden, um das eigene Angebot in den digitalen Raum zu transportieren. Ziel dieser Arbeit ist es, Wege zum Erschließen dieses Marktes aufzuzeigen – und das insbesondere für Firmen, deren Kernprodukt sonst typischerweise auf der persönlichen Anwesenheit und physischen Wirkung besteht. Für vier Vertreter der Fitnessbranche werden Möglichkeiten und Ansätze aufgezeigt, wie sich auch hier Produkte digital vermarkten lassen. Um diesem Ansatz evidenzbasiert zu begegnen, wurde eine Umfrage erstellt und unter CrossFit Geschäftsführern verteilt. Diese Umfrage ermittelt unter anderem die Schwere der Pandemieeinflüsse und den Willen der Betriebe, in die Digitalisierung und somit in die Ungewissheit zu investieren. Zum Zeitpunkt der Erstellung der Arbeit ist der Autor selbst seit 2,5 Jahren Geschäftsführer einer CrossFit Box in Gera und Teil eines im November 2020 gegründeten Interessenverbandes, der sich mit der Bereitstellung von digitalen Produkten an die Endkunden beschäftigt.
Arthrose ist eine der häufigsten Gelenkkrankheiten, die im Alter auftritt. Es kommt dabei u.a. zu einer degenerativen Veränderung des Gelenkknorpels. Momentan existieren nur symptomatische Behandlungen. Ein neu erforschter regenerativer Therapieansatz ist die Injektion von „Nanofat“ in das arthrotische Gelenk. In dieser Arbeit wird Nanofat durch zwei verschiedene Aufreinigungesmethoden gewonnen: Variante eins mit der Tulipfilter und Variante zwei mit der Lipocube-Aufreinigung. Diese Arbeit vergleicht die Eigenschaften der adipösen Stammzellen miteinander, welche aus Variante eins und zwei gewonnen werden. Die adipösen Stammzellen werden dabei in Vitalität, Seneszenz, Apoptose, Proliferation, Migration, Genexpression und Lebende-Tote Zellen untersucht. Dabei hat sich gezeigt, dass es zwischen den beiden Aufreiningungsmethoden keine messbaren Unterschiede zwischen den adipösen Stammzellen gibt. Somit kann gesagt werden, dass die unterschiedlichen Aufarbeitungsmethoden die adipösen Stammzellen in der Weiterkultivierung nicht beeinflussen.
Seit einigen Jahren erzielt die CAR-T-Zell-Therapie beeindruckende Therapieerfolge. Trotzdem kommt es vor, dass Patienten auf die Behandlung kaum oder überhaupt nicht ansprechen. Aktuell ist jedoch noch nicht bekannt, von welchen Patientenmerkmalen eine erfolgreiche CAR-T-Zell-Therapie abhängig ist. Deshalb wird in dieser Arbeit mit Hilfe verschiedener Methoden untersucht, wie sich die CAR-T-Zellen eines Patienten gegenüber einer Zielzelllinie (Raji), die den Krebszellen im Patienten entspricht, verhalten. Darüber hinaus finden Untersuchungen in Vorbereitung auf Transkriptom-Analysen der CAR-T-Zellen statt. Hierbei soll der Aktivierunsgzustand des CARs nach einer Separation der CAR-T-Zellen von den Rajis über CAR-spezifische Nachweisreagenzien von Miltenyi bzw. ACRObiosystems und magnetische Beads überprüft werden.
Soziale Netzwerke spielen eine große Rolle für die digitale Kommunikation. Menschen tauschen sich aus und teilen Informationen. Die große Anzahl an Nachrichten, die täglich veröffentlicht werden, stellt Entwickler vor ein großes Problem: den Mangel an Kontrolle. Obwohl es Regeln gibt, halten sich viele Nutzer nicht daran. Diese Problematik erfordert ein verbessertes System, welches toxische Inhalte erkennt und klassifiziert. Ziel der Arbeit war es, verschiedene Methoden für maschinelles Lernen zu kombinieren. Weiterhin wurden die Fragen beantwortet, was Toxizität in Verbindung mit sozialen Medien bedeutet und ob
Toxizität in einem linearen Zusammenhang mit Hasssprache steht. Das bestmögliche Ergebnis der Klassifizierung ist ein micro F1-Wert von 0.76192.
Diese Arbeit beschäftigt sich damit, verschiedene Methoden des maschinellen Lernens zu testen und mit der Frage, ob es damit möglich ist, auffällige Anmeldungen zu erkennen. Es ist von Interesse, spezielle abnormale Anmeldemuster zu erkennen, welche im Kontext eines Angriffes genutzt werden. Diese können anschließend verwendet werden, um Angreifer bzw. kompromittierte Nutzer aus einem Netzwerk zu identifizieren. Die Schwierigkeit, dementsprechende auffällige Anmeldungen zu erkennen, steigt dabei mit zunehmender Anzahl an Angriffen. Des Weiteren beeinflusst die Vielfalt in den Verhaltensweisen die Erkennung. Demzufolge werden verschiedene Methoden getestet, mehrere Szenarien simuliert und anschließend werden anhand eines echten Testfalls die Methoden bzw. das Verfahren validiert. Als Endergebnis der Arbeit entstehen eine Software und ein Verfahren zur Erkennung von auffälligen Anmeldungen.
Das Ziel dieser Arbeit ist die Untersuchung der in Blender vorhandenen Tools zur Erstellung einer Fallsimulation mit einfachen Objekten und Menschmodellen. Nach einem kurzen Überblick über die Theorie werden verschiedene Kräfte in mehreren Testreihen untersucht und schlussendlich kombiniert. Diese Testreihen werden mit dem Programm Blender durchgeführt. Zusätzlich wurde eine Anleitung zur Erstellung einer Ragdoll in Blender 2.8 an-gefertigt.
Die vorliegende Arbeit untersucht die Erstellung prozeduraler Materialien in Hinblick auf die Verwitterung von Naturstein an einer Skulptur. Dazu werden die betrachteten Gesteinsarten zunächst hinsichtlich ihres Verwitterungsverhaltens untersucht. Beim Dokumentieren der Nachbildung der Materialien zeigt die Arbeit Vor- und Nachteile, sowie Grenzen der prozeduralen Methode auf. Betrachtet wird dabei auch die Realisierbarkeit der Parametrisierung. Weiterhin gibt die Arbeit einen Ausblick darauf, welche Vorgehensweise für welchen Anwendungsfall geeignet ist.
In der vorliegenden Bachelor-Thesis wird der Einsatz der Containerisierungssoftware Docker auf Arm-Einplatinencomputer anhand einer praktischen Beispielumgebung untersucht. Dabei werden individuelle und allgemeine Fragen über die Verwendung von Docker aufgeworfen und beantwortet. Es wird auf die Besonderheiten der Plattform sowie die Fallstricke bei der Verwendung von Docker eingegangen. Weiter wurde die Tauglichkeit ausgewählter externer Sensorik unter der Verwendung von Docker geprüft. Im Rahmen der Arbeit wurden Docker-Container konzipiert, um den Einsatz von Docker praktisch aufzuzeigen.
In machine learning, Learning Vector Quantization (LVQ) is well known as supervised vector quantization. LVQ has been studied to generate optimal reference vectors because of its simple and fast learning algorithm [2]. In many tasks of classification, different variants are considered while training a model and a consideration of variants of large margin in LVQ helps to get significant
results [20]. Large margin LVQ (LMLVQ) is to maximize the distance between decision hyperplane and data points. In this thesis, a comparison of different variants of Generalized Learning Vector Quantization (GLVQ) and Large margin in LVQ is proposed along with visualization, implementation and experimental results.
Das Ziel dieser Arbeit ist es, die Möglichkeit der Nutzung von Rust als Ersatz für C und Java zu evaluieren. Diese beiden wurden als Vertreter von hardwarenahen bzw. einfacheren und höheren Sprachen gewählt. Sie sind außerdem bekannt dafür, unsicher bzw. langsam zu sein. In beiden Punkten soll Rust genauso gut oder besser sein als C und Java. Daher werden sie für die drei Sprachen verglichen. Da für die Wahl einer Programmiersprache auch entscheidend ist, wie aufwendig es ist, ein Programm zu erstellen, wird die Komplexität als dritter Aspekt für den Vergleich genutzt.
Anhand von Benchmarks wird zunächst die grobe Geschwindigkeit und Speichernutzung untersucht, während die Sicherheit der Sprachen in der Theorie und an einer realen Sicherheitslücke betrachtet wird.
Für einen ausführlichen Vergleich wird ein in allen drei Sprachen erstellter Webserver genutzt. Mittels diverser Metriken wird die Komplexität des Quellcodes analysiert und anschließend mit Laufzeitmessungen die Performanz.
Im Ergebnis ist Rust geeignet, C zu ersetzen, da es ähnlich schnell ist und ähnlich komplex, aber deutlich sicherer. Java hingegen ist zwar langsamer, aber dafür einfacher als Rust und sollte daher weiter eingesetzt werden für Programme, bei denen eine hohe Leistung nicht wichtig ist.
Untersuchung der Themendynamik in sozialen Netzen am Beispiel deutschsprachiger Texte auf Twitter
(2021)
Die vorliegende wissenschaftliche Abschlussarbeit behandelt die Untersuchung von Themenentwicklungen in deutschsprachigen Texten. Dazu wurden Twitterdaten von Bundestagsparteien analysiert. Über verschiedene Vorverarbeitungsschritte wurde eine LDA an das Problem angepasst. Mittels verschiedener Distanz- und Ähnlichkeitsmaße wurde eine Beschreibung der Themendynamik durchgeführt. Weiterhin wurden verschiedene Rahmenbedingungen erprobt, die zu einer Verbesserung der Ergebnisse führten.
Die Frage, ob MOBAs wie League of Legends für eine erhöhte Selbstwirksamkeit sorgen können, ist nicht nur für die Videospielindustrie interessant, sondern hat aufgrund der hohen Verbreitung von Videospielen gesamtgesellschaftliche
Relevanz. Aufgrund der jährlich steigenden Zahlen von depressiven Erkrankungen in Europa ergibt sich insbesondere für Spiele, die in großen Teilen der Bevölkerung verbreitet sind, eine Chance das Problem neu zu adressieren. Da es, insbesondere was MOBAs betrifft, Hinweise darauf gibt, dass diese zur kurzfristigen Steigerung der bei Depressiven verminderten Selbstwirksamkeit beitragen können, wurde anhand von „League of Legends“ der Versuch unternommen diese Effekte über die Spielmechanik zurückzuverfolgen und mit einer Umfrage die tatsächliche Kurzzeitwirkung des Spiels auf seine Anwender nachzuweisen. Es ließ sich darüber feststellen, dass League of Legends-Spieler in der Tat eine durchschnittlich höhere Selbstwirksamkeit aufweisen und diese über eine Spielrunde noch gesteigert werden kann. Damit hat diese Arbeit einen Beitrag dazu geleistet die Nützlichkeit von MOBAs für therapeutische Zwecke zu untersuchen.
Over the past few years, wind and solar power plants have increasingly contributed to energy production. However, due to fluctuating energy sources, the energy production data contain disruption. Such disrupted data lead to the wrong prediction performance, and they need to be estimated by other values. In this thesis, we provide a comparative study to estimate the online disrupted data based on the data of similar groups of power plants, We apply three estimation techniques, e.g., mean, interpolation, and k-nearest neighbor to estimate the disruption on training data. We then apply four clustering algorithms, e.g., k-means, neural gas, hierarchical agglomerative, and affinity propagation, with two similarity measures, e.g., euclidean and dynamic time warping to form groups of power plants and compare the results. Experimental results show that when KNN estimation is applied to data, and neural gas and agglomerative with dtw are used to cluster the data, the cluster quality scores and execution time give better results compared to others. Therefore, we conclude and choose KNN estimation to reconstruct the online disrupted data on each group of a similar power plants.
In der vorliegenden Masterarbeit wird der, im Jahr 2018 im Application Center Microcontroller entwickelte, forensische Demonstrator für das Controller Area Network (CAN) analysiert und auf Basis dessen ein Redesign konzipiert, entwickelt und getestet. Gemäß der in dieser Arbeit vermittelten Grundlagen zu aktuellen Bussystemen der Automobilindustrie und ihrer Datenübertragung, werden entsprechende CAN-Nachrichten implementiert und auf den CAN-Bus gesandt. Die Auswertung dieser Botschaften erfolgt durch die CAN-Analysesoftware BUSMASTER. Eine entsprechende Visualisierung der Daten wird durch die, für den BUSMASTER entwickelte, grafische Oberfläche realisiert.
Untersuchung der Verwendung von Emojis in verschiedenen sprachlichen und kulturellen Kontexten
(2021)
Die modernen Kommunikationswege bieten inzwischen verschiedene Möglichkeiten, neben Text auch weitere Informationen zu teilen, zum Beispiel mittels Emojis. Diese werden in der Forensik noch nicht tiefgreifend analysiert. Um einen Einstieg in die Untersuchung der Verwendung von Emojis zu finden, beschäftigt sich diese Arbeit mit Unterschieden der Emoji-Nutzung in verschiedenen Kulturen und Sprachen. Dazu wurden mehrere statistische Analysen durchgeführt. Des Weiteren wird das Sentiment der Emojis untersucht und getestet, ob Emojis in allen Kulturen die gleiche Bedeutung haben. Zur Ermittlung der Bedeutung wurden Wortrelationen verwendet. In allen drei untersuchten Aspekten konnten Unterschiede festgestellt werden.
In dieser Arbeit geht es um die Konzeption und Implementierung eines Softwaretools für die Annotation von Spielpartieabläufen selektierter Automatic Battle- Spiele. Es werden drei Spiele dieser Art, auch als Vertreter des Auto-Battler-Genres klassizierbar, auf Gemeinsamkeiten und Unterschiede untersucht und im Anschluss ein Konzept für ein allgemein anwendbares Annotationstool erstellt. Anschließend erfolgt eine Implementierung für jenes Tool und ein Vergleich zum Annotationsprozess, bei welchem keine Unterstützung durch ein dafür entwickeltes Softwaretool erfolgt. Es konnten Erkenntnisse gewonnen werden zur potenziellen Verbesserung der Annotation von Automatic Battle-Spielen durch Verwendung einer Software, welche speziell für diesen Zweck ausgelegt ist.
In der Bachelorarbeit wird der Zusammenhang zwischen der Verwendung von Kunst und der Videospielproduktion dargestellt. Als Ziel der Arbeit soll eine Aufschlüsselung der Kunstbereiche Concept Art und Illustration klarstellen, inwiefern eine Unterscheidung in der Industrie eine Rolle spielen. Mit der Untersuchung soll ein realistischer Eindruck über die Funktionsweise der Kunst in den beiden Bereichen analysiert werden. Das Ergebnis zeigt, dass die initiale Motivation zur Erstellung grundlegend verschieden ist und für den Entwickler das Maß für die Qualität der Werke ist.
In dieser Masterarbeit wird sowohl säurelösliches Kollagen, als auch Gelatine als Ausgangsmaterial verwendet. Dieser Ausgangsstoff wird anschließend funktionalisiert und verschieden photovernetzt, um verschiedene nanomechanischen Eigenschaften zu generieren. Diese werden durch statische Rasterkraftspektroskopie untersucht. Das modifizierte Kollagen und Gelatine werden dann nach DIN auf ihre Zytotoxizität getestet. Nach erfolgreicher Überprüfung werden Zellversuche vorgenommen um die Zellantwort auf die unterschiedlichen mechanischen Eigenschaften untersucht. Zuletzt wird in Gelatine die Oberflächenmorphologie von Kollagen gestempelt und eine Veränderung der Zellantwort zu nicht gestempelter Gelatine überprüft.
Diese Arbeit befasst sich mit der Gestaltung und Kombination verschiedener Bildkompositionen und der Ermittlung von deren Einfluss auf die vom Betrachter wahrgenommene Bildstimmung. Dabei werden Environment Concept Artworks aus verschiedenen Bildelementen zusammengesetzt, welche bestimmte Auswirkungen auf die empfundene Stimmung haben sollen. Der Effekt der entwickelten Bilder auf die Stimmung eines Betrachters wurde durch eine Befragung von Testpersonen ermittelt. Die Ergebnisse der Umfrage lassen sich durch verschiedene Bildelemente klar begründen und bestätigen die der Arbeit zu Grunde liegende Forschungsfrage. Die in dieser Arbeit ermittelten Informationen, bieten einen guten Ausgangspunkt für die Entwicklung von 2D-Werken mit der klaren Absicht eine konkrete Bildstimmung auszulösen, und sind auch außerhalb des Anwendungsfalls Environment Concept Art nutzbar.
Diese Arbeit beschäftigt sich mit dem Erstellen semantischer Encodings von Bilddaten. Um diese Kodierungen aus den Daten zu extrahieren, wird ein künstliches neuronales Netzwerk auf
Videobild Interpolation trainiert. Die daraus erlernten Encodings sollen anschließend auf ihre Anwendbarkeit in einer anderen Aufgabe der KI gestützten Bildverarbeitung, der Extraktion von Landmarken auf Menschen, getestet werden.
Das Thema Kinderpornographie ist schon lange immer wieder Fokus der Medien. Erst vor kurzem hat die deutsche Polizei ein internationales Netzwerk, welches Kinderpornographie verbreitete, aufgedeckt und vier Täter festgenommen. [27] Auch die polizeiliche Kriminalstatistik (PKS) verzeichnete im Jahr 2019 und 2020 einen massiven Anstieg des Besitzes, der Herstellung und der Verbreitung von Kinderpornographie. [3, 4] Diese Zustände und Entwicklungen sind erschreckend und zeigen die Relevanz der Arbeit in diesem Themengebiet. Daher befasst sich diese Bachelorarbeit mit der Entwicklung einer unterstützenden künstlichen Intelligenz (K.I.) für die Ermittlungen.
Im Rahmen der vorliegenden Masterarbeit wurden zwei CAN-Bus-Steuergeräte konzeptioniert und entwickelt, welche auf einem forensischen Demonstrator verbaut wurden. Die Funktionen der Steuergeräte sind zum einen die Steuerung einer Beleuchtungseinheit, zum anderen die Abstandsmessung sowie die Akkustandsüberwachung. Als Steuergeräte fungieren Arduino Nanos, welche über SPI mit CAN-Modulen kommunizieren können. Mit Hilfe der Analysesoftware BUSMASTER können CAN-Botschaften auf den CAN-Bus des Demonstrators gesendet werden. Der Demonstrator dient dabei als Grundlage für spätere forensische Untersuchungen des Controller Area Networks.
IoT- und Smart-Home-Geräte erfreuen sich zunehmender Beliebtheit. Der Bedarf nach IoT-Sicherheit stieg in den letzten Jahren stetig an, was unter anderem mit der Anzahl an Cyberangriffen auf IoT-Geräte begründet ist. Es existieren bereits Zertifizierungs- und Testprozesse, die die IT-Sicherheit von Produkten überprüfen. Um diese zu erweitern und zu beschleunigen, wurde in dieser Arbeit ein Programm konzipiert und umgesetzt, das verschiedene Vorgehen zur Firmwareanalyse implementiert und automatisiert. Hierbei wurde eine modulare Struktur verwendet, sodass weitere Analysen hinzugefügt werden können. Abschließend erstellt das Programm einen Bericht mit den Ergebnissen der Analysen. Er enthält außerdem eine Bewertung der IT-Sicherheit einer Firmware. Die der Firmwareanalyse vorausgehende Extraktion wird erläutert. Das vorgestellte Programm ermöglicht es einem Benutzer, Schwachstellen und Schutzmechanismen eines IoT-Produkts einzuschätzen.
Computationally solving eigenvalue problems is a central problem in numerical analysis and as such has been the subject of extensive study. In this thesis we present four different methods to compute eigenvalues, each with its own characteristics, strengths and weaknesses. After formally introducing the methods we use them in various numerical experiments to test speed of convergence, stability as well as performance when used to compute eigenfaces, denoise images and compute the eigenvector centrality measure of a graph.
Diese Arbeit untersucht, die Herausforderungen bei der teilautomatischen Erstellung von Testdaten für die digitale Forensik. Insbesondere handelt es sich um Bildmetadaten im EXIF-Format, aus der Fotogalerie eines Smartphones, die mit GPS-Daten und zugehörigen Zeitstempeln für eine feste Route angereichert werden. Dazu wird auf Metadaten, Geokoordinaten und Zeitstempel eingegangen sowie der aktuelle Stand zu EXIF aufgezeigt. Mit diesem Wissen entsteht ein Programm, das die Testdaten erzeugt.
Die Strafverfolgungsbehörden verwenden zunehmend Mobilfunkdaten, um Tathergänge zu rekonstruieren und daraufhin Tatverdächtige überführen zu können. Die Mobilfunkdaten erhalten die Strafvervolgungsbehörden auf Anfrage und richterlichen Beschluss von den Telekommunikationsanbietern. Die Anfragen sind sowohl zeitlich als auch regional stark eingegrenzt. Trotzdem ist das Datenvolumen erheblich. Auf Grund des Datenvolumens und der Heterogenität der Datenformate zwischen den Mobilfunkanbietern, gestaltet sich die Auswertung der Daten sehr aufwändig. Diese Masterarbeit adressiert die genannten Aspekte mit einer auf die Mobilfunkdaten abgestimmten Datenintegrations- und -analyse-Pipeline. Die Pipeline überführt die Mobilfunkdaten in ein harmonisiertes Datenformat und reichert sie mit einer Annotation zur Bodennutzungsklassifizierung an. Letztere sind für die Datenanalyse relevant. Grundlegend greift die Pipeline auf eine Graphdatenbank zurück, in die die Daten eingefügt werden. Anhand der Anfragesprache Cypher können relevante Daten für diverse Auswertungsfragen selektiert und zur Verfügung gestellt werden. Diese Grundlage ermöglicht eine iterative Vorgehensweise bei der Datenauswertung, so dass aus Ergebnissen einer vorangegangenen Frage, neuen Auswertungszielen schnellstmöglichst begegnet werden kann. Die in der Arbeit gezeigten Auswertungen stehen beispielhaft für das große Spektrum an Auswertungsmöglichkeiten. Insbesondere wurden Personenkreise mit speziellen Bewegungsprofilen anhand der den Funkmasten zugeordneten Landnutzungsklassen ermittelt. Die in der Arbeit verwendeten Daten wurden mit diesem Ansatz um 99% reduziert. Damit können Analyst:innen sich auf die relevanten Aussagen konzentrieren. Zudem konnte eine Korrelation zwischen Mobilität und dem Nutzungsverhalten hergestellt werden. Jedoch zeigt sich auch, dass die hohe Variabilität und Individualität der Personen in einem zeitlich und regional eng begrenzten Datenraum, der Ermittlung von allgemeinen Bewegungsprofilen entgegensteht.
Das Videospiel immer häufiger auch als erzählerisches Medium genutzt. Von den Entwicklern fordert dies eine Gradwanderung zwischen Game Design und Erzählung. Es mussten mit der Zeit neue Wege gefunden werden, Narrativen in das Spiel einzubinden. Diese Arbeit thematisiert die Untersuchung der Wahrnehmung und Interpretation von Environmental Storytelling in 2D-und 3D-Umgebungen. Es wird untersucht, ob es, abhängig von der Dimensionalität, Unterschiede in der Effektivität verschiedener Erzählerischer Mittel gibt. Um diese Frage zu beantworten, werden zwei sich inhaltlich gleichende Demos erstellt, die sich nur durch ihre Darstellung unterscheiden. Die, durch eine Befragung der zwei Testgruppen, erhobenen Daten werden anschließend evaluiert. Es ergab sich, dass dreidimensionale Umgebungen eher zum Erkunden einladen, es werden jedoch im Gegensatz zu 2D-Welten leichter wichtige Objekte übersehen. Für weitere Forschungen, sollten einzelne Aspekte des Environmental Storytelling genauer untersucht und bewusst auf die entsprechende Dimensionalität angewandt werden.
Die Blutaltersbestimmung hat sich in den letzten Jahrzehnten zu einer der bedeutsamsten Methoden der Tatzeitermittlung entwickelt und ist in der forensischen Wissenschaft nicht mehr weg zu denken. Bis heute wird an diesem Verfahren geforscht, da sich noch keine Methode richtig etabliert hat. Eine große Herausforderung bei der Blutaltersbestimmung spielen die Umwelteinflüsse. In dieser Bachelorarbeit wird humanes Vollblut 21 Tage unter den Umwelteinflüssen, Temperatur und Luftfeuchtigkeit in einem Klimaschrank gelagert. Die in verschiedenen Abständen entnommenen Proben werden dann mittels der UV/VIS Spektroskopie als Spektren dargestellt und ausgewertet. Dabei stehen die alterskorrelierenden Features im Mittelpunkt, welche deutliche Veränderungen aufzeigen. Dazu zählen die Oxy- und Methämoglobin-Peaks und die Blauverschiebung der Soret-Bande. Für die Auswertung wurden zwei Messreihen extra hinzugezogen. Somit konnte im ersten Ver-gleich festgestellt werden, dass die Luftfeuchtigkeit keinen Einfluss auf die Oxidation hat und sich die Soret-Bande bei geringer Luftfeuchte nur in den ersten drei Stunden schneller nach links verschiebt. Im zweiten Vergleich konnte herausgefunden werden, dass die Temperatur einen großen Einfluss auf die Oxidation hat. Denn eine höhere Temperatur sorgt für eine schnellere Oxidation. Auch konnte verdeutlicht werden, dass sich die Soret-Bande bei einer höheren Temperatur etwas schneller verschiebt. Die Temperatur hat die Messreihen stärker beeinflusst als die Luftfeuchtigkeit.
Die Datenschutzgrundverordnung hat in der Europäischen Union für ein einheitliches Datenschutzrecht gesorgt. Sie fordert unter anderem eine einfache und verständliche Sprache von Datenschutzerklärungen und benennt umfangreiche, inhaltliche Anforderungen. Im Praxisumfeld ist es aber immer noch nicht selbstverständlich, dass Datenschutzerklärungen sich an formalen und inhaltlichen Festlegungen der Datenschutzgrundverordnung und weiterer geltender deutscher Gesetze orientieren. Das in dieser Arbeit erstellte Python-Programm zur automatisierten Analyse von Datenschutzerklärungen kategorisiert Themenabschnitte mit Hilfe einer Stichwortsuche und prüft die Datenschutzerklärung anhand eines festgelegten Katalogs an Testkriterien. Abschließend wird eine Bewertung auf Basis der Form und des Inhalts vorgenommen.
In dieser Arbeit wird der SAUZEROR-Algorithmus für Nukleotidstrukturen angepasst und auf seine Funktionalität und Performanz überprüft. DNA- und RNA-Strukturen sind in jeder lebenden Zelle vorhanden. Bei den RNA Strukturen haben die ncRNA eine immer größer werdende Bedeutung und die Funktion der ncRNA liegt in ihren geometrischen Aufbau. Der SAUZERORAlgorithmus erzeugt durch 3D-Koordinaten einer RNA-Struktur eine zER-Profil, welches eine 1D Repräsentation des Moleküles wiederspiegelt. Die zER-Profile können mit dynamsicher Programmierung aligniert werden und durch verschiede Scorings (zER-Score, NORM-Score, RMSD, GDT-TS oder TM-Score) bewertet werden. Für die Funktionalitätsprüfung wurden einzelene t-RNAs herangezogen und verglichen. Bei der Performanz ist der balance-x-FSCOR Benchmark benutzt wurden. Das Ergebnis war, dass der SAUZEROR-Algorithmus die wenigste Zeit benötigt und die zweitbeste Performanz abliefert.
Das Bundesamt für Umwelt definiert Endokrine Disruptoren als ,,Chemikalien oder Mischungen von Chemikalien, die die natürliche biochemische Wirkweise von Hormonen stören und dadurch schädliche Effekte (…) hervorrufen.‘‘ [Umweltbundesamt, 2020]. Zum Schutz von Mensch und Natur ist eine effektive Eliminierung von diesen Substanzen notwendig, was jedoch eine sensitive Detektion voraussetzt. Mit Hilfe von Reporter-Gen-Assays wie z.B. dem A-YES lassen sich estrogenwirksame Substanzen in Wasser nachweisen. Im Zuge der kontinuierlichen Optimierung der Hefezell-Assays der new_diagnostics GmbH sollte in dieser Arbeit durch Integration des alternativen Reporterenzyms Meerrettichperoxidase (HRP) in Hefebiosensoren die Möglichkeit geprüft werden, inwieweit eine Verbesserung der Testsensitivität und/oder die Vereinfachung von Verfahrensabläufen möglich ist. Nach Aufbau dafür notwendiger Hrp-Kassetten bzw. Plasmide konnte gezeigt werden, dass diese erfolgreich in den Hefesystemen d.h. in A. adeninivorans und in S. cerevisiae integriert werden konnten. Für die Bewertung der Funktionalität von hefeproduzierter HRP wurde im Vorfeld eine Analytik etabliert, die die Detektion funktionaler HRP bis zu einer Konzentration von ca. ≥ 0,2 Units/ml ermöglichte.
Der Videospielmarkt weltweit wächst immer weiter. Durch die hohe Nachfrage und das entsprechend große Angebot wird die Aufgabe des Marketings in der Videospielentwicklung immer wichtiger. Die meisten jungen Entwicklerstudios achten allerdings wenig auf das Marketing. Durch den übersättigten Markt sind gute Marketingmaßnahmen unverzichtbar für den Erfolg des Spiels geworden. Die vorliegende Arbeit zeigt auf, wie sich Maßnahmen mit dem Game Design verbinden lassen, um die erfolgreiche Vermarktung des Produkts zu gewährleisten. Diese Handlungsempfehlung wurde verfasst, um jungen Entwicklern eine Hilfestellung zu geben, wie sich das Marketing bereits während der Entwicklung in diesen Prozess integrieren lässt.
Introducing natural adversarial observations to a Deep Reinforcement Learning agent for Atari Games
(2021)
Deep Learning methods are known to be vulnerable to adversarial attacks. Since Deep Reinforcement Learning agents are based on these methods, they are prone to tiny input data changes. Three methods for adversarial example generation will be introduced and applied to agents trained to play Atari games. The attacks target either single inputs or can be applied universally to all possible inputs of the agents. They were able to successfully shift the predictions towards a single action or to lower the agent’s confidence in certain actions, respectively. All proposed methods had a severe impact on the agent’s performance while producing invisible adversarial perturbations. Since natural-looking adversarial observations should be completely hidden from a human evaluator, the negative impact on the performance of the agents should additionally be undetectable. Several variants of the proposed methods were tested to fulfil all posed criteria. Overall, seven generated observations for two of three Atari games are classified as natural-looking adversarial observations.
Die Biometrie ist eine Methode für die Zugriffssicherung auf sensible Daten, welche sich seit dem letzten Jahrzehnt immer mehr durchgesetzt hat. Sie wird vor allem in dem Bereich mobiler Endgeräte verbreitet eingesetzt, da die Implementierung kostengünstig ist. Außerdem muss sich der Benutzer keine Zugangsdaten merken, um Zugriff zu erlangen. Mit dem zunehmenden Nutzen werden jedoch auch Ansätze evaluiert, um diese Sicherheitsbeschränkungen von biometrischen Systemen zu umgehen.
In dieser Arbeit werden Ansätze evaluiert, um Zugang zu gesicherten Daten für forensische Zwecke zu erhalten. Bei Straftaten ist es entscheidend, in kurzer Zeit an die benötigten Daten zu kommen. Mit einem Brute-Force-Angriff kann es jedoch mehrere Jahre dauern, Passwörter zu knacken. Daher kann die Biometrie eine schnellere Lösung sein, um mobile Geräte zu entsperren. Hier liegt der Fokus auf der Erstellung von Fingerabdruck-Artefakten, um sich Zugang zu verschaffen.
Um diese These zu überprüfen, werden Experimente mit verschiedenen Ansätzen durchgeführt, um gängige Typen von Fingerabdrucksensoren zu umgehen. Zu Beginn wurden 2D-Ansätze evaluiert. Hierbei werden Fingerabdrücke mit einem Laserdrucker auf verschiedenste Materialien gedruckt. Als nächstes werden 3D-Ansätze getestet, wozu ein SLA Drucker verwendet wird. Darüber hinaus sind Hilfsmittel evaluiert worden, um die Eigenschaften der Fingerabdruckartefakte zu verbessern, damit sie sich mehr wie ein menschlicher Finger verhalten.
Die Experimente zeigen, dass es möglich ist, Fingerabdrucksensoren mit Artefakten zu umgehen, um an gesicherte Daten zu gelangen. Optische Sensoren akzeptieren 2D gedruckte Fingerabdrücke. Im Gegensatz dazu benötigen kapazitive und ultraschallbasierte Sensoren andere Artefakte. Wir konnten die Sicherheitssperre mit 3D Fingerabdrücken überwinden. Darüber hinaus sind Hilfsmittel nützlich, wenn eine Lebenderkennung integriert ist.
Das Ziel der vorliegenden Arbeit war es, den Deliktbereich Cybercrime auf Vorhersagbarkeit seiner Verbrechensrate zu testen. Diese Testung erfolgte, indem nach Trends und Gesetzmäßigkeiten innerhalb der bisherigen Geschehnisse des
Deliktbereichs gesucht wurde, wozu Daten der Polizeilichen Kriminalstatistik herangezogen wurden. Die Suche nach Trends und Gesetzmäßigkeiten erfolgte, indem versucht wurde, auf Basis eines Hidden-Markov-Modells diejenigen Parameter zu identifizieren, anhand derer sich die aussagekräftigsten Gesetzmäßigkeiten bilden ließen. Die Arbeit basiert auf PUX, eine vom Autor erstellte Webtechnologie-basierte Anwendung, mit der PKS-Daten gespeichert und mit Hilfe von Visualisierung und Simulation erforscht werden können.
In dieser Bachelorarbeit wird die theoretische Planung einer digitalen Windows-Laborumgebung beschrieben, welche zur Untersuchung von Schadsoftware genutzt werden soll. Mithilfe von virtuellen Maschinen wird ein Modell eines Firmennetzwerkes konzipiert. Es wird sich unter anderem mit den Themen Virtualisierung, Microsoft Active Directory, Microsoft Exchange Server und Malwareanalyse befasst.
Extraktion und Aufreinigung verschiedener Kollagentypen und deren Fähigkeit der Selbstassemblierung
(2021)
Ziel der Masterarbeit ist es, Kollagen aus verschiedenen Gewebearten zu extrahieren und nach Selbstassemblierung hinsichtlich ihrer Morphologie zu untersuchen. Zusätzlich sollten einzelne Typen mit Hilfe chromatographischer Methoden isoliert werden. Dabei wird der Fokus auf die Typen Ⅰ, Ⅱ und Ⅲ gelegt. Dafür wird zunächst das kollagenhaltige Gewebe verdaut und im Anschluss das Kollagen via Salzfällung extrahiert. Es wird mit Hilfe von Assemblierungskurven und der Darstellung mit einem Rasterkraftmikroskop untersucht, wie sich dieses Kollagen unter verschiedenen Bedingungen selbstassembliert. Das gewonnene Kollagen soll außerdem mit einer Zonenpräzipitationschromatographie in einzelne Typen unterteilt werden. Zuletzt folgt eine Evaluierung der angewendeten Methoden.
Möglichkeiten der technischen Umsetzbarkeit für die Erstellung eines digitalen Leichenmodells
(2021)
Diese Machbarkeitsstudie beschäftigt sich mit der Prüfung von Möglichkeiten der technischen Umsetzbarkeit für die Erstellung eines digitalen Leichenmodells. Anhand von Informationen der forensischen Bildgebung sowie der Oberfläche des Leichnams, soll die Anfertigung eines digitalen Leichenmodells erfolgen. Dafür wird zunächst der Leichnam durch eine postmortale Computertomografie sowie eine Angiografie basierend auf der Computertomografie dargestellt. Darauffolgend wird die Oberfläche durch Informationen eines handgeführten Laserscanners rekonstruiert. Unter Verwendung verschiedener Methoden lassen sich die erhobenen Daten mit denen der forensischen Bildgebung anreichern und kombinieren. Das Vorgehen sowie Herstellung des digitalen Leichenmodells wird näher betrachtet und eingehend erläutert. Abschließend soll das digitale Leichenmodell animiert in den rekonstruierten Tatort eingefügt werden, um den Tathergang bestmöglich wiederzugeben. Die Erkenntnisse der möglichen Abläufe werden folgend in der Machbarkeitsstudie diskutiert und beurteilt. Letztendlich erfolgt der Vergleich des verwendeten Laserscanners mit einem neueren Modell der gleichen Marke sowie des Laserscanverfahrens mit der Fotogrammmetrie.
Diese Arbeit stellt verschiedene Datenbankmanagementsysteme vor und vergleicht diese, um ein, für die Aufgabenstellung geeignetes, Datenbanksystem auszuwählen. Die Aufgabenstellung umfasst die Erstellung einer Datenbank zur Speicherung und Suche nach Login Daten, welche aus DatenLeaks stammen. Zum durchsuchen der Datenbank soll eine Oberfläche in Form einer Webseite Programmiert werden, die es zudem auch erlaubt entsprechende Textdateien mit Login Daten hochzuladen. Die hochgeladenen Dateien sollen automatisiert Analysiert werden und die so extrahierten Passwörter und Nutzernamen in die Datenbank zu schreiben.
Evaluierung der Microsoft HoloLens für den Einsatz der KI-basierten forensischen Personenanalyse
(2021)
Diese Arbeit betrachtet verschiedene Methoden aus dem Machine-Learning, geht im genaueren auf Deep-Neural-Networks ein und versucht diese für die forensische Personenanlyse einzusetzen. Gestützt wurde sich auf auf das MediaPipe-Framework.
Die HoloLens 1 schränkte die Möglichkeiten darauf ein, Bildaufnahmen auf ihr zu tätigen und die Inferenz an einer externen Maschine auszuführen. Um die Möglichkeit der Inferenz auf AR-Geräten zu ermöglichen weiter zu untersuchen, wurden die aktuelle Forschung im Bereich von Edgie-AI betrachtet.
Die HoloLens 1 bietet keine Möglichkeit die Inferenz der aktuellen Frameworks auf dem Gerät durchzuführen. Es konnte eine Inferenz auf einer externen Maschine durchgeführt werden und an die HoloLens übertragen werden. Weiter wurde die aktuelle Forschung betrachtet, welche sich mit spezialisierten Hardware für die Inferenz von NN betrachtet.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher unter den Betriebssystemen Microsoft Windows und Linux der Web Clients der Instant-Messengerdienste WhatsApp und Telegram aus forensischer Perspektive beleuchtet. Hierfür werden die technischen Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät im Internetcache enthaltene Artefakte digital forensisch analysiert und diskutiert. Die gewonnenen Erkenntnisse sollen zukünftige forensische Untersuchungen, bei denen Instant-Messengerdienste wie WhatsApp oder Telegram eine Rolle spielen, vereinfachen und die Interpretation der gefundenen Artefakte unterstützen.
Diese Arbeit thematisiert die Konzeption und Durchführung einer Studie, welche die inner- und interpersonellen Koordinationsmuster in Videospielen mit multipler Eingabe anhand eines lokalen Softwareprototypen untersucht. Im Rahmen dieses Projekts dient ein konzipierter Softwareprototyp mit einem angepassten Gamedesign auf Koordinationsherausforderung als Prototyp für die Studie mit einer Einzelspielergruppe und einer Multiplayergruppe. Die Koordinationsmuster werden in einer Studie durch einen Fragebogen und einen Probandentest mit drei Durchläufen der Level des Softwareprototypen ermittelt und analysiert. Die Ergebnisse zeigen, dass die interpersonellen Koordinationsmuster der Multiplayer nach dem ersten Durchlauf den innerpersonellen Koordinationsmustern unterlegen sind. Die Kommunikation als interpersonelles Koordinationsmuster scheint eine verlangsamende Wirkung im ersten Durchlauf zu besitzen. Beide Gruppen weisen Vermeidungsstrategien und Vereinfachungsstrategien der koordinatorischen Herausforderungen auf. Hinsichtlich der gesammelten Erfahrungen bezüglich der koordinatorischen Aufgaben zeigt sich über die Durchläufe hinweg eine Verbesserung, insbesondere beim Zeitaspekt sowie eine Annäherung der Werte beider Gruppen aneinander.
Die vorliegende Arbeit beschäftigt sich mit der Anwendung der erweiterten DNA-Analyse innerhalb der Strafverfolgung. Dadurch ergeben sich sowohl Chancen als auch Risiken, welche vorgestellt werden. Dazu erfolgt die Betrachtung
verschiedener Testsysteme zur Bestimmung der phänotypischen Merkmale aus einer anonymem DNA-Spur und deren Genauigkeiten. Außerdem wird die Altersbestimmung von unbekannten DNA-Spuren beschrieben. Des Weiteren erfolgt die Prüfung des § 81 e Ⅱ 2 StPO auf seine Verhältnismäßigkeit. Anschließend leitet sich aus den verschiedenen Betrachtungsweisen eine persönliche Stellungnahme ab.
Die Arbeit beschäftigt sich mit der orientierenden Untersuchung von Abwasserprobenahmestellen in Abwasseraufbereitungsanlagen des ZWA Hainichens auf den Parameter Legionella spec.. Es sollen eventuelle Gefährdungspotentiale aufgedeckt werden, um die Arbeitssicherheit vor Ort zu gewährleisten. Weiterhin soll eine Aussage darüber getroffen werden, welche der beiden angewandten Methoden besser für den Nachweis der Legionellen in den Anlagen geeignet ist. Der Nachweis erfolgt nach der DIN 11731:2017 und dem Legiolert®-Verfahren.
Liegt in menschlichen Zellen eine Mutation im Enzym Isocitrat-Dehydrogenase 1 (IDH1) vor, kommt es zur einer erhöhten Produktion des Metaboliten D-2-Hydroxyglutarat (D2HG), wodurch die Entstehung weiterer Mutationen begünstigt wird. Um das IDH1-Enzym zu inhibieren und damit die D2HG-Konzentration in den Zellen zu verringern, sollten die Wirkstoffe AGI-5198 und FMLW-12 getestet werden. Dabei wurde zum einen die Zelllinie HT1080 mit der IDH1-Mutation R132C und zum anderen die Referenzzelllinien HeLa und 143B, die den Wildtyp aufweisen, verwendet.
Bei der Kultivierung der Zelllinie HT1080 mit AGI-5198 konnte neben einer langsameren Proliferation der Zellen auch eine Verringerung der D2HG-Konzentration beobachtet werden, was zeigt, dass AGI-5198 das mutierte IDH1 inhibiert. Bei HeLa und 143B zeigte sich keine Veränderung der D2HG-Konzentration, allerdings wirkte AGI-5198 in höheren Konzentrationen toxisch auf 143B.
Auch der Wirkstoff FMLW-12 konnte die D2HG-Konzentration in der Zelllinie HT1080 senken, während HeLa und 143B nicht beeinflusst wurden. Jedoch musste das Detergens Digitonin zur Permeabilisierung der Zellmembran eingesetzt werden, da FMLW-12 diese ansonsten nicht passieren konnte.
Die vorliegende Bachelorarbeit befasst sich mit der Rauheitsanalyse von Knochen auf Basis von Schräglichtaufnahmen. Die Schräglichtaufnahmen wurden mit Hilfe der Skelettbestände und dem Equipment der Hochschule Mittweida erstellt. Die entstanden Bilder wurden einer Hauptkomponentenanalyse unterzogen. Anhand der Ergebnisse wurden die Maxima und Wendepunkte jedes Knochens bestimmt und innerhalb eines Skeletts sowie über mehrere Zeitstellungen miteinander verglichen. Es wurden zwei Skelette aus dem Gräberfeld Görzig, zwei Skelette aus dem Gräberfeld Rödelheim und elf rezente Knochen untersucht. Die Zeitstellungen teilten sich in ca. 300 n. Chr., das Jahr 1813 und die 1980er Jahre. Die Erkenntnisse aus dieser Arbeit können die Rauheitsanalyse und Altersschätzung vereinfachen und digitalisieren.
Die vorliegende Arbeit befasst sich mit der dynamischen Speicherung und visuellen Darstellung von Metainformationen im Data Warehouse und Business Intelligence Umfeld. Ziel der Diplomarbeit ist es, eine Softwarelösung zu entwickeln, die es ermöglicht, Metainformationen dynamisch zu speichern und in Form von Graphen schnell und einfach zu visualisieren.
Im Data Warehouse und Business Intelligence Umfeld gibt es eine Vielzahl von Metainformationen, die in strukturierter Form (XML/CSV-Dateien, Datenbank-Tabellen usw.) vorliegt, aber über keine visuelle Darstellung verfügt. Auf Basis der geplanten visuellen Darstellung in Form von Graphen im Rahmen der Diplomarbeit kann die „Data-Lineage“ dargestellt werden und „Impact Analysen“ sind dadurch möglich.
Die Softwarelösung ermöglicht den Benutzern, mittels der graphischen Darstellung auf die benötigten Informationen zuzugreifen.
Entwicklung einer Methode zur Empfehlung von Suchbegriffen
und -phrasen im forensischen Kontext
(2021)
Diese Arbeit befasst sich mit der Entwicklung einer Methode zur Empfehlung von Suchbegriffen und -phrasen im forensischen Kontext. In der forensischen Fallarbeit stellen Kurznachrichten auf mobilen Endgeräten eine zentrale Beweisquelle dar. Häufig sind Ermittler hierbei mit umfangreichen Chatverläufen konfrontiert. Das Ziel besteht darin, den Ermittler bestmöglich bei der Arbeit mit der enormen Datenmenge zu unterstützen, indem ihm die relevantesten Begriffe des Datensatzes vorgeschlagen werden. Hierfür wurden unter anderem Algorithmen der Keyword Extraction, der explorativen Datenanalyse sowie des Word Association Minings untersucht. Als erfolgversprechendste Ansätze erwiesen sich das Topic Modeling mit einer Term-Kookkurrenzmatrix als Eingabe, die Vorhersage von thematisch ähnlichen Begriffen mittels der Latent Dirichlet Allocation sowie die Analyse von paradigmatischen Relationen.
Im Folgenden wird sich mit der Blutspurenmusteranalyse beschäftigt. Hierzu werden in der folgenden Arbeit drei Experimente vorgestellt bei denen verschiedene Arten von Blutspuren hergestellt werden und somit eine große Datenbank an fotographisch festgehaltenen Blutspuren erstellt wird. Diese Datenbank hilft dann den Prozess der Analyse von Blutspuren zu automatisieren. Die Bilder werden dazu benutzt ein neuronales Netz zu trainieren und anhand des Trainings wird evaluiert, wie präzise das Netz ist.
RNA tertiary contact interactions between RNA tetraloops and their receptors stabilize the folding of ribosomal RNA and support the maturation of the ribosome. Here we use FRET assisted structure prediction to develop structural models of two ribosomal tertiary contacts, one consisting of a kissing loop and a GAAA tetraloop and one consisting of the tetraloop receptor (TLR) and a GAAA tetraloop. We build bound and unbound states of the ribosomal contacts de novo, label the RNA in silico and compute FRET histograms based on MD simulations and accessible contact volume (ACV) calculations. The predicted mean FRET efficiency from molecular dynamics (MD) simulations and ACV determination show agreement for the KL-TLGAAA construct. The KL construct revealed too high FRET efficiency and artificial dye behavior, which requires further investigation of the model. In the case of the TLR, the importance of the correct dye and construct parameters in the modeling was shown, which also leads to a renewed modeling. This hybrid approach of experiment and simulation will promote the elucidation of dynamic RNA tertiary contacts and accelerate the discovery of novel RNA interactions as potential future drug targets.
Das Ziel der vorliegenden Bachelorarbeit ist es, digitale Spuren im Speicher eines elektrischen Tretrollers zu untersuchen. Der Roller stammt aus einem ehemaligen Verleihsystem und es existiert von Beginn dieser Arbeit an keine Kenntnis darüber, ob digitale Informationen auf dem Speicher zugänglich und überhaupt vorhanden sind. Es wird resultierend aus der vergangenen Nutzung des Rollers innerhalb des „Sharing-Angebotes“ davon aus gegangen, dass entsprechende Daten erzeugt worden sind. Dazu können Informationen zählen, die z.B. Aufschluss über die zurückgelegte Strecke geben. Es gilt herauszufinden, ob sich diese und auch andere Daten auf dem Speicher der „IoT-Elektronik“ des Rollers befinden. In Abhängigkeit des Resultates liegt der Fokus auf entsprechender Rekonstruktion dieser Daten. Soweit es machbar erscheint, obliegt ein weiterer Analyseaspekt der Firmware des E-Scooters, um das Zusammenspiel der lokalen Hardware-Komponenten und des entfernten „Backends“ nachvollziehen zu können. Der Roller wird für diese Bachelorarbeit physisch zerlegt und es kommen unterschiedliche, software-basierte Werkzeuge für die Analyse zum Einsatz.