Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Maskenentwurf parametrisierbarer optoelektronischer Bauelemente einschließlich Entwurfsregelprüfung
(2017)
In diesem Projekt wird die Erstellung eines Satzes lithographischer Masken für die Halbleiterbearbeitung behandelt. Als Basis dient ein gut verstandenes Bauelement aus dem Bereich der Optoelektronik, eine Fotodiode. Diese wird im Rahmen des Diplomprojektes parametrisierbar entwickelt und entworfen sowie programmiert. Der Entwurf wird dann auf der Grundlage zu definierender Regeln einer Entwurfsregelprüfung unterzogen. Ziel dieser Arbeit ist es, die technologischen sowie funktionalen Regeln im Programm abzubilden.
In bioinformatics one important task is to distinguish between native and mirror protein models based on the structural information. This information can be obtained from the atomic coordinates of the protein backbone. This thesis tackles the problem of distinction of these conformations, looking at the statistics of the dihedral angles’ distribution regarding the protein backbone. This distribution is visualized in Ramachandran plots. By means of an interpretable machine learning classification method – Generalized Matrix Learning Vector Quantization – we are able to distinguish between native and mirror protein models with high accuracy. Further, the classifier model supplies supplementary information on the important distributional regions for distinction, like α-helices and β-strands.
The games industry has significantly grown over the last 30 years. Projects are getting bigger and more expensive, making it essential to plan, structure and track them more efficiently.
The growth of projects has increased the administrative workload for producers, project managers and leads, as they have to monitor and control the progress of the project in order to keep a permanent overview of the project. This is often accompanied by a lack of insight into the project and basic communication within the team. Therefore, the goal of this thesis is to enhance conventional project management methods with process structures that occur frequently in game development.
This thesis initially elaborates on what project management in the game industry actually is: Here, methods are considered, especially agile methods and progress tracking prac-tices, which were created for software development and have become a standard in game development. Subsequently, an example is used to demonstrate how process management can function within the development of video games. Based on this, the ideal is depicted, which is implemented and used in a tool at the German games studio KING Art GmbH. This ideal is compared with expert interviews in order to verify its gen-eral validity in the industry.
By integrating process structures, the administrative effort can be reduced, communica-tion within game development can be simplified, while the current project status can be permanently presented. This benefits both project management and leads, as well as the entire team. Further application tests of this theory would have to be organized to check scalability and to draw comparisons to other applications.
Brassica oleracea like all crucifers plants have a defense mechanism against natural enemies, which are chemical compounds formed form the enzymatic degradation of glucosinolates. In the presence of epithiospecifier proteins (ESP), the hydrolysis of glucosinolates will form epithionitriles or nitriles depending on the glucosinolate structure, This research proved that three predicted sequences (ESP) taken from NCBI database has a role in the enzymatic hydrolysis of glucosinolates in Brassica oleracea.
Diese Arbeit behandelt die Wirkungsweise von optischen Reizen in Videospielen, sowie deren Einfluss auf instinktive Handlungen von Spielern. Es soll dabei untersucht werden, ob sich diese Reize von elementaren Prinzipien erfolgreicher Level Design Ansätze ableiten lassen. Hierfür wird auf Grundlage einer umfassenden Recherche eine modulare Testkammer im Stil eines Puzzlespiels konzipiert und umgesetzt. Die Probanden werden bei der Lösung acht verschiedener Bereiche beobachtet und protokolliert sowie zu einzelnen Aspekten befragt. Bei der Auswertung dieser stellen sich Farbunterschiede und starke Farbkonstraste als wirksamste optische Reize heraus.
Für eine akkurate Analyse der Auswirkungen auf instinktive Handlungsmuster, sind umfangreichere Vor-Untersuchungen in Bereichen der Psychologie von Instinkten und visuellen Wahrnehmung notwendig.
Innerhalb dieser Arbeit wurde geprüft, ob die Sensorgröße einer digitalen Kamera einen Einfluss auf Umfang und Qualität von photogrammetrisch erstellter 3D Modelle besitzt. Konkret wurden die Kameras Lumix GC91-M und Nikon D7500 für diese Arbeit verwendet. Dafür wurden zwei verschiedene Versuchsaufbauten entworfen. Im ersten Versuchsaufbau wurde geprüft, wie zuverlässig die Wiedergabe von dreidimensionalen Objekten auf großflächigen Strukturen ist. Im zweiten Versuchsaufbau wurde die Wiedergabe von komplexen dreidimensionalen Strukturen überprüft. Mit der Software "Agisoft Metashape" wurden automatisiert 3D Modelle erstellt. Im Rahmen dieser Arbeit konnte gezeigt werden, dass die Sensorgröße einen geringen Einfluss auf die Modelle besitzt. Dieser zeigt sich vor allem bei geringen Abständen (einen Meter) zu dem fotografierten Objekt.
The emerging Internet of Things (IoT) technology interconnects billions of embedded devices with each other. These embedded devices are internet-enabled, which collect, share, and analyze data without any human interventions. The integration of IoT technology into the human environment, such as industries, agriculture, and health sectors, is expected to improve the way of life and businesses. The emerging technology possesses challenges and numerous
security threats. On these grounds, it is a must to strengthen the security of IoT technology to avoid any compromise, which affects human life. In contrast to implementing traditional cryptosystems on IoT devices, an elliptic curve cryptosystem (ECC) is used to meet the limited resources of the devices. ECC is an elliptic curve-based public-key cryptography which provides equivalent security with shorter key size compared to other cryptosystems such as Rivest–Shamir–Adleman (RSA). The security of an ECC hinges on the hardness to solve the elliptic curve discrete logarithm problem (ECDLP). ECC is faster and easier to implement and also consumes less power and bandwidth. ECC is incorporated in internationally recognized standards for lightweight applications due to the
benefits ECC provides.
Die Digitalisierung überschreitet jedes Jahr neue Grenzen, besonders in Zeiten von Covid-19. Dadurch werden vermehrt Privatcomputer für die Arbeit genutzt und vice versa. Durch die Vermischung von Privat- und Unternehmensdaten gewinnen immer mehr Cyberkriminelle Zugang zu sensiblen Daten mit welchen sie Unternehmen und Privatpersonen angreifen könnten. Zusätzlich professionalisieren sich die Täter und verwenden sich stetig verbessernde Schadsoftwaren. Um mögliche Angriffsvektoren zu simulieren wird eine Testumgebung erstellt, zum Testen solcher Attacken. Diese Arbeit wird zur Erschaffung einer möglichst sicheren Arbeitsumgebung erstellt. Schlussendlich sollen mit dem Wissen von Angriffsvektoren Leser, Studierende und Fachpersonal weitergebildet werden.
Untersuchungen zu Chancen und Limits von Texture Maps im Umfeld der Entwicklung digitaler 3D Spiele
(2017)
Der Fortschritt in Computerhard- und software ermöglicht der Spieleindustrie, immer technisch versiertere digitale Spiele zu entwickeln. Besonders der Bereich des 3D und 2D Designs profitiert davon, obgleich immer noch Grenzen vorzufinden sind, welche in Hinsicht auf die Generierung von Game Assets zu berücksichtigen sind. Die vorliegende Arbeit untersucht dabei den aktuellen Forschungsstand und analysiert diesbezüglich Chancen und Limits sogenannter Texture Maps zur Erzeugung von Detail auf dreidimensionalen Objekten. Die Resultate dieser Untersuchung sollen am ausgewählten Beispiel der Videospielreihe Tomb Raider aufgezeigt werden.
Innerhalb dieser Bachelorarbeit werden Adaptive Musik, unterschiedliche Techniken der Videospielmusik und Elemente der Musiktheorie vorgestellt. Um die adaptiven und klanglichen Fähigkeiten der unterschiedlichen Techniken, welche sich während der Entwicklung der Videospiele etabliert haben, aufzuzeigen, wird final eine Übersicht darüber erstellt.
In the following study we evaluated capabilities of how a simple autoencoder can be used to trainGeneralized Learning Vector Quantization classifier. Specifically, we proved that the bottlenecks of an autoencoder serve as an "information filter" which tries to best represent the desired output in that particular layer in the statistical sense of mutual information.
Autoencoder model was trained for purely unsupervised task and leveraged the advantages by learning feature representations. As a result, the model got the significant value of the accuracy. Implementation and tuning of the model was carried out using Tensor Flow [1].
An extra study has been dedicated to improve traditional GLVQ algorithm taken from sklearn-lvg [2] using the bottleneck from an autoencoder.
The study has revealed potential of bottlenecks of an autoencoder as pre-processing tool in improving the accuracy of GLVQ. Specifically, the model was capable to identify 75% improvements of accuracy in GLVQ comparing to original one, which has about 62%. Consequently, the research exposed the need for further improvement of the model in the present problem case.
A Protein is a large molecule that consists of a vast number of atoms; one can only imagine the complexity of such a molecule. Protein is a series of amino acids that bind to each other to form specific sequences known as peptide chains. Proteins fold into three-dimensional conformations (or so-called protein’s native structure) to perform their functions. However, not every protein folds into a correct structure as a result of mutations occurring in their amino acid sequences. Consequently, this mutation causes many protein misfolding diseases. Protein folding is a severe problem in the biological field. Predicting changes in protein stability free energy in relation to the amino acid mutation (ΔΔG) aids to better comprehend the driving forces underlying how proteins fold to their native structures. Therefore, measuring the difference in Gibbs free energy provides more insight as to how protein folding occurs. Consequently, this knowledge might prove beneficial in designing new drugs to treat protein misfolding related diseases. The protein-energy profile aids in understanding the sequential, structural, and functional relationship, by assigning an energy profile to a protein structure. Additionally, measuring the changes in the protein-energy profile consequent to the mutation (ΔΔE) by using an approach derived from statistical physics will lead us to comprehend the protein structure thoroughly. In this work, we attempt to prove that ΔΔE values will be approximate to ΔΔG values, which can lead the future studies to consider that the energy profile is a good predictor of protein binding affinity as Gibbs free energy to solve the protein folding problem.
Probabilistic Micropayments
(2022)
Probabilistic micropayments are important cryptography research topics in electronic commerce. The Probabilistic micropayments have the potential to be researched in order to obtain efficient algorithms with low transaction costs and high speeding computer power. To delve into the topic, it is vital to scrutinize the cryptographic preliminaries such as hash functions and digital signatures. This thesis investigates the important probabilistic methods based on a centralized or decentralized network. Firstly, centralized networks such as lottery-based tickets, Payword, coin-flipping, and MR2 are described, and an approach based on blind signatures is also discussed. Then, decentralized network methods such as MICROPAY3, a transferable scheme on the blockchain network, along with an efficient model for cryptocurrencies, are explained. Then we compare the different probabilistic micropayment methods by improving their drawback with a new technique. To set the results from the theoretical analysis of different methods into some context, we analyze the attacks that reduce the security and, therefore, the system’s efficiency. Particularly, we discuss various methods for detecting double-spending and eclipse attacks occurrence
Digital data is rising day by day and so is the need for intelligent, automated data processing in daily life. In addition to this, in machine learning, a secure and accurate way to classify data is important. This holds utmost importance in certain fields, e.g. in medical data analysis. Moreover, in order to avoid severe consequences, the accuracy and reliability of the classification are equally important. So if the classification is not reliable, instead of accepting the wrongly classified data point, it is better to reject such a data point. This can be done with the help of some strategies by using them on top of a trained model or including them directly in the objective function of the desired training model. We discuss such strategies and analyze the results on data sets in this thesis.
Die hochschuleigene Veranstaltungsreihe beta (Base of Technology, Entertainment and Arts) ist eine studentisch organisierte Fachkonferenz, welche seit 2015 von den Medieninformatik-Studenten des fünften Semesters im Rahmen des Abschlussprojekts des Moduls Game Development organisiert wird. Begleitet durch einen vergleichsweise kurzen Projektzeitraum von ca. 5 Monaten und einem zu erwartenden kleinen Eventmanagement-Team stehen die verantwortlichen Organisatoren dabei in jedem Jahr vor der anspruchsvollen Aufgabe, neben vielen anderen Tätigkeitsfeldern seine Öffentlichkeitsarbeit zu leiten.
Der Fokus dieser Abschlussarbeit besteht darin, einen Leitfaden zu konzipieren, der zukünftige Eventmanagement-Teams in dieser Aufgabe unterstützt. Dabei erarbeitet der Verfasser wirtschaftsnahe Methoden zur Entwicklung einer Public-Relations-Strategie sowie konkrete Vorgehensweisen zur Vorbereitung, Durchführung sowie Nachbereitung der PR eines Events. Die Etablierung von strategischen Evaluationsplänen strebt die Möglichkeit zur effektiven (stark begrenzten) Ressourcenplanung an.
The application described in this thesis has been created, built and designed to help nurses or any medical personnel all around the world in being able to access a real-time database to store patient records like Patient Name, Patient ID, Patient Age and Date of Birth, and the Symptoms that the patient is experiencing. A real-time database is a live database where all changes made to it are reflected across all devices accessing it. This application will be beneficial especially in countries where access to a computer or medical equipment is not always possible. A phone is always ready use and at the reach of the hand, users of this application will always be able to access the data at any given time and place. We will be able to add a new patient or search for existing patients. In addition, this application allows us to take RAW medical images that can be used to identify anomalies in the blood sample. RAW images are important for this application because they’re uncompressed, which means, they do not lose any quality or details. The users of this application are the medical personnel that will be taking care of the patients. These users will have to create a profile on the database in order to use the application, since their data, like user ID, will be used in order to control the behaviour of the data retrieved and stored. We will also discuss the current and future features of this application, as well as, the benefits of this application when it comes to the medical personnel, as well as patients. Finally, we will also go
over the implementation of such application from a hardware perspective, as well as a software one.
Die ubiquitäre, anthropogene Ausbreitung von pharmazeutischen Substanzen in der Umwelt, stellt ein weitreichendes Problem für alle Lebewesen dar. Hormone, die auf unterschiedlichsten Wegen in den aquatischen Lebensraumgelangen, sind unter anderem verantwortlich für das Fischsterben. Da sich die Anwesenheit dieser Stoffe allgemein und besonders bei Hormonen in der Umwelt nur auf geringe Konzentrationen begrenzt und sie dabei dennoch ein großes Risiko darstellen, sind geeignete Methoden zum Nachweis und zur Entfernung dieser Stoffe aus dem aquatischen System notwendig. Diezbezüglich sollen bereits etablierte biosensorische Detektionsmethoden unter Einsatz von Aptameren untersucht werden, um niedermolekulare Substanzen zu detektieren. Das Zielmolekül stellt dabei das Hormon 17ß-Estradiol, dass auf der Beobachtungsliste der EU Wasserrahmenrichtlinie steht und zu welchem bereits spezifische Aptamere veröffentlich sind, dar.
Several algorithms have been proposed for the testing of series-parallel graphs in linear time. We give our alternate algorithms for testing series-parallel graphs, their tree decompositions, and the independence number when the input is undirected biconnected series-parallel graphs, which run (approximately) linearly in polynomial time.
Digitale 3D-Modelle finden zunehmend auch im Bereich der Kriminalistik Anwendung, da sie nicht nur zur dauerhaften Dokumentation eines Tatortes beitragen, sondern auch wertvolle Erkenntnisse hinsichtlich des Tatherganges liefern können. Die vorliegende Arbeit befasst sich mit der Überprüfung des Generierungsprozesses derartiger 3D-Modelle hinsichtlich der in der IT-Forensik geltenden Richtlinien für die Reproduzierbarkeit und Dokumentation. Diese Untersuchung ist von Bedeutung, da die digitale 3D Tatortrekonstruktion nicht nur für die Ermittler selbst Hinweise liefert, sondern auch vor Gericht maßgebliche Beweiskraft haben kann, insofern sie die Anforderungen erfüllt. Für die Überprüfung wurden die beiden Softwarelösungen Agisoft Metashape und Meshroom genutzt, um zahlreiche Modelle unterschiedlicher Parametersets zu generieren. Anschließend wurden die mit gleichen Ausgangsbedingungen generierten Modelle hinsichtlich ihrer Ähnlichkeit verglichen, um so die Reproduzierbarkeit zu untersuchen. Mithilfe der Handbücher wurden zudem die einzelnen Prozessschritte näher betrachtet und somit die Möglichkeiten der Dokumentation überprüft.
Die Modellierung einer Tathergang-Simulation kann wichtige Hinweise und Ergebnisse zum Tatgeschehen liefern. Die gegenwärtige Technik befindet sich immer noch in der Entwicklungsphase. In dieser Arbeit wurde geprüft, ob das Game Engine Programm Unity für die Nutzung von Tathergang-Simulationen, basierend auf Menschmodellen, geeignet ist. Dafür wurde ein Fallbeispiel hinzugezogen, um mit dessen Hilfe eine Ragdoll in verschiedenen Simulationsszenarien testen zu können. Die modellierte Ragdoll wurde im Hinblick auf die Anpassungsfähigkeit an individuelle Menschmodelle getestet. Außerdem fand eine Berechnung des Impulses und der daraus resultierenden Geschwindigkeiten statt, die während der Simulationen entstanden sind.
In dieser Arbeit soll die Erweiterung eines bestehenden Spielprototypen durch visuell anreichernde Effekte vorgenommen und deren Auswirkung auf das Spielerlebnis untersucht werden. Dazu wird eine Testumgebung geschaffen, in der Tester mehrmals denselben Abschnitt in verschiedenen Intensitätsstufen der gestalteten Effekte durchspielen. Anschließend halten die Testpersonen ihre gesammelten Erfahrungen in ihrem jeweiligen Testdokument fest, welche schließlich ausgewertet werden, um die Auswirkung auf das Spielerlebnis qualifizieren zu können.
Die vorliegende Arbeit befasst sich mit der Konzeption und Planung einer web-basierten und teilweise automatisierten Serviceplattform zur Erfassung und Durchführung von Serviceaufträgen einer Servicestelle für Musikinstrumente. Das Hauptziel ist, dass diese Serviceinformationen auch dem Kunden selbst zur Verfügung gestellt werden und Ihm eine Kommunikation zur Servicestelle ermöglicht wird. Um diese Sessionbezogenen Zugriffe zu beschränken, soll ein System entwickelt werden, das sowohl die Verwendbarkeit als auch die Sicherheit der Datenweitergabe bedenkt. Zusätzlich soll durch die Funktionalität für die Firma die Zusammenarbeit zwischen der örtlich getrennten Serviceannahme und Servicedurchführung verbessert werden. Die Schaffung dieser Serviceplattform erfolgt zusammen mit der Neuerstellung eines modernen Webauftrittes.
In dieser Arbeit soll es um die Digitalisierung von Asservaten zur nachfolgenden Simulation im digitalen Raum handeln. Das Hauptaugenmerk soll dabei auf der Evaluation der Übertragbarkeit von Relationen zwischen den genannten Asservaten liegen. Zu zeigen soll sein, dass beim Anziehen einer Hose an einen Körper Relationen in Form individueller Falten entstehen, welche zum einen durch die Digitalisierung nicht verloren gehen sollen. Zum anderen soll analysiert werden inwieweit diese Relationen als Nebenprodukt bei dem Nachbau einer digitalen Anzieh-Simulation mit Hilfe der Digitalisate entstehen. Die Qualität dieser Relationen wird dabei im Vergleich zu den real-weltlichen Relationen Vergleichen. Neben der Hose als erstes Asservat wird sich außerdem einer Kleiderpuppe als zweites Asservat gewidmet. Die Kleiderpuppe bildet dabei eine Abstraktion zu einem menschlichen Körper auf Grund von Vereinfachungen dar. Auch wenn die Forensik über eine große Vielfalt an Methoden zur computergestützten Aufnahme, Analyse und Rekonstruktion von Spuren verfügt zeigt sich ein großer Bedarf hinsichtlich Techniken in Bezug auf die computergestützte Modellierung. Des Weiteren soll vor allem das Hauptaugenmerk von biometrischen Merkmalen wie beispielsweise Fingerabdrücken auf weitere wichtige Bestandteile eines Tatortes wie die Kleidung gerichtet werden. Mit Bezug auf diese Aussagen soll diese Arbeit zeigen, dass die Forensik zum aktuellen Zeitpunkt nicht über die benötigten Methoden verfügt, weshalb Methoden der Film- und Spieleindustrie benötigt werden. Eine spätere Evaluation soll dabei der Nutzen dieser Methoden hervorgehoben werden. Bei diesen Betrachtungen ist vor allem der Unterschied wichtig, dass bei der Film- und Spieleindustrie die gewählte Perspektive entscheidend für den Realitätsgrad der Simulierungen ist, wohingegen in der Forensik stets der höchste Realitätsgrad eines ganzen Abbildes angestrebt wird. Um den Nutzen in der Forensik zu analysieren wird der enthaltene Wahrheitsgehalt der Methoden evaluiert. So können zukünftig diese Erkenntnisse als Grundlagen für die Entwicklung eigener Methoden im Fachbereich der Forensik genutzt werden.
VQ-VAE is a successful generative model which can perform lossy compression. It combines deep learning with vector quantization to achieve a discrete compressed representation of the data. We explore using different vector quantization techniques with VQ-VAE, mainly neural gas and fuzzy c-means. Moreover, VQ-VAE consists of a non-differentiable discrete mapping which we will explore and propose changes to the original VQ-VAE loss to fit the alternative vector quantization techniques.
With the growing market of cryptocurrencies, blockchain is becoming central to various research areas relevant from a mathematical and cryptographic point of view. Moreover, it is capable of transforming the traditional methods involving centralized network operations into decentralized peer-to-peer functionalities. At the same time, it provides an alternative to digital payments in a robust and tamperproof manner by adding the element of cryptography, consequently making it traversable for an individual who is a part of the blockchain network. Furthermore, for a blockchain to be optimal and efficient, it must handle the blockchain trilemma of security, decentralization, and scalability constraints in an effective manner. Algorand, a blockchain cryptocurrency protocol intended to solve blockchain’s trilemma, has been studied and discussed. It is a permissionless (public) blockchain protocol and uses pure proof of stake as its consensus mechanism.
Mikrospektralphotometrie : Nachweis und vollständige Eliminierung von Blutspuren auf Textilfasern
(2022)
Der Nachweis des Blutes, seien es noch so minimale Mengen, ist bei den polizeilichen Ermittlungen von sehr hoher Bedeutung. Für den Nachweis sehr geringer Mengen Blut auf einzelnen Textilfasern wird die Mikrospektralphotometrie eingesetzt. Um den vorherrschenden Kenntnistand und eine Verifizierung dieser Methode ermöglichen zu können, werden verschiedene, mit Blut präparierte Faserarten, mit dieser Technik untersucht. Zudem werden verschiedene Reinigungsmittel getestet, um eine zerstörungsfreie Reinigung der Fasern von dem Blut zu ermöglichen. Damit kann das Farbspektrum der Fasern ohne die Beeinflussung von Blutanhaftungen aufgenommen werden. Dieses Spektrum ist in den polizeilichen Ermittlungen wichtig, um Spurenfasern dem Vergleichsmaterial zuordnen zu können.
Der Einsatz digitaler Mittel in der Tatortrekonstruktion soll in der Zukunft eine große Stütze in der Verbrechensaufklärung werden. Die Rekonstruktion des Bewegungsablaufs eines Opfers, ist als Bewegungsanalyse ein großer Teil dieses Forschungsgebietes. Um eine möglichst natürliche und anatomische korrekte Simulation der Bewegungsabläufe zu ermöglichen, werden Ragdollmodelle benötigt. Diese Arbeit befasst sich mit der Optimierung des Erstellungsprozesses und des Aufbaus dieser bereits bestehenden Ragdollmodelle, in der aktuellen forensischen Tathergangsrekonstruktion.
Im Rahmen dieser Arbeit wurde ein mikrofluidischer Chip mit dem speziellen Design für ein reversibles Vakuumbonding sowie der Fähigkeit zur hydrodynamischen Fokussierung entwickelt. Die Anwendung erfolgte mit der Zielstellung, DNA Origami mithilfe dieses mikrofluidischen Setups auf einer Oberfläche zu immobilisieren.
Due to the intractability of the Discrete Logarithm Problem (DLP), it has been widely used in the field of cryptography and the security of several cryptosystems is based on the hardness of computation of DLP. In this paper, we start with the topics on Number Theory and Abstract Algebra as it will enable one to study the nature of discrete logarithms in a comprehensive way, and then, we concentrate on the application and computation of discrete logarithms. Application of discrete logarithms such as Diffie Hellman key exchange, ElGamal signature scheme, and several attacks over the DLP such as Baby-step Giant-step method, Silver Pohlig Hellman algorithm, etc have been analyzed. We also focus on the elliptic curve along with the discrete logarithm over the elliptic curve. Attacks for the elliptic curve discrete logarithm problem, ECDLP have been discussed. Moreover, the extension of several discrete logarithms-based protocols over the elliptic curve such as the elliptic curve digital signature algorithm, ECDSA have been discussed also.
In dieser Arbeit wurden neuartige Proteasen aus psychrotoleranten Bakterienstämmen isoliert und auf ihre biochemischen Eigenschaften charakterisiert. Des Weiteren konnten S8 Familie Proteasen Gene amplifiziert werden und Unterschiede in der Aminosäuresequenz konnten in Zusammenhang mit den biochemischen Eigenschaften der Proteasen in Verbindung gebracht werden.
In dieser Arbeit geht es um die Validierung von Richard Bartles Modell der Spielerarchetypen in einem Einzelspieler-Videospiel. Das Modell wurde für die Entwicklung des Spiels Explorer Bot angewendet. Die Validität des Modells wurde anschließend über zwei Faktoren bestimmt. Zum einen wurden die Meinungen über Explorer Bot der Spieler mittels einer Umfrage aufgezeichet. Der andere Faktor besteht aus der Existenz der Archetypen unter den Spielern Explorer Bots.
Diese Arbeit beschreibt das methodische Vorgehen bei einem Penetrationstest. Am praktischen Beispiel einer Unified Communication Infrastruktur, mit Komponenten des Herstellers innovaphone und Linphone, wird eine Sicherheitsanalyse demonstriert. Dabei wird die Konzeption und Durchführung, sowie der Umgang mit identifizierten Schwachstellen betrachtet. Insbesondere werden Techniken zum Ausnutzen von Voice-over-IP Schwachstellen gezeigt, der technische Hintergrund erläutert und Gegenmaßnahmen vorgestellt. Abschließend folgt eine Diskussion über eine mögliche Gestaltung einer sicheren Unified Communications Infrastruktur.
This thesis comprehensively explores factors contributing to malaria-induced anemia and severe malarial anemia (SMA). The study utilizes a comprehensive dataset to investigate immunological interactions, genetic variations, and temporal dynamics. Findings highlight the complex interplay between immune markers, genetic traits, and cohort-specific influences. Notably, age, HIV status, and genetic variations emerge as crucial factors influencing anemia risk. The incorporation of Poisson regression models sheds light on the genetic underpinnings of SMA, emphasizing the need for personalized interventions. Overall, this research provides valuable insights into the multifaceted nature of malaria-induced complications, paving the way for further molecular investigations and targeted interventions.
Die Dokumentation eines kriminalistisch relevanten Tatortes ist eines der wichtigsten Bestandteile der forensischen Untersuchung. Dafür dienen heute unter anderem Laserscanner. In dieser Arbeit wird ein Ablauf für die Erstellung eines 3D-Modells aus Laserscannerdaten von der Erstellung der Scandaten bis zur Verarbeitung dieser in der Software auch anhand von Fallbeispielen erläutert. Dafür dienen FARO Laserscanner Focus 3D X 130 und die Software FARO SCENE. Außerdem werden die entstandenen Modelle evaluiert und der Aspekt des Zeitaufwandes betrachtet.
Die vorliegende Bachelorarbeit behandelt das Thema Leichendaktyloskopie im Rahmen der Identifizierung von unbekannten Toten. Dabei wird zunächst auf die Grundlagen der Daktyloskopie eingegangen. Im zweiten Teil werden verschiedene Leichenerscheinungen und Arten sowie die speziellen und Standardmethoden der Leichendaktyloskopie erläutert. Der praktische Teil dreht sich um den Vergleich zwischen Fingerabdrücken von lebenden und verstorbenen Personen. Dafür wurden in verschiedenen Testreihen Fingerabdrücke mithilfe von Fingerabdruckscannern aufgenommen und diese anhand von fünf Kriterien bewertet. Es soll herausgefunden werden, ob signifikante Unterschiede zwischen den Fingerabdrücken von lebenden und verstorbenen Personen bestehen.
Diese Bachelorarbeit erforscht den Videospielentwicklungsprozess und dessen fallspezifischen Schwierigkeiten für Ein-Mann-Spielentwickler. Mithilfe der Fachliteratur wird die konventionelle Konstellation in der Videospielindustrie für mehrköpfige Teams dargestellt. Die davon hergeleiteten, potentiell kritischen Gegebenheiten der Videospielentwicklung für Ein-Mann-Spieleentwickler werden anhand von Expertenaussagen aufgelöst und mit denen für Entwicklerteams verglichen. Die Analyse zeigt, dass trotz umfassenderen Kompetenzansprüchen und höheren Belastungsquellen die Ein-Mann-Spieleentwicklung ein verhältnismäßig motivierteres Produktivitätspotential besitzt.
In dieser Arbeit wurde die Entwicklung eines neuen Extraktionsverfahrens für Cannabinoide in Aufgüssen von hanfhaltigen Teeerzeugnissen beschrieben. Es wurden Aufgüsse, welche ausschließlich durch den Zusatz von Wasser hergestellt wurden und Aufgüsse, welche durch den Zusatz von fetthaltigen Zutaten wie Sahne und Speiseöl hergestellt wurden, betrachtet. Des Weiteren wurde der Einfluss fetthaltiger Komponenten auf die in hanfhaltigen Tees enthaltenen Cannabinoide Δ9-Tetrahydrocannabinol und Δ9-Tetrahydrocannabinol-9 -Carbonsäure A untersucht.
Modularität in 3D-Videospielumgebungen und Techniken zur Verwendung und Minimierung der Nachteile
(2017)
Diese Arbeit thematisiert die Vorteile und Nachteile der Verwendung von modularen Asset-Sets sowie den Arbeitsablauf bei der Erstellung dieser in einer Echtzeit-3D-Umgebung. Am Ende sollen der Produktionsaufwand der Assets sowie die zu erwartende Performance besser eingeschätzt werden können. Zudem soll der Leser Zugriff auf Techniken erhalten, mit denen sich die Nachteile durch die Verwendung von modularen Assets minimieren lassen.
In dieser Arbeit wird ein Messgerät zur Bestimmung von emotionalen Erregungszuständen vorgestellt.
Dieses soll eine Anwendung in der Untersuchung von Probanden in VR-Umgebungen finden. Hierdurch stellen sich Anforderungen, die von klassischen Messgeräten nur begrenzt erfüllt werden.
Die somit erfassten Vitaldaten benötigen eine Verarbeitung, bevor aus ihnen Rückschlüsse gezogen werden können. Hierfür werden drei verschiedene Algorithmen verwendet. Die so gewonnen Ergebnisse werden untereinander und mit professionell gewonnen Daten verglichen.
In dieser Arbeit ging es darum, eine Softwarelösung zu entwickeln, die auf die Anforderungen der Game Accessibility Guidelines abgestimmt ist. Die Godot Game Engine wurde als Entwicklungsplattform ausgewählt, da sie sich durch eine hohe Flexibilität und Skalierbarkeit auszeichnet. Durch die Verwendung dieser Engine war es möglich, eine stabile und robuste Basis zu schaffen, auf der die Implementierungen aufgebaut werden konnten. Ein wichtiger Aspekt bei der Entwicklung war die Wahl der richtigen Softwarearchitektur. Es wurde untersucht, welche Architekturen sich am besten eignen, um eine optimale Leistung und eine hohe Benutzerfreundlichkeit zu gewährleisten. Dazu wurden verschiedene Ansätze getestet und verglichen, um die bestmögliche Lösung zu finden. Im nächsten Schritt wurden die Implementierungen von Studierenden getestet und evaluiert. Dabei wurden Aspekte wie die Benutzerfreundlichkeit und der Mehraufwand, der durch die Nutzung der implementierten Features entsteht, untersucht. Es wurde auch darauf geachtet, wie verständlich die Implementierungen gestaltet sind und wie leicht sie zu bedienen sind. Die Ergebnisse der Evaluation wurden dann reflektiert und der Aufwand der Implementationen wurde in Hinblick darauf untersucht, dass es sich bei den Anforderungen fast ausschließlich um solche handelt, die laut den Game Accessibility Guidelines als Anforderungen mit geringer Komplexität eingestuft werden. Dies bedeutet, dass die Implementierung dieser Anforderungen relativ einfach sein und keine großen Schwierigkeiten bereiteten sollten. Insgesamt war die Entwicklung der Softwarelösung ein Erfolg und hat gezeigt, dass die Einschätzung der Komplexität der Game Accessibility Guidelines größtenteils bestätigt werden kann. Des Weiteren wurde die Implementation von den Studierenden gut angenommen. Die Ergebnisse der Evaluation können dazu beitragen, einen technischen Ansatzpunkt für zukünftige Bewertungen der Anforderungen und Implementationsversuche zu bieten.
Diese Arbeit befasst sich mit der Erstellung einer Vorgehensweise für das Durchführen von Sicherheitstests von Cloud-Infrastrukturen des Typs Microsoft Azure. Dafür werden anfangs der grundlegende Aufbau und die technische Realisierung der genannten Infrastruktur erarbeitet. Dies beinhaltet eine Feststellung der potenziellen Angriffsfläche nach außen. Ebenso geschieht eine Erfassung und Kontextualisierung des bereits bestehenden Wissens in Bezug auf Sicherheitstests von Azure-Cloud-Umgebungen. Im Detail umfasst dies die Generierung einer Übersicht über anerkannte und erprobte Vorgehensweisen, Best Practices, verfügbare und zu verwendende Tools sowie häufige Sicherheitslücken in Azure Umgebungen. Darüber hinaus müssen offenkundige Grenzen innerhalb bestehender gesetzlicher Regularien sowie technischer Implementierungen für die Erstellung des Konzepts erfasst werden. Im Anschluss werden die erlangten Informationen genutzt, um vereinheitlicht eine Guideline zu entwerfen, nach welchem ein strukturierter Sicherheitstest einer Azure-Cloud-Infrastruktur durchgeführt werden kann. Letztendlich erfolgt eine vergleichende Diskussion der vorliegenden Feststellungen mit bestehenden anderen Vorgehensweisen, um diese Arbeit einzuordnen.
In der vorliegenden Arbeit werden neue Pulver als Alternative für das Rußpulver hergestellt, geprüft und bewertet. Ziel ist es ein für den Anwender gesünderes, kostengünstiges und einfach erhältliches Pulver zu entwickeln. Hierfür wurden unterschiedliche Alltagsmaterialien verwendet. Die dafür angewendeten Grundlagen und Methoden werden erklärt und evaluiert.
Die vorliegende Arbeit befasst sich mit den Anforderungen zur Verbesserung der Mitarbeiterzufriedenheit und -effizienz anhand der Webanwendung des SYSTEMHAUS am Neumarkt. Dazu erfolgt die Recherche gängiger Methoden im Bereich der User Experience. Mit den theoretischen Grundlagen wird der aktuelle Entwicklungsstand analysiert. Es erfolgt eine Evaluation, aus welcher ein Problemkatalog erstellt wurde. Kern der Arbeit ist die Erstellung eines Kriterienkataloges mit konkreten Maßnahmen zur Verbesserung der User Experience. Diese Maßnahmen werden mit Hilfe eines Prototyps visualisiert.
Die Daten auf Mobilgeräten besitzen als Beweise in kriminalpolizeilichen Ermittlungsverfahren eine große Bedeutung. Besonders interessant sind dabei die Chats von diversen Instant-Messaging-Diensten. Aufgrund der stetigen technischen Weiterentwicklung der Smartphones und der Sicherheitsarchitektur des Android-Betriebssystems wird es jedoch zunehmend erschwert bzw. unmöglich, diese Chats mit den klassischen forensischen Sicherungsverfahren zu extrahieren. In der vorliegenden Arbeit wird daher die Entwicklung eines Tools zur Sicherung von Chats über die Benutzerschnittstelle beschrieben. Die angewandte Methodik erstellt dafür Screenshots über die Android Debug Bridge. Diese werden anschließend mit einer Texterkennungs-Software weiterverarbeitet, um die Durchsuchbarkeit der Chatinhalte für die Ermittler sicherzustellen.
Im Reverse Engineering und in der Malware-Analyse wurden bereits verschiedene Ansätze zur Visualisierung von Binärdaten entwickelt. Mit diesen lässt sich schnell ein Überblick über Dateien gewinnen, sodass beispielsweise verschiedene Regionen einer Datei identifiziert oder eine bösartige Datei einer Malware-Familie zugeordnet werden kann. In der vorliegenden Masterarbeit wird versucht, diese Ansätze auch sektorweise auf einen Datenstream anzuwenden. Dafür wird ein Demonstrator erstellt, mit dem Sektoren automatisiert nach Dateitypen klassifiziert werden können. Ziel ist es, einen Ansatz zur Verbesserung der aktuellen, signaturbasierten IT-forensischen Methoden zur Wiederherstellung von fragmentierten oder gelöschten Daten zu finden.
Die vorliegende Arbeit beschäftigt sich mit der Umsetzung einer Viewer X-Tension für die Darstellung von ESE Datenbanken in X-Ways Forensics. Dazu wird vor allem der konkrete Aufbau und die Struktur einer ESE Datenbank analysiert und vorgestellt. Weiterhin werden die technischen Grundlagen der Software X-Ways Forensics und der X-Tensions-API zur Erstellung einer Erweiterung gelegt. Zudem werden die Schritte der Umsetzung aufgezeigt und die konkrete Programmimplementierung an Code-Beispielen erläutert.
Die Idee des Autors dieser Bachelorarbeit, sich mit der Entwicklung eines Tools zur Detektion falsch positiver Zeitstempel in Zeitreihen zu beschäftigen, formte sich während seiner Tätigkeit für die Abteilung IT-Forensik [int18c] der intersoft consulting services AG.
„Die intersoft consulting services AG ist spezialisiert auf Beratungsleistungen in den Bereichen Datenschutz, IT-Sicherheit und IT-Forensik [int18b].“
Gerade in dem Geschäftsumfeld der IT-Forensik ist häufig die Erstellung einer Zeitreihe nötig um eine IT-Forensische Analyse voranzutreiben. Da die intersoft consulting services AG hauptsächlich im Unternehmensfeld tätig ist, ist besonders das Analysieren von Desktoprechnern beim Verdacht der Weitergabe von firminternen Daten von Relevanz. Dabei hilft die Erstellung einer Zeitreihe, um die Vorgänge auf dem Desktoprechner nachvollziehen zu können. Dabei ist es möglich, auf manipulierte, falsch positive Zeitstempel zu stoßen, welche die forensische Analyse erschweren und verfälschen können.
Das entwickelte Tool detectFPTimetamps.py kann dabei helfen, den Prozess der Analyse durch eine Zeitreihe zu vereinfachen und zu erleichtern, indem die falsch positiven Zeitstempel detektiert werden. Das Tool ist in Python 3 geschrieben und enthält die Suite Plaso/log2timeline, TSK (R) und das Tool analyzeMFT.py.
So wird ein Tool geschaffen, welches einer ständigen Anpassung an den Stand der Technik und dann das Dateisystem benötigt.
Die vorliegende Bachelorarbeit befasst sich mit dem Gerichtssaal der Zukunft. Besonders durch Auswertung von Literatur wird dargestellt, wer in einem Gerichtssaal mit welchen Aufgaben agiert und wie der Strafprozess abläuft. Die Spuren und Beweise, die den Ablauf des Strafverfahrens im Wesentlichen beeinflussen, werden deshalb genauer betrachtet. Dabei wird zwischen analogen und modernen digitalen Spuren unterschieden. Zum Schluss wird geklärt warum Monitore bereits in jedem Gerichtssaal enthalten sein sollten und welche weiteren möglichen Veränderungen im Gerichtssaal vollzogen werden könnten, um modernen Methoden, wie der 3D-Tatortrekonsturktion, gerecht zu werden.
Die vorliegende Arbeit befasst sich der Erforschung des Gebietes Gamecrime. Es wird erläutert, was Gamecrime ist und inwiefern es rechtlich geregelt ist. Darüber hinaus wird diskutiert, an welchen Stellen die Gesetze aktuell an ihre Grenzen stoßen. Um Gamecrime zu verstehen, werden die Wirkungstheorien der Mediengewaltforschung dargestellt. Ferner wird noch über die Darstellung von Gamecrime in den Medien sowie über präventive Maßnahmen diskutiert.
Konzeption, Planung und prototyptechnische Umsetzung einer Schnittstelle für Laborautomatisierung
(2016)
Im Rahmen dieser Arbeit soll eine leistungsfähige Softwareschnittstelle für die Kommunikation zwischen einem Laborinformations-, Prozessmanagementsystem und einem Steuerprogramm von komplexen Laborautomaten entwickelt werden. Insbesondere soll diese Schnittstelle für die effiziente und kontrollierte Routinebearbeitung von Laborproben an flüssigkeitsbewegenden Laborautomaten verwendet werden. Ziel des Laborinformationssystems ist eine schrittweise nachvollziehbare Probenbearbeitung. Für deren Umsetzung eine Untersuchung der gegebenen Möglichkeiten unter Beachtung des Programmieraufwands beider Seiten notwendig ist, wobei der Eigenanteil der Programmierung nur auf der Automatenseite liegt.
Vor Ihnen liegt die Bachelorarbeit „Prototypische" Systemintegration und Evaluation von Open Source Sprachmodellen zur automatischen Spracherkennung gesprochener deutscher Texte“. Durch mein Praktikum im Bereich der Audioanalyse und Transkribierung kam ich auf die Idee, mich ausführlicher mit dem Thema zu beschäftigen. Ziel war es, “robuste“ Spracherkenner zu finden und verschiedene Ansätze zu präsentieren, die für das Aufgabengebiet der Forensik von Nutzen sein könnten. Die Nachforschungen waren nicht immer einfach, da die vorhandenen freien Spracherkenner Projektarbeiten via Github sind und diese kompliziert zu verstehen bzw. zu implementieren sind. Doch nach einer umfangreichen Analyse der zur Verfügung stehenden Modelle gelang es mir, die Forschungsfrage zu beantworten.
In dieser Arbeit wurde der Einfluss der Molekülgröße von per- und polyfluorierten Alkylsubstanzen auf den Summenparameter AOF mittels eines ungekoppelten Systems im AOF-Gesamtverfahren untersucht. Dazu wurden drei käuflich erworbene PFAS-Standards ausgewählt und daraus selbst hergestellte PFAS-Standardlösungen und PFAS-Kombinationslösungen analysiert. Es wurde insbesondere der Durchbruch der im Anreicherungsschritt genutzten Aktivkohle durch eine LC-MS-Einzelstoffanalytik der Waschlösungen untersucht. Aus den Ergebnissen wurden Aussagen zum Sorptionsverhalten der untersuchten PFAS bei der Anreicherung an der Aktivkohle abgeleitet und dahingehend Grenzen des AOF-Gesamtverfahrens hinsichtlich der Quantifizierung von PFAS aufgezeigt.
In dieser Arbeit wird die Auswirkung der landwirtschaftlichen Nutzung im Nahbereich der Gewässer auf den Blattabbau in kleinen Fließgewässern der Agrarlandschaft untersucht. Hierzu wurde ein Freilandversuch an zwölf Messstellen in Deutschland durchgeführt, um den Blattabbau durch Makroinvertebraten und Mikroorganismen zu bestimmen. Die Abbauraten wurden auf einen Zusammenhang mit der landwirtschaftlichen Nutzung des Nahbereichs der Gewässer, der Ausprägung von allgemeinen abiotischen Umweltstressoren und der Dichte und Artzusammensetzung der Zerkleinerer überprüft.
The Blockchain is a technology which has the capabilities to change the way, the world operates. As promising as this may be, there are still many challenges which do not exist or are way simpler to solve in conventional software solutions. Services which are offered over the blockchain suffer from so called Block-confirmation-times where the customer simply has to wait till the transaction is confirmed. In this paper possible solutions to that problem will be examined and challenges that arise from the specific criteria of the Ethereum Blockchain will be analyzed.
Das Lehrmodul „Datenrepräsentation“ wird im 3 Semester in den Studiengängen der Informatik an der Hochschule Mittweida durchgeführt. In den Vorlesungen werden dabei verschiedene Datenrepräsentationstechnologien vorgestellt. Zur praktischen Umsetzung dieser Technologien finden außerdem eine Reihe von Praktikumsveranstaltungen statt. Diese Arbeit behandelt die Verbesserung und Erweiterung ausgewählter Praktikumsinhalte des Lehrmoduls Datenrepräsentation. Bestehende Praktikumseinheiten werden zunächst hinsichtlich der Struktur analysiert. Danach werden Verbesserungsmöglichkeiten erläutert und schließlich realisiert. Im Rahmen dieser Arbeit werden außerdem neue Praktikumseinheiten konzipiert, welche unter anderem die Technologien JSON und RESTful Webservices behandeln. Es werden neue Praktikumsanleitungen erstellt sowie Beispielprogramme implementiert, welche in den Praktikumsveranstaltungen des Lehrmoduls eingesetzt werden können.
Die Diplomarbeit beschreibt die Entwicklung und Integration eines Reporting Moduls im Sinne der Business Intelligence-Anwendung zur managementunterstützenden Entscheidungsfindung. Ziel ist die Schaffung eines Grundkonzepts für die Einführung einer BI-Lösung bei Endkunden von Infinica, die die Infinica Plattform einsetzen und ein Berichtswesen ihrer Dokumentgenerierungen einführen wollen. Ein Konzept soll dabei gefunden werden, wie aus der Infinica Plattform für ein fachspezifisches Berichtswesen relevante Daten erzeugt und in Datenquellen für BI-Lösungen überführt werden können. Mithilfe eines Reporting-Tools sollen die Daten performant abgefragt und Berichte einfach erzeugt und angepasst werden können.
Digitaler Fingerabdruck PC
(2017)
Die vorliegende Arbeit befasst sich mit der Grundlagenentwicklung zur Erzeugung digitaler Fingerabdrücke eines PC Nutzers. Über eine Herleitung durch digitale Spuren werden Features identifiziert, die durch einen Nutzer am PC individualisiert werden können. Mit Hilfe eines selbstentwickelten Demonstrators werden diese erhoben und anschließend mögliche Vergleichsprozesse vorgestellt.
Die folgende Arbeit befasst sich mit dem forensischen Informationspotential von Smart Home Security Geräten, in diesem Fall dem Starter-Kit der Firma Ring. Hierfür wurde die Funktionsweise des Systems genauer untersucht und es wurden Manipulationsversuche und Datensicherungen durchgeführt. Diese Manipulationen bezogen sich hier genauer auf die zwei internetfähigen Geräte, die Basisstation und die Kamera. Die Datensicherungen fokussierten sich insbesondere auf den allgemein gesicherten Daten und Hinweisen zu den Manipulationen.
Die Motion Capture Technologie wird immer häufiger zur Erstellung von realistisch wirkenden Animationen in Studios hinzugezogen. Die folgende Arbeit soll die Unterschiede zwischen dieser Technologie und der herkömmlichen 3D Keyframe Animation eruieren und dabei insbesondere auf die Entwicklung des AAA-Independent Titels “Hellblade“ eingehen, um dies an einem praktischen Beispiel zu ermessen.
In dieser Arbeit soll sich mit der Möglichkeit beschäftigt werden, den Prozess zur Freischaltung von Firewallregeln zu vereinfachen. Dafür soll ein Programm entwickelt werden, welches diesen Prozess automatisiert und dadurch den schwierigen Prozess vereinfachen soll. Des Weiteren wurde recherchiert, welche Richtlinien zum Schutz des Netzwerkes erforderlich sind und mit Firewalls umgesetzt werden können. Die Implementierung der Richtlinien soll hier als Code erfolgen und es einfach machen, diese Richtlinien automatisch durchzusetzen. Mithilfe dieser als Code implementierten Richtlinien sollen Anträge zur Freischaltung von Firewallregeln geprüft und validiert werden. Wurde der Antrag zur Freischaltung einer Firewallregel erfolgreich validiert, soll die Firewallregel automatisch implementiert werden. Durch diese und weitere Automatisierungen soll die menschliche Interaktion möglichst reduziert werden. Dadurch soll Zeit gespart werden und der Prozess zur Freischaltung einer Firewallregel effizienter durchgeführt werden können. Dafür wurde ein Programm implementiert, welches als Studie dienen und ein Machbarkeitsbeweis darstellen soll.
Diese Arbeit beschreibt eine Anwendung zur Extraktion und Verarbeitung von Ereignisprotokollen unter Microsoft Windows. Sie erfasst hierfür die Konzeption, den Aufbau sowie deren Funktionsweise und geht dabei auch auf die entwickelten Werkzeuge der Anwendung ein. Zielsetzung war die Bereitstellung wenig verbreiteter Werkzeuge für die Ereignisprotokollanalyse, wobei besonderes Augenmerk auf eine Nutzung im Kontext von Incident-Response-Fällen gelegt wurde.
This thesis investigates the efficacy of four machine learning algorithms, namely linear regression, decision tree, random forest and neural network in the task of lead scoring. Specifically, the study evaluates the performance of these algorithms using datasets without sampling and with random under-sampling and over-sampling using SMOTE. The performance of each algorithm is measure using various performance metrics, including accuracy, AUC-ROC, specificity, sensitivity, precision, recall, F1 score, and G-mean. The results indicate that models trained on the dataset without sampling achieved higher accuracy than those trained on the dataset with either random under-sampling or random over-sampling using SMOTE. However, the neural network demonstrated remarkable results on each dataset compared to the other algorithms. These findings provide valuable insights into the effectiveness of machine learning algorithms for lead scoring tasks, particularly when using different sampling techniques. The findings of this study can aid lead management practices in selecting the most suitable algorithm and sampling technique for their needs. Furthermore, the study contributes to the literature by providing a comprehensive evaluation of the performance of machine learning algorithms for lead scoring tasks. This thesis has practical implications for businesses looking to improve their lead management practices, and future research could extend the analysis to other machine learning algorithms or more extensive datasets.
Die A12 Businessanwendung der Firma mgm technology partners GmbH ist modellgetrieben. Damit die Architektur grafisch dargestellt werden kann, wird ein Layout-System benötigt, an das unterschiedliche Anforderungen gestellt werden. Sie umfassen unter anderem die Minimierungen der Knotenüberschneidungen, der Kantenüberschneidungen und der Biegungen der Kanten.
In der vorliegenden Arbeit werden bereits existierende Layout-Algorithmen betrachtet. Dabei wird besonders darauf geachtet, wie sich diese an die gestellten Anforderungen anpassen lassen. Es stellt sich heraus, dass die Layouts dazu jeweils unterschiedlich gut geeignet sind. Um eine Messbarkeit der Ästhetik zu ermöglichen, werden Metriken definiert.
Es werden zwei Layouts gewählt, welche zur Umsetzung aller Anforderungen besonders geeignet sind. Dabei handelt es sich um das Radial Baum Layout und das kraftgesteuerte Layout, das bereits ein gutes Layout darstellt. Es kann gezeigt werden, dass mithilfe von Anpassungen eine deutliche Verbesserung der Ästhetik von Layouts erreicht wird.
Als Ergebnis der Arbeit entsteht eine Implementierung des kraftgesteuerten Layouts, welche Knotenüberschneidungen fast vollständig eliminiert, ohne dabei andere Aspekte der Graphendarstellung zu stören.
Ziel der Arbeit ist die bessere Überwachung einer dreispurigen Tankzugabfüllung. Im Hauptteil richtet sich die Betrachtung im Wesentlichen auf die Risikobetrachtung und Nutzwertanalyse sowie die Auswahl einer geeigneten speicherprogrammierbaren Steuerung sowie eines Bedienrechners. Des Weiteren befasst sich diese Arbeit mit der Einrichtung und Konfiguration der Überwachungsstation (Bedienrechner) sowie der speicherprogrammierbaren Steuerung.
Die vorliegende Arbeit befasst sich und formuliert funktionale Anforderungen an die neu zu beschaffende Stationsleittechnik, Fernwirktechnik und Netzleittechnik für den Einsatz im Umspannwerk, Trafostationen und Leitwarten. Des Weiteren
werden Forderungen an die einzusetzenden Komponenten bzw. Systeme hinsichtlich der „IT-Security“ dargelegt.
Offshore Kriminalität : Herausforderungen in der Bekämpfung von Steuerhinterziehung und Geldwäsche
(2022)
Die vorliegende Arbeit befasst sich mit der Analyse der verschiedenen Bekämpfungs- und Präventionsmöglichkeiten für Geldwäsche und Steuerhinterziehung. Das Hauptziel ist dabei die Untersuchung von Problemen, die bei der derzeitigen Umsetzung solcher Maßnahmen auftreten, vor allem wenn die Straftaten mithilfe von Offshore-/ Briefkastenfirmen begangen wurden.
Adversarial robustness of a nearest prototype classifier assures safe deployment in sensitive use fields. Much research has been conducted on artificial neural networks regarding their robustness against adversarial attacks, whereas nearest prototype classifiers have not chalked similar successes. This thesis presents the learning dynamics and numerical stability regarding the Crammer-normalization and the Hein-normalization for adversarial robustness of nearest prototype classifiers. Results of conducted experiments are penned down and analyzed to ascertain the bounds given by Saralajew et al. and Hein et al. for adversarial robustness of nearest prototype classifiers.
Diese Bachelorarbeit behandelt die Entwicklung des Film Noir, von seinen Vorläufern bis hin zu seinen Nachfolgern beziehungsweise Weiterentwicklungen im Neo Noir. Unter Neo Noir werden dabei sowohl Filme als auch andere narrative Medien verstanden, die sich inhaltlich mit entsprechenden Thematiken befassen. Der Fokus liegt dabei auf modernen Videospielen und deren Vergleich mit zum Neo Noir gehörigen Spielfilmen. Untersucht werden vor allem die zentralen Motive von Noir-Erzählungen. Die Analyse findet anhand von je zwei besonders exemplarischen Filmen und Spielen statt. Dabei baut sie auf Kategorien auf, die zuvor unter Berücksichtigung der Fachliteratur erarbeitet wurden.
In this work, the task is to cluster microarray gene expression data of the cyanobacterium Nostoc PCC 7120 for detection of messenger RNA (mRNA) degradation patterns. Searched are characteristic patterns of degradation which are caused by specific enzymes (ribonucleases) allowing a further biological investigation regarding biochemical mechanisms. The mRNA degradation is part of the regulation of gene expression because it regulates the amount and longevity of mRNA, which is available for translation into proteins. A particular class of RNA degrading enzymes are exoribonucleases which degrade the molecule from its ends, whereby a degradation from the 5’ end, the 3’ end or from both ends is theoretically possible.
In this investigation, the information about exoribonucleolytic degradation is given in a microarray data set containing gene expression values of 1,251 genes. The data set provides gene expression vectors containing the expression values of up to ten short distinct sections of a gene ordered from the genes 5’ end to its 3’ end. For each gene, expression vectors are available for both nitrogen fixing and non-nitrogen fixing conditions, which have to be considered separately due to biological reasons. Accordingly, after filtering and preprocessing, two datasets for clustering are obtained consisting of 133 ten-dimensional expression vectors. The similarity of the expression vectors is judged by a newly correlation based similarity measure and compared with the results obtained by use of the Euclidean distance. A non-linear transformation of the correlations was applied to obtain a dissimilarity measure. By choice of parameters within this transformation a user specific differentiation between negative and positive correlated gene expression vectors and an adequate adjustment regarding the noise level of gene expression values is possible.
Clustering was performed using Affinity Propagation (AP). The number of clusters obtained by AP depends on the so-called self-similarity for the data vectors. This dependence was used to identify stable cluster solutions by self-similarity control. To evaluate the clustering results, Median Fuzzy c-Means (M-FCM) was used. Further, several cluster validity measures are applied and visual inspections by t-distributed Stochastic Neighbor Embedding (t-SNE) as well as cluster visualization are provided for mathematical interpretation analysis of clusters.
To validate the clustering results biologically, the found data structure is checked for biological adequacy. A deeper investigation into the mechanisms behind mRNA-degradation was achieved by use of a RNA-Seq data set. Contained 40 (base pair) bp long reads for non-nitrogen fixing and nitrogen fixing conditions were assembled using bacteria-specific ab-initio assembly of Rockhopper. Thus, mRNA (transcript)-sequences of the clustered genes are obtained. A further investigation of the untranslated regions (UTRs) is performed here due to the assumption that exoribonucleases recognize specific transcript-sequences outside of the annotated gene regions as their binding sites. These UTRs need to be analyzed regarding sequence similarity using motif-finding algorithms.
he automatic comparison of RNA/DNA or rather nucleotide sequences is a complex task requiring careful design due to the computational complexity. While alignment-based models suffer from computational costs in time, alignment-free models have to deal with appropriate data preprocessing and consistently designed mathematical data comparison. This work deals with the latter strategy. In particular, a systematic categorization is proposed, which emphasizes two key concepts that have to be combined for a successful comparison analysis: 1) the data transformation comprising adequate mathematical sequence coding and feature extraction, and 2) the subsequent (dis-)similarity evaluation of the transformed data by means of problem specific but mathematically consistent proximity measures. Respective approaches of different categories
of the introduced scheme are examined with regard to their suitability to distinguish natural RNA virus sequences from artificially generated ones encompassing varying degrees of biological feature preservation. The challenge in this application is the limited additional biological information available, such that the decision has to be made solely on the basis of the sequences and their
inherent structural characteristics. To address this, the present work focuses on interpretable, dissimilarity based classification models of machine learning, namely variants of Learning Vector Quantizers. These methods are known to be robust and highly interpretable, and therefore,
allow to evaluate the applied data transformations together with the chosen proximity measure with respect to the given discrimination task. First analysis results are provided and discussed, serving as a starting point for more in-depth analysis of this problem in the future.
Eine Untersuchung des Netzwerkverkehrs von 4 verschiedenen mobilen Applikationen mit Hilfe der Comminity Edition der Burp Suite der Firma PortSwigger auf sicherheitsrelevante Schwachstellen sowie das Aufzeigen der Grenzen bei der die Burp Suite zur Untersuchung von Netzwerkverkehr verwendet werden kann.
Das Programm WhatsAppOn ist ein in Python geschriebenes, kommandozeilenbasiertes Programm, welches das Tracken des WhatsApp-Online-Status einer Person auf verschiedenen Betriebssystemen ermöglicht. Das Programm wurde auf den Betriebssystemen Windows und Linux getestet. Die Testphase umfasst eine Dauer von neun Wochen. Nach der Testphase wurden die Daten mittels eines Programmes weiterverarbeitet. Die Daten konnten daraufhin ausgewertet werden. Bei der Auswertung stellte sich heraus, dass Schlafphasen der Testperson festgestellt werden können. Arbeitszeiten der Testperson ließen sich nur teilweise ermitteln.
Die vorliegende wissenschaftliche Arbeit befasst sich mit der Fragestellung, ob ausgewählte Ansätze des Datenmanagements in verteilten Systemen einsatzfähig sind und somit zu einer Optimierung des Systems führen. Hierzu werden die Ansätze des Datenmanagements in Bezug auf ein bereits gegebenes verteiltes System betrachtet. Diesbezüglich lassen sich drei Aspekte des Datenmanagements adressieren und anhand einer exemplarisch ausgewählten Technologie die Einsatzfähigkeit des gewählten Ansatzes in Bezug auf das verteilte System belegen. Ziel in diesem Kontext ist anhand von ausgewählten Technologien der Übertragung, der persistenten Speicherung und der Verteilung und Virtualisierung von Daten deren Einsatzfähigkeit in einem gegebenen verteilten System zu prüfen und deren Optimierungspotential für das System aufzuzeigen. Innerhalb der folgenden sechs Kapitel beinhaltet Kapitel 1 die Einleitung inklusive Motivation, Zielstellung und Aufbau. Kapitel 2 fokussiert auf die theoretischen Grundlagen und Rahmenbedingungen sowie deren Erläuterungen. Inhalt von Kapitel 3 sind die Analyse der gegebenen Problemstellung und die Ableitung benötigter Anforderungen sowie die darauf aufbauende Konzepterstellung. Diese beinhaltet überdies die Technologieauswahl und aus dem Konzept resultierende Testfälle. Kapitel 4 dient zur Darstellung des Implementationsprozesses der gewählten Technologien. Kapitel 5 stellt darüber hinaus die Durchführung und Auswertung der erstellten Testfälle und die Gegenüberstellung von Vertretern der persistenten Speicherung von Daten dar. In Kapitel 6 ist eine Zusammenfassung der Arbeit vorzufinden, die den Abschluss der Arbeit darstellt und einen Ausblick für weitere mögliche Änderungen am gegebenen System gibt.
In der vorliegenden Arbeit geht es darum, herauszufinden, ob es möglich ist, die Heldenreise nach Joseph Campbell, auf Erklärvideos anzuwenden. Dabei wer-den die verschiedenen Formen des Storytellings analysiert, sowie erörtert, was ein gutes Erklärvideo ausmacht. Die Heldenreise wird weiter analysiert, um festzustellen, inwieweit die Heldenreise als Blaupause benutzt werden kann. Auf Basis dieser Blaupause wird ein Erklärvideo im Lernbereich erstellt und mit Hilfe einer Umfrage ausgewertet, ob es sinnvoll ist, diese Vorlage zu nutzen.
In der vorliegenden Arbeit werden drei Verfahren zum Nachweis von Legionella spec. auf ihre Einsatzfähigkeit in belasteten Wässern untersucht. Es werden theoretische Aus-sagen zum Thema Legionellen gemacht sowie die prinzipiellen Grundlagen der Metho-den - Kulturverfahren, ScanVIT® Legionella-Test und LegiolertTM-Test - dargestellt. Die Ergebnisse von untersuchten Kühlwasser- und Abwasserproben werden anschlie-ßend gegenübergestellt.
Das Ziel der vorliegenden Bachelorarbeit war es, ein Vorgehen zur systematischen Analyse von Spielmechaniken, welche darauf abzielen Gewohnheiten bei den SpielerInnen durch die Nutzung operanter Konditionierung, zu entwickeln. Außerdem sollten durch die Analyse verschiedener Mechaniken bestimmte Muster, die bei der Verwendung dieser Methoden auftreten, herausgearbeitet werden. Dazu wurde ein Fragenkatalog auf Basis der theoretischen Grundlagen der Gewohnheitsbildung, sowie der operanten Konditionierung entwickelt und auf verschiedene Beispiele angewandt. Das entwickelte Vorgehen stellte eine gute Grundlage für die Diskussion der betrachteten Mechaniken dar. Folgende Muster konnten durch die Analyse gefunden werden: Für das Erzeugen eines regelmäßigen Verhaltens wird das Zielverhalten in fixierten Abständen verstärkt, Verstärkung wird häufiger genutzt als Bestrafung um ein Spielverhalten zu konditionieren, für die Zielgruppe der Core Gamer wird die stattfindende Konditionierung eher verborgen und die Motivatoren Angst, Schmerz, soziale Anerkennung und soziale Ablehnung werden seltener genutzt als Hoffnung und Genuss. Die Bachelorarbeit ist nicht nur für die Spieleentwicklung interessant, sondern auch für den bewussten Konsum von Videospielen und für die gesetzliche Regulierung der betrachteten Methoden.
Ziel der vorliegenden Bachelorarbeit ist es, über das Thema Verschlüsselungstrojaner aufzuklären und dabei auf eine mögliche Prävention durch die Produkte Sandstorm und Intercept X der Firma Sophos einzugehen. Dabei wird besonders auf die Gefahren und Präventionsmöglichkeiten im Allgemeinen eingegangen sowie eine Sicherheitsanalyse im Themenspezifischen Kontext durchgeführt. Weiterhin wird der Anbieter Sophos mit anderen Anbietern verglichen und anhand von verschiedenen Parametern bewertet.
Instant Messenger gehören zu den am häufigsten verwendeten Applikationen auf mobilen Endgeräten. Sie werden von nahezu allen Altersgruppen genutzt, dabei verwenden eine Vielzahl der Nutzer diese täglich zum Austausch von textuellen Nachrichten, Sprachnachrichten oder multimedialer Dateien. Die Anzahl der Nutzer nimmt seit Jahren kontinuierlich zu. Einer der verbreitetsten Anwendungen ist „Threema“, welche von 22 Prozent der Befragten in Deutschland genutzt wird. Weltweit beträgt die Anzahl der Nutzer elf Millionen. Im Kontext forensischer Untersuchungen wird die Bedeutung der Rekonstruktion von Artefakten von Instant Messenger-Diensten immer größer, da über diese auch ein Austausch von Informationen durch Täter, Opfer und Zeugen von Straftaten stattfindet. Solche Artefakte umfassen Bild- und Videomaterial sowie Standorte oder Textnachrichten. Diese können hilfreich sein, um den Tathergang zu rekonstruieren.
In der vorliegenden Bachelorarbeit werden die Artefakte der Instant Messengers „Threema“ anhand von Beispieldaten aufbereitet und ausgewertet. Dabei stehen Chatverläufe, ausgetauschte Standorte und Kontaktinformationen im Fokus, wobei sie keine Entschlüsselung der Daten oder Rekonstruktion von multimedialen Daten oder gelöschte Daten umfasst. Die Untersuchungen ergaben, dass die Daten in den SQLite- Datenbanken ThreemaData.sqlite und Threema.sqlite-wal abgelegt werden.
Die vorliegende Arbeit befasst sich mit der Automatisierung des Schreibens von Unit-Tests. Das Hauptziel ist es für den Bereich iOS eine Lösung umzusetzen und diese auszuwerten. Dabei wird der Codegenerator Sourcery verwendet und die Templates für das Generieren der Unit-Tests in den verschiedenen Templatesprachen umgesetzt. Die Umsetzung sowie die verschiedenen Templatesprachen werden ausgewertet, um die Basis für weitere Entwicklung zu schaffen.
In einer Welt, in welcher die Anzahl der mit digitalen Geräten ausgeübten Straf-taten die zuständigen Behörden zu überrollen scheint, ist es an der digitalen Forensik, neue Wege der Verbrechensbekämpfung zu beschreiten. Um eine Viel-zahl an digitalen Spuren auszuwerten, benötigt es außerdem spezialisierter Werkzeuge und Methodiken. Das in Korrelation mit dieser Arbeit entwickelte Programm verfolgt das Ziel, einen bisher manuellen Ablauf in der forensischen Software „X-Ways Forensics“ zu automatisieren und somit Aufwand und Komplexität zu reduzieren. Genauer versucht die sogenannte „X-Tension“, eine Datei vom Dateityp „.vmdk“ innerhalb eines Falles ausfindig zu machen, um diese anschließend als neues für sich stehendes Asservat auswerten zu können. Die Arbeit zeigt dabei die Arbeitsweise des Programmes sowie Chancen für die Zukunft auf.
Die vorliegende Arbeit setzt sich mit der Windows 10 Timeline auseinander. Da diese erst vor kurzem entwickelt und von Microsoft veröffentlich wurde, gibt es wenige forensische Analysen. Ziel ist es, die Windows 10 Timeline und ihre Datenbank genauer zu betrachten. Es soll unter anderem herausgefunden werden, welche Daten die Datenbank überhaupt speichert, wie diese Daten in die Tabellen gespeichert werden und wie die Tabellen in den Datenbanken miteinander arbeiten. Weiterhin soll der forensische Wert der Windows 10 Timeline erforscht werden. Demnach ist ein weiteres Ziel, die Relevanz der Windows 10 Timeline in digital forensischen Ermittlungen zu untersuchen.
Die vorliegende Masterarbeit befasst sich mit der Entwicklung einer Android-Applikation zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Dabei richtet sich der Fokus zuerst auf das aus den USA stammende AMBER-Alert-System – ein System zur Suche vermisster Kinder – und im weiteren Verlauf auf den aktuellen Stand eines solchen Systems innerhalb Deutschlands. Bisher haben sich nur wenige Arbeiten mit der Umsetzung einer solchen App auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Implementierung einer prototypischen App zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Diesbezüglich werden bereits existierende Applikationen betrachtet und daraus ein konzeptioneller Entwurf entwickelt. Dieser Entwurf dient als Grundlage für die prototypische Implementierung der App.
Die vorliegende Arbeit stellt eine effektive Möglichkeit dar, um einen Großteil der Bevölkerung in Deutschland zur schnellen Suche und sicheren Bergung bei vermissten Kindern zu erreichen.
StyleGAN2: Eine Analyse und dessen Übertragbarkeit auf die
Erzeugung synthetischerGanzkörperbilder
(2020)
Die vorliegende Bachelorarbeit befasst sich mit der Analyse der künstlichen Intelligenz Style-GAN2. Dabei richtet sich der Fokus zuerst auf den Aufbau von StyleGAN und im weiteren Verlauf auf die Weiterentwicklung StyleGAN2. Mit StyleGAN2 lassen sich fotorealistische Bilder von nicht existierenden Menschen, Tieren oder anderen Objekten erzeugen, z. B. menschliche Porträts, Katzen, Autos, Pferde und Kirchen. Bisher haben sich nur wenige Arbeiten mit der Erzeugung fotorealistischer Ganzkörperbilder von nicht existierenden Menschen auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Erzeugung synthetischer Ganzkörperbilder mit StyleGAN2. Diesbezüglich werden aus verschiedenen Arbeiten ideale Datensatz-, Bild- und Modelmerkmale abgeleitet und eine Vorgehensweise zur Erzeugung eines idealen Bilddatensatzes erläutert. Dieser Bilddatensatz wird zum Trainieren von StyleGAN2 benötigt. In einer Schritt für Schritt Anleitung wird das genaue Vorgehen zum Trainieren und Erzeugen synthetischer Ganzkörperbilder mit StyleGAN2 erklärt. Die vorliegende Arbeit soll als Anleitung zum Erzeugen synthetischer Ganzkörperbilder mit
StyleGAN2 dienen. Diese kann für verschiedene Bereiche genutzt werden, z. B. für den ECommerce, die Filmindustrie oder zur Bekämpfung von Straftaten.
Diese Arbeit thematisiert das Zusammenspiel verschiedenster Projektmanagement Ansätze mit den Psychologischen Persönlichkeitstypen nach dem Myers-Briggs-Typenindikator.
Es wird hierbei auf die Erstellung eines dynamischen Evaluationstools eingegangen und den konkreten Hintergedanken zur Fragenerstellung selbiger. Ziel war es ebenfalls die Arbeitsmoral und Vorstellungen einzelner Teammitglieder zu verbessern. Außerdem ist eine Verbindung der Arbeitsstile und Persönlichkeitstypen eine große Chance, Teams zu optimieren und die Produktivität zu steigern
Diese Arbeit beschäftigt sich mit der Konzeption und Erstellung einer Kompetenzmatrix zur Verbesserung der Selbsteinschätzung von Studierenden im Bereich des Medieninformatik Studiums an der Hochschule Mittweida. Neben der Erstellung der Matrix wurde zusätzlich eine Evaluation an Studierenden und Absolventen durchgeführt. Eine Auswertung sowie eine Handlungsempfehlung und eine Weiterentwicklungsmöglichkeit der Matrix und aller erarbeiteten Bestandteile befindet sich ebenfalls in dieser Arbeit.
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
Die vorliegende Bachelorarbeit hatte zum Ziel, die auf der Kläranlage Schönerlinde bestehende Aktivkohleanlage zur Reinigung schwefelwasserstoffbelasteter Abluft zu optimieren. Dafür wurden sechs Aktivkohlen, mit unterschiedlichen Eigenschaften, in einer Versuchsanlage getestet. Es konnten drei unimprägnierte, zwei imprägnierte und eine dotierte Aktivkohle für die Experimente ausgewählt werden. Über die Ermittlung der Standzeiten und der Konzentrationen an Schwefelwasserstoff, die in den knapp sechs Wochen über die Kohle strömten, wurden die Beladungen berechnet. Somit konnten alle Aktivkohlen miteinander verglichen werden. Die Ergebnisse zeigten, dass die derzeit in der Aktivkohleanlage verwendete imprägnierte Kohle, DGF 4 KI 2 Bio von der Firma Carbo Tech, nicht die beste ist. Mit Kosten von 77,6 Tsd. € pro Jahr ist die dotierte Aktivkohle Dopetac sulfo 100® von der Firma Adfis die wirtschaftlichste Kohle. Diese überzeugte mit langen Standzeiten, der höchsten Beladung an Schwefel und dem günstigsten Preis.
Die vorliegende Arbeit beschäftigt sich mit der Analyse und dem Nachweis von unberechtigten RDP Zugriffen in Windows Netzwerkumgebungen. Dafür werden alle technischen Grundlagen zum Verständnis des RDP geklärt und mögliche
Angriffsszenarien sowie das Vorgehen von Angreifern aufgezeigt. Anschließend werden Indikatoren für unberechtigte Zugriffe erläutert und präventive Maßnahmen zum Schutz dargelegt.