Angewandte Computer‐ und Biowissenschaften
Refine
Document Type
- Bachelor Thesis (106)
- Master's Thesis (31)
- Diploma Thesis (3)
Year of publication
- 2020 (140) (remove)
Keywords
- Computerforensik (11)
- Computersicherheit (11)
- Maschinelles Lernen (7)
- Softwareentwicklung (7)
- Videospiel (7)
- Blockchain (5)
- Künstliche Intelligenz (5)
- Bildverarbeitung (4)
- Bioinformatik (4)
- Digitalisierung (4)
Institute
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
Footage of organoids taken by means of fluorescence microscopy and segmented as well as triangulated by image analysis software like LimeSeg and Mastodon often needs to be visualized in aesthetic manner for presentation of the results in scientific papers, talks and demonstrations. The goal of this work was to create a simple to use addon “Biobox” for the open source 3D – visualization package “Blender” which would allow to import triangulated 3D data with animation over time (4D), produced by image analysis software, and optimize it for efficient usage. ”Biobox” offers several visualization tools for the creation of rendered images and animation videos by biologists.
The optimization of imported data was performed by using Blender intern modifiers. The optimized data can then be visualized by using several tools built for visualizing the organoid in frozen, animated and semi-transparent manners. A dynamic link for object selection and dynamic data exchange between Blender and Mastodon was developed. Additionally, a user interface was developed for manual correction errors of segmentation and steering the object detection algorithms of LimeSeg. The benchmark of the developed addon “Biobox” was performed on real scientific data. The benchmark test demonstrated that developed optimization result in significant (~5 fold) decrease of RAM usage and acceleration of visualization more than 160 times.
Robust soft learning vector quantization (RSLVQ) is a probabilistic approach of Learning vector quantization (LVQ) algorithm. Basically, the RSLVQ approach describes its functionality with respect to Gaussian mixture model and its cost function is defined in terms of likelihood ratio. Our thesis work involves an approach of modifying standard RSLVQ with non-Gaussian density functions like logistic, lognormal, and Cauchy (referred as PLVQ). In this approach, we derive new update rules for prototypes using gradient of cost function with respect to non-Gaussian density functions. We also derive new learning rules for the model parameters like s and s, by differentiating the cost function with respect to parameters. The main goal of the thesis is to compare the performance results of PLVQ model with Gaussian-RSLVQ model. Therefore, the performance of these classification models have been tested on the Iris and Seeds dataset. To visualize the results of the classification models in an adequate way, the Principal component analysis (PCA) technique has been used.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
Keiner schaut mehr Fernsehen. Die Benutzung von Videostreaming ist beim Großteil der digital vertrauten Bevölkerung in Fleisch und Blut übergegangen und erstreckt sich über den gesamten Globus. Die Giganten der Streaming-Anbieter sind YouTube, Amazon und Netflix und sie sind dem Modell des Fernsehens meilenweit voraus. Mit komplex verstrickten Algorithmen sollen uns, den Nutzern, die Inhalte geboten werden, die uns dazu bringen, noch mehr zu konsumieren. Wie weit und auf welche Weise muss ein System entwickelt sein, um jedem Nutzer Inhalte anzubieten, die unheimlich oder faszinierende Weise auf uns zugeschnitten sind?
Das Ziel dieser Forschung ist es, das System der Vorschläge von Netflix auf die Qualität, Passgenauigkeit und Effizienz im Hinblick auf Präferenzen und Bedürfnisse zu bestimmen, die die Nutzer in Verbindung mit Netflix aufweisen.
Um die Forschungsfrage zu beantworten, wurden innerhalb einer mehrteiligen, iterativen Meinungsumfrage Bewertungen von Vorschlägen von Freunden, Bekannten und Familie mit den Vorschlägen von Netflix in den Zusammenhang mit dem eigenen Filmgeschmack, Präferenzen, Nutzung des Accounts und Verhalten beim Streaming gebracht. Dabei wurde bestätigt, dass die Vorschläge von Netflix stärker zum Filmgeschmack passen, hierbei jedoch Differenzierungen bei der Popularität und Unterhaltsamkeit des Vorschlags zu beobachten sind. Des Weiteren zeigte die empirische Untersuchung auf, dass verhaltenspsychologische und sozialwissenschaftliche Aspekte Einflüsse auf die Effizienz einer künstlichen Intelligenz haben und noch nicht voll ständig in die Optimierung in das System der Netflix Vorschläge eingeflossen sind.
Käufer haben häufig das Problem die Sicherheit von Produkte einzuschätzen. In der Bachelorarbeit möchte ich darauf eingehen, welche Zertifizierungsmöglichkeiten existieren und in welche Branchen sie sich einordnen. Daraufhin wird eine Klassifizierung und Einordnung der Zertifikate zur IT-Sicherheit durchgeführt. Im Schwerpunkt liegen hierbei die Produktzertifizierungen. Die Transparenz wird für den Verbraucher übergreifend betrachtet. Die Ergebnisse zeigen auf, ob sich Zertifikate gut oder weniger gut für die unterschiedlichen Branchen eigenen und ob gegebenenfalls Risiken damit verbunden sind.
The number of Internet of Things (IoT) devices is increasing rapidly. The Trustless Incentivized Remote Node Network, in short IN3 (Incubed), enables trustworthy and fast access to a blockchain for a large number of low-performance IoT devices. Although currently IN3 only supports the verification of Ethereum data, it is not limited to one blockchain due to modularity. This thesis describes the fundamentals, the concept and the implementation of the Bitcoin verification in IN3.
Ziel dieser Arbeit ist die Entwicklung eines Konzepts und einer Erstimplementation zur Benutzerdatenerfassung, um verschiedene Digitalisierungsprozesse messen zu können. Die durch die Benutzerdatenerfassung gesammelten objektiven Interaktionsdaten sollen weitere Daten, wie z. B. eine Benutzerakzeptanzstudie bei einer vergleichenden Evaluation von Prozessen zur Dokumentenerfassung hinsichtlich der Benutzbarkeit ergänzen und unterstützen.
In this thesis two novel methods for removing undesired background illumination are de-veloped. These include a wavelet analysis based approach and an enhancement of a deep learning method. These methods have been compared with conventional methods, using real confocal microscopy images and synthetic generated microscopy images. These synthetic images were created utilizing a generator introduced in this thesis.
Im Jahr 2019 verzeichnete das Bundeskriminalamt in der Polizeilichen Kriminalstatistik einen neuen Höchststand an erfassten Fällen der Computerkriminalität. Zeitgleich lag die Aufklärungsquote für diesen Bereich der Kriminalität auf dem zweitniedrigsten Stand seit Beginn der Erfassung im Jahr 1987. Die digitale Forensik steht vor der Herausforderung, dass eine Ermittlung eine stetig wachsende Menge an heterogenen Daten umfasst. Eine Quelle für diese Daten bildet das Microsoft Betriebssystem Windows 10.
Diese Bachelorarbeit beschäftigt sich mit Artefakten eines Windows 10 Systems und damit, wie diese miteinander korreliert werden können. Ziel ist es eine Möglichkeit zu finden, den Forensiker bei einer forensischen Untersuchung zu unterstützen. Für diesen Zweck wurde eine Ontologie entwickelt, welche anhand ähnlicher Artefaktattribute eine Korrelation ermöglicht. Die praktische Umsetzung der Ontologie erfolgte mithilfe der Graphdatenbank Neo4j. Die Möglichkeiten der Datenbank wurde anhand von, für den Forensiker interessanten, Abfragen demonstriert.
Anlegen und Charakterisieren von Anreicherungskulturen aus Oberflächengewässern im Norden Finnlands
(2020)
Es wurden Wasserproben aus Finnland biochemisch charakterisiert. So wurden EcoPlates von BIOLOG benutzt, um die Wasserproben von heterotrophen mikrobiellen Gemeinschaften zu charakterisieren und klassifizieren. Zudem wurden Anreicherungskulturen erstellt und auf ihre Verwertung von Stickstoffquellen durch Phänotyp Mikroarray und auf ihre Zellwandzusammensetzung mit Gram-Färbung untersucht. Die daraus resultierenden Ergebnisse werden für die Bestimmung und Charakterisierung von den Anreicherungskulturen verwendet.
Glycans play an important role in the intracellular interactions of pathogenic bacteria. Pathogenic bacteria possess binding proteins capable of recognizing certain sugar motifs on other cells, which are found in glycan structures. Artificial carbohydrate synthesis allows scientists to recreate those sugar motifs in a rational, precise, and pure form. However, due to the high specificity of sugar-binding proteins, known as lectins, to glycan structures, methods for identifying suitable binding agents need to be developed. To tackle this hurdle, the Fraunhofer Institute for Cell Therapy and Immunology (Fraunhofer IZI) and the Max-Planck Institute of Colloids and Interfaces (MPIKG) developed a binding assay for the high throughput testing of sugar motifs that are presented on modular scaffolds formed by the assembly of four DNA strands into simple, branched DNA nanostructures. The first generation of this assay was used in combination with bacteria that express a fluorescent protein as a proof-of-concept. Here, the assay was optimized to be used with bacteria not possessing a marker gene for a fluorescent protein by staining their genomic DNA with SYBR® Green. For the binding assay, DNA nanostructures were combined with artificially synthesized mannose polymers, typical targets for many lectins on the surface of bacteria, presenting them in a defined constellation to bind bacteria strongly due to multivalent cooperativity. The testing of multiple mannose polymers identified monomeric mannose with a 5’-carbon linker and 1,2-linked dimeric mannose with linker as the best binding candidates for E. coli, presumably due to binding with the FimH protein on the surface. Despite similarities between the FimH proteins of E. coli and K. pneumoniae, binding was only observed between E. coli and the different sugar molecules on DNA structures. Furthermore, the degree of free movement seemed to affect the binding of mannose polymers to targeted proteins, since when utilizing a more flexible DNA nanostructure, an increase in binding could be observed. An alternative to the simple DNA nanostructures described above is the use of larger, more complex DNA origami structures consisting of several hundred strands. DNA origami structures are capable of carrying dozens of modifications at the same time. The results for the DNA origami structure showed a successful functionalization with up to 71 1,2-linked dimeric mannose with linker molecules. These results point towards a solution for the high-throughput analysis of potential binding agents for pathogenic bacteria e.g. as an alternative treatment for antibiotic-resistant.
Diese Arbeit untersucht die Spielertypen Achiever und Explorer nach Bartle (1996) und ihre Reaktionen auf zeitinduzierten, psychischen Druck. Dazu wurde ein zweistufiges Experiment durchgeführt, in dem die 7 Probanden Irrgärten durchlaufen. Im ersten Irrgarten erfolgt zunächst eine Klassifizierung der beiden Spielertypen: Je nach Entscheidungsmuster innerhalb eines Irrgartens, werden die Probanden in Achiever und Explorer eingeteilt. Darauf aufbauend durchqueren die Spieler einen zweiten Irrgarten, der sich vom ersten unterscheidet, aber ähnliche Voraussetzungen bietet. Hierbei wird durch eine Uhr, die die verbrachte Zeit im Irrgarten misst, Zeitdruck induziert. Die Ergebnisse zeigen, dass diese intrinsische Motivation dazu führen kann, dass sich die Verhaltensweise der zuvor als Explorer idendifizieren Probanden, an die äußeren Umstände anpassen und sie ihr Spielverhalten ändern.
Die vorliegende Bachelorarbeit vergleicht die zwei Honeypotsysteme T-Pot und Modern Honey Network miteinander. Hierfür zeigen Angriffsszenarien gegen die Honeypotsysteme, wie Angreifer diese wahrnehmen würden und wie die Honeypots die Angriffe protokollieren. Die ersten Kapitel dienen als Einführung in die Thematik der Honeypots und erläutern die Problemstellung und Vorgehensweise. Kapitel 4 und 5 beleuchten den Entwurf und die Durchführung der Angriffsszenarien. In Kapitel 7 wird der Vergleich anhand selbst aufgestellter Kriterien durchgeführt. Das Honeypotsystem T-Pot hat in diesem Vergleich knapp besser abgeschnitten. Jedoch lässt sich Schlussfolgern, das je nach individuellen Zielen und Einsatzzwecken beide Honeypotsysteme mit ihren Stärken überzeugen können.
This bachelor thesis aims for the creation of an add on to the open source software Blender, wich is capable of making a procedural texture, that resebles human skin. Its purpose lies in aiding the process of facial reconstruction in the forensic field.
The beginning covers the importance of facial reconstruction and its general workings. It is followed by the scientific backround of the human skin. The main part of the thesis covers the creation of the material and its integration into an add on. Finally its results are evaluated against photographs of real human skin. The Thesis concludes with a summary and speculatory look into the future.
Steganographie und Steganalyse : Untersuchung moderner Methoden, Werkzeuge und Angriffsvektoren
(2020)
Diese Abschlussarbeit befasst sich mit Steganographie und Steganalyse. Es werden allgemeine Einblicke in beide Bereiche und detailliertere Beschreibungen verschiedener Methoden und Algorithmen gegeben. Den Ausarbeitungen liegen zwei Testreihen zugrunde, in denen speziell erzeugt Steganogramme mit verschiedenen Programmen und Methoden analysiert werden. Es wird die Möglichkeit der Einordnung der Bilddateien in unauffällig und auffällige Dateien thematisiert und anhand der Testobjekte überprüft und ausgewertet. Des Weiteren erfolgt ein Vergleich verschiedener Steganalyseprogramme und die Auswirkungen unterschiedlicher Faktoren, wie zum Beispiel das Ausgabeformat der Steganogramme, auf die Steganalyse. Auch der Faktor der Verschlüsselung wird im Laufe der Arbeit thematisiert.
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
Konzeption zum Aufbau einer Werkstatt 4.0 mit prototypischen
IoT Elementen, teilweise simuliert
(2020)
Bei dieser Arbeit wurden verschiedene Vergleiche zwischen Datenübertragungsarten gezogen und welche in einer Werkstatt 4.0 implementiert werden können. Die Vergleiche finden sich meist in Tabellenform wieder, da diese die beste Möglichkeit zur Gegenüberstellung bieten. Weiterhin wurde ein Konzept für eine Benutzerverwaltung erstellt. Dabei war die Vorgabe mit dem ASP.Net Framework „Razor Pages“ und WPF zu arbeiten. Diese Arbeit ist sowohl für studierende der Informatikstudiengänge als auch für Technik affine Studenten interessant.
Genetic sequence variations at the level of gene promoters influence the binding of transcription factors. In plants, this often leads to differential gene expression across natural accessions and crop cultivars. Some of these differences are propagated through molecular networks and lead to macroscopic phenotypes. However, the link between promoter sequence variation and the variation of its activity is not yet well understood. In this project, we use the power of deep learning in 728 genotypes of Arabidopsis thaliana to shed light on some aspects of that link. Convolutional neural networks were successfully implemented to predict the likelihood of a gene being expressed from its promoter sequence. These networks were also capable of highlighting known and putative new sequence motifs causal for the expression of genes. We tested our algorithms in various scenarios, including single and multiple point mutations, as well as indels on synthetic and real promoter sequences and the respective performance characteristics of the algorithm have been estimated. Finally, we showed that the decision boundary to classify genes as expressed and non-expressed depends on the sensitivity of the transcriptome profiling assay and changing it has an impact on the algorithm’s performance.
Data streams change their statistical behaviour over the time. These changes can occur gradually or abruptly with unforeseen reasons, which may effect the expected outcome. Thus it is important to detect concept drift as soon as it occurs. In this thesis we chose distance based methodology to detect presence of concept drift in the data streams. We used generalized learning vector quantization(GLVQ) and generalized matrix learning vector quantization( GMLVQ) classifiers for distance calculation between prototypes and data points. Chi-square and Kolmogorov–Smirnov tests are used to compare the distance distributions of test and train data sets to indicate the drift presence.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
In response to prevailing environmental conditions, Arabidopsis thaliana plants must increase their photosynthetic capacity to acclimate to potential harmful environmental high light stress. In order to measure these changes in acclimation capacity, different high throughput imaging-based methods can be used. In this master thesis we studied different Arabidopsis thaliana knockout mutants-and accessions in their capacity to acclimate to potential harmful environmental high light and cold temperature conditions using a high throughput phenotyping system with an integrated chlorophyll fluorescence measurement system. In order to determine the acclimation capacity, Arabidopsis thaliana knockout mutants of previously not high light assigned genes as well as accessions of two different haplotype groups with a reference and alternative allele from different countries of origin were grown under switching high light and temperature environmental conditions. Photosynthetic analysis showed that knockout mutant plants did differ in their Photosystem II operating efficiency during an increased light irradiance switch but did not significantly differ a week later under the same circumstances from the wildtype. High throughput phenotyping of haplotype accessions revealed significant better acclimation capacity in non-photochemical quenching and steady-state photosynthetic efficiency in Russian domiciled accessions with an altered SPPA gene during high light and cold stress.
Die Blutaltersbestimmung kann Aufschluss über die Tatzeit eines Verbrechens geben und ist damit von hohem forensischem Wert. Bisher gibt es noch keine etablierte Methode, um das Alter von ausgetretenem Blut zu bestimmen, da sie meistens sehr kostenaufwendig oder unzuverlässig sind. Das Einbeziehen der Umweltfaktoren stellt dabei eine weitere große Herausforderung dar. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Blut im Zeitraum von 21 Tagen unter dem Einfluss der Luftfeuchtigkeit untersucht. Hierbei werden besonders die alterskorrelierenden Features analysiert. Zu den alterskorrelierenden Features zählen die Oxyhämoglobin- und Methämoglobin-Peaks und die hypsochrome Verschiebung der Soret-Bande. Die Luftfeuchtigkeit wurde mit Hilfe eines Raspberry Pi’s gesteuert. Bei der Auswertung der Ergebnisse konnte festgestellt werden, dass das Oxyhämoglobin bei höherer Luftfeuchtigkeit zunächst langsamer oxidiert und dass die Verschiebung der Soret-Bande langsamer verläuft. Nach 21 Tagen ist jedoch kein Unterschied mehr zu erkennen.
Immer häufiger greifen technikbegeisterte Personen zu Smart-Home Geräten für ihre eigenen vier Wänden. Durch diese Geräte, kann der Weg zur Tür abgenommen oder die Bestellung über eine Onlineplattform erleichtert werden. Der Nutzen dieser meist kleinen aber durchdachten komplexen Maschinen ist enorm. Um der Schnelllebigkeit entgegen zu wirken, werden immer kreativere Wege gesucht. IoT-Geräte ermöglichen das Ersetzen der lokalen Einstellung am Gerät selbst. Bspw. kann so die Heizungssteuerung auf dem Heimweg vorgenommen werden. Dadurch spielt eine klare Sicherheitsdefinition für den Umgang mit persönlichen Daten eine größer werdende Rolle. Hierbei stellt sich die Frage, wie anfällig solche Anlagen sind. Das Kernstück dieser Arbeit wird sich mit der Feststellung von möglichen Schwachstellen in Innogy Smart-Home-Geräten beschäftigen. Insbesondere werden Endgeräte untersucht, welche bereits Einzug in den Alltag gefunden haben. Ansätze der Informationssicherheit und der digitalen Forensik werden in realitätsnahen Szenarien aufgezeigt und analysiert. Es werden Richtlinien des Bundesamtes für Sicherheit in der Informationstechnik und gesetzliche Vorgaben berücksichtigt. Teile des Sicherheitskonzeptes werden transparent dargestellt.
In dieser Arbeit geht es um die Untersuchung eines auf wenige Kernmechaniken reduziertes Rollenspiel auf die Motivation des Spielers. Hierfür wurde anhand einer angefertigten Applikation eine quantitative Nutzerstudie mit sechs Probanden durchgeführt. Die Ergebnisse sind dabei gemischt ausgefallen und es konnte kein eindeutiger Beweis auf die Beeinflussung der Motivation durch das Testszenario festgestellt werden.
Die folgende Arbeit behandelt die Methoden digitaler Bildmanipulationen sowie die Erkennung solcher Manipulationen anhand etablierter Detektionsverfahren. Das Hauptaugenmerk liegt dabei auf der Planung und Implementierung einer Software zur automatisierten Detektion duplizierter Regionen innerhalb eines digitalen Bildes. Anschließend an diese Implementierung folgt eine detaillierte Auswertung der Detektionsergebnisse sowie eine Bewertung der Qualität der Software gegenüber bestehenden Verfahren.
Financial fraud for banks can be a reason for huge monetary losses. Studies have shown that, if not mitigated, financial fraud can lead to bankruptcy for big financial institutions and even insolvency for individuals. Credit card fraud is a type of financial fraud that is ever growing. In the future, these numbers are expected to increase exponentially and that’s why a lot of researchers are focusing on machine learning techniques for detecting frauds. This task, however, is not a simple task. There are mainly two reasons
• varying behaviour in committing fraud
• high level of imbalance in the dataset (the majority of normal or genuine cases largely outnumbers the number of fraudulent cases)
A predictive model usually tends to be biased towards the majority of samples, in an unbalanced dataset, when this dataset is provided as an input to a predictive model.
In this Thesis this problem is tackled by implementing a data-level approach where different resampling methods such as undersampling, oversampling, and hybrid strategies along with bagging and boosting algorithmic approaches have been applied to a highly skewed dataset with 492 idetified frauds out of 284,807 transactions.
Predictive modelling algorithms like Logistic Regression, Random Forest, and XGBoost have been implemented along with different resampling techniques to predict fraudulent transactions.
The performance of the predictive models was evaluated based on Receiver Operating CharacteristicArea under the curve (AUC-ROC), Precision Recall Area under the Curve (AUC-PR), Precision, Recall, F1 score metrics.
Convolutional Neural network (CNN) has been one of most powerful and popular preprocessing techniques employed for image classification problems. Here, we use other signal processing techniques like Fourier transform and wavelet transform to preprocess the images in conjunction with different classifiers like MLP, LVQ, GLVQ and GMLVQ and compare its performance with CNN.
Konzeption und Umsetzung eines Komplexpraktikums zur Erstellung einer WebApp für Mobile Endgeräte
(2020)
Die vorliegende Arbeit befasst sich mit der Erstellung eines Komplexpraktikums zur Entwicklung einer WebApp für mobile Endgeräte. Ziel der Arbeit ist es, den aktuellen Stand der Technik im Bereich der Entwicklung von Webanwendungen zu analysieren und auf Grundlage der daraus gewonnenen Erkenntnisse selbst eine Webanwendung zu konzipieren und umzusetzen. Diese Anwendung dient ihrerseits als Basis für die Erstellung von 4 Seminaren für die Studenten des 2. Semesters im Studiengang Medieninformatik und Interaktives Entertainment der Hochschule Mittweida, in deren Rahmen sie diese nachprogrammieren und dadurch mit den Technologien und Konzepten vertraut gemacht werden.
Diese Arbeit liefert einen Überblick über verschiedene elektronische Zutrittskontrollsysteme und deren Funktionsweise. Des Weiteren werden Angriffstechniken erläutert, mit denen diese Systeme angegriffen und umgangen werden können. Dabei wird besonders auf RFID und biometrische Systeme eingegangen. Die Angriffstechniken sind allgemein formuliert um einen möglichst großen Überblick über mögliche Angriffstechniken und -vektoren geben zu können.
Verschiedene Videospiele bieten einen unterschiedlichen Grad an Herausforderung und Schwierigkeit. Die meisten von ihnen verfügen trotz unterschiedlicher Schwierigkeitsgrade über keine Möglichkeit dem Spieler eine passende Herausforderung zu schaffen. In dieser Arbeit soll sich damit beschäftigt werden, basierend auf den spielerischen Fähigkeiten der Person, eine passende Herausforderung im Spiel zu schaffen. Dazu wird die folgende Forschungsfrage gestellt: Ist es möglich durch eine adaptive Anpassung von Parametern in Videospielen für Spieler jedes Leistungsniveaus eine ähnlich anspruchsvolle Herausforderung zu erzeugen?' Diese wird durch die Entwicklung und Umsetzung von Fähigkeitentests realisiert, dessen Ergebnisse einen Bossfight beeinflussen. Um die Forschungsfrage zu beantworten, wird die entwickelte Testreihe mit einigen Probanden absolviert und deren Feedback vernommen. Dieses Feedback führt zu dem Schluss, dass die Tests geeignet sind für die Leistungsermittlung, aber der Bossfight und die Umgebung nicht für ein spielerisches Umfeld sorgen, was die Forschungsfrage unvollständig beantwortet lässt. Weitere Arbeiten könnten sich mit der Umsetzung einer besseren Testumgebung und einem besseren Anwendungsfall beschäftigen.
Erstellen eines Leitfadens zur Sicherstellung der gestalterischen Kontinuität von Concept Art
(2020)
Das Ziel dieser Arbeit ist es einen Leitfaden zur Sicherstellung der gestalterischen Kontinuität von Concept Art zu erstellen. Um das zu erreichen wurden zuerst die essenziellen Begriffe Concept Art und Kontinuität definiert. Aus diesen Definitionen wurden anschließend Methoden abgeleitet die eine Sicherstellung der Kontinuität gewährleisten können. Schlussendlich wurde eine Expertenumfrage durchgeführt und analysiert. Die Analyseergebnisse wurden mit den theoretischen Erkenntnissen in einem Leitfaden zusammengefasst
Die Kryokonservierung gibt die Möglichkeit, Pflanzen als genetische Ressourcen über einen langen Zeitraum zu lagern. Dabei stellt sie eine sichere und kostengünstige Methode dar, die zudem frei von äußeren Umweltfaktoren ist. Die optimierte PVS2 Methode Dresden hat sich bei Fragaria bereits bewährt und wird fortan für diese Obstart im Julius Kühn-Institut Dresden verwendet. Bei Erstversuchen mit Wildbirnen 2019 zeigte sich für die Kryokonservierung noch deutliches Optimierungspotenzial. Die Regenerationsraten konnten in der vorliegenden Arbeit durch eine veränderte Präparationsweise signifikant gesteigert werden. Dabei lag der Fokus auf die unterschiedliche Anzahl der Hüllblätter des Primordien Gewebes. Zusätzlich wurde die Methode des slow coolings mit dormanten Knospen als Alternativmethode zur Anwendung von PVS2 getestet.
In der vorliegenden Bachelorarbeit wird die Wahrnehmung von übermäßiger Polizeigewalt mit der tatsächlichen Vorgehensweise der Polizeibeamten abgestimmt und mit der gesetzlichen Vorgabe zur Herangehensweise verglichen. Gemäß der in dieser Arbeit vermittelten Grundlagen zu Hellfeld und Dunkelfeld sowie der Anzeigebereitschaft wird ein grundlegendes Verständnis für die beschriebene Problematik fundiert. Die aufgeführten Beispiele dienen der Untersuchung des Problems und zur differenzierten Auseinandersetzung mit der Thematik, zum einen der Analyse des jeweiligen Falles und deren beschriebene Situation zur Lage und zum anderen der angeschnittene Umriss zur juristischen Sachlage dieser.
Das Chemokin CCL2 spielt bei entzündlichen Prozessen, wie dem ischämischen Schlaganfall, eine wichtige Rolle. Die biologische Aktivität von CCL2 kann durch eine N-terminale Modifikation, katalysiert durch die Enzyme Dipeptidyl-Peptidase 4 und (iso)Glutaminyl-Cyclase, beeinflusst werden. In dieser Arbeit soll der Einfluss von CCL2 und CCL2-modifizierenden Enzymen auf das Überleben primärer Neurone unter ischämischen Bedingungen untersucht werden. Dazu werden verschiedene knock-out Mauslinien des Stamm C56Bl/6 verwendet. Für die quantitative Analyse der Lebensfähigkeit wurden MTT- und LDH-Assays genutzt. Somit konnte gezeigt werden, das CCL2, DP4 und (iso)QC das Überleben primärer Neurone unter ischämischen Bedingungen beeinflussen. Durch immunzytochemische Färbungen wurde die Expression von CCL2, sowie eine Veränderung der Neuritenanzahl und -länge vor und nach Ischämie nachgewiesen.
Diese Arbeit thematisiert die Evaluation von Unterschieden bei interaktivem linearem und nichtlinearem Storytelling. Es stellte sich die Frage, welche der beiden Erzählweisen in einem Videospiel bei Nutzern beliebter ist und wie dieses praktisch überprüft werden kann. Dazu wurde ein Videospiel entwickelt, das dieselbe Geschichte sowohl in einer linearen als auch in einer nichtlinearen Erzählweise erzählt. So sollen Unterschiede der beiden Varianten deutlich gemacht werden. Durch einen Probandentest wurde dann mithilfe des Videospiels und eines Fragebogens die Untersuchung durchgeführt. Diese ergab, dass nichtlineares Storytelling als Erzählweise bevorzugt wird, da es dem Spieler mehr Entscheidungsmöglichkeiten bietet und somit interaktive Spielerlebnisse fördert. Ebenfalls konnten Probleme aufgezeigt und bestätigt werden, die dadurch auftreten, dass interaktives und nichtlineares Storytelling nicht wirklich vom linearen Pfad abweicht. Das steht konträr zu einer Interaktivität, die Videospiele eigentlich bieten sollten.
Diese Arbeit untersucht die Bedeutung der neuen de novo Mutation JAK2 c.2765G>C, p. R922P, die bei einem Kind mit den klinischen Anzeichen eines myelodysplastischen Syndroms identifiziert wurde. Dazu sollte die Mutante zunächst kloniert und anschließend in murine Pro-B-Zellen transfiziert werden, die nur in Anwesenheit des Zytokins IL-3 lebensfähig sind. Durch Entzug des Zytokins sollte das onkogene Potential der Mutante untersucht werden, da bei konstitutiv aktiver Januskinase2 (JAK2) eine Interleukin-unabhängige Proliferation der Zellen weiterhin stattfindet.
Kläranlagen sollten nach Möglichkeit dem neusten Stand der Technik entsprechen, um die Betriebskosten so gering wie möglich zu halten. Bei älteren Kläranlagen besteht neben der Erneuerung die Möglichkeit, den Prozess der Abwasserbehandlung durch bestimmte Verfahren der Vor- bzw. Nachbehandlung zu ergänzen. Dies kann zu einer besseren Wirtschaftlichkeit und Nachhaltigkeit führen. In dieser Arbeit wurde die Optimierung der werksinternen Kläranlage der Molkerei Hainichen-Freiberg GmbH & Co. KG mithilfe einer vorgeschalteten Druckentspannungsflotationsanlage untersucht. Durch die Flotation werden suspendierte Stoffe im Abwasser abgeschieden. Die Reduktionsraten hinsichtlich des chemischen Sauerstoffbedarfs, des Gesamtstickstoffs und des Gesamtphosphats wurden bei verschiedenen Flock- und Fällmitteldosierungen ermittelt. Anschließend wurden die einzelnen Varianten hinsichtlich der Optimierung der werksinternen Kläranlage und der Wirtschaftlichkeit auf die spezifische Abwassermenge der Molkerei Hainichen-Freiberg GmbH & Co. KG beurteilt.
Eine Optimierung führt einerseits zu einer besseren Wirtschaftlichkeit der Anlage, andererseits kann der Prozess der Abwasserbehandlung nachhaltiger gestaltet werden, beispielsweise durch ein anaerobes Verfahren bei dem Biogas erzeugt wird.
In der vorliegenden Arbeit wird ein bereits bestehendes Annotationstool für die Übersetzung von Standardsprache in Leichte Sprache hinsichtlich seiner Usability analysiert. Anschließend werden, unter Verwendung von UI Design Patterns, Komponenten entwickelt, welche die Usability des Systems verbessern sollen. In einer Evaluation werden die Annahmen bezüglich der Usability-Verbesserungen geprüft.
Eine Vielzahl der heutigen Cyber Angriffe auf Unternehmen haben das Ziel sich in deren Netzwerk auszubreiten, um so an kritische Informationen zu gelangen oder das Unternehmen anderweitig zu schädigen. Eine Betrachtung dieses als Lateral Movement bezeichnete Vorgehen ist Thema der vorliegenden Bachelorarbeit. Hauptaugenmerk wird auf die forensische Analyse wahrscheinlich auftretender Methoden und den dabei anfallenden Spuren gelegt. Bei den Spuren wurde sich größtenteils auf Ereignisse in Protokolldateien, sowie auf Registry- und Programmausührungs-Artefakte bezogen. Als Ergebnis wurde eine tabellarische Übersicht der zu priorisierenden Spuren erstellt, die Ermittlern zu einer effektiveren forensischen Analyse solcher IT Vorfälle verhelfen soll.
Heutzutage werden digitale Geräte weitestgehend in allen Lebensbereichen genutzt. Die Bedeutung dieser Geräte nimmt ebenfalls für Straftäter und Kriminelle zu. Aus diesem Grund existieren gesetzliche Maßnahmen zur Durchführung von Online-Durchsuchungen. In dieser Arbeit wird sowohl auf den § 49 BKAG als auch auf den § 100b StPO eingegangen. Speziell der § 100b StPO soll bezüglich des Opferschutzes beleuchtet werden. Die Opferschutzrichtlinie der EU sowie die Grundrechtseingriffe der Maßnahme werden in diesem Zusammenhang untersucht. Weiterhin erfolgt in dieser Arbeit eine Prüfung des § 100b StPO mit den dazugehörigen Grundrechtseingriffen im Sinne des Verhältnismäßigkeitsgrundsatzes.
In der vorliegenden Bachelorarbeit wird auf den Nutzen sowie aktuelle Möglichkeiten bei der IT-forensischen Analyse des Arbeitsspeichers aktueller Computersysteme mit DDR4- Speichermodulen eingegangen. Es wird sich dabei sowohl auf generelle, als auch im Zuge der DDR4-Technik eingeführte, Funktionalitäten des physischen Arbeitsspeichers bezogen. Die Auswertbarkeit des Arbeitsspeichers wird aus IT-forensischer Sicht betrachtet und damit auftretende Problematiken für die IT-Forensik evaluiert. In der vorliegenden Arbeit wird vorrangig auf Methodiken der Analyse verschiedener Windows Hibernation Files, sowie den Cold Boot Ansatz eingegangen. Bei letzterem liegt der Schwerpunkt auf der Analyse verschleierter (gescrambelter) Arbeitsspeicherinhalte, sowie einem möglichen Ansatz effektiv Scrambler-Schlüssel aus diesen zu ermitteln.
Vicia faba leaves and calli were transformed using CRISPR Cas RNP. Two kinds of CPP fused SpyCas9 were used with sgRNA7, sgRNA5 or sgRNA13 targeting PDS exon 1, PDS exon 2 or MgCh exon 3 respectively. RNP were applied using high pressure spraying, biolistic delivery, incubation in RNP solution and infiltration of leaf tissue. A PCR and restriction enzyme based approach was used for detection of mutation. Screening of 679 E. coli colonies containing the cloned fragments resulted in detection of 14 mutations. Most of the 14 mutations were deletions of sizes 150, 500 or 730 bp. 5 out of the 14 mutations were point mutations located two to three bp upstream of PAM.
In dieser Arbeit wird ein Konzept für die Fahrprofilauswahl mittels machine learning vorgestellt. Hierbei wird ein Einblick in die Grundlagen und Methodiken des maschinellen Lernens sowie Fahrzeugelektronik gegeben. Des Weiteren wird das Thema künstliche neuronale Netzwerke detailliert erklärt, da es in der Arbeit Anwendung finden wird. Im späteren Verlauf wird ein LSTMNetzwerk implementiert und ausgewertet, um aus den Erfahrungen wichtige Erkenntnisse ableiten zu können. Aufbauend auf den Erkenntnissen, wird ein Konzept für die Fahrprofilauswahl definiert.
Tokenization projects are currently very present when it comes to new blockchain technologies. After explaining the fundamentals of cross-chain interaction, the bachelor thesis will focus on tokenizing technology for Bitcoin on Ethereum. To get a more practical context, implementing the currently most successful decentralized tokenization project is described.
Diese Arbeit befasst sich mit der forensischen Untersuchung von Systemen mit dem Trusted Plattform Module (TPM) von Apple, dem T2 Chip. Mittelpunkt ist die
physische Datensicherung über das Forensik Analysewerkzeug MacQuisition von BlackBag Technologies. Die Sicherheitsrichtlinien von den Apple Geräten mit verbautem TPM verhindern solche Sicherungen und schützen die Daten auf dem System. MacQuisition ist die erste Lösung für die Forensik, um dennoch ein physisches und gleichzeitig entschlüsseltes Abbild zu erzeugen. Dafür schafft es MacQuisition auf den Direct Memory Access (DMA) fähigen Enhanced Serial Peripheral Interface (eSPI) Bus zu gelangen und die Sicherheitsvorkehrungen zu umgehen.
Das Ziel der vorliegenden Bachelorarbeit besteht darin, die technischen und rechtlichen Aspekte von Cloudsicherungen für Strafverfolgungsbehörden zu beleuchten,um die aktuellen Gegebenheiten und somit eventuelle Defizite auf zu zeigen. Daher werden zu Beginn grundlegende Fakten benannt. Im Anschluss erfolgen praktische Untersuchungen bezüglich forensischer Sicherungsmethoden an PC und Mobiltelefon. Das Hauptaugenmerk liegt auf dem Zusammenschluss von Recht und Technik. Das Ergebnis bildet die Erarbeitung einer Handlungsempfehlung, bestehend aus Checkliste und Fragenkatalog.
Diese Arbeit zielt darauf ab, ein modernes Konzept für eine offene, webbasierte Notizsoftware vorzustellen, die auf einem gemieteten oder Heimserver installiert werden kann. Dabei steht im Vordergrund, dass die eigenen Daten bei einem selbst bleiben. Ein solches Konzept hat, anhand des Vergleiches mit existierenden Lösungen und aus gewonnenen Erkenntnissen bei der Entwicklung des Prototyps, eine gute Zukunft, da es sich auch genug sinnvoll von existierenden Lösungen abhebt, so dass eine weiterführende Entwicklung lohnenswert scheint.
Geeignet ist diese Arbeit für Personen, die sich für die Entstehung eines Softwareprototyps im Rahmen einer Bachelorarbeit interessieren und für die, die das Konzept interessant finden.
Das Konzept wurde klar definiert und kompakt mit existierenden Lösungen verglichen, daraufhin wurden die gewählten Technologien aufgeschlüsselt und anschließend der Prototyp und die Erkenntnisse vorgestellt.