Refine
Document Type
- Bachelor Thesis (108)
- Master's Thesis (31)
- Diploma Thesis (3)
Year of publication
- 2020 (142) (remove)
Keywords
- Computerforensik (11)
- Computersicherheit (11)
- Maschinelles Lernen (7)
- Softwareentwicklung (7)
- Videospiel (7)
- Blockchain (5)
- Künstliche Intelligenz (5)
- Bildverarbeitung (4)
- Bioinformatik (4)
- Digitalisierung (4)
- Algorithmus (3)
- App <Programm> (3)
- Benutzerfreundlichkeit (3)
- Genetischer Fingerabdruck (3)
- Internet der Dinge (3)
- Narrativität (3)
- Altersbestimmung (2)
- Android <Systemplattform> (2)
- Anwendungssoftware (2)
- Bildgebendes Verfahren (2)
- Biomedizin (2)
- Blut (2)
- Computerspiel (2)
- Datenerfassung (2)
- Datenmanagement (2)
- Datensicherung (2)
- Deep learning (2)
- Dreidimensionale Rekonstruktion (2)
- Erweiterte Realität <Informatik> (2)
- Gerichtliche Wissenschaften (2)
- Kraftfahrzeug (2)
- Malware (2)
- Mikroorganismus (2)
- Neuronales Netz (2)
- Programmierung (2)
- Rechtsmedizin (2)
- Software (2)
- Ultraviolettspektroskopie (2)
- Visuelle Wahrnehmung (2)
- 3D-Technologie (1)
- Abwasser (1)
- Abwasserreinigung (1)
- Ackerbohne (1)
- Ackerschmalwand (1)
- Anthropologie (1)
- Antigen (1)
- Automatische Identifikation (1)
- Automatische Spracherkennung (1)
- Autonomer Agent (1)
- Außerirdische Intelligenz (1)
- Benutzerverhalten (1)
- Bergbau (1)
- Berichterstattung (1)
- Bilderkennung (1)
- Bildsegmentierung (1)
- Biochemische Analyse (1)
- Bioelektrochemie (1)
- Biofilm (1)
- Biotechnolgie (1)
- Bitcoin (1)
- Business Intelligence (1)
- CRIPR/Cas-Methode (1)
- CRISPR/Cas-Methode (1)
- Chemisches Labor (1)
- Chemokine (1)
- Chemotherapeutikum (1)
- Cloud Computing (1)
- Codegenerierung (1)
- Computerkriminalität (1)
- Concept-art (1)
- Convolutional Neural Network (1)
- Cyanide (1)
- Cyberattacke (1)
- DNS (1)
- DNS-Origami (1)
- Daten (1)
- Datenbank (1)
- Datenverwaltung (1)
- Datenübertragung (1)
- Distraktion (1)
- Dreidimensionale Computergrafik (1)
- Dreidimensionales Modell (1)
- Dürrestress (1)
- E-Learning (1)
- Edge computing (1)
- Enterprise-Resource-Planning (1)
- Epitop (1)
- Erzaufbereitung (1)
- Erzähltechnik (1)
- Extrazelluläre Matrix (1)
- Fahrerassistenzsystem (1)
- Finanztechnologie (1)
- Finnland (1)
- Flugbahnverfolgung (1)
- Forensik (1)
- Fotogrammetrie (1)
- Gebäude (1)
- Gebäudeleittechnik (1)
- Genexpression (1)
- Gerichtliche Zahnmedizin (1)
- Geschlechtsbestimmung (1)
- Geschäftsmodell (1)
- Gesundheitswesen (1)
- Getreide (1)
- Gewalttätigkeit (1)
- Golderz (1)
- Graphentheorie (1)
- Hauptspeicher (1)
- Hochschule (1)
- Honeypot (1)
- Horrorfilm (1)
- Hospitalismus <Hygiene> (1)
- Immobilisierung (1)
- Industrie 4.0 (1)
- Information Extraction (1)
- Informationsvermittlung (1)
- Input-Output-Analyse (1)
- Interaktion (1)
- Interaktives Video (1)
- Ischämischer cerebraler Anfall (1)
- Kennzeichen (1)
- Kernel <Informatik> (1)
- Kinderpornografie (1)
- Klein- und Mittelbetrieb (1)
- Kläranlage (1)
- Kraftfahrzeugindustrie (1)
- Krebs <Medizin> (1)
- Kriminalanthropologie (1)
- Kriminalistik (1)
- Krisenmanagement (1)
- Kryokonservierung (1)
- Kryptologie (1)
- Kryptosystem (1)
- Kulturpflanzen (1)
- Laboratorium (1)
- Lebensmittelhygiene (1)
- Lebensmittelmikrobiologie (1)
- Lebensmitteltechnologie (1)
- Lebensmittelverarbeitung (1)
- Leichte Sprache (1)
- Lernendes System (1)
- Lernsoftware (1)
- Levofloxacin (1)
- Linux (1)
- Long Term Evolution (1)
- Managementinformationssystem (1)
- Manipulation (1)
- Medienkultur (1)
- Mehragentensystem (1)
- Mikrobieller Abbau (1)
- Mikrofluidik (1)
- Milchproduktion (1)
- Milchverarbeitung (1)
- Molekularbiologie (1)
- Molkerei (1)
- Moralpsychologie (1)
- Museum (1)
- Musik (1)
- Myelodysplastisches Syndrom (1)
- Nanostruktur (1)
- Netflix Inc. (1)
- Neue Medien (1)
- Oberflächengewässer (1)
- Oberkiefer (1)
- Objekterkennung (1)
- Objektverwaltung (1)
- Online-Durchsuchung (1)
- Opferschutz (1)
- Optische Zeichenerkennung (1)
- Pathogene Bakterien (1)
- Pathogener Mikroorganismus (1)
- Photosynthese (1)
- Phänotyp (1)
- Polizei (1)
- Polysaccharide (1)
- Produkt (1)
- Projektmanagement (1)
- Proteine (1)
- Proteinfaltung (1)
- RFID (1)
- Rechnernetz (1)
- Rechtsstellung (1)
- Reinigung (1)
- Rekonstruktion (1)
- Rollenspiel (1)
- Scanner (1)
- Scanning (1)
- Schimmelpilze (1)
- Schlaganfall (1)
- Schlagsahne (1)
- Schussverletzung (1)
- Schwierigkeitsgrad (1)
- Semantik (1)
- Sensor (1)
- Sicherungstechnik (1)
- Skelettfund (1)
- Smartphone (1)
- Smartwatch (1)
- Softwarearchitektur (1)
- Sound (1)
- Spiel-Engine (1)
- Spieler (1)
- Steganographie (1)
- Strafverfahrensrecht (1)
- Streaming <Kommunikationstechnik> (1)
- Sulfatreduzierer (1)
- Tatort (1)
- Textverarbeitung (1)
- Treiber <Programm> (1)
- Trinkwasseraufbereitung (1)
- Trinkwasserversorgung (1)
- Unity <Spiel-Engine> (1)
- Unterkiefer (1)
- Vektor (1)
- Vektorquantisierung (1)
- Verhältnismäßigkeitsgrundsatz (1)
- Vernetzung (1)
- Virtualisierung (1)
- Virtuelle Realität (1)
- Virtuelle Währung (1)
- Visualisierung (1)
- Wahrnehmung (1)
- Wasserprobe (1)
- Web Services (1)
- Web-Seite (1)
- Webentwicklung (1)
- Wildbirne (1)
- Windows 10 (1)
- Wirkung (1)
- Zeitreise (1)
- Zertifizierung (1)
- Zugang (1)
- iOS (1)
- Überwachtes Lernen (1)
Institute
- Angewandte Computer‐ und Biowissenschaften (142) (remove)
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
Active Learning (AL) ist eine besondere Trainingsstrategie im überwachten maschinellen Lernen, mit dem Ziel die Accuracy eines Klassifikators zu verbessern, indem ein Klassifikator mit nur wenig gelabelten, aber dafür hoch informativen Datenpunkten (DP) gelernt wird. In der medizinischen Forschung liegen oftmals nur wenig gelabelte DP vor. AL kann eine sinnvolle Strategie sein, um die Kosten und den Aufwand für das Labeln ungelabelter DP zu senken. Mit Pool-Based AL wurden bisher die größten Erfolge verzeichnet. In der vorliegenden Arbeit wurden zwei biologische, binäre Klassifikationsprobleme mit Uncertainty Sampling Pool-Based AL und Query by Bagging Comitee Pool-Based AL untersucht. Der Generalized Learning Vector Quantization (GLVQ) und ein Multilayer Perzeptron (MLP) wurden als Klassifikatoren verwendet. Anhand eines linear trennbaren und eines nicht linear trennbaren Datensatzes wurden die Auswirkungen der Anzahl an gelabelten DP, mit welcher die Klassifikatoren zu Beginn trainiert wurden, auf die Accuracy untersucht. Die AL-Accuracy näherte sich für das anfängliche Training der Klassifikatoren mit 10 % gelabelten DP bereits stark an die Accuracy im klassischen maschinellen Lernen an und war teilweise sogar größer. In einem weiteren Experiment wurden daher die Klassifikatoren anfänglich mit nur 1 % gelabelten DP trainiert. Es wurde die Auswirkung der Anzahl nachgelabelter DP, mit welcher die Klassifikatoren nachtrainiert wurden, auf die Accuracy untersucht. Für den linear trennbaren Datensatz war die Anwendung von AL mit dem GLVQ und 10 nachgelabelten DP sowie mit dem MLP und 50 nachgelabelten DP erfolgreich. Bei dem nicht linear trennbaren Datensatz wurde mit dem MLP zumindest eine Tendenz, dass AL die Accuracy verbessert, festgestellt. Jedoch reichten 50 nachgelabelte DP nicht aus.
Die Kreatur des Aliens aus dem gleichnamigen Science-Fiction/-Horrorfilm ist seit Jahren ein fester Bestandteil der modernen Medienkultur. Ausgehend von der Frage „Warum wirkt die Figur des furchteinflößenden Aliens so gut?“ wird in der vorliegenden Arbeit eine Analyse der körperlichen aber auch sozialen Merkmale des Film-Aliens sowie ähnlicher Kreaturen aus der Medienwelt vorgelegt, die auf die Ursachen der starken psychischen und emotionalen Wirkung dieser Figuren abzielt. Dabei zeigt sich, dass es eine spezifische Kombination von Merkmalen gibt, die sich auf eine konstruierte Alien-Figur übertragen lassen und eine starke emotionale Wirkung beim Menschen erzielen kann.
Digitale 3D-Modelle finden zunehmend auch im Bereich der Kriminalistik Anwendung, da sie nicht nur zur dauerhaften Dokumentation eines Tatortes beitragen, sondern auch wertvolle Erkenntnisse hinsichtlich des Tatherganges liefern können. Die vorliegende Arbeit befasst sich mit der Überprüfung des Generierungsprozesses derartiger 3D-Modelle hinsichtlich der in der IT-Forensik geltenden Richtlinien für die Reproduzierbarkeit und Dokumentation. Diese Untersuchung ist von Bedeutung, da die digitale 3D Tatortrekonstruktion nicht nur für die Ermittler selbst Hinweise liefert, sondern auch vor Gericht maßgebliche Beweiskraft haben kann, insofern sie die Anforderungen erfüllt. Für die Überprüfung wurden die beiden Softwarelösungen Agisoft Metashape und Meshroom genutzt, um zahlreiche Modelle unterschiedlicher Parametersets zu generieren. Anschließend wurden die mit gleichen Ausgangsbedingungen generierten Modelle hinsichtlich ihrer Ähnlichkeit verglichen, um so die Reproduzierbarkeit zu untersuchen. Mithilfe der Handbücher wurden zudem die einzelnen Prozessschritte näher betrachtet und somit die Möglichkeiten der Dokumentation überprüft.
Die vorliegende Arbeit beschäftigte sich mit einer Analyse von Methoden des maschinellen Lernens, mit Hinblick auf ihre unterstützende Wirkung für den intralingualen Übersetzungsprozess von deutschen standardsprachlichen zu Leichte Sprache Texten. Für diesen Zweck wurde ein Vergleich von relevanten Methoden, in diesem Fall die der statistischen maschinellen Übersetzung und die der neuronalen maschinellen Übersetzung aus dem Bereich des maschinellen Lernens und des Natural Language Processing aufgestellt. Dabei wurde der potenzielle Funktionsumfang, die Voraussetzungen sowie die Implementierbarkeit verglichen. Das Ergebnis dieses Vergleiches war es das, dass Potenzial durchaus gegeben ist mittels dieser Methoden den Übersetzungsprozess zu unterstützen. Jedoch bedingt das Fehlen eines Textkorpus für deutsche Standard Sprache und ein dazugehöriger Textkorpus der Leichten Sprache, das diese Methoden nicht implementiert, wurden konnten. Es konnten drei Funktionen umgesetzt werden, die den Übersetzungsprozess unterstützen. Zum einen die Funktion für die Anzeige von gebräuchlicheren Synonymen von Wörtern, eine Funktion für die automatische Generierung von
Zusammenfassungen und eine Funktion für Anzeige von Umformulierungen für Zahlen aus den Bereichen hohe Zahlen, alte Jahreszahlen und Prozent Zahlen. Die Evaluation der Funktionen mittels einer zufällig generierten Wortliste und ausgewählter Nachrichten für die Zusammenfassung und Zahlenbereiche ergab. Das diese Funktionen eine unterstützende Wirkung haben, jedoch stark fehleranfällig sind.
Die Einführung eines IT-Notfallmanagement kann auf freiwilligen Basis oder durch rechtliche Verpflichtungen erfolgen. Hierbei ist die Verwendung von etablierten Standards und Normen gerade für kleine und mittelständische Unternehmen (KMU) empfehlenswert, aber herausfordernd. In der vorliegenden Bachelorarbeit werden einschlägige gesetzliche Verpflichtungen für KMU betrachtet. Es wird sodann auf bekannte Normen und Standards des IT-Notfallmanagements eingegangen. Mit einer selbstentwickelten Methode werden diese auf ihre KMU-Tauglichkeit geprüft. Das Ziel besteht darin, den verpflichteten KMU den für sie geeignetsten der betrachten Standards und Normen aufzuzeigen.
Anlegen und Charakterisieren von Anreicherungskulturen aus Oberflächengewässern im Norden Finnlands
(2020)
Es wurden Wasserproben aus Finnland biochemisch charakterisiert. So wurden EcoPlates von BIOLOG benutzt, um die Wasserproben von heterotrophen mikrobiellen Gemeinschaften zu charakterisieren und klassifizieren. Zudem wurden Anreicherungskulturen erstellt und auf ihre Verwertung von Stickstoffquellen durch Phänotyp Mikroarray und auf ihre Zellwandzusammensetzung mit Gram-Färbung untersucht. Die daraus resultierenden Ergebnisse werden für die Bestimmung und Charakterisierung von den Anreicherungskulturen verwendet.
Die vorliegende Arbeit befasst sich mit der Analyse verschiedener Remoting Verfahren für die Verwendung von Webservices. Hauptziel ist aber, dass auf die Funktionalität der firmeninternen Webservices über einen Request-Handler zugegriffen werden kann. Um nicht bei jeder Anpassung oder Neuerstellung eines Webservice die URLs in den Anwenderprogrammen anpassen zu müssen, soll der Request-Handler die URL des angefragten Webservice ermitteln und eine
Kommunikation zwischen Anwenderprogramm und Webservice aufbauen und den Datenaustausch steuern.
Die vorliegende Arbeit befasst sich mit der Automatisierung des Schreibens von Unit-Tests. Das Hauptziel ist es für den Bereich iOS eine Lösung umzusetzen und diese auszuwerten. Dabei wird der Codegenerator Sourcery verwendet und die Templates für das Generieren der Unit-Tests in den verschiedenen Templatesprachen umgesetzt. Die Umsetzung sowie die verschiedenen Templatesprachen werden ausgewertet, um die Basis für weitere Entwicklung zu schaffen.
Ein Compiler oder Assembler wandelt Quellcode in ein ausführbares Programm um. Das resultierende Binary besteht aus Befehlen und Ressourcen, wie Bilder, Sounds oder anderen Informationen. Ohne den Ausführungskontext kann jedoch nicht im Vorhinein mit absoluter Sicherheit eine Angabe gemacht werden, bei welchen Bytes es sich um Anweisungen und bei welchen Abschnitten im Programm es sich um Ressourcen handelt. Bei einer Untersuchung oder einem
Dekompilierungsvorgang der binären Datei gestaltet sich diese bzw. dieser ohne vorliegenden Quellcode sehr schwierig. Als Beispiel für eine Von-Neumann-Architektur wurde in dieser Arbeit der Game Boy mit seiner
Sharp-LR35902-CPU gewählt. Mit Banking verwendet die Architektur sowohl historische Technologien, ähnelt aber dennoch sehr den derzeit häufig genutzten x86-64-CPUs von Intel oder AMD. Außerdem bieten die kleinen Programme von maximal zwei Mebibyte die Möglichkeit, auch in ineffiziente Ansätze auszuprobieren. In dieser Arbeit wurde anhand der folgenden sieben Lösungsansätze erläutert, wie man eine Befehl-Ressourcen-Trennung erzielen kann.
Manueller Ansatz (siehe Kapitel 3.1)
Metadaten-Ansatz (siehe Kapitel 3.2)
Alles-Befehle-Ansatz (siehe Kapitel 3.3)
Statistischer Ansatz (siehe Kapitel 3.4)
Emulationsansatz (siehe Kapitel 3.5)
Programmflussansatz (siehe Kapitel 3.6)
Brute-Force-Ansatz (siehe Kapitel 3.7)
Insbesondere wurden drei automatisierte bzw. teilautomatisierte Ansätze implementiert und anschließend
mit einer manuellen Trennung als Referenzwert verglichen. Dabei erzielte, bei dem verwendeten Kontrollprogramm ”StefaN”, der Programmflussansatz ein gutes Ergebnis.
Das mittels Emulationsansatz gewonnene Ergebnis schloss etwas schlechter ab. Der Brute-Force-Ansatz scheiterte an exponentiellen Wachstum und erzielte damit das schlechteste Ergebnis. Eine korrekte Trennung konnte nur mit dem manuellen Ansatz erreicht werden. In dieser Arbeit konnte keine vollautomatisierte Lösung für das Problem gefunden werden. Grundsätzlich kann festgehalten werden, dass eine Befehl-Ressourcen-Trennung einer ausführbaren Binärdatei auch in Zukunft eine Herausforderung darstellt.
Diese Arbeit beschäftigt sich mit der Methode der automatisierten Geschlechtsbestimmung über Abbilder des daktyloskopischen Fingerabdrucks und der deren Umsetzung als Programm zur praktischen Anwendung. Die theoretischen Grundlagen hierfür liefern mehrere Studien, die bereits im Rahmen zweier wissenschaftlicher Arbeiten betrachtet und in die praktische Anwendung in Form einer Software umgesetzt wurden.
Ziel dieser Arbeit war es, die Software zur automatisierten Geschlechtsbestimmung weiter um Prozesse der Bildverarbeitung zu erweitern, um die Genauigkeit und die Effizienz zu steigern.
Sowohl diese Veränderungen, als auch die gesamte Software an sich, sollte im Anschluss evaluiert werden, um deren Funktionsleistungen in messbaren Ergebnissen aufzuzeigen. Die daraus gezogenen Erkenntnisse sollen anschließend Ausblicke zur weiteren Verwendung geben.
Des Weiteren gibt die Arbeit Aufschluss über die Zusammenhänge des genetisch zufälligen Determinismus bei der Entstehung des Fingerabdrucks mit den zu beobachteten Phänomenen des scheinbaren Geschlechtsdeterminismus.
Aus Gründen der besseren Lesbarkeit wird in dieser Bachelorarbeit die Sprachform des generischen Maskulinums angewandt. Es wird an dieser Stelle darauf hingewiesen, dass die ausschließliche Verwendung der männlichen Form geschlechtsunabhängig zu verstehen ist.
Diese Bachelorarbeit handelt von der Konzeptionierung und Entwicklung eines Datenmanagements von Fahrzeugversuchsdaten. Dabei wird zuerst eine Vorbetrachtung durchgeführt, in der alle Anwendungsfälle und Ausgangsbedingungen analysiert werden. Die Analyse stellt die Grundlage dar auf der das Konzept im nächsten Kapitel basiert. Im Konzept wird der gesamte Prozessablauf des Datenmanagements von Auslösung des Prozesses bis zur Übergabe an den Folgeprozess betrachtet. Dabei werden verschiedene Ausgangsfälle betrachtet und jeweils eine entsprechende Umsetzungsmöglichkeit dargestellt. Mithilfe verschiedener Lösungsansätze wird eine bestmögliche Lösung gefunden. Bei der anschließenden Implementierung wird ein Prototyp erstellt, der das Konzept berücksichtigt. Mithilfe der beschriebenen Testumgebung und der Testfälle wird der Prototyp anschließend getestet.
Gold cyanidation is a process by which gold is removed from low-grade ore. Due to its efficiency it has found widespread application around the world, including Peru. The process requires free cyanide in high concentration. After the gold extraction is completed, free cyanide as well as metal cyanide complexes remain in the effluent of gold mines and refineries. Often these effluents are kept in storage ponds where they pose considerable risk to health and environ-ment. Thus, it is preferable to degrade cyanide to minimize the risk of exposure. In the context of this thesis cyanide degradation was explored in a UV-light based prototype. Degradation with a combination of hydrogen peroxide and UV-light has proven to be very effective at degrading cyanide concentrations of 100 mg/L and 1000 mg/L. Furthermore, the presence of ammonia as a degradation product could also be confirmed. Membrane distillation may provide an alternative to cyanide destruction in the form of cyanide recovery. Promising results were gathered from several membrane experiment.
In response to prevailing environmental conditions, Arabidopsis thaliana plants must increase their photosynthetic capacity to acclimate to potential harmful environmental high light stress. In order to measure these changes in acclimation capacity, different high throughput imaging-based methods can be used. In this master thesis we studied different Arabidopsis thaliana knockout mutants-and accessions in their capacity to acclimate to potential harmful environmental high light and cold temperature conditions using a high throughput phenotyping system with an integrated chlorophyll fluorescence measurement system. In order to determine the acclimation capacity, Arabidopsis thaliana knockout mutants of previously not high light assigned genes as well as accessions of two different haplotype groups with a reference and alternative allele from different countries of origin were grown under switching high light and temperature environmental conditions. Photosynthetic analysis showed that knockout mutant plants did differ in their Photosystem II operating efficiency during an increased light irradiance switch but did not significantly differ a week later under the same circumstances from the wildtype. High throughput phenotyping of haplotype accessions revealed significant better acclimation capacity in non-photochemical quenching and steady-state photosynthetic efficiency in Russian domiciled accessions with an altered SPPA gene during high light and cold stress.
Die vorliegende Bachelorarbeit befasst sich mit der Charakterisierung der extrazellulären Matrix, die durch humane Fibroblasten in Form von Cell Sheets in Zellkultur produziert wurde. Die Untersuchungen sollten vergleichend für die Zellen der Zelllinie MRC-5 und Primärzellen adulte und fetale humane dermale Fibroblasten durchgeführt werden. Zur Beurteilung der Matrixausprägung kam das Metabolic Oligosaccharide Engineering zum Einsatz. Zwei Methoden zur Dezellularisierung wurden miteinander verglichen, der Erfolg dieser beurteilt und die zurückbleibende extrazelluläre Matrix betrachtet.
Weitere Analysen zur Untersuchung vor und nach der Dezellularisierung beinhalteten unter anderem Glykosaminoglykan- und Hydroxyprolinbestimmungen, Rasterkraftmikroskopie und Siriusrotfärbung.
Convolutional Neural network (CNN) has been one of most powerful and popular preprocessing techniques employed for image classification problems. Here, we use other signal processing techniques like Fourier transform and wavelet transform to preprocess the images in conjunction with different classifiers like MLP, LVQ, GLVQ and GMLVQ and compare its performance with CNN.
Die vorliegende Bachelorarbeit befasst sich mit dem modernen Fahrzeug, das sich im Wandel der Digitalisierung zu einem datenverarbeitenden und stark mit der Umwelt vernetzten System entwickelt hat. Besonders durch die Auswertung von Literatur wird aufgezeigt, welche Risiken mit der zunehmenden Digitalisierung eines Fahrzeugs einhergehen
Keiner schaut mehr Fernsehen. Die Benutzung von Videostreaming ist beim Großteil der digital vertrauten Bevölkerung in Fleisch und Blut übergegangen und erstreckt sich über den gesamten Globus. Die Giganten der Streaming-Anbieter sind YouTube, Amazon und Netflix und sie sind dem Modell des Fernsehens meilenweit voraus. Mit komplex verstrickten Algorithmen sollen uns, den Nutzern, die Inhalte geboten werden, die uns dazu bringen, noch mehr zu konsumieren. Wie weit und auf welche Weise muss ein System entwickelt sein, um jedem Nutzer Inhalte anzubieten, die unheimlich oder faszinierende Weise auf uns zugeschnitten sind?
Das Ziel dieser Forschung ist es, das System der Vorschläge von Netflix auf die Qualität, Passgenauigkeit und Effizienz im Hinblick auf Präferenzen und Bedürfnisse zu bestimmen, die die Nutzer in Verbindung mit Netflix aufweisen.
Um die Forschungsfrage zu beantworten, wurden innerhalb einer mehrteiligen, iterativen Meinungsumfrage Bewertungen von Vorschlägen von Freunden, Bekannten und Familie mit den Vorschlägen von Netflix in den Zusammenhang mit dem eigenen Filmgeschmack, Präferenzen, Nutzung des Accounts und Verhalten beim Streaming gebracht. Dabei wurde bestätigt, dass die Vorschläge von Netflix stärker zum Filmgeschmack passen, hierbei jedoch Differenzierungen bei der Popularität und Unterhaltsamkeit des Vorschlags zu beobachten sind. Des Weiteren zeigte die empirische Untersuchung auf, dass verhaltenspsychologische und sozialwissenschaftliche Aspekte Einflüsse auf die Effizienz einer künstlichen Intelligenz haben und noch nicht voll ständig in die Optimierung in das System der Netflix Vorschläge eingeflossen sind.
Ziel dieser Arbeit ist die Einführung und Implementierung eines Konzeptes, das diese hochsensiblen Daten trennt und unabhängig voneinander verwaltet. Auf diese Weise soll verhindert werden, dass ein Angreifer, bei unautorisiertem Zugriff auf eine Datenbank, keinen Zugang zu allen Sensor- und Identitätsdaten hat. Zu diesem Zweck wird ein Service vorgestellt, der die aufgezeichneten Daten in mehrere Komponenten aufteilt und unabhängig voneinander speichert. Damit die Anwendung keine Kenntnis über den Datenspeicherort besitzen muss, soll außerdem sichergestellt werden, dass die Anwendung und die Datenquellen nicht selbst miteinander kommunizieren müssen.
In this thesis two novel methods for removing undesired background illumination are de-veloped. These include a wavelet analysis based approach and an enhancement of a deep learning method. These methods have been compared with conventional methods, using real confocal microscopy images and synthetic generated microscopy images. These synthetic images were created utilizing a generator introduced in this thesis.
Heutzutage werden digitale Geräte weitestgehend in allen Lebensbereichen genutzt. Die Bedeutung dieser Geräte nimmt ebenfalls für Straftäter und Kriminelle zu. Aus diesem Grund existieren gesetzliche Maßnahmen zur Durchführung von Online-Durchsuchungen. In dieser Arbeit wird sowohl auf den § 49 BKAG als auch auf den § 100b StPO eingegangen. Speziell der § 100b StPO soll bezüglich des Opferschutzes beleuchtet werden. Die Opferschutzrichtlinie der EU sowie die Grundrechtseingriffe der Maßnahme werden in diesem Zusammenhang untersucht. Weiterhin erfolgt in dieser Arbeit eine Prüfung des § 100b StPO mit den dazugehörigen Grundrechtseingriffen im Sinne des Verhältnismäßigkeitsgrundsatzes.
This thesis deals with the development of a methodology / concept to analyse targeted attacks against IIoT / IoT devices. Building on the established background knowledge about honeypots, fileless malware and injection techniques a methodology is created that leads to a concept of a honeypot analyzation system. The system is created to analyse and detect novel threats like fileless attacks which are often utilized by Advanced Persistent Threats. That system is partially implemented and later evaluated by performing a simulated attack utilizing fileless attacks. The effectiveness is discussed and rated based on the results.
Diese Arbeit beschäftigt sich mit einer theoretischen Auseinandersetzung des Modells der moralischen Entwicklung von Lawrence Kohlberg (1963), welches auf dem Konstrukt Piagets zum logischen Denken aufbaut. Als literarische Arbeit wurde versucht eine Übertragung des Modells aus dem realen Raum in den Virtuellen zu schaffen. Die zentrale Frage war, ob Deviante des realen Raumes die gleichen moralischen Stufen wählen, wie Deviante im virtuellen Raum. Weiterhin wurden die Big-Five der Persönlichkeit mit einbezogen.
Als zentrales Ergebnis zeigt sich die Kenntnis der geltenden Normen, sowie nicht geahndetes Übertreten vermeintlicher Grenzen. Weiterhin konnte festgestellt werden, dass es weniger um die moralische Entwicklung als starre Form, sondern um die Herausbildung einer moralischen Identität geht. Die Verschiebung der moralischen Wahl ist demnach keine räumliche, sondern eine zeitliche.
In der vorliegenden Bachelorarbeit wird auf den Nutzen sowie aktuelle Möglichkeiten bei der IT-forensischen Analyse des Arbeitsspeichers aktueller Computersysteme mit DDR4- Speichermodulen eingegangen. Es wird sich dabei sowohl auf generelle, als auch im Zuge der DDR4-Technik eingeführte, Funktionalitäten des physischen Arbeitsspeichers bezogen. Die Auswertbarkeit des Arbeitsspeichers wird aus IT-forensischer Sicht betrachtet und damit auftretende Problematiken für die IT-Forensik evaluiert. In der vorliegenden Arbeit wird vorrangig auf Methodiken der Analyse verschiedener Windows Hibernation Files, sowie den Cold Boot Ansatz eingegangen. Bei letzterem liegt der Schwerpunkt auf der Analyse verschleierter (gescrambelter) Arbeitsspeicherinhalte, sowie einem möglichen Ansatz effektiv Scrambler-Schlüssel aus diesen zu ermitteln.
Diese Arbeit untersucht die Bedeutung der neuen de novo Mutation JAK2 c.2765G>C, p. R922P, die bei einem Kind mit den klinischen Anzeichen eines myelodysplastischen Syndroms identifiziert wurde. Dazu sollte die Mutante zunächst kloniert und anschließend in murine Pro-B-Zellen transfiziert werden, die nur in Anwesenheit des Zytokins IL-3 lebensfähig sind. Durch Entzug des Zytokins sollte das onkogene Potential der Mutante untersucht werden, da bei konstitutiv aktiver Januskinase2 (JAK2) eine Interleukin-unabhängige Proliferation der Zellen weiterhin stattfindet.
Im Rahmen dieser Arbeit wird die metrische Analyse des menschlichen Kiefers erforscht. Dies beinhaltet das Themengebiet der Bissspurenanalyse, um den Beweiswert der Kiefervermessung vor Gericht feststellen zu können. Es sollen anschließend folgende Fragen beantwortet werden können: „Wie funktioniert die Vermessung?“, „Ist diese objektiv und reproduzierbar?“ und „Was wird für die gerichtliche Verwertbarkeit benötigt?“. Letzteres bezieht sich insbesondere auf die Art und Anzahl identifizierender Merkmale. Über dem Thema steht die These, dass das menschliche Gebiss einzigartig ist.
Das Ziel dieser Arbeit ist es zu beantworten, inwieweit sich die Werkzeuge und Methoden der Videospielentwicklung für eine Digitalisierung von anthropologischen Funden und deren Untersuchung am Beispiel der Game Engine “Unity“ [Unity Technologies, 2020o] eignen. Um diese Frage zu beantworten, wurde ein Prototyp zur osteometrischen Vermessung von Knochenfunden mithilfe von Unity entwickelt. Es wurde eine Pipeline zum photogrammetrischen Scannen von Knochenmaterial entwickelt und die Pipeline sowie der Prototyp wurden von Anthropologen der Abteilung für historische Anthropologie und Humanökologie des Johann-Friedrich-Blumenbach Instituts für Zoologie und Anthropologie der Universität Göttingen getestet, um die daraus resultierenden Ergebnisse zur Evaluation zu verwenden. Dabei ist es gelungen eine Scanpipeline, sowie eine Software zur Vermessung der Scans zu entwickeln, welche nach Angaben der Anthropologen eine Anwendung in ihrem Arbeitsalltag finden könnte. Ebenfalls gab die Hälfte der getesteten Anthropologen an, dass die Messungen im virtuellen 3D-Raum eine alternative zur physischen Messung darstellen kann. Allerdings weichen die Messungen im Prototyp zum aktuellen Zeitpunkt noch um durchschnittlich zwei bis vier Prozent (je nach Art der Messung) von den physischen Messungen am selben Knochen ab. In der Zuverlässigkeit der Messungen kann der Prototyp allerdings mit den Messungen im Physischen mithalten. Die deskriptive Beschreibung von morphologischen Merkmalen fiel den Anthropologen schwerer als im Physischen, was sich auch in einer erhöhten Streuung in den gemessenen Werten widerspiegelt. Als Hauptgründe wurden dafür die fehlende Haptik und Schwierigkeiten beim Einschätzen der Perspektive im 3D Raum angegeben. Das zeigt, dass der entwickelte Prototyp die physische Untersuchung nicht ersetzen kann, allerdings eigen sich die Werkzeuge und Methoden der Videospielentwicklung für eine Digitalisierung von anthropologischen Funden und deren Untersuchung insofern, dass die virtuelle Untersuchung die physischen Untersuchung unterstützen kann und somit einen Mehrwert bietet. Dies gilt besonders in Anwendungsfeldern, in denen das Knochenmaterial schwer für den Untersuchenden zugänglich ist.
Data streams change their statistical behaviour over the time. These changes can occur gradually or abruptly with unforeseen reasons, which may effect the expected outcome. Thus it is important to detect concept drift as soon as it occurs. In this thesis we chose distance based methodology to detect presence of concept drift in the data streams. We used generalized learning vector quantization(GLVQ) and generalized matrix learning vector quantization( GMLVQ) classifiers for distance calculation between prototypes and data points. Chi-square and Kolmogorov–Smirnov tests are used to compare the distance distributions of test and train data sets to indicate the drift presence.
Die vorliegende Arbeit befasst sich mit der DNA-Phänotypisierung und wie sich deren Anwendung in Form der erweiterten DNA-Analyse auf den Strafprozess in Deutschland auswirken wird. Unter der Betrachtung aktueller wissenschaftlicher Publikationen werden die derzeitigen Möglichkeiten der DNA-Phänotypisierung beleuchtet. Angesichts der neuen Gesetzeslage werden häufig geäußerte Kritikpunkte aufgegriffen und im Kontext gesellschaftlicher und ermittlungstechnischer Aspekte weitergeführt. Abschließend werden Empfehlungen für die effektive Anwendung in Deutschland gegeben, sowie für die verantwortungsvolle Aufnahme der biogeografischen Herkunft in die erweiterte DNA-Analyse argumentiert.
Der Funktionalitätstest von elektrisch betriebenen Küchenmaschinen laut DIN EN 60619 beim Schlagen von Sahne hat eine große Streuung und geringe Reproduzierbarkeit. Ein Grund kann in den Unterschieden der verwendeten Sahne liegen, die laut Norm zulässig sind. Um den Einfluss der Sahne auf den Funktionalitätstest von Küchenmaschinen zu verringern, muss die Norm spezifiziert oder eine Sahne verwendet werden, die nur einen minimalen Einfluss hat. Um dies zu erreichen müssen Parameter ermittelt werden, die den Einfluss der Sahne genauer beschreiben. Hierfür wurde die Einflussgrößen Sahnetempertatur, Fettgehalt, Einsatz des Stabilisators Carrageen, das Ultrahocherhitzen und das Kühlen von Schlagwerkzeug und Schüssel genauer untersucht. Dabei wird der Einfluss eben genannter Einflussgrößen auf die Bestimmung des spezifischen Volumens und des Abtropfgewichtes verdeutlicht, welche im Prüfverfahren Anwendung finden.
Ziel dieser Arbeit ist die Entwicklung eines Konzepts und einer Erstimplementation zur Benutzerdatenerfassung, um verschiedene Digitalisierungsprozesse messen zu können. Die durch die Benutzerdatenerfassung gesammelten objektiven Interaktionsdaten sollen weitere Daten, wie z. B. eine Benutzerakzeptanzstudie bei einer vergleichenden Evaluation von Prozessen zur Dokumentenerfassung hinsichtlich der Benutzbarkeit ergänzen und unterstützen.
Verschiedene Videospiele bieten einen unterschiedlichen Grad an Herausforderung und Schwierigkeit. Die meisten von ihnen verfügen trotz unterschiedlicher Schwierigkeitsgrade über keine Möglichkeit dem Spieler eine passende Herausforderung zu schaffen. In dieser Arbeit soll sich damit beschäftigt werden, basierend auf den spielerischen Fähigkeiten der Person, eine passende Herausforderung im Spiel zu schaffen. Dazu wird die folgende Forschungsfrage gestellt: Ist es möglich durch eine adaptive Anpassung von Parametern in Videospielen für Spieler jedes Leistungsniveaus eine ähnlich anspruchsvolle Herausforderung zu erzeugen?' Diese wird durch die Entwicklung und Umsetzung von Fähigkeitentests realisiert, dessen Ergebnisse einen Bossfight beeinflussen. Um die Forschungsfrage zu beantworten, wird die entwickelte Testreihe mit einigen Probanden absolviert und deren Feedback vernommen. Dieses Feedback führt zu dem Schluss, dass die Tests geeignet sind für die Leistungsermittlung, aber der Bossfight und die Umgebung nicht für ein spielerisches Umfeld sorgen, was die Forschungsfrage unvollständig beantwortet lässt. Weitere Arbeiten könnten sich mit der Umsetzung einer besseren Testumgebung und einem besseren Anwendungsfall beschäftigen.
Aufgrund der Vielzahl an angebotenen Dienste die auf unterschiedliche Systemen betrieben und miteinander verbunden sind, sowie sensible Informationen enthalten, ist die IT-Sicherheit enorm wichtig geworden. Heterogene IT-Infrastrukturen und interagierende Softwaresysteme verkomplizieren die Administration solcher Umgebungen. In diesem Zusammenhang wird „Automatisierung“ häufig als ein Lösungsansatz propagiert. In dieser Arbeit wird ein Automatisierungs-Referenzrahmen in Verbindung mit einer Konfigurationsverwaltungslösung eingeführt um eine abstrakte Sichtweise auf das Thema zu geben. Der BISS Automatisierungs-Referenzrahmen teilt einzelne Bestandteile, wie Entwicklung, Erweiterungsdienste,
Konfigurationsverwaltungslösung und IT-Infrastruktur in verschiedene Domänen ein. Die Kommunikation zwischen den Domänen ist reguliert und begrenzt um die Sicherheit der Umgebung zu gewährleisten. Eine praktische Anwendung des entworfenen Referenzrahmens und seinen Domänen wird mit Ansible als Konfigurationsverwaltungslösung in einer Software-Defined Netzwerkinfrastruktur von Cisco aufgezeigt. Mit der Einbindung von Sicherheitskomponenten, wie Check Point Firewalls und F5 Big-Ips, werden exemplarische Fallbeispiele einer Automatisierung heterogener Umgebungen demonstriert.
Das Fluorchinolon Levofloxacin hemmt die Gyrase in Mitochondrien, wodurch die mitochondriale DNA in der supercoiled-Form repliziert wird. Dabei entstehen Katenate, die bei einer Zellteilung nur an ein Tochtermolekül weitergegeben werden. Dies hat zur Folge, dass Zellen ohne mtDNA, sogenannte ρ0-Zellen, entstehen.
Diese Eigenschaft von Levofloxacin sollte genutzt werden, um ρ0-Zellen zweier Krebszelllinien (HeLa und PC 3) herzustellen. Zusätzlich wurde die Wirkung von Levofloxacin auf diese Krebszellen untersucht, um einen neuen möglichen Therapieansatz zu finden. Überprüft wurde dies mit Hilfe von Fluoreszenzmikroskopie, einem metabolischen Test und einer relativen Quantifizierung mittels qPCR.
Anhand der Ergebnisse konnten Unterschiede zwischen den beiden Zelllinien beobachtet werden. Levofloxacin bewirkte eine Proliferationshemmung und die Induzierung einer Apoptose bei höheren Konzentrationen, was eine toxische Wirkung auf die Krebszellen beweist. Es war jedoch nicht möglich, ρ0-Zellen herzustellen. Bei den HeLa-Zellen konnte eine Abnahme der mtDNA beobachtet werden, bei den PC 3-Zellen kam es dagegen zu einem Anstieg, was auf eine Überproduktion an mitochondrialer DNA zurückzuführen wäre. Die Herstellung von ρ0-HeLa-Zellen wäre mit Levofloxacin bei einer längeren Antibiotikabehandlung möglich.
Diese Arbeit liefert einen Überblick über verschiedene elektronische Zutrittskontrollsysteme und deren Funktionsweise. Des Weiteren werden Angriffstechniken erläutert, mit denen diese Systeme angegriffen und umgangen werden können. Dabei wird besonders auf RFID und biometrische Systeme eingegangen. Die Angriffstechniken sind allgemein formuliert um einen möglichst großen Überblick über mögliche Angriffstechniken und -vektoren geben zu können.
Entwicklung einer CRISPRCas9 basierten Methode zur chromogenen in situ-Markierung spezifischer DNS
(2020)
Ziel der Arbeit war es, die Möglichkeit der in‒situ Markierung (ISH) durch das CRISPRCas9-System aus Streptococcus pyogenes zu nutzen, um damit ein chromogenes Detektionsverfahren für spezifische DNS-Sequenzen zu entwickeln (chromogene CRISPR-ISH). Das bisherige CRISPR-FISH-Verfahren von [Ishii et al. 2019] nutzte als Signalgeber Fluoreszenzfarbstoffe. Nachteilig ist, dass die für den Nachweis von Fluoreszenzsignalen nötige Technik wie Fluoreszenzmikroskop und -kamera kostenintensiv ist. Dadurch sind diese technischen Voraussetzungen für kleine Labore oder Bildungseinrichtungen häufig nicht erschwinglich. Weiterhin werden Fluoreszenzsignale nach wiederholtem Lichtkontakt instabil, wodurch die so markierten Präparate nicht mehrmals betrachtet werden können und für den wiederholten Gebrauch nicht geeignet sind. Die in dieser Arbeit entwickelte Methode sollte es ermöglichen, das Prinzip der CRISPR-Cas-basierten Markierung zu nutzen, ohne den Nachteilen der Fluoreszenz zu unterliegen. Um dieses Ziel zu erreichen, wurde die
CRISPR-FISH Methode sukzessive umgestaltet. Die bisher eingesetzten Fluoreszenzfarbstoffe wurden ersetzt. Die Zellkernfärbung (bisher durch DAPI) und die Visualisierung der Ribonukleoproteine (bisher durch Atto550) sollte mit nicht-fluoreszenten Farben realisiert werden. Die Ergebnisse sollten als Dauerpräparte so konserviert werden, dass diese beliebig häufig mit einem Lichtmikroskop betrachtet werden können.
Das Thema IT-Sicherheit wird durch zunehmende Vernetzung, neue Anforderungen an Systeme und Industrie 4.0 auch für industrielle Netzwerke wie SCADA und ICS immer wichtiger.
Finanzielle Schäden durch Angriffe steigen von Jahr zu Jahr. Deswegen ist es wichtig, diese Netzwerke zu schützen und Angriffe frühzeitig zu erkennen, um zeitnah auf diese reagieren zu können und größere Schäden zu vermeiden. Da klassische Methoden ICS Systeme zum Teil behindern können und um einen zusätzlichen Schutz zu den normalen Intrusion Detection Systemen und Firewalls zu bieten, ist das Ziel dieser Arbeit, die Entwicklung einer Plattform, zur
verhaltensbasierten Detektion von Angriffen in solchen Netzwerken. Dafür werden Honeypots im Netzwerk verteilt, welche dazu dienen, Angriffe, die das normale IDS oder Firewalls umgangen haben, oder gar von Internen durchgeführt werden, zu erkennen. Die Honeypots sind in der Lage, Zugriffe auf die von ihnen verwendeten Protokolle zu erkennen und senden in diesem Fall Meldungen an einen zentralen Server, welcher diese in einer Datenbank speichert und in einem Dashboard visualisiert. Das in dieser Arbeit beschriebene Konzept und seine detailliert beschriebene Umsetzung sollen den Einstieg für Unternehmen in dieses Thema erleichtern und zu weiterer Forschung auf diesem Gebiet anregen.
This bachelor thesis aims for the creation of an add on to the open source software Blender, wich is capable of making a procedural texture, that resebles human skin. Its purpose lies in aiding the process of facial reconstruction in the forensic field.
The beginning covers the importance of facial reconstruction and its general workings. It is followed by the scientific backround of the human skin. The main part of the thesis covers the creation of the material and its integration into an add on. Finally its results are evaluated against photographs of real human skin. The Thesis concludes with a summary and speculatory look into the future.
Im Rahmen der Abschlussarbeit soll untersucht werden, inwiefern die Kombination von live objects der Realm Database auf der einen Seite und Combine und SwiftUI auf der anderen, die entstehende Komplexität und Fehleranfälligkeit bei der App-Entwicklung in iOS reduzieren kann. Es soll ein durchführbarer praktischer Teil in Form einer Chat-App entstehen und getestet werden, die die Vor- und Nachteile der genannten Techniken verdeutlicht.
Diese Arbeit beleuchtet die Konzeption und subsequente Entwicklung eines Prototyp-Projekts, das zur praxisorientierten Vermittlung von Fähigkeiten und Kompetenzen im Bereich Audio, Animation und Implementierung im zusammengeführten Modul Animation, Rigging und Audio in digitalen Medien verwendet werden soll. Dieses Projekt soll zur Verfügung gestellt werden und unterrichtsbegleitend dazu genutzt werden, diverse Arbeitsschritte in den genannten Bereichen zu verstehen, zu erlernen und mit sicht- und hörbarem Ergebnis anzuwenden. Im Rahmen dieser Arbeit wird der Fokus der Bearbeitung und Analyste zunächst auf den Bereich Game Audio gelegt. Der Prototyp bildet aber bereits diverse praktische Ansatzpunkte auch für die Bereiche Rigging, Animation und Implementierung
Das Ziel dieser Arbeit ist es die bestehende ALP, um ein Analysetool zu ergänzen. Dieses Analysetool soll Dozenten einen Anhaltspunkt geben, ob die Lernenden Lernerfolge erzielen oder, ob es in bestimmten Bereichen Probleme gibt. Dazu werden die Grundlagen von Lernerfolg und Learning Analytics analysiert. Zusätzlich werden ähnliche Tools analysiert, um von diesen Inspiration und Anforderungen zu beziehen. Diese Anforderungen und die Anforderungen der ALP gehen in ein zu erstellendes Konzept ein, mit dem, unter anderem, der Lernerfolg von Lernenden durch das Analysetool gemessen werden soll. Anhand des Konzeptes wird die bestehende Architektur angepasst und erweitert. Dabei gilt es beim Umsetzen des Konzeptes nicht nur das Analysetool zu entwickeln, sondern auch nötige Änderungen an anderen Bestandteilen der ALP, wie der mobilen Applikation vorzunehmen. Zum Evaluieren wird zunächst die mobile Applikation durch eine Probandengruppen getestet, um Daten für das Analysetool zu generieren. Mit diesen Daten wird das Analysetool von Lehrenden auf seine User Experience und Nützlichkeit getestet.
Die Diplomarbeit beschreibt die Entwicklung und Integration eines Reporting Moduls im Sinne der Business Intelligence-Anwendung zur managementunterstützenden Entscheidungsfindung. Ziel ist die Schaffung eines Grundkonzepts für die Einführung einer BI-Lösung bei Endkunden von Infinica, die die Infinica Plattform einsetzen und ein Berichtswesen ihrer Dokumentgenerierungen einführen wollen. Ein Konzept soll dabei gefunden werden, wie aus der Infinica Plattform für ein fachspezifisches Berichtswesen relevante Daten erzeugt und in Datenquellen für BI-Lösungen überführt werden können. Mithilfe eines Reporting-Tools sollen die Daten performant abgefragt und Berichte einfach erzeugt und angepasst werden können.
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
Ziel dieser Arbeit ist der Entwurf einer Komponente, welche in der Lage ist Entscheidungsbäume in den 3D-Raum zu projizieren. Dazu ist es erforderlich, diese erweiterbar zu gestalten. Im Speziellen muss sie dafür verschiedene Arten von Knoten und Entscheidungsregeln mithilfe einer erweiterbaren Schnittstelle unterstützen.
Die Schnittstelle ist als Teil der Arbeit zu definieren und zu dokumentieren. Die Komponente soll prototypisch Interaktionen des Nutzers registrieren, wie das Anwählen einzelner Bestandteile des Modells. Um die Verwendbarkeit in Folgeprojekten sicherzustellen muss zu diesem Zweck im Rahmen der Arbeit eine API definiert werden
Diese Arbeit befasst sich mit der Entwicklung eines epochenübergreifenden Aufgaben- und Objektmanagementsystems zur prozeduralen Generierung von Narrativen. Dabei wurde ein Questsystem als Managementinstanz für Aufgaben und Objekte entwickelt sowie ein auf L-Systemen und der Graphentheorie basierender Algorithmus zur prozeduralen Generierung Narrativen entwickelt.
Das Chemokin CCL2 spielt bei entzündlichen Prozessen, wie dem ischämischen Schlaganfall, eine wichtige Rolle. Die biologische Aktivität von CCL2 kann durch eine N-terminale Modifikation, katalysiert durch die Enzyme Dipeptidyl-Peptidase 4 und (iso)Glutaminyl-Cyclase, beeinflusst werden. In dieser Arbeit soll der Einfluss von CCL2 und CCL2-modifizierenden Enzymen auf das Überleben primärer Neurone unter ischämischen Bedingungen untersucht werden. Dazu werden verschiedene knock-out Mauslinien des Stamm C56Bl/6 verwendet. Für die quantitative Analyse der Lebensfähigkeit wurden MTT- und LDH-Assays genutzt. Somit konnte gezeigt werden, das CCL2, DP4 und (iso)QC das Überleben primärer Neurone unter ischämischen Bedingungen beeinflussen. Durch immunzytochemische Färbungen wurde die Expression von CCL2, sowie eine Veränderung der Neuritenanzahl und -länge vor und nach Ischämie nachgewiesen.
Das Epitop-Mapping dient der Identifizierung von Epitopen eines Antigens. Dazu wurden Seren immunisierter Kaninchen zur Durchführung verwendet. Die Peptidsequenzen von Phagen wurden mittels des Peptid-Phage-Display selektiert und amplifiziert. Diese Sequenzen wurden anschließend mit LibDB analysiert. Es wurden 7 potentielle Epitope des Dengue-Virus Serotyp 2 Envelope (E)-Proteins identifiziert.
Die vorliegende Arbeit befasst sich mit der Konzipierung und Realisierung einer Augmented Reality Web Applikation für die Staatlichen Kunstsammlungen Dresden.
Dabei wird der Nutzen von Augmented Reality im Museum anhand eines erarbeiteten Konzepts evaluiert und die Möglichkeiten der technischen Umsetzung eines solchen Konzepts, mittels moderner Webtechnologien geprüft.
In dieser Bachelorarbeit soll festgestellt werden, ob die Erkennung von KFZ-Kennzeichen mittels künstlicher Intelligenz insoweit möglich ist, dass eine digitale Manipulation derer, im Anschluss denkbar ist. Dazu werden zunächst äußerliche Eigenschaften von KFZ-Kennzeichen ausgearbeitet und herkömmliche Kamerasysteme vorgestellt. Anschließend wird eine Anwendung für automatisierte Kennzeichenerkennung getestet, um einzuschätzen, ob die Erkennungsfunktion die Erfolgsrate ausweist, die für eine digitale Manipulation von Nöten ist. Die Arbeit richtet sich an Personen mit Verständnis von Computern sowie der Arbeitsweise neuronaler Netze im Speziellen.
Erstellen eines Leitfadens zur Sicherstellung der gestalterischen Kontinuität von Concept Art
(2020)
Das Ziel dieser Arbeit ist es einen Leitfaden zur Sicherstellung der gestalterischen Kontinuität von Concept Art zu erstellen. Um das zu erreichen wurden zuerst die essenziellen Begriffe Concept Art und Kontinuität definiert. Aus diesen Definitionen wurden anschließend Methoden abgeleitet die eine Sicherstellung der Kontinuität gewährleisten können. Schlussendlich wurde eine Expertenumfrage durchgeführt und analysiert. Die Analyseergebnisse wurden mit den theoretischen Erkenntnissen in einem Leitfaden zusammengefasst
In dieser Arbeit wird der Probenahmeplan der Trinkwasseranlage im Versorgungsgebiet Oechsetal, die TWA Schorngraben, und der Probenahmeplan des Versorgungsgebietes Vacha auf lokale Risiken untersucht, um daraufhin eine risikobewertungsbasierte Anpassung des Probenahmeplans vorzuschlagen. Hierbei wird eine Beschreibung des Systems angefertigt und mit Hilfe der Trinkwasserdaten können schließlich bestimmte chemische Parameter mit Grenzwert darauf untersucht werden, ob sie vom Probenahmeplan gestrichen oder die Probenahmehäufigkeit reduziert werden soll.
Vor der Etablierung neuer Versionen in D-LIMS, müssen diese erst auf ihre Funktionstüchtigkeit geprüft werden. In der Arbeit wird das D-LIMS im Sachbereich DNA-Analyse des Kriminaltechnischen Instituts des Landeskriminalamts Brandenburg und eine Versionskontrolle für die Software D-LIMS vorgestellt.
Das Ziel der vorliegenden Bachelorarbeit war es, einen Einblick in die kostenlosen Application-Performance-Management-Software „Pinpoint“, „InspectIT Ocelot“ und „Elastic APM“ für die Analyse von Java-Applikationen anhand einer Java-Referenz-Anwendung zu gewinnen und diese mit der kosten-pflichtigen APM-Software „Dynatrace“ zu vergleichen. Dafür wurden Architektur, Funktionen, Erweiterungsmöglichkeiten, Performance und Support von „Dynatrace“ analysiert und auf Basis der Ergebnisse eine Bewertungsmatrix auf-gestellt. Auf Basis dieser Grundlage wurden die kostenlosen APM-Tools analysiert und bewertet. Es stellte sich heraus, dass „Elastic APM“ eine gute kosten-lose Alternative zu „Dynatrace“ ist.
Evaluation softwarespezifischer Physik Engines hinsichtlich
der Verwendung im forensischen Kontext
(2020)
Das Ziel dieser Arbeit ist die Überprüfung der Bullet Physik Engine und der PhysX Engine hinsichtlich ihrer Tauglichkeit im Kontext der forensischen Fallsimulationen. Nach dem Behandeln der Theorie werden dafür experimentelle Ansätze in Form von Ragdollsimulationen genutzt, um die beiden Engines miteinander zu vergleichen und zu bewerten. Diese Versuche werden in den Programmen Blender und Unreal Engine 4 durchgeführt, welche die beiden Physikalgorithmen einbinden und so ebenfalls miteinander verglichen werden können. Zusätzlich wurde eine Standard Operating Procedure für die Erstellung von Ragdolls in Blender angefertigt.
Die vorliegende Arbeit setzt sich mit der Windows 10 Timeline auseinander. Da diese erst vor kurzem entwickelt und von Microsoft veröffentlich wurde, gibt es wenige forensische Analysen. Ziel ist es, die Windows 10 Timeline und ihre Datenbank genauer zu betrachten. Es soll unter anderem herausgefunden werden, welche Daten die Datenbank überhaupt speichert, wie diese Daten in die Tabellen gespeichert werden und wie die Tabellen in den Datenbanken miteinander arbeiten. Weiterhin soll der forensische Wert der Windows 10 Timeline erforscht werden. Demnach ist ein weiteres Ziel, die Relevanz der Windows 10 Timeline in digital forensischen Ermittlungen zu untersuchen.
Die vorliegende Bachelorarbeit befasst sich mit dem Pilzwachstum an zerlegten Schweinegliedmaßen. Es wurden 3 Bedingungen (lose/nackt, Jeansstoff/“Bekleidung“ und Plastiktüte) sowie 2 Auslegemöglichkeiten (Erdoberfläche und 20 cm tief im Boden) gewählt. Unter welchen dieser gewählten Bedingungen das Pilzwachstum startet oder das weiterführende Wachstum begünstigt oder behindert wird, ist Aufgabenstellung dieser Bachelorarbeit. Dazu wurden 90 Versuchsobjekte in die Natur verbracht und für ungefähr 6 Monate beobachtet.
Diese Arbeit befasst sich mit der forensischen Untersuchung von Systemen mit dem Trusted Plattform Module (TPM) von Apple, dem T2 Chip. Mittelpunkt ist die
physische Datensicherung über das Forensik Analysewerkzeug MacQuisition von BlackBag Technologies. Die Sicherheitsrichtlinien von den Apple Geräten mit verbautem TPM verhindern solche Sicherungen und schützen die Daten auf dem System. MacQuisition ist die erste Lösung für die Forensik, um dennoch ein physisches und gleichzeitig entschlüsseltes Abbild zu erzeugen. Dafür schafft es MacQuisition auf den Direct Memory Access (DMA) fähigen Enhanced Serial Peripheral Interface (eSPI) Bus zu gelangen und die Sicherheitsvorkehrungen zu umgehen.
Eine Vielzahl der heutigen Cyber Angriffe auf Unternehmen haben das Ziel sich in deren Netzwerk auszubreiten, um so an kritische Informationen zu gelangen oder das Unternehmen anderweitig zu schädigen. Eine Betrachtung dieses als Lateral Movement bezeichnete Vorgehen ist Thema der vorliegenden Bachelorarbeit. Hauptaugenmerk wird auf die forensische Analyse wahrscheinlich auftretender Methoden und den dabei anfallenden Spuren gelegt. Bei den Spuren wurde sich größtenteils auf Ereignisse in Protokolldateien, sowie auf Registry- und Programmausührungs-Artefakte bezogen. Als Ergebnis wurde eine tabellarische Übersicht der zu priorisierenden Spuren erstellt, die Ermittlern zu einer effektiveren forensischen Analyse solcher IT Vorfälle verhelfen soll.
Financial fraud for banks can be a reason for huge monetary losses. Studies have shown that, if not mitigated, financial fraud can lead to bankruptcy for big financial institutions and even insolvency for individuals. Credit card fraud is a type of financial fraud that is ever growing. In the future, these numbers are expected to increase exponentially and that’s why a lot of researchers are focusing on machine learning techniques for detecting frauds. This task, however, is not a simple task. There are mainly two reasons
• varying behaviour in committing fraud
• high level of imbalance in the dataset (the majority of normal or genuine cases largely outnumbers the number of fraudulent cases)
A predictive model usually tends to be biased towards the majority of samples, in an unbalanced dataset, when this dataset is provided as an input to a predictive model.
In this Thesis this problem is tackled by implementing a data-level approach where different resampling methods such as undersampling, oversampling, and hybrid strategies along with bagging and boosting algorithmic approaches have been applied to a highly skewed dataset with 492 idetified frauds out of 284,807 transactions.
Predictive modelling algorithms like Logistic Regression, Random Forest, and XGBoost have been implemented along with different resampling techniques to predict fraudulent transactions.
The performance of the predictive models was evaluated based on Receiver Operating CharacteristicArea under the curve (AUC-ROC), Precision Recall Area under the Curve (AUC-PR), Precision, Recall, F1 score metrics.
Das Ziel der vorliegenden Bachelorarbeit war es, eine Software zu entwickeln, die plausible Abstreitbarkeit auf Grundlage einer Trennung der Metadaten von den Nutzdaten eines verschlüsselten Datenträgers erreicht. Beide Teile wurden auf unterschiedliche Weise mittels bildsteganografischer bzw. datenträgersteganografischer Methoden dahingehend verändert, um letztendlich
die Existenz verschlüsselter Daten verbergen zu können. Die als “Proof-of-Concept“ entwickelte Software für Linux-Betriebssysteme soll dabei für den Nutzer ein möglichst transparentes Arbeiten gewährleisten aber durch die steganografischen Komponenten einen möglichst niedrigen Mehraufwand aufweisen. Sie greift weitestgehend auf Standardwerkzeuge zurück, wurde in der Programmiersprache Python 3 implementiert und steht hinsichtlich des Open-Source-Gedankens unter der GNU General Public License.
he automatic comparison of RNA/DNA or rather nucleotide sequences is a complex task requiring careful design due to the computational complexity. While alignment-based models suffer from computational costs in time, alignment-free models have to deal with appropriate data preprocessing and consistently designed mathematical data comparison. This work deals with the latter strategy. In particular, a systematic categorization is proposed, which emphasizes two key concepts that have to be combined for a successful comparison analysis: 1) the data transformation comprising adequate mathematical sequence coding and feature extraction, and 2) the subsequent (dis-)similarity evaluation of the transformed data by means of problem specific but mathematically consistent proximity measures. Respective approaches of different categories
of the introduced scheme are examined with regard to their suitability to distinguish natural RNA virus sequences from artificially generated ones encompassing varying degrees of biological feature preservation. The challenge in this application is the limited additional biological information available, such that the decision has to be made solely on the basis of the sequences and their
inherent structural characteristics. To address this, the present work focuses on interpretable, dissimilarity based classification models of machine learning, namely variants of Learning Vector Quantizers. These methods are known to be robust and highly interpretable, and therefore,
allow to evaluate the applied data transformations together with the chosen proximity measure with respect to the given discrimination task. First analysis results are provided and discussed, serving as a starting point for more in-depth analysis of this problem in the future.
Im Rahmen dieser Arbeit wurde ein mikrofluidischer Chip mit dem speziellen Design für ein reversibles Vakuumbonding sowie der Fähigkeit zur hydrodynamischen Fokussierung entwickelt. Die Anwendung erfolgte mit der Zielstellung, DNA Origami mithilfe dieses mikrofluidischen Setups auf einer Oberfläche zu immobilisieren.
Genetic sequence variations at the level of gene promoters influence the binding of transcription factors. In plants, this often leads to differential gene expression across natural accessions and crop cultivars. Some of these differences are propagated through molecular networks and lead to macroscopic phenotypes. However, the link between promoter sequence variation and the variation of its activity is not yet well understood. In this project, we use the power of deep learning in 728 genotypes of Arabidopsis thaliana to shed light on some aspects of that link. Convolutional neural networks were successfully implemented to predict the likelihood of a gene being expressed from its promoter sequence. These networks were also capable of highlighting known and putative new sequence motifs causal for the expression of genes. We tested our algorithms in various scenarios, including single and multiple point mutations, as well as indels on synthetic and real promoter sequences and the respective performance characteristics of the algorithm have been estimated. Finally, we showed that the decision boundary to classify genes as expressed and non-expressed depends on the sensitivity of the transcriptome profiling assay and changing it has an impact on the algorithm’s performance.
In this work a second version for the Python implementation of an algorithm called Probabilistic Regulation of Metabolism (PROM) was created and applied to the metabolic model iSynCJ816 for the organism Synechocystis sp. PCC 6803. A crossvalidation was performed to determine the minimal amount of expression data needed to produce meaningful results with the PROM algorithm. The failed reproduction of the results of a method called Integrated and Deduced Regulation of Metabolism (IDREAM) is documented and causes for the failed reproduction are discussed.
Die vorliegende Bachelorarbeit vergleicht die zwei Honeypotsysteme T-Pot und Modern Honey Network miteinander. Hierfür zeigen Angriffsszenarien gegen die Honeypotsysteme, wie Angreifer diese wahrnehmen würden und wie die Honeypots die Angriffe protokollieren. Die ersten Kapitel dienen als Einführung in die Thematik der Honeypots und erläutern die Problemstellung und Vorgehensweise. Kapitel 4 und 5 beleuchten den Entwurf und die Durchführung der Angriffsszenarien. In Kapitel 7 wird der Vergleich anhand selbst aufgestellter Kriterien durchgeführt. Das Honeypotsystem T-Pot hat in diesem Vergleich knapp besser abgeschnitten. Jedoch lässt sich Schlussfolgern, das je nach individuellen Zielen und Einsatzzwecken beide Honeypotsysteme mit ihren Stärken überzeugen können.
Footage of organoids taken by means of fluorescence microscopy and segmented as well as triangulated by image analysis software like LimeSeg and Mastodon often needs to be visualized in aesthetic manner for presentation of the results in scientific papers, talks and demonstrations. The goal of this work was to create a simple to use addon “Biobox” for the open source 3D – visualization package “Blender” which would allow to import triangulated 3D data with animation over time (4D), produced by image analysis software, and optimize it for efficient usage. ”Biobox” offers several visualization tools for the creation of rendered images and animation videos by biologists.
The optimization of imported data was performed by using Blender intern modifiers. The optimized data can then be visualized by using several tools built for visualizing the organoid in frozen, animated and semi-transparent manners. A dynamic link for object selection and dynamic data exchange between Blender and Mastodon was developed. Additionally, a user interface was developed for manual correction errors of segmentation and steering the object detection algorithms of LimeSeg. The benchmark of the developed addon “Biobox” was performed on real scientific data. The benchmark test demonstrated that developed optimization result in significant (~5 fold) decrease of RAM usage and acceleration of visualization more than 160 times.
Diese Arbeit beschäftigt sich mit der Problematik der Verbreitung von Keimen und den damit verbundenen nosokomialen Infektionen durch den Siphon. Es wird die Wirksamkeit einer Sperre untersucht, die die Biofilmbildung im Siphon und damit die Verbreitung von Keimen verhindern soll. Dazu werden durch Puls-Magnetron-Sputtern Flachproben mit einer Titandioxidbeschichtung beschichtet. Die Aktivität und Stabilität der Titandioxidbeschichtung wird oberflächenanalytisch und mikrobiolgisch untersucht, sowie für die Bewertung der Wirksamkeit Versuchsregime etabliert.
Die vorliegende Arbeit beschäftigt sich mit dem Thema der Verbesserung narrativer Kontinuität in digitalen Spielen, welche auf einem anderen Medium basieren.
Im Fokus des Forschungsinteresse stand die Frage, ob es möglich ist, einen Katalog an Betrachtungsweisen zu erstellen, welcher einen Designer bei seiner Arbeit an einem solchen digitalen Spiel unterstützen kann und ihm hilft, die narrative Kontinuität zu wahren.
Weiterführende Fragen beschäftigten sich damit, ob narrative Kontinuität überhaupt erstrebenswert ist und welches Teammitglied zu welchem Zeitpunkt für die Sicherung die-ser zuständig ist.
Zu diesem Zweck wurde eine umfassende theoretische Recherche durchgeführt, um wichtige Grundbegriffe des narrativen Designs zu klären und für die weitere Arbeit zu definieren.
In der Folge wurden dann Gespräche mit Experten auf dem Gebiet des narrativen und Spieldesigns aus der deutschen Entwicklerszene geführt. Diese Gespräche wurden in der Folge dokumentiert und aufgearbeitet. Als Ergebnis dieser Arbeit hat sich schließlich ein Katalog von 28 Betrachtungsweisen ergeben, welcher so in der Zukunft in einem realen Anwendungsfall unterstützend ein-gesetzt werden könnte. Dessen vorläufige Beurteilung und ein Ausblick auf weiterführende Arbeiten daran und damit sind ebenfalls Teil dieser Arbeit.
Glycans play an important role in the intracellular interactions of pathogenic bacteria. Pathogenic bacteria possess binding proteins capable of recognizing certain sugar motifs on other cells, which are found in glycan structures. Artificial carbohydrate synthesis allows scientists to recreate those sugar motifs in a rational, precise, and pure form. However, due to the high specificity of sugar-binding proteins, known as lectins, to glycan structures, methods for identifying suitable binding agents need to be developed. To tackle this hurdle, the Fraunhofer Institute for Cell Therapy and Immunology (Fraunhofer IZI) and the Max-Planck Institute of Colloids and Interfaces (MPIKG) developed a binding assay for the high throughput testing of sugar motifs that are presented on modular scaffolds formed by the assembly of four DNA strands into simple, branched DNA nanostructures. The first generation of this assay was used in combination with bacteria that express a fluorescent protein as a proof-of-concept. Here, the assay was optimized to be used with bacteria not possessing a marker gene for a fluorescent protein by staining their genomic DNA with SYBR® Green. For the binding assay, DNA nanostructures were combined with artificially synthesized mannose polymers, typical targets for many lectins on the surface of bacteria, presenting them in a defined constellation to bind bacteria strongly due to multivalent cooperativity. The testing of multiple mannose polymers identified monomeric mannose with a 5’-carbon linker and 1,2-linked dimeric mannose with linker as the best binding candidates for E. coli, presumably due to binding with the FimH protein on the surface. Despite similarities between the FimH proteins of E. coli and K. pneumoniae, binding was only observed between E. coli and the different sugar molecules on DNA structures. Furthermore, the degree of free movement seemed to affect the binding of mannose polymers to targeted proteins, since when utilizing a more flexible DNA nanostructure, an increase in binding could be observed. An alternative to the simple DNA nanostructures described above is the use of larger, more complex DNA origami structures consisting of several hundred strands. DNA origami structures are capable of carrying dozens of modifications at the same time. The results for the DNA origami structure showed a successful functionalization with up to 71 1,2-linked dimeric mannose with linker molecules. These results point towards a solution for the high-throughput analysis of potential binding agents for pathogenic bacteria e.g. as an alternative treatment for antibiotic-resistant.
In der heutigen Gesellschaft finden zunehmend Fitnesstracker Anwendung. Viele Menschen sind daran interessiert ihre körperlichen Aktivitäten über den Alltag hinweg aufzuzeichnen, um einen Überblick über ihre Gesundheit oder Fitness zu erhalten. Aufgezeichnete körperliche Aktivitäten sollen in dieser Arbeit speziell mit GPS-Positionen, die auf einem separaten Gerät von derselben Person generiert wurden, in Verbindung gesetzt werden. Konkret wird eine Datenkopplung innerhalb eines Aggregationsalgorithmus für Geo-Positionen integriert. Die Aktivitätsdaten werden ausgewertet und über eine Java-Applikation dem Anwender zur Verfügung gestellt. Als Anwender kommen z.B. IT-Forensiker infrage. Um die Tauglichkeit zu testen, wurden über einen Zeitraum von zwei Wochen Testdatensätze mit einem Garmin vívosmart 4 und einem Android-Smartphone erho-ben. Das Ergebnis der in dieser Arbeit durchgeführten Implementierung ermöglicht eine Zusammenführung und Analyse dieser Daten auf Anwendungsebene.
Anwendung moderner Bilderkennungsverfahren auf polizeiliche Problemstellungen, mit dem Ziel strafrechtlich relevante Inhalte herauszufiltern. Dabei werden die 3 Architekturen Faster R-CNN, SSD-ResNet und EfficientDet getestet. Anschließend soll eine Integration in den PA von Cellebrite
erfolgen, um die Verarbeitungspipeline innerhalb der Polizei bestmöglich zu ergänzen. Aufgrund von Systeminkompatibilitäten wurde eine eigenständige Lösung erarbeitet.
Aufgrund der bedeutenden Fortschritte im Bereich der Hochdurchsatzsequenzierungstechnologien und folglich dem exponentiellen Wachstum biologischer Daten entstehen in der Bioinformatik Herausforderungen bei der Speicherung und Analyse großer Datenmengen. Die umfangreichen
Genotypisierungsdaten der Gerste, welche als Referenzdatensatz vorlagen, wurden am Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) durch Genotyping by Sequencing (GBS) erstellt. Zur effektiven Speicherung sowie Analyse dieser Daten wurden verschiedene Datenstrukturen erstellt und hinsichtlich Performance und Speicherbedarf evaluiert. Die Entwicklung verschiedener Java-Tools ermöglichte dabei das Einlesen, die Verarbeitung, sowie die Ausgabe dieser Daten zur effektiven Strukturierung und Analyse. Um die Anwendung dieser Java-Tools über Edge-Computing zu ermöglichen, wurde an der Erstellung von Datencontainern gearbeitet.
Vicia faba leaves and calli were transformed using CRISPR Cas RNP. Two kinds of CPP fused SpyCas9 were used with sgRNA7, sgRNA5 or sgRNA13 targeting PDS exon 1, PDS exon 2 or MgCh exon 3 respectively. RNP were applied using high pressure spraying, biolistic delivery, incubation in RNP solution and infiltration of leaf tissue. A PCR and restriction enzyme based approach was used for detection of mutation. Screening of 679 E. coli colonies containing the cloned fragments resulted in detection of 14 mutations. Most of the 14 mutations were deletions of sizes 150, 500 or 730 bp. 5 out of the 14 mutations were point mutations located two to three bp upstream of PAM.
In bioinformatics one important task is to distinguish between native and mirror protein models based on the structural information. This information can be obtained from the atomic coordinates of the protein backbone. This thesis tackles the problem of distinction of these conformations, looking at the statistics of the dihedral angles’ distribution regarding the protein backbone. This distribution is visualized in Ramachandran plots. By means of an interpretable machine learning classification method – Generalized Matrix Learning Vector Quantization – we are able to distinguish between native and mirror protein models with high accuracy. Further, the classifier model supplies supplementary information on the important distributional regions for distinction, like α-helices and β-strands.
IT-Forensische Analyse moderner Android Betriebssysteme : Sicherheitsbericht zu Android Trojanern
(2020)
In der vorliegenden Bachelorarbeit soll ein Überblick über die Anfälligkeit moderner Android Betriebssysteme auf Trojaner gegeben werden. Dieser Trojaner, welcher während der Bachelorarbeit erstellt wurde, soll eine Backdoor enthalten, wodurch dieser eine HTTPS-Verbindung zum Ziel-System aufbaut. Über diese Verbindung soll an-schließend eine Meterpreter Session auf dem Ziel-System etabliert werden, um Zu-gang zu dem infizierten System zu erlangen.
Immer häufiger greifen technikbegeisterte Personen zu Smart-Home Geräten für ihre eigenen vier Wänden. Durch diese Geräte, kann der Weg zur Tür abgenommen oder die Bestellung über eine Onlineplattform erleichtert werden. Der Nutzen dieser meist kleinen aber durchdachten komplexen Maschinen ist enorm. Um der Schnelllebigkeit entgegen zu wirken, werden immer kreativere Wege gesucht. IoT-Geräte ermöglichen das Ersetzen der lokalen Einstellung am Gerät selbst. Bspw. kann so die Heizungssteuerung auf dem Heimweg vorgenommen werden. Dadurch spielt eine klare Sicherheitsdefinition für den Umgang mit persönlichen Daten eine größer werdende Rolle. Hierbei stellt sich die Frage, wie anfällig solche Anlagen sind. Das Kernstück dieser Arbeit wird sich mit der Feststellung von möglichen Schwachstellen in Innogy Smart-Home-Geräten beschäftigen. Insbesondere werden Endgeräte untersucht, welche bereits Einzug in den Alltag gefunden haben. Ansätze der Informationssicherheit und der digitalen Forensik werden in realitätsnahen Szenarien aufgezeigt und analysiert. Es werden Richtlinien des Bundesamtes für Sicherheit in der Informationstechnik und gesetzliche Vorgaben berücksichtigt. Teile des Sicherheitskonzeptes werden transparent dargestellt.
Die Arbeit untersucht das Problem, der Named Entity Recognition in großen Textkorpora. Für klassische Modelle sind meist große gelabelte Datenmengen nötig, die häufig aber nicht zur Verfügung stehen, weil manuelle Annotation sehr zeitaufwendig ist. Deshalb wurde ein Halbüberwachtes
(Semi-Supervised) Verfahren untersucht, um ausgehend von einer kleinen Menge manuell annotierter Daten iterativ mit möglichst wenig Annotationsaufwand ein solides Modell zu trainieren. Das Verfahren nutzt gezielte manuelle Annotation, um den Lerneffekt durch Self-Training zu erhöhen. Die Untersuchungen haben jedoch gezeigt, dass durch Self-Training in diesem Fall keine Verbesserung erzielt werden konnte. Es kann aber eine erhebliche Menge
manueller Annotation durch die gezielte Auswahl von statistisch unsicheren Sätzen für die manuelle Annotation eingespart werden und dadurch effizienter eine bessere Performance erreicht werden.
Käufer haben häufig das Problem die Sicherheit von Produkte einzuschätzen. In der Bachelorarbeit möchte ich darauf eingehen, welche Zertifizierungsmöglichkeiten existieren und in welche Branchen sie sich einordnen. Daraufhin wird eine Klassifizierung und Einordnung der Zertifikate zur IT-Sicherheit durchgeführt. Im Schwerpunkt liegen hierbei die Produktzertifizierungen. Die Transparenz wird für den Verbraucher übergreifend betrachtet. Die Ergebnisse zeigen auf, ob sich Zertifikate gut oder weniger gut für die unterschiedlichen Branchen eigenen und ob gegebenenfalls Risiken damit verbunden sind.
Diese Arbeit zielt darauf ab, ein modernes Konzept für eine offene, webbasierte Notizsoftware vorzustellen, die auf einem gemieteten oder Heimserver installiert werden kann. Dabei steht im Vordergrund, dass die eigenen Daten bei einem selbst bleiben. Ein solches Konzept hat, anhand des Vergleiches mit existierenden Lösungen und aus gewonnenen Erkenntnissen bei der Entwicklung des Prototyps, eine gute Zukunft, da es sich auch genug sinnvoll von existierenden Lösungen abhebt, so dass eine weiterführende Entwicklung lohnenswert scheint.
Geeignet ist diese Arbeit für Personen, die sich für die Entstehung eines Softwareprototyps im Rahmen einer Bachelorarbeit interessieren und für die, die das Konzept interessant finden.
Das Konzept wurde klar definiert und kompakt mit existierenden Lösungen verglichen, daraufhin wurden die gewählten Technologien aufgeschlüsselt und anschließend der Prototyp und die Erkenntnisse vorgestellt.
Die in dieser Arbeit entwickelte Software trägt den Titel Inceptum, der bereits vorgegeben war und für Beginn oder ein Vorhaben steht. Die Software soll zukünftig als Stütze dienen, um nicht mehr viele unterschiedliche Softwarelösungen nutzen zu müssen, sondern nur noch eine zentrale, das reduziert das wiederholte Eingeben von kohärenten Daten. Jira und SAP sollen jedoch nicht ersetzt werden, Inceptum dient lediglich als Ergänzung und als Schnittstelle der unterschiedlichen Daten um daraus eine auswertbare Sammlung an Informationen zu erhalten, was zuvor in mühsamer Handarbeit in Excel-Tabellen erledigt werden musste. Somit soll viel Zeit und Arbeit eingespart werden, was immer mit hohen Kosten verbunden ist. Diese Art von individueller Verbindung hebt das Konzept der Software von den gängigen Projektmanagement-Softwarelösungen ab.
Der in dieser Arbeit entwickelte Grundstein der Software beinhaltet alle Vorkehrungen, um diese Schnittstellen später anbinden zu können. Kein Teil dieser Arbeit ist das Entwickeln der Schnittstellen an sich. Die Schnittstelle zu
der Ticketverwaltungssoftware Jira ist bereits fertig programmiert und deren Anbindung an die Software wird lediglich untersucht. Die Anbindung an SAP ist ebenfalls nicht in dieser Arbeit vorgesehen. Die Daten aus Excel sollen möglichst ersetzt werden, um später darauf nicht mehr zurückgreifen zu müssen. Die Positionierung der Software Inceptum wird in der Grafik 1.2 noch einmal visualisiert. Kein Bestandteil der Arbeit ist außerdem das Anlegen, Bearbeiten und Löschen von Mitarbeitern, sowie deren Verfügbarkeitsänderungen, die Software baut lediglich auf der Grundlage dessen auf. Auch die Tabelle zur Darstellung von Verfügbarkeiten der Mitarbeiter pro Zeiteinheit ist kein Bestandteil der Arbeit.
Konzept, Entwurf und prototypische Implementierung einer Web-Oberfläche für einen Roboadvisor
(2020)
Die vorliegende Arbeit thematisiert die prototypische Entwicklung einer Web-Oberfläche zur Datenpflege für das Unternehmen Franke-Media.net. Im Zuge der Entwicklung wurde ein/e Datenformular/Eingabemaske nach Anforderungen der zuständigen Fachredaktion und eine Navigationsoberfläche nach den Anforderungen des Unternehmens geschaffen. Anschließend wurde die Web-Oberfläche nach zwei Methoden des Usability-Testings getestet und evaluiert. Im Verlauf der Arbeit wird auf Grundwissen über Finanzdienstleistungen, Vergleichsportale und Web-Anwendungen eingegangen. Es werden zudem verschiedene Techniken zum Erreichen des Ziels betrachtet. Anschließend folgen die Konzipierung und das Erstellen einer ersten prototypischen Oberfläche. Den Abschluss der Arbeit bilden die Usability-Tests sowie die Auswertung der Ergebnisse dieser.
Aufgrund der unvorhergesehenen Corona-Krise, dadurch entstandener Komplikationen und den daraus resultierenden zeitlichen Problemen konnten nicht alle Funktionen implementiert werden.
Die Erkenntnisse und Ergebnisse der Bachelorarbeit dienen als Ausblick für darauf auf-bauende Arbeiten.
Ziel dieser Arbeit ist es, ein Software-Architektur-Konzept zu entwickeln, umzusetzen und zu evaluieren, dessen Fokus auf die Kombination einer Smartwatch-Anwendung mit einer AR-Brille-Anwendung gerichtet ist. Dazu wurde ein Patent untersucht, dessen Schwerpunkt auf der Kombination von AR-Brille und Smartwatch liegt, um Anforderungen an solch eine Software-Architektur zu erstellen. Im Anschluss entstand unter Einbeziehung der recherchierten Informationen ein Architektur-Konzept. Für die darauffolgende Umsetzung wurden Anwendungsfälle entwickelt, die zeigen sollen, wie ausgewählte Software-Qualitätsmerkmale bei Verwendung der
Architektur erreicht werden können. Bei der anschließenden Evaluation zeigte sich, dass die Architektur zur Erfüllung wichtiger Software-Qualitätsmerkmale beiträgt, aber auch Optimierungspotenzial besitzt.
Konzeption und Umsetzung eines Komplexpraktikums zur Erstellung einer WebApp für Mobile Endgeräte
(2020)
Die vorliegende Arbeit befasst sich mit der Erstellung eines Komplexpraktikums zur Entwicklung einer WebApp für mobile Endgeräte. Ziel der Arbeit ist es, den aktuellen Stand der Technik im Bereich der Entwicklung von Webanwendungen zu analysieren und auf Grundlage der daraus gewonnenen Erkenntnisse selbst eine Webanwendung zu konzipieren und umzusetzen. Diese Anwendung dient ihrerseits als Basis für die Erstellung von 4 Seminaren für die Studenten des 2. Semesters im Studiengang Medieninformatik und Interaktives Entertainment der Hochschule Mittweida, in deren Rahmen sie diese nachprogrammieren und dadurch mit den Technologien und Konzepten vertraut gemacht werden.
Konzeption zum Aufbau einer Werkstatt 4.0 mit prototypischen
IoT Elementen, teilweise simuliert
(2020)
Bei dieser Arbeit wurden verschiedene Vergleiche zwischen Datenübertragungsarten gezogen und welche in einer Werkstatt 4.0 implementiert werden können. Die Vergleiche finden sich meist in Tabellenform wieder, da diese die beste Möglichkeit zur Gegenüberstellung bieten. Weiterhin wurde ein Konzept für eine Benutzerverwaltung erstellt. Dabei war die Vorgabe mit dem ASP.Net Framework „Razor Pages“ und WPF zu arbeiten. Diese Arbeit ist sowohl für studierende der Informatikstudiengänge als auch für Technik affine Studenten interessant.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
In dieser Arbeit soll festgestellt werden, wie die künstliche Intelligenz als Schadsoftware funktioniert. Unter anderem werden das Cyber-Angriff-Modell und das IT-Sicherheitsprozess vom Bundesamt für Informationstechnik und Sicherheit vorgestellt. Anschließend werden die mit der automatisierten Malware einhergehenden Sicherheitsrisiken und die Auswirkung der künstlichen Intelligenz als Schadsoftware auf das Cyber-Angriff-Modell und das IT-Sicherheitsprozess überprüft.
Mathematics Behind the Zcash
(2020)
Among all the new developed cryptocurrencies from Bitcoin, Zcash comes out to be the strongest cryptocurrency providing both transparency and anonymity to the transactions and its users by deploying the strong mathematics of zk-SNARKs.
We discussed the zero knowledge proofs which is a basic building block for providing the functionality to zk-SNARKs. It offers schnorr and sigma protocols with interactive and noninteractive versions. Non-interactive proofs are further used in Zcash transactions where the validation of sent transaction is proved by cryptographic proof.
Further, we deploy zk-SNARKs proofs following common reference string as public parameter when transaction is made. The proof allows sender to prove that she knows a secret for an instance such that the proof is succinct, can be verified very efficiently and does not leak the
secret. Non-malleability, small proofs and very effective verification make zk-SNARKs a classic tool in Zcash. Since we deal with NP problems therefore we have considered the elliptic curve cryptography to provide the same security like RSA but with smaller parameter size.
Lastly, we explain Zcash transaction process after minting the coin, the corresponding transaction completely hides the sender, receiver and amount of transaction using zero knowledge proof.
As future considerations, we talk about the improvements that can be done in term of decentralization, efficiency by comparing with top ranked cryptocurrencies namely Ethereum and Monero, privacy preserving against the thread of quantum computers and enhancements in shielded transactions.
In der letzten Dekade hat sich die Verwendung von Cloud-Computing für das verlässliche und kostengünstige Betreiben von IT-Ressourcen und Applikationen weitgehend etabliert. Für Anwendungsszenarien mit hochsensitiven Daten können jedoch inakzeptable Restrisiken in Bezug auf deren Vertraulichkeit und Integrität – insbesondere während der eigentlichen Datenverarbeitung – verbleiben. Mit Hilfe von Intel SGX ist die Entwicklung dahingehend abgesicherter Anwendungen möglich, eine Nutzung dessen Funktionalität durch bereits bestehende Applikationen dagegen nicht ohne Weiteres. Um diese vor Angriffen auf die Vertraulichkeit oder Integrität mittels SGX zu schützen, wurden in der Forschung verschiedene Ansätze zur Migration entwickelt. Insbesondere serviceorientierte, aus mehreren Einzeldiensten bestehende, Anwendungen bedürfen dafür jedoch einer ausführlichen Planung und strukturierten Vorgehens. Die vorliegende Masterarbeit hat das Ziel, ein grundlegendes Verständnis für SGX zu vermitteln und die Migration solcher Anwendungen zu vereinfachen. Dafür wird eine generische Methodik vorgestellt sowie anhand des Beispiels einer populären Webanwendung hinsichtlich ihrer Funktionalität, Sicherheit und Performanz evaluiert. Zusätzlich erfolgt die Diskussion der Migration von Container-Anwendungen sowie deren Besonderheiten und Möglichkeiten zur Orchestrierung.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
A Protein is a large molecule that consists of a vast number of atoms; one can only imagine the complexity of such a molecule. Protein is a series of amino acids that bind to each other to form specific sequences known as peptide chains. Proteins fold into three-dimensional conformations (or so-called protein’s native structure) to perform their functions. However, not every protein folds into a correct structure as a result of mutations occurring in their amino acid sequences. Consequently, this mutation causes many protein misfolding diseases. Protein folding is a severe problem in the biological field. Predicting changes in protein stability free energy in relation to the amino acid mutation (ΔΔG) aids to better comprehend the driving forces underlying how proteins fold to their native structures. Therefore, measuring the difference in Gibbs free energy provides more insight as to how protein folding occurs. Consequently, this knowledge might prove beneficial in designing new drugs to treat protein misfolding related diseases. The protein-energy profile aids in understanding the sequential, structural, and functional relationship, by assigning an energy profile to a protein structure. Additionally, measuring the changes in the protein-energy profile consequent to the mutation (ΔΔE) by using an approach derived from statistical physics will lead us to comprehend the protein structure thoroughly. In this work, we attempt to prove that ΔΔE values will be approximate to ΔΔG values, which can lead the future studies to consider that the energy profile is a good predictor of protein binding affinity as Gibbs free energy to solve the protein folding problem.
Möglichkeiten und Grenzen der blender-internen Physik Engine zur Simulation von Schussverläufen
(2020)
The following work deals with the problem of digital crime scene reconstruction based on the simulation of the trajectory of a projectile. To be able to make a realistic realization of this trajectory, the physical laws as well as the external influences are explained. This knowledge is used in conjunction with the expertise of software technology to test appropriate parameter combinations for their efficiency. Therefore the focus is on the step-by-step parameterization of the trajectory using the open-source software Blender. The resulting possibilities and limitations of such a reconstruction are considered in a differentiated way
Eine Untersuchung des Netzwerkverkehrs von 4 verschiedenen mobilen Applikationen mit Hilfe der Comminity Edition der Burp Suite der Firma PortSwigger auf sicherheitsrelevante Schwachstellen sowie das Aufzeigen der Grenzen bei der die Burp Suite zur Untersuchung von Netzwerkverkehr verwendet werden kann.
In Anbetracht des hohen Vernetzungsgrades der Wirtschaft stellen Cyberangriffe eine größere Gefahr dar denn je. Erfolgreiche Angriffe können heutzutage schwerwiegende Folgen haben und nicht nur die Wirtschaft, sondern auch die Politik beeinflussen. Somit werden gute Schutzmaßnahmen zunehmend wichtiger. Penetrationstests und Vulnerability Assessments helfen dabei Netzwerke sicherer zu gestalten und nach außen eine möglichst geringe Angriffsfläche zu bieten. Speziell Netzwerkscanner nehmen hier eine tragende Rolle ein, da sie automatisiert Schwachstellen finden und diese bewerten. Dennoch liefern nicht alle Netzwerkscanner die gleichen Resultate und bewerten Schwachstellen unterschiedlich. In dieser Arbeit sollen die vier der bekanntesten Netzwerkscanner hinsichtlich ihres Scanverhaltens, der Bewertung der Befunde, sowie der gefundenen False Positives und False Negatives verglichen werden. Letztendlich soll diese Arbeit dazu dienen, je nach Anwendungsfall den Scanner auszuwählen, der das beste Ergebnis liefert.