Refine
Document Type
- Bachelor Thesis (108)
- Master's Thesis (31)
- Diploma Thesis (3)
Year of publication
- 2020 (142) (remove)
Keywords
- Computerforensik (11)
- Computersicherheit (11)
- Maschinelles Lernen (7)
- Softwareentwicklung (7)
- Videospiel (7)
- Blockchain (5)
- Künstliche Intelligenz (5)
- Bildverarbeitung (4)
- Bioinformatik (4)
- Digitalisierung (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (142) (remove)
Das Alter eines Blutflecks an einem Tatort kann bei der Verfolgung einer Straftat Informationen über den Tatzeitpunkt liefern und für eine Rekonstruktion des Tatgeschehens dienen. Jedoch existiert in der heutigen Zeit keine anwendbare Methode, um eine exakte Aussage über das Blutalter zu tätigen, wenn man die herrschenden Umweltbedingungen mit einberechnen will.
In dieser Arbeit wird die Blutalterung ex vivo mit Hilfe der UV-VIS- Spektroskopie unter dem Einfluss der Luftfeuchte und Sonneneinstrahlung analysiert. Dazu wurden bekannte Features, welche alterskorrelierende Veränderungen zeigen, zur Untersuchung herangezogen.
Zur Umweltsteuerung konnte mit Hilfe eines Raspberry Pi’s 4 Model B und einem USBLuftbefeuchter eine Methode entwickelt werden, um einen angegebenen Luftfeuchtewert über einen gewünschten Zeitraum zu halten und aufzuzeichnen.
Es zeigten sich deutliche Unterschiede bei der Umsetzung von Oxyhämoglobin zu Met-Hämoglobin bei unterschiedlichen Luftfeuchtewerten. Die Sonneneinstrahlung hingegen
zeigt keinen signifikanten Einfluss auf die alterskorrelierenden Features.
Die Arbeit beschäftigt sich mit der Weiterentwicklung eines LIMS für die AUD-GmbH in Chemnitz. Als Orientierung dient eine vorangegangene Bachelorarbeit („Entwicklung eines Plans für ein LIMS auf Grundlage des Baukastensystems Nuclos“ von Florian Quellmalz), welche sich mit einem ähnlichen Thema beschäftigt hat. Mithilfe des Open Source Programms „Nuclos“ soll die Grundlage für ein funktionierendes LIMS geschaffen werden. Hierfür werden Informationen über Datenbankerstellung, die internen Laborprozesse und relevante Arbeitsschritte gesammelt, verarbeitet und anhand dessen in das LIMS einbezogen.
Diese Arbeit beschäftigt sich mit der Problematik der Verbreitung von Keimen und den damit verbundenen nosokomialen Infektionen durch den Siphon. Es wird die Wirksamkeit einer Sperre untersucht, die die Biofilmbildung im Siphon und damit die Verbreitung von Keimen verhindern soll. Dazu werden durch Puls-Magnetron-Sputtern Flachproben mit einer Titandioxidbeschichtung beschichtet. Die Aktivität und Stabilität der Titandioxidbeschichtung wird oberflächenanalytisch und mikrobiolgisch untersucht, sowie für die Bewertung der Wirksamkeit Versuchsregime etabliert.
In der vorliegenden Arbeit werden Bildanalysemethoden für die Lokalisation und Klassifikation von Eingabefeldern untersucht. Bei den Eingabefeldern liegt der Schwerpunkt auf den Benutzererkennungs- und Passwortfeldern, da die Verwendung der Bildanalysemethoden für eine Single Sign-On Lösung gedacht ist. Neben traditionellen Bildverarbeitungsmethoden, wie Segmentierung und Hough-Transformation, wird auch die Verwendung von neuronalen Netzen betrachtet.
Krebs zählt zu den häufigsten Todesursachen. Die Suche nach neuen Wirkstoffen führt immer häufiger zu natürlichen Quellen. Das Heilkraut Artemisia annua L. bzw. dessen Sekundärmetabolit Artemisinin stellt einen Kandidaten zur Entwicklung neuer Krebsmedikament dar. Ursprünglich wurde Artemisinin in den 1970er Jahren als Mittel gegen Malaria entdeckt. Wie Studien beweisen konnten, weist die Verbindung auch eine selektive Wirkung gegen verschiedene Krebsarten auf. In dieser Arbeit wird Artemisinin bezüglich seiner Wirkung auf fünf humane Zelllinien (HeLa, 143B.TK-, HT-29, MCF-7, PC-3) untersucht, mit dem Ziel einen spezifischen Wirkort in den Mitochondrien zu identifizieren. Dafür werden die jeweiligen Krebszellen in Medium ohne Pyruvat und Uridin sowie in Medium mit beiden Zusätzen kultiviert. Nach einem Vorversuch wird der eigentliche Versuch mit der optimalen Artemisinin-Konzentration über sieben Tage durchgeführt. Die Ergebnisse umfassen mehrtägige mikroskopische Bildaufnahmereihen, Aufzeichnungen der Zellvitalität und der Gesamtlebendzellzahl sowie die relative Quantifizierung des mtDNA-Gehalts und des Expressionsniveaus respiratorischer Gene. Anhand dieser Untersuchungen kann davon ausgegangen werden, dass Artemisinin eine wachstumshemmende sowie zytotoxische Wirkung besitzt und in einigen der Zelllinien ebenso spezifisch in den Mitochondrien wirkt. Die Verbindung besitzt ein breites Wirkspektrum, was mit mehreren zellulären und molekularen Mechanismen assoziiert ist. Somit steht die Antikrebsaktivität von Artemisinin auch zusätzlich damit in Zusammenhang. Zudem besitzt Artemisinin eine unterschiedliche Wirksamkeit auf verschiedenen Arten von Tumorzellen.
Die vorliegende Arbeit beschäftigt sich mit dem Thema der Verbesserung narrativer Kontinuität in digitalen Spielen, welche auf einem anderen Medium basieren.
Im Fokus des Forschungsinteresse stand die Frage, ob es möglich ist, einen Katalog an Betrachtungsweisen zu erstellen, welcher einen Designer bei seiner Arbeit an einem solchen digitalen Spiel unterstützen kann und ihm hilft, die narrative Kontinuität zu wahren.
Weiterführende Fragen beschäftigten sich damit, ob narrative Kontinuität überhaupt erstrebenswert ist und welches Teammitglied zu welchem Zeitpunkt für die Sicherung die-ser zuständig ist.
Zu diesem Zweck wurde eine umfassende theoretische Recherche durchgeführt, um wichtige Grundbegriffe des narrativen Designs zu klären und für die weitere Arbeit zu definieren.
In der Folge wurden dann Gespräche mit Experten auf dem Gebiet des narrativen und Spieldesigns aus der deutschen Entwicklerszene geführt. Diese Gespräche wurden in der Folge dokumentiert und aufgearbeitet. Als Ergebnis dieser Arbeit hat sich schließlich ein Katalog von 28 Betrachtungsweisen ergeben, welcher so in der Zukunft in einem realen Anwendungsfall unterstützend ein-gesetzt werden könnte. Dessen vorläufige Beurteilung und ein Ausblick auf weiterführende Arbeiten daran und damit sind ebenfalls Teil dieser Arbeit.
The Infinica product suite consists of multiple individual microservice applications, mainly gathered around Infinica Process Engine which allows the execution of highly individualised process definitions. For estimating process performance, a layered queuing network approach has been applied. In the first step this required the implementation of a basic modelling framework. Subsequently the implemented framework was used to evaluate the applicability of the approach by creating two models and comparing them with actual performance measurements. Although the calculated results deviated from the expected results, analysis showed that the differences may
derive from an inaccurate model. Nevertheless the general approach seems to be appropriate for the given application as well as for microservices in general, especially when extended with advanced modelling techniques, as the analysed modelled results appear consistent.
Die vorliegende Bachelorarbeit befasst sich mit der Charakterisierung der extrazellulären Matrix, die durch humane Fibroblasten in Form von Cell Sheets in Zellkultur produziert wurde. Die Untersuchungen sollten vergleichend für die Zellen der Zelllinie MRC-5 und Primärzellen adulte und fetale humane dermale Fibroblasten durchgeführt werden. Zur Beurteilung der Matrixausprägung kam das Metabolic Oligosaccharide Engineering zum Einsatz. Zwei Methoden zur Dezellularisierung wurden miteinander verglichen, der Erfolg dieser beurteilt und die zurückbleibende extrazelluläre Matrix betrachtet.
Weitere Analysen zur Untersuchung vor und nach der Dezellularisierung beinhalteten unter anderem Glykosaminoglykan- und Hydroxyprolinbestimmungen, Rasterkraftmikroskopie und Siriusrotfärbung.
Anwendung moderner Bilderkennungsverfahren auf polizeiliche Problemstellungen, mit dem Ziel strafrechtlich relevante Inhalte herauszufiltern. Dabei werden die 3 Architekturen Faster R-CNN, SSD-ResNet und EfficientDet getestet. Anschließend soll eine Integration in den PA von Cellebrite
erfolgen, um die Verarbeitungspipeline innerhalb der Polizei bestmöglich zu ergänzen. Aufgrund von Systeminkompatibilitäten wurde eine eigenständige Lösung erarbeitet.
Diese Arbeit beleuchtet die Konzeption und subsequente Entwicklung eines Prototyp-Projekts, das zur praxisorientierten Vermittlung von Fähigkeiten und Kompetenzen im Bereich Audio, Animation und Implementierung im zusammengeführten Modul Animation, Rigging und Audio in digitalen Medien verwendet werden soll. Dieses Projekt soll zur Verfügung gestellt werden und unterrichtsbegleitend dazu genutzt werden, diverse Arbeitsschritte in den genannten Bereichen zu verstehen, zu erlernen und mit sicht- und hörbarem Ergebnis anzuwenden. Im Rahmen dieser Arbeit wird der Fokus der Bearbeitung und Analyste zunächst auf den Bereich Game Audio gelegt. Der Prototyp bildet aber bereits diverse praktische Ansatzpunkte auch für die Bereiche Rigging, Animation und Implementierung
Die Einführung eines IT-Notfallmanagement kann auf freiwilligen Basis oder durch rechtliche Verpflichtungen erfolgen. Hierbei ist die Verwendung von etablierten Standards und Normen gerade für kleine und mittelständische Unternehmen (KMU) empfehlenswert, aber herausfordernd. In der vorliegenden Bachelorarbeit werden einschlägige gesetzliche Verpflichtungen für KMU betrachtet. Es wird sodann auf bekannte Normen und Standards des IT-Notfallmanagements eingegangen. Mit einer selbstentwickelten Methode werden diese auf ihre KMU-Tauglichkeit geprüft. Das Ziel besteht darin, den verpflichteten KMU den für sie geeignetsten der betrachten Standards und Normen aufzuzeigen.
Active Learning (AL) ist eine besondere Trainingsstrategie im überwachten maschinellen Lernen, mit dem Ziel die Accuracy eines Klassifikators zu verbessern, indem ein Klassifikator mit nur wenig gelabelten, aber dafür hoch informativen Datenpunkten (DP) gelernt wird. In der medizinischen Forschung liegen oftmals nur wenig gelabelte DP vor. AL kann eine sinnvolle Strategie sein, um die Kosten und den Aufwand für das Labeln ungelabelter DP zu senken. Mit Pool-Based AL wurden bisher die größten Erfolge verzeichnet. In der vorliegenden Arbeit wurden zwei biologische, binäre Klassifikationsprobleme mit Uncertainty Sampling Pool-Based AL und Query by Bagging Comitee Pool-Based AL untersucht. Der Generalized Learning Vector Quantization (GLVQ) und ein Multilayer Perzeptron (MLP) wurden als Klassifikatoren verwendet. Anhand eines linear trennbaren und eines nicht linear trennbaren Datensatzes wurden die Auswirkungen der Anzahl an gelabelten DP, mit welcher die Klassifikatoren zu Beginn trainiert wurden, auf die Accuracy untersucht. Die AL-Accuracy näherte sich für das anfängliche Training der Klassifikatoren mit 10 % gelabelten DP bereits stark an die Accuracy im klassischen maschinellen Lernen an und war teilweise sogar größer. In einem weiteren Experiment wurden daher die Klassifikatoren anfänglich mit nur 1 % gelabelten DP trainiert. Es wurde die Auswirkung der Anzahl nachgelabelter DP, mit welcher die Klassifikatoren nachtrainiert wurden, auf die Accuracy untersucht. Für den linear trennbaren Datensatz war die Anwendung von AL mit dem GLVQ und 10 nachgelabelten DP sowie mit dem MLP und 50 nachgelabelten DP erfolgreich. Bei dem nicht linear trennbaren Datensatz wurde mit dem MLP zumindest eine Tendenz, dass AL die Accuracy verbessert, festgestellt. Jedoch reichten 50 nachgelabelte DP nicht aus.
Ein Compiler oder Assembler wandelt Quellcode in ein ausführbares Programm um. Das resultierende Binary besteht aus Befehlen und Ressourcen, wie Bilder, Sounds oder anderen Informationen. Ohne den Ausführungskontext kann jedoch nicht im Vorhinein mit absoluter Sicherheit eine Angabe gemacht werden, bei welchen Bytes es sich um Anweisungen und bei welchen Abschnitten im Programm es sich um Ressourcen handelt. Bei einer Untersuchung oder einem
Dekompilierungsvorgang der binären Datei gestaltet sich diese bzw. dieser ohne vorliegenden Quellcode sehr schwierig. Als Beispiel für eine Von-Neumann-Architektur wurde in dieser Arbeit der Game Boy mit seiner
Sharp-LR35902-CPU gewählt. Mit Banking verwendet die Architektur sowohl historische Technologien, ähnelt aber dennoch sehr den derzeit häufig genutzten x86-64-CPUs von Intel oder AMD. Außerdem bieten die kleinen Programme von maximal zwei Mebibyte die Möglichkeit, auch in ineffiziente Ansätze auszuprobieren. In dieser Arbeit wurde anhand der folgenden sieben Lösungsansätze erläutert, wie man eine Befehl-Ressourcen-Trennung erzielen kann.
Manueller Ansatz (siehe Kapitel 3.1)
Metadaten-Ansatz (siehe Kapitel 3.2)
Alles-Befehle-Ansatz (siehe Kapitel 3.3)
Statistischer Ansatz (siehe Kapitel 3.4)
Emulationsansatz (siehe Kapitel 3.5)
Programmflussansatz (siehe Kapitel 3.6)
Brute-Force-Ansatz (siehe Kapitel 3.7)
Insbesondere wurden drei automatisierte bzw. teilautomatisierte Ansätze implementiert und anschließend
mit einer manuellen Trennung als Referenzwert verglichen. Dabei erzielte, bei dem verwendeten Kontrollprogramm ”StefaN”, der Programmflussansatz ein gutes Ergebnis.
Das mittels Emulationsansatz gewonnene Ergebnis schloss etwas schlechter ab. Der Brute-Force-Ansatz scheiterte an exponentiellen Wachstum und erzielte damit das schlechteste Ergebnis. Eine korrekte Trennung konnte nur mit dem manuellen Ansatz erreicht werden. In dieser Arbeit konnte keine vollautomatisierte Lösung für das Problem gefunden werden. Grundsätzlich kann festgehalten werden, dass eine Befehl-Ressourcen-Trennung einer ausführbaren Binärdatei auch in Zukunft eine Herausforderung darstellt.
Im Rahmen dieser Arbeit wurde ein mikrofluidischer Chip mit dem speziellen Design für ein reversibles Vakuumbonding sowie der Fähigkeit zur hydrodynamischen Fokussierung entwickelt. Die Anwendung erfolgte mit der Zielstellung, DNA Origami mithilfe dieses mikrofluidischen Setups auf einer Oberfläche zu immobilisieren.
Die vorliegende Arbeit befasst sich mit der Automatisierung des Schreibens von Unit-Tests. Das Hauptziel ist es für den Bereich iOS eine Lösung umzusetzen und diese auszuwerten. Dabei wird der Codegenerator Sourcery verwendet und die Templates für das Generieren der Unit-Tests in den verschiedenen Templatesprachen umgesetzt. Die Umsetzung sowie die verschiedenen Templatesprachen werden ausgewertet, um die Basis für weitere Entwicklung zu schaffen.
Diese Arbeit behandelt die Wirkungsweise von optischen Reizen in Videospielen, sowie deren Einfluss auf instinktive Handlungen von Spielern. Es soll dabei untersucht werden, ob sich diese Reize von elementaren Prinzipien erfolgreicher Level Design Ansätze ableiten lassen. Hierfür wird auf Grundlage einer umfassenden Recherche eine modulare Testkammer im Stil eines Puzzlespiels konzipiert und umgesetzt. Die Probanden werden bei der Lösung acht verschiedener Bereiche beobachtet und protokolliert sowie zu einzelnen Aspekten befragt. Bei der Auswertung dieser stellen sich Farbunterschiede und starke Farbkonstraste als wirksamste optische Reize heraus.
Für eine akkurate Analyse der Auswirkungen auf instinktive Handlungsmuster, sind umfangreichere Vor-Untersuchungen in Bereichen der Psychologie von Instinkten und visuellen Wahrnehmung notwendig.
Das Ziel dieser Arbeit ist es zu beantworten, inwieweit sich die Werkzeuge und Methoden der Videospielentwicklung für eine Digitalisierung von anthropologischen Funden und deren Untersuchung am Beispiel der Game Engine “Unity“ [Unity Technologies, 2020o] eignen. Um diese Frage zu beantworten, wurde ein Prototyp zur osteometrischen Vermessung von Knochenfunden mithilfe von Unity entwickelt. Es wurde eine Pipeline zum photogrammetrischen Scannen von Knochenmaterial entwickelt und die Pipeline sowie der Prototyp wurden von Anthropologen der Abteilung für historische Anthropologie und Humanökologie des Johann-Friedrich-Blumenbach Instituts für Zoologie und Anthropologie der Universität Göttingen getestet, um die daraus resultierenden Ergebnisse zur Evaluation zu verwenden. Dabei ist es gelungen eine Scanpipeline, sowie eine Software zur Vermessung der Scans zu entwickeln, welche nach Angaben der Anthropologen eine Anwendung in ihrem Arbeitsalltag finden könnte. Ebenfalls gab die Hälfte der getesteten Anthropologen an, dass die Messungen im virtuellen 3D-Raum eine alternative zur physischen Messung darstellen kann. Allerdings weichen die Messungen im Prototyp zum aktuellen Zeitpunkt noch um durchschnittlich zwei bis vier Prozent (je nach Art der Messung) von den physischen Messungen am selben Knochen ab. In der Zuverlässigkeit der Messungen kann der Prototyp allerdings mit den Messungen im Physischen mithalten. Die deskriptive Beschreibung von morphologischen Merkmalen fiel den Anthropologen schwerer als im Physischen, was sich auch in einer erhöhten Streuung in den gemessenen Werten widerspiegelt. Als Hauptgründe wurden dafür die fehlende Haptik und Schwierigkeiten beim Einschätzen der Perspektive im 3D Raum angegeben. Das zeigt, dass der entwickelte Prototyp die physische Untersuchung nicht ersetzen kann, allerdings eigen sich die Werkzeuge und Methoden der Videospielentwicklung für eine Digitalisierung von anthropologischen Funden und deren Untersuchung insofern, dass die virtuelle Untersuchung die physischen Untersuchung unterstützen kann und somit einen Mehrwert bietet. Dies gilt besonders in Anwendungsfeldern, in denen das Knochenmaterial schwer für den Untersuchenden zugänglich ist.
Die Diplomarbeit beschreibt die Entwicklung und Integration eines Reporting Moduls im Sinne der Business Intelligence-Anwendung zur managementunterstützenden Entscheidungsfindung. Ziel ist die Schaffung eines Grundkonzepts für die Einführung einer BI-Lösung bei Endkunden von Infinica, die die Infinica Plattform einsetzen und ein Berichtswesen ihrer Dokumentgenerierungen einführen wollen. Ein Konzept soll dabei gefunden werden, wie aus der Infinica Plattform für ein fachspezifisches Berichtswesen relevante Daten erzeugt und in Datenquellen für BI-Lösungen überführt werden können. Mithilfe eines Reporting-Tools sollen die Daten performant abgefragt und Berichte einfach erzeugt und angepasst werden können.
Die Arbeit untersucht das Problem, der Named Entity Recognition in großen Textkorpora. Für klassische Modelle sind meist große gelabelte Datenmengen nötig, die häufig aber nicht zur Verfügung stehen, weil manuelle Annotation sehr zeitaufwendig ist. Deshalb wurde ein Halbüberwachtes
(Semi-Supervised) Verfahren untersucht, um ausgehend von einer kleinen Menge manuell annotierter Daten iterativ mit möglichst wenig Annotationsaufwand ein solides Modell zu trainieren. Das Verfahren nutzt gezielte manuelle Annotation, um den Lerneffekt durch Self-Training zu erhöhen. Die Untersuchungen haben jedoch gezeigt, dass durch Self-Training in diesem Fall keine Verbesserung erzielt werden konnte. Es kann aber eine erhebliche Menge
manueller Annotation durch die gezielte Auswahl von statistisch unsicheren Sätzen für die manuelle Annotation eingespart werden und dadurch effizienter eine bessere Performance erreicht werden.
Das Ziel dieser Arbeit ist es die bestehende ALP, um ein Analysetool zu ergänzen. Dieses Analysetool soll Dozenten einen Anhaltspunkt geben, ob die Lernenden Lernerfolge erzielen oder, ob es in bestimmten Bereichen Probleme gibt. Dazu werden die Grundlagen von Lernerfolg und Learning Analytics analysiert. Zusätzlich werden ähnliche Tools analysiert, um von diesen Inspiration und Anforderungen zu beziehen. Diese Anforderungen und die Anforderungen der ALP gehen in ein zu erstellendes Konzept ein, mit dem, unter anderem, der Lernerfolg von Lernenden durch das Analysetool gemessen werden soll. Anhand des Konzeptes wird die bestehende Architektur angepasst und erweitert. Dabei gilt es beim Umsetzen des Konzeptes nicht nur das Analysetool zu entwickeln, sondern auch nötige Änderungen an anderen Bestandteilen der ALP, wie der mobilen Applikation vorzunehmen. Zum Evaluieren wird zunächst die mobile Applikation durch eine Probandengruppen getestet, um Daten für das Analysetool zu generieren. Mit diesen Daten wird das Analysetool von Lehrenden auf seine User Experience und Nützlichkeit getestet.
Möglichkeiten und Grenzen der blender-internen Physik Engine zur Simulation von Schussverläufen
(2020)
The following work deals with the problem of digital crime scene reconstruction based on the simulation of the trajectory of a projectile. To be able to make a realistic realization of this trajectory, the physical laws as well as the external influences are explained. This knowledge is used in conjunction with the expertise of software technology to test appropriate parameter combinations for their efficiency. Therefore the focus is on the step-by-step parameterization of the trajectory using the open-source software Blender. The resulting possibilities and limitations of such a reconstruction are considered in a differentiated way
Vor Ihnen liegt die Bachelorarbeit „Prototypische" Systemintegration und Evaluation von Open Source Sprachmodellen zur automatischen Spracherkennung gesprochener deutscher Texte“. Durch mein Praktikum im Bereich der Audioanalyse und Transkribierung kam ich auf die Idee, mich ausführlicher mit dem Thema zu beschäftigen. Ziel war es, “robuste“ Spracherkenner zu finden und verschiedene Ansätze zu präsentieren, die für das Aufgabengebiet der Forensik von Nutzen sein könnten. Die Nachforschungen waren nicht immer einfach, da die vorhandenen freien Spracherkenner Projektarbeiten via Github sind und diese kompliziert zu verstehen bzw. zu implementieren sind. Doch nach einer umfangreichen Analyse der zur Verfügung stehenden Modelle gelang es mir, die Forschungsfrage zu beantworten.
Erstes Ziel der Arbeit ist es, eine Anwendung mit der Unity Engine zu erstellen, welche grundlegende Mechaniken einer First Person Zielübung beinhaltet.
Hierzu soll eine spielbare Karte mit Präzisionszielen entwickelt werden, welche mit gezieltem Klicken zerstört werden können. Dabei sollen neben einer ”realistisch“ aussehenden Map, zwei weitere Varianten erstellt werden, die in unterschiedlichen Abstufungen zusätzliche visuelle Elemente und Distraktoren beinhalten. Um die Wirksamkeit der Distraktoren prüfbar zu gestalten, sollen möglichst effiziente und starke Distraktoren im Vergleich zu einer Kontrolle ohne Distraktoren eingesetzt werden. Dadurch wird die Aussagefähigkeit der zu ermittelnden Daten unterstützt. Die Distraktoren sollen für potentielle Probanden des Testspiels den Durchlauf der Levels sowie das Auffinden und Treffen von Zielen erschweren.
Diese Karten werden von Grund auf gemodelt und die Funktionalität der Anwendung wird über die Skriptsprache C# implementiert.
Das zweite Ziel besteht darin, ein Spieleexperiment zu entwickeln, welches basierend auf der gestalteten FPS Anwendung eine Nachweismöglichkeit für die Wirksamkeit visueller Distraktoren auf Spieleteilnehmer hat. Dazu sollen Probanden mit Vorkenntnissen im FPS-Gaming für das Experiment rekrutiert werden. Die Teilnehmer werden die verschieden gestalteten Karten nach der Regie des Entwicklers durchlaufen und danach einen passend zur Aufgabenstellung entwickelten Fragebogen beantworten. Ebenfalls wird die Zeit gestoppt, welche diese Spieler für einen Durchlauf der verschiedenen Levels benötigen. Es wird weiterhin betrachtet, inwieweit sich durch wiederholtes Durchlaufen der Karten die Zeiten der Probanden verändern. Der zu entwickelnde Test soll zeigen, ob die Spieler abgelenkt werden und ob bei den Probanden durch wiederholtes Training eine Verbesserung der Spielleistung möglich ist, obwohl visuelle Distraktoren unterschiedlichster Art und Vielfältigkeit den Spieler behindern bzw. ablenken. Damit soll ermittelt werden, ob Testspieler in einem bestimmten und wenn ja, welchem Zeitraum in der Lage sind, bekannte Distraktoren auszublenden.
Mit dem gewählten experimentellen Ansatz kann eventuell am Rande auch ein kleiner bestätigender Baustein für die Hypothese erbracht werden, dass das Spielen von Videospielen eher positive, leistungssteigernde Effekte bezüglich des Wahrnehmungsvermögens und der Motorikfähigkeiten von Spielern haben kann, wie in einer umfassenden und sehr gut abgesicherten Studie von Green und Bavelier im Jahr 2003 gezeigt. Dort konnte nachgewiesen werden, dass die visuellen Fähigkeiten bei Gewohnheitsspielern gegenüber Nicht-Spielern verbessert sind, aber auch Nicht-Videospiel-Spieler durch das Spieletraining diese Fähigkeiten verbessern.
Im Rahmen der vorliegenden Arbeit werden in einem minimalistischen Ansatz die Testpersonen hinsichtlich der Trainierbarkeit ihrer visuellen und koordinativen Fähigkeiten geprüft. Die Grundidee fokussiert jedoch ganz spezifisch nur auf den Einfluss ablenkender Elemente im Spieledesign.
In Anbetracht des hohen Vernetzungsgrades der Wirtschaft stellen Cyberangriffe eine größere Gefahr dar denn je. Erfolgreiche Angriffe können heutzutage schwerwiegende Folgen haben und nicht nur die Wirtschaft, sondern auch die Politik beeinflussen. Somit werden gute Schutzmaßnahmen zunehmend wichtiger. Penetrationstests und Vulnerability Assessments helfen dabei Netzwerke sicherer zu gestalten und nach außen eine möglichst geringe Angriffsfläche zu bieten. Speziell Netzwerkscanner nehmen hier eine tragende Rolle ein, da sie automatisiert Schwachstellen finden und diese bewerten. Dennoch liefern nicht alle Netzwerkscanner die gleichen Resultate und bewerten Schwachstellen unterschiedlich. In dieser Arbeit sollen die vier der bekanntesten Netzwerkscanner hinsichtlich ihres Scanverhaltens, der Bewertung der Befunde, sowie der gefundenen False Positives und False Negatives verglichen werden. Letztendlich soll diese Arbeit dazu dienen, je nach Anwendungsfall den Scanner auszuwählen, der das beste Ergebnis liefert.
Der Funktionalitätstest von elektrisch betriebenen Küchenmaschinen laut DIN EN 60619 beim Schlagen von Sahne hat eine große Streuung und geringe Reproduzierbarkeit. Ein Grund kann in den Unterschieden der verwendeten Sahne liegen, die laut Norm zulässig sind. Um den Einfluss der Sahne auf den Funktionalitätstest von Küchenmaschinen zu verringern, muss die Norm spezifiziert oder eine Sahne verwendet werden, die nur einen minimalen Einfluss hat. Um dies zu erreichen müssen Parameter ermittelt werden, die den Einfluss der Sahne genauer beschreiben. Hierfür wurde die Einflussgrößen Sahnetempertatur, Fettgehalt, Einsatz des Stabilisators Carrageen, das Ultrahocherhitzen und das Kühlen von Schlagwerkzeug und Schüssel genauer untersucht. Dabei wird der Einfluss eben genannter Einflussgrößen auf die Bestimmung des spezifischen Volumens und des Abtropfgewichtes verdeutlicht, welche im Prüfverfahren Anwendung finden.
In dieser Arbeit soll festgestellt werden, wie die künstliche Intelligenz als Schadsoftware funktioniert. Unter anderem werden das Cyber-Angriff-Modell und das IT-Sicherheitsprozess vom Bundesamt für Informationstechnik und Sicherheit vorgestellt. Anschließend werden die mit der automatisierten Malware einhergehenden Sicherheitsrisiken und die Auswirkung der künstlichen Intelligenz als Schadsoftware auf das Cyber-Angriff-Modell und das IT-Sicherheitsprozess überprüft.
Evaluation softwarespezifischer Physik Engines hinsichtlich
der Verwendung im forensischen Kontext
(2020)
Das Ziel dieser Arbeit ist die Überprüfung der Bullet Physik Engine und der PhysX Engine hinsichtlich ihrer Tauglichkeit im Kontext der forensischen Fallsimulationen. Nach dem Behandeln der Theorie werden dafür experimentelle Ansätze in Form von Ragdollsimulationen genutzt, um die beiden Engines miteinander zu vergleichen und zu bewerten. Diese Versuche werden in den Programmen Blender und Unreal Engine 4 durchgeführt, welche die beiden Physikalgorithmen einbinden und so ebenfalls miteinander verglichen werden können. Zusätzlich wurde eine Standard Operating Procedure für die Erstellung von Ragdolls in Blender angefertigt.
Ziel der Arbeit ist es, ein smartes IoT-Gerät mit Cloud-Anbindung auf Sicherheit und Datenschutz zu untersuchen. Als Untersuchungsobjekt wurde eine \smarte" Alarmananlage für den privaten Haushalt ausgewählt. Im Unterschied zu anderen \smarten" IoT-Geräten im täglichen Leben geht hier das Sicherheitsrisiko über den Ausfall ohne Konsequenzen bzw. den Verlust von Daten hinaus. Entsprechend hoch sind die Erwartungen an die Sicherheit. Ein solches Gerät soll schützen und nicht eine zusätzliche Gefährdung bzw. Schwachstelle darstellen. Als Produkt wurde die Einbruchmeldeanlage (EMA) der Firma Egardia gewählt. Hierbei handelt es sich um ein System im mittleren Preissegment für Alarmanlagen zum Selbsteinbau. Die Norm für die Zertifizierung von EMAs ist die DIN EN 50131.
Es gibt vier Sicherheitsgrade, nach denen EMAs und ihre Komponenten eingeteilt werden können. Besonders hochwertige Produkte besitzen den Grad 2. Das System von Egardia hat wie die meisten EMAs keine Zertifizierung, ist in dieser Hinsicht ebenfalls ein durchschnittliches EMA. Grund hierfür ist, dass auf den Webseiten von Onlinehändlern Produkte hauptsächlich mit Funktionen und Preis beworben werden. Zerttifizierungen, die niemand kennt oder einfordert, spielen für Kunden keine Rolle. Neben der konkreten Untersuchung dieses Geräts auf seine Sicherheit soll als Ergebnis der Arbeit geprüft werden, ob für mögliche, gefundene Schwachstellen Lösungen existieren.
Gleichzeitig soll gezeigt werden, wie die Entwicklung eines sicheren Produkts umgesetzt werden kann und welche Rahmenbedingungen in Gesellschaft, Wirtschaft und Politik eventuell die Sicherheit und Nachhaltigkeit von IoT-Geräten gefährden.
Diese Arbeit hat das Ziel, einen kontinuierlichen Prozess in einem Festbettreaktor zur mikrobiellen Entfernung von Sulfat und Schwermetallen aus Bergbauwasser zu optimieren. Hierfür wurden zunächst Vorversuche getätigt, in welchen die Aktivität von sulfatreduzierenden Bakterien (SRB) mit den Substraten Methanol und Acetat im pH-Bereich 5-8 und bei den Temperaturen 20°C und 30 °C untersucht wurde. Im Anschluss wurde aufbauend auf den Ergebnissen der Vorversuche der Bioreaktor in Betrieb genommen und in den kontinuierlichen Betrieb überführt. In dieser Phase wurden wichtige Prozessdaten für den Betrieb aufgenommen, die Verweilzeit sowie die Methanolkonzentration optimiert.
Leichte Sprache bietet Menschen mit eingeschränktem Leseverständnis die Möglichkeit der selbstständigen Informationsbeschaffung. Der Übersetzungsprozess verläuft überwiegend intellektuell und ohne technische Unterstützung. Die vorliegende Arbeit beschäftigte sich mit der Optimierung
eines zur Unterstützung des Übersetzungsprozesses entwickelten Annotationstools für Leichte Sprache. Dabei sollte geprüft werden, ob anhand von UI-Designpattern sowie visuellen Anpassungen Verbesserungen der User Experience hervorgerufen werden konnten.
Diese Arbeit zielt darauf ab, ein modernes Konzept für eine offene, webbasierte Notizsoftware vorzustellen, die auf einem gemieteten oder Heimserver installiert werden kann. Dabei steht im Vordergrund, dass die eigenen Daten bei einem selbst bleiben. Ein solches Konzept hat, anhand des Vergleiches mit existierenden Lösungen und aus gewonnenen Erkenntnissen bei der Entwicklung des Prototyps, eine gute Zukunft, da es sich auch genug sinnvoll von existierenden Lösungen abhebt, so dass eine weiterführende Entwicklung lohnenswert scheint.
Geeignet ist diese Arbeit für Personen, die sich für die Entstehung eines Softwareprototyps im Rahmen einer Bachelorarbeit interessieren und für die, die das Konzept interessant finden.
Das Konzept wurde klar definiert und kompakt mit existierenden Lösungen verglichen, daraufhin wurden die gewählten Technologien aufgeschlüsselt und anschließend der Prototyp und die Erkenntnisse vorgestellt.
In dieser Arbeit wird ein Konzept für die Fahrprofilauswahl mittels machine learning vorgestellt. Hierbei wird ein Einblick in die Grundlagen und Methodiken des maschinellen Lernens sowie Fahrzeugelektronik gegeben. Des Weiteren wird das Thema künstliche neuronale Netzwerke detailliert erklärt, da es in der Arbeit Anwendung finden wird. Im späteren Verlauf wird ein LSTMNetzwerk implementiert und ausgewertet, um aus den Erfahrungen wichtige Erkenntnisse ableiten zu können. Aufbauend auf den Erkenntnissen, wird ein Konzept für die Fahrprofilauswahl definiert.
Tokenization projects are currently very present when it comes to new blockchain technologies. After explaining the fundamentals of cross-chain interaction, the bachelor thesis will focus on tokenizing technology for Bitcoin on Ethereum. To get a more practical context, implementing the currently most successful decentralized tokenization project is described.
Vicia faba leaves and calli were transformed using CRISPR Cas RNP. Two kinds of CPP fused SpyCas9 were used with sgRNA7, sgRNA5 or sgRNA13 targeting PDS exon 1, PDS exon 2 or MgCh exon 3 respectively. RNP were applied using high pressure spraying, biolistic delivery, incubation in RNP solution and infiltration of leaf tissue. A PCR and restriction enzyme based approach was used for detection of mutation. Screening of 679 E. coli colonies containing the cloned fragments resulted in detection of 14 mutations. Most of the 14 mutations were deletions of sizes 150, 500 or 730 bp. 5 out of the 14 mutations were point mutations located two to three bp upstream of PAM.
In bioinformatics one important task is to distinguish between native and mirror protein models based on the structural information. This information can be obtained from the atomic coordinates of the protein backbone. This thesis tackles the problem of distinction of these conformations, looking at the statistics of the dihedral angles’ distribution regarding the protein backbone. This distribution is visualized in Ramachandran plots. By means of an interpretable machine learning classification method – Generalized Matrix Learning Vector Quantization – we are able to distinguish between native and mirror protein models with high accuracy. Further, the classifier model supplies supplementary information on the important distributional regions for distinction, like α-helices and β-strands.
Eine Untersuchung des Netzwerkverkehrs von 4 verschiedenen mobilen Applikationen mit Hilfe der Comminity Edition der Burp Suite der Firma PortSwigger auf sicherheitsrelevante Schwachstellen sowie das Aufzeigen der Grenzen bei der die Burp Suite zur Untersuchung von Netzwerkverkehr verwendet werden kann.
Digitale 3D-Modelle finden zunehmend auch im Bereich der Kriminalistik Anwendung, da sie nicht nur zur dauerhaften Dokumentation eines Tatortes beitragen, sondern auch wertvolle Erkenntnisse hinsichtlich des Tatherganges liefern können. Die vorliegende Arbeit befasst sich mit der Überprüfung des Generierungsprozesses derartiger 3D-Modelle hinsichtlich der in der IT-Forensik geltenden Richtlinien für die Reproduzierbarkeit und Dokumentation. Diese Untersuchung ist von Bedeutung, da die digitale 3D Tatortrekonstruktion nicht nur für die Ermittler selbst Hinweise liefert, sondern auch vor Gericht maßgebliche Beweiskraft haben kann, insofern sie die Anforderungen erfüllt. Für die Überprüfung wurden die beiden Softwarelösungen Agisoft Metashape und Meshroom genutzt, um zahlreiche Modelle unterschiedlicher Parametersets zu generieren. Anschließend wurden die mit gleichen Ausgangsbedingungen generierten Modelle hinsichtlich ihrer Ähnlichkeit verglichen, um so die Reproduzierbarkeit zu untersuchen. Mithilfe der Handbücher wurden zudem die einzelnen Prozessschritte näher betrachtet und somit die Möglichkeiten der Dokumentation überprüft.
Entwicklung einer CRISPRCas9 basierten Methode zur chromogenen in situ-Markierung spezifischer DNS
(2020)
Ziel der Arbeit war es, die Möglichkeit der in‒situ Markierung (ISH) durch das CRISPRCas9-System aus Streptococcus pyogenes zu nutzen, um damit ein chromogenes Detektionsverfahren für spezifische DNS-Sequenzen zu entwickeln (chromogene CRISPR-ISH). Das bisherige CRISPR-FISH-Verfahren von [Ishii et al. 2019] nutzte als Signalgeber Fluoreszenzfarbstoffe. Nachteilig ist, dass die für den Nachweis von Fluoreszenzsignalen nötige Technik wie Fluoreszenzmikroskop und -kamera kostenintensiv ist. Dadurch sind diese technischen Voraussetzungen für kleine Labore oder Bildungseinrichtungen häufig nicht erschwinglich. Weiterhin werden Fluoreszenzsignale nach wiederholtem Lichtkontakt instabil, wodurch die so markierten Präparate nicht mehrmals betrachtet werden können und für den wiederholten Gebrauch nicht geeignet sind. Die in dieser Arbeit entwickelte Methode sollte es ermöglichen, das Prinzip der CRISPR-Cas-basierten Markierung zu nutzen, ohne den Nachteilen der Fluoreszenz zu unterliegen. Um dieses Ziel zu erreichen, wurde die
CRISPR-FISH Methode sukzessive umgestaltet. Die bisher eingesetzten Fluoreszenzfarbstoffe wurden ersetzt. Die Zellkernfärbung (bisher durch DAPI) und die Visualisierung der Ribonukleoproteine (bisher durch Atto550) sollte mit nicht-fluoreszenten Farben realisiert werden. Die Ergebnisse sollten als Dauerpräparte so konserviert werden, dass diese beliebig häufig mit einem Lichtmikroskop betrachtet werden können.
In dieser Arbeit wird der Probenahmeplan der Trinkwasseranlage im Versorgungsgebiet Oechsetal, die TWA Schorngraben, und der Probenahmeplan des Versorgungsgebietes Vacha auf lokale Risiken untersucht, um daraufhin eine risikobewertungsbasierte Anpassung des Probenahmeplans vorzuschlagen. Hierbei wird eine Beschreibung des Systems angefertigt und mit Hilfe der Trinkwasserdaten können schließlich bestimmte chemische Parameter mit Grenzwert darauf untersucht werden, ob sie vom Probenahmeplan gestrichen oder die Probenahmehäufigkeit reduziert werden soll.
A Protein is a large molecule that consists of a vast number of atoms; one can only imagine the complexity of such a molecule. Protein is a series of amino acids that bind to each other to form specific sequences known as peptide chains. Proteins fold into three-dimensional conformations (or so-called protein’s native structure) to perform their functions. However, not every protein folds into a correct structure as a result of mutations occurring in their amino acid sequences. Consequently, this mutation causes many protein misfolding diseases. Protein folding is a severe problem in the biological field. Predicting changes in protein stability free energy in relation to the amino acid mutation (ΔΔG) aids to better comprehend the driving forces underlying how proteins fold to their native structures. Therefore, measuring the difference in Gibbs free energy provides more insight as to how protein folding occurs. Consequently, this knowledge might prove beneficial in designing new drugs to treat protein misfolding related diseases. The protein-energy profile aids in understanding the sequential, structural, and functional relationship, by assigning an energy profile to a protein structure. Additionally, measuring the changes in the protein-energy profile consequent to the mutation (ΔΔE) by using an approach derived from statistical physics will lead us to comprehend the protein structure thoroughly. In this work, we attempt to prove that ΔΔE values will be approximate to ΔΔG values, which can lead the future studies to consider that the energy profile is a good predictor of protein binding affinity as Gibbs free energy to solve the protein folding problem.
Die vorliegende Arbeit befasst sich mit der Analyse verschiedener Remoting Verfahren für die Verwendung von Webservices. Hauptziel ist aber, dass auf die Funktionalität der firmeninternen Webservices über einen Request-Handler zugegriffen werden kann. Um nicht bei jeder Anpassung oder Neuerstellung eines Webservice die URLs in den Anwenderprogrammen anpassen zu müssen, soll der Request-Handler die URL des angefragten Webservice ermitteln und eine
Kommunikation zwischen Anwenderprogramm und Webservice aufbauen und den Datenaustausch steuern.
Die vorliegende wissenschaftliche Arbeit befasst sich mit der Fragestellung, ob ausgewählte Ansätze des Datenmanagements in verteilten Systemen einsatzfähig sind und somit zu einer Optimierung des Systems führen. Hierzu werden die Ansätze des Datenmanagements in Bezug auf ein bereits gegebenes verteiltes System betrachtet. Diesbezüglich lassen sich drei Aspekte des Datenmanagements adressieren und anhand einer exemplarisch ausgewählten Technologie die Einsatzfähigkeit des gewählten Ansatzes in Bezug auf das verteilte System belegen. Ziel in diesem Kontext ist anhand von ausgewählten Technologien der Übertragung, der persistenten Speicherung und der Verteilung und Virtualisierung von Daten deren Einsatzfähigkeit in einem gegebenen verteilten System zu prüfen und deren Optimierungspotential für das System aufzuzeigen. Innerhalb der folgenden sechs Kapitel beinhaltet Kapitel 1 die Einleitung inklusive Motivation, Zielstellung und Aufbau. Kapitel 2 fokussiert auf die theoretischen Grundlagen und Rahmenbedingungen sowie deren Erläuterungen. Inhalt von Kapitel 3 sind die Analyse der gegebenen Problemstellung und die Ableitung benötigter Anforderungen sowie die darauf aufbauende Konzepterstellung. Diese beinhaltet überdies die Technologieauswahl und aus dem Konzept resultierende Testfälle. Kapitel 4 dient zur Darstellung des Implementationsprozesses der gewählten Technologien. Kapitel 5 stellt darüber hinaus die Durchführung und Auswertung der erstellten Testfälle und die Gegenüberstellung von Vertretern der persistenten Speicherung von Daten dar. In Kapitel 6 ist eine Zusammenfassung der Arbeit vorzufinden, die den Abschluss der Arbeit darstellt und einen Ausblick für weitere mögliche Änderungen am gegebenen System gibt.
Mittels GPM3 können komplexe DNA- Mischspuren analysiert und STR- Profile ausgewertet werden. Zudem können durch Berechnungen die Genotypen, die in einer Mischung vorliegen, voneinander differenziert werden. Vor allem komplexe Mischspuren stellen einen Schwerpunkt bei der Spurenuntersuchung dar. Eine Anwendung von GPM3 ist die komponentenweise Dekonvolution von DNA- Mischspuren, bei der die Profile der beteiligten Personen aufgetrennt und die Wichtungen aller möglichen Genotypen ausgezählt werden. Dabei werden die Genotypkonstellationen (GTK) basierend auf den Peakhöhen, der Degradationsstärke und stochastischen Effekten bei Einsetzten von geringen DNA- Mengen modelliert. Der von der Firma Qualitype vorgegebene Grenzwert für die Wichtung, ab welcher mit einer hohen Wahrscheinlichkeit angenommen werden kann, dass es sich bei dieser GTK um den richtigen Genotyp der beteiligten Person handelt, liegt bei 90 %. Folglich werden Untersuchungen im Rahmen dieser Arbeit zu diesem Grenzwert anhand von verschiedenen 2- Personen- Mischungen in unterschiedlichen Konzentrationen mittels der Dekonvolution mit dem vollständig- kontinuierlichen Modell durchgeführt.
In der Arbeit werden dazu die jeweiligen Abstände der Wichtungen in Prozent der GTK der beteiligten Personen jeder Mischung berechnet und überprüft, ob die am höchsten gewichteten Genotypen in GPM3 den richtigen Allelkombinationen der jeweiligen Person entsprechen. Hierbei wird der Abstand der Konstellation mit der größten Wichtung zur „wahren“ Konstellation berechnet. Aus den Mittelwerten der prozentualen Abstände soll anschließend der Ähnlichkeitswert der Wichtung, ab welchem noch mit sehr hoher Wahrscheinlichkeit die richtige GTK ausgegeben wird, ermittelt werden.
Das Ziel der Bachelorarbeit ist es, die Möglichkeiten und Grenzen der Dekonvolution von Mischspuren mit der GPM3- Software bei verschiedenen Analysebedingungen zu bewerten und einen Auswerteparameter in Abhängigkeit von den Abständen der Wichtungen in Prozent und den Konzentrationen der einzelnen Mischungen zu validieren. Zudem soll die Nachweisgrenze der Analysemethode untersucht werden, um eine Aussage über die Minimalmenge an einzusetzender DNA treffen zu können
Das Fluorchinolon Levofloxacin hemmt die Gyrase in Mitochondrien, wodurch die mitochondriale DNA in der supercoiled-Form repliziert wird. Dabei entstehen Katenate, die bei einer Zellteilung nur an ein Tochtermolekül weitergegeben werden. Dies hat zur Folge, dass Zellen ohne mtDNA, sogenannte ρ0-Zellen, entstehen.
Diese Eigenschaft von Levofloxacin sollte genutzt werden, um ρ0-Zellen zweier Krebszelllinien (HeLa und PC 3) herzustellen. Zusätzlich wurde die Wirkung von Levofloxacin auf diese Krebszellen untersucht, um einen neuen möglichen Therapieansatz zu finden. Überprüft wurde dies mit Hilfe von Fluoreszenzmikroskopie, einem metabolischen Test und einer relativen Quantifizierung mittels qPCR.
Anhand der Ergebnisse konnten Unterschiede zwischen den beiden Zelllinien beobachtet werden. Levofloxacin bewirkte eine Proliferationshemmung und die Induzierung einer Apoptose bei höheren Konzentrationen, was eine toxische Wirkung auf die Krebszellen beweist. Es war jedoch nicht möglich, ρ0-Zellen herzustellen. Bei den HeLa-Zellen konnte eine Abnahme der mtDNA beobachtet werden, bei den PC 3-Zellen kam es dagegen zu einem Anstieg, was auf eine Überproduktion an mitochondrialer DNA zurückzuführen wäre. Die Herstellung von ρ0-HeLa-Zellen wäre mit Levofloxacin bei einer längeren Antibiotikabehandlung möglich.
Aufgrund der bedeutenden Fortschritte im Bereich der Hochdurchsatzsequenzierungstechnologien und folglich dem exponentiellen Wachstum biologischer Daten entstehen in der Bioinformatik Herausforderungen bei der Speicherung und Analyse großer Datenmengen. Die umfangreichen
Genotypisierungsdaten der Gerste, welche als Referenzdatensatz vorlagen, wurden am Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) durch Genotyping by Sequencing (GBS) erstellt. Zur effektiven Speicherung sowie Analyse dieser Daten wurden verschiedene Datenstrukturen erstellt und hinsichtlich Performance und Speicherbedarf evaluiert. Die Entwicklung verschiedener Java-Tools ermöglichte dabei das Einlesen, die Verarbeitung, sowie die Ausgabe dieser Daten zur effektiven Strukturierung und Analyse. Um die Anwendung dieser Java-Tools über Edge-Computing zu ermöglichen, wurde an der Erstellung von Datencontainern gearbeitet.
he automatic comparison of RNA/DNA or rather nucleotide sequences is a complex task requiring careful design due to the computational complexity. While alignment-based models suffer from computational costs in time, alignment-free models have to deal with appropriate data preprocessing and consistently designed mathematical data comparison. This work deals with the latter strategy. In particular, a systematic categorization is proposed, which emphasizes two key concepts that have to be combined for a successful comparison analysis: 1) the data transformation comprising adequate mathematical sequence coding and feature extraction, and 2) the subsequent (dis-)similarity evaluation of the transformed data by means of problem specific but mathematically consistent proximity measures. Respective approaches of different categories
of the introduced scheme are examined with regard to their suitability to distinguish natural RNA virus sequences from artificially generated ones encompassing varying degrees of biological feature preservation. The challenge in this application is the limited additional biological information available, such that the decision has to be made solely on the basis of the sequences and their
inherent structural characteristics. To address this, the present work focuses on interpretable, dissimilarity based classification models of machine learning, namely variants of Learning Vector Quantizers. These methods are known to be robust and highly interpretable, and therefore,
allow to evaluate the applied data transformations together with the chosen proximity measure with respect to the given discrimination task. First analysis results are provided and discussed, serving as a starting point for more in-depth analysis of this problem in the future.
Im Rahmen dieser Arbeit wird die metrische Analyse des menschlichen Kiefers erforscht. Dies beinhaltet das Themengebiet der Bissspurenanalyse, um den Beweiswert der Kiefervermessung vor Gericht feststellen zu können. Es sollen anschließend folgende Fragen beantwortet werden können: „Wie funktioniert die Vermessung?“, „Ist diese objektiv und reproduzierbar?“ und „Was wird für die gerichtliche Verwertbarkeit benötigt?“. Letzteres bezieht sich insbesondere auf die Art und Anzahl identifizierender Merkmale. Über dem Thema steht die These, dass das menschliche Gebiss einzigartig ist.
In der vorliegenden Bachelorarbeit wird die Wahrnehmung von übermäßiger Polizeigewalt mit der tatsächlichen Vorgehensweise der Polizeibeamten abgestimmt und mit der gesetzlichen Vorgabe zur Herangehensweise verglichen. Gemäß der in dieser Arbeit vermittelten Grundlagen zu Hellfeld und Dunkelfeld sowie der Anzeigebereitschaft wird ein grundlegendes Verständnis für die beschriebene Problematik fundiert. Die aufgeführten Beispiele dienen der Untersuchung des Problems und zur differenzierten Auseinandersetzung mit der Thematik, zum einen der Analyse des jeweiligen Falles und deren beschriebene Situation zur Lage und zum anderen der angeschnittene Umriss zur juristischen Sachlage dieser.
Das Chemokin CCL2 spielt bei entzündlichen Prozessen, wie dem ischämischen Schlaganfall, eine wichtige Rolle. Die biologische Aktivität von CCL2 kann durch eine N-terminale Modifikation, katalysiert durch die Enzyme Dipeptidyl-Peptidase 4 und (iso)Glutaminyl-Cyclase, beeinflusst werden. In dieser Arbeit soll der Einfluss von CCL2 und CCL2-modifizierenden Enzymen auf das Überleben primärer Neurone unter ischämischen Bedingungen untersucht werden. Dazu werden verschiedene knock-out Mauslinien des Stamm C56Bl/6 verwendet. Für die quantitative Analyse der Lebensfähigkeit wurden MTT- und LDH-Assays genutzt. Somit konnte gezeigt werden, das CCL2, DP4 und (iso)QC das Überleben primärer Neurone unter ischämischen Bedingungen beeinflussen. Durch immunzytochemische Färbungen wurde die Expression von CCL2, sowie eine Veränderung der Neuritenanzahl und -länge vor und nach Ischämie nachgewiesen.
In der vorliegenden Arbeit wird ein bereits bestehendes Annotationstool für die Übersetzung von Standardsprache in Leichte Sprache hinsichtlich seiner Usability analysiert. Anschließend werden, unter Verwendung von UI Design Patterns, Komponenten entwickelt, welche die Usability des Systems verbessern sollen. In einer Evaluation werden die Annahmen bezüglich der Usability-Verbesserungen geprüft.
Convolutional Neural network (CNN) has been one of most powerful and popular preprocessing techniques employed for image classification problems. Here, we use other signal processing techniques like Fourier transform and wavelet transform to preprocess the images in conjunction with different classifiers like MLP, LVQ, GLVQ and GMLVQ and compare its performance with CNN.
Konzeption und Umsetzung eines Komplexpraktikums zur Erstellung einer WebApp für Mobile Endgeräte
(2020)
Die vorliegende Arbeit befasst sich mit der Erstellung eines Komplexpraktikums zur Entwicklung einer WebApp für mobile Endgeräte. Ziel der Arbeit ist es, den aktuellen Stand der Technik im Bereich der Entwicklung von Webanwendungen zu analysieren und auf Grundlage der daraus gewonnenen Erkenntnisse selbst eine Webanwendung zu konzipieren und umzusetzen. Diese Anwendung dient ihrerseits als Basis für die Erstellung von 4 Seminaren für die Studenten des 2. Semesters im Studiengang Medieninformatik und Interaktives Entertainment der Hochschule Mittweida, in deren Rahmen sie diese nachprogrammieren und dadurch mit den Technologien und Konzepten vertraut gemacht werden.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
Genetic sequence variations at the level of gene promoters influence the binding of transcription factors. In plants, this often leads to differential gene expression across natural accessions and crop cultivars. Some of these differences are propagated through molecular networks and lead to macroscopic phenotypes. However, the link between promoter sequence variation and the variation of its activity is not yet well understood. In this project, we use the power of deep learning in 728 genotypes of Arabidopsis thaliana to shed light on some aspects of that link. Convolutional neural networks were successfully implemented to predict the likelihood of a gene being expressed from its promoter sequence. These networks were also capable of highlighting known and putative new sequence motifs causal for the expression of genes. We tested our algorithms in various scenarios, including single and multiple point mutations, as well as indels on synthetic and real promoter sequences and the respective performance characteristics of the algorithm have been estimated. Finally, we showed that the decision boundary to classify genes as expressed and non-expressed depends on the sensitivity of the transcriptome profiling assay and changing it has an impact on the algorithm’s performance.
Data streams change their statistical behaviour over the time. These changes can occur gradually or abruptly with unforeseen reasons, which may effect the expected outcome. Thus it is important to detect concept drift as soon as it occurs. In this thesis we chose distance based methodology to detect presence of concept drift in the data streams. We used generalized learning vector quantization(GLVQ) and generalized matrix learning vector quantization( GMLVQ) classifiers for distance calculation between prototypes and data points. Chi-square and Kolmogorov–Smirnov tests are used to compare the distance distributions of test and train data sets to indicate the drift presence.
Konzeption zum Aufbau einer Werkstatt 4.0 mit prototypischen
IoT Elementen, teilweise simuliert
(2020)
Bei dieser Arbeit wurden verschiedene Vergleiche zwischen Datenübertragungsarten gezogen und welche in einer Werkstatt 4.0 implementiert werden können. Die Vergleiche finden sich meist in Tabellenform wieder, da diese die beste Möglichkeit zur Gegenüberstellung bieten. Weiterhin wurde ein Konzept für eine Benutzerverwaltung erstellt. Dabei war die Vorgabe mit dem ASP.Net Framework „Razor Pages“ und WPF zu arbeiten. Diese Arbeit ist sowohl für studierende der Informatikstudiengänge als auch für Technik affine Studenten interessant.
Immer häufiger greifen technikbegeisterte Personen zu Smart-Home Geräten für ihre eigenen vier Wänden. Durch diese Geräte, kann der Weg zur Tür abgenommen oder die Bestellung über eine Onlineplattform erleichtert werden. Der Nutzen dieser meist kleinen aber durchdachten komplexen Maschinen ist enorm. Um der Schnelllebigkeit entgegen zu wirken, werden immer kreativere Wege gesucht. IoT-Geräte ermöglichen das Ersetzen der lokalen Einstellung am Gerät selbst. Bspw. kann so die Heizungssteuerung auf dem Heimweg vorgenommen werden. Dadurch spielt eine klare Sicherheitsdefinition für den Umgang mit persönlichen Daten eine größer werdende Rolle. Hierbei stellt sich die Frage, wie anfällig solche Anlagen sind. Das Kernstück dieser Arbeit wird sich mit der Feststellung von möglichen Schwachstellen in Innogy Smart-Home-Geräten beschäftigen. Insbesondere werden Endgeräte untersucht, welche bereits Einzug in den Alltag gefunden haben. Ansätze der Informationssicherheit und der digitalen Forensik werden in realitätsnahen Szenarien aufgezeigt und analysiert. Es werden Richtlinien des Bundesamtes für Sicherheit in der Informationstechnik und gesetzliche Vorgaben berücksichtigt. Teile des Sicherheitskonzeptes werden transparent dargestellt.
In response to prevailing environmental conditions, Arabidopsis thaliana plants must increase their photosynthetic capacity to acclimate to potential harmful environmental high light stress. In order to measure these changes in acclimation capacity, different high throughput imaging-based methods can be used. In this master thesis we studied different Arabidopsis thaliana knockout mutants-and accessions in their capacity to acclimate to potential harmful environmental high light and cold temperature conditions using a high throughput phenotyping system with an integrated chlorophyll fluorescence measurement system. In order to determine the acclimation capacity, Arabidopsis thaliana knockout mutants of previously not high light assigned genes as well as accessions of two different haplotype groups with a reference and alternative allele from different countries of origin were grown under switching high light and temperature environmental conditions. Photosynthetic analysis showed that knockout mutant plants did differ in their Photosystem II operating efficiency during an increased light irradiance switch but did not significantly differ a week later under the same circumstances from the wildtype. High throughput phenotyping of haplotype accessions revealed significant better acclimation capacity in non-photochemical quenching and steady-state photosynthetic efficiency in Russian domiciled accessions with an altered SPPA gene during high light and cold stress.
Die Blutaltersbestimmung kann Aufschluss über die Tatzeit eines Verbrechens geben und ist damit von hohem forensischem Wert. Bisher gibt es noch keine etablierte Methode, um das Alter von ausgetretenem Blut zu bestimmen, da sie meistens sehr kostenaufwendig oder unzuverlässig sind. Das Einbeziehen der Umweltfaktoren stellt dabei eine weitere große Herausforderung dar. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Blut im Zeitraum von 21 Tagen unter dem Einfluss der Luftfeuchtigkeit untersucht. Hierbei werden besonders die alterskorrelierenden Features analysiert. Zu den alterskorrelierenden Features zählen die Oxyhämoglobin- und Methämoglobin-Peaks und die hypsochrome Verschiebung der Soret-Bande. Die Luftfeuchtigkeit wurde mit Hilfe eines Raspberry Pi’s gesteuert. Bei der Auswertung der Ergebnisse konnte festgestellt werden, dass das Oxyhämoglobin bei höherer Luftfeuchtigkeit zunächst langsamer oxidiert und dass die Verschiebung der Soret-Bande langsamer verläuft. Nach 21 Tagen ist jedoch kein Unterschied mehr zu erkennen.
Eine Vielzahl der heutigen Cyber Angriffe auf Unternehmen haben das Ziel sich in deren Netzwerk auszubreiten, um so an kritische Informationen zu gelangen oder das Unternehmen anderweitig zu schädigen. Eine Betrachtung dieses als Lateral Movement bezeichnete Vorgehen ist Thema der vorliegenden Bachelorarbeit. Hauptaugenmerk wird auf die forensische Analyse wahrscheinlich auftretender Methoden und den dabei anfallenden Spuren gelegt. Bei den Spuren wurde sich größtenteils auf Ereignisse in Protokolldateien, sowie auf Registry- und Programmausührungs-Artefakte bezogen. Als Ergebnis wurde eine tabellarische Übersicht der zu priorisierenden Spuren erstellt, die Ermittlern zu einer effektiveren forensischen Analyse solcher IT Vorfälle verhelfen soll.
This thesis deals with the development of a methodology / concept to analyse targeted attacks against IIoT / IoT devices. Building on the established background knowledge about honeypots, fileless malware and injection techniques a methodology is created that leads to a concept of a honeypot analyzation system. The system is created to analyse and detect novel threats like fileless attacks which are often utilized by Advanced Persistent Threats. That system is partially implemented and later evaluated by performing a simulated attack utilizing fileless attacks. The effectiveness is discussed and rated based on the results.
IT-Forensische Analyse moderner Android Betriebssysteme : Sicherheitsbericht zu Android Trojanern
(2020)
In der vorliegenden Bachelorarbeit soll ein Überblick über die Anfälligkeit moderner Android Betriebssysteme auf Trojaner gegeben werden. Dieser Trojaner, welcher während der Bachelorarbeit erstellt wurde, soll eine Backdoor enthalten, wodurch dieser eine HTTPS-Verbindung zum Ziel-System aufbaut. Über diese Verbindung soll an-schließend eine Meterpreter Session auf dem Ziel-System etabliert werden, um Zu-gang zu dem infizierten System zu erlangen.
In der vorliegenden Arbeit wird eine Methodik entwickelt, mit der ausgewählte forensische Software-Tools miteinander verglichen werden können. Dieser Ver-gleich basiert auf einem erstellten Image, welches diverse Artefakte beinhaltet. Auf Grundlage dieser Artefakte wird eine Bewertungsmatrix erzeugt, welche für den Vergleich der ausgewählten Forensik-Tools X-Ways, Axiom und Autopsy genutzt wird. Anhand der Ergebnisse, die durch die Matrix generiert wurden, lässt sich Axiom als bestes der drei getesteten Tools herausstellen. Hierbei muss allerdings berücksichtigt werden, dass die Beurteilung nach subjektiven Kriterien geschehen ist und keine eindeutige Aussage getroffen werden kann, ob ein forensisches Tool eine erfolgreiche Auswertung liefert
Das Thema IT-Sicherheit wird durch zunehmende Vernetzung, neue Anforderungen an Systeme und Industrie 4.0 auch für industrielle Netzwerke wie SCADA und ICS immer wichtiger.
Finanzielle Schäden durch Angriffe steigen von Jahr zu Jahr. Deswegen ist es wichtig, diese Netzwerke zu schützen und Angriffe frühzeitig zu erkennen, um zeitnah auf diese reagieren zu können und größere Schäden zu vermeiden. Da klassische Methoden ICS Systeme zum Teil behindern können und um einen zusätzlichen Schutz zu den normalen Intrusion Detection Systemen und Firewalls zu bieten, ist das Ziel dieser Arbeit, die Entwicklung einer Plattform, zur
verhaltensbasierten Detektion von Angriffen in solchen Netzwerken. Dafür werden Honeypots im Netzwerk verteilt, welche dazu dienen, Angriffe, die das normale IDS oder Firewalls umgangen haben, oder gar von Internen durchgeführt werden, zu erkennen. Die Honeypots sind in der Lage, Zugriffe auf die von ihnen verwendeten Protokolle zu erkennen und senden in diesem Fall Meldungen an einen zentralen Server, welcher diese in einer Datenbank speichert und in einem Dashboard visualisiert. Das in dieser Arbeit beschriebene Konzept und seine detailliert beschriebene Umsetzung sollen den Einstieg für Unternehmen in dieses Thema erleichtern und zu weiterer Forschung auf diesem Gebiet anregen.
Diese Arbeit widmet sich dem Vergleich forensischer Software in der mobilen Forensik. Das Ziel der Arbeit besteht darin, forensische Images mit mehreren Tools zu analysieren und die Ergebnisse gegenüberzustellen. Dabei wird insbe-sondere auf die Qualität der Ergebnisse und der auf die Analyse verwendete Zeitaufwand berücksichtigt. Der Vergleich schließt die Tools XRY von MSAB, Oxygen Forensic Detective von Oxygen Forensics und das Open-Source Tool Autopsy ein.
In der heutigen Gesellschaft finden zunehmend Fitnesstracker Anwendung. Viele Menschen sind daran interessiert ihre körperlichen Aktivitäten über den Alltag hinweg aufzuzeichnen, um einen Überblick über ihre Gesundheit oder Fitness zu erhalten. Aufgezeichnete körperliche Aktivitäten sollen in dieser Arbeit speziell mit GPS-Positionen, die auf einem separaten Gerät von derselben Person generiert wurden, in Verbindung gesetzt werden. Konkret wird eine Datenkopplung innerhalb eines Aggregationsalgorithmus für Geo-Positionen integriert. Die Aktivitätsdaten werden ausgewertet und über eine Java-Applikation dem Anwender zur Verfügung gestellt. Als Anwender kommen z.B. IT-Forensiker infrage. Um die Tauglichkeit zu testen, wurden über einen Zeitraum von zwei Wochen Testdatensätze mit einem Garmin vívosmart 4 und einem Android-Smartphone erho-ben. Das Ergebnis der in dieser Arbeit durchgeführten Implementierung ermöglicht eine Zusammenführung und Analyse dieser Daten auf Anwendungsebene.
Ziel dieser Arbeit ist die Einführung und Implementierung eines Konzeptes, das diese hochsensiblen Daten trennt und unabhängig voneinander verwaltet. Auf diese Weise soll verhindert werden, dass ein Angreifer, bei unautorisiertem Zugriff auf eine Datenbank, keinen Zugang zu allen Sensor- und Identitätsdaten hat. Zu diesem Zweck wird ein Service vorgestellt, der die aufgezeichneten Daten in mehrere Komponenten aufteilt und unabhängig voneinander speichert. Damit die Anwendung keine Kenntnis über den Datenspeicherort besitzen muss, soll außerdem sichergestellt werden, dass die Anwendung und die Datenquellen nicht selbst miteinander kommunizieren müssen.
Die folgende Arbeit behandelt die Methoden digitaler Bildmanipulationen sowie die Erkennung solcher Manipulationen anhand etablierter Detektionsverfahren. Das Hauptaugenmerk liegt dabei auf der Planung und Implementierung einer Software zur automatisierten Detektion duplizierter Regionen innerhalb eines digitalen Bildes. Anschließend an diese Implementierung folgt eine detaillierte Auswertung der Detektionsergebnisse sowie eine Bewertung der Qualität der Software gegenüber bestehenden Verfahren.
In dieser Arbeit geht es um die Untersuchung eines auf wenige Kernmechaniken reduziertes Rollenspiel auf die Motivation des Spielers. Hierfür wurde anhand einer angefertigten Applikation eine quantitative Nutzerstudie mit sechs Probanden durchgeführt. Die Ergebnisse sind dabei gemischt ausgefallen und es konnte kein eindeutiger Beweis auf die Beeinflussung der Motivation durch das Testszenario festgestellt werden.
Financial fraud for banks can be a reason for huge monetary losses. Studies have shown that, if not mitigated, financial fraud can lead to bankruptcy for big financial institutions and even insolvency for individuals. Credit card fraud is a type of financial fraud that is ever growing. In the future, these numbers are expected to increase exponentially and that’s why a lot of researchers are focusing on machine learning techniques for detecting frauds. This task, however, is not a simple task. There are mainly two reasons
• varying behaviour in committing fraud
• high level of imbalance in the dataset (the majority of normal or genuine cases largely outnumbers the number of fraudulent cases)
A predictive model usually tends to be biased towards the majority of samples, in an unbalanced dataset, when this dataset is provided as an input to a predictive model.
In this Thesis this problem is tackled by implementing a data-level approach where different resampling methods such as undersampling, oversampling, and hybrid strategies along with bagging and boosting algorithmic approaches have been applied to a highly skewed dataset with 492 idetified frauds out of 284,807 transactions.
Predictive modelling algorithms like Logistic Regression, Random Forest, and XGBoost have been implemented along with different resampling techniques to predict fraudulent transactions.
The performance of the predictive models was evaluated based on Receiver Operating CharacteristicArea under the curve (AUC-ROC), Precision Recall Area under the Curve (AUC-PR), Precision, Recall, F1 score metrics.
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
In der vorliegenden Bachelorarbeit wird auf den Nutzen sowie aktuelle Möglichkeiten bei der IT-forensischen Analyse des Arbeitsspeichers aktueller Computersysteme mit DDR4- Speichermodulen eingegangen. Es wird sich dabei sowohl auf generelle, als auch im Zuge der DDR4-Technik eingeführte, Funktionalitäten des physischen Arbeitsspeichers bezogen. Die Auswertbarkeit des Arbeitsspeichers wird aus IT-forensischer Sicht betrachtet und damit auftretende Problematiken für die IT-Forensik evaluiert. In der vorliegenden Arbeit wird vorrangig auf Methodiken der Analyse verschiedener Windows Hibernation Files, sowie den Cold Boot Ansatz eingegangen. Bei letzterem liegt der Schwerpunkt auf der Analyse verschleierter (gescrambelter) Arbeitsspeicherinhalte, sowie einem möglichen Ansatz effektiv Scrambler-Schlüssel aus diesen zu ermitteln.
Kläranlagen sollten nach Möglichkeit dem neusten Stand der Technik entsprechen, um die Betriebskosten so gering wie möglich zu halten. Bei älteren Kläranlagen besteht neben der Erneuerung die Möglichkeit, den Prozess der Abwasserbehandlung durch bestimmte Verfahren der Vor- bzw. Nachbehandlung zu ergänzen. Dies kann zu einer besseren Wirtschaftlichkeit und Nachhaltigkeit führen. In dieser Arbeit wurde die Optimierung der werksinternen Kläranlage der Molkerei Hainichen-Freiberg GmbH & Co. KG mithilfe einer vorgeschalteten Druckentspannungsflotationsanlage untersucht. Durch die Flotation werden suspendierte Stoffe im Abwasser abgeschieden. Die Reduktionsraten hinsichtlich des chemischen Sauerstoffbedarfs, des Gesamtstickstoffs und des Gesamtphosphats wurden bei verschiedenen Flock- und Fällmitteldosierungen ermittelt. Anschließend wurden die einzelnen Varianten hinsichtlich der Optimierung der werksinternen Kläranlage und der Wirtschaftlichkeit auf die spezifische Abwassermenge der Molkerei Hainichen-Freiberg GmbH & Co. KG beurteilt.
Eine Optimierung führt einerseits zu einer besseren Wirtschaftlichkeit der Anlage, andererseits kann der Prozess der Abwasserbehandlung nachhaltiger gestaltet werden, beispielsweise durch ein anaerobes Verfahren bei dem Biogas erzeugt wird.
Diese Arbeit untersucht die Bedeutung der neuen de novo Mutation JAK2 c.2765G>C, p. R922P, die bei einem Kind mit den klinischen Anzeichen eines myelodysplastischen Syndroms identifiziert wurde. Dazu sollte die Mutante zunächst kloniert und anschließend in murine Pro-B-Zellen transfiziert werden, die nur in Anwesenheit des Zytokins IL-3 lebensfähig sind. Durch Entzug des Zytokins sollte das onkogene Potential der Mutante untersucht werden, da bei konstitutiv aktiver Januskinase2 (JAK2) eine Interleukin-unabhängige Proliferation der Zellen weiterhin stattfindet.
Heutzutage werden digitale Geräte weitestgehend in allen Lebensbereichen genutzt. Die Bedeutung dieser Geräte nimmt ebenfalls für Straftäter und Kriminelle zu. Aus diesem Grund existieren gesetzliche Maßnahmen zur Durchführung von Online-Durchsuchungen. In dieser Arbeit wird sowohl auf den § 49 BKAG als auch auf den § 100b StPO eingegangen. Speziell der § 100b StPO soll bezüglich des Opferschutzes beleuchtet werden. Die Opferschutzrichtlinie der EU sowie die Grundrechtseingriffe der Maßnahme werden in diesem Zusammenhang untersucht. Weiterhin erfolgt in dieser Arbeit eine Prüfung des § 100b StPO mit den dazugehörigen Grundrechtseingriffen im Sinne des Verhältnismäßigkeitsgrundsatzes.
Diese Arbeit thematisiert die Evaluation von Unterschieden bei interaktivem linearem und nichtlinearem Storytelling. Es stellte sich die Frage, welche der beiden Erzählweisen in einem Videospiel bei Nutzern beliebter ist und wie dieses praktisch überprüft werden kann. Dazu wurde ein Videospiel entwickelt, das dieselbe Geschichte sowohl in einer linearen als auch in einer nichtlinearen Erzählweise erzählt. So sollen Unterschiede der beiden Varianten deutlich gemacht werden. Durch einen Probandentest wurde dann mithilfe des Videospiels und eines Fragebogens die Untersuchung durchgeführt. Diese ergab, dass nichtlineares Storytelling als Erzählweise bevorzugt wird, da es dem Spieler mehr Entscheidungsmöglichkeiten bietet und somit interaktive Spielerlebnisse fördert. Ebenfalls konnten Probleme aufgezeigt und bestätigt werden, die dadurch auftreten, dass interaktives und nichtlineares Storytelling nicht wirklich vom linearen Pfad abweicht. Das steht konträr zu einer Interaktivität, die Videospiele eigentlich bieten sollten.
Erstellen eines Leitfadens zur Sicherstellung der gestalterischen Kontinuität von Concept Art
(2020)
Das Ziel dieser Arbeit ist es einen Leitfaden zur Sicherstellung der gestalterischen Kontinuität von Concept Art zu erstellen. Um das zu erreichen wurden zuerst die essenziellen Begriffe Concept Art und Kontinuität definiert. Aus diesen Definitionen wurden anschließend Methoden abgeleitet die eine Sicherstellung der Kontinuität gewährleisten können. Schlussendlich wurde eine Expertenumfrage durchgeführt und analysiert. Die Analyseergebnisse wurden mit den theoretischen Erkenntnissen in einem Leitfaden zusammengefasst
Diese Arbeit beschäftigt sich mit der Methode der automatisierten Geschlechtsbestimmung über Abbilder des daktyloskopischen Fingerabdrucks und der deren Umsetzung als Programm zur praktischen Anwendung. Die theoretischen Grundlagen hierfür liefern mehrere Studien, die bereits im Rahmen zweier wissenschaftlicher Arbeiten betrachtet und in die praktische Anwendung in Form einer Software umgesetzt wurden.
Ziel dieser Arbeit war es, die Software zur automatisierten Geschlechtsbestimmung weiter um Prozesse der Bildverarbeitung zu erweitern, um die Genauigkeit und die Effizienz zu steigern.
Sowohl diese Veränderungen, als auch die gesamte Software an sich, sollte im Anschluss evaluiert werden, um deren Funktionsleistungen in messbaren Ergebnissen aufzuzeigen. Die daraus gezogenen Erkenntnisse sollen anschließend Ausblicke zur weiteren Verwendung geben.
Des Weiteren gibt die Arbeit Aufschluss über die Zusammenhänge des genetisch zufälligen Determinismus bei der Entstehung des Fingerabdrucks mit den zu beobachteten Phänomenen des scheinbaren Geschlechtsdeterminismus.
Aus Gründen der besseren Lesbarkeit wird in dieser Bachelorarbeit die Sprachform des generischen Maskulinums angewandt. Es wird an dieser Stelle darauf hingewiesen, dass die ausschließliche Verwendung der männlichen Form geschlechtsunabhängig zu verstehen ist.
Ziel dieser Arbeit ist der Entwurf einer Komponente, welche in der Lage ist Entscheidungsbäume in den 3D-Raum zu projizieren. Dazu ist es erforderlich, diese erweiterbar zu gestalten. Im Speziellen muss sie dafür verschiedene Arten von Knoten und Entscheidungsregeln mithilfe einer erweiterbaren Schnittstelle unterstützen.
Die Schnittstelle ist als Teil der Arbeit zu definieren und zu dokumentieren. Die Komponente soll prototypisch Interaktionen des Nutzers registrieren, wie das Anwählen einzelner Bestandteile des Modells. Um die Verwendbarkeit in Folgeprojekten sicherzustellen muss zu diesem Zweck im Rahmen der Arbeit eine API definiert werden
Der Autor dieser Arbeit gibt einen kurzen Überblick über die in der Industrie gültigen Richtlinien sowie üblichen Methoden zur Bewertung von der Reinigungseffizienz. Das Ziel dieser Arbeit ist die Entwicklung und Optimierung eines mikrobiologischen sowie makroskopischen Tests, der an dem Verfahren von EHEDG orientiert ist und für 3D-gedrucke Bauteile aus Edelstahl eingesetzt werden kann. Bei dem Verfahren für den makroskopischen Test wird das jeweilige Teststück zuerst verschmutzt, gereinigt und anschließend mithilfe von Fluoreszenzbildern ausgewertet. Für die Entwicklung eines mikrobiellen Tests wird die Modellverschmutzung auf Sauermilchbasis mit Endosporen eines Bioindikators Geobacillus stearothermophilus beimpft. Die Teststücke werden verschmutzt, gereinigt und mithilfe eines MSH-Agars ausgewertet.
Im Rahmen der Abschlussarbeit soll untersucht werden, inwiefern die Kombination von live objects der Realm Database auf der einen Seite und Combine und SwiftUI auf der anderen, die entstehende Komplexität und Fehleranfälligkeit bei der App-Entwicklung in iOS reduzieren kann. Es soll ein durchführbarer praktischer Teil in Form einer Chat-App entstehen und getestet werden, die die Vor- und Nachteile der genannten Techniken verdeutlicht.
Das Epitop-Mapping dient der Identifizierung von Epitopen eines Antigens. Dazu wurden Seren immunisierter Kaninchen zur Durchführung verwendet. Die Peptidsequenzen von Phagen wurden mittels des Peptid-Phage-Display selektiert und amplifiziert. Diese Sequenzen wurden anschließend mit LibDB analysiert. Es wurden 7 potentielle Epitope des Dengue-Virus Serotyp 2 Envelope (E)-Proteins identifiziert.
Die in dieser Arbeit entwickelte Software trägt den Titel Inceptum, der bereits vorgegeben war und für Beginn oder ein Vorhaben steht. Die Software soll zukünftig als Stütze dienen, um nicht mehr viele unterschiedliche Softwarelösungen nutzen zu müssen, sondern nur noch eine zentrale, das reduziert das wiederholte Eingeben von kohärenten Daten. Jira und SAP sollen jedoch nicht ersetzt werden, Inceptum dient lediglich als Ergänzung und als Schnittstelle der unterschiedlichen Daten um daraus eine auswertbare Sammlung an Informationen zu erhalten, was zuvor in mühsamer Handarbeit in Excel-Tabellen erledigt werden musste. Somit soll viel Zeit und Arbeit eingespart werden, was immer mit hohen Kosten verbunden ist. Diese Art von individueller Verbindung hebt das Konzept der Software von den gängigen Projektmanagement-Softwarelösungen ab.
Der in dieser Arbeit entwickelte Grundstein der Software beinhaltet alle Vorkehrungen, um diese Schnittstellen später anbinden zu können. Kein Teil dieser Arbeit ist das Entwickeln der Schnittstellen an sich. Die Schnittstelle zu
der Ticketverwaltungssoftware Jira ist bereits fertig programmiert und deren Anbindung an die Software wird lediglich untersucht. Die Anbindung an SAP ist ebenfalls nicht in dieser Arbeit vorgesehen. Die Daten aus Excel sollen möglichst ersetzt werden, um später darauf nicht mehr zurückgreifen zu müssen. Die Positionierung der Software Inceptum wird in der Grafik 1.2 noch einmal visualisiert. Kein Bestandteil der Arbeit ist außerdem das Anlegen, Bearbeiten und Löschen von Mitarbeitern, sowie deren Verfügbarkeitsänderungen, die Software baut lediglich auf der Grundlage dessen auf. Auch die Tabelle zur Darstellung von Verfügbarkeiten der Mitarbeiter pro Zeiteinheit ist kein Bestandteil der Arbeit.
In dieser Bachelorarbeit soll festgestellt werden, ob die Erkennung von KFZ-Kennzeichen mittels künstlicher Intelligenz insoweit möglich ist, dass eine digitale Manipulation derer, im Anschluss denkbar ist. Dazu werden zunächst äußerliche Eigenschaften von KFZ-Kennzeichen ausgearbeitet und herkömmliche Kamerasysteme vorgestellt. Anschließend wird eine Anwendung für automatisierte Kennzeichenerkennung getestet, um einzuschätzen, ob die Erkennungsfunktion die Erfolgsrate ausweist, die für eine digitale Manipulation von Nöten ist. Die Arbeit richtet sich an Personen mit Verständnis von Computern sowie der Arbeitsweise neuronaler Netze im Speziellen.
In dieser Masterarbeit werden verschiedene Angriffsverfahren auf LTE-Systeme vorgestellt und deren Funktionsweise erläutert. Eine Auswahl dieser Verfahren, welche für Downgrading-Attacks nutzbar sind, werden im Rahmen dieser Arbeit implementiert und in einer definierten Testumgebung auf Funktion getestet und ausgewertet. Ziel ist es dabei die Grundlage für ein Testsetup zu schaffen, bzw. existierende Testsetups zu erweitern, um so effektiv LTE-Systeme Testen zu können.
Ziel dieser Arbeit ist es, ein Software-Architektur-Konzept zu entwickeln, umzusetzen und zu evaluieren, dessen Fokus auf die Kombination einer Smartwatch-Anwendung mit einer AR-Brille-Anwendung gerichtet ist. Dazu wurde ein Patent untersucht, dessen Schwerpunkt auf der Kombination von AR-Brille und Smartwatch liegt, um Anforderungen an solch eine Software-Architektur zu erstellen. Im Anschluss entstand unter Einbeziehung der recherchierten Informationen ein Architektur-Konzept. Für die darauffolgende Umsetzung wurden Anwendungsfälle entwickelt, die zeigen sollen, wie ausgewählte Software-Qualitätsmerkmale bei Verwendung der
Architektur erreicht werden können. Bei der anschließenden Evaluation zeigte sich, dass die Architektur zur Erfüllung wichtiger Software-Qualitätsmerkmale beiträgt, aber auch Optimierungspotenzial besitzt.
Die vorliegende Arbeit befasst sich mit der DNA-Phänotypisierung und wie sich deren Anwendung in Form der erweiterten DNA-Analyse auf den Strafprozess in Deutschland auswirken wird. Unter der Betrachtung aktueller wissenschaftlicher Publikationen werden die derzeitigen Möglichkeiten der DNA-Phänotypisierung beleuchtet. Angesichts der neuen Gesetzeslage werden häufig geäußerte Kritikpunkte aufgegriffen und im Kontext gesellschaftlicher und ermittlungstechnischer Aspekte weitergeführt. Abschließend werden Empfehlungen für die effektive Anwendung in Deutschland gegeben, sowie für die verantwortungsvolle Aufnahme der biogeografischen Herkunft in die erweiterte DNA-Analyse argumentiert.
Diese Arbeit thematisiert die digitale 3D-Modellierung des zur Hochschule Mittweida gehörenden Richard-Stücklen Baus. Hauptaugenmerk wird dabei auf die historische Entwicklung der veränderten Außenfassade und die einhergehende Frage, ob und inwieweit das das Gebäude umschließende Gitter performant umgesetzt werden kann, gelegt. Die Untersuchung der Frage erfolgt durch die Entwicklung eines beispielhaften Anwendungsfalls in Form einer interaktiven Software. Die Evaluation durch Performanztests legt dar, dass mit dieser Arbeit ein Weg gefunden wurde, den Richard-Stücklen Bau und sein Gitter durch eine eigens entwickelte Anwendung
performant darzustellen.
StyleGAN2: Eine Analyse und dessen Übertragbarkeit auf die
Erzeugung synthetischerGanzkörperbilder
(2020)
Die vorliegende Bachelorarbeit befasst sich mit der Analyse der künstlichen Intelligenz Style-GAN2. Dabei richtet sich der Fokus zuerst auf den Aufbau von StyleGAN und im weiteren Verlauf auf die Weiterentwicklung StyleGAN2. Mit StyleGAN2 lassen sich fotorealistische Bilder von nicht existierenden Menschen, Tieren oder anderen Objekten erzeugen, z. B. menschliche Porträts, Katzen, Autos, Pferde und Kirchen. Bisher haben sich nur wenige Arbeiten mit der Erzeugung fotorealistischer Ganzkörperbilder von nicht existierenden Menschen auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Erzeugung synthetischer Ganzkörperbilder mit StyleGAN2. Diesbezüglich werden aus verschiedenen Arbeiten ideale Datensatz-, Bild- und Modelmerkmale abgeleitet und eine Vorgehensweise zur Erzeugung eines idealen Bilddatensatzes erläutert. Dieser Bilddatensatz wird zum Trainieren von StyleGAN2 benötigt. In einer Schritt für Schritt Anleitung wird das genaue Vorgehen zum Trainieren und Erzeugen synthetischer Ganzkörperbilder mit StyleGAN2 erklärt. Die vorliegende Arbeit soll als Anleitung zum Erzeugen synthetischer Ganzkörperbilder mit
StyleGAN2 dienen. Diese kann für verschiedene Bereiche genutzt werden, z. B. für den ECommerce, die Filmindustrie oder zur Bekämpfung von Straftaten.
Die Bachelorarbeit untersucht, welche Auswirkungen die semantische Bildsegmentierung als Vorverarbeitungsschritt für Eingabebilder auf die Klassifikationsfähigkeit eines Convolutional Neural Networks (CNN) hat. Zu diesem Zweck werden Experimente mit verschiedenen Visualisierungstechniken gemacht, die geeignet sind, relevante Aspekte des Datenflusses im CNN während des Klassifikationsprozesses (wie z.B. den für die Klassifikationsentscheidung relevantesten Bildausschnitt) intuitiv zu veranschaulichen. Hierzu sollen verschiedene bereits existierende Ansätze wie GradCAM, Taylor Decomposition, Activation Maximization auf ihre Anwendbarkeit anhand von synthetischen Bilddaten systematisch untersucht werden. Hierzu werden
Daten- und Kontrollschnittstellen zu den anvisierten CNN-Verfahren umgesetzt und Vergleichsexperimente mit unbehandelten und auf verschiedene Weise vorsegmentierten Bilddaten konzipiert und durchgeführt. Die Arbeit soll ein intuitives Verständnis bzgl. der Fragestellung fördern, welchen Effekt eine vorherige Bildsegmentierung auf das Klassifikationsresultat und die CNN-interne Repräsentation von bildbasierten Daten hat
Diese Bachelorarbeit handelt von der Konzeptionierung und Entwicklung eines Datenmanagements von Fahrzeugversuchsdaten. Dabei wird zuerst eine Vorbetrachtung durchgeführt, in der alle Anwendungsfälle und Ausgangsbedingungen analysiert werden. Die Analyse stellt die Grundlage dar auf der das Konzept im nächsten Kapitel basiert. Im Konzept wird der gesamte Prozessablauf des Datenmanagements von Auslösung des Prozesses bis zur Übergabe an den Folgeprozess betrachtet. Dabei werden verschiedene Ausgangsfälle betrachtet und jeweils eine entsprechende Umsetzungsmöglichkeit dargestellt. Mithilfe verschiedener Lösungsansätze wird eine bestmögliche Lösung gefunden. Bei der anschließenden Implementierung wird ein Prototyp erstellt, der das Konzept berücksichtigt. Mithilfe der beschriebenen Testumgebung und der Testfälle wird der Prototyp anschließend getestet.
Die vorliegende Arbeit befasst sich mit der Konzipierung und Realisierung einer Augmented Reality Web Applikation für die Staatlichen Kunstsammlungen Dresden.
Dabei wird der Nutzen von Augmented Reality im Museum anhand eines erarbeiteten Konzepts evaluiert und die Möglichkeiten der technischen Umsetzung eines solchen Konzepts, mittels moderner Webtechnologien geprüft.
Diese Arbeit beschäftigt sich mit einer theoretischen Auseinandersetzung des Modells der moralischen Entwicklung von Lawrence Kohlberg (1963), welches auf dem Konstrukt Piagets zum logischen Denken aufbaut. Als literarische Arbeit wurde versucht eine Übertragung des Modells aus dem realen Raum in den Virtuellen zu schaffen. Die zentrale Frage war, ob Deviante des realen Raumes die gleichen moralischen Stufen wählen, wie Deviante im virtuellen Raum. Weiterhin wurden die Big-Five der Persönlichkeit mit einbezogen.
Als zentrales Ergebnis zeigt sich die Kenntnis der geltenden Normen, sowie nicht geahndetes Übertreten vermeintlicher Grenzen. Weiterhin konnte festgestellt werden, dass es weniger um die moralische Entwicklung als starre Form, sondern um die Herausbildung einer moralischen Identität geht. Die Verschiebung der moralischen Wahl ist demnach keine räumliche, sondern eine zeitliche.
Das Ziel der vorliegenden Bachelorarbeit war es, eine Software zu entwickeln, die plausible Abstreitbarkeit auf Grundlage einer Trennung der Metadaten von den Nutzdaten eines verschlüsselten Datenträgers erreicht. Beide Teile wurden auf unterschiedliche Weise mittels bildsteganografischer bzw. datenträgersteganografischer Methoden dahingehend verändert, um letztendlich
die Existenz verschlüsselter Daten verbergen zu können. Die als “Proof-of-Concept“ entwickelte Software für Linux-Betriebssysteme soll dabei für den Nutzer ein möglichst transparentes Arbeiten gewährleisten aber durch die steganografischen Komponenten einen möglichst niedrigen Mehraufwand aufweisen. Sie greift weitestgehend auf Standardwerkzeuge zurück, wurde in der Programmiersprache Python 3 implementiert und steht hinsichtlich des Open-Source-Gedankens unter der GNU General Public License.