Refine
Document Type
- Bachelor Thesis (108)
- Master's Thesis (31)
- Diploma Thesis (3)
Year of publication
- 2020 (142) (remove)
Keywords
- Computerforensik (11)
- Computersicherheit (11)
- Maschinelles Lernen (7)
- Softwareentwicklung (7)
- Videospiel (7)
- Blockchain (5)
- Künstliche Intelligenz (5)
- Bildverarbeitung (4)
- Bioinformatik (4)
- Digitalisierung (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (142) (remove)
Mittels GPM3 können komplexe DNA- Mischspuren analysiert und STR- Profile ausgewertet werden. Zudem können durch Berechnungen die Genotypen, die in einer Mischung vorliegen, voneinander differenziert werden. Vor allem komplexe Mischspuren stellen einen Schwerpunkt bei der Spurenuntersuchung dar. Eine Anwendung von GPM3 ist die komponentenweise Dekonvolution von DNA- Mischspuren, bei der die Profile der beteiligten Personen aufgetrennt und die Wichtungen aller möglichen Genotypen ausgezählt werden. Dabei werden die Genotypkonstellationen (GTK) basierend auf den Peakhöhen, der Degradationsstärke und stochastischen Effekten bei Einsetzten von geringen DNA- Mengen modelliert. Der von der Firma Qualitype vorgegebene Grenzwert für die Wichtung, ab welcher mit einer hohen Wahrscheinlichkeit angenommen werden kann, dass es sich bei dieser GTK um den richtigen Genotyp der beteiligten Person handelt, liegt bei 90 %. Folglich werden Untersuchungen im Rahmen dieser Arbeit zu diesem Grenzwert anhand von verschiedenen 2- Personen- Mischungen in unterschiedlichen Konzentrationen mittels der Dekonvolution mit dem vollständig- kontinuierlichen Modell durchgeführt.
In der Arbeit werden dazu die jeweiligen Abstände der Wichtungen in Prozent der GTK der beteiligten Personen jeder Mischung berechnet und überprüft, ob die am höchsten gewichteten Genotypen in GPM3 den richtigen Allelkombinationen der jeweiligen Person entsprechen. Hierbei wird der Abstand der Konstellation mit der größten Wichtung zur „wahren“ Konstellation berechnet. Aus den Mittelwerten der prozentualen Abstände soll anschließend der Ähnlichkeitswert der Wichtung, ab welchem noch mit sehr hoher Wahrscheinlichkeit die richtige GTK ausgegeben wird, ermittelt werden.
Das Ziel der Bachelorarbeit ist es, die Möglichkeiten und Grenzen der Dekonvolution von Mischspuren mit der GPM3- Software bei verschiedenen Analysebedingungen zu bewerten und einen Auswerteparameter in Abhängigkeit von den Abständen der Wichtungen in Prozent und den Konzentrationen der einzelnen Mischungen zu validieren. Zudem soll die Nachweisgrenze der Analysemethode untersucht werden, um eine Aussage über die Minimalmenge an einzusetzender DNA treffen zu können
Die folgende Arbeit bezieht sich auf die Werke von Hermann Helbig und Dewald und Freiling. Es soll die Verbindung zwischen einem Objekt, definiert nach Helbig, und einer Spur im kriminalistischen Sinne aufzeigen. Es wird zudem eine neue Repräsentation des Weges einer Spur von dessen Sicherung hin zu der Assoziation mit dem Objekt, das die Spur verursacht hat, entwickelt. Ein Objekt als semantische Entität mit dessen Eigenschaften als Charakterisierung soll in einen Zusammenhang mit kriminalistischen Untersuchungen, wie Klassifizierung und Individualisierung, durch eine Ontologie gebracht werden. Beginnend mit physischen Spuren stellt sich die Frage, ob sich die Darstellung auch auf digitale Spuren übertragen lässt. Eine neue Grafik, die sowohl für physische als auch für digitale Suren funktioniert, soll erzielen werden.
Die Arbeit beschäftigt sich mit der Weiterentwicklung eines LIMS für die AUD-GmbH in Chemnitz. Als Orientierung dient eine vorangegangene Bachelorarbeit („Entwicklung eines Plans für ein LIMS auf Grundlage des Baukastensystems Nuclos“ von Florian Quellmalz), welche sich mit einem ähnlichen Thema beschäftigt hat. Mithilfe des Open Source Programms „Nuclos“ soll die Grundlage für ein funktionierendes LIMS geschaffen werden. Hierfür werden Informationen über Datenbankerstellung, die internen Laborprozesse und relevante Arbeitsschritte gesammelt, verarbeitet und anhand dessen in das LIMS einbezogen.
Die Bachelorarbeit untersucht, welche Auswirkungen die semantische Bildsegmentierung als Vorverarbeitungsschritt für Eingabebilder auf die Klassifikationsfähigkeit eines Convolutional Neural Networks (CNN) hat. Zu diesem Zweck werden Experimente mit verschiedenen Visualisierungstechniken gemacht, die geeignet sind, relevante Aspekte des Datenflusses im CNN während des Klassifikationsprozesses (wie z.B. den für die Klassifikationsentscheidung relevantesten Bildausschnitt) intuitiv zu veranschaulichen. Hierzu sollen verschiedene bereits existierende Ansätze wie GradCAM, Taylor Decomposition, Activation Maximization auf ihre Anwendbarkeit anhand von synthetischen Bilddaten systematisch untersucht werden. Hierzu werden
Daten- und Kontrollschnittstellen zu den anvisierten CNN-Verfahren umgesetzt und Vergleichsexperimente mit unbehandelten und auf verschiedene Weise vorsegmentierten Bilddaten konzipiert und durchgeführt. Die Arbeit soll ein intuitives Verständnis bzgl. der Fragestellung fördern, welchen Effekt eine vorherige Bildsegmentierung auf das Klassifikationsresultat und die CNN-interne Repräsentation von bildbasierten Daten hat
The number of Internet of Things (IoT) devices is increasing rapidly. The Trustless Incentivized Remote Node Network, in short IN3 (Incubed), enables trustworthy and fast access to a blockchain for a large number of low-performance IoT devices. Although currently IN3 only supports the verification of Ethereum data, it is not limited to one blockchain due to modularity. This thesis describes the fundamentals, the concept and the implementation of the Bitcoin verification in IN3.
Durch starkes Bevölkerungswachstum und den zunehmenden Mangel an landwirtschaftlich nutzbaren Flächen werden effektivere Pflanzen benötigt, um einer Hungersnot und Mangelernährung vorzubeugen. Diese können durch gezielte Eingriffe in das Genom optimiert und schließlich mittels Phänotypisierung analysiert werden. Während herkömmliche Verfahren Pflanzenparameter nur abschätzen können, ist eine genaue Bestimmung mithilfe von dreidimensionalen Modellen möglich. So bietet die Photogrammetrie, als Low-Cost-Anwendung, ein weites Einsatzspektrum. Die im mittleren Preissegment angesiedelten Structured-Light-Scanner können ebenfalls 3D-Pflanzenmodelle schnell, einfach und kostengünstig rekonstruieren. Ein 3D-Modell einer Pflanze bietet die Möglichkeit, Pflanzenparameter digital zu ermitteln und innerhalb kurzer Zeit unterschiedlichste Genotypen zu vergleichen. In dieser Arbeit wurden Pflanzenparameter von der Ackerschmalwand (Arabidopsis thaliana) und von Weizen (Poaceae) in einer 3D-Umgebung
mit Referenzdaten verglichen. Zur Evaluation der Performance der Scanning-Verfahren wurden verschiedene Parameter untersucht. Dabei wurden die Genauigkeit, Geschwindigkeit, Handhabbarkeit, Rechenanforderung und Flexibilität untersucht.
In der vorliegenden Bachelorarbeit wird die Wahrnehmung von übermäßiger Polizeigewalt mit der tatsächlichen Vorgehensweise der Polizeibeamten abgestimmt und mit der gesetzlichen Vorgabe zur Herangehensweise verglichen. Gemäß der in dieser Arbeit vermittelten Grundlagen zu Hellfeld und Dunkelfeld sowie der Anzeigebereitschaft wird ein grundlegendes Verständnis für die beschriebene Problematik fundiert. Die aufgeführten Beispiele dienen der Untersuchung des Problems und zur differenzierten Auseinandersetzung mit der Thematik, zum einen der Analyse des jeweiligen Falles und deren beschriebene Situation zur Lage und zum anderen der angeschnittene Umriss zur juristischen Sachlage dieser.
Diese Arbeit widmet sich dem Vergleich forensischer Software in der mobilen Forensik. Das Ziel der Arbeit besteht darin, forensische Images mit mehreren Tools zu analysieren und die Ergebnisse gegenüberzustellen. Dabei wird insbe-sondere auf die Qualität der Ergebnisse und der auf die Analyse verwendete Zeitaufwand berücksichtigt. Der Vergleich schließt die Tools XRY von MSAB, Oxygen Forensic Detective von Oxygen Forensics und das Open-Source Tool Autopsy ein.
In der vorliegenden Arbeit wird eine Methodik entwickelt, mit der ausgewählte forensische Software-Tools miteinander verglichen werden können. Dieser Ver-gleich basiert auf einem erstellten Image, welches diverse Artefakte beinhaltet. Auf Grundlage dieser Artefakte wird eine Bewertungsmatrix erzeugt, welche für den Vergleich der ausgewählten Forensik-Tools X-Ways, Axiom und Autopsy genutzt wird. Anhand der Ergebnisse, die durch die Matrix generiert wurden, lässt sich Axiom als bestes der drei getesteten Tools herausstellen. Hierbei muss allerdings berücksichtigt werden, dass die Beurteilung nach subjektiven Kriterien geschehen ist und keine eindeutige Aussage getroffen werden kann, ob ein forensisches Tool eine erfolgreiche Auswertung liefert
Krebs zählt zu den häufigsten Todesursachen. Die Suche nach neuen Wirkstoffen führt immer häufiger zu natürlichen Quellen. Das Heilkraut Artemisia annua L. bzw. dessen Sekundärmetabolit Artemisinin stellt einen Kandidaten zur Entwicklung neuer Krebsmedikament dar. Ursprünglich wurde Artemisinin in den 1970er Jahren als Mittel gegen Malaria entdeckt. Wie Studien beweisen konnten, weist die Verbindung auch eine selektive Wirkung gegen verschiedene Krebsarten auf. In dieser Arbeit wird Artemisinin bezüglich seiner Wirkung auf fünf humane Zelllinien (HeLa, 143B.TK-, HT-29, MCF-7, PC-3) untersucht, mit dem Ziel einen spezifischen Wirkort in den Mitochondrien zu identifizieren. Dafür werden die jeweiligen Krebszellen in Medium ohne Pyruvat und Uridin sowie in Medium mit beiden Zusätzen kultiviert. Nach einem Vorversuch wird der eigentliche Versuch mit der optimalen Artemisinin-Konzentration über sieben Tage durchgeführt. Die Ergebnisse umfassen mehrtägige mikroskopische Bildaufnahmereihen, Aufzeichnungen der Zellvitalität und der Gesamtlebendzellzahl sowie die relative Quantifizierung des mtDNA-Gehalts und des Expressionsniveaus respiratorischer Gene. Anhand dieser Untersuchungen kann davon ausgegangen werden, dass Artemisinin eine wachstumshemmende sowie zytotoxische Wirkung besitzt und in einigen der Zelllinien ebenso spezifisch in den Mitochondrien wirkt. Die Verbindung besitzt ein breites Wirkspektrum, was mit mehreren zellulären und molekularen Mechanismen assoziiert ist. Somit steht die Antikrebsaktivität von Artemisinin auch zusätzlich damit in Zusammenhang. Zudem besitzt Artemisinin eine unterschiedliche Wirksamkeit auf verschiedenen Arten von Tumorzellen.
Die vorliegende Arbeit beschäftigt sich mit der Analyse und dem Nachweis von unberechtigten RDP Zugriffen in Windows Netzwerkumgebungen. Dafür werden alle technischen Grundlagen zum Verständnis des RDP geklärt und mögliche
Angriffsszenarien sowie das Vorgehen von Angreifern aufgezeigt. Anschließend werden Indikatoren für unberechtigte Zugriffe erläutert und präventive Maßnahmen zum Schutz dargelegt.
Ziel dieser Masterarbeit ist eine Analyse des Voice-over-LTE-Netzwerkes auf Sicherheitsschwachstellen. Zuerst findet dafür eine theoretische Untersuchung des VoLTE-Protokolls mit einer Fokussierung auf seine sicherheitsrelevanten Merkmale statt. Anschließend wird das Session-Initiation-Protokoll (SIP) als Element für die praktische Untersuchung ausgewählt. Praktisch wird zuerst gezeigt, dass VoLTE-SIP-Pakete sensitive Daten enthalten, die auf den Endgeräten mitgelesen werden können. Anschließend werden manipulierte SIP-Pakete in das Netzwerk gesendet, die das Abfragen von Informationen und den Datenaustausch mit anderen VoLTE-Nutzern ermöglichen. Durch einen Vergleich der Arbeit mit anderen Veröffentlichungen wird gezeigt, dass es bereits ähnliche Ansätze gibt, die in dieser Arbeit verwendeten SIP-Pakete aber noch nicht für ein Auslösen unautorisierter Prozesse verwendet wurden. Zum Schluss wird dargestellt, in welchen Bereichen auf Basis dieser Arbeit weiter geforscht werden kann und welche Konsequenzen die gefundenen Ergebnisse für die VoLTE-Nutzer haben.
Im Jahr 2019 verzeichnete das Bundeskriminalamt in der Polizeilichen Kriminalstatistik einen neuen Höchststand an erfassten Fällen der Computerkriminalität. Zeitgleich lag die Aufklärungsquote für diesen Bereich der Kriminalität auf dem zweitniedrigsten Stand seit Beginn der Erfassung im Jahr 1987. Die digitale Forensik steht vor der Herausforderung, dass eine Ermittlung eine stetig wachsende Menge an heterogenen Daten umfasst. Eine Quelle für diese Daten bildet das Microsoft Betriebssystem Windows 10.
Diese Bachelorarbeit beschäftigt sich mit Artefakten eines Windows 10 Systems und damit, wie diese miteinander korreliert werden können. Ziel ist es eine Möglichkeit zu finden, den Forensiker bei einer forensischen Untersuchung zu unterstützen. Für diesen Zweck wurde eine Ontologie entwickelt, welche anhand ähnlicher Artefaktattribute eine Korrelation ermöglicht. Die praktische Umsetzung der Ontologie erfolgte mithilfe der Graphdatenbank Neo4j. Die Möglichkeiten der Datenbank wurde anhand von, für den Forensiker interessanten, Abfragen demonstriert.
In der vorliegenden Arbeit werden Bildanalysemethoden für die Lokalisation und Klassifikation von Eingabefeldern untersucht. Bei den Eingabefeldern liegt der Schwerpunkt auf den Benutzererkennungs- und Passwortfeldern, da die Verwendung der Bildanalysemethoden für eine Single Sign-On Lösung gedacht ist. Neben traditionellen Bildverarbeitungsmethoden, wie Segmentierung und Hough-Transformation, wird auch die Verwendung von neuronalen Netzen betrachtet.
Erstes Ziel der Arbeit ist es, eine Anwendung mit der Unity Engine zu erstellen, welche grundlegende Mechaniken einer First Person Zielübung beinhaltet.
Hierzu soll eine spielbare Karte mit Präzisionszielen entwickelt werden, welche mit gezieltem Klicken zerstört werden können. Dabei sollen neben einer ”realistisch“ aussehenden Map, zwei weitere Varianten erstellt werden, die in unterschiedlichen Abstufungen zusätzliche visuelle Elemente und Distraktoren beinhalten. Um die Wirksamkeit der Distraktoren prüfbar zu gestalten, sollen möglichst effiziente und starke Distraktoren im Vergleich zu einer Kontrolle ohne Distraktoren eingesetzt werden. Dadurch wird die Aussagefähigkeit der zu ermittelnden Daten unterstützt. Die Distraktoren sollen für potentielle Probanden des Testspiels den Durchlauf der Levels sowie das Auffinden und Treffen von Zielen erschweren.
Diese Karten werden von Grund auf gemodelt und die Funktionalität der Anwendung wird über die Skriptsprache C# implementiert.
Das zweite Ziel besteht darin, ein Spieleexperiment zu entwickeln, welches basierend auf der gestalteten FPS Anwendung eine Nachweismöglichkeit für die Wirksamkeit visueller Distraktoren auf Spieleteilnehmer hat. Dazu sollen Probanden mit Vorkenntnissen im FPS-Gaming für das Experiment rekrutiert werden. Die Teilnehmer werden die verschieden gestalteten Karten nach der Regie des Entwicklers durchlaufen und danach einen passend zur Aufgabenstellung entwickelten Fragebogen beantworten. Ebenfalls wird die Zeit gestoppt, welche diese Spieler für einen Durchlauf der verschiedenen Levels benötigen. Es wird weiterhin betrachtet, inwieweit sich durch wiederholtes Durchlaufen der Karten die Zeiten der Probanden verändern. Der zu entwickelnde Test soll zeigen, ob die Spieler abgelenkt werden und ob bei den Probanden durch wiederholtes Training eine Verbesserung der Spielleistung möglich ist, obwohl visuelle Distraktoren unterschiedlichster Art und Vielfältigkeit den Spieler behindern bzw. ablenken. Damit soll ermittelt werden, ob Testspieler in einem bestimmten und wenn ja, welchem Zeitraum in der Lage sind, bekannte Distraktoren auszublenden.
Mit dem gewählten experimentellen Ansatz kann eventuell am Rande auch ein kleiner bestätigender Baustein für die Hypothese erbracht werden, dass das Spielen von Videospielen eher positive, leistungssteigernde Effekte bezüglich des Wahrnehmungsvermögens und der Motorikfähigkeiten von Spielern haben kann, wie in einer umfassenden und sehr gut abgesicherten Studie von Green und Bavelier im Jahr 2003 gezeigt. Dort konnte nachgewiesen werden, dass die visuellen Fähigkeiten bei Gewohnheitsspielern gegenüber Nicht-Spielern verbessert sind, aber auch Nicht-Videospiel-Spieler durch das Spieletraining diese Fähigkeiten verbessern.
Im Rahmen der vorliegenden Arbeit werden in einem minimalistischen Ansatz die Testpersonen hinsichtlich der Trainierbarkeit ihrer visuellen und koordinativen Fähigkeiten geprüft. Die Grundidee fokussiert jedoch ganz spezifisch nur auf den Einfluss ablenkender Elemente im Spieledesign.
Diese Arbeit behandelt die Wirkungsweise von optischen Reizen in Videospielen, sowie deren Einfluss auf instinktive Handlungen von Spielern. Es soll dabei untersucht werden, ob sich diese Reize von elementaren Prinzipien erfolgreicher Level Design Ansätze ableiten lassen. Hierfür wird auf Grundlage einer umfassenden Recherche eine modulare Testkammer im Stil eines Puzzlespiels konzipiert und umgesetzt. Die Probanden werden bei der Lösung acht verschiedener Bereiche beobachtet und protokolliert sowie zu einzelnen Aspekten befragt. Bei der Auswertung dieser stellen sich Farbunterschiede und starke Farbkonstraste als wirksamste optische Reize heraus.
Für eine akkurate Analyse der Auswirkungen auf instinktive Handlungsmuster, sind umfangreichere Vor-Untersuchungen in Bereichen der Psychologie von Instinkten und visuellen Wahrnehmung notwendig.
In dieser Arbeit geht es um die Untersuchung eines auf wenige Kernmechaniken reduziertes Rollenspiel auf die Motivation des Spielers. Hierfür wurde anhand einer angefertigten Applikation eine quantitative Nutzerstudie mit sechs Probanden durchgeführt. Die Ergebnisse sind dabei gemischt ausgefallen und es konnte kein eindeutiger Beweis auf die Beeinflussung der Motivation durch das Testszenario festgestellt werden.
Diese Arbeit untersucht die Spielertypen Achiever und Explorer nach Bartle (1996) und ihre Reaktionen auf zeitinduzierten, psychischen Druck. Dazu wurde ein zweistufiges Experiment durchgeführt, in dem die 7 Probanden Irrgärten durchlaufen. Im ersten Irrgarten erfolgt zunächst eine Klassifizierung der beiden Spielertypen: Je nach Entscheidungsmuster innerhalb eines Irrgartens, werden die Probanden in Achiever und Explorer eingeteilt. Darauf aufbauend durchqueren die Spieler einen zweiten Irrgarten, der sich vom ersten unterscheidet, aber ähnliche Voraussetzungen bietet. Hierbei wird durch eine Uhr, die die verbrachte Zeit im Irrgarten misst, Zeitdruck induziert. Die Ergebnisse zeigen, dass diese intrinsische Motivation dazu führen kann, dass sich die Verhaltensweise der zuvor als Explorer idendifizieren Probanden, an die äußeren Umstände anpassen und sie ihr Spielverhalten ändern.
Die vorliegende wissenschaftliche Arbeit befasst sich mit der Fragestellung, ob ausgewählte Ansätze des Datenmanagements in verteilten Systemen einsatzfähig sind und somit zu einer Optimierung des Systems führen. Hierzu werden die Ansätze des Datenmanagements in Bezug auf ein bereits gegebenes verteiltes System betrachtet. Diesbezüglich lassen sich drei Aspekte des Datenmanagements adressieren und anhand einer exemplarisch ausgewählten Technologie die Einsatzfähigkeit des gewählten Ansatzes in Bezug auf das verteilte System belegen. Ziel in diesem Kontext ist anhand von ausgewählten Technologien der Übertragung, der persistenten Speicherung und der Verteilung und Virtualisierung von Daten deren Einsatzfähigkeit in einem gegebenen verteilten System zu prüfen und deren Optimierungspotential für das System aufzuzeigen. Innerhalb der folgenden sechs Kapitel beinhaltet Kapitel 1 die Einleitung inklusive Motivation, Zielstellung und Aufbau. Kapitel 2 fokussiert auf die theoretischen Grundlagen und Rahmenbedingungen sowie deren Erläuterungen. Inhalt von Kapitel 3 sind die Analyse der gegebenen Problemstellung und die Ableitung benötigter Anforderungen sowie die darauf aufbauende Konzepterstellung. Diese beinhaltet überdies die Technologieauswahl und aus dem Konzept resultierende Testfälle. Kapitel 4 dient zur Darstellung des Implementationsprozesses der gewählten Technologien. Kapitel 5 stellt darüber hinaus die Durchführung und Auswertung der erstellten Testfälle und die Gegenüberstellung von Vertretern der persistenten Speicherung von Daten dar. In Kapitel 6 ist eine Zusammenfassung der Arbeit vorzufinden, die den Abschluss der Arbeit darstellt und einen Ausblick für weitere mögliche Änderungen am gegebenen System gibt.
Diese Arbeit thematisiert die digitale 3D-Modellierung des zur Hochschule Mittweida gehörenden Richard-Stücklen Baus. Hauptaugenmerk wird dabei auf die historische Entwicklung der veränderten Außenfassade und die einhergehende Frage, ob und inwieweit das das Gebäude umschließende Gitter performant umgesetzt werden kann, gelegt. Die Untersuchung der Frage erfolgt durch die Entwicklung eines beispielhaften Anwendungsfalls in Form einer interaktiven Software. Die Evaluation durch Performanztests legt dar, dass mit dieser Arbeit ein Weg gefunden wurde, den Richard-Stücklen Bau und sein Gitter durch eine eigens entwickelte Anwendung
performant darzustellen.