Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
The emerging Internet of Things (IoT) technology interconnects billions of embedded devices with each other. These embedded devices are internet-enabled, which collect, share, and analyze data without any human interventions. The integration of IoT technology into the human environment, such as industries, agriculture, and health sectors, is expected to improve the way of life and businesses. The emerging technology possesses challenges and numerous
security threats. On these grounds, it is a must to strengthen the security of IoT technology to avoid any compromise, which affects human life. In contrast to implementing traditional cryptosystems on IoT devices, an elliptic curve cryptosystem (ECC) is used to meet the limited resources of the devices. ECC is an elliptic curve-based public-key cryptography which provides equivalent security with shorter key size compared to other cryptosystems such as Rivest–Shamir–Adleman (RSA). The security of an ECC hinges on the hardness to solve the elliptic curve discrete logarithm problem (ECDLP). ECC is faster and easier to implement and also consumes less power and bandwidth. ECC is incorporated in internationally recognized standards for lightweight applications due to the
benefits ECC provides.
Die vorliegende Arbeit befasst sich mit der Automatisierung des Schreibens von Unit-Tests. Das Hauptziel ist es für den Bereich iOS eine Lösung umzusetzen und diese auszuwerten. Dabei wird der Codegenerator Sourcery verwendet und die Templates für das Generieren der Unit-Tests in den verschiedenen Templatesprachen umgesetzt. Die Umsetzung sowie die verschiedenen Templatesprachen werden ausgewertet, um die Basis für weitere Entwicklung zu schaffen.
Im Rahmen dieser Arbeit wurde ein mikrofluidischer Chip mit dem speziellen Design für ein reversibles Vakuumbonding sowie der Fähigkeit zur hydrodynamischen Fokussierung entwickelt. Die Anwendung erfolgte mit der Zielstellung, DNA Origami mithilfe dieses mikrofluidischen Setups auf einer Oberfläche zu immobilisieren.
Ein Compiler oder Assembler wandelt Quellcode in ein ausführbares Programm um. Das resultierende Binary besteht aus Befehlen und Ressourcen, wie Bilder, Sounds oder anderen Informationen. Ohne den Ausführungskontext kann jedoch nicht im Vorhinein mit absoluter Sicherheit eine Angabe gemacht werden, bei welchen Bytes es sich um Anweisungen und bei welchen Abschnitten im Programm es sich um Ressourcen handelt. Bei einer Untersuchung oder einem
Dekompilierungsvorgang der binären Datei gestaltet sich diese bzw. dieser ohne vorliegenden Quellcode sehr schwierig. Als Beispiel für eine Von-Neumann-Architektur wurde in dieser Arbeit der Game Boy mit seiner
Sharp-LR35902-CPU gewählt. Mit Banking verwendet die Architektur sowohl historische Technologien, ähnelt aber dennoch sehr den derzeit häufig genutzten x86-64-CPUs von Intel oder AMD. Außerdem bieten die kleinen Programme von maximal zwei Mebibyte die Möglichkeit, auch in ineffiziente Ansätze auszuprobieren. In dieser Arbeit wurde anhand der folgenden sieben Lösungsansätze erläutert, wie man eine Befehl-Ressourcen-Trennung erzielen kann.
Manueller Ansatz (siehe Kapitel 3.1)
Metadaten-Ansatz (siehe Kapitel 3.2)
Alles-Befehle-Ansatz (siehe Kapitel 3.3)
Statistischer Ansatz (siehe Kapitel 3.4)
Emulationsansatz (siehe Kapitel 3.5)
Programmflussansatz (siehe Kapitel 3.6)
Brute-Force-Ansatz (siehe Kapitel 3.7)
Insbesondere wurden drei automatisierte bzw. teilautomatisierte Ansätze implementiert und anschließend
mit einer manuellen Trennung als Referenzwert verglichen. Dabei erzielte, bei dem verwendeten Kontrollprogramm ”StefaN”, der Programmflussansatz ein gutes Ergebnis.
Das mittels Emulationsansatz gewonnene Ergebnis schloss etwas schlechter ab. Der Brute-Force-Ansatz scheiterte an exponentiellen Wachstum und erzielte damit das schlechteste Ergebnis. Eine korrekte Trennung konnte nur mit dem manuellen Ansatz erreicht werden. In dieser Arbeit konnte keine vollautomatisierte Lösung für das Problem gefunden werden. Grundsätzlich kann festgehalten werden, dass eine Befehl-Ressourcen-Trennung einer ausführbaren Binärdatei auch in Zukunft eine Herausforderung darstellt.
In der vorliegenden Arbeit werden geeignete Kriterien zur Beurteilung von Bienenvölkern in der Bienenhaltung (Imkerei) ermittelt. Für die datentechnische Erfassung dieser Kriterien wird prototypisch ein Internet of Things (kurz: IoT) System konzeptioniert und implementiert. Dieses System nutzt zur drahtlosen Datenübertragung die Technologie LoRa/LoRaWan. Eine Darstellung der Informationen erfolgt abschließend in einer IoT Plattform. Für diese Gesamtlösung wer-den dazu geeignete Hard- und Softwarelösungen verglichen und prototypisch implementiert. Eine Inbetriebnahme erfolgt an einem Referenzbienenstock
Die Bachelorarbeit behandelt die automatische Überprüfung hinsichtlich "Indicators of Compromisse" auf Linux-Systemen.
Sie beschreibt die Anfertigung eines forensischen Hilfstools welches die Aufgabe der automatisierten Überprüfung so weit wie möglich übernehmen soll. Hierbei waren 26 Indicators of Compromise als Grundlage gegeben, welche im Rahmen der Arbeit betrachtet werden. Das forensische Hilfstool setzt sich im Ergebnis aus zwei Hauptskripten zusammen, wovon eines zur Datenerhebung auf dem zu untersuchenden System dient, das andere zur Datenanalyse auf einem separaten Analysesystem. Die Arbeit stellt für jeden der betrachteten Indikatoren ausführlich dar wie eine automatisierte Überprüfung erfolgt, und falls nicht möglich ist, wodurch diese eingeschränkt wird und welche Schritte manuell erfolgen müssen. Als Endergebnis der Arbeit wird festgehalten, dass für alle Indikatoren mindestens eine Teilautomatisierung umsetzbar ist. Eine komplette Automatisierung für alle Indikatoren ist nicht möglich. Jedoch gelingt es durch das Hilfstool die manuelle Arbeit entscheidend zu verkürzen und zu erleichtern.
Die vorliegende Arbeit beschäftigt sich mit der Analyse und dem Nachweis von unberechtigten RDP Zugriffen in Windows Netzwerkumgebungen. Dafür werden alle technischen Grundlagen zum Verständnis des RDP geklärt und mögliche
Angriffsszenarien sowie das Vorgehen von Angreifern aufgezeigt. Anschließend werden Indikatoren für unberechtigte Zugriffe erläutert und präventive Maßnahmen zum Schutz dargelegt.
Diese Arbeit behandelt die Wirkungsweise von optischen Reizen in Videospielen, sowie deren Einfluss auf instinktive Handlungen von Spielern. Es soll dabei untersucht werden, ob sich diese Reize von elementaren Prinzipien erfolgreicher Level Design Ansätze ableiten lassen. Hierfür wird auf Grundlage einer umfassenden Recherche eine modulare Testkammer im Stil eines Puzzlespiels konzipiert und umgesetzt. Die Probanden werden bei der Lösung acht verschiedener Bereiche beobachtet und protokolliert sowie zu einzelnen Aspekten befragt. Bei der Auswertung dieser stellen sich Farbunterschiede und starke Farbkonstraste als wirksamste optische Reize heraus.
Für eine akkurate Analyse der Auswirkungen auf instinktive Handlungsmuster, sind umfangreichere Vor-Untersuchungen in Bereichen der Psychologie von Instinkten und visuellen Wahrnehmung notwendig.
Bioaerosole kommen ubiquitär in der Atmosphäre vor. Sie sind meist ungefährlich, aber sie können auch Bestandteile enthalten, welche eine gesundheitliche Gefahr für den Menschen darstellen. Um ihre Inhaltsstoffe zu ermitteln werden sie beprobt. Die biologische Untersuchung dieser Proben erfolgt über Kulturen und molekularbiologisch. In den Fokus der molekularbiologischen Auswertung rückt zurzeit das third generation sequencing via Nanopore. Ziel dieser Arbeit ist es zu prüfen, ob die durch den Coriolis μ generierten Luftproben zur molekularbiologischen Analyse mit Nanopore Sequenzierung nutzbar sind. Dazu werden kulturbasierte und molekularbiologische Untersuchungsmethoden angewendet und miteinander verglichen. Es wird gezeigt, dass die Proben für eine weitere Nutzung durch Nanopore Sequenzierung geeignet sind.
Die vorliegende Bachelorarbeit befasst sich mit dem modernen Fahrzeug, das sich im Wandel der Digitalisierung zu einem datenverarbeitenden und stark mit der Umwelt vernetzten System entwickelt hat. Besonders durch die Auswertung von Literatur wird aufgezeigt, welche Risiken mit der zunehmenden Digitalisierung eines Fahrzeugs einhergehen
Vor der Etablierung neuer Versionen in D-LIMS, müssen diese erst auf ihre Funktionstüchtigkeit geprüft werden. In der Arbeit wird das D-LIMS im Sachbereich DNA-Analyse des Kriminaltechnischen Instituts des Landeskriminalamts Brandenburg und eine Versionskontrolle für die Software D-LIMS vorgestellt.
Aufgrund der bedeutenden Fortschritte im Bereich der Hochdurchsatzsequenzierungstechnologien und folglich dem exponentiellen Wachstum biologischer Daten entstehen in der Bioinformatik Herausforderungen bei der Speicherung und Analyse großer Datenmengen. Die umfangreichen
Genotypisierungsdaten der Gerste, welche als Referenzdatensatz vorlagen, wurden am Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) durch Genotyping by Sequencing (GBS) erstellt. Zur effektiven Speicherung sowie Analyse dieser Daten wurden verschiedene Datenstrukturen erstellt und hinsichtlich Performance und Speicherbedarf evaluiert. Die Entwicklung verschiedener Java-Tools ermöglichte dabei das Einlesen, die Verarbeitung, sowie die Ausgabe dieser Daten zur effektiven Strukturierung und Analyse. Um die Anwendung dieser Java-Tools über Edge-Computing zu ermöglichen, wurde an der Erstellung von Datencontainern gearbeitet.
Die Bachelorarbeit untersucht, welche Auswirkungen die semantische Bildsegmentierung als Vorverarbeitungsschritt für Eingabebilder auf die Klassifikationsfähigkeit eines Convolutional Neural Networks (CNN) hat. Zu diesem Zweck werden Experimente mit verschiedenen Visualisierungstechniken gemacht, die geeignet sind, relevante Aspekte des Datenflusses im CNN während des Klassifikationsprozesses (wie z.B. den für die Klassifikationsentscheidung relevantesten Bildausschnitt) intuitiv zu veranschaulichen. Hierzu sollen verschiedene bereits existierende Ansätze wie GradCAM, Taylor Decomposition, Activation Maximization auf ihre Anwendbarkeit anhand von synthetischen Bilddaten systematisch untersucht werden. Hierzu werden
Daten- und Kontrollschnittstellen zu den anvisierten CNN-Verfahren umgesetzt und Vergleichsexperimente mit unbehandelten und auf verschiedene Weise vorsegmentierten Bilddaten konzipiert und durchgeführt. Die Arbeit soll ein intuitives Verständnis bzgl. der Fragestellung fördern, welchen Effekt eine vorherige Bildsegmentierung auf das Klassifikationsresultat und die CNN-interne Repräsentation von bildbasierten Daten hat
Zu wissen, wie alt eine Blutspur an einem Tatort ist, kann enorm bei der kriminalistischen Fallarbeit helfen. Daher beschäftigt sich die Wissenschaft mit der Frage nach der Bestimmung des Blutalters. Um diese Forschung zu unterstützen, wurden Derivate des Hämoglobins (Blutfarbstoff) hergestellt und spektroskopisch untersucht. Dabei wurden hauptsächlich Derivate gewählt, die bekannterweise bei der Alterung entstehen. Die entstandenen Spektren sollen beim Erstellen einer Datenbank helfen und somit den Kenntnisstand der aktuellen Forschung festigen und erweitern. Ebenfalls wurden chromatografische Daten analysiert, um die Struktur eines potentiellen Biomarkers für die Blutaltersbestimmung herauszubekommen bzw.
die Grundlage für weitere Experimente dazu zu legen.
Diese Arbeit thematisiert die digitale 3D-Modellierung des zur Hochschule Mittweida gehörenden Richard-Stücklen Baus. Hauptaugenmerk wird dabei auf die historische Entwicklung der veränderten Außenfassade und die einhergehende Frage, ob und inwieweit das das Gebäude umschließende Gitter performant umgesetzt werden kann, gelegt. Die Untersuchung der Frage erfolgt durch die Entwicklung eines beispielhaften Anwendungsfalls in Form einer interaktiven Software. Die Evaluation durch Performanztests legt dar, dass mit dieser Arbeit ein Weg gefunden wurde, den Richard-Stücklen Bau und sein Gitter durch eine eigens entwickelte Anwendung
performant darzustellen.
Die vorliegende Arbeit befasst sich mit der DNA-Phänotypisierung und wie sich deren Anwendung in Form der erweiterten DNA-Analyse auf den Strafprozess in Deutschland auswirken wird. Unter der Betrachtung aktueller wissenschaftlicher Publikationen werden die derzeitigen Möglichkeiten der DNA-Phänotypisierung beleuchtet. Angesichts der neuen Gesetzeslage werden häufig geäußerte Kritikpunkte aufgegriffen und im Kontext gesellschaftlicher und ermittlungstechnischer Aspekte weitergeführt. Abschließend werden Empfehlungen für die effektive Anwendung in Deutschland gegeben, sowie für die verantwortungsvolle Aufnahme der biogeografischen Herkunft in die erweiterte DNA-Analyse argumentiert.
Ziel dieser Arbeit ist es, ein Software-Architektur-Konzept zu entwickeln, umzusetzen und zu evaluieren, dessen Fokus auf die Kombination einer Smartwatch-Anwendung mit einer AR-Brille-Anwendung gerichtet ist. Dazu wurde ein Patent untersucht, dessen Schwerpunkt auf der Kombination von AR-Brille und Smartwatch liegt, um Anforderungen an solch eine Software-Architektur zu erstellen. Im Anschluss entstand unter Einbeziehung der recherchierten Informationen ein Architektur-Konzept. Für die darauffolgende Umsetzung wurden Anwendungsfälle entwickelt, die zeigen sollen, wie ausgewählte Software-Qualitätsmerkmale bei Verwendung der
Architektur erreicht werden können. Bei der anschließenden Evaluation zeigte sich, dass die Architektur zur Erfüllung wichtiger Software-Qualitätsmerkmale beiträgt, aber auch Optimierungspotenzial besitzt.
In der vorliegenden Arbeit wird eine Methodik entwickelt, mit der ausgewählte forensische Software-Tools miteinander verglichen werden können. Dieser Ver-gleich basiert auf einem erstellten Image, welches diverse Artefakte beinhaltet. Auf Grundlage dieser Artefakte wird eine Bewertungsmatrix erzeugt, welche für den Vergleich der ausgewählten Forensik-Tools X-Ways, Axiom und Autopsy genutzt wird. Anhand der Ergebnisse, die durch die Matrix generiert wurden, lässt sich Axiom als bestes der drei getesteten Tools herausstellen. Hierbei muss allerdings berücksichtigt werden, dass die Beurteilung nach subjektiven Kriterien geschehen ist und keine eindeutige Aussage getroffen werden kann, ob ein forensisches Tool eine erfolgreiche Auswertung liefert
StyleGAN2: Eine Analyse und dessen Übertragbarkeit auf die
Erzeugung synthetischerGanzkörperbilder
(2020)
Die vorliegende Bachelorarbeit befasst sich mit der Analyse der künstlichen Intelligenz Style-GAN2. Dabei richtet sich der Fokus zuerst auf den Aufbau von StyleGAN und im weiteren Verlauf auf die Weiterentwicklung StyleGAN2. Mit StyleGAN2 lassen sich fotorealistische Bilder von nicht existierenden Menschen, Tieren oder anderen Objekten erzeugen, z. B. menschliche Porträts, Katzen, Autos, Pferde und Kirchen. Bisher haben sich nur wenige Arbeiten mit der Erzeugung fotorealistischer Ganzkörperbilder von nicht existierenden Menschen auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Erzeugung synthetischer Ganzkörperbilder mit StyleGAN2. Diesbezüglich werden aus verschiedenen Arbeiten ideale Datensatz-, Bild- und Modelmerkmale abgeleitet und eine Vorgehensweise zur Erzeugung eines idealen Bilddatensatzes erläutert. Dieser Bilddatensatz wird zum Trainieren von StyleGAN2 benötigt. In einer Schritt für Schritt Anleitung wird das genaue Vorgehen zum Trainieren und Erzeugen synthetischer Ganzkörperbilder mit StyleGAN2 erklärt. Die vorliegende Arbeit soll als Anleitung zum Erzeugen synthetischer Ganzkörperbilder mit
StyleGAN2 dienen. Diese kann für verschiedene Bereiche genutzt werden, z. B. für den ECommerce, die Filmindustrie oder zur Bekämpfung von Straftaten.
Ziel dieser Arbeit ist die Einführung und Implementierung eines Konzeptes, das diese hochsensiblen Daten trennt und unabhängig voneinander verwaltet. Auf diese Weise soll verhindert werden, dass ein Angreifer, bei unautorisiertem Zugriff auf eine Datenbank, keinen Zugang zu allen Sensor- und Identitätsdaten hat. Zu diesem Zweck wird ein Service vorgestellt, der die aufgezeichneten Daten in mehrere Komponenten aufteilt und unabhängig voneinander speichert. Damit die Anwendung keine Kenntnis über den Datenspeicherort besitzen muss, soll außerdem sichergestellt werden, dass die Anwendung und die Datenquellen nicht selbst miteinander kommunizieren müssen.
Diese Bachelorarbeit handelt von der Konzeptionierung und Entwicklung eines Datenmanagements von Fahrzeugversuchsdaten. Dabei wird zuerst eine Vorbetrachtung durchgeführt, in der alle Anwendungsfälle und Ausgangsbedingungen analysiert werden. Die Analyse stellt die Grundlage dar auf der das Konzept im nächsten Kapitel basiert. Im Konzept wird der gesamte Prozessablauf des Datenmanagements von Auslösung des Prozesses bis zur Übergabe an den Folgeprozess betrachtet. Dabei werden verschiedene Ausgangsfälle betrachtet und jeweils eine entsprechende Umsetzungsmöglichkeit dargestellt. Mithilfe verschiedener Lösungsansätze wird eine bestmögliche Lösung gefunden. Bei der anschließenden Implementierung wird ein Prototyp erstellt, der das Konzept berücksichtigt. Mithilfe der beschriebenen Testumgebung und der Testfälle wird der Prototyp anschließend getestet.
Die folgende Arbeit bezieht sich auf die Werke von Hermann Helbig und Dewald und Freiling. Es soll die Verbindung zwischen einem Objekt, definiert nach Helbig, und einer Spur im kriminalistischen Sinne aufzeigen. Es wird zudem eine neue Repräsentation des Weges einer Spur von dessen Sicherung hin zu der Assoziation mit dem Objekt, das die Spur verursacht hat, entwickelt. Ein Objekt als semantische Entität mit dessen Eigenschaften als Charakterisierung soll in einen Zusammenhang mit kriminalistischen Untersuchungen, wie Klassifizierung und Individualisierung, durch eine Ontologie gebracht werden. Beginnend mit physischen Spuren stellt sich die Frage, ob sich die Darstellung auch auf digitale Spuren übertragen lässt. Eine neue Grafik, die sowohl für physische als auch für digitale Suren funktioniert, soll erzielen werden.
Die Daten auf Mobilgeräten besitzen als Beweise in kriminalpolizeilichen Ermittlungsverfahren eine große Bedeutung. Besonders interessant sind dabei die Chats von diversen Instant-Messaging-Diensten. Aufgrund der stetigen technischen Weiterentwicklung der Smartphones und der Sicherheitsarchitektur des Android-Betriebssystems wird es jedoch zunehmend erschwert bzw. unmöglich, diese Chats mit den klassischen forensischen Sicherungsverfahren zu extrahieren. In der vorliegenden Arbeit wird daher die Entwicklung eines Tools zur Sicherung von Chats über die Benutzerschnittstelle beschrieben. Die angewandte Methodik erstellt dafür Screenshots über die Android Debug Bridge. Diese werden anschließend mit einer Texterkennungs-Software weiterverarbeitet, um die Durchsuchbarkeit der Chatinhalte für die Ermittler sicherzustellen.
Ziel der vorliegenden Bachelorarbeit ist es, über das Thema Verschlüsselungstrojaner aufzuklären und dabei auf eine mögliche Prävention durch die Produkte Sandstorm und Intercept X der Firma Sophos einzugehen. Dabei wird besonders auf die Gefahren und Präventionsmöglichkeiten im Allgemeinen eingegangen sowie eine Sicherheitsanalyse im Themenspezifischen Kontext durchgeführt. Weiterhin wird der Anbieter Sophos mit anderen Anbietern verglichen und anhand von verschiedenen Parametern bewertet.
Evaluation softwarespezifischer Physik Engines hinsichtlich
der Verwendung im forensischen Kontext
(2020)
Das Ziel dieser Arbeit ist die Überprüfung der Bullet Physik Engine und der PhysX Engine hinsichtlich ihrer Tauglichkeit im Kontext der forensischen Fallsimulationen. Nach dem Behandeln der Theorie werden dafür experimentelle Ansätze in Form von Ragdollsimulationen genutzt, um die beiden Engines miteinander zu vergleichen und zu bewerten. Diese Versuche werden in den Programmen Blender und Unreal Engine 4 durchgeführt, welche die beiden Physikalgorithmen einbinden und so ebenfalls miteinander verglichen werden können. Zusätzlich wurde eine Standard Operating Procedure für die Erstellung von Ragdolls in Blender angefertigt.
Diese Arbeit thematisiert das Zusammenspiel verschiedenster Projektmanagement Ansätze mit den Psychologischen Persönlichkeitstypen nach dem Myers-Briggs-Typenindikator.
Es wird hierbei auf die Erstellung eines dynamischen Evaluationstools eingegangen und den konkreten Hintergedanken zur Fragenerstellung selbiger. Ziel war es ebenfalls die Arbeitsmoral und Vorstellungen einzelner Teammitglieder zu verbessern. Außerdem ist eine Verbindung der Arbeitsstile und Persönlichkeitstypen eine große Chance, Teams zu optimieren und die Produktivität zu steigern
In dieser Arbeit wird ein Messgerät zur Bestimmung von emotionalen Erregungszuständen vorgestellt.
Dieses soll eine Anwendung in der Untersuchung von Probanden in VR-Umgebungen finden. Hierdurch stellen sich Anforderungen, die von klassischen Messgeräten nur begrenzt erfüllt werden.
Die somit erfassten Vitaldaten benötigen eine Verarbeitung, bevor aus ihnen Rückschlüsse gezogen werden können. Hierfür werden drei verschiedene Algorithmen verwendet. Die so gewonnen Ergebnisse werden untereinander und mit professionell gewonnen Daten verglichen.
In dieser Arbeit wurden neuartige Proteasen aus psychrotoleranten Bakterienstämmen isoliert und auf ihre biochemischen Eigenschaften charakterisiert. Des Weiteren konnten S8 Familie Proteasen Gene amplifiziert werden und Unterschiede in der Aminosäuresequenz konnten in Zusammenhang mit den biochemischen Eigenschaften der Proteasen in Verbindung gebracht werden.
Die vorliegende Bachelorarbeit behandelt das Thema Leichendaktyloskopie im Rahmen der Identifizierung von unbekannten Toten. Dabei wird zunächst auf die Grundlagen der Daktyloskopie eingegangen. Im zweiten Teil werden verschiedene Leichenerscheinungen und Arten sowie die speziellen und Standardmethoden der Leichendaktyloskopie erläutert. Der praktische Teil dreht sich um den Vergleich zwischen Fingerabdrücken von lebenden und verstorbenen Personen. Dafür wurden in verschiedenen Testreihen Fingerabdrücke mithilfe von Fingerabdruckscannern aufgenommen und diese anhand von fünf Kriterien bewertet. Es soll herausgefunden werden, ob signifikante Unterschiede zwischen den Fingerabdrücken von lebenden und verstorbenen Personen bestehen.
In dieser Masterarbeit werden verschiedene Angriffsverfahren auf LTE-Systeme vorgestellt und deren Funktionsweise erläutert. Eine Auswahl dieser Verfahren, welche für Downgrading-Attacks nutzbar sind, werden im Rahmen dieser Arbeit implementiert und in einer definierten Testumgebung auf Funktion getestet und ausgewertet. Ziel ist es dabei die Grundlage für ein Testsetup zu schaffen, bzw. existierende Testsetups zu erweitern, um so effektiv LTE-Systeme Testen zu können.
Möglichkeiten zur Aufnahme und Kategorisierung von
Knochenveränderungen und deren Interpretation
(2019)
Diese Bachelorarbeit befasst sich mit der Aufnahme, Kategorisierung und Interpretation von Knochen verändernden Merkmalen. Ziel ist es, eine möglichst einheitliche und allgemein verständliche Methode zu entwerfen, die der Aufnahme von knöchernen Veränderungen dient und worauf aufbauend Klassifikationen erfolgen können. Diese wiederum soll dahingehend überprüft werden, ob eine Feststellung der Ursache möglich ist.
Ziel dieser Arbeit ist es, an ausgewähltem Material aus einer Skelettsammlung eine morphologische Geschlechtsbestimmung am Os ilium (Darmbein), einem Teil des Os coxae (Hüftbein), durchzuführen und deren Zuverlässigkeit zu überprüfen. Um die Bestimmung des Geschlechts sicherer zu machen, werden weitere morphologische Analysen am Cranium sowie an den Ossa coxae und eine osteometrische Analyse am Femur durchgeführt und mit den Ergebnissen der Geschlechtsbestimmung am Os ilium verglichen.
G-Protein-gekoppelte Rezeptoren (GPCR) sind wichtige Proteinkomplexe für unzählige physiologische Funktionen und dienen als Startpunkt für moderne pharmazeutische Eingriffe. Trotz ihrer Fülle, bemerkenswerten Größe und Molekularstruktur, welche Zell- und Matrixkontakte in einer Vielzahl von Organsystemen ermöglicht, sind GPCR die am wenigsten verstandene Rezeptorklasse. Die Grundlagenforschung an der räumlichen GPCR-Struktur dient dem besseren Verständnis ihres strukturbasierten Wirkstoffdesigns, wodurch pharmazeutisch interessante Proteine mit Medikamenten spezifisch interagieren können. Dafür werden GPCR in „Human Embryonic Kidney“-Zellen (HEK293S-Zellen) exprimiert und anschließend mit der röntgenkristallografischen Analyse untersucht.
Die vorliegende Bachelorarbeit beeinhaltet Untersuchungen zur Gewinnung leistungsverbesserter Mutanten des Produktionsstammes Penicillium verruculosum M28-9. Dazu wurde die chemische Mutation mittels N-Methyl-N-Nitro-Nitroso-Guanidin angewendet. Die Selektion von Mutanten mit partiell bzw. vollständig ausgeschalteter C-Katabolitrepression erfolgte mittels eines Submers-Screening.
Das nach der Mutation folgende Submers-Screening wurde unter Verwendung der Antimetabolite 2-Deoxy-D-Glukose sowie 1- oder 2-Thioglycerol in unterschiedlichen Konzentrationen durchgeführt. Die mutierten Konidien wurden kultiviert und konnten anschließend mittels Klonselektionierung auf Agarmedien mit amorpher Cellulose und dem Einsatz der wachstumsbegrenzenden Substanz Bengalrosa selektiert werden.
Im Rahmen der Untersuchungen konnten potentielle Mutanten auf einem Medium mit amorpher Cellulose und 25 g/l Glukose als Repressor erhalten werden.
Diese Arbeit vergleicht die drei populärsten Frontend-Frameworks in der Webentwicklung in Bezug auf barrierefreie Umsetzungsstrategien. Dabei wird der Begriff Barrierefreiheit definiert, aktuelle Standards dargestellt und diese dann anschließend methodisch innerhalb der gewählten Frameworks umgesetzt.
Im Rahmen der vorliegenden Bachelorarbeit sollte ein Add-On zur semi-automatischen Phantombilderstellung in Blender erstellt werden. Hierfür wurden bereits bestehende Add-Ons von Einzelprozessen der Gesichtsweichteilrekonstruktion miteinander verbunden und einem einheitlichen Bild angepasst. Zudem wurden Anpassungen und Erweiterungen an den Add-Ons vorgenommen, um die Anwenderfreundlichkeit zu erhöhen. Abschließend wurde das Ergebnis mit anderen Computergestützten Rekonstruktionsmethoden verglichen.
In dieser Arbeit wurden verschiedene kaliumselektive Elektroden hergestellt. Diese wurden auf Funktion und Selektivität überprüft. Anschließend wurden Messungen mit ausgewählten Elektroden in aufgeschlämmten Bodenproben durchgeführt, um das Einstellverhalten und das pflanzenverfügbare Kalium, angelehnt an eine Methode der VDLUFA, zu bestimmen. Da diese Methode aber auf der Analyse mit Atomabsorptionsspektrometrie beruht, wurden die Ergebnisse beider Messmethoden miteinander verglichen.
Das Ziel dieser Arbeit ist es verschiedene Methoden der Platzierung von Vegetation zu vergleichen und in Hinsicht auf die Qualität der Ergebnisse zu beurteilen. Zum Vergleich dient in diesem Fall die Natur selbst als Maßstab, denn diese soll bei den meisten Methoden simuliert werden. Die Methoden zur Generierung sind vielfältig und unterschiedlich komplex. Einem Entwickler stellt sich nun die Frage zu welcher Methode oder welcher Kombination er greifen soll unter den Aspekten Entwicklungsaufwand, Performanz, Qualität und Flexibilität. Es soll erkundet werden, bei welchen Vorhaben es sich für einen Spielentwickler lohnt ein solches System zu implementieren oder ob herkömmliche Produktionsketten sinnvoller wären.
Durch die zunehmende Nutzung mobiler Endgeräte fallen im alltäglichen Leben zahlreiche personenbezogene Daten an. Zu diesen Daten gehören unter anderem auch GPS-Positionen, die von handelsüblichen Smartphones erhoben werden. Besonders Android-Geräte sammeln eine große Menge an Positionsdaten, die für verschiedene Wissenschafts-Domänen, wie beispielsweise Medizin oder Forensik, eine Rolle spielen. Für verschiedene Anwendungsfälle kann eine Aggregation der einzelnen GPS-Positionen zu Orten und verbindenden Strecken relevant sein.
Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Aggregation von GPS-Standorten zu Orten, deren Besuchen und Verbindungen. Nach Implementierung des Algorithmus wurde dieser in eine Java-Applikation eingebettet, die unter anderem der Visualisierung der erzielten Ergebnisse dient. Für die Evaluation des Algorithmus wurden über einen Zeitraum von zwei Monaten Standortdaten mit Hilfe eines Android-Smartphones erhoben, welche unter Verwendung des implementierten Algorithmus ausgewertet wurden. Die Evaluation resultierte in einem Parameterset, welches sich für die Auswertung des vorliegenden Testdatensatzes als geeignet herausstellte. Das Ergebnis der Arbeit ist ein funktionstüchtiger Algorithmus, der vielfältige Anwendungsmöglichkeiten aufweist und dessen Erweiterung ein hohes Potenzial für Folgeprojekte bietet.
A relatively new research field of neurosciences, called Connectomics, aims to achieve a full understanding and mapping of neural circuits and fine neuronal structures of the nervous system in a variety of organisms. This detailed information will provide insight in how our brain is influenced by different genetic and psychiatric diseases, how memory traces are stored and ageing influences our brain structure. It is beyond question that new methods for data acquisition will produce large amounts of neuronal image data. This data will exceed the zetabyte range and is impossible to annotate manually for visualization and analysis. Nowadays, machine learning algorithms and specially deep convolutional neuronal networks are heavily used in medical imaging and computer vision, which brings the opportunity of designing fully automated pipelines for image analysis. This work presents a new automated workflow based on three major parts including image processing using consecutive deep convolutional networks, a pixel-grouping step called connected components and 3D visualization via neuroglancer to achieve a dense three dimensional reconstruction of neurons from EM image data.
Die vorliegende Arbeit befasst sich umfangreich mit der Thematik der »Security Incident and Event Management« (SIEM) Systeme und ihrer Installation, Organisation und Anwendung in kleinen und mittleren Unternehmen (KMU). Am Anfang wird dem Leser die Funktionsweise eines solchen SIEM Systems erklärt, um im Anschluss am Beispiel der miteinander interagierenden Softwares Elasticsearch, Logstash, Beats und Kibana schrittweise in einer IT-Infrastruktur zu implementieren. Außerdem wird die Eignung eines solchen Systems für kleine und mittlere Unternehmen in gesetzlicher und organisatorischer Hinsicht auf Basis zweier Studien untersucht, welche den aktuellen Zustand der Thematik IT-Sicherheit in KMU widerspiegeln. Das Ziel der Arbeit ist es festzustellen, in welchem Rahmen ein SIEM System in KMU nötig ist und helfen kann, um die IT-Sicherheit des Unternehmens zu fördern. Dabei wird sowohl auf die Installation, als auch auf die Nutzung eins SIEM Systems unter den in KMU vorherrschenden Bedingungen betrachtet.
Inhalt dieser Arbeit ist der Einfluss von Rhamnolipiden auf die Vesikulation von Gram-negativen Bakterien am Beispiel von Pseudomonas putida. Es soll unter-sucht werden, ob die Vesikulation durch Zugabe von Rhamnolipiden erhöht wird und ob die Anwesenheit von Rhamnolipiden die Wirkung langkettiger Alkohole (hier wurden 1-Octanol und 1-Decanol verwendet) abschwächt.
Messengerdaten auf Mobiltelefonen sind häufig für Ermittlungs- und Strafverfahren relevant. Eine händische Untersuchung dieser ist für einen digitalen Forensiker jedoch sehr arbeits- und zeitintensiv. Aus diesem Grund wird in dieser Bachelorarbeit ein möglichst effektives Verfahren
zur Auswertung und Aufbereitung von Messengerdaten auf Mobiltelefonen vorgestellt, welches digitalen Forensikern als Leitfaden dienen soll. Das vorgestellte Verfahren kann für jeden Messenger verwendet werden und basiert auf der Methode des Reverse Engineerings. Um dessen Anwendung zu demonstrieren und seine Funktionalität unter Beweis zu stellen, werden die Daten des Messengers TamTam, insbesondere die Datenbanken, exemplarisch ausgewertet und aufbereitet.
In dieser Arbeit werden ausgewählteWerbenetzwerke in Android-Apps im Hinblick auf deren Datenerhebung betrachtet. Dabei stellen sich folgende Forschungsfragen: Welche Daten werden an die Werbenetzwerke übermittelt? Wie decken sich die übermittelten Daten mit den Angaben seitens der Werbenetzwerke? Wie werden die Daten von dem Android-Gerät erhoben und welchen Einfluss haben die Daten auf die Privatsphäre des Benutzers? Um die Forschungsfragen zu beantworten, ist eine Auswahl von 100 Apps aus dem Google Play Store getroffen und auf deren enthaltenen Werbenetzwerke analysiert worden. Anschließend wurde der Netzwerkverkehr von ausgewählten Werbenetzwerken mithilfe eines Proxy-Server betrachtet, um die übermittelten Daten abzufangen. Gleichzeitig sind die Datenschutzerklärungen
der ausgewählten Werbenetzwerke im Hinblick auf deren Angaben zu erhobenen Daten betrachtet worden.
Abschließend wurde der Quellcode von den Werbenetzwerken angeschaut, um herauszufinden wie die Daten aus dem Android-System erhoben werden.
Die Ergebnisse der Analyse des Datenverkehrs zeigen, dass neben Daten über das verwendete Gerät, die ausführende App, zur ungefähren Positionsbestimmung und zu Einstellungsparameter auch Statusinformationen, wie Ladezustand der Batterie und freier Speicherplatz, übertragen werden. Es wurde festgestellt, dass Werbenetzwerke erheblich mehr Daten erheben und übermitteln als in deren Datenschutzerklärungen angegeben. Durch die Analyse des Quellcodes der Werbenetzwerke konnte herausgefunden werden, dass Daten zum einen über API-Aufrufe an das Android-System ermittelt werden und zum anderen durch entsprechende Algorithmen der Werbenetzwerke. Mithilfe der Ergebnisse konnte gezeigt werden, dass seitens der Werbenetzwerke eine bessere und umfangreichere Angabe zu den erhobenen Daten wünschenswert ist.
Weiterhin konnten unter den Daten keine personenbezogenen Informationen gefunden werden, welche eine Zuordnung zu einem einzelnen Individuum erlauben. Jedoch wurden Informationen gefunden, die eine Zuordnung der Daten zu einem einzelnen Gerät erlauben.
Das Ziel der vorliegenden Bachelorarbeit war es, einen Einblick in die kostenlosen Application-Performance-Management-Software „Pinpoint“, „InspectIT Ocelot“ und „Elastic APM“ für die Analyse von Java-Applikationen anhand einer Java-Referenz-Anwendung zu gewinnen und diese mit der kosten-pflichtigen APM-Software „Dynatrace“ zu vergleichen. Dafür wurden Architektur, Funktionen, Erweiterungsmöglichkeiten, Performance und Support von „Dynatrace“ analysiert und auf Basis der Ergebnisse eine Bewertungsmatrix auf-gestellt. Auf Basis dieser Grundlage wurden die kostenlosen APM-Tools analysiert und bewertet. Es stellte sich heraus, dass „Elastic APM“ eine gute kosten-lose Alternative zu „Dynatrace“ ist.
In dieser Bachelorarbeit soll festgestellt werden, ob die Erkennung von KFZ-Kennzeichen mittels künstlicher Intelligenz insoweit möglich ist, dass eine digitale Manipulation derer, im Anschluss denkbar ist. Dazu werden zunächst äußerliche Eigenschaften von KFZ-Kennzeichen ausgearbeitet und herkömmliche Kamerasysteme vorgestellt. Anschließend wird eine Anwendung für automatisierte Kennzeichenerkennung getestet, um einzuschätzen, ob die Erkennungsfunktion die Erfolgsrate ausweist, die für eine digitale Manipulation von Nöten ist. Die Arbeit richtet sich an Personen mit Verständnis von Computern sowie der Arbeitsweise neuronaler Netze im Speziellen.
In this work a second version for the Python implementation of an algorithm called Probabilistic Regulation of Metabolism (PROM) was created and applied to the metabolic model iSynCJ816 for the organism Synechocystis sp. PCC 6803. A crossvalidation was performed to determine the minimal amount of expression data needed to produce meaningful results with the PROM algorithm. The failed reproduction of the results of a method called Integrated and Deduced Regulation of Metabolism (IDREAM) is documented and causes for the failed reproduction are discussed.
Die in dieser Arbeit entwickelte Software trägt den Titel Inceptum, der bereits vorgegeben war und für Beginn oder ein Vorhaben steht. Die Software soll zukünftig als Stütze dienen, um nicht mehr viele unterschiedliche Softwarelösungen nutzen zu müssen, sondern nur noch eine zentrale, das reduziert das wiederholte Eingeben von kohärenten Daten. Jira und SAP sollen jedoch nicht ersetzt werden, Inceptum dient lediglich als Ergänzung und als Schnittstelle der unterschiedlichen Daten um daraus eine auswertbare Sammlung an Informationen zu erhalten, was zuvor in mühsamer Handarbeit in Excel-Tabellen erledigt werden musste. Somit soll viel Zeit und Arbeit eingespart werden, was immer mit hohen Kosten verbunden ist. Diese Art von individueller Verbindung hebt das Konzept der Software von den gängigen Projektmanagement-Softwarelösungen ab.
Der in dieser Arbeit entwickelte Grundstein der Software beinhaltet alle Vorkehrungen, um diese Schnittstellen später anbinden zu können. Kein Teil dieser Arbeit ist das Entwickeln der Schnittstellen an sich. Die Schnittstelle zu
der Ticketverwaltungssoftware Jira ist bereits fertig programmiert und deren Anbindung an die Software wird lediglich untersucht. Die Anbindung an SAP ist ebenfalls nicht in dieser Arbeit vorgesehen. Die Daten aus Excel sollen möglichst ersetzt werden, um später darauf nicht mehr zurückgreifen zu müssen. Die Positionierung der Software Inceptum wird in der Grafik 1.2 noch einmal visualisiert. Kein Bestandteil der Arbeit ist außerdem das Anlegen, Bearbeiten und Löschen von Mitarbeitern, sowie deren Verfügbarkeitsänderungen, die Software baut lediglich auf der Grundlage dessen auf. Auch die Tabelle zur Darstellung von Verfügbarkeiten der Mitarbeiter pro Zeiteinheit ist kein Bestandteil der Arbeit.
Das Epitop-Mapping dient der Identifizierung von Epitopen eines Antigens. Dazu wurden Seren immunisierter Kaninchen zur Durchführung verwendet. Die Peptidsequenzen von Phagen wurden mittels des Peptid-Phage-Display selektiert und amplifiziert. Diese Sequenzen wurden anschließend mit LibDB analysiert. Es wurden 7 potentielle Epitope des Dengue-Virus Serotyp 2 Envelope (E)-Proteins identifiziert.