Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Die vorliegende Arbeit befasst sich mit einer Verbesserung des Produktverwaltungsprozesses eines Magento Onlineshops sowie einer verbesserten Bestellverarbeitung und dessen Integration zu Unternehmenssystemen. Mögliche Optimierungsansätze werden anhand der System-landschaft des Unternehmens XECURIS GmbH & Co. KG aufgezeigt. Unternehmen sind darum bemüht, Workflows möglichst effektiv und mit geringem Zeitaufwand zu gestalten. Insbesondere Unternehmen im IT-Umfeld sind darauf angewiesen, dass komplexe Geschäftsabläufe automatisiert und fehlerfrei abgearbeitet werden. Ziel der Arbeit ist es, Schwächen an der bestehenden Infrastruktur des Unternehmens zu analysieren, Optimierungsansätze zu entwickeln sowie Ansätze zu deren Implementation aufzuzeigen.
Die Bedeutung von sicherheitsrelevanten Merkmalen in Kraftfahrzeugen wächst, nicht zuletzt aufgrund des zunehmenden Funktionsumfangs sowie die Leistungsfähigkeit der einzelnen Komponenten im Fahrzeug. So ist es nicht mehr nötig einen Schlüssel zu benutzen, um sein Fahrzeug zu betreten und auch nicht um es zu starten. Gerade im Bereich der Wegfahrsperre werden seit vielen Jahren Transponder eingesetzt, die mittels Funkübertragung die Wegfahrsperre lösen. Im Rahmen dieser Bachelorarbeit sollen verschiedene Antennenvarianten evaluiert werden, die es möglich machen diese Funkübertragung im 125 kHz Bereich mitzuschneiden. Dazu werden einige Wicklungsvarianten und verschiedene Drahtstärken zur Wicklung einer Antenne evaluiert. Die so entstandenen Antennen werden in verschieden Versuchsaufbauten gemessen und getestet.
Effekte von antibiotischen Gyrasehemmern auf die Topologie der mtDNA menschlicher Tumorzellen
(2017)
Das Antibiotikum Levofloxacin hemmt die Gyrase der Mitochondrien, was die Replikation der mtDNA an der supercoiled-Form zur Folge hat. Dadurch entstehen mtDNA-Catenate, welche bei der Teilung nur an ein Tochtermitochondrium weitergegeben werden können. Somit entstehen Zellen ohne mtDNA, sogenannte ρ0-Zellen. Mithilfe von Fluoreszenzmikroskopie, qPCR und Selektion soll diese These hier nachgewiesen werden.
Die dabei entstandenen Ergebnisse zeigen mikroskopisch Mitochondrien ohne mtDNA, sowie einen Rückgang des mtDNA-Gehalts durch die qPCR und das Sterben von vereinzelten Zellen unter Selektionsdruck durch fehlendes Pyruvat und Uridin. Bei den Levofloxacinkonzentrationen 400 μM und 600 μM konnten all diese Effekte nachgewiesen werden, wobei in Zellen, welche mit niedriger Konzentration behandelt wurden, die mtDNA noch vorhanden ist. Bei höheren Konzentrationen müssen letale und toxische Effekte beachtet werden. Somit können ρ0-Zellen mithilfe von Levofloxacin hergestellt werden.
Die Entstehung von Catenaten wurde indirekt an den Zellen der Konzentrationen 400 μM und 600 μM nachgewiesen, da Zellen, die ohne Levofloxacin weiter behandelt wurden, auch in Mangelmedium gewachsen sind. In diesen Zellen könnte die wieder aktivierte Gyrase die Catenate zerschnitten und entwunden haben, wodurch wieder eine funktionsfähige Atmungskette vorliegt.
Die Biometrie bildet in heutigen Zeiten in den Bereichen der forensischen Arbeit und der Sicherheit ein besonderen Teil. Dabei werden in heutigen Verfahren biometrische Merkmale wie Gesichtsmaße, Fingerabdrücke oder auch Irismuster verwendet. Jedoch stößt die Verwendung dieser Merkmale oft an ihrer Grenzen, wenn es darum geht, vermummte Täter auf Überwachungsaufnahmen zu identifizieren. An dieser Stelle soll der Täter mittels eines Rigs auf der Aufnahme vermessen werden. Die erhaltenen Maße sollen anschließend mit den Maßen von Personen im Reale verglichen werden, um dadurch den Täter von der Aufnahme zu identifizieren. In dieser Arbeit wird ein gegebener Datensatz näher untersucht. Der Datensatz enthält anthropometrische Maße, Front-Rigs (2D-Rigs) sowie 3D-Rigs von 170 Frauen und 170 Männern. Ziel soll es sein, die im Datensatz gegebene Separierbarkeit mittels eines optimalen Trenn- beziehungsweise Klassifikationsverfahrens nachzuweisen. Zum Einen wird die Vergleichbarkeit der Front- und 3D-Rigs überprüft. Dafür wird eine Möglichkeit gesucht, eine mögliche Abweichung zwischen den Dimensionen der Rigs mittels eines allgemeinen Fehlers beziehungsweise Verhältnisses auszudrücken. Zum Anderen werden verschiedene Klassifikationsverfahren durchgeführt, die zwischen zwei Körperhöhengruppen gegebene Separierbarkeit optimal nachzuweisen. Abschließend wird ein weiteres Merkmal neben der Körperhöhe gesucht, um Personen in Gruppen einzuteilen. Im Verlauf der Arbeit wird ersichtlich, dass zwischen den Front-Rigs und 3DRigs ein Unterschied besteht, der sich jedoch schwer in ein allgemeinen Fehler beziehungsweise ein allgemeines Verhältnis fassen lässt. Mittels der Manhattan-Distanz kann die Separierbarkeit nur schwer nachgestellt werden. Durch die Verwendung von k-NNs und logistischen Regressionen ist die Separierbarkeit trotz auftretender Falschklassifikationen nachzuweisen. Als weiteres Merkmal zur Körperhöhe wird das Verhältnis von Oberkörper zu Unterkörper betrachtet. Die mittels dieses Verhältnisses bestimmten Gruppen sind ebenfalls nachweisbar. In Zukunft sollte der Unterschied zwischen Front- und 3D-Rigs verkleinert beziehungsweise verallgemeinert werden, um die Vergleichbarkeit zu steigern. Des Weiteren sollte die Separierbarkeit mittels weiterer Klassifikationverfahren nachgewiesen werden. Außerdem sollte über eine Erweiterung des Datensatzes um weitere Individuen oder auch andere Körperhöhen nachgedacht werden. Zudem sollten auch andere Merkmale zur Gruppierung der Personen weiter untersucht werden.
Agenten in virtuellen Welten können sich mit Hilfe verschiedener Wegfindungsalgorithmen selbständig von einem Start- zu einem Zielpunkt bewegen. Dafür existieren zahlreiche Algorithmen, um beispielsweise im Rahmen eines Videospiels an die Agenten gestellten Anforderungen und Handlungssequenzen zu erfüllen. Eine solche Anforderung stellt häufig die Navigation durch einen Spielbereich dar. Bei der Anwendung auf Videospiele müssen besondere Voraussetzungen erfüllt werden. Hierzu gehört ein besonders effizienter Umgang mit den zur Verfügung stehenden Ressourcen, um echtzeitfähige Entscheidungen zu ermöglichen und eine nahtlose Integration ins Spielgeschehen zu gewährleisten.
Zu diesem Zweck sind verschiedene klassische Wegfindungsalgorithmen zu implementieren und auf ihre Qualität und Effizienz zu prüfen. Mithilfe der Unity Engine lassen sich verschiedene Szenarien kreieren, die Herausforderungen für unterschiedliche Agenten bilden. Dabei werden die zurückgelegten Wege und Zeiten, aber auch die benötigten Ressourcen mithilfe eines Logging-Systems aufgezeichnet, miteinander verglichen und deren Gute in Abhängigkeit zur Anwendungsdomäne evaluiert.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
Die Aufgaben dieser Bachelorarbeit sind sowohl die Behandlung der wichtigsten theoretischen Grundlagen von Bitcoin, als auch die Konzeption und Entwicklung eines Programmes für die Verfolgung von Bitcoins. Es werden dabei die anzuwendenden Kriterien untersucht und anschließend die Konzeption und Implementierung beschrieben. Abgeschlossen wird die Arbeit mit dem Test des Programms und einer Auswertung der Nützlichkeit bzw. Anwendbarkeit dieses Programms.
Analyse, Strukturierung und digitale Transformation von Patientendaten in der humanitären Hilfe
(2018)
Die vorliegende Arbeit befasst sich mit der Analyse der Arbeitsabläufe in mobilen Kliniken der humanitären Hilfe, um die Prozesse und die darin entstehenden Patientendaten digital zu transformieren. Zur Umsetzung werden zwei Ansätze verfolgt. Dabei handelt es sich einerseits um die Migration der Daten in ein am Markt verfügbares System und andererseits den Weg der Eigenentwicklung. Dazu werden nach Betrachtung der Grundlagen geeignete Komponenten ausgewählt und Konzepte für Datenbank und Online-Anwendung erstellt. Im Anschluss werden die Konzepte umgesetzt und mögliche Erweiterungen angeschnitten.
In dieser Arbeit wird ein Verfahren zur ionenchromatographischen Bestimmung von Perchlorat entwickelt. Dabei wird die Trennsäule Dionex IonPac AS20 verwendet. Mittels Kalibrierung konnte eine Methode zum Nachweis von Perchlorat in einem Konzentrationsbereich von 2 μg/l – 50 μg/l mit einer Nachweisgrenze von 0,38 μg/l entwickelt werden. Anschließend wurde der Einfluss von den Ionen Sulfat, Nitrat und Chlorid auf die Bestimmung von Perchlorat sowie die Anwendung des Verfahrens auf reale Proben getestet. Dabei wurde festgestellt, dass bei höheren Konzentrationen ab ca. 200 mg/l der Nebenionen die Wiederfindungsrate stark abnimmt. Eine Vorbehandlung mit Silber – und Bariumfilter wirkt dem jedoch entgegen. In realen Proben konnte dank Vorbehandlung Perchlorat ohne Probleme nachgewiesen werden. Lediglich in Abwasserproben ist eine Verunreinigung enthalten, welche die Bestimmung hindert. In realen Proben aus der Umgebung Leipzig und Chemnitz konnte anschließend vor allem in Badebeckenwasser Perchlorat in höheren Konzentrationen bis zu 40,80 μg/l nachgewiesen werden.
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
In dieser Masterarbeit wird sowohl säurelösliches Kollagen, als auch Gelatine als Ausgangsmaterial verwendet. Dieser Ausgangsstoff wird anschließend funktionalisiert und verschieden photovernetzt, um verschiedene nanomechanischen Eigenschaften zu generieren. Diese werden durch statische Rasterkraftspektroskopie untersucht. Das modifizierte Kollagen und Gelatine werden dann nach DIN auf ihre Zytotoxizität getestet. Nach erfolgreicher Überprüfung werden Zellversuche vorgenommen um die Zellantwort auf die unterschiedlichen mechanischen Eigenschaften untersucht. Zuletzt wird in Gelatine die Oberflächenmorphologie von Kollagen gestempelt und eine Veränderung der Zellantwort zu nicht gestempelter Gelatine überprüft.
Verschiedenste telefonische Betrugsmaschen, die auf die ältere Generation abzielen, sind in den letzten Jahren in Deutschland exorbitant gestiegen. Ob Schockanruf, WhatsApp-Betrug oder Enkeltrick: die Folgen eines solchen Betrugsfalls werden nur selten aufgezeigt. Anhand einer quantitativen Umfrage und einem Interview mit einer Betroffenen werden in dieser Arbeit die Betrugspräsenz, die Trendentwicklung und der aktuelle Aufklärungsstand am Beispiel des Enkeltricks, sowohl analog als auch digital untersucht. Abschließend werden Handlungsempfehlungen für potenziell gefährdete Menschen ausgesprochen.
Diese Arbeit befasst sich mit der Gestaltung und Kombination verschiedener Bildkompositionen und der Ermittlung von deren Einfluss auf die vom Betrachter wahrgenommene Bildstimmung. Dabei werden Environment Concept Artworks aus verschiedenen Bildelementen zusammengesetzt, welche bestimmte Auswirkungen auf die empfundene Stimmung haben sollen. Der Effekt der entwickelten Bilder auf die Stimmung eines Betrachters wurde durch eine Befragung von Testpersonen ermittelt. Die Ergebnisse der Umfrage lassen sich durch verschiedene Bildelemente klar begründen und bestätigen die der Arbeit zu Grunde liegende Forschungsfrage. Die in dieser Arbeit ermittelten Informationen, bieten einen guten Ausgangspunkt für die Entwicklung von 2D-Werken mit der klaren Absicht eine konkrete Bildstimmung auszulösen, und sind auch außerhalb des Anwendungsfalls Environment Concept Art nutzbar.
Der technologische Fortschritt ermöglicht das Speichern von größeren Datenmengen. Dies hat zur Folge, dass Daten mehr Platz auf einem Datenträger einnehmen und die Wahrscheinlichkeit des Aufteilens einer Datei auf mehrere auf dem Datenträger verteilte Positionen steigt. Von dieser sogenannten Fragmentierung sind auch JPEG-Dateien betroffen, wobei sich die Frage stellt, wie ein Zusammensetzen der Fragmente ohne die notwendigen Informationen aus dem Dateisystem möglich ist.
Ziel dieser Masterarbeit ist es, eine prototypische Implementierung eines intelligenten Carving Algorithmus zur Rekonstruktion fragmentierter JPEG-Dateien zu entwickeln, welcher durch erzeugte Testszenarien evaluiert wird.
Um dieses Ziel zu erreichen, wird ein Programm erstellt, welches sich an dem Smart Carving-Prinzip orientiert und diverse Carving-Methoden einbezieht. Für die anschließende Beurteilung der Lauffähigkeit des Prototyps werden Szenarien zum Testen von Stärken und Schwächen entwickelt. Die Ergebnisse aus diesen werden durch eine Evaluationsstrategie bewertet.
Anhand der Ergebnisse wird deutlich, dass der entwickelte Prototyp noch viele Schwächen aufweist. Bei manchen Szenarien können vollständig korrekte Ergebnisse geliefert werden und die JPEG-Dateien rekonstruiert werden, bei anderen Szenarien sind die Ergebnisse unzureichend. Diese Ergebnisse und der Fakt, dass der Prototyp lediglich für kleine Datenmengen konzipiert und erprobt wurde, zeigen, dass ein Einsatz des Programms in einer realen Umgebung noch nicht möglich ist.
In der vorliegenden Arbeit wird eine Methodik entwickelt, mit der ausgewählte forensische Software-Tools miteinander verglichen werden können. Dieser Ver-gleich basiert auf einem erstellten Image, welches diverse Artefakte beinhaltet. Auf Grundlage dieser Artefakte wird eine Bewertungsmatrix erzeugt, welche für den Vergleich der ausgewählten Forensik-Tools X-Ways, Axiom und Autopsy genutzt wird. Anhand der Ergebnisse, die durch die Matrix generiert wurden, lässt sich Axiom als bestes der drei getesteten Tools herausstellen. Hierbei muss allerdings berücksichtigt werden, dass die Beurteilung nach subjektiven Kriterien geschehen ist und keine eindeutige Aussage getroffen werden kann, ob ein forensisches Tool eine erfolgreiche Auswertung liefert
As the cryptocurrency ecosystem rapidly grows, interoperability has become increasingly crucial, enabling assets and data to interact seamlessly across multiple chains. This work describes the concept and implementation of a trustless connection between the Bitcoin Lightning Network and EVM-compatible blockchains, allowing the transfer of assets between the two ecosystems. Establishing such a connection can significantly contribute to the growth of both ecosystems as they can benefit from each other’s advantages and emerge new pos- sibilities.
The number of Internet of Things (IoT) devices is increasing rapidly. The Trustless Incentivized Remote Node Network, in short IN3 (Incubed), enables trustworthy and fast access to a blockchain for a large number of low-performance IoT devices. Although currently IN3 only supports the verification of Ethereum data, it is not limited to one blockchain due to modularity. This thesis describes the fundamentals, the concept and the implementation of the Bitcoin verification in IN3.
Das Ziel dieser Arbeit ist die Analyse von Kampfszenarien in Videospielen, mit dem Fokus auf der Gewichtung von unterschiedlichen Charakter-Klassen und Teamzusammenstellung.
Dazu wird dies an zwei Videospielen analysiert. Danach wird eine Anforderungsanalyse durchgeführt und es erfolgt die prototypische Umsetzung eines Softwaretools, in dem sich Kampfszenarien simulieren lassen. Ergänzend dazu wird eine visuelle Evaluation implementiert. Anhand der Auswertung von Testsimulationen wird dann eine erneute Analyse durchgeführt.
Bei der Erstellung moderner Videospiele wird eine große Menge an Grafikobjekten für die Zusammensetzung der Landschaften und Umgebungen benötigt. Da die Ansprüche der Spieler an die Grafik steigen, ist es besonders bei Spielen mit realistischer Grafik oft notwendig, viel Zeit und Ressourcen einzusetzen um diese Objekte zu erstellen. Daher lohnt es sich, diese möglichst effizient einzusetzen und abzuwägen, an welchen Stellen sich ein hoher Detailgrad lohnt und an welchen Stellen auf simpler gehaltene Objekte zurückgegriffen werden kann, ohne dass dies dem Spieler auffällt.
Unter Beachtung einiger Gestaltungsgesetze und Grundlagen der Wahrnehmung und Levelgestaltung können die Objekte effektiv eingesetzt und an den Orten platziert werden, an welchen die Aufmerksamkeit des Spielers am höchsten ist. Neben der Zeitersparnis bei der Erstellung von Objekten ist es auch für die vom Computer benötigte Rechenleistung des Spiels sinnvoll, nur an den notwendigsten Stellen einen hohen Detailgrad zu verwenden.
In dieser Arbeit geht es darum, Methoden zu erarbeiten, die es erleichtern, Details effizienter in der Spielumgebung zu platzieren und herauszufinden, in welchen Situationen diese sinnvoll einsetzbar sind.
Diese Arbeit beschäftigt sich mit dem Erstellen semantischer Encodings von Bilddaten. Um diese Kodierungen aus den Daten zu extrahieren, wird ein künstliches neuronales Netzwerk auf
Videobild Interpolation trainiert. Die daraus erlernten Encodings sollen anschließend auf ihre Anwendbarkeit in einer anderen Aufgabe der KI gestützten Bildverarbeitung, der Extraktion von Landmarken auf Menschen, getestet werden.
Das Thema Kinderpornographie ist schon lange immer wieder Fokus der Medien. Erst vor kurzem hat die deutsche Polizei ein internationales Netzwerk, welches Kinderpornographie verbreitete, aufgedeckt und vier Täter festgenommen. [27] Auch die polizeiliche Kriminalstatistik (PKS) verzeichnete im Jahr 2019 und 2020 einen massiven Anstieg des Besitzes, der Herstellung und der Verbreitung von Kinderpornographie. [3, 4] Diese Zustände und Entwicklungen sind erschreckend und zeigen die Relevanz der Arbeit in diesem Themengebiet. Daher befasst sich diese Bachelorarbeit mit der Entwicklung einer unterstützenden künstlichen Intelligenz (K.I.) für die Ermittlungen.
Produktion von rekombinanten
Proteinen zur Verwendung in
Reagenzien für die in-vitro
Diagnostik
(2015)
Hefen sind widerstandsfähig, haben eine vergleichsweise hohe Reproduktionsrate und bieten eine Vielzahl posttranslationaler Modifikationen und Sekretionswege. Aus diesem Grund wurde die Hefe P. pastoris als Expressionswirt ausgesucht, um das Enzym Cholesterinesterase rekombinant herzustellen. Dafür soll ein Klon mit hoher Enzymausbeute erzeugt werden. Zusätzlich musste das optimale Kultivierungsmedium gefunden, die Langzeitstabilität ermittelt und gleichzeitig die Funktionalität in einem Reagenz nachgewiesen werden, in dem es später als eine Komponente eingesetzt werden soll. Es wurden die drei Stämme von P. pastoris X33, SMD1168H und KM71H eingesetzt, um jeweils die Plasmide pGAPZαA-COE1 und pGAPZαA-COE1-6H mithilfe der Elektroporation in die Stämme zu transformieren. In der Zelle wird das Plasmid durch homologe Rekombination in das Hefegenom integriert. Zum
Linearisieren der Plasmid-DNA wurden die Restriktionsenzyme AvrII und BspHI eingesetzt. Daraus ergab sich die Kombination aus Stamm, Restrkitionsenzym und Konstrukt, welche den Klon mit der höchsten Ausbeute erzeugt. So wurde der Klon E1 mit einer Enzymaktivität von 8,2 U/mL erzeugt, indem das Konstrukt pGAPZαA-COE1-6H mit dem Restriktionsenzym AvrII in den Stamm KM71H transformiert wurde. Die Enzymaktivität wurde mit einer Methode ermittelt, die auf der Reaktion des Enzyms mit p-Nitrophenoloctanoaten basiert. Im weiteren Verlauf wurde das Kultivierungsmedium für den Klon optimiert. Von den drei eingesetzten Medien SYN6, FM22 und YNB stellte sich SYN6 als das Medium mit der höchsten Ausbeute heraus.
Eine weiterführende Variierung der CaCl-Konzentration im Kultivierungsmedium ergab eine optimale Konzentration von 1%, bei gleichzeitiger Erhöhung der Langzeitstabilität.
Zusätzliche Versuche zur Erhöhung der Langzeitstabilität mit Zusätzen wie RSA, Glycerin oder EDTA ergaben, dass die Langzeitstabilität am besten ohne jegliche Zusätze garantiert werden kann. Weiterführend muss über ein Scale-up Prozess
nachgedacht werden und parallel dazu ein downstream-Prozess entwickelt werden, um die steigende Menge an Kulturüberstand verarbeiten zu können.
Seit 1949 wird Lithium, meist in Form von Lithiumcarbonat, zur akuten und prophylaktischen Behandlung affektiver Störungen eingesetzt. Der Lithiumspiegel der Patientinnen muss dabei genau eingestellt und regelmäßig überwacht werden. Die vorliegende Arbeit beschäftigt sich mit der Lithiummessung mittels ionenselektiver Elektroden (ISE) im Speichel und der Herstellung eines Kunstspeichels zur Kalibrierung der Elektroden. Bei der Lithiummessung kann es durch Störionen zu Quereinflüssen kommen, sodass die Lithiummessung beeinflusst wird. Diese Interferenzen sollen untersucht werden.
Käufer haben häufig das Problem die Sicherheit von Produkte einzuschätzen. In der Bachelorarbeit möchte ich darauf eingehen, welche Zertifizierungsmöglichkeiten existieren und in welche Branchen sie sich einordnen. Daraufhin wird eine Klassifizierung und Einordnung der Zertifikate zur IT-Sicherheit durchgeführt. Im Schwerpunkt liegen hierbei die Produktzertifizierungen. Die Transparenz wird für den Verbraucher übergreifend betrachtet. Die Ergebnisse zeigen auf, ob sich Zertifikate gut oder weniger gut für die unterschiedlichen Branchen eigenen und ob gegebenenfalls Risiken damit verbunden sind.
Robust soft learning vector quantization (RSLVQ) is a probabilistic approach of Learning vector quantization (LVQ) algorithm. Basically, the RSLVQ approach describes its functionality with respect to Gaussian mixture model and its cost function is defined in terms of likelihood ratio. Our thesis work involves an approach of modifying standard RSLVQ with non-Gaussian density functions like logistic, lognormal, and Cauchy (referred as PLVQ). In this approach, we derive new update rules for prototypes using gradient of cost function with respect to non-Gaussian density functions. We also derive new learning rules for the model parameters like s and s, by differentiating the cost function with respect to parameters. The main goal of the thesis is to compare the performance results of PLVQ model with Gaussian-RSLVQ model. Therefore, the performance of these classification models have been tested on the Iris and Seeds dataset. To visualize the results of the classification models in an adequate way, the Principal component analysis (PCA) technique has been used.
In dieser Arbeit erfolgt eine Betrachtung der Speichertechnologie Object Storage sowie eine vergleichende Analyse verschiedener Lösungsansätze von OpenStack sowie EMC Corporation. Zu Beginn werden allgemeine Aspekte zur Funktionsweise von Objektspeicher in den Vordergrund gestellt, um Anhaltspunkte für die Bearbeitung und Bewertung der konkreten Systeme zu gewinnen. Zudem erfolgt eine Gegenüberstellung dieser Technologie mit Block- und Dateispeicher.
Die anschließende Detailbetrachtung der Lösungen befasst sich mit OpenStack Swift, Swift-Stack sowie EMC ViPR, ECS und Isilon. Auf Basis eines gestellten Anforderungsprofiles werden zudem zwei Beispielarchitekturen eines Object Storage Clusters vorgestellt. Abschließend erfolgt auf Basis definierter Bewertungskriterien ein direkter Vergleich der betrachteten Systeme sowie eine darauf aufbauende Empfehlung zur Auswahl eines Systems.
Die vorliegende Arbeit dient als Grundlage zur Umsetzung für eine automatisierte Klassifizierung von textuellen Fehlermeldungen. Das Hauptziel ist ein grundlegendes Verständnis für die Herangehensweise zum Aufbau eines maschinellen Lernsystems zu erreichen. Es werden verschiedene Arten des maschinellen Lernens erläutert. Auswahl und Aufbau eines Lernmodells werden von unterschiedlichen Seiten beleuchtet, um einen Überblick der einzelnen Schritte zu gewinnen. Zur Gewährleistung eines praktischen Lösungsansatz wurden bereits erste Tests mit einem ausgewählten Lernmodell durchgeführt.
Keiner schaut mehr Fernsehen. Die Benutzung von Videostreaming ist beim Großteil der digital vertrauten Bevölkerung in Fleisch und Blut übergegangen und erstreckt sich über den gesamten Globus. Die Giganten der Streaming-Anbieter sind YouTube, Amazon und Netflix und sie sind dem Modell des Fernsehens meilenweit voraus. Mit komplex verstrickten Algorithmen sollen uns, den Nutzern, die Inhalte geboten werden, die uns dazu bringen, noch mehr zu konsumieren. Wie weit und auf welche Weise muss ein System entwickelt sein, um jedem Nutzer Inhalte anzubieten, die unheimlich oder faszinierende Weise auf uns zugeschnitten sind?
Das Ziel dieser Forschung ist es, das System der Vorschläge von Netflix auf die Qualität, Passgenauigkeit und Effizienz im Hinblick auf Präferenzen und Bedürfnisse zu bestimmen, die die Nutzer in Verbindung mit Netflix aufweisen.
Um die Forschungsfrage zu beantworten, wurden innerhalb einer mehrteiligen, iterativen Meinungsumfrage Bewertungen von Vorschlägen von Freunden, Bekannten und Familie mit den Vorschlägen von Netflix in den Zusammenhang mit dem eigenen Filmgeschmack, Präferenzen, Nutzung des Accounts und Verhalten beim Streaming gebracht. Dabei wurde bestätigt, dass die Vorschläge von Netflix stärker zum Filmgeschmack passen, hierbei jedoch Differenzierungen bei der Popularität und Unterhaltsamkeit des Vorschlags zu beobachten sind. Des Weiteren zeigte die empirische Untersuchung auf, dass verhaltenspsychologische und sozialwissenschaftliche Aspekte Einflüsse auf die Effizienz einer künstlichen Intelligenz haben und noch nicht voll ständig in die Optimierung in das System der Netflix Vorschläge eingeflossen sind.
Diese vorliegende Arbeit behandelt das Thema „Biofouling durch oberflächennahe und mitteltiefe geothermische Wärmespeicherung“. Dazu wurden hydrochemische Eigenschaften ausgewählter Grundwässer untersucht. Hierauf folgte die Betrachtung von Insitu-Verhältnissen für Mikroorganismen in Geothermie und Bergbau. Anschließend wurden Schadensbilder in Form einer Fotodokumentation dargestellt.
Im Rahmen der Arbeit sollte ein Modell zur Evaluierung des diagnostischen Einsatzes von D-stereospezifischen Hydrolasen- und varianten generiert werden. Als Modell diente artifizielles Parvulin 10 mit einer substituierten D-Aminosäuren. Dadurch musste eine halbysnthetische Synthese mit Fragmenten erfolgen. Das N-terminale Fragment (1-67), auch Thioester genannt, wurde aus E. coli an einer fusionierten Intein-Chitinbindedomäne exprimiert. Mithilfe einer Kombination aus Affinitätschromatographie und verändertem Proteinspleißens konnte das Fragment an einer Chitinsäule zu einem Thioester umgebaut werden. Die erfolgreiche Expression und der Umbau mittels Proteinspleißens konnten dabei per SDS-Page erfolgreich nachgewiesen werden. In den C¬-terminalen Fragmenten (68-92), auch Peptide (Pf, Py, Pv) genannt, wurde jeweils eine L-Aminosäure per SPPS in eine D-Aminosäure substituiert. Diese Substitution ist für die Validierung der DHys erforderlich. Die Rohprodukte der SPPS konnten erfolgreich mittels präparativer HPLC gereinigt werden. Der Nachweis erfolgte mittels UPLC-MS. Durch eine anschließende initiale Hydrolysestudie der Peptide wurde die generelle Substratzugänglichkeit für die DHys belegt. Die Auswertung erfolgte per UPLC-MS. Nachfolgend wurden beide Substrate mittels natürlich chemischer Ligation verknüpft um Parvulin-Derivate zu erhalten. Die Überprüfung erfolgte per SDS-Pages. Die Hydrolyse des Thioesters begrenzte die Ausbeute sehr stark. Die höchste Ausbeute zeigten Ansätze mit Peptid-Thioester-Verhältnis von 1:3, Thiophenol und der Zugabe von DMSO als Lösungsmittel. Es wurde kein quantitativer Umsatz erreicht. Deshalb war eine Reinigung des Ansatzes nötig. Diese erfolgte Aufgrund verschiedener physikalisch-chemischen Eigenschaften der Reaktanten, Molekulargewichten, polarer Wechselwirkungen und Hydrophobizitäten. Die Auswertung der Reinigungen erfolgte per SDS-Pages. Trennungen nach Hydrophobizität erwies sich am erfolgreichsten. Von dem gereinigten Parvulin-Derivat wurde die Aktivität mittels etabliertem Assay überprüft. Es konnte die Generierung von aktivem artifiziellen Parvulin bestätigt werden. Das Modellprotein konnte erfolgreich dargestellt werden und steht für eine weiterführende Untersuchung zur Validierung mit D-stereospezifischen Hydrolasen zur Verfügung.
Aminoacyl-tRNA synthetases (aaRSs) are key enzymes in the process of protein biosynthesis, charging tRNA molecules with their corresponding amino acid. Whereas adenosine phosphate fixation is common to all aaRSs, recognition of the respective amino acid to ensure correct translation poses a complex task, which is still not understood to its full extent. Using all aaRS structures in the Protein Data Bank (PDB), this thesis reveals further details about the specificitydetermining interactions of each aaRS. Moreover, inspection of the similarities between these enzymes using the structure-derived interaction data reinforces the sequence-based evolutionary trace of aaRSs to a certain degree: The concurrent development of two distinct Classes of aaRS is apparent at functional level, and previously determined evolutionary subclasses coincide altogether with specific aminoacyl recognition in each aaRS Type. Still, discrimination of amino acids in aaRSs involves a multitude of further relevant mechanisms. Eventually, analysis of specificity-relevant binding site interactions sheds light on how aaRS evolved to distinguish different amino acids.
Das Alter eines Blutflecks an einem Tatort kann bei der Verfolgung einer Straftat Informationen über den Tatzeitpunkt liefern und für eine Rekonstruktion des Tatgeschehens dienen. Jedoch existiert in der heutigen Zeit keine anwendbare Methode, um eine exakte Aussage über das Blutalter zu tätigen, wenn man die herrschenden Umweltbedingungen mit einberechnen will.
In dieser Arbeit wird die Blutalterung ex vivo mit Hilfe der UV-VIS- Spektroskopie unter dem Einfluss der Luftfeuchte und Sonneneinstrahlung analysiert. Dazu wurden bekannte Features, welche alterskorrelierende Veränderungen zeigen, zur Untersuchung herangezogen.
Zur Umweltsteuerung konnte mit Hilfe eines Raspberry Pi’s 4 Model B und einem USBLuftbefeuchter eine Methode entwickelt werden, um einen angegebenen Luftfeuchtewert über einen gewünschten Zeitraum zu halten und aufzuzeichnen.
Es zeigten sich deutliche Unterschiede bei der Umsetzung von Oxyhämoglobin zu Met-Hämoglobin bei unterschiedlichen Luftfeuchtewerten. Die Sonneneinstrahlung hingegen
zeigt keinen signifikanten Einfluss auf die alterskorrelierenden Features.
Im Rahmen der vorliegenden Masterarbeit wurden zwei CAN-Bus-Steuergeräte konzeptioniert und entwickelt, welche auf einem forensischen Demonstrator verbaut wurden. Die Funktionen der Steuergeräte sind zum einen die Steuerung einer Beleuchtungseinheit, zum anderen die Abstandsmessung sowie die Akkustandsüberwachung. Als Steuergeräte fungieren Arduino Nanos, welche über SPI mit CAN-Modulen kommunizieren können. Mit Hilfe der Analysesoftware BUSMASTER können CAN-Botschaften auf den CAN-Bus des Demonstrators gesendet werden. Der Demonstrator dient dabei als Grundlage für spätere forensische Untersuchungen des Controller Area Networks.
Der Weg zur Brückenklassifizierung : Generierung, Annotation und Klassifizierung eines Datensatzes
(2019)
In dieser Arbeit wird darauf eingegangen, wie zum Zwecke der Klassifizierung von Brückenbildern ein Datensatz erhoben, annotiert, augmentiert und verschiedene Modelle neuronaler Netze darauf trainiert wurden die Brückenbilder in eine von sieben Kategorien einzuordnen. Dabei wird kurz auf die übergeordnete Bemühung eingegangen, mithilfe eines solchen Netzes einen Beitrag zur Abmilderung der Auswirkungen katastrophaler Ereignisse zu bieten. Anschließend werden die vorgenommenen Schritte im Einzelnen erläutert, die zu den im letztem Kapitel gezeigten Ergebnissen führten. Abschließend werden die Ergebnisse diskutiert, Probleme und mögliche Fehlerquellen angesprochen und ein Ausblick auf Weiterführung der Bemühung zur korrekten Brückenklassifikation gegeben.
IoT- und Smart-Home-Geräte erfreuen sich zunehmender Beliebtheit. Der Bedarf nach IoT-Sicherheit stieg in den letzten Jahren stetig an, was unter anderem mit der Anzahl an Cyberangriffen auf IoT-Geräte begründet ist. Es existieren bereits Zertifizierungs- und Testprozesse, die die IT-Sicherheit von Produkten überprüfen. Um diese zu erweitern und zu beschleunigen, wurde in dieser Arbeit ein Programm konzipiert und umgesetzt, das verschiedene Vorgehen zur Firmwareanalyse implementiert und automatisiert. Hierbei wurde eine modulare Struktur verwendet, sodass weitere Analysen hinzugefügt werden können. Abschließend erstellt das Programm einen Bericht mit den Ergebnissen der Analysen. Er enthält außerdem eine Bewertung der IT-Sicherheit einer Firmware. Die der Firmwareanalyse vorausgehende Extraktion wird erläutert. Das vorgestellte Programm ermöglicht es einem Benutzer, Schwachstellen und Schutzmechanismen eines IoT-Produkts einzuschätzen.
Wirksame Sicherheitsmaßnahmen zu entwickeln und auch zu implementieren, bedeutet im Umkehrschluss, dass zuerst einmal die zugrundeliegenden Gefahren, Schwachstellen und Sicherheitslücken bekannt sein und verstanden werden müssen. Das beste System hat wenig Nutzen, wenn der Mensch, der es bedient, es nicht zu nutzen weiß. Aus diesem Grund soll mit der vorliegenden Arbeit ein grundlegendes Verständnis zu möglichen Angriffen auf das Session Management beziehungsweise in diesem Fall auch die Verschlüsselung gelegt werden. Im Anschluss daran werden mögliche Schutzmaßnahmen dargelegt, welche als eine Art Leitfaden dienen sollen.
Das Ziel dieser Bachelorarbeit ist die Beschreibung und Analyse digitaler Anwendungen von Museen. Es wurde folgende Forschungsfrage definiert: Wie können museale Inhalte digital und interaktiv aufbereitet werden und wie werden sie für die Besucher eines Museums oder die Nutzer von digitalen musealen Angeboten lehrreich und interessant?
Um diese Forschungsfrage beantworten zu können, werden mögliche Verwendungs- und Aufbereitungsarten für museale digitale Anwendungen vorgestellt. Außerdem wird erläutert, wie solche Anwendungen ein positives Lernergebnis beim Nutzer hervorrufen können. Mit diesen Ergebnissen wurde ein Prototyp für eine digitale Anwendung über die Valdivia-Expedition am Museum für Naturkunde Berlin entwickelt. Dieser wurde in einem Nutzertest untersucht und die Ergebnisse werden vorgestellt.
So wird eine Übersicht über digitale museale Anwendungen gegeben und ein realisierbarer Einsatz vorgestellt. Die Möglichkeiten für den vielfältigen Einsatz und positive Auswirkungen für Museen und Nutzer zugleich werden aufgezeigt.
Computationally solving eigenvalue problems is a central problem in numerical analysis and as such has been the subject of extensive study. In this thesis we present four different methods to compute eigenvalues, each with its own characteristics, strengths and weaknesses. After formally introducing the methods we use them in various numerical experiments to test speed of convergence, stability as well as performance when used to compute eigenfaces, denoise images and compute the eigenvector centrality measure of a graph.
Die vorliegende Arbeit befasst sich mit der Konzeptionierung einer gesamthaften
Gebäudeautomatisierung und spannt dabei den Bogen von der methodischen Anforderungsanalyse über das Lösungsdesign bis hin zur Realisierung eines modernen Smart Homes. Die Herausforderung lag dabei in der Gewährleistung der Interoperabilität der einzelnen Komponenten, ohne dabei die zugrunde liegende Technik in den Vordergrund treten zu lassen. In die Praxis umgesetzte Anforderungen werden in dieser Arbeit bis auf die Ebene des Quellcodes dokumentiert und belegen somit die Machbarkeit.
In this thesis two novel methods for removing undesired background illumination are de-veloped. These include a wavelet analysis based approach and an enhancement of a deep learning method. These methods have been compared with conventional methods, using real confocal microscopy images and synthetic generated microscopy images. These synthetic images were created utilizing a generator introduced in this thesis.
Diese Arbeit beschäftigt sich mit der Frage, ob und inwiefern es möglich ist, das Griffgeschehen anhand sichergestellter Spuren digital zu rekonstruieren. Um die Frage zu beantworten, wird sich neben der Anatomie der Hand auch mit den Ansprüchen der Photogrammetrie sowie der Erstellung und Weiterverarbeitung von 3D-Modellen beschäftigt. Das Ziel besteht zum einen darin, mittels photogrammetrischer Aufnahmen, ein 3DModell von dem Spurenträger sowie dem Spurenverursacher zu erstellen. Die Hand soll hierbei ausgestreckt sein. Zum anderen soll mit den entstandenen Modellen der Griff wiederhergestellt werden, in dem das Handmodell in Blender bewegt werden soll. Es stellte sich heraus, dass sich die vorgestellten Methoden zur Erstellung eines Handmodells nicht eigneten, um der Fragestellung dieser Arbeit nachzugehen. Der Hauptgrund besteht darin, dass die Hand, anders als die Tasse, kein Objekt ist und somit nicht auf den Drehteller abgestellt werden kann. Anders als bei Objekten, konnten die Photogrammetrischen Aufnahmen folglich ausschließlich händisch aufgenommen werden. Zudem erwiesen sich die Aufnahmen der ausgestreckten Hand als schwierig. Besondere Probleme bereitete hierbei das Stillhalten der Hand aufgrund der unnatürlichen Pose und der Dauer der Bildaufnahmen. Insgesamt dienen die Ergebnisse dieser Arbeit als Grundlage für weitere Forschungsthemen im Bereich Photogrammetrie sowie der Rekonstruktion des Griffgeschehens.
In dieser Bachelorarbeit wurde die entomologische Besiedlung zweier Ferkelkadaver über eine Dauer von 80 Tagen untersucht. Als Auslegungsort wurde ein Waldstück in Thüringen gewählt. Es konnten fünf Verwesungsstadien klassifiziert werden. Dominante Insekten waren die Familien Calliphoridae, Muscidae, Piophilidae und Silphidae. Piophilidae konnte ab Tag 30 beobachtet werden und trat bis zum Ende des Experiments auf. Es wurden die Piophilidae-Arten Stearibia nigriceps, Lioliophila varipes und Prochyliza nigricornis asserviert. Ziel der Arbeit war es, einen Forschungsbeitrag zur Familie der Käsefliegen zu liefern.
Für die Unfallrekonstruktion bietet die Erstellung eines 3D-Modelles viele Vorteile. Es fallen weniger Daten bei der Datenakquirierung an und somit wird benötigte Zeit an der Unfallstelle reduziert. Zusätzlich lassen sich Messungen direkt am 3D-Modell vornehmen. Um eine möglichst genaue 3D-Rekonstruktion zu ermöglichen, wurde in dieser Arbeit der Einfluss von verschiedenen Aufnahmemethodiken und softwarespezifischen Prozessparametern, auf das mithilfe der Photogrammetrie Software Agisoft PhotoScan erstellte Modell untersucht. Da es bisher wenig Literatur gab, welche sichmit der richtigen Parametrisierung des Rekonstruktionsprozesses auseinandersetzte, wurde dabei deshalb empirisch vorgegangen. Als unterschiedliche Aufnahmemethoden wurden die Aufnahme direkt mit der Kamera aus der Hand, an einem Stativ und aus der Luft mit drei verschiedenen Kamerasystemen analysiert. Die rekonstruierten 3D-Modelle wurden auf ihre Abweichung und auf die optische Ähnlichkeit zum realen Modell untersucht. Das Ziel dieser Arbeit war die Optimierung des Rekonstruktions- und Aufnahmeprozesses für die Aufnahme einer Fahrbahn. Dabei stellten sich heraus, dass sich für verschiedene Aufnahmemethodiken unterschiedliche Prozessparameter eignen und dass die Parametrisierung, neben der Aufnahmemethodik, einen großen Einfluss auf das fertige 3D-Modell hat.
Anlegen und Charakterisieren von Anreicherungskulturen aus Oberflächengewässern im Norden Finnlands
(2020)
Es wurden Wasserproben aus Finnland biochemisch charakterisiert. So wurden EcoPlates von BIOLOG benutzt, um die Wasserproben von heterotrophen mikrobiellen Gemeinschaften zu charakterisieren und klassifizieren. Zudem wurden Anreicherungskulturen erstellt und auf ihre Verwertung von Stickstoffquellen durch Phänotyp Mikroarray und auf ihre Zellwandzusammensetzung mit Gram-Färbung untersucht. Die daraus resultierenden Ergebnisse werden für die Bestimmung und Charakterisierung von den Anreicherungskulturen verwendet.
Diese Arbeit untersucht, die Herausforderungen bei der teilautomatischen Erstellung von Testdaten für die digitale Forensik. Insbesondere handelt es sich um Bildmetadaten im EXIF-Format, aus der Fotogalerie eines Smartphones, die mit GPS-Daten und zugehörigen Zeitstempeln für eine feste Route angereichert werden. Dazu wird auf Metadaten, Geokoordinaten und Zeitstempel eingegangen sowie der aktuelle Stand zu EXIF aufgezeigt. Mit diesem Wissen entsteht ein Programm, das die Testdaten erzeugt.
Die vorliegende Arbeit behandelt den Einfluss epigenetischer Faktoren auf die Stickstoffnutzungseffizienz (engl. nitrogen use efficiency) des pflanzlichen Modellorganismus Arabidopsis thaliana. Dabei wird eine mögliche Korrelation zwischen der Stickstoffnutzungseffizienz und der Methylierung der Promotorregionen der drei Gene AT1G55420, AT1G55430, AT1G55440 bestätigt. An ausgewählte Arabidopsis-Akzessionen wird eine Stickstoffmangelstresssituation simuliert und entsprechende Auswirkungen mittels verschiedener Verfahren phänotypisiert. Die Ergebnisse der angewendeten Untersuchungen bieten erste Einblicke in die molekularen und phänotypischen Zusammenhänge der Nutzungseffizienz der Modellpflanze Arabidopsis thaliana unter Stickstoffstressbedingungen dar.
Internet- und Computerkriminalität rücken aufgrund steigender Fallzahlen immer mehr in den Fokus der strafrechtlichen Verfolgung. Diese Bachelorarbeit befasst sich mit den Vorschriften 202a-d StGB, um den rechtlichen Schutz von Internet- bzw. Computernutzern darzustellen. Hierzu werden die Begriffe Internet- und Computerkriminalität definiert und es wird auf die historische Entwicklung im Bereich der Informationssicherheit eingegangen. Jede Norm wird inhaltlich detailliert betrachtet, indem der Wortlaut der Norm, die systematische, teleologische und ergänzend die historische Auslegung erarbeitet werden. Ziel der vorliegenden Arbeit ist Schaffung eines Überblicks über die genannten Vorschriften. Außerdem soll geklärt werden, ob ein ausreichender strafrechtlicher Schutz von Internet- und Computernutzern gegeben ist oder ob gewisse Strafbarkeitslücken in diesem Zusammenhang existieren. Zur Analyse zog die Verfasserin Fachartikel, Bundestags-Drucksachen, das Strafgesetzbuch sowie Informationen aus dem Internet heran
In der vorliegenden Arbeit wird eine Methodik beschrieben, um den OBD-II Daten aus einem Fahrzeugsystem mithilfe eines embedded Device aufzuzeichnen. Dieser basiert auf der Verwendung eines Raspberry Pi 3B+ Modells in Verbindung mit einem am Fahrzeug angebrachten ELM327 Bluetooth Diagnosechip. Die aufgezeichneten OBD-II Daten werden zusammen mit den, über den GPS-HAT der Firma „Uputronics“ , aufgezeichneten GPS-Daten in jeweils eine eigene Logdatei abgespeichert. Aufgrund des frühen Entwicklungsstadiums kann ein lückenloses sowie fehlerfreies loggen der Daten nicht garantiert werden, jedoch werden noch andere Anwendungsfälle aufgezeigt.
Die vorliegende Arbeit befasst sich mit der Analyse von Videos mit Kinder- und Jugendschauspielern, die durch die Forensik-Analyse-Software X-Ways Forensics gecarvt und gefiltert und von dem Gesichtserkennungsprogramm SHORE des Fraunhofer Instituts für Integrierte Schaltungen bezüglich Alter und Geschlecht analysiert werden. Die Biometrische Unterscheidung des Alters ist besonders bei der Erkennung und Differenzierung zwischen legaler Erwachsenenpornographie und inkriminierter Kinder- sowie Jugendpornografie entscheidend. Die Ergebnisse werden unter verfahrensechten Umständen getestet und auf Gerichtsverwertbarkeit geprüft. Um Vergleiche mit ähnlichen Produkten und der manuellen Arbeit eines erfahrenen Ermittlers zu erstellen, werden Testdaten mit bekannten Parametern eingespeist und bezüglich Treffer- und Fehlergenauigkeit sowie Dauer verglichen.
In dieser Arbeit ging es hauptsächlich darum, zu untersuchen wie bestimmte, gewählte Degradationsparameter auf DNA Proben realer Personen einwirken und wie diese im Laufe der Zeit verändert werden. Besonderes Augenmerk lag hierbei auf dropout/dropin Phänomenen. Dabei wurde zusätzlich die Verwendbarkeit des Chimera® Mentype® Kits in der forensischen Spurenanalytik überprüft.
Es wurden unterschiedliche Spurenmaterialien von fünf Probanden über einen Zeitraum von 4 h bis 14 Tagen, diversen Temperaturen und UVC-Bestrahlung ausgesetzt. Die Auswertung erfolgte mittels STR-Profilen sowie Fragment Analyzer™. Ebenfalls wurden Hautabriebsspuren gesichert, welche mittels NanoDrop™ und Fragment Analyzer ™ analysiert wurden um eine Beurteilung über die Tauglichkeit dieser Tools vornehmen zu können.
Die Ergebnisse bestätigen, dass ein großer Unterschied zwischen Speichelproben und Mundschleimhautabstrichen besteht, was Degradationserscheinungen betrifft. Es konnte auch festgestellt werden, dass es signifikante Unterschiede bei den Probanden gibt. (Shedderstatus) Bei dem Vergleich von STR-Profilen mit den Fragment Analyzer™ Daten zeigt sich, dass eine Korrelation nicht möglich ist.
Der angesetzten Toolvergleich brachte hervor, dass der Fragment Analyzer™ effizienter und präziser ist, womit der NanoDrop™ vorgezogen werden sollte.
Analyse des Einflusses verschiedener Umweltfaktoren auf die spektroskopische Blutaltersbestimmung
(2017)
Blutspuren gehören zu den wichtigsten Beweisen in der Forensik. Neben der morphologischen Untersuchung wie bei der Blutmusteranalyse, kann ebenfalls das Blut an sich untersucht werden um das Alter zu bestimmen. Somit lassen sich nicht nur Tathergänge rekonstruieren, auch eine Überprüfung der Aussagen von Zeugen oder Tatverdächtigen ist somit möglich. Allerdings erschweren Umweltfaktoren die Bestimmung des Alters. Der Einfluss der Faktoren Licht, Temperatur und Luftfeuchtigkeit wurde in dieser Arbeit mit Hilfe einer spektroskopischen Analysemethode, der UV/VIS-Spektroskopie, über einen Zeitraum von 21 Tagen untersucht. Für die Bestimmung des Blutalters wurden neben den vier spezifischen Blutpeaks, zwei Peaks aus dem UV-Bereich näher betrachtet. Es konnte beobachtet werden, dass vor allem die Temperaturverhältnisse einen großen Einfluss auf die Umwandlung von Oxyhämoglobin zu Methämoglobin haben. Die Umsetzungsrate ist hierbei viel geringer. Die Betrachtung der Peaks im UV-Bereich ergab, dass diese von Lichteinflüssen stärker beeinflusst werden. Jedoch eignen sich die Peaks nur bis zu einem Zeitraum von maximal fünf Tagen, da bei älteren Spuren die Werte nicht mehr zuverlässig sind.
Die Strafverfolgungsbehörden verwenden zunehmend Mobilfunkdaten, um Tathergänge zu rekonstruieren und daraufhin Tatverdächtige überführen zu können. Die Mobilfunkdaten erhalten die Strafvervolgungsbehörden auf Anfrage und richterlichen Beschluss von den Telekommunikationsanbietern. Die Anfragen sind sowohl zeitlich als auch regional stark eingegrenzt. Trotzdem ist das Datenvolumen erheblich. Auf Grund des Datenvolumens und der Heterogenität der Datenformate zwischen den Mobilfunkanbietern, gestaltet sich die Auswertung der Daten sehr aufwändig. Diese Masterarbeit adressiert die genannten Aspekte mit einer auf die Mobilfunkdaten abgestimmten Datenintegrations- und -analyse-Pipeline. Die Pipeline überführt die Mobilfunkdaten in ein harmonisiertes Datenformat und reichert sie mit einer Annotation zur Bodennutzungsklassifizierung an. Letztere sind für die Datenanalyse relevant. Grundlegend greift die Pipeline auf eine Graphdatenbank zurück, in die die Daten eingefügt werden. Anhand der Anfragesprache Cypher können relevante Daten für diverse Auswertungsfragen selektiert und zur Verfügung gestellt werden. Diese Grundlage ermöglicht eine iterative Vorgehensweise bei der Datenauswertung, so dass aus Ergebnissen einer vorangegangenen Frage, neuen Auswertungszielen schnellstmöglichst begegnet werden kann. Die in der Arbeit gezeigten Auswertungen stehen beispielhaft für das große Spektrum an Auswertungsmöglichkeiten. Insbesondere wurden Personenkreise mit speziellen Bewegungsprofilen anhand der den Funkmasten zugeordneten Landnutzungsklassen ermittelt. Die in der Arbeit verwendeten Daten wurden mit diesem Ansatz um 99% reduziert. Damit können Analyst:innen sich auf die relevanten Aussagen konzentrieren. Zudem konnte eine Korrelation zwischen Mobilität und dem Nutzungsverhalten hergestellt werden. Jedoch zeigt sich auch, dass die hohe Variabilität und Individualität der Personen in einem zeitlich und regional eng begrenzten Datenraum, der Ermittlung von allgemeinen Bewegungsprofilen entgegensteht.
Die vorliegende Arbeit befasst sich mit der Umsetzung eines Parsers für Apple Konfigurationsdateien für die Forensic Software X-Ways Forensics. Dabei werden speziell der Aufbau und die Funktionsweise der Binary Property List Dateien erklärt und ein Programm entwickelt, das in X-Ways Forensics als X-Tension funktionsfähig eingebunden wird. Des Weiteren werden der Aufbau der API und die Schritte erläutert, die notwendig sind, um eine solche X-Tension zu erstellen.
Das Videospiel immer häufiger auch als erzählerisches Medium genutzt. Von den Entwicklern fordert dies eine Gradwanderung zwischen Game Design und Erzählung. Es mussten mit der Zeit neue Wege gefunden werden, Narrativen in das Spiel einzubinden. Diese Arbeit thematisiert die Untersuchung der Wahrnehmung und Interpretation von Environmental Storytelling in 2D-und 3D-Umgebungen. Es wird untersucht, ob es, abhängig von der Dimensionalität, Unterschiede in der Effektivität verschiedener Erzählerischer Mittel gibt. Um diese Frage zu beantworten, werden zwei sich inhaltlich gleichende Demos erstellt, die sich nur durch ihre Darstellung unterscheiden. Die, durch eine Befragung der zwei Testgruppen, erhobenen Daten werden anschließend evaluiert. Es ergab sich, dass dreidimensionale Umgebungen eher zum Erkunden einladen, es werden jedoch im Gegensatz zu 2D-Welten leichter wichtige Objekte übersehen. Für weitere Forschungen, sollten einzelne Aspekte des Environmental Storytelling genauer untersucht und bewusst auf die entsprechende Dimensionalität angewandt werden.
The aim of this bachelor thesis is to find out how the use of artificial intelligence, specifically the one used in combat situations, can increase the playing time or even the replay value of games in the action role-playing genre. Thereby, it focuses mainly on combat situations between a player and an artificial intelligence.
To begin with, this bachelor thesis examines the action role-playing genre in order to find a suitable definition for it. Accordingly, action role-playing games involve titles that send the player on a hero’s journey-like adventure in which they must prove their skills in combat against virtual opponents. The greatest challenge of these real-time battles comes from the required quick reflexes, skill queries and hand-eye coordination.
Next, six means of increasing the replayability of a game are explored: Experience and Nostalgia, Variety and Randomness, Goals and Completion, Difficulty, Learning, and Social Aspect. The paper then proceeds to give an explanation for the term Artificial Intelligence and examines the various methods used to create intelligent behavior as well as the general advancement of the research field. Special attention is given to the implementation methods of Finite State Machines and Behavior Trees, as they are the most widely used methods for creating behavioral patterns of virtual characters.
Finally, a study conducted as part of the bachelor thesis is described, which compares a mathematically balanced artificial intelligence with a behaviorally balanced one in terms of game performance regarding the willingness of test subjects to purchase and play through the game as well as its replay value. The thesis concludes with the findings that while the behavioral approach is more promising than the mathematical approach, a combination of the two methods ultimately leads to the best outcome. Furthermore, the study shows that the use of artificial intelligence to individualize gaming experiences is promising for the future of the gaming industry.
Financial fraud for banks can be a reason for huge monetary losses. Studies have shown that, if not mitigated, financial fraud can lead to bankruptcy for big financial institutions and even insolvency for individuals. Credit card fraud is a type of financial fraud that is ever growing. In the future, these numbers are expected to increase exponentially and that’s why a lot of researchers are focusing on machine learning techniques for detecting frauds. This task, however, is not a simple task. There are mainly two reasons
• varying behaviour in committing fraud
• high level of imbalance in the dataset (the majority of normal or genuine cases largely outnumbers the number of fraudulent cases)
A predictive model usually tends to be biased towards the majority of samples, in an unbalanced dataset, when this dataset is provided as an input to a predictive model.
In this Thesis this problem is tackled by implementing a data-level approach where different resampling methods such as undersampling, oversampling, and hybrid strategies along with bagging and boosting algorithmic approaches have been applied to a highly skewed dataset with 492 idetified frauds out of 284,807 transactions.
Predictive modelling algorithms like Logistic Regression, Random Forest, and XGBoost have been implemented along with different resampling techniques to predict fraudulent transactions.
The performance of the predictive models was evaluated based on Receiver Operating CharacteristicArea under the curve (AUC-ROC), Precision Recall Area under the Curve (AUC-PR), Precision, Recall, F1 score metrics.
Embeddings for Product Data
(2022)
The E-commerce industry has grown exponentially in the last decade, with giants like Amazon, eBay, Aliexpress, and Walmart selling billions of products. Machine learning techniques can be used within the e-commerce domain to improve the overall customer journey on a platform and increase sales. Product data, in specific, can be used for various applications, such as product similarity, clustering, recommendation, and price estimation. For data from these products to be used for such applications, we have to perform feature engineering. The idea is to transform these products into feature vectors before training a machine learning model on them. In this thesis, we propose an approach to create representations for heterogeneous product data from Unite’s platform in the form of structured tabular records. These tables consist of attributes having different information ranging from product-ids to long descriptions. Our model combines popular deep learning approaches used in natural language processing to create numerical representations, which contain mostly non-zeros elements in an array or matrix called as dense representation for all products. To evaluate the quality of these feature vectors, we validate how well the similarities between products are captured by these dense representations. The evaluations are further divided into two categories. The first category directly compares the similarities between individual products. On the other hand, the second category uses these dense vectors in any of the above- mentioned applications as inputs. It then evaluates the quality of these dense representation vectors based on the accuracy or performance of the defined application. As result, we explain the impact of different steps within our model on the quality of these learned representations.
In the practice of software engineering, project managers often face the problem of software project management.
It is related to resource constrained project scheduling
problem. In software project scheduling, main resources are considered to be the employees with some skill set and required amount of salary. The main purpose of software
project scheduling is to assign tasks of a project to the available employees such that the total cost and duration of the project are minimized, while keeping in check that
the constraints of software project scheduling are fulfilled. Software project scheduling (SPSP) has complex combined optimization issues and its search space increases exponentially when number of tasks and employees are increased, this makes software project scheduling problem (SPSP) a NP-Hard problem. The goal of software project scheduling problem is to minimize total cost and duration of project which makes it multi-objective problem. Many algorithms are proposed up till now that claim to give near optimal results for NP-Hard problems, but only few are there that gives feasible set of solutions for software project scheduling problem, but still we want to get more efficient algorithm to get feasible and efficient results.
Nowadays, most of the problems are being solved by using nature inspired algorithms because these algorithms provide the behavior of exploration and exploitation. For solving
software project scheduling (SPSP) some of these nature inspired algorithms have been used e.g. genetic algorithms, Ant Colony Optimization algorithm (ACO), Firefly etc.
Nature inspired algorithms like particle swarm optimization, genetic algorithms and Ant Colony Optimization algorithm provides more promising result than naive and greedy algorithms. However there is always a quest and room for more improvement. The main purpose of this research is to use bat algorithm to get efficient results and solutions for software project scheduling problem. In this work modified bat algorithm is implemented where a different approach of random walk is used. The contributions of this thesis are to: (1) To adapt and apply modified multi-objective bat algorithm for solving software project scheduling (SPSP) efficiently, (2) to adapt and apply other nature inspired algorithms like genetic algorithms for solving software project scheduling (SPSP) and (3) to compare and analyze the results obtained by applied nature inspired algorithms and provide the conclusion.
In regelmäßigen Abständen werden bei Milchkühen in Deutschland Daten über die Zusammensetzung der Milch erhoben, um eine gleichbleibende Qualität sicherstellen zu können. Gleichzeitig dienen die Milchinhaltsstoffe als erste Indikatoren für eine Veränderung des Stoffwechsels der Kuh und ein damit einhergehend erhöhtes Erkrankungsrisiko. Aus diesem Grund wird in dieser Arbeit untersucht, ob es möglich ist, Vorhersagen über Erkrankungen bei Milchkühen anhand dieser Milchleistungsprüfungsdaten zu treffen. Dafür werden maschinelle Lernverfahren angewendet, im Speziellen Multi-Label- und binäre Klassifikationsverfahren. Die genutzten Klassifikatoren umfassen Multi-Layer Perzeptrone, Naive Bayes-Klassifikatoren sowie Support Vector Machines mit verschiedenen Kernels. Die Vorhersagen werden mit Konfusionsmatrizen und den dazugehörigen Evaluationsmaßen ausgewertet und verglichen.
Diese Arbeit präsentiert ein Protokoll für vertrauliche Transaktionen auf Ethereum, das auf einer kontenbasierten Struktur und Paillier-Verschlüsselung basiert. Die Integration von Non-Interactive Zero-Knowledge Range Proofs (NIZKRP) verbessert die Sicherheit. Die Implementierung und Tests auf Ethereum zeigen vergleichbare Transaktionskosten (Sicherheitsparameter 40) im Vergleich zu Protokollen mit Bulletproofs. Bei einem Sicherheitsparameter von 128 (NIZKRP-Empfehlung) ist das Protokoll jedoch nicht anwendbar. Die Arbeit betont die Effizienz und Wettbewerbsfähigkeit, hebt jedoch die Herausforderung bei höheren Sicherheitsparametern hervor. Das Protokoll bildet eine solide Grundlage, erfordert jedoch weitere Optimierungen für breitere Anwendbarkeit.
Die vorliegende Bachelorarbeit gibt einen Überblick über die aktuellen Konzepte modularer Programmierung und deren Umsetzung mit JavaScript. Hierfür werden einige JavaScript Frameworks für die Erstellung einer einfachen clientseitigen Anwendung geprüft und unter verschiedenen Kriterien ausgewertet. Als Basis dieser Arbeit dienen Fachliteratur, die Dokumentation der jeweiligen Frameworks und die persönlichen Erkenntnisse und Erfahrungen des Authors. Der Verfasser erhofft sich dadurch einen Erkenntnisgewinn zur sauberen und modularen Programmierung mit JavaScript und wie diese bei kleinen und clientseitigen Anwendungen durch Frameworks erleichtert werden kann.
Die vorliegende Arbeit befasst sich mit der Kombination der digitalen Forensik mit dem Organisationsziel des Datenschutzes. Es wird untersucht, wie forensische Arbeiten im Rahmen der bestehenden Datenschutzgesetze anzusiedeln sind. Dafür werden die gesetzlichen Grundlagen, welche in Deutschland gelten, thematisiert sowie wird in einem praktischen Beispiel das Auskunftsrecht bei einem sozialen Netzwerk wahrgenommen und die erhaltenen Daten analysiert. Des Weiteren wird in dieser Arbeit dargestellt, welche forensischen Hilfstools und Methoden angewandt werden können, um Datenschutzverletzungen oder das datenschutzkonforme Arbeiten eines Verantwortlichen nachweisen zu können.
Die vorliegende Arbeit analysiert Monitoringdaten der photo-biologischen Wasserstoffproduktion sowie Nitrogenase- und Hydrogenaseaktivät anhand von Genexpressionsprofilen mit Rhodobacter sphaeroides Stamm 2.4.1. Die Kultivierung erfolgte mit verschiedenen Nährmedien (Referenzmedium, Ananasmedium, Traubenmedium) sowie unter anaeroben Bedingungen. Anhand eines Monitoring, der Wachstumsparameter sowie der Untersuchung von Genexpressionsprofilen konnten Rückschlüsse auf die Optimierung der Wasserstoffsynthese gezogen werden.
Ziel dieser Arbeit ist die Entwicklung eines Konzepts und einer Erstimplementation zur Benutzerdatenerfassung, um verschiedene Digitalisierungsprozesse messen zu können. Die durch die Benutzerdatenerfassung gesammelten objektiven Interaktionsdaten sollen weitere Daten, wie z. B. eine Benutzerakzeptanzstudie bei einer vergleichenden Evaluation von Prozessen zur Dokumentenerfassung hinsichtlich der Benutzbarkeit ergänzen und unterstützen.
Footage of organoids taken by means of fluorescence microscopy and segmented as well as triangulated by image analysis software like LimeSeg and Mastodon often needs to be visualized in aesthetic manner for presentation of the results in scientific papers, talks and demonstrations. The goal of this work was to create a simple to use addon “Biobox” for the open source 3D – visualization package “Blender” which would allow to import triangulated 3D data with animation over time (4D), produced by image analysis software, and optimize it for efficient usage. ”Biobox” offers several visualization tools for the creation of rendered images and animation videos by biologists.
The optimization of imported data was performed by using Blender intern modifiers. The optimized data can then be visualized by using several tools built for visualizing the organoid in frozen, animated and semi-transparent manners. A dynamic link for object selection and dynamic data exchange between Blender and Mastodon was developed. Additionally, a user interface was developed for manual correction errors of segmentation and steering the object detection algorithms of LimeSeg. The benchmark of the developed addon “Biobox” was performed on real scientific data. The benchmark test demonstrated that developed optimization result in significant (~5 fold) decrease of RAM usage and acceleration of visualization more than 160 times.
Die Arbeit beschäftigt sich mit der Weiterentwicklung eines LIMS für die AUD-GmbH in Chemnitz. Als Orientierung dient eine vorangegangene Bachelorarbeit („Entwicklung eines Plans für ein LIMS auf Grundlage des Baukastensystems Nuclos“ von Florian Quellmalz), welche sich mit einem ähnlichen Thema beschäftigt hat. Mithilfe des Open Source Programms „Nuclos“ soll die Grundlage für ein funktionierendes LIMS geschaffen werden. Hierfür werden Informationen über Datenbankerstellung, die internen Laborprozesse und relevante Arbeitsschritte gesammelt, verarbeitet und anhand dessen in das LIMS einbezogen.
Es wurde zum einen ein IgG-ELISA zum spezifischen Nachweis von Anti-Dengue-Antikörpern in humanen Seren entwickelt und optimiert mit dem Schwerpunkt einer besseren Spezifität im Vergleich zu bereits auf dem Markt befindlichen ELISA-Tests. Zum anderen wurde eine real-time-PCR zum Nachweis von Dengueviren in humanen Seren mit gleichzeitiger Serotypenbestimmung entwickelt und optimiert
Es wurden laborbezogene Referenzbereiche für 25-Hydroxyvitamin D für Kinder und Jugendliche sowie Erwachsene erstellt. Für Erwachsene wurden zusätzlich laborbezogene Referenzbereiche mit Berücksichtigung der Jahreszeiten ermittelt. Des Weiteren wurde je 50 Patienten mit toxischen 25-Hydroxyvitamin D-Konzentrationen sowie 50 Patienten mit einem manifestierten Mangel analysiert.
Die Bachelorarbeit befasst sich mit dem Zeitmanagement von sieben ausgewählten CITO-Parametern. Besonders liegt dabei der Schwerpunkt auf der Analyse der Zeiten der eiligen CITO-Parameter, welche anhand ausgewählter statistischer Methoden erfolgt. Dazu gehört die Auswertung der Ankunftszeiten der Blutproben, der Turn-Around-Zeiten dieser Proben im Labor und der wöchentlichen Mediane der Turn-Around-Zeiten, sowohl in Form eines Diagramms, als auch mithilfe eines Boxplots, mit dem die Durchlaufzeiten innerhalb eines Monats noch besser visualisiert werden können. Um störende Faktoren innerhalb des Labors zu erkennen, wird der Laborablauf einer Probe analysiert und die Aufenthaltsdauer ausgewählter Stichproben an den verschiedenen Laborarbeitsplätzen verfolgt. Darüber hinaus werden die CITO-Parameter mit den täglich längsten Turn-Around-Zeiten genauer überprüft, wodurch sich ebenso Gründe für verlängerte Zeiten finden lassen. Anhand der statistischen Auswertung wird es möglich, Optimierungsvorschläge zu finden, die besonders den Laborablauf der eiligen Blutproben in Zukunft verbessern können.
The loss of photoreceptors is a major course for visual impairment and blindness with no cure currently established. Photoreceptor replacement into mouse models of retinal degeneration is currently investigated as a potential future therapy. To evaluate visual function in mice before and after treatment two vision-based behavioral tests (optomotor tracking and the light/dark box) were investigated including their feasibility to distinguish between rod and cone photoreceptor function. Both methods turned out to be an objective and reliable readout for vision ability in wildtype mice and mice with vision impairment due to retinal degeneration. The capability of the methods to assess slight vision improvements have to be further evaluated.
Therefore options for improvement of the established tests and an idea for a new test paradigm have been introduced.
Konzept, Entwurf und prototypische Implementierung einer Web-Oberfläche für einen Roboadvisor
(2020)
Die vorliegende Arbeit thematisiert die prototypische Entwicklung einer Web-Oberfläche zur Datenpflege für das Unternehmen Franke-Media.net. Im Zuge der Entwicklung wurde ein/e Datenformular/Eingabemaske nach Anforderungen der zuständigen Fachredaktion und eine Navigationsoberfläche nach den Anforderungen des Unternehmens geschaffen. Anschließend wurde die Web-Oberfläche nach zwei Methoden des Usability-Testings getestet und evaluiert. Im Verlauf der Arbeit wird auf Grundwissen über Finanzdienstleistungen, Vergleichsportale und Web-Anwendungen eingegangen. Es werden zudem verschiedene Techniken zum Erreichen des Ziels betrachtet. Anschließend folgen die Konzipierung und das Erstellen einer ersten prototypischen Oberfläche. Den Abschluss der Arbeit bilden die Usability-Tests sowie die Auswertung der Ergebnisse dieser.
Aufgrund der unvorhergesehenen Corona-Krise, dadurch entstandener Komplikationen und den daraus resultierenden zeitlichen Problemen konnten nicht alle Funktionen implementiert werden.
Die Erkenntnisse und Ergebnisse der Bachelorarbeit dienen als Ausblick für darauf auf-bauende Arbeiten.
In dieser Arbeit wird die Entwicklung einer Anwendung für das mobile Betriebssystem Android beschrieben, welche zwei Verfahren für die Berechnung der Entfernung zu einem kreisförmigen Marker implementiert. Hierfür werden Kernbestandteile der Auswertung von Kameradaten auf der Android-Plattform mit der OpenCV-Bibliothek erläutert und deren Einsatz in der Anwendung dargestellt. Die beiden Verfahren werden hinsichtlich ihrer Genauigkeit und Anwendbarkeit auf die mobile Plattform verglichen und ausgewertet.
In dieser Arbeit wird die Entwicklung einer Client-Server-Infrastruktur für die probabilistische Privacy Preserving Record Linkage (PPRL) vorgestellt. Ziel ist die Integration der entwickelten Dienste in eine Implementierung des Personal Health Train. Die Anwendbarkeit wird anhand von Fallbeispielen demonstriert und die Toleranz des PPRL-Ansatzes gegenüber kleinen Fehlern zwischen sonst übereinstimmenden Datensätzen hervorgehoben. Das Ergebnis ist eine robuste PPRL-Infrastruktur für den Einsatz in der verteilten Datenanalyse.
Im Rahmen dieses Bachelor-Projektes soll ein Live-System zur sicheren Erstellung von Cold Storage Wallets entwickelt werden. Hierfür wird zunächst der Prozess mit bisherigen Mitteln umfassend analysiert. Ausgehend davon, werden Anforderungen für eine Lösung im Hinblick auf Sicherheit, Benutzerfreundlichkeit und Erweiterungsmöglichkeiten ausgearbeitet. Die Anforderungen umfassen sowohl die technischen Eigenschaften des Betriebssystems, als auch die Software, die mit dem Live-System ausgeliefert werden soll. Diese muss quell-offene Werkzeuge zur sicheren Generierung der kryptografischen Schlüssel für gängige Kryptowährungen beinhalten. Die Auswahl soll durch eine Überprüfung der verfügbaren Werkzeuge erfolgen. Auf der Basis dieser Anforderungen wird ein entsprechendes Live-System entwickelt. Abschließend werden eventuelle Probleme und Verbesserungsmöglichkeiten dargestellt.
Diese Masterarbeit zeigt einen Ansatz zur Vorhersage von Zugverspätungen mit Hilfe von Supervised Learning. Dazu werden Modelle mit verschiedenen Algorithmen getestet und miteinander verglichen. Außerdem wird gezeigt, wie das entwickelte Vorhersagemodell in eine Blockchain-Anwendung integriert werden kann.
DropConnect (the generalization of Dropout) is a very simple regularization technique that was introduced a few years ago and has become extremely popular because of its simplicity and effectiveness. In this thesis, a suitable architecture for applying DropConnect to Learning Vector Quantization networks is proposed along with a reference implementation and experimental results. Inmany classification tasks, the uncertainty of themodel is a vital piece of information for experts. Methods to extract the uncertainty and stability using DropConnect are also proposed and the corresponding experimental results are documented.
Erzeugung eines 3D-Lungengewebemodells mithilfe einer Luft-Flüssigkeits-Grenzflächen-Zellkultur
(2023)
Die vorliegende Bachelorarbeit befasst sich mit der Etablierung und Entwicklung eines dreidimensionalen Lungengewebemodells auf Grundlage einer Luft-Flüssigkeits-Grenzflächen- Zellkultur. Das In-vitro-Modell sollte die Grenzfläche zwischen dem luftgefüllten Raum der Lungenbläschen und dem Blut innerhalb der Kapillaren rekonstruieren. Für die Nachbildung des Lungenepithels kamen die Lungenkarzinomzelllinie A549 und die humanen primären Bronchialepithelzellen HBEpC zum Einsatz. Das Endothelgewebe wurde mit der somatischen Hybridzelllinie EA.hy926 und den Primärzellen HUVEC rekonstruiert. Die Eignung des entwickelten Modells wurde anhand der Ausbildung einer epithelialen Barrierefunktion sowie der Reaktion auf die Zugabe des Transforming Growth Factors 1 (TGF-β1) bewertet. Während der Etablierung wurde der Einfluss der Kokultivierung auf die epitheliale Barriere untersucht. Des Weiteren wurden verschiedene, kommerziell verfügbare Medien für die Air-Liquid-Interface-Kultur (ALI-Kultur) getestet. Als Anhaftungssubstrat für die Zellen wurden verschiedene Präparationen des extrazellulären Matrix-Proteins Kollagen eingesetzt. Die Kultivierung von Zellen an der Luft-Flüssigkeitsgrenze führte zur Expression spezieller Markergene, die mithilfe von Immunfluoreszenz und einer quantitativen Real-Time PCR quantifiziert wurden. Die Atembewegung ist für die Differenzierung ebenfalls essentiell und somit wichtiger Bestandteil zukünftiger und aussagekräftiger Lungen-in-vitro-Modelle. Diese mechanische Stimulation konnte unter Zuhilfenahme des vom Fraunhofer Institutes (IWS) entwickelten MPSstimulus realisiert werden, sodass es möglich war erste Untersuchungen zur zyklischen, physiologischen und mechanischen Dehnung von Lungenzellen durchzuführen.
Die vorliegende Arbeit befasst sich mit der Analyse der Verbindungen zur Blockchain-Technologie und der künstlichen Intelligenz. Das Hauptziel ist, neue Bereiche der beiden Technologien zu beschreiben und zu erklären. Zuerst werden inhaltliche Fragen und Erklärungen für ein besseres Verständnis der beiden Technologien erläutert. Des Weiteren werden gemeinsame Einsatzszenarien, sowie dessen Realisierung betrachtet. Zuletzt werden Vor- und Nachteile, sowie eine Zukunftsprognose der Blockchain-Technologie und der künstlichen Intelligenz aufgestellt.
Die Bachelorarbeit befasst sich mit dem Phänomen der kryptierten Kommunikation. Diese wurde vor allem im Bereich des organisierten Betäubungsmittelhandels sowie -schmuggels zur Planung von Straftaten genutzt. Zunächst werden die Grundlagen im Bereich der Organisierten Kriminalität sowie des Rauschgifthandels und -schmuggels in Deutschland vermittelt. Anschließend wird auf die drei Anbieter Anøm, EncroChat und Sky ECC, die aktuell ausgewertet werden, eingegangen. Hierbei wird unter anderem die Datenerhebung dargestellt und eine Diskussion über die aktuell bestehende Beweiszulassung vor Gericht durchgeführt. Abschließend werden die Einflüsse der Kryptohandys sowie die polizeilichen Ermittlungserfolge dargelegt. Die Bachelorarbeit wird in Bezug auf die folgende These bearbeitet: „Kryptohandys weisen einen signifikanten Einfluss auf den Betäubungsmittelhandel im Bereich der organisierten Kriminalität in Deutschland auf und gelten in den meisten Fällen als wichtigstes Tat- sowie Beweismittel“.
Im Rahmen der zwölfwöchigen Bearbeitungszeit wurde in dieser Bachelorarbeit die Analyse und das Zeitmanagement von Routineparameter in unserem Labor, labopart – Medizinische Laboratorien in Chemnitz, getätigt. Ziel war es durch statistische Erfassungen und intensive Mitarbeit, die Notwendigkeit der Anschaffung neuer Analyzer sowie weitere Optimierungsgründe finden und beschreiben zu können.
In the following study the properties of the superabsorbent polymer Broadleaf P4 were investigated according to the aim to apply that polymer within constructed wetlands. The application of the polymer in constructed wetlands shall result in an improvement of the removal of pesticides. For that the polymer was given into lab-scale wetlands together with pumice and were compared to a control wetland, which was filled with gravel. The wetlands were running for several weeks in which the nutrient removal was recorded. The polymer was also tested according to its property to adsorb the pesticides before adding the pesticides to the wetland beds.
To investigate the effects of climate change on interactions within ecosystems, a microcosm experiment was conducted. The effects of temperature increase and predator diversity on Collembola communities and their decomposition rate were investigated. The predators used were mites and Chilopods, whose predation effects on several response variables were analysed. This data included Collembola abundance, biomass and body mass as well as basal respiration and microbial biomass carbon. These response variables were tested against the predictors in several models. Temperature showed high significance in interaction with mite abundance in almost all models. Furthermore, the results of the basal respiration and microbial biomass carbon support the suggestion of a trophic cascade within the animal interaction.
Einfluss der Trauma-Zytokine TNFa, IL-6 und EPO auf das Transkriptom mesenchymaler Stammzellen
(2022)
Mit den Trauma-Zytokinen IL-6, TNFα & EPO wurde der Einfluss auf das Transkriptom mesenchymaler Hautstammzellen untersucht. Dabei wurde sich vor allem auf die Expression krebsassoziierte Gene konzentriert und untersucht, ob EPO möglichweise eine Verringerung der Expression solcher Gene hervorruft. Dazu hat man das Transkriptom von Zellen sequenziert, die unter Einfluss der Zytokinen in verschiedenen Zusammensetzung standen. Mithilfe einer differentiellen Expressionsanalyse (DE) konnte eine erhöhte Menge an RNA sowie erhöhte Expression von krebsassoziierten in den Zellen unter Einfluss der Zytokine festgestellt werden. Zellen, denen neben TNFα, IL-6 das Zytokin EPO hinzugegeben wurden, zeigten keine Verringerung krebsassoziierter Gene auf. Außerdem konnte eine Reaktion der Zellen auf eine durch TNFα und IL-6 simulierte Immunreaktion festgestellt werden. Auch Gene, die für Hautzellen eher untypisch sind, und somit noch einen unspezifischen Differenzierungsgrad der Stammzellen aufzeigen, konnten identifiziert werden.
Die vorliegende Arbeit untersucht, wie eine Ontologie mobile Kommunikation für forensische Auswertungen abbilden kann und welche Chancen sich aus dieser Art von Repräsentation ergeben. Prinzipiell stellen Ontologien einen Lösungsansatz für die wachsenden Herausforderungen im Bereich der digitalen Forensik dar. Vor allem die Heterogenität und stark zunehmende Menge der auszuwertenden Daten stellt die Strafverfolgungsbehörden vor Probleme. Forensische Tools unterstützen bei der Extraktion und Analyse von Daten. Allerdings weisen sie in bestimmten Aspekten ihre individuellen Grenzen auf. Ontologien ermöglichen dabei die Interoperabilität zwischen forensischen Tools und somit die Kombination der jeweiligen Vorteile von diesen Tools. Somit können insbesondere (Teil-)Automatisierungen im Ermittlungsprozess realisiert werden, was zur Ersparnis von Zeit und Ressourcen führt. Darüber hinaus lassen sich anhand von Ontologien logische Schlussfolgerungen herleiten und weitere Methoden aus dem Bereich der künstlichen Intelligenz anwenden. Diese Arbeit verwendet die CASE-Ontologie als Grundlage zur Entwicklung einer Ontologie, welche mobile Kommunikation im Kontext forensischer Untersuchungen repräsentiert. Darüber hinaus wird im experimentellen Teil der Arbeit das Datenmodell einer forensischen Plattform zur Auswertung mobiler Kommunikation auf die entworfene Ontologie abgebildet. Zusätzlich wird ein semantischer Webserver prototypisch aufgesetzt, um einen Anwendungstest der Ontologie durchführen zu können.
Die vorliegende Bachelorarbeit befasst sich mit den Datenbanken, die durch verschiedene Applikationen einzelnen Hersteller von Fitness-Trackern auf dem Mobiltelefon gespeichert werden.
Das Ziel dieser Arbeit besteht darin, den Speicherort der Datenbanken im Mobiltelefon zu lokalisieren und diese anschließend auszuwerten. Die Auswertung erstreckt sich auf die Erforschung des Aufbaus der einzelnen Datenbanken und das Verstehen eventueller angewandter Verschlüsselungsmethoden. Es werden Grundlagen forensischer Arbeitsweisen skizziert und anhand dieser verschiedene Datenbanken von drei Applikationen auf einem Mobiltelefon untersucht. Zum Abschluss dieser Arbeit werden die Erkenntnisse dargelegt, welche aus den Daten gewonnen wurden und diese in den Kontext einer forensischen Sonderuntersuchung gesetzt.
Automatisierte Detektion von Minutien und Bestimmung der Grundmuster von Fingerabdrücken mittels der Methoden Crossing Number Concept und Template Matching sowie Vergleich verschiedener Vorverarbeitungsarten in der Software MATLAB. Zunächst werden die Grundmuster der Fingerabdruckbilder mittels MATLAB bestimmt und mit den tatsächlich vorhanden Grundmustertypen in den jeweiligen Fingerabdrücken abgeglichen. Danach werden Gabel-Minutien in den ausgedünnten Papillarlinienbildern der Fingerabdrücke mittels MATLAB detektiert. Hierbei kommen das Crossing Number Concept und das Template Matching Verfahren zur Anwendung. In jedem Verfahren wird die Precision berechnet und die Methoden untereinander verglichen. Zuletzt wird analysiert, wie sich Änderungen in den Vorverarbeitungsschritten der Fingerabdruckbilder auf das Papillarlinienbild auswirken.
Moderne Echtzeit 3D-Grafik und die menschliche Wahrnehmung haben die Gemeinsamkeit in ihrem jeweiligen Aufbau sehr komplex, sowie von vielen Faktoren abhängig zu sein. So umfangreich die Darstellungsmöglichkeiten im heutigen Echtzeitrendering jedoch sind um realistische und interaktive Grafik zu erzeugen, so vielfältig sind auch die
Sehgewohnheiten derer Betrachter. Denn dessen Wahrnehmung entscheidet letztlich darüber was als realistisch angenommen wird. Technische Entwicklungen und Wahrnehmung bedingen jedoch auch einander, und gehen mit dem Wandel der Zeit. Einst unerwünschte Bildfehler aus der Fotografie markieren seit jüngster Vergangenheit ein wichtiges visuelles Element aktueller Echtzeitgrafik. Eine mögliche Realismus-Steigerung dieser Bildfehler soll insofern einerseits hinterfragt, und andererseits hinsichtlich derer Wahrnehmungswirkung auf Betrachter untersucht werden.
Ziel der Arbeit ist die Analyse des Skelettmaterials, welches in den 1930er Jahren in Görzig aufgefunden wurde. Das Material wurde auf die Römische Kaiserzeit und Völkerwanderungszeit datiert. Es wurden die Handknochen ausgewählter Individuen untersucht, um das Geschlecht zu bestimmen und eine Körperhöhen- und Altersschätzung vorzunehmen. Die Arbeit soll mit den bereits erstellten Arbeiten zum Material verglichen werden.
Many companies use machine learning techniques to support decision-making and automate business processes by learning from the data that they have. In this thesis we investigate the theory behind the most widely used in practice machine learning algorithms for solving classification and regression problems.
In particular, the following algorithms were chosen for the classification problem: Logistic Regression, Decision Trees, Random Forest, Support Vector Machine (SVM), Learning Vector Quantization (LVQ). As for the regression problem, Decision Trees, Random Forest and Gradient Boosted Tree were used. We then apply those algorithms to real company data and compare their performances and results.
Weltweit sind oberflächliche Pilzinfektionen weit verbreitet. Diese äußern sich in Rötungen, Schuppungen und Juckreiz und sind belastend für jeden Betroffenen. In dieser Arbeit werden Pilzproben aus Bangladesch untersucht, um diese auf molekularer Ebene zu identifizieren. Dazu wurden Methoden, wie Kultivierung und Sequenzierung angewandt. Weiterhin wurden alle Kulturen auf Antimykotika getestet, um bei möglichen Resistenzen eine patientenspezifische Behandlung ermöglichen zu können. Darüber hinaus wurde ermittelt, durch welche genetischen Änderungen die Resistenzen verursacht werden. Dies erfolgte durch die Sequenzierung bestimmter Gene der Dermatophyten-DNA.
In this master thesis, we define a new bivariate polynomial which we call the defensive alliance polynomial and denote it by da(G; x; y). It is a generalization of the alliance polynomial and the strong alliance polynomial. We show the relation between da(G; x; y) and the alliance, the strong alliance, the induced connected subgraph polynomials as well as the cut vertex sets polynomial. We investigate information encoded about G in da(G; x; y). We discuss the defensive alliance polynomial for the path graphs, the cycle graphs, the star graphs, the double star graphs, the complete graphs, the complete bipartite graphs, the regular graphs, the wheel graphs, the open wheel graphs, the friendship graphs, the triangular book graphs and the quadrilateral book graphs. Also, we prove that the above classes of graphs are characterized by its defensive alliance polynomial. We present the defensive alliance polynomial of the graph formed of attaching a vertex to a complete graph. We show two pairs of graphs which are not characterized by the alliance polynomial but characterized by the defensive alliance polynomial.
Also, we present three notes on results in the literature. The first one is improving a bound and the other two are counterexamples.
Die Lern- und Gedächtnisforschung gehört zu den wichtigsten Forschungsgebieten. Die Neusynthese von Proteinen, welche im Laufe des Alterungsprozesses abnimmt, spielt dabei eine wichtige Rolle für die Lernprozesse. Für die Proteinbiosynthese ist der eukaryotischer Elongationsfaktor 2 (eEF2)-Signalweg essentiell. Dieser ist für die Regulation des eEF2 verantwortlich. Der eukaryotische Elongationsfaktor 2 liegt im Alter vermehrt in der inaktiven Form vor, was ein potenzieller Grund für die verminderte Proteinbiosyntheserate sein könnte. Mögliche Untersuchungsansätze bieten hierfür bestimmte Pharmaka die einen Einfluss auf den eEF2-Signalweg haben. Aber auch andere Wirkstoffe, die keinen Einfluss auf den eEF2-Signalweg haben, könnten für die Proteinsynthese förderlich sein.
In dieser Arbeit wurden ausgewählte Wirkstoffe und deren möglicher Einfluss auf die Proteinsynthese sowie den Alterungsprozess auf Neuronenkulturen untersucht. Dies geschah mittels der Immunozytochemie/ Immunofluoreszenz, bioorthogonal non-canonical amino acid tagging (BONCAT) und fluoreszent non-canonical aminoacid tagging (FUNCAT) sowie der Western-Blot Analyse. Für diese Arbeit wurden unterschiedlich lang kultivierte primäre kortikale Neuronenkulturen verwendet.
Die in dieser Arbeit aufgelisteten Ergebnisse zeigen, dass die eingesetzten Wirkstoffe einen bestimmten Effekt auf die verwendeten primären kortikalen Neuronenkulturen besitzen. Weiterhin wurden in den 60 Tage alten Neuronen ein erhöhtes Signal de novo synthetisierter Proteinen in den dendritischen Spines festgestellt.
Jedoch war es mit den verwendeten Konditionen nicht möglich einen Eingriff in den eEF2-Signalweg aus zu üben. Nach den jeweiligen Stimulationen der eingesetzten Wirkstoffe, kam es weder zu einer Veränderung des eEF2-Signalwegs noch zu einer großen Veränderung der Proteinbiosynthese.
Diese Arbeit zeigt, dass die eingesetzten Wirkstoffe einen eventuell erhöhten Informationsaustausch bewirken. Des Weiteren wurde die Hypothese der im Alter abnehmenden Proteinbiosynthese bekräftigt.