Refine
Document Type
- Bachelor Thesis (76)
- Master's Thesis (31)
- Diploma Thesis (1)
Year of publication
- 2022 (108) (remove)
Keywords
- Computersicherheit (12)
- Maschinelles Lernen (11)
- Softwareentwicklung (8)
- Computerforensik (7)
- Forensik (6)
- Blockchain (5)
- Fotogrammetrie (5)
- Kryptologie (4)
- Virtuelle Währung (4)
- Android <Systemplattform> (3)
Institute
- Angewandte Computer‐ und Biowissenschaften (108) (remove)
Diese Arbeit präsentiert einen forensischen Leitfaden zu Spezialverfahren der Datenrettung von Festplatten unter Nutzung des PC-3000 Express Systems. Die Grundlage bilden essentielle Informationen rund um eine Festplatte und die Bedienung des PC-3000 Express Systems. Anschließend wird ein in drei Teile gegliederter forensischer Leitfaden vorgestellt, der dem Leser mit jeder Unterteilung eine Konkretisierung auf das Thema Spezialverfahren der Datenrettung von Festplatten präsentieren soll. Auf der Grundlage des forensischen Leitfadens werden im Anschluss zwei Festplatten untersucht und mit Hilfe des PC-3000 Express Systems und kompatiblen Ersatzteilspendern erfolgreich gesichert. Ziel der Arbeit ist es, einen zukünftigen Benutzer in die Arbeit mit dem PC-3000 Express System einzuführen. Dabei soll der Arbeitsablauf bei der Untersuchung einer Festplatte fest an den Ablauf einer forensischen Untersuchung gebunden sein. So kann unabhängig vom forensischen Tätigkeitsfeld sichergestellt werden, dass ein Benutzer zukünftig auftretende Probleme von Festplatten effektiv und lösungsorientiert handhaben kann.
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Die vorliegende Arbeit befasst sich mit dem Cybercrime-Phänomen Phishing. Durch die Analyse von echten Delikten im Bereich des Phishings wird betrachtet, inwieweit das Phänomen durch das Strafgesetzbuch erfasst wird. Dafür wird sich an Paragrafen orientiert, die aus der Cybercrime-Konvention hervorgegangen sind, beziehungsweise durch diese geändert wurden und dem Bereich Cybercrime im engeren Sinn zugeordnet werden können. Neben einer Definition des Begriffes Cybercrime werden eine begriffliche Einordnung des Phänomens Phishing vorgenommen und die Grundzüge dieses aufgezeigt. Anschließend wird mithilfe der Delikte erörtert, welche Tatbestandsmerkmale der einzelnen Paragrafen sich bei den Delikten detektieren lassen und inwieweit die Begehungsweise Einfluss auf die detektierbaren Tatbestandsmerkmale hat. Bei der Erörterung wird auch auf den Begriff Daten eingegangen und welche Definition diesem innerhalb der betrachten Paragrafen zugrunde liegt.
An einem Tatort lassen sich verschiedene Arten von Spuren finden. Die Blutspuren zählen dabei zu den wichtigsten. Sie lassen sich auf unterschiedliche Art und Weise analysieren. Eine Möglichkeit ist die Untersuchung des Blutalters, um beispielsweise Hinweise über den Zeitraum einer Tat zu erlangen. Schon seit dem 20. Jahrhundert suchen Wissenschaftler nach einer geeigneten Methode zum Ermitteln des Alters einer Blutspur. Bisher ist das aber noch keinem gelungen. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Schweineblut über einen Zeitraum von sechs Wochen bei gleichbleibenden Umwelteinflüssen untersucht. Im Vordergrund steht hierbei die alterskorrelierende Veränderung der Blutzusammensetzung. Das Hauptaugenmerk liegt vor allem auf den Peaks der Hämoglobinderivate und des Globins. Bei der Auswertung der Ergebnisse wurde festgestellt, dass all diese charakteristischen Hochpunkte auch nach sechs Wochen noch weiter ansteigen und sich somit die Zusammensetzung des Blutes weiterhin verändert.
Differentiation is ubiquitous in the field of mathematics and especially in the field of Machine learning for calculations in gradient-based models. Calculating gradients might be complex and require handling multiple variables. Supervised Learning Vector Quantization models, which are used for classification tasks, also use the Stochastic Gradient Descent method for optimizing their cost functions. There are various methods to calculate these gradients or derivatives, namely Manual Differentiation, Numeric Differentiation, Symbolic Differentiation, and Automatic Differentiation. In this thesis, we evaluate each of the methods mentioned earlier for calculating derivatives and also compare the use of these methods for the variants of Generalized Learning Vector Quantization algorithms.
Serielle Auswertung von Datensätzen einer Wildtierkamera mit dem Schwerpunkt Kennzeichendetektion
(2022)
Nummernschild- und Objektdetektion sind wichtige Bestandteile der Verkehrsüberwachung. Jedoch befassen sich die meisten Forschungsarbeiten zu diesen Themen mit der Detektion auf gut beleuchteten Bildern und nur wenige mit der Detektion auf sehr schlecht beleuchteten Aufnahmen. Diese Arbeit versucht, verschiedene Objektdetektionsalgorithmen auf schlecht beleuchteten Bildern zu vergleichen, sowie den Einfluss verschiedener einfacher Bildverbesserungsmethoden auf das Detektionsergebnis zu bewerten. Auf Grundlage dieser Ergebnisse wird anschließend eine Anwendung entwickelt, welche automatisiert Datensätze mehrerer Wildtierkameras auswertet, um diese zur einfacheren Verwendung zur Verfügung zu stellen.
Offensive Sprache im Internet ist ein stark diskutiertes Problem in sozialen Medien. Angriffe richten sich oftmals gegen Einzelpersonen, können aber auch auf Gruppen und andere Strukturen abzielen. Die Erkennung angreifender Inhalte funktioniert in vielen Ansätzen bereits sehr gut. Die Erkennung der Ziele hingegen ist bisher nur wenig erforscht. Die vorliegende Arbeit befasst sich mit der Aufarbeitung des aktuellen Forschungsstandes zu offensiver gerichteter Sprache, den Grundlagen derer Erkennung und dem Vergleich verschiedener Ansätze. Die Auswirkungen von Vorverarbeitung und Parametrisierung der Modelle werden analytisch diskutiert.
In dieser Bachelorarbeit wird ein E-Learning Kurs zum Kompetenzerwerb auf dem Gebiet der IT-Sicherheit konzipiert, implementiert und evaluiert. Dazu werden zunächst für Endnutzende relevante Themen der IT-Sicherheit identifiziert und die theoretischen Fundierungen für die Umsetzung als ein Web-based Training gelegt. Die Umsetzung des Konzeptes in einen Moodle-Kurs wird beschrieben. Es wird eine Evaluation der Usability des Kurses und des Lernerfolges durchgeführt.
Die vorliegende Arbeit befasst sich mit einem Vergleich zwischen nationalen und internationalen Verwendungsmöglichkeiten des Werkzeugs eDiscovery in der M365 Cloud. Dabei werden verschiedene technische Einschränkungen vorgestellt, welche die Datenschutzrechtlich konforme Nutzung dieses Werkzeuges ermöglich sollen.
Sequences are an important data structure in molecular biology, but unfortunately it is difficult for most machine learning algorithms to handle them, as they rely on vectorial data. Recent approaches include methods that rely on proximity data, such as median and relational Learning Vector Quantization. However, many of them are limited in the size of the data they are able to handle. A standard method to generate vectorial features for sequence data does not exist yet. Consequently, a way to make sequence data accessible to preferably interpretable machine learning algorithms needs to be found. This thesis will therefore investigate a new approach called the Sensor Response Principle, which is being adapted to protein sequences. Accordingly, sequence similarity is measured via pairwise sequence alignments with different sequence alignment algorithms and various substitution matrices. The measurements are then used as input for learning with the Generalized Learning Vector Quantization algorithm. A special focus lies on sequence length variability as it is suspected to affect the sequence alignment score and therefore the discriminative quality of the generated feature vectors. Specific datasets were generated from the Pfam protein family database to address this question. Further, the impact of the number of references and choice of substitution matrices is examined.
Die Arbeit beschäftigt sich mit der Entwicklung eines Policy-Konzepts zur Steuerung von Netzwerkverkehr an den Außengrenzen eines digitalen Raums. Um Ressourcen innerhalb des Raums zu schützen, definiert die Autorität des Raums mit Hilfe einer semantischen KI Kommunikationsziele. Diese müssen mit Hilfe des zu entwickelnden Policy-Konzepts den Grenzpunkten des Raumes mitgeteilt und dort umgesetzt werden Die Bachelorarbeit beschäftigt sich mit der Entwicklung des Policy-Konzepts und einer prototypischen Implementierung eines solchen Grenzpunktes.
Die vorliegende Arbeit untersucht eine Datenbank mit der Bezeichnung UsageReportsBuffer, die der Webbrowser Chrome auf Android-Geräten anlegt, sowie mögliche Implikationen für die digitalforensische Auswertung. Von besonderem Interesse sind die Fragen, welche Informationen nach welchen Regeln in der Datenbank abgelegt werden, welchem Zweck die Datenbank dient und ob der Nutzer des Gerätes Einfluss auf den Datenbestand nehmen kann. Die Untersuchung ergibt, dass die circa 100 zuletzt aufgerufenen URLs, sowie dazugehörige Zeitstempel gespeichert werden. Der Nutzer kann dieser Datenerhebung nicht widersprechen oder die Datenbank löschen. Die Aufzeichnung kann lediglich durch Verwendung der Inkognito-Funktion unterbunden werden. Jedoch wird die Datenbank von aktuellen Versionen der Chrome-Anwendung nicht mehr angelegt.
Im Zeitalter der zunehmenden Digitalisierung wird die analoge Dokumentation nach und nach aus allen Lebensbereichen verdrängt. Besonders im Bereich der Endoskopreinigung ist diese allerdings noch stark vertreten. Auch dort soll eine digitale Lösung entstehen, um den Arbeitsablauf zu vereinfachen und sicherer zu gestalten.
Diese Arbeit befasst sich mit der Entwicklung eines Clients zur Erfassung von manuellen Reinigungsschritten bei medizinischen Endoskopen. Es wird die Ausganssituation in Krankenhäusern beschrieben und dann auf Grundlage eines bereits existierenden Systems eine neue Lösung erarbeitet. Diese neue Software löst die Probleme, welche im Zusammenhang mit einer analogen Aufzeichnung dieser Reinigungsschritte entstehen. Der Entwicklungsprozess sowie das Endprodukt, in Form eines Webclients, wird hier beschrieben.
Die vorliegende Bachelorarbeit befasst sich mit dem konzeptionellen Aufbau und Werdegang während der Erstellung des Moduls ”Angewandte Datenanalyse” im datenanalytischen Kontext. Hierbei wird zu Beginn auf die grundlegenden Bereiche der Lehre, des Lernens und der Datenanalyse eingegangen. Diese Grundlagen sollen als Basis für das Verständnis der vorliegenden Analysen dienen. Anschließend werden bereits bestehende Module in ihrem Aufbau reflektiert und ihre Methoden analysiert, um herauszufiltern, welche Methoden für das Modul am besten geeignet sind. Im Anschluss wird eine Anforderungsanalyse erstellt, die die wichtigsten funktionalen und qualitativen Anforderungen an das neu entstehende Modul umfasst. Aus der Anforderungsanalyse hervorgehend wird das Grob- und das Detailkonzept umgesetzt, sowie die wichtigsten Inhalte aufgelistet. Um abschließend einen Ansatz zu erhalten, ob die jeweiligen Angaben ihre in sich stimmige Korrektheit besitzen, wird eine Evaluation durchgeführt. Anhand dieser wird kontrolliert, ob die jeweiligen Aufgabenstellungen den Anforderungen entsprechen, oder ob diese angepasst werden müssen. Am Ende der Bachelorarbeit wird ein allgemeines Fazit gezogen und gleichzeitig zukünftige Ansätze erläutert und wie mit der Umsetzung des Moduls weiter vorgegangen werden kann.
Ziel dieser Arbeit ist das Evaluieren der Klassifikationsfähigkeit eines MVCNN-Verfahrens am Teilproblem der Klassifikation von prozedural generierten, idealisierten Darstellungen von OCT-Scans. Zu diesem Zweck wird ein Tool für das Erstellen ¨solcher Szenen entwickelt sowie ein Algorithmus zur Volumenberechnung von sich überschneidenden Meshes, welcher für das automatische Labeling dieser Szenen verwendet wird.
Die einzelnen Phasen der Angriffe auf Computernetzwerke werden heute zunehmend mit speziell dafür konzipierter Software durchgeführt. Für die Aufrechterhaltung der Verbindung zum kompromittierten Netzwerk sind sogenannte Command & Control Frameworks ein gängiges Mittel. Ein Vertreter dieser Frameworks ist PowerShell Empire, welches hauptsächlich auf der Skriptsprache PowerShell von Microsoft basiert, die Angriffsziele jedoch nicht auf Windowssysteme beschränkt sind. In dieser Arbeit wird dieses Framework vorgestellt und Szenarien für den Einsatz aufgezeigt. Durch Untersuchung von Netzwerkmitschnitten, sollen zudem Erkennungsmerkmale zur Identifikation der Aktivität von Empire herausgearbeitet werden.
Das erste Ziel dieser Arbeit war es zu evaluieren, inwiefern in der Praxis mit Hilfe von zwei Photogrammetrie-Softwares Spurenträger mit sich stark unterscheidenden Oberflächen dreidimensional modelliert werden können und welche Auswirkungen die Ergebnisse auf die darauf befindlichen (Blut-) Spuren und damit der forensischen Nutzbarkeit haben. Es wurden dafür drei Objekte gewählt, welche aufgrund ihrer unterschiedlichen Oberflächen- und Textureigenschaften im photogrammetrischen Kontext in drei verschiedene Schwierigkeitsklassen unterteilbar sind. Zudem wurden alle Gegenstände mit passiven Blutspuren benetzt, um zu bewerten, inwiefern anhand der erzeugten Modelle in Hinblick auf die Qualität eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich ist. Um eine Gegenüberstellung einer frei verfügbaren und professionellen Photogrammetrie-Software in Bezug auf die Quali- und Quantität der Ergebnisse durchzuführen, wurde das kostenfreie Meshroom und als Gegenpol das kostenpflichtige Agisoft Metashape für die 3D-Modellie-rung der Objekte verwendet. Alle Spurenträger wurden zuerst mit den jeweiligen Standardeinstellungen der Softwares modelliert. Durch eine Abänderung der Standard-Pipelines wurde dann versucht die Modell- und Spurqualität maßgeblich zu verbessern. Für die 3D-Modellierungen wurde in beiden Softwares dasselbe Bildmaterial (inkl. Polfilteraufnah-men) genutzt.
Da an der Hochschule Mittweida beide zu evaluierenden Photogrammetrie-Softwares zur Verfügung stehen, war ein zweites Ziel dieser Arbeit Handlungsempfehlungen in Form von je einem Entscheidungsbaum pro Schwierigkeitsklasse ausgehend von den Ergebnissen zu formulieren, um die Auswahl der richtigen Software inklusive der Einstellungen bei der digitalen forensischen Sicherung von unterschiedlichen Objekten mit Blutspuren zu vereinfachen.
Zusammenfassend sollen in dieser Arbeit die folgenden vier Fragestellungen beantwortet werden:
▪ Können die 3D-Modelle der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares in Bezug auf ihre Modell- und Spurqualität durch eine Optimierung der Standard-Pipelines und der Bildaufnahme maßgeblich verbessert werden?
▪ Welche der beiden verwendeten Photogrammetrie-Softwares stellt die unterschiedlich schweren Objekte inklusive ihrer Blutspuren als 3D-Modell qualitativ hochwertiger und realistischer dar?
▪ Inwiefern ist anhand der Qualität der 3D-Blutspuren der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich? Wie genau sind die Vermessungen?
▪ Lassen sich ausgehend von den Erkenntnissen der ersten drei Fragestellungen all-gemeine Vorgehen für unterschiedlich schwere Spurenträger für die digitale forensische Spurensicherung formulieren?
Hass und Hetze im Netz haben in den letzten Jahren stetig zugenommen. Vor allem in den sozialen Medien sind Anfeindungen, Hass und Hetze immer dominanter geworden. Dies stellt auch die Strafverfolgungsbehörden vor neue Aufgaben. Um Verfasser von Hasskommentaren über soziale Netzwerke effektiver identifizieren zu können, nehmen Polizei und Justiz seit einiger Zeit die OSINT-Recherche (Open Source Intelligence) zu Hilfe. Hierfür durchsuchen die Ermittler digital das Profil oder die Profile der Verfasser von Hasskommentaren und sichern Informationen, welche zur Identifizierung der Personen führen können. Diese Arbeit soll aufzeigen, wie die OSINT-Recherche im Vergleich zu den Standardermittlungen einzuordnen ist. Außerdem soll untersucht werden, wie Hasskommentare im Netz klassifiziert werden können und welche Art von Informationen die Nutzer freiwillig im digitalen Raum veröffentlichen.
Durch Eindringen in die Wirtszelle kann sich das SARS-CoV-2-Virus verbreiten. Das adaptive Immunsystem bildet verzögert die humorale Immunantwort durch hochspezifische Antikörper aus. Die Antikörper neutralisieren das SARS-CoV-2. Im Laufe der Immunabwehr steigen die Antikörpertiter der verschiedenen Antikörperklassen unterschiedlich an. Mittels Serumproben sollte herausgefunden werden, wie der IgG-Titer nach einem positiven PCR-Ergebnis von der Zeit abhängig verläuft und ob es Unterschiede zwischen verschiedenen Geschlechtern und Altersklassen gibt. Für die Ermittlung der IgG-Titer wurden einmal der ELISA mittels Generic Assays CoV-2 IgG und einmal der CLIA mittels LIAISON® SARS-CoV-2 TrimericS IgG angewandt. Zudem fand eine Vergleichsmessung der Tests statt.
Im Allgemeinen stieg der Titer innerhalb der ersten 50 Tage an, da sich in dieser Zeit die IgG-Antikörper ab Tag 14 bilden, und erreichte das Maximum im Bereich 40-50 Tage. Danach fiel der Titer leicht bis auf 60 -70 % des Maximums, da die Antikörper nach und nach absterben.
Die Vergleichsmessung ergab einen linearen Zusammenhang von 64 % zwischen Generic Assays und LIAISON®. Bezogen auf die qualitative Aussage der Tests gab es eine 96 % Übereinstimmung der Ergebnisse.
Diese Arbeit behandelt, wie in einem rundenbasierten Strategiespiel ein System zur Integration linearen Missionsdesigns implementiert wurde. Es erlaubt, Missionen anzulegen und in Szenarien zu gruppieren, welche sich wiederum in einer Kampagne zusammenfassen lassen. Dabei können beliebig viele Kampagnen gleichzeitig existieren, ohne dass sich deren Inhalte überschneiden. Die Implementierung des Systems ist umfangreich beschrieben und wird mit relevanten Code-Beispielen veranschaulicht. Das Spiel wurde hinsichtlich der Player Experience, Usability und User Experience mit den Fragebögen MEEGA+ und AttrakDiff evaluiert. Eine Evaluation der User Experience mit AttrakDiff wurde auch für den zum Spiel gehörenden Inhaltseditor durchgeführt. Die dabei ermittelten Ergebnisse zeigen, dass beide Anwendungen von den Probanden grundsätzlich gut bis sehr gut wahrgenommen werden. Durch eine Detailanalyse der einzelnen Wertungen sowie dem zusätzlich gegebenen Feedback konnten Stärken und Schwächen identifiziert werden. Um die Schwachpunkte in zukünftigen Entwicklungsbestrebungen effizient bearbeiten zu können, sind passende Vorschläge und detaillierte Erklärungen der Ursachen beigefügt worden. Der Mehrwert des Kampagnensystems hinsichtlich wahrgenommener Qualität und Motivation wird durch einen Vergleich mit Evaluationsergebnissen einer früheren Version bewiesen. Diese wurden in dem dieser Arbeit vorangegangenen Forschungsmodul, in welchem die damalige Spielversion ebenfalls mit MEEGA+ evaluiert wurde, ermittelt. Zum Verständnis der Arbeit wird Vorwissen mit der Game Engine Unity sowie ihrer grundlegenden Konzepte, bspw. GameObjects und daran angebundene Komponenten, vorausgesetzt. Da an verschiedenen Stellen Bezug auf das Forschungsmodul sowie den darin erlangten Erkenntnissen genommen wird, ist die Konsultation des zugehörigen Abschlussberichtes empfehlenswert. Er liegt dieser Arbeit als digitale Anlage F bei.
Studying and understanding the metabolism of plants is essential to better adapt them to future climate conditions. Computational models of plant metabolism can guide this process by providing a platform for fast and resource-saving in silico analyses. The reconstruction of these models can follow kinetic or stoichiometric approaches with Flux Balance Analysis being one of the most common one for stoichiometric models. Advances in metabolic modelling over the years include the increasing number of compartments, the automation of the reconstruction process, the modelling of plant-environment interactions and genetic variants or temporally and spatially resolved models. In addition, there is a growing focus on introducing synthetic pathways in plants to increase their agricultural potential regarding yield, growth and nutritional value. One example is the β-hydroxyaspartate cycle (BHAC) to bypass photorespiration. After the implementation in a stoichiometric C3 plant model, in silico flux analyses can help to understand the resulting metabolic changes. When comparing with in vivo experiments with BHAC plants, the metabolic model can reproduce most results with exceptions regarding growth and oxaloacetate. To evaluate whether the BHAC is suitable to establish a synthetic C4 cycle, the pathway is implemented in a two-cell type model that is capable of running a C4 cycle. The results show that the BHAC is only beneficial under light limitation in the bundle sheath cell. An additional engineering target for improved performance of plants is malate synthase. This work serves as the basis for further analyses combining the different factors boosting the advantages of the BHAC and for in vivo experiments in C3 and C4 plants.
Die vorliegende Arbeit beschäftigt sich mit der Analyse, Konzeption, Implementation und Evaluation eines dezentralen Feedback-Systems für die Blockchain Academy Mittweida. Es wurde nach einer Lösung gesucht, das Feedback für die angebotenen Kurse auf der Seite der Blockchain Academy Mittweida erfassen zu können. Dabei sollte die Anonymität des Nutzers stets gewahrt bleiben, jedoch für den Betreiber die Möglichkeit gegeben sein, unberechtigtes oder doppeltes Feedback erkennen und aussortieren zu können. Diese Anforderungen konnten durch die Linkable-Ring-Signature gewährleistet werden. Bei diesem Verfahren kann der Nutzer stellvertretend für seine Gruppe eine Nachricht signieren. Der Betreiber kann überprüfen, ob eine signierte Nachricht aus dieser Gruppe stammt und ob es bereits eine Nachricht von einem Nutzer eingegangen ist, ohne die Anonymität des Nutzers aufzuheben. Das System wurde möglichst dezentral gestaltet, um keine zentrale Angriffsstelle bieten zu können und sicherheitsrelevante Teile abkapseln zu können. Es wurde ein Smart Contract angelegt, welcher die zum Signieren benötigten öffentlichen Schlüssel der Gruppenmitglieder eines Kurses bereithält. Die zweite Komponente stellt eine Browsererweiterung dar. Mit dieser kann der Nutzer sich in die Feedbackgruppe zu einem Kurs eintragen und seine Schlüsselpaare für die Signatur Generierung speichern lassen. Die dritte Komponente ist ein Plugin auf dem WordPress-System der Blockchain Academy Mittweida, mit welchem das Feedback auf Verknüpfbarkeit geprüft werden kann. Mittels eines funktionalen Testverfahrens und einer Probandengruppe wurde die erarbeitete Lösung untersucht. In beiden Fällen bestand die Lösung die an diese gestellten Anforderungen und wurde positiv von der Probandengruppe aufgenommen. Es wurde sich mehrheitlich für die vorgestellte Lösung und gegen eine Lösung mit einem Kennwort, welches der Nutzer eingeben muss, bevor er eine Umfrage ausfüllen kann, entschieden. Im Wintersemester 2022/2023 an der Hochschule Mittweida könnte die Anwendung zusammen mit dem Masterstudiengang Blockchain & Distributed Ledger Technologies (DLT) in einem größeren Praxistest eingesetzt und weiter erprobt und verbessert werden.
In dieser wissenschaftlichen Arbeit werden verschiedene Testverfahren vorgestellt und deren Umsetzungsmöglichkeiten mit der Applikation BFlow im Infor LN erläutert. Dabei werden zuerst verschiedene, ausgewählte Geschäftsprozesse innerhalb des Infor LN analysiert und anschließend mittels einer Ereignisgesteuerten Prozesskette grafisch dargestellt. Auf die Analyse folgt die Umsetzung dieser Prozesse mittels BFlow. Um die Aussagefähigkeit der verschiedenen Testarten feststellen zu können werden verschiedene Szenarien definiert und jeder Test für das dargestellte Szenario durchgeführt. Abschließend wird eine Schlussfolgerung, basierend auf den Ergebnissen der einzelnen Testdurchläufe, formuliert.
Im Rahmen dieser Arbeit wird das ZigBee Protokoll genauer untersucht. Dabei wird gezielt auf die häufigsten Angriffsmethoden eingegangen, welche anschließend bewertet werden. Die Bewertung erfolgt mittels eines in der Arbeit vorgestellten Bewertungsschemas mit einer anschließenden Einordnung in eine Bedrohungsmatrix. Zuletzt werden einige der Attacken in einem Experiment durchgeführt, um die theoretische Einordnung zu überprüfen.
Entwurf und Implementierung einer Importfunktion für XML-Dateien nach dem openTRANS®-Standard
(2022)
Um Geschäftsdokumente wie beispielsweise Aufträge digital zu repräsentieren, werden Standards benötigt, die die darin enthaltenen Informationen einheitlich darstellen. Einer dieser Standards ist openTRANS®.
Diese Arbeit befasst sich mit dem Entwurf und der Implementierung einer Importfunktion für Auftragsdaten, die in Form von openTRANS®-gerechten XML-Dateien vorliegen.
Diese Arbeit erläutert, wie automatisiert aus den derzeit gängigen Browsern - namentlich Internet Explorer, Microsoft Edge, Google Chrome, Mozilla Firefox sowie Opera, die Datenbanken aus forensischen Windows-Datenträgerkopien extrahiert werden können. Dabei werden diese Browser in dem Datenträgerabbild mittels Registry-Verweisen festgestellt und anschließend ihre Datenbanken aus den gängigen Pfaden extrahiert. Daraufhin werden alle Verläufe mittels einer dynamischen Liste gefiltert. Als Ergebnis entsteht ein neues Datenträgerabbild mit den enthaltenen Datenbanken der Browser. Das Ergebnis soll den Ermittlern Zeit bei der Durchsuchung der Browserdaten sparen, indem der Verlauf bereits gefiltert vorliegt.
Das Ziel dieser Arbeit ist es, einen Superabsorber (SAP), welcher auf Stärkebasis hergestellt wurde, auf seine leichte biologische Abbaubarkeit zu untersuchen. Durchgeführt wird dafür der OECD 301 F Test, da sich dieser auch mit schwer löslichen Substanzen anwenden lässt. Zusätzlich zum Abbau des SAP wurde auch der Abbau von reiner Stärke getestet, um diese miteinander vergleichen zu können. Bei dem Test 301 F handelt es sich explizit um den manometrischen Respirometer Test, welcher unter aeroben Bedingungen in Lösung stattfindet. Bei diesem wird der Druckunterschied gemessen, welcher sich durch das Atmen der Mikroorganismen, in Verbindung mit dem gleichzeitigen Binden des entstehenden Kohlenstoffdioxids, ausbildet. Die Ergebnisse zeigen, dass das SAP zwar keine Hemmende Wirkung auf die Referenzsubstanz Kaliumhydrogenphthalat zeigt, aber auch nicht leicht biologisch abbaubar ist. In den zwei durchgeführten Versuchen konnte ein maximaler biologischer Abbau von 16,33 % innerhalb der 28 Tage Testdauer nachgewiesen werden. Im Vergleich dazu erreichte die reine Stärke, in derselben Zeit, eine Abbaurate von 27,03 %. Somit sind beide Stoffe nicht leicht biologisch abbaubar, auch wenn sie sich bereits zum Teil abgebaut haben. Das SAP baut sich langsamer ab als die Stärke, was wohlmöglich an der zusätzlichen Vernetzung liegen könnte und das daraus folgende höher Molekulargewicht. Die Mikroorganismen können sich zwar auf dem SAP anlagern, aber nicht direkt abbauen durch die Vernetzung. Weitere entscheidende Faktoren für einen biologischen Abbau sind die Verwendeten Mikroorganismen, welche den Stoffabbauen und das System in dem getestet wird.
Im Kontext der Wissensvermittlung existieren vielseitige E-Learning Tools, die oft ein dediziertes Lehr-Lern-Szenario betrachten. Die zugrundeliegende Software konzentriert sich somit häufig auf einen spezifischen Bereich oder eine gesonderte Fragestellung, sodass eine Erweiterung des Angebots nicht ohne weiteres möglich ist. Es soll untersucht werden, welche serverseitigen Anforderungen ein System für die E-Learning-Domäne erfüllen muss, um keine derartigen Restriktionen aufzuweisen und gleichzeitig für den Einsatz verschiedener Szenarien der digitalen Lehre geeignet zu sein.
In dieser Bachelorarbeit wird ein Überblick über die Management- und Orchestrierungskomponente eines 5G Mobilfunknetzes sowie dafür relevante, zugrundeliegende Konzepte gegeben. Die Sicherheitsrelevanz des MANO-Systems wird anhand der Ergebnisse einer Risikoanalyse eingeordnet. Die daraus abgeleiteten Sicherheitsvoraussetzungen werden mit bereits bestehenden Zertifizierungs-Tests verglichen und somit herausgearbeitet, für welche Sicherheitsaspekte zukünftig ein MANO-spezifischer Zertifizierungstest erstellt werden muss. Um die Arbeit abzuschließen, wird ein beispielhafter Test-Entwurf vorgestellt, mit
welchem sich eine der noch offenen Sicherheitsvoraussetzungen überprüfen lassen könnte.
Die Aufgabe von Penetrationstestern ist es, Sicherheitslücken in IT-Systemen zu finden. Dieser Prozess kann innerhalb eines Pentest-Labors geübt werden. Das Ziel der Arbeit war es, ein Konzept zu erstellen, das ein solches Labor auf Basis von Cloud-Computing erstellt. Die Erstellung fand dabei nach einem fünfstufigen Vorgehen statt. Anforderungsanalyse, Evaluation eines Cloud-Providers und eines Automatisierungstools, Grundlagen der gewählten Lösungen, Konzeptionierung und Implementation. Ziel der Analyse war es, Anforderungen zu sammeln, das die Umgebung erfüllen soll. Hauptziel war es demnach einfach und mit minimalem Zeitaufwand verschiedene Infrastruktur-Szenarien zu erstellen. Ein solches Szenario war beispielsweise ein unsicheres Office Netzwerk. Auf diesen Forderungen aufbauend wurden verschiedene Cloud-Provider sowie Anbieter von Automatisierungstools verglichen und es wurde eine Entscheidung für je einen getroffen. Die Wahl fiel auf OpenStack als On-Premise Cloud-Lösung und Terraform als Tool, das automatisiert die Infrastrukturen erzeugen soll. Jene wurden in dem darauffolgenden Kapitel genauer vorgestellt und deren Funktion sowie Betrieb erläutert. Nachdem das Fundament für das Konzept gelegt war, erfolgte das Planen, was für verschiedenen Systeme für das Szenario des Office Netzwerk nötig waren. Dabei handelte es sich um Windows Server und Client, Linux Client und eine Metasploitable Maschine. Daraufhin folgte die Evaluation, wie diese Systeme bereitgestellt und bei Instanziierung konfiguriert werden sollen. Entschieden wurde sich für manuell erstellte Systemabbilder und zur Konfiguration das Tool Cloud-Init.
Abschließend wurde das Konzept an einem Prototyp, mit dem Ziel der Prüfung auf Fehlerfreiheit, umgesetzt. Die Implementation erfolgte ohne Probleme und das Labor stand mit dem geforderten Szenario, das innerhalb von 10 Minuten mit einem Befehl erstellt werden konnte, zur Verfügung. Zukünftige Arbeiten könnten das Konzept in einer Langzeitstudie auf eventuell auftretende Fehler hin prüfen. Zudem können weitere Szenarien und weitere Autmatisierungstools implementiert werden.
Ransomware ist eine Schadsoftware, die als Erpressersoftware Daten verschlüsselt und eine Lösegeldforderung stellt. Um Ransomware-Sample vor der Detektion zu schützen, werden sogenannte Packer eingesetzt. Dabei wird die schädliche Routine einer Ransomware gepackt und bei Ausführung automatisch entpackt. Während Ransomware in den letzten Jahren stark weiterentwickelt wurde, sind einige der Methoden zum Entpacken teilweise bedeutend älter. Diese Arbeit untersucht, inwiefern, mithilfe vom Einsatz von Debuggern, aktuelle Ransomware-Samples mit solchen Methoden entpackt werden können. Dafür wird zuerst recherchiert, welche gängigen Methoden zum Entpacken gepackter Schadsoftware unter Verwendung eines Debuggers bestehen. Diese Methoden werden auf eine Auswahl von aktuellen Ransomware-Samples angewendet und die Ergebnisse analysiert. Dadurch entsteht am Ende der Arbeit eine Übersicht darüber bestehen, mit welchen Methoden aktuelle Ransomware-Samples noch entpackt werden und somit Analysen von Ransomware unterstützen können.
Erstellung eines Autopsy-Moduls zum Erkennen und Carven von Dateien von Kryptowährungs Wallets
(2022)
Zum Erkennen und Carven von Dateien von Kryptowährungs-Wallets wird ein Autopsy-Modul erstellt und evaluiert. Dieses soll bei Electrum, Exodus, Firefly, Wasabi, Monero, Ledger Live, Guarda und den Browser-Erweiterungen Coinbase, Binance und MetaMask auf Untersuchungsdatenträgers nach relevanten Dateien suchen, auch wenn diese gelöscht sind oder das Dateisystem defekt ist. Dazu wird das in Autopsy verwendete PhotoRec um Signaturen erweitert.
Influenza A viruses are responsible for the outbreak of epidemics as well as pandemics worldwide. The surface protein neuraminidase of this virus is responsible, among other things, for the release of virions from the cell and is thus of interest in pharmacological research. The aim of this work is to gain knowledge about evolutionary changes in sequences of influenza A neuraminidase through different methods. First, EVcouplings is used with the goal of identifying evolutionary couplings within the protein sequences, but this analysis was unsuccessful. This is probably due to the great sequence length of neuraminidase. Second, the natural vector method will be used for sequence embedding purposes, in hopes to visualize sequential progression of the virus protein over time. Last, interpretable machine learning methods will be applied to examine if the data is classifiable by the different years and to gain information if the extracted information conform to the results from the EVcouplings analysis. Additionally to using the class label year, other labels such as groups or subtypes are used in classification with varying results. For balanced classes the machine learning models performed adequately, but this was not the case for imbalanced data. Groups and subtypes can be classified with a high accuracy, which was not the case for the years, continents or hosts. To identify the minimal number of features necessary for linear separation of neuraminidase group 1 subtypes, a logistic regression was performed at last, resulting in the identification of 15 combinations of nine amino acid frequencies. Since the sequence embedding as well as the machine learning methods did not show neuraminidase evolution over time, further research is necessary, for example with focus on one subtype with balanced data.
In dieser Arbeit wird eine Vorgehensweise für die Erstellung von Grafiken zur Nachempfindung eines 2D Cartoon Looks mithilfe von 3D-Daten vorgestellt und evaluiert. Dafür werden vorerst essenzielle Definitionen in Bezug auf Stil geklärt, wichtige Stilelemente identifiziert, erläutert und in einer 3D-Umgebung praktisch umgesetzt. Es wird dabei eine tatsächliche Nachbildung von Spielelementen durchgeführt, um diese schlussendlich bewerten zu können.
In der vorliegenden Arbeit wird die Papillarliniendicke anhand eines neu erstellten Programmes bestimmt und analysiert. Die dafür entwickelte Methode und ihre Grundlagen werden gesondert erklärt und evaluiert.
Bei der Überprüfung des Merkmals auf geschlechtsspezifische Unterschiede kann eine signifikante Abweichung der Verteilungen beobachtet werden. Weiterhin wird ein Regressionsmodell anhand der extrahierten Merkmale trainiert und ausgewertet.
Im Prozess der Masterarbeit und des vorangegangenen Forschungsmoduls wurden drei verschiedenartige Anbieter*innen von Escape Spielen untersucht. Zu diesem Zweck wurden Vor-Umfragen eingeholt, um Informationen über populäre und bekannt Reihen dieser Art zu erkennen. Aufbauend auf diesen Fragebögen wurden anschließend drei Anbieter*innen gewählt, welche eine möglichst unterschiedliche Herangehensweise an die Umsetzung eines Escape-Raumes mit minimalistischen Mitteln haben. Nachdem diese ausgemacht wurden, konnten die Proband*innen-Gruppen eingeteilt werden, um, basierend auf diesen Konstellationen, verschiedene Boxen der Herausgeber einer Reihe auszuwählen. Auch bei diesen lag ein besonderer Schwerpunkt auf der Vergleichbarkeit, wodurch auf mögliche Zusammenhänge der Storylines geachtet wurde. Um die folgende Testphase planen zu können, musste jede der vierzehn Ausgaben zunächst selbst getestet und analysiert werden. Hierzu wurden alle Rätsel versucht zu lösen und zu verstehen, um den Kern der Aufgabenstellung erfassen zu können. Zudem wurde ein Zusammenhang zwischen den Karten in Form von Ablauf-Diagrammen ermittelt, wobei festgestellt werden konnte, dass mit zunehmender, ausgeschriebener Schwierigkeit diese breiter werden. Das bedeutet, dass zu Rätseln, welche als schwerer markiert waren, mehr Karten gegeben wurden. Eine der Herausforderungen lag darin, die benötigten Karten auszumachen. Da diese Methodik jedoch nicht zwingend mit der Art der Rätsel und den Hindernissen diese zu Lösen verknüpft ist, sondern als unterstützendes Element angesehen werden kann, wurde sie in der vorliegenden Arbeit nicht berücksichtigt. Nachfolgend konnten aufgrund der gewonnenen Erkenntnisse Fragebögen erstellt werden, welche sowohl allgemein auf die gesamte Box, als auch speziell auf die einzelnen Rätsel eingehen. Hierbei wurden klare Ziele gesteckt, welche Informationen erhoben werden sollten. Anhand dieser Strukturierung war es möglich eine umfassende Sammlung an sehr verschiedenartigen Fragen zu erstellen, wodurch im Verlauf der Tests eine Vielzahl an Informationen gewonnen werden konnte. Zusätzlich zu dieser Erhebung wurden Videodateien während des laufenden Tests erstellt, welche eine detailliertere und unabhängigere Betrachtung der Proband*innen ermöglichen. Nachdem diese Datenerhebungsphase abgeschlossen werden konnte, also alle Boxen verwendet wurden, begann die Vorverarbeitung der Daten. Hierzu wurden zunächst die Videodateien gesichtet und strukturiert und die Fragebögen in eine einheitliche Form gebracht. Es lagen nach dieser Phase strukturierte Videodateien vor, welche den gesamten Prozess des Lösens abbildeten, aber auch Dateien zu den einzelnen, definierten Rätseln. Diese einzelnen Rätsel wurden weitergehend kategorisiert und in ein vergleichbares Schema eingeordnet. Diese einzelnen Rätselvideos konnten zudem durch einen Algorithmus verarbeitet werden, welcher die unterschiedlichen Gesichter der Proband*innen erfassen, analysieren und in sieben Emotionen unterteilen kann. Aus diesem Verarbeitungsschritt entstanden zu jedem Rätsel drei CSV Dateien, welche diese Wahrscheinlichkeiten in Abhängigkeit des aktuellen Bildes wiedergeben. In Bezug auf die Fragebögen wurden Tabellenstrukturen erreicht, welche die unterschiedlichen Arten und Teile dieser in einer einheitlichen Struktur wiedergeben. Nach diesem Schritt war es möglich die Daten auf eine sinnvolle Weise zu kombinieren und aus diesen Rückschlüsse auf Korrelationen zu ziehen. Auch eine Analyse mit umfangreicheren Anwendungen, wie „Rapid Miner“ sind denkbar, jedoch haben die beschriebenen Methoden für die anvisierten Fragestellungen genügt. Auch andere Hypothesenuntersuchungen können aufgrund der aufgearbeiteten Daten erreicht werden, da sicherlich noch andere Zusammenhänge in dieser Masse an Informationen stecken. Jedoch wurde mit dieser Aufnahme und diesen Auswertungen die Fragestellungen beantwortet, welche am Anfang des Praxismoduls aufgekommen waren
Ziel dieser Arbeit ist die manuelle und automatische Annotation anatomischer und anthropologischer Leitstrukturen und Messpunkte am Beispiel von Mandibulae männlicher Soldaten der napoleonischen Armee. Hierbei werden Mandibulae der Skelettsammlung Rödelheim mit Hilfe von Photogrammetrie digitalisiert und mittels der Software AnthroWorks3D hinsichtlich anatomischer und osteometrischer Landmarken annotiert. Ziel ist eine Automatisierung des Setzens der osteometrischen Landmarken, die mittels einer Schablone realisiert wird. Dabei soll untersucht werden, welche Mandibula die „Durchschnittlichste“ ist und wie effizient der Automatisierungsprozess im Vergleich zu einer manuellen Annotation ist. Anhand statistischer Analysen wird ein Überblick über aussagekräftige Kenngrößen innerhalb der Stichprobe gegeben. Untersuchungen der anatomischen Skelettvarianten dienen der Einschätzung bzgl. deren Einflusses auf AnthroWorks3D.
Durch die stetige Abnahme der Biodiversität auf der Erde, aufgrund von äußeren Umweltfaktoren, müssen Möglichkeiten zur Erhaltung der genetischen Vielfalt gefunden werden. Mit Hilfe des Verfahrens der Kryokonservierung kann die genetische Vielfalt von besonderen Sorten und Wildarten erhalten werden. Aufgrund dessen soll die Methode der Kryokonservierung mittels PVS2-Vitrifikation bei Prunus am JKI in Dresden-Pillnitz etabliert werden. Parallel dazu wird die PVS3-Methode bei unterschiedlichen Inkubationszeiten und Temperaturen betrachtet. Sowohl die PVS2- als auch die PVS3-Vitrifikation wurden noch nicht bei Prunus-Wildarten im JKI Dresden-Pillnitz angewendet. Die Regenerationsrate der PVS2-Vitrifikation betrug zwischen 5 und 85 %, welche überwiegend nach einer Kälteadaption von drei Wochen erreicht wurde. Die durchgeführten Versuche mit der PVS3-Methode erbrachten noch keinen Erfolg.
Pollinating insects are of vital importance for the ecosystem and their drastic decline imposes severe consequences for the environment and humankind. The comprehension of their interaction networks is the first step in order to preserve these highly complex systems. For that purpose, the following study describes a protocol for the investigation of honey bee pollen samples from different agro-environmental areas by DNA extraction, PCR amplification and nanopore sequencing of the barcode regions rbcL and ITS. It was shown, that the most abundant species were classified consistently by both DNA barcodes, while species richness was enhanced by single-barcode detection of less abundant species. The analysis of the the different landscape variables exhibited a decline of species richness, Shannon diversity index, and species evenness with increasing organic crop area. However, sampling was only carried out in August and further investigations are suggested to display a more complete picture of honey bee foraging throughout the seasons.
Identity-Wallets für Android : Datensicherheit und Entwicklung eines Flutter-basierten Prototypen
(2022)
Das Modell der Selbst-Souveränen digitalen Identität (SSI) ist ein seit 2015 diskutiertes und entwickeltes Konzept zum Identitätsmanagement, das dem Nutzer die volle Kontrolle über seine digitale Identität verspricht. Um dies gewährleisten zu können, müssen u.a. Anwendungen, zumeist Apps für mobile Betriebssysteme entwickelt werden, die dem Nutzer dies ermöglichen. Diese Arbeit untersucht mit esatus Wallet, Lissi Wallet, ID-Wallet, Connect.Me und Jolocom SmartWallet fünf bereits bestehende Wallet-Anwendungen für das Betriebssystem Android hinsichtlich ihrer Datensicherheit. Als Grundlage für die Sicherheitsbewertung dient der Mobile Application Security Verification Standard (MASVS) des gemeinnützigen Open Web Application Projects (OWASP). Dabei wurden bei allen Apps, vor allem Connect.Me, Mängel festgestellt. Diese beziehen sich vornehmlich auf die zum Teil fehlende Verschlüsselung von Daten aber auch auf den Umgang mit zur Verschlüsselung verwendeten Passwörtern. Weiterhin wird gezeigt wie mittels dem Framework Flutter eine nach Stand der Technik sichere Wallet-Anwendung entwickelt werden kann.
Classification label security determines the extent to which predicted labels from classification results can be trusted. The uncertainty surrounding classification labels is resolved by the security to which the classification is made. Therefore, classification label security is very significant for decision-making whenever we are encountered with a classification task. This thesis investigates the determination of the classification label security by utilizing fuzzy probabilistic assignments of Fuzzy c-means. The investigation is accompanied by implementation, experimentation, visualization and documentation of the results.
Hinsichtlich des verändernden Stoffwechsels stellen Kiesel- und Grünalgen eine interessante und gut nutzbare, wenn auch lose und schwer definierbare Gruppierung innerhalb der biologischen Systematik dar: Ihr Potenzial, die Eigenschaften von Pflanzen (dank Photosynthese) und Mikroorganismen (in ihrer jeweiligen Größe und ihrem bedingt heterotrophen Stoffwechsel) zu kombinieren, ist bisher unübertroffen und eröffnet Möglichkeiten u. a. für die Bereiche der Abwasserbehandlung und die Kultivierung von Mikroalgen in Abwassermedien. Obwohl ihre Eignung für wirtschaftliche Zwecke ihr volles Potenzial noch nicht vollständig erreicht hat, scheint der Weg dorthin sicherlich diese Richtung einzuschlagen – mit der Biotechnologie als ein sich ständig weiterentwickelndes Fachgebiet, ist die Verwendung von Algen
für bestimmte Zwecke an die bisherigen Erkenntnisse und den daraus resultierenden Möglichkeiten gebunden. In diesem Versuch wurden insgesamt vier Mikroalgen, drei Grünalgen (C. vulgaris, A. obliquus und C. reinhardtii) und eine Kieselalge (N. pelliculosa), auf ihr Wachstumsverhalten in unterschiedlich konzentrierten Abwassermedien, von 20 % bis 100 % in 20 %-Schritten, getestet. In Bezug auf die erzielten Ergebnisse scheint der vielversprechendste Kandidat für diese Zwecke C. reinhardtii zu sein, welcher das schnellste Wachstum innerhalb der Inkubationszeit von 3 Tagen erreicht hatte und die meisten Nährstoffe aus dem Abwassermedium entfernte. In geringeren Abwasserkonzentrationen kam es stattdessen zum starken Wachstum von A. obliquus, womit dieser Organismus eine Alternative zu geringer belasteten Medien (hinsichtlich der Nährstoffe, als auch der Keimbelastung) darstellt. Außerdem wurden je 5 L A. obliquus und C. vulgaris Inokula in einem größeren Aquarium mit ca. 50 L Abwasser inkubiert unter strengeren Parameterbedingungen und höheren
Kontaminationsrisiko. Dennoch konnte auch hier innerhalb von fünf Tagen ein Abbau von ca. 99,40 % des Phosphats auf 0,055 mg/L erreicht werden, innerhalb einer Woche bzw. sieben Tagen von 99,92 % auf 0,007 mg/L ortho-Phosphat. Ob diese Organismen auch weiterhin eine wichtige Rolle in zukünftigen Technologien für die Abwasserreinigung spielen, hängt von weiteren Studien auf diesem Gebiet ab sowie neuen Innovationen bezüglich der wirtschaftlichen Nutzbarkeit für Unternehmen, welche durch Investitionen den weiteren Ausbau sowie die Forschung im Gebiet der
Algennutzung fördern.
In dieser Masterarbeit werden sichere steganografische sowie kryptografische Methoden vorgestellt, erläutert, untersucht und innerhalb eines eigens entwickelten Software-Prototypen mit intuitiver Benutzerschnittstelle kombiniert. Noch immer werden Menschenrechtsverteidigende in totalitären Systemen und anderen Krisengebieten systematisch verfolgt, inhaftiert, gefoltert oder sogar exekutiert, weil ihre digital gespeicherten Daten eine antitotalitäre und investigative Tätigkeit beweisen. Die in dieser Arbeit gesammelten Erkenntnisse sowie der darauf basierende Prototyp sollen zu einem besseren Schutz dieser Menschen beitragen.
In this thesis, we focus on using machine learning to automate manual or rule-based processes for the deduplication task of the data integration process in an enterprise customer experience program. We study the underlying theoretical foundations of the most widely used machine learning algorithms, including logistic regression, random forests, extreme gradient boosting trees, support vector machines, and generalized matrix learning vector quantization. We then apply those algorithms to a real, private data set and use standard evaluation metrics for classification, such as confusion matrix, precision, and recall, area under the precision-recall curve, and area under the Receiver Operating Characteristic curve to compare their performances and results.
Simulating complex physical systems involves solving nonlinear partial differential equations (PDEs), which can be very expensive. Generative Adversarial Networks (GAN) has recently been used to generate solutions to PDEs-governed complex systems without having to numerically solve them.
However, concerns are raised that the standard GAN system cannot capture some important physical and statistical properties of a complex PDE-governed system, along side with other concerns for difficult and unstable training, the noisy appearance of generated samples and lack of robust assessment methods of the sample quality apart from visual examination. In this thesis, a standard GAN system is trained on a data set of Heat transfer images. We show that the generated data set can capture the true distribution of training data with respect to both visual and statistical properties, specifically the vertical statistical profile. Furthermore, we construct a GAN model which can be conditioned using variance-induced class label. We show that the variance threshold t = 0. 01 constructs a good conditional class label, such that the generated images achieve 96% accuracy
rate in complying with the given conditions.
In the past few years Generative models have become an interesting topic in the field of Machine Learning (ML). Variational Autoencoder (VAE) is one of the popular frameworks of generative models based on the work of D.P Kingma and M. Welling [6] [7]. As an alternative to VAE the authors in [12] proposed and implemented Information Theoretic Learning (ITL) based Autoencoder. VAE and ITL Autoencoder are a combination of the neural networks and probabilistic graphical models (PGM) [7]. In modern statistics it is difficult to compute the approximation ofthe probability densities. In this paper we make use of Variational Inference (VI) technique from machine learning that approximate the distributions through optimization. The closeness between the distributions are measured by the information theoretic divergence measures such as Kullbach-Liebler, Euclidean and Cauchy Schwarz divergences. In this thesis, we study theoretical and experimental results of two different frameworks of generative models which generate images of MNIST handwritten characters [8] and Yale face database B [3]. The results obtained show that the proposed VAE and ITL Autoencoder are capable of generating the underlying structure of the example datasets
Neue Versionen einer Programmiersprache eröffnen neue Möglichkeiten, komplexe Zusammenhänge auszudrücken. So ermöglichte auch C++20 in dem dieser Arbeit vorausgegangenen Forschungsmodul eine Alternative zu Vererbung mit virtuellen Funktionen, welche sich in Microbenchmarks als performanter erwies. Eine Messung in einem vollwertigen Software-Projekt erfordert jedoch zunächst eine Modernisierung dessen. So ist u.a. die 3D-Engine OGRE lediglich auf dem Stand von C++11. Es stellt sich die Frage, ob der Arbeitsaufwand und die Risiken, die mit einer Modernisierung und anschließender Umsetzung der Alternative verbunden sind, letztlich zu rechtfertigen wären. Zumindest für den ersten Schritt kann dies auch unabhängig vom zweiten bestimmt werden. Detaillierte Beschreibungen und Microbenchmarks zu neuen Features können zwar oft gefunden werden, jedoch sind die exakten Hindernisse im konkreten Fall schwer einzuschätzen und die tatsächlichen Vorteile für ein vollwertiges Software-Projekt sind aus bloßen Microbenchmarks nicht direkt abzuleiten. Die vorliegende Arbeit beschreibt die mit der Umsetzung neuer Features verbundenen Hindernisse in der 3D-Engine OGRE. Anhand inkrementeller Messungen wird schließlich entschieden, welche Modernisierungen an und für sich lohnenswert sind und von welchen abzuraten ist.
Prototyp eines standardisierten Fingerabdrucks zur Validierung von Such- und Sicherungsverfahren
(2022)
Die vorliegende Bachelorarbeit beschäftigt sich mit der theoretischen Modellierung eines Prototyps von einem Fingerabdruckstempel. Dabei behandelt sie die chemischen, physischen sowie technischen Merkmale und deren Funktionsweise innerhalb des Stempels. Dieser soll im Hinblick auf die Tatortarbeit dazu dienen, künstliche Fingerabdrücke zu schaffen, um an ihnen die verschiedenen Spurensicherungsverfahren zu testen. Im Zuge dessen geht die Arbeit näher auf das chemische Spurensicherungsverfahren der Kaltbedampfung in einer Vakuumkammer ein. Die Grundlage für dieses Verfahren bildet flüssiges Cyanacrylat, mit dem versucht wird, latente Fingerabdrücke auf einem Objektträger unter verschiedenen Bedingungen sichtbar zu machen. Dabei wird analysiert, welche Voraussetzungen gegeben sein müssen, damit sich der Fingerabdruck in der Vakuumkammer optimal entwickelt.
In dieser Arbeit geht es um die Grundlage einer grünen Alternative zur chemischen Aufbereitung gelöster Metallionen. Im Fokus stehen dabei zwei wirtschaftlich wichtige Elemente: Cobalt und Nickel. In einem vorangegangenen Praktikum wurden dafür bereits Peptide mittels Isothermer Titrationskalorimetrie (ITC) untersucht, welche in der Lage waren, diese beiden Metallionen zu binden. Diese Peptide wurden mittels Phagen Display selektiert. Da die zwei Peptide die gewünschten Affinitäten aufwiesen, wurden mit diesen Fusionsproteine konstruiert, wobei die Peptide als Insert, neben weiteren Funktionalitäten, hinzugefügt wurden. Somit entstanden Proteine, welche als Fusionsproteine (FP) bezeichnet werden. Ein Zusätzliches FP mit sieben Histidinen wurde als Positivkontrolle mitgeführt, da Histidin bekanntermaßen beide Elemente binden kann
DID-Methoden, Wallets, Agents und Verifiable-Credentials sind grundlegende Begriffe im Kontext von Self-Sovereign-Identity (SSI) und stellvertretend für neuartige Methoden der Identitätsverwaltung im Internet. Es werden gegenwärtig Entwürfe von Standards und Spezifikationen unterschiedlicher Gruppen und Gremien forciert, die dem Paradigma von SSI gerecht werden wollen. Aus der Vielzahl technologischer Ansätze, die bereits entstanden sind, werden einige wichtige näher betrachtet und hinsichtlich ihrer Interoperabilität untersucht. Ausganspunkt ist dabei der Trust-over-IP-Stack, wie er von gleichnamiger Organisation (Trust-over-IP-Foundation) vorangetrieben wird. Dabei spielen weitere Normungsgremien eine Rolle, wie z. B. die Decentralized-Identity-Foundation (DIF) oder das World-Wide-Web-Consortium (W3C). Gegenstand der Untersuchung ist der aktuelle Stand der Technik und dessen Implikationen hinsichtlich ihrer Interoperabilität, Portabilität sowie dem angestrebten Ziel der Dezentralisierung. Dabei stehen insbesondere die beiden Entwürfe zu den Standards der Decentralized-Identifiers und des Verifiable-Credentials-Data-Models im Mittelpunkt. Es werden aber auch weitere Spezifikationen betrachtet, die diese ergänzen und für derartige Identitätsverwaltungssysteme von Bedeutung sind.
In der vorliegenden Arbeit wird ein Konzept für eine Test- und Evaluationsumgebung von Forschungsergebnissen im Bereich der Cybersicherheit gebildet. Das dabei entstehende Rahmenwerk ist modular aufgebaut und zeigt, im Vergleich zu bisherigen Test- und Evaluationsumgebungen, einige Besonderheiten auf. Als Basis für die entstehende Konzeptumgebung werden vier Module vorgestellt, mit denen zukünftige Technologien der Cybersicherheit getestet und bewertet werden können.
In dieser Arbeit werden drei Modelle entworfen und verglichen, mit welchen Meinungsführer in einem Twitter-Netzwerk erkannt werden können. Dazu wird ein Datensatz mit 600.000 Tweets von 100.000 Twitter-Nutzern von April bis Juni 2021 ausgewertet. Zur Bestimmung des Einflusses eines Nutzers werden sowohl topologische Informationen des Netzwerkes als auch Reaktionen auf einzelne Tweets einbezogen. Anschließend werden Korrelationen zwischen dem Grad der Meinungsführerschaft und der Toxizität der Tweets untersucht. Dafür wurde eine Recherche zu Software zur Analyse von Graphen durchgeführt und Neo4j als passendes Werkzeug ausgewählt. Es konnte gezeigt werden, dass der ArticleRank als Zentralitätsalgorithmus geeignet ist, Meinungsführer zu erkennen. Meinungsführer sind weniger toxisch als andere Nutzer, allerdings ist dies nur ein schwacher Indikator. Durch die Modellierung der Häufigkeit, wie oft Nutzer interagieren, können verschiedene Fragen beantwortet werden. Durch diesen Algorithmus können Konzepte der Kommunikationswissenschaft in Bezug auf Meinungsführer in sozialen Netzwerken nachgeweisen werden.
Einhaltung regulatorischer Anforderungen an Kreditinstitute durch den Einsatz eines SIEM-Systems
(2022)
Die vorliegende Arbeit thematisiert die Einhaltung neuer aufsichtsrechtlicher Anforderungen an die IT-Sicherheit von Kreditinstituten durch den Einsatz eines SIEM-Systems. In diesem Kontext werden zuerst die zum Zeitpunkt der Veröffentlichung dieser Thesis geltenden Anforderungen detailliert vorgestellt und erklärt. Anschließend wird der Aufbau und die Funktionsweise eines SIEM-Systems differenziert beleuchtet und die Eignung dessen zur Einhaltung der Rahmenbedingungen geprüft. Darüber hinaus wird ein Leitfaden zur anforderungskonformen Implementation eines SIEM-Systems am Beispiel der Softwarelösung Splunk Enterprise präsentiert.
In der vorliegenden Masterarbeit werden Daten der Kriminalstatistik Berlins in Bezug auf die Entwicklung erfasster Straftaten statistisch analysiert und hinsichtlich kausaler Zusammenhänge ausgewertet. Der Hauptaspekt der Arbeit bildet ein neuer Modellierungsansatz für den Bereich des Predictive Policing, welcher sich auf Erkenntnissen über Bayesian Belief Networks stützt. Durch die präsentierten Ansätze soll die grundsätzliche Anwendbarkeit von gerichteten Graphen für die Problemstellungen des Predictive Policing aufgezeigt werden, da diese aufgrund ihres Potenzials in der Abbildung von Informationsflüssen sowie Eigenschaften der Inferenz zukünftig neue Möglichkeiten in der Modellierung der Ausbreitung von Kriminalität bieten können.
Die Biometrie bildet in heutigen Zeiten in den Bereichen der forensischen Arbeit und der Sicherheit ein besonderen Teil. Dabei werden in heutigen Verfahren biometrische Merkmale wie Gesichtsmaße, Fingerabdrücke oder auch Irismuster verwendet. Jedoch stößt die Verwendung dieser Merkmale oft an ihrer Grenzen, wenn es darum geht, vermummte Täter auf Überwachungsaufnahmen zu identifizieren. An dieser Stelle soll der Täter mittels eines Rigs auf der Aufnahme vermessen werden. Die erhaltenen Maße sollen anschließend mit den Maßen von Personen im Reale verglichen werden, um dadurch den Täter von der Aufnahme zu identifizieren. In dieser Arbeit wird ein gegebener Datensatz näher untersucht. Der Datensatz enthält anthropometrische Maße, Front-Rigs (2D-Rigs) sowie 3D-Rigs von 170 Frauen und 170 Männern. Ziel soll es sein, die im Datensatz gegebene Separierbarkeit mittels eines optimalen Trenn- beziehungsweise Klassifikationsverfahrens nachzuweisen. Zum Einen wird die Vergleichbarkeit der Front- und 3D-Rigs überprüft. Dafür wird eine Möglichkeit gesucht, eine mögliche Abweichung zwischen den Dimensionen der Rigs mittels eines allgemeinen Fehlers beziehungsweise Verhältnisses auszudrücken. Zum Anderen werden verschiedene Klassifikationsverfahren durchgeführt, die zwischen zwei Körperhöhengruppen gegebene Separierbarkeit optimal nachzuweisen. Abschließend wird ein weiteres Merkmal neben der Körperhöhe gesucht, um Personen in Gruppen einzuteilen. Im Verlauf der Arbeit wird ersichtlich, dass zwischen den Front-Rigs und 3DRigs ein Unterschied besteht, der sich jedoch schwer in ein allgemeinen Fehler beziehungsweise ein allgemeines Verhältnis fassen lässt. Mittels der Manhattan-Distanz kann die Separierbarkeit nur schwer nachgestellt werden. Durch die Verwendung von k-NNs und logistischen Regressionen ist die Separierbarkeit trotz auftretender Falschklassifikationen nachzuweisen. Als weiteres Merkmal zur Körperhöhe wird das Verhältnis von Oberkörper zu Unterkörper betrachtet. Die mittels dieses Verhältnisses bestimmten Gruppen sind ebenfalls nachweisbar. In Zukunft sollte der Unterschied zwischen Front- und 3D-Rigs verkleinert beziehungsweise verallgemeinert werden, um die Vergleichbarkeit zu steigern. Des Weiteren sollte die Separierbarkeit mittels weiterer Klassifikationverfahren nachgewiesen werden. Außerdem sollte über eine Erweiterung des Datensatzes um weitere Individuen oder auch andere Körperhöhen nachgedacht werden. Zudem sollten auch andere Merkmale zur Gruppierung der Personen weiter untersucht werden.
Der technologische Fortschritt ermöglicht das Speichern von größeren Datenmengen. Dies hat zur Folge, dass Daten mehr Platz auf einem Datenträger einnehmen und die Wahrscheinlichkeit des Aufteilens einer Datei auf mehrere auf dem Datenträger verteilte Positionen steigt. Von dieser sogenannten Fragmentierung sind auch JPEG-Dateien betroffen, wobei sich die Frage stellt, wie ein Zusammensetzen der Fragmente ohne die notwendigen Informationen aus dem Dateisystem möglich ist.
Ziel dieser Masterarbeit ist es, eine prototypische Implementierung eines intelligenten Carving Algorithmus zur Rekonstruktion fragmentierter JPEG-Dateien zu entwickeln, welcher durch erzeugte Testszenarien evaluiert wird.
Um dieses Ziel zu erreichen, wird ein Programm erstellt, welches sich an dem Smart Carving-Prinzip orientiert und diverse Carving-Methoden einbezieht. Für die anschließende Beurteilung der Lauffähigkeit des Prototyps werden Szenarien zum Testen von Stärken und Schwächen entwickelt. Die Ergebnisse aus diesen werden durch eine Evaluationsstrategie bewertet.
Anhand der Ergebnisse wird deutlich, dass der entwickelte Prototyp noch viele Schwächen aufweist. Bei manchen Szenarien können vollständig korrekte Ergebnisse geliefert werden und die JPEG-Dateien rekonstruiert werden, bei anderen Szenarien sind die Ergebnisse unzureichend. Diese Ergebnisse und der Fakt, dass der Prototyp lediglich für kleine Datenmengen konzipiert und erprobt wurde, zeigen, dass ein Einsatz des Programms in einer realen Umgebung noch nicht möglich ist.
Seit 1949 wird Lithium, meist in Form von Lithiumcarbonat, zur akuten und prophylaktischen Behandlung affektiver Störungen eingesetzt. Der Lithiumspiegel der Patientinnen muss dabei genau eingestellt und regelmäßig überwacht werden. Die vorliegende Arbeit beschäftigt sich mit der Lithiummessung mittels ionenselektiver Elektroden (ISE) im Speichel und der Herstellung eines Kunstspeichels zur Kalibrierung der Elektroden. Bei der Lithiummessung kann es durch Störionen zu Quereinflüssen kommen, sodass die Lithiummessung beeinflusst wird. Diese Interferenzen sollen untersucht werden.
Die vorliegende Arbeit dient als Grundlage zur Umsetzung für eine automatisierte Klassifizierung von textuellen Fehlermeldungen. Das Hauptziel ist ein grundlegendes Verständnis für die Herangehensweise zum Aufbau eines maschinellen Lernsystems zu erreichen. Es werden verschiedene Arten des maschinellen Lernens erläutert. Auswahl und Aufbau eines Lernmodells werden von unterschiedlichen Seiten beleuchtet, um einen Überblick der einzelnen Schritte zu gewinnen. Zur Gewährleistung eines praktischen Lösungsansatz wurden bereits erste Tests mit einem ausgewählten Lernmodell durchgeführt.
Wirksame Sicherheitsmaßnahmen zu entwickeln und auch zu implementieren, bedeutet im Umkehrschluss, dass zuerst einmal die zugrundeliegenden Gefahren, Schwachstellen und Sicherheitslücken bekannt sein und verstanden werden müssen. Das beste System hat wenig Nutzen, wenn der Mensch, der es bedient, es nicht zu nutzen weiß. Aus diesem Grund soll mit der vorliegenden Arbeit ein grundlegendes Verständnis zu möglichen Angriffen auf das Session Management beziehungsweise in diesem Fall auch die Verschlüsselung gelegt werden. Im Anschluss daran werden mögliche Schutzmaßnahmen dargelegt, welche als eine Art Leitfaden dienen sollen.
The aim of this bachelor thesis is to find out how the use of artificial intelligence, specifically the one used in combat situations, can increase the playing time or even the replay value of games in the action role-playing genre. Thereby, it focuses mainly on combat situations between a player and an artificial intelligence.
To begin with, this bachelor thesis examines the action role-playing genre in order to find a suitable definition for it. Accordingly, action role-playing games involve titles that send the player on a hero’s journey-like adventure in which they must prove their skills in combat against virtual opponents. The greatest challenge of these real-time battles comes from the required quick reflexes, skill queries and hand-eye coordination.
Next, six means of increasing the replayability of a game are explored: Experience and Nostalgia, Variety and Randomness, Goals and Completion, Difficulty, Learning, and Social Aspect. The paper then proceeds to give an explanation for the term Artificial Intelligence and examines the various methods used to create intelligent behavior as well as the general advancement of the research field. Special attention is given to the implementation methods of Finite State Machines and Behavior Trees, as they are the most widely used methods for creating behavioral patterns of virtual characters.
Finally, a study conducted as part of the bachelor thesis is described, which compares a mathematically balanced artificial intelligence with a behaviorally balanced one in terms of game performance regarding the willingness of test subjects to purchase and play through the game as well as its replay value. The thesis concludes with the findings that while the behavioral approach is more promising than the mathematical approach, a combination of the two methods ultimately leads to the best outcome. Furthermore, the study shows that the use of artificial intelligence to individualize gaming experiences is promising for the future of the gaming industry.
Embeddings for Product Data
(2022)
The E-commerce industry has grown exponentially in the last decade, with giants like Amazon, eBay, Aliexpress, and Walmart selling billions of products. Machine learning techniques can be used within the e-commerce domain to improve the overall customer journey on a platform and increase sales. Product data, in specific, can be used for various applications, such as product similarity, clustering, recommendation, and price estimation. For data from these products to be used for such applications, we have to perform feature engineering. The idea is to transform these products into feature vectors before training a machine learning model on them. In this thesis, we propose an approach to create representations for heterogeneous product data from Unite’s platform in the form of structured tabular records. These tables consist of attributes having different information ranging from product-ids to long descriptions. Our model combines popular deep learning approaches used in natural language processing to create numerical representations, which contain mostly non-zeros elements in an array or matrix called as dense representation for all products. To evaluate the quality of these feature vectors, we validate how well the similarities between products are captured by these dense representations. The evaluations are further divided into two categories. The first category directly compares the similarities between individual products. On the other hand, the second category uses these dense vectors in any of the above- mentioned applications as inputs. It then evaluates the quality of these dense representation vectors based on the accuracy or performance of the defined application. As result, we explain the impact of different steps within our model on the quality of these learned representations.
In regelmäßigen Abständen werden bei Milchkühen in Deutschland Daten über die Zusammensetzung der Milch erhoben, um eine gleichbleibende Qualität sicherstellen zu können. Gleichzeitig dienen die Milchinhaltsstoffe als erste Indikatoren für eine Veränderung des Stoffwechsels der Kuh und ein damit einhergehend erhöhtes Erkrankungsrisiko. Aus diesem Grund wird in dieser Arbeit untersucht, ob es möglich ist, Vorhersagen über Erkrankungen bei Milchkühen anhand dieser Milchleistungsprüfungsdaten zu treffen. Dafür werden maschinelle Lernverfahren angewendet, im Speziellen Multi-Label- und binäre Klassifikationsverfahren. Die genutzten Klassifikatoren umfassen Multi-Layer Perzeptrone, Naive Bayes-Klassifikatoren sowie Support Vector Machines mit verschiedenen Kernels. Die Vorhersagen werden mit Konfusionsmatrizen und den dazugehörigen Evaluationsmaßen ausgewertet und verglichen.
In dieser Arbeit wird die Entwicklung einer Client-Server-Infrastruktur für die probabilistische Privacy Preserving Record Linkage (PPRL) vorgestellt. Ziel ist die Integration der entwickelten Dienste in eine Implementierung des Personal Health Train. Die Anwendbarkeit wird anhand von Fallbeispielen demonstriert und die Toleranz des PPRL-Ansatzes gegenüber kleinen Fehlern zwischen sonst übereinstimmenden Datensätzen hervorgehoben. Das Ergebnis ist eine robuste PPRL-Infrastruktur für den Einsatz in der verteilten Datenanalyse.
Einfluss der Trauma-Zytokine TNFa, IL-6 und EPO auf das Transkriptom mesenchymaler Stammzellen
(2022)
Mit den Trauma-Zytokinen IL-6, TNFα & EPO wurde der Einfluss auf das Transkriptom mesenchymaler Hautstammzellen untersucht. Dabei wurde sich vor allem auf die Expression krebsassoziierte Gene konzentriert und untersucht, ob EPO möglichweise eine Verringerung der Expression solcher Gene hervorruft. Dazu hat man das Transkriptom von Zellen sequenziert, die unter Einfluss der Zytokinen in verschiedenen Zusammensetzung standen. Mithilfe einer differentiellen Expressionsanalyse (DE) konnte eine erhöhte Menge an RNA sowie erhöhte Expression von krebsassoziierten in den Zellen unter Einfluss der Zytokine festgestellt werden. Zellen, denen neben TNFα, IL-6 das Zytokin EPO hinzugegeben wurden, zeigten keine Verringerung krebsassoziierter Gene auf. Außerdem konnte eine Reaktion der Zellen auf eine durch TNFα und IL-6 simulierte Immunreaktion festgestellt werden. Auch Gene, die für Hautzellen eher untypisch sind, und somit noch einen unspezifischen Differenzierungsgrad der Stammzellen aufzeigen, konnten identifiziert werden.
Automatisierte Detektion von Minutien und Bestimmung der Grundmuster von Fingerabdrücken mittels der Methoden Crossing Number Concept und Template Matching sowie Vergleich verschiedener Vorverarbeitungsarten in der Software MATLAB. Zunächst werden die Grundmuster der Fingerabdruckbilder mittels MATLAB bestimmt und mit den tatsächlich vorhanden Grundmustertypen in den jeweiligen Fingerabdrücken abgeglichen. Danach werden Gabel-Minutien in den ausgedünnten Papillarlinienbildern der Fingerabdrücke mittels MATLAB detektiert. Hierbei kommen das Crossing Number Concept und das Template Matching Verfahren zur Anwendung. In jedem Verfahren wird die Precision berechnet und die Methoden untereinander verglichen. Zuletzt wird analysiert, wie sich Änderungen in den Vorverarbeitungsschritten der Fingerabdruckbilder auf das Papillarlinienbild auswirken.
Fake News und Betrugsschemata sind heutzutage ein allgegenwärtiger Bestandteil des Internets. Erfahrene Nutzer haben gelernt damit umzugehen und Richtiges von Falschem zu unterscheiden. Doch auch die erfahrensten Benutzer des Internets können von geschickten Hochstaplern und Betrügern manipuliert werden. Die Betreiber der sozialen Medien, können und wollen oftmals nicht für die Sicherheit ihrer Nutzer garantieren, weswegen ein Ansatz benötigt wird, welcher diese Betreiber ablöst. Nachdem Non-Fungible Tokens gezeigt haben, wie digitales Eigentum implementiert werden kann, zeigen sogennante Soulbound Tokens, wie digitales Vertrauen im Internet existieren kann. Diese Art von Tokens sind nicht transferierbar und für immer an ihren Besitzer gebunden, wodurch diverse, digitale Persönlichkeiten entstehen können, deren Glaubwürdigkeit von Soulbound Tokens bewiesen wird. Decentralized Reputation (DeRep) beschreibt dabei eine Reputationsplattform, auf welcher Benutzer Soulbound Tokens als Bewertung für andere Nutzer ausstellen können. Zusammen mit weiteren Funktionen, wie einem Bewertungsalgorithmus für die Profile der Nutzer, wird veranschaulicht, wie Reputation mithilfe von Soulbound Tokens generiert werden kann und welche Herausforderung dabei entstehen.
Die vorliegende Bachelorarbeit befasst sich mit der Sicherung und qualitativen Bewertung von ermittlungsrelevanten Daten, die auf Fitnesstrackern/Fitness-Smartwatches ausgewählter Hersteller abgelegt sind. Das Ziel dieser Arbeit besteht darin, zu untersuchen, unter welcher Konstellation die abgelegten Daten forensisch gesichert werden können, wenn keine Zugriffsmöglichkeit zum ursprünglich gekoppelten Smartphone besteht. Die Untersuchung erstreckt sich dabei auf die Simulation von Verbindungsumgebungen zwischen Fitnesstrackern/Fitness-Smartwatch und Android-Gerät sowie dem Auslesen und Interpretieren vorhandener Speicherchips.
Diese Bachelorarbeit befasst sich mit der Prozessautomatisierung während einer Vorfallsreaktion (Incident Response) in der digitalen Forensik. Die Idee dafür kam während der Tätigkeit bei der intersoft consulting services AG auf.
Das Ziel der vorliegenden Arbeit ist es, zu beantworten ob die Automatisierung eines Incident Response-Prozess mit dem Tool KAPE schneller und effektiver gestaltet werden kann, ohne die forensischen Prinzipien außer Acht zu lassen. Dafür wurden eigene Konfigurationsdateien erstellt, welche auf die interne Arbeitsumgebung angepasst sind und anschließend geprüft, ob das Tool die Anforderungen hinsichtlich der forensischen Prinzipien erfüllt. Weiterhin wurde die Verwendung des Tools hinsichtlich seiner Geschwindigkeit mit dem bisherigen Vorgehen verglichen.
Die Untersuchung zeigte, dass das individualisierte Tool mit den eigens erstellten Konfigurationen eine enorme Zeitreduktion gegenüber dem bisherigen Vorgehen erreichen konnte und dies auch unter der Einhaltung der forensischen Prinzipien möglich ist.
Zusammenfassend lässt sich sagen, dass das Tool KAPE für die Prozessautomatisierung eines Incident Response eine merkliche Rolle spielen kann, insbesondere wenn es auf die interne Unternehmensumgebung angepasst ist und einer ständigen Weiterentwicklung folgt.
In dieser Bachelorarbeit wird sich mit der Frage beschäftigt ,Ob und inwieweit ist es möglich, das Griffgeschehen bzw. den Griff zu rekonstruieren?’. Um diese zu beantworten, wird sich mit der Anatomie der menschlichen Hand und deren Bewegungsmöglichkeiten auseinandergesetzt. Mit der Hand wird sich deshalb beschäftigt, da diese im Alltag eine wichtige Funktion besitzt und Spuren in Form von Abdrücken auf Objekten hinterlässt. Aufgrund dieser Spuren werden in dieser Arbeit verschiedene Modelle der Hand, einer Vase als Beispiel Objekt und dem Griff um diesen erstellt. Des Weiteren wird sich mit der Erstellung einer bewegungsfähigen Hand in Blender beschäftigt, welche schlussendlich für die Rekonstruktion von zwei verschiedenen Griffen verwendet wird. Es stellt sich heraus, dass die Rekonstruktion von Griffen mit dieser Methode jedoch mit geringen Abweichungen möglich ist. Diese könnten vermindert bzw. verhindert werden, indem die Modelle weiter verbessert werden oder die Stichprobe der Griffe und Personen vergrößert wird.
This Bachelor thesis investigates the learning rules of the Hebbian, Oja and BCM neuron models for their convergence to, and the stability of, the fixed points. Existing research is presented in a structured manner using consistent notation. Hebbian learning is neither convergent nor stable. Oja learning converges to a stable fixed point, which is the eigenvector corresponding to the largest eigenvalue of the covariance matrix of the input data. BCM learning converges to a fixed point which is stable, when assuming a discrete distribution of orthogonal inputs that occur with equal probability. Hebbian learning can therefore not be used in further applications, where convergence to a stable fixed point is required. Furthermore, this Bachelor thesis came to the conclusion that determining the fixed points of the BCM learning rule explicitly involves extensive calculation and other methods for verifying the stability of possible fixed points should be considered.
Blockchain-Governance wird oft mit der Führung von Unternehmen oder von Nationalstaaten verglichen, obwohl diese sich selbst eher als Decentralized Autonomous Organizations (DAOs) und damit als reine Software verorten. In dieser Arbeit wird die Polkadot-Governance in jener Ebene, in der Menschen über Polkadot Entscheidungen treffen, dargestellt, um sie dann mit rechtlichen Konzepten, die den Rahmen für die Entscheidungsfindung in Unternehmen und Staaten bilden, sowie mit den rechtlichen Grundlagen für die Entscheidungsfindung einer DAO zu vergleichen.
Korrelation von Zeitstempeln und Pfadangaben von Ausführungsartefakten eines Windows 1x Systems
(2022)
Die Sicherheitslage in Deutschland wird für das Berichtsjahr 2021 durch das Bundesamt für Sicherheit in der Informationstechnik (BSI) als angespannt bis kritisch beschrieben. Ein Grund für diese Einschätzung ist, die Zunahme von Ransomware-Angriffen und die daraus resultierenden Schäden. Derartige Angriffe müssen im Rahmen eines Incident Response und Digital Forensic (kurz DFIR) Prozess aufgeklärt, eingedämmt und weitgehend rückgängig gemacht werden. Die immer größer werdenden Mengen an heterogenen Daten und die immer kürzeren Zeitabschnitte, die für eine Analyse zur Verfügung stehen, sind Herausforderungen, mit denen die Incident Responder und die Digitalen Forensiker konfrontiert sind.
Diese Arbeit verfolgt das Ziel, den Aufwand einer forensischen Untersuchung zu verringern, in dem Ausführungsartefakte von Windows 1x Systemen anhand der in ihnen enthaltenen Pfadangaben und Zeitstempel miteinander korreliert werden. Die praktische Anwendbarkeit der in dieser Arbeit gewonnen Erkenntnisse wurde in einem Proof-of-Concept demonstriert. Dessen Umsetzung erfolgte mithilfe von Angular, Flask und Neo4j.
Die vorliegende Arbeit befasst sich im Rahmen der Aufgabenstellung damit, ein Systemkonzept eines möglichen Systems für die automatisierte Suche und Verwaltung von Bedrohungsinformationen zu entwickeln und daran beteiligte Prozessschritte näher zu betrachten. Dieses System ist erforderlich, um OSCTI-Informationen aus verschiedenen Quellen zu sammeln, Wissen über Bedrohungsverhalten zu extrahieren und diese zu korrelieren, um ein möglichst vollständiges Bild über eine Bedrohung zu erhalten und diese Informationen unter anderem im Rahmen für des Threat Huntings nutzbar zu machen.
Diese Arbeit behandelt die Entwicklung einer Software zur Verwaltung und Dokumentation von Zugriffsrechten. Dafür wird gezeigt, wofür eine solche Verwaltung und Dokumentation von Zugriffen benötigt wird und wie diese mit Hilfe einer geeigneten Software umgesetzt werden kann. Es werden wichtige
Anforderungen erläutert und die entwickelte Software hinsichtlich Aufbau und wesentlichen Funktionen beschrieben.
In der regenerativen Medizin, insbesondere beim Tissue Engineering, spielt die natürliche extrazelluläre Matrix eine große und immer bedeutsamere Rolle. Ein wichtiger Schritt für die medizinische Anwendung ist die Probenvorbereitung. Um die genaue Zusammensetzung des fertigen Produkts bestimmen zu können, muss eine einheitliche Methode für die Extraktion der Bestandteile zur Verfügung stehen. Ein anderer Teil der Probenvorbereitung ist die Dezellularisierung. Um bei der Anwendung in der regenerativen Medizin Abstoßungsreaktionen zu vermeiden, sollen die Zellen des zur Herstellung des Produkts verwendeten Gewebes nahezu vollständig entfernt werden. In dieser Arbeit wurde eine Methode zur Extraktion der extrazellulären Matrix optimiert und etabliert. Zusätzlich wurden verschiedene Dezellularisierungsansätze für die Gewebe untersucht. Die Ergebnisse zeigen, dass eine Extraktion mit dem GuHCl-Puffer für 24 beziehungsweise 48 h gute Ergebnisse bei der anschließenden Evaluation mittels Massenspektrometrie mit sich bringt. Allerdings ist der Erfolg der Extraktion stark gewebeabhängig. Für die Dezellularisierung hat sich die Anwendung des pH-WechselVerfahrens als wirksam erwiesen. Jedoch konnten mit Hilfe der gewählten Bedingungen die bestehenden Grenzwerte für eine erfolgreiche Dezellularisierung nicht erreicht werden.
Die vorliegende Arbeit beschäftig sich mit der bildgebenden Darstellung zur Dokumentation verschiedener Verletzungsmuster. Der Fokus liegt auf den verschiedenen Techniken zur individuellen zweidimensionalen Wunderstellung sowie den Lösungsansätzen zu deren Gestaltung. Die texturbasierten Wunden dienen zur Darstellung fallspezifischer 3D-Menschenmodelle, um diese zur Tatortrekonstruktion einsetzten zu können.
Zusammenfassung der verbreitetsten Theorien zur Entstehung und Vererbung von Papillarleistenmustern und weiteren biometrischen Merkmalen der menschlichen Hand. Zusätzlich Beschreibung einer durchgeführten biometrischen Datenaufnahme zweier Familien bezüglich der Vererbungsforschung mit nachfolgender Auswertung der Ergebnisse.
Diese Arbeit thematisiert verschiedene Repräsentationen von Schwachstellen in Bosskämpfen und untersucht die Wirkung dieser auf die Spieler und die Spielerfahrung. Dabei wird ein Spiel geplant und erstellt, welches in mehreren Bosskampfszenarien unterschiedliche Indikatoren verwendet. Deren Wirkung wurde mithilfe von Testpersonen untersucht und analysiert. Dabei wurde festgestellt, dass Spieler mehr nach ihren gelernten Verhaltensmustern agieren, als auf die Schwachstellen zu achten. Sollte dieses Verhalten aufgebrochen werden, sind logische und angeheftete Schwachstellen sehr gut wahrnehmbar, was durch eine farbliche Abgrenzung vom Boss unterstützt werden kann.
Für die genetische Untersuchung eines Organismus ist es heutzutage unerlässlich dessen Genom vorliegen zu haben. Diese Arbeit schafft diese essentielle Grundlage für die weiteren Untersuchungen des altdeutschen Schafpudels. Die Assemblierung des Genoms wird dabei mit Illumina-Short-Reads und Nanopore-Long-Reads durchgeführt. Es werden drei verschiedene Ansätze getestet: das Short-Read-Assembly, das Long-Read-Assembly und das Hybrid-Assembly. Die Assemblies aller drei Ansätze werden im Folgenden auf ihre Qualität überprüft und miteinander verglichen, um das Assembly schrittweise zu verbessern. Das Ziel ist, dass das Assembly ähnliche Qualitäts-Metriken wie die Chromosomen-Level-Assemblies der bisher schon assemblierten Genome anderer Hundearten aufweist.
In dieser Bachelorarbeit war das Hauptziel die Etablierung eines Antikörper Panels für T-Zellen und MDSCs für die Analyse von Leukozyten in Psoriasis vulgaris Blut- und Gewebeproben. Psoriasis ist eine chronische Entzündungserkrankung der Haut und betrifft rund 2-3 % der Bevölkerung weltweit. Die Untersuchung der verschiedenen Zelltypen erfolgte dabei mit Hilfe der Durchflusscytometrie. Im ersten Teil dieser Arbeit mussten dafür die Antikörper mit Beads titriert werden, um deren optimale Einsatzkonzentration zu finden und mögliche falsche Ergebnisse in späteren Probenanalysen ausschließen zu können. Es wurde für jeden Antikörper eine Konzentration ausgewählt, jedoch gab es bei einigen keine Eindeutigen Ergebnisse, wie bei CCR4 und CD45RA, für die weitere Titrationsschritte nötig wären. Im Anschluss wurde erfolgreich eine Kompensation mit diesen Antikörpern durchgeführt. Nach Etablierung des Antikörperpanels wurden Blut- und Gewebeproben zweier Psoriasis betroffenen Patienten auf T-Zellen und MDSCs vor und unter Therapie betrachtet. Die Therapie erfolgte mit Anthralin, dessen Wirkung noch nicht vollständig geklärt ist. Für die Gewebeprobenanalyse wurden zuvor drei Varianten für die Isolation der Immunzellen aus Gewebe ausgetestet. Dabei unterschieden sich die Varianten in der Inkubationszeit mit DNase und Kollagenase. Die Überprüfung innerhalb einer Patientenprobe mit der ausgewählten Variante war jedoch nicht erfolgreich. Um die Zelltypen aus Blutproben betrachten zu können, wurden PBMCs aus dem Blut isoliert und die Zellen anschließend mit den Antikörpern gefärbt. Bei beiden Patienten zeigte sich die Th17.1-Population als größte und die Th2-Population als kleinste. Dass die Psoriasis eine Th17 dominierte Krankheit ist, konnte damit bestätigt werden. Es gab kaum Veränderungen innerhalb der Subpopulationen zum 2. Zeitpunkt. Für die MDSCs zeigte sich eine größere PMN-MDSC Population. Dies könnte zeigen, dass die während einer Anthralinbehandlung rekrutierten MDSCs, der Gruppe der PMN-MDSCs angehören. Jedoch ähneln sich diese in ihrer Morphologie mit denen der Neutrophilen, weshalb die Überprüfung der T-Zell Suppression, welche nur durch die MDSCs gegeben ist, mittels CFSE-Färbung angeschlossen werden sollte. An diese Bachelorarbeit schließt sich eine weitere Studie an, welche sich näher mit der Wirkungsweise der Anthralinbehandlung bei Psoriasis und der damit verbundenen MDSCs beschäftigen wird.
Im Rahmen dieser Arbeit wurden zwei verschiedene Rührkesselreaktoren betrieben. Der Erste diente dazu, den Biogasbildungsprozess aus stickstoffreichen Substraten abzubilden. Im Laufe des Versuches wurde dem Reaktor durch die Nitrifikation/Denitrifikation-Verfahren stickstoffreduzierter Klarlauf hinzugefügt. Dabei wurde ein Anstieg der Methanausbeute und der Biogasbildung beobachtet. Der zweite Reaktor wurde als SBR (Sequencing Batch Reactor) betrieben, um das Anammox-Verfahren als alternative stickstoffreduzierende Methode bei Gärresten zu untersuchen. Dabei wurde am Ende des Versuchs ein Abbau des Ammoniumstickstoffes von ca. 20 % erreicht.
Neuronal gesteuerte Agenten werden über genetische Entwicklung fortgebildet und optimieren somit ihre Verhaltensweisen in einer vorgegebenen Umgebung, um entsprechende Bedürfnisse maximal zu erfüllen. Dafür wird eine statische Umgebung erstellt, in welcher zu bestimmten Zeiten gegebene Orte geöffnet haben. Für die Agenten gilt es nun herauszufinden, wie sie ihre Zeit am effektivsten Nutzen können.
Die Bachelorarbeit umfasst eine Auseinandersetzung mit dem aktuellen Straftatphänomen Cybertrading. In Zusammenarbeit mit Beteiligten des Strafverfolgungsprozesses und entsprechender Literatur wird das Phänomen aus den Gesichtspunkten der Wirtschaft, des Bankwesens, des Rechts, der Psychologie und der Polizei näher beleuchtet. Mithilfe dieser Erkenntnisse werden die Problemfelder im Umgang mit der Betrugsstraftat aufgedeckt.
Die tägliche Arbeit von Softwareentwicklern ist es, Software so zu schreiben, dass sie auch in Zukunft so schnell und flexibel entwickelt werden kann wie am ersten Tag. Dafür stehen ihnen zahlreiche Methoden und Tools zur Unterstützung zur Verfügung. Jedoch stellt die Einrichtung und erstmalige Anwendung solcher Hilfsmittel oftmals eine Hürde dar, vor allem, wenn man selbst in diesem Bereich noch keine Erfahrung gesammelt hat. In dieser Arbeit wird dieser Ansatz durch die Entwicklung und Anwendung einer statischen Code-Analyse und Modultests auf eine bestehende NodeJS-Software verfolgt. Diese Software ist Teil einer übergeordneten Projektinfrastruktur, auf deren Komponenten diese Testverfahren später ebenfalls angewendet werden sollen. Für die Evaluation werden etablierte Tools zur Implementierung und Automatisierung der Testprozesse ausgewählt. Der Vergleich dieser Tools erfolgt dann auf der Grundlage gewichteter Kriterien die anhand einer subjektiven Einschätzung bewertet werden. Zunächst werden die Tools JSLint, JSHint und ESLint für die statische Codeanalyse evaluiert. Dann werden Unit-Tests entworfen und definiert und anschließend mit den Unit-Test-Frameworks Mocha, Jest und Vitest implementiert. Schließlich werden die Tests mit einem CI-Tool automatisiert. Aus der Vielzahl an Plattformen wurden BitBucket Pipelines, CirleCI und Buddy als Testobjekte ausgewählt. Es stellte sich heraus, dass eine Vielzahl projektspezifischer Faktoren bei der Auswahl der CI Tools eine Rolle spielen. Die Evaluierung der Tools lieferte eine solide Grundlage für weitere Tests und damit Vertrauen und Sicherheit in die Zukunft von EnjineIO. Diese Arbeit ist besonders für Softwareentwickler interessant, die noch keine Erfahrung mit Softwaretests gemacht haben und einen Einblick in dieses Thema erhalten möchten. Zudem dient sie dazu, einen Einblick in die Besonderheiten der genannten Softwaretest-Tools zu erhalten, wenn ein Team den Wechsel auf eines davon plant.
Das Ziel der vorliegenden Bachelorarbeit ist es zu beantworten, inwieweit Chatbots die Aufgaben von Projektmitgliedern vor allem im Bereich Projektmanagement optimieren können. Dabei wird auf theoretische Grundlagen aufbauend, eine Analyse zur Umsetzung eines solchen Systems durchgeführt, die vor allem auf die Anforderungen innerhalb eines Projektmanagements Bezug nimmt. Im Ergebnis der Ausarbeitung soll mithilfe eines entwickelten Prototyps belegt werden, ob die genannten künstlich intelligenten Systeme es möglich machen können, gewisse Arbeitsabläufe zu erleichtern beziehungsweise diese den Projektmanagern komplett abzunehmen. Innerhalb eines abschließenden Probandentests soll demonstriert werden, dass der Einsatz des Prototyps in einem größeren Projekt sinnvoll sein kann. Weiterhin soll ebenfalls gezeigt werden, dass eine Moral- sowie Arbeitssteigerung aller Projektmitglieder durch den Prototyp möglich ist.
Im Rahmen dieser Arbeit wurde ein Arbeitsablauf entwickelt, welcher es ermöglicht daktyloskopische Spuren aus photogrammetrischen 3D-Modellen abzulösen. In der anschließenden Evaluation wird geklärt, ob diese digital abgelösten Spuren denselben Informationsgehalt haben wie real abgelöste Spuren. Dargestellt werden daktyloskopische Grundlagen, Methoden aus der 3D-Modellierung sowie die Photogrammmetrie. Außerdem werden die verwendeten Methoden sowie die daraus resultierenden Ergebnisse präsentiert.
In Machine Learning, Learning Vector Quantization(LVQ) is well known as supervised learning method. LVQ has been studied to generate optimal reference vectors because of its simple and fast learning algorithm [12]. In many tasks of classification, different variants of LVQ are considered while training a model. In this thesis, the two variants of LVQ, Generalized Matrix Learning Vector Quantization(GMLVQ) and Generalized Tangent Learning Vector Quantization(GTLVQ) have been discussed. And later, transfer learning technique for different variants of LVQ has been implemented, visualized and we have compared the results using different datasets.
Das Berechtigungssystem ist ein grundlegender Sicherheitsmechanismus der Android-Plattform. Diese Arbeit widmet sich diesem im Kontext der speziellen Bedrohung durch Android-Trojaner, welche durch die Modifikation legitimer Applikationen erstellt werden. Unter den Fragestellungen, inwiefern Android-Trojaner Systemberechtigungen benötigen und wie sie diese als trojanisierte Applikationen auf Applikationsebene erhalten können, werden die beiden Aspekte zusammengeführt und untersucht. Dazu erfolgt eine Analyse der Funktionsweise des Berechtigungssystems in aktuellen AndroidVersionen, welche sich auf die Dokumentation, den Android-Quelltext und praktische Versuche stützt.
Neben bestehender Literatur, die zur Beantwortung der Fragestellungen herangezogen wird, ist die Analyse der Verwendung von Berechtigungen in den Open-Source Trojanern AndroRAT und dem Metasploit-Android-Payload Teil der Arbeit. Die beiden Schadprogramme werden außerdem für die Trojanisierung existierender Applikationen verwendet. Dabei werden Möglichkeiten aufgezeigt, wie bei der Modifikation einer legitimen Applikation Berechtigungsanfragen hinzugefügt werden können. Zudem wird gezeigt, wie die Manipulation einer Kompatibilitätsangabe im Rahmen der Trojanisierung zu dem Erhalt der Berechtigungen führt.
Der Einsatz von künstlicher Intelligenz soll in der Zukunft auch die Verbrechensaufklärung unterstützen. Ein Teilgebiet dessen ist die Bewegungsanalyse von Menschen. Ein wichtiger Aspekt dabei ist die Verformung und Bewegung der Wirbelsäule, mit der Frage, wie viele Wirbel als digitale Knochen einzeln benötigt werden, um eine Bewegung noch möglichst natürlich und anatomisch korrekt darstellen zu können. Diese Arbeit befasst sich mit der Reduktion der Wirbelsäule bzw. einzelner Wirbel anhand der Erstellung und Posierung von 3DSkeletten, welche je über anders zusammengefasste Wirbel verfügen.
Das Ziel der vorliegenden Arbeit ist die Evaluation von Methoden zur Erzeugung von Körpermustern im Kontext der forensischen 3D-Rekonstruktion. Dabei wurde die Hypothese verfolgt, dass eine Photogrammetrie-CAVE für diese Anwendung die besten Ergebnisse erzielen kann. Um diese Hypothese zu untersuchen, wurde in dieser Arbeit hinterfragt, welche Methoden für diese Anwendung infrage kommen, wie effizient und genau diese sind und welche Unterschiede zwischen den Methoden zu erkennen sind. Um diese Fragen zu beantworten, wurden im Rahmen der Arbeit mehrere Modelle von verschiedenen Probanden unter Nutzung drei verschiedener Softwares erzeugt und evaluiert. Die Evaluation zeigt dabei große Unterschiede im Zeitaufwand und der Genauigkeit der Modelle. Weitere Forschung auf diesem Gebiet könnte die Nutzung der in dieser Arbeit verwendeten Software verfeinern, aber auch neue Ansätze und Softwaretypen auf ihre Tauglichkeit für diesen Anwendungsbereich testen.
Fermat proposed fermat’s little theorem in 1640, but a proof was not officially published until 1736. In this thesis paper, we mainly focus on different proofs of fermat’s little theorem like combinatorial proof by counting necklaces, multinomial proofs, proof by modular arithmetic, dynamical systems proof, group theory proof etc. We also concentrate on the generalizations of fermat’s little theorem given by Euler and Laplace. Euler was the first scientist to prove the fermat’s little theorem. We will also go through three different proofs given by Euler for fermat’s little theorem. This theorem has many applications in the field of mathematics and cryptography. We focus on applications of fermat’s little theorem in cryptography like primality testing and publickey cryptography. Primality test is used to determine if the given number n is a prime number or composite number. In this paper, we also concentrate on fermat primality test and Miller-Rabin primality test, which is an extension of fermat primality test. We also discuss the most widely used public-key cryptosystem i.e, the RSA Algorithm, named after its developers R. Rivest, A. Shamir, and L. Adleman. The algorithm was invented in 1978 and depends heavily on fermat’s little theorem.
Die vorliegende Arbeit betrachtet die Möglichkeiten zur Sicherung von Foto- und Videobeiträgen aus sozialen Netzwerken, um diese im Rahmen der Strafverfolgung als Beweismittel nutzbar zu machen. Vier ausgewählte Sicherungsmethoden werden in einem Sicherungsversuch angewendet und im Anschluss miteinander verglichen. Schließlich wird aus den so ermittelten positiven Eigenschaften der Methoden eine hypothetische optimale Methode formuliert, welche für eine zukünftige Anwendung implementiert werden könnte.
In der vorliegenden Bachelorarbeit wurde ein Prototyp einer Software konzipiert und implementiert, die es ermöglicht, eine Active Directory Domain nach potenziellen Schwachstellen zu durchsuchen und deren Ausnutzbarkeit zu testen. Dabei simuliert die Software das Vorgehen eines Penetrationstesters, um zu erörtern, ob ein solches Tool diesen ersetzen kann. Die Arbeit beschreibt das Vorgehen des Autors während der Programmierung dieser Software sowie die Funktionsweise des Programms. Durch die Entwicklung und Reflektion dieses Tools konnte gezeigt werden, dass menschliche Penetrationstester deutliche Vorteile gegenüber automatisierten Programmen aufweisen und solche Tools aufgrund einiger Faktoren nur unterstützend, aber nicht ersetzend, verwendet werden können.
Die vorliegende Masterarbeit befasst sich mit der Entwicklung einer Android-Applikation zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Dabei richtet sich der Fokus zuerst auf das aus den USA stammende AMBER-Alert-System – ein System zur Suche vermisster Kinder – und im weiteren Verlauf auf den aktuellen Stand eines solchen Systems innerhalb Deutschlands. Bisher haben sich nur wenige Arbeiten mit der Umsetzung einer solchen App auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Implementierung einer prototypischen App zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Diesbezüglich werden bereits existierende Applikationen betrachtet und daraus ein konzeptioneller Entwurf entwickelt. Dieser Entwurf dient als Grundlage für die prototypische Implementierung der App.
Die vorliegende Arbeit stellt eine effektive Möglichkeit dar, um einen Großteil der Bevölkerung in Deutschland zur schnellen Suche und sicheren Bergung bei vermissten Kindern zu erreichen.