Refine
Document Type
- Bachelor Thesis (76)
- Master's Thesis (31)
- Diploma Thesis (1)
Year of publication
- 2022 (108) (remove)
Keywords
- Computersicherheit (12)
- Maschinelles Lernen (11)
- Softwareentwicklung (8)
- Computerforensik (7)
- Forensik (6)
- Blockchain (5)
- Fotogrammetrie (5)
- Kryptologie (4)
- Virtuelle Währung (4)
- Android <Systemplattform> (3)
Institute
- Angewandte Computer‐ und Biowissenschaften (108) (remove)
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Blockchain-Governance wird oft mit der Führung von Unternehmen oder von Nationalstaaten verglichen, obwohl diese sich selbst eher als Decentralized Autonomous Organizations (DAOs) und damit als reine Software verorten. In dieser Arbeit wird die Polkadot-Governance in jener Ebene, in der Menschen über Polkadot Entscheidungen treffen, dargestellt, um sie dann mit rechtlichen Konzepten, die den Rahmen für die Entscheidungsfindung in Unternehmen und Staaten bilden, sowie mit den rechtlichen Grundlagen für die Entscheidungsfindung einer DAO zu vergleichen.
Hinsichtlich des verändernden Stoffwechsels stellen Kiesel- und Grünalgen eine interessante und gut nutzbare, wenn auch lose und schwer definierbare Gruppierung innerhalb der biologischen Systematik dar: Ihr Potenzial, die Eigenschaften von Pflanzen (dank Photosynthese) und Mikroorganismen (in ihrer jeweiligen Größe und ihrem bedingt heterotrophen Stoffwechsel) zu kombinieren, ist bisher unübertroffen und eröffnet Möglichkeiten u. a. für die Bereiche der Abwasserbehandlung und die Kultivierung von Mikroalgen in Abwassermedien. Obwohl ihre Eignung für wirtschaftliche Zwecke ihr volles Potenzial noch nicht vollständig erreicht hat, scheint der Weg dorthin sicherlich diese Richtung einzuschlagen – mit der Biotechnologie als ein sich ständig weiterentwickelndes Fachgebiet, ist die Verwendung von Algen
für bestimmte Zwecke an die bisherigen Erkenntnisse und den daraus resultierenden Möglichkeiten gebunden. In diesem Versuch wurden insgesamt vier Mikroalgen, drei Grünalgen (C. vulgaris, A. obliquus und C. reinhardtii) und eine Kieselalge (N. pelliculosa), auf ihr Wachstumsverhalten in unterschiedlich konzentrierten Abwassermedien, von 20 % bis 100 % in 20 %-Schritten, getestet. In Bezug auf die erzielten Ergebnisse scheint der vielversprechendste Kandidat für diese Zwecke C. reinhardtii zu sein, welcher das schnellste Wachstum innerhalb der Inkubationszeit von 3 Tagen erreicht hatte und die meisten Nährstoffe aus dem Abwassermedium entfernte. In geringeren Abwasserkonzentrationen kam es stattdessen zum starken Wachstum von A. obliquus, womit dieser Organismus eine Alternative zu geringer belasteten Medien (hinsichtlich der Nährstoffe, als auch der Keimbelastung) darstellt. Außerdem wurden je 5 L A. obliquus und C. vulgaris Inokula in einem größeren Aquarium mit ca. 50 L Abwasser inkubiert unter strengeren Parameterbedingungen und höheren
Kontaminationsrisiko. Dennoch konnte auch hier innerhalb von fünf Tagen ein Abbau von ca. 99,40 % des Phosphats auf 0,055 mg/L erreicht werden, innerhalb einer Woche bzw. sieben Tagen von 99,92 % auf 0,007 mg/L ortho-Phosphat. Ob diese Organismen auch weiterhin eine wichtige Rolle in zukünftigen Technologien für die Abwasserreinigung spielen, hängt von weiteren Studien auf diesem Gebiet ab sowie neuen Innovationen bezüglich der wirtschaftlichen Nutzbarkeit für Unternehmen, welche durch Investitionen den weiteren Ausbau sowie die Forschung im Gebiet der
Algennutzung fördern.
In dieser Arbeit wird eine Vorgehensweise für die Erstellung von Grafiken zur Nachempfindung eines 2D Cartoon Looks mithilfe von 3D-Daten vorgestellt und evaluiert. Dafür werden vorerst essenzielle Definitionen in Bezug auf Stil geklärt, wichtige Stilelemente identifiziert, erläutert und in einer 3D-Umgebung praktisch umgesetzt. Es wird dabei eine tatsächliche Nachbildung von Spielelementen durchgeführt, um diese schlussendlich bewerten zu können.
In dieser Bachelorarbeit wird ein Überblick über die Management- und Orchestrierungskomponente eines 5G Mobilfunknetzes sowie dafür relevante, zugrundeliegende Konzepte gegeben. Die Sicherheitsrelevanz des MANO-Systems wird anhand der Ergebnisse einer Risikoanalyse eingeordnet. Die daraus abgeleiteten Sicherheitsvoraussetzungen werden mit bereits bestehenden Zertifizierungs-Tests verglichen und somit herausgearbeitet, für welche Sicherheitsaspekte zukünftig ein MANO-spezifischer Zertifizierungstest erstellt werden muss. Um die Arbeit abzuschließen, wird ein beispielhafter Test-Entwurf vorgestellt, mit
welchem sich eine der noch offenen Sicherheitsvoraussetzungen überprüfen lassen könnte.
With the growing market of cryptocurrencies, blockchain is becoming central to various research areas relevant from a mathematical and cryptographic point of view. Moreover, it is capable of transforming the traditional methods involving centralized network operations into decentralized peer-to-peer functionalities. At the same time, it provides an alternative to digital payments in a robust and tamperproof manner by adding the element of cryptography, consequently making it traversable for an individual who is a part of the blockchain network. Furthermore, for a blockchain to be optimal and efficient, it must handle the blockchain trilemma of security, decentralization, and scalability constraints in an effective manner. Algorand, a blockchain cryptocurrency protocol intended to solve blockchain’s trilemma, has been studied and discussed. It is a permissionless (public) blockchain protocol and uses pure proof of stake as its consensus mechanism.
Einfluss der Trauma-Zytokine TNFa, IL-6 und EPO auf das Transkriptom mesenchymaler Stammzellen
(2022)
Mit den Trauma-Zytokinen IL-6, TNFα & EPO wurde der Einfluss auf das Transkriptom mesenchymaler Hautstammzellen untersucht. Dabei wurde sich vor allem auf die Expression krebsassoziierte Gene konzentriert und untersucht, ob EPO möglichweise eine Verringerung der Expression solcher Gene hervorruft. Dazu hat man das Transkriptom von Zellen sequenziert, die unter Einfluss der Zytokinen in verschiedenen Zusammensetzung standen. Mithilfe einer differentiellen Expressionsanalyse (DE) konnte eine erhöhte Menge an RNA sowie erhöhte Expression von krebsassoziierten in den Zellen unter Einfluss der Zytokine festgestellt werden. Zellen, denen neben TNFα, IL-6 das Zytokin EPO hinzugegeben wurden, zeigten keine Verringerung krebsassoziierter Gene auf. Außerdem konnte eine Reaktion der Zellen auf eine durch TNFα und IL-6 simulierte Immunreaktion festgestellt werden. Auch Gene, die für Hautzellen eher untypisch sind, und somit noch einen unspezifischen Differenzierungsgrad der Stammzellen aufzeigen, konnten identifiziert werden.
Wirksame Sicherheitsmaßnahmen zu entwickeln und auch zu implementieren, bedeutet im Umkehrschluss, dass zuerst einmal die zugrundeliegenden Gefahren, Schwachstellen und Sicherheitslücken bekannt sein und verstanden werden müssen. Das beste System hat wenig Nutzen, wenn der Mensch, der es bedient, es nicht zu nutzen weiß. Aus diesem Grund soll mit der vorliegenden Arbeit ein grundlegendes Verständnis zu möglichen Angriffen auf das Session Management beziehungsweise in diesem Fall auch die Verschlüsselung gelegt werden. Im Anschluss daran werden mögliche Schutzmaßnahmen dargelegt, welche als eine Art Leitfaden dienen sollen.
In dieser wissenschaftlichen Arbeit werden verschiedene Testverfahren vorgestellt und deren Umsetzungsmöglichkeiten mit der Applikation BFlow im Infor LN erläutert. Dabei werden zuerst verschiedene, ausgewählte Geschäftsprozesse innerhalb des Infor LN analysiert und anschließend mittels einer Ereignisgesteuerten Prozesskette grafisch dargestellt. Auf die Analyse folgt die Umsetzung dieser Prozesse mittels BFlow. Um die Aussagefähigkeit der verschiedenen Testarten feststellen zu können werden verschiedene Szenarien definiert und jeder Test für das dargestellte Szenario durchgeführt. Abschließend wird eine Schlussfolgerung, basierend auf den Ergebnissen der einzelnen Testdurchläufe, formuliert.
Das erste Ziel dieser Arbeit war es zu evaluieren, inwiefern in der Praxis mit Hilfe von zwei Photogrammetrie-Softwares Spurenträger mit sich stark unterscheidenden Oberflächen dreidimensional modelliert werden können und welche Auswirkungen die Ergebnisse auf die darauf befindlichen (Blut-) Spuren und damit der forensischen Nutzbarkeit haben. Es wurden dafür drei Objekte gewählt, welche aufgrund ihrer unterschiedlichen Oberflächen- und Textureigenschaften im photogrammetrischen Kontext in drei verschiedene Schwierigkeitsklassen unterteilbar sind. Zudem wurden alle Gegenstände mit passiven Blutspuren benetzt, um zu bewerten, inwiefern anhand der erzeugten Modelle in Hinblick auf die Qualität eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich ist. Um eine Gegenüberstellung einer frei verfügbaren und professionellen Photogrammetrie-Software in Bezug auf die Quali- und Quantität der Ergebnisse durchzuführen, wurde das kostenfreie Meshroom und als Gegenpol das kostenpflichtige Agisoft Metashape für die 3D-Modellie-rung der Objekte verwendet. Alle Spurenträger wurden zuerst mit den jeweiligen Standardeinstellungen der Softwares modelliert. Durch eine Abänderung der Standard-Pipelines wurde dann versucht die Modell- und Spurqualität maßgeblich zu verbessern. Für die 3D-Modellierungen wurde in beiden Softwares dasselbe Bildmaterial (inkl. Polfilteraufnah-men) genutzt.
Da an der Hochschule Mittweida beide zu evaluierenden Photogrammetrie-Softwares zur Verfügung stehen, war ein zweites Ziel dieser Arbeit Handlungsempfehlungen in Form von je einem Entscheidungsbaum pro Schwierigkeitsklasse ausgehend von den Ergebnissen zu formulieren, um die Auswahl der richtigen Software inklusive der Einstellungen bei der digitalen forensischen Sicherung von unterschiedlichen Objekten mit Blutspuren zu vereinfachen.
Zusammenfassend sollen in dieser Arbeit die folgenden vier Fragestellungen beantwortet werden:
▪ Können die 3D-Modelle der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares in Bezug auf ihre Modell- und Spurqualität durch eine Optimierung der Standard-Pipelines und der Bildaufnahme maßgeblich verbessert werden?
▪ Welche der beiden verwendeten Photogrammetrie-Softwares stellt die unterschiedlich schweren Objekte inklusive ihrer Blutspuren als 3D-Modell qualitativ hochwertiger und realistischer dar?
▪ Inwiefern ist anhand der Qualität der 3D-Blutspuren der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich? Wie genau sind die Vermessungen?
▪ Lassen sich ausgehend von den Erkenntnissen der ersten drei Fragestellungen all-gemeine Vorgehen für unterschiedlich schwere Spurenträger für die digitale forensische Spurensicherung formulieren?
In der vorliegenden Arbeit wird ein Konzept für eine Test- und Evaluationsumgebung von Forschungsergebnissen im Bereich der Cybersicherheit gebildet. Das dabei entstehende Rahmenwerk ist modular aufgebaut und zeigt, im Vergleich zu bisherigen Test- und Evaluationsumgebungen, einige Besonderheiten auf. Als Basis für die entstehende Konzeptumgebung werden vier Module vorgestellt, mit denen zukünftige Technologien der Cybersicherheit getestet und bewertet werden können.
Die Arbeit beschäftigt sich mit der Entwicklung eines Policy-Konzepts zur Steuerung von Netzwerkverkehr an den Außengrenzen eines digitalen Raums. Um Ressourcen innerhalb des Raums zu schützen, definiert die Autorität des Raums mit Hilfe einer semantischen KI Kommunikationsziele. Diese müssen mit Hilfe des zu entwickelnden Policy-Konzepts den Grenzpunkten des Raumes mitgeteilt und dort umgesetzt werden Die Bachelorarbeit beschäftigt sich mit der Entwicklung des Policy-Konzepts und einer prototypischen Implementierung eines solchen Grenzpunktes.
Im Prozess der Masterarbeit und des vorangegangenen Forschungsmoduls wurden drei verschiedenartige Anbieter*innen von Escape Spielen untersucht. Zu diesem Zweck wurden Vor-Umfragen eingeholt, um Informationen über populäre und bekannt Reihen dieser Art zu erkennen. Aufbauend auf diesen Fragebögen wurden anschließend drei Anbieter*innen gewählt, welche eine möglichst unterschiedliche Herangehensweise an die Umsetzung eines Escape-Raumes mit minimalistischen Mitteln haben. Nachdem diese ausgemacht wurden, konnten die Proband*innen-Gruppen eingeteilt werden, um, basierend auf diesen Konstellationen, verschiedene Boxen der Herausgeber einer Reihe auszuwählen. Auch bei diesen lag ein besonderer Schwerpunkt auf der Vergleichbarkeit, wodurch auf mögliche Zusammenhänge der Storylines geachtet wurde. Um die folgende Testphase planen zu können, musste jede der vierzehn Ausgaben zunächst selbst getestet und analysiert werden. Hierzu wurden alle Rätsel versucht zu lösen und zu verstehen, um den Kern der Aufgabenstellung erfassen zu können. Zudem wurde ein Zusammenhang zwischen den Karten in Form von Ablauf-Diagrammen ermittelt, wobei festgestellt werden konnte, dass mit zunehmender, ausgeschriebener Schwierigkeit diese breiter werden. Das bedeutet, dass zu Rätseln, welche als schwerer markiert waren, mehr Karten gegeben wurden. Eine der Herausforderungen lag darin, die benötigten Karten auszumachen. Da diese Methodik jedoch nicht zwingend mit der Art der Rätsel und den Hindernissen diese zu Lösen verknüpft ist, sondern als unterstützendes Element angesehen werden kann, wurde sie in der vorliegenden Arbeit nicht berücksichtigt. Nachfolgend konnten aufgrund der gewonnenen Erkenntnisse Fragebögen erstellt werden, welche sowohl allgemein auf die gesamte Box, als auch speziell auf die einzelnen Rätsel eingehen. Hierbei wurden klare Ziele gesteckt, welche Informationen erhoben werden sollten. Anhand dieser Strukturierung war es möglich eine umfassende Sammlung an sehr verschiedenartigen Fragen zu erstellen, wodurch im Verlauf der Tests eine Vielzahl an Informationen gewonnen werden konnte. Zusätzlich zu dieser Erhebung wurden Videodateien während des laufenden Tests erstellt, welche eine detailliertere und unabhängigere Betrachtung der Proband*innen ermöglichen. Nachdem diese Datenerhebungsphase abgeschlossen werden konnte, also alle Boxen verwendet wurden, begann die Vorverarbeitung der Daten. Hierzu wurden zunächst die Videodateien gesichtet und strukturiert und die Fragebögen in eine einheitliche Form gebracht. Es lagen nach dieser Phase strukturierte Videodateien vor, welche den gesamten Prozess des Lösens abbildeten, aber auch Dateien zu den einzelnen, definierten Rätseln. Diese einzelnen Rätsel wurden weitergehend kategorisiert und in ein vergleichbares Schema eingeordnet. Diese einzelnen Rätselvideos konnten zudem durch einen Algorithmus verarbeitet werden, welcher die unterschiedlichen Gesichter der Proband*innen erfassen, analysieren und in sieben Emotionen unterteilen kann. Aus diesem Verarbeitungsschritt entstanden zu jedem Rätsel drei CSV Dateien, welche diese Wahrscheinlichkeiten in Abhängigkeit des aktuellen Bildes wiedergeben. In Bezug auf die Fragebögen wurden Tabellenstrukturen erreicht, welche die unterschiedlichen Arten und Teile dieser in einer einheitlichen Struktur wiedergeben. Nach diesem Schritt war es möglich die Daten auf eine sinnvolle Weise zu kombinieren und aus diesen Rückschlüsse auf Korrelationen zu ziehen. Auch eine Analyse mit umfangreicheren Anwendungen, wie „Rapid Miner“ sind denkbar, jedoch haben die beschriebenen Methoden für die anvisierten Fragestellungen genügt. Auch andere Hypothesenuntersuchungen können aufgrund der aufgearbeiteten Daten erreicht werden, da sicherlich noch andere Zusammenhänge in dieser Masse an Informationen stecken. Jedoch wurde mit dieser Aufnahme und diesen Auswertungen die Fragestellungen beantwortet, welche am Anfang des Praxismoduls aufgekommen waren
In der vorliegenden Bachelorarbeit wurde ein Prototyp einer Software konzipiert und implementiert, die es ermöglicht, eine Active Directory Domain nach potenziellen Schwachstellen zu durchsuchen und deren Ausnutzbarkeit zu testen. Dabei simuliert die Software das Vorgehen eines Penetrationstesters, um zu erörtern, ob ein solches Tool diesen ersetzen kann. Die Arbeit beschreibt das Vorgehen des Autors während der Programmierung dieser Software sowie die Funktionsweise des Programms. Durch die Entwicklung und Reflektion dieses Tools konnte gezeigt werden, dass menschliche Penetrationstester deutliche Vorteile gegenüber automatisierten Programmen aufweisen und solche Tools aufgrund einiger Faktoren nur unterstützend, aber nicht ersetzend, verwendet werden können.
Diese Arbeit behandelt die Entwicklung einer Software zur Verwaltung und Dokumentation von Zugriffsrechten. Dafür wird gezeigt, wofür eine solche Verwaltung und Dokumentation von Zugriffen benötigt wird und wie diese mit Hilfe einer geeigneten Software umgesetzt werden kann. Es werden wichtige
Anforderungen erläutert und die entwickelte Software hinsichtlich Aufbau und wesentlichen Funktionen beschrieben.
In der vorliegenden Masterarbeit werden Daten der Kriminalstatistik Berlins in Bezug auf die Entwicklung erfasster Straftaten statistisch analysiert und hinsichtlich kausaler Zusammenhänge ausgewertet. Der Hauptaspekt der Arbeit bildet ein neuer Modellierungsansatz für den Bereich des Predictive Policing, welcher sich auf Erkenntnissen über Bayesian Belief Networks stützt. Durch die präsentierten Ansätze soll die grundsätzliche Anwendbarkeit von gerichteten Graphen für die Problemstellungen des Predictive Policing aufgezeigt werden, da diese aufgrund ihres Potenzials in der Abbildung von Informationsflüssen sowie Eigenschaften der Inferenz zukünftig neue Möglichkeiten in der Modellierung der Ausbreitung von Kriminalität bieten können.
Das Ziel der vorliegenden Bachelorarbeit ist es zu beantworten, inwieweit Chatbots die Aufgaben von Projektmitgliedern vor allem im Bereich Projektmanagement optimieren können. Dabei wird auf theoretische Grundlagen aufbauend, eine Analyse zur Umsetzung eines solchen Systems durchgeführt, die vor allem auf die Anforderungen innerhalb eines Projektmanagements Bezug nimmt. Im Ergebnis der Ausarbeitung soll mithilfe eines entwickelten Prototyps belegt werden, ob die genannten künstlich intelligenten Systeme es möglich machen können, gewisse Arbeitsabläufe zu erleichtern beziehungsweise diese den Projektmanagern komplett abzunehmen. Innerhalb eines abschließenden Probandentests soll demonstriert werden, dass der Einsatz des Prototyps in einem größeren Projekt sinnvoll sein kann. Weiterhin soll ebenfalls gezeigt werden, dass eine Moral- sowie Arbeitssteigerung aller Projektmitglieder durch den Prototyp möglich ist.
The aim of this bachelor thesis is to find out how the use of artificial intelligence, specifically the one used in combat situations, can increase the playing time or even the replay value of games in the action role-playing genre. Thereby, it focuses mainly on combat situations between a player and an artificial intelligence.
To begin with, this bachelor thesis examines the action role-playing genre in order to find a suitable definition for it. Accordingly, action role-playing games involve titles that send the player on a hero’s journey-like adventure in which they must prove their skills in combat against virtual opponents. The greatest challenge of these real-time battles comes from the required quick reflexes, skill queries and hand-eye coordination.
Next, six means of increasing the replayability of a game are explored: Experience and Nostalgia, Variety and Randomness, Goals and Completion, Difficulty, Learning, and Social Aspect. The paper then proceeds to give an explanation for the term Artificial Intelligence and examines the various methods used to create intelligent behavior as well as the general advancement of the research field. Special attention is given to the implementation methods of Finite State Machines and Behavior Trees, as they are the most widely used methods for creating behavioral patterns of virtual characters.
Finally, a study conducted as part of the bachelor thesis is described, which compares a mathematically balanced artificial intelligence with a behaviorally balanced one in terms of game performance regarding the willingness of test subjects to purchase and play through the game as well as its replay value. The thesis concludes with the findings that while the behavioral approach is more promising than the mathematical approach, a combination of the two methods ultimately leads to the best outcome. Furthermore, the study shows that the use of artificial intelligence to individualize gaming experiences is promising for the future of the gaming industry.
Die Biometrie bildet in heutigen Zeiten in den Bereichen der forensischen Arbeit und der Sicherheit ein besonderen Teil. Dabei werden in heutigen Verfahren biometrische Merkmale wie Gesichtsmaße, Fingerabdrücke oder auch Irismuster verwendet. Jedoch stößt die Verwendung dieser Merkmale oft an ihrer Grenzen, wenn es darum geht, vermummte Täter auf Überwachungsaufnahmen zu identifizieren. An dieser Stelle soll der Täter mittels eines Rigs auf der Aufnahme vermessen werden. Die erhaltenen Maße sollen anschließend mit den Maßen von Personen im Reale verglichen werden, um dadurch den Täter von der Aufnahme zu identifizieren. In dieser Arbeit wird ein gegebener Datensatz näher untersucht. Der Datensatz enthält anthropometrische Maße, Front-Rigs (2D-Rigs) sowie 3D-Rigs von 170 Frauen und 170 Männern. Ziel soll es sein, die im Datensatz gegebene Separierbarkeit mittels eines optimalen Trenn- beziehungsweise Klassifikationsverfahrens nachzuweisen. Zum Einen wird die Vergleichbarkeit der Front- und 3D-Rigs überprüft. Dafür wird eine Möglichkeit gesucht, eine mögliche Abweichung zwischen den Dimensionen der Rigs mittels eines allgemeinen Fehlers beziehungsweise Verhältnisses auszudrücken. Zum Anderen werden verschiedene Klassifikationsverfahren durchgeführt, die zwischen zwei Körperhöhengruppen gegebene Separierbarkeit optimal nachzuweisen. Abschließend wird ein weiteres Merkmal neben der Körperhöhe gesucht, um Personen in Gruppen einzuteilen. Im Verlauf der Arbeit wird ersichtlich, dass zwischen den Front-Rigs und 3DRigs ein Unterschied besteht, der sich jedoch schwer in ein allgemeinen Fehler beziehungsweise ein allgemeines Verhältnis fassen lässt. Mittels der Manhattan-Distanz kann die Separierbarkeit nur schwer nachgestellt werden. Durch die Verwendung von k-NNs und logistischen Regressionen ist die Separierbarkeit trotz auftretender Falschklassifikationen nachzuweisen. Als weiteres Merkmal zur Körperhöhe wird das Verhältnis von Oberkörper zu Unterkörper betrachtet. Die mittels dieses Verhältnisses bestimmten Gruppen sind ebenfalls nachweisbar. In Zukunft sollte der Unterschied zwischen Front- und 3D-Rigs verkleinert beziehungsweise verallgemeinert werden, um die Vergleichbarkeit zu steigern. Des Weiteren sollte die Separierbarkeit mittels weiterer Klassifikationverfahren nachgewiesen werden. Außerdem sollte über eine Erweiterung des Datensatzes um weitere Individuen oder auch andere Körperhöhen nachgedacht werden. Zudem sollten auch andere Merkmale zur Gruppierung der Personen weiter untersucht werden.
Fake News und Betrugsschemata sind heutzutage ein allgegenwärtiger Bestandteil des Internets. Erfahrene Nutzer haben gelernt damit umzugehen und Richtiges von Falschem zu unterscheiden. Doch auch die erfahrensten Benutzer des Internets können von geschickten Hochstaplern und Betrügern manipuliert werden. Die Betreiber der sozialen Medien, können und wollen oftmals nicht für die Sicherheit ihrer Nutzer garantieren, weswegen ein Ansatz benötigt wird, welcher diese Betreiber ablöst. Nachdem Non-Fungible Tokens gezeigt haben, wie digitales Eigentum implementiert werden kann, zeigen sogennante Soulbound Tokens, wie digitales Vertrauen im Internet existieren kann. Diese Art von Tokens sind nicht transferierbar und für immer an ihren Besitzer gebunden, wodurch diverse, digitale Persönlichkeiten entstehen können, deren Glaubwürdigkeit von Soulbound Tokens bewiesen wird. Decentralized Reputation (DeRep) beschreibt dabei eine Reputationsplattform, auf welcher Benutzer Soulbound Tokens als Bewertung für andere Nutzer ausstellen können. Zusammen mit weiteren Funktionen, wie einem Bewertungsalgorithmus für die Profile der Nutzer, wird veranschaulicht, wie Reputation mithilfe von Soulbound Tokens generiert werden kann und welche Herausforderung dabei entstehen.
Prototyp eines standardisierten Fingerabdrucks zur Validierung von Such- und Sicherungsverfahren
(2022)
Die vorliegende Bachelorarbeit beschäftigt sich mit der theoretischen Modellierung eines Prototyps von einem Fingerabdruckstempel. Dabei behandelt sie die chemischen, physischen sowie technischen Merkmale und deren Funktionsweise innerhalb des Stempels. Dieser soll im Hinblick auf die Tatortarbeit dazu dienen, künstliche Fingerabdrücke zu schaffen, um an ihnen die verschiedenen Spurensicherungsverfahren zu testen. Im Zuge dessen geht die Arbeit näher auf das chemische Spurensicherungsverfahren der Kaltbedampfung in einer Vakuumkammer ein. Die Grundlage für dieses Verfahren bildet flüssiges Cyanacrylat, mit dem versucht wird, latente Fingerabdrücke auf einem Objektträger unter verschiedenen Bedingungen sichtbar zu machen. Dabei wird analysiert, welche Voraussetzungen gegeben sein müssen, damit sich der Fingerabdruck in der Vakuumkammer optimal entwickelt.
In dieser Bachelorarbeit war das Hauptziel die Etablierung eines Antikörper Panels für T-Zellen und MDSCs für die Analyse von Leukozyten in Psoriasis vulgaris Blut- und Gewebeproben. Psoriasis ist eine chronische Entzündungserkrankung der Haut und betrifft rund 2-3 % der Bevölkerung weltweit. Die Untersuchung der verschiedenen Zelltypen erfolgte dabei mit Hilfe der Durchflusscytometrie. Im ersten Teil dieser Arbeit mussten dafür die Antikörper mit Beads titriert werden, um deren optimale Einsatzkonzentration zu finden und mögliche falsche Ergebnisse in späteren Probenanalysen ausschließen zu können. Es wurde für jeden Antikörper eine Konzentration ausgewählt, jedoch gab es bei einigen keine Eindeutigen Ergebnisse, wie bei CCR4 und CD45RA, für die weitere Titrationsschritte nötig wären. Im Anschluss wurde erfolgreich eine Kompensation mit diesen Antikörpern durchgeführt. Nach Etablierung des Antikörperpanels wurden Blut- und Gewebeproben zweier Psoriasis betroffenen Patienten auf T-Zellen und MDSCs vor und unter Therapie betrachtet. Die Therapie erfolgte mit Anthralin, dessen Wirkung noch nicht vollständig geklärt ist. Für die Gewebeprobenanalyse wurden zuvor drei Varianten für die Isolation der Immunzellen aus Gewebe ausgetestet. Dabei unterschieden sich die Varianten in der Inkubationszeit mit DNase und Kollagenase. Die Überprüfung innerhalb einer Patientenprobe mit der ausgewählten Variante war jedoch nicht erfolgreich. Um die Zelltypen aus Blutproben betrachten zu können, wurden PBMCs aus dem Blut isoliert und die Zellen anschließend mit den Antikörpern gefärbt. Bei beiden Patienten zeigte sich die Th17.1-Population als größte und die Th2-Population als kleinste. Dass die Psoriasis eine Th17 dominierte Krankheit ist, konnte damit bestätigt werden. Es gab kaum Veränderungen innerhalb der Subpopulationen zum 2. Zeitpunkt. Für die MDSCs zeigte sich eine größere PMN-MDSC Population. Dies könnte zeigen, dass die während einer Anthralinbehandlung rekrutierten MDSCs, der Gruppe der PMN-MDSCs angehören. Jedoch ähneln sich diese in ihrer Morphologie mit denen der Neutrophilen, weshalb die Überprüfung der T-Zell Suppression, welche nur durch die MDSCs gegeben ist, mittels CFSE-Färbung angeschlossen werden sollte. An diese Bachelorarbeit schließt sich eine weitere Studie an, welche sich näher mit der Wirkungsweise der Anthralinbehandlung bei Psoriasis und der damit verbundenen MDSCs beschäftigen wird.
Entwurf und Implementierung einer Importfunktion für XML-Dateien nach dem openTRANS®-Standard
(2022)
Um Geschäftsdokumente wie beispielsweise Aufträge digital zu repräsentieren, werden Standards benötigt, die die darin enthaltenen Informationen einheitlich darstellen. Einer dieser Standards ist openTRANS®.
Diese Arbeit befasst sich mit dem Entwurf und der Implementierung einer Importfunktion für Auftragsdaten, die in Form von openTRANS®-gerechten XML-Dateien vorliegen.
Pollinating insects are of vital importance for the ecosystem and their drastic decline imposes severe consequences for the environment and humankind. The comprehension of their interaction networks is the first step in order to preserve these highly complex systems. For that purpose, the following study describes a protocol for the investigation of honey bee pollen samples from different agro-environmental areas by DNA extraction, PCR amplification and nanopore sequencing of the barcode regions rbcL and ITS. It was shown, that the most abundant species were classified consistently by both DNA barcodes, while species richness was enhanced by single-barcode detection of less abundant species. The analysis of the the different landscape variables exhibited a decline of species richness, Shannon diversity index, and species evenness with increasing organic crop area. However, sampling was only carried out in August and further investigations are suggested to display a more complete picture of honey bee foraging throughout the seasons.
Die Aufgabe von Penetrationstestern ist es, Sicherheitslücken in IT-Systemen zu finden. Dieser Prozess kann innerhalb eines Pentest-Labors geübt werden. Das Ziel der Arbeit war es, ein Konzept zu erstellen, das ein solches Labor auf Basis von Cloud-Computing erstellt. Die Erstellung fand dabei nach einem fünfstufigen Vorgehen statt. Anforderungsanalyse, Evaluation eines Cloud-Providers und eines Automatisierungstools, Grundlagen der gewählten Lösungen, Konzeptionierung und Implementation. Ziel der Analyse war es, Anforderungen zu sammeln, das die Umgebung erfüllen soll. Hauptziel war es demnach einfach und mit minimalem Zeitaufwand verschiedene Infrastruktur-Szenarien zu erstellen. Ein solches Szenario war beispielsweise ein unsicheres Office Netzwerk. Auf diesen Forderungen aufbauend wurden verschiedene Cloud-Provider sowie Anbieter von Automatisierungstools verglichen und es wurde eine Entscheidung für je einen getroffen. Die Wahl fiel auf OpenStack als On-Premise Cloud-Lösung und Terraform als Tool, das automatisiert die Infrastrukturen erzeugen soll. Jene wurden in dem darauffolgenden Kapitel genauer vorgestellt und deren Funktion sowie Betrieb erläutert. Nachdem das Fundament für das Konzept gelegt war, erfolgte das Planen, was für verschiedenen Systeme für das Szenario des Office Netzwerk nötig waren. Dabei handelte es sich um Windows Server und Client, Linux Client und eine Metasploitable Maschine. Daraufhin folgte die Evaluation, wie diese Systeme bereitgestellt und bei Instanziierung konfiguriert werden sollen. Entschieden wurde sich für manuell erstellte Systemabbilder und zur Konfiguration das Tool Cloud-Init.
Abschließend wurde das Konzept an einem Prototyp, mit dem Ziel der Prüfung auf Fehlerfreiheit, umgesetzt. Die Implementation erfolgte ohne Probleme und das Labor stand mit dem geforderten Szenario, das innerhalb von 10 Minuten mit einem Befehl erstellt werden konnte, zur Verfügung. Zukünftige Arbeiten könnten das Konzept in einer Langzeitstudie auf eventuell auftretende Fehler hin prüfen. Zudem können weitere Szenarien und weitere Autmatisierungstools implementiert werden.
Einhaltung regulatorischer Anforderungen an Kreditinstitute durch den Einsatz eines SIEM-Systems
(2022)
Die vorliegende Arbeit thematisiert die Einhaltung neuer aufsichtsrechtlicher Anforderungen an die IT-Sicherheit von Kreditinstituten durch den Einsatz eines SIEM-Systems. In diesem Kontext werden zuerst die zum Zeitpunkt der Veröffentlichung dieser Thesis geltenden Anforderungen detailliert vorgestellt und erklärt. Anschließend wird der Aufbau und die Funktionsweise eines SIEM-Systems differenziert beleuchtet und die Eignung dessen zur Einhaltung der Rahmenbedingungen geprüft. Darüber hinaus wird ein Leitfaden zur anforderungskonformen Implementation eines SIEM-Systems am Beispiel der Softwarelösung Splunk Enterprise präsentiert.
In dieser Bachelorarbeit wird sich mit der Frage beschäftigt ,Ob und inwieweit ist es möglich, das Griffgeschehen bzw. den Griff zu rekonstruieren?’. Um diese zu beantworten, wird sich mit der Anatomie der menschlichen Hand und deren Bewegungsmöglichkeiten auseinandergesetzt. Mit der Hand wird sich deshalb beschäftigt, da diese im Alltag eine wichtige Funktion besitzt und Spuren in Form von Abdrücken auf Objekten hinterlässt. Aufgrund dieser Spuren werden in dieser Arbeit verschiedene Modelle der Hand, einer Vase als Beispiel Objekt und dem Griff um diesen erstellt. Des Weiteren wird sich mit der Erstellung einer bewegungsfähigen Hand in Blender beschäftigt, welche schlussendlich für die Rekonstruktion von zwei verschiedenen Griffen verwendet wird. Es stellt sich heraus, dass die Rekonstruktion von Griffen mit dieser Methode jedoch mit geringen Abweichungen möglich ist. Diese könnten vermindert bzw. verhindert werden, indem die Modelle weiter verbessert werden oder die Stichprobe der Griffe und Personen vergrößert wird.
Neue Versionen einer Programmiersprache eröffnen neue Möglichkeiten, komplexe Zusammenhänge auszudrücken. So ermöglichte auch C++20 in dem dieser Arbeit vorausgegangenen Forschungsmodul eine Alternative zu Vererbung mit virtuellen Funktionen, welche sich in Microbenchmarks als performanter erwies. Eine Messung in einem vollwertigen Software-Projekt erfordert jedoch zunächst eine Modernisierung dessen. So ist u.a. die 3D-Engine OGRE lediglich auf dem Stand von C++11. Es stellt sich die Frage, ob der Arbeitsaufwand und die Risiken, die mit einer Modernisierung und anschließender Umsetzung der Alternative verbunden sind, letztlich zu rechtfertigen wären. Zumindest für den ersten Schritt kann dies auch unabhängig vom zweiten bestimmt werden. Detaillierte Beschreibungen und Microbenchmarks zu neuen Features können zwar oft gefunden werden, jedoch sind die exakten Hindernisse im konkreten Fall schwer einzuschätzen und die tatsächlichen Vorteile für ein vollwertiges Software-Projekt sind aus bloßen Microbenchmarks nicht direkt abzuleiten. Die vorliegende Arbeit beschreibt die mit der Umsetzung neuer Features verbundenen Hindernisse in der 3D-Engine OGRE. Anhand inkrementeller Messungen wird schließlich entschieden, welche Modernisierungen an und für sich lohnenswert sind und von welchen abzuraten ist.
Diese Arbeit thematisiert verschiedene Repräsentationen von Schwachstellen in Bosskämpfen und untersucht die Wirkung dieser auf die Spieler und die Spielerfahrung. Dabei wird ein Spiel geplant und erstellt, welches in mehreren Bosskampfszenarien unterschiedliche Indikatoren verwendet. Deren Wirkung wurde mithilfe von Testpersonen untersucht und analysiert. Dabei wurde festgestellt, dass Spieler mehr nach ihren gelernten Verhaltensmustern agieren, als auf die Schwachstellen zu achten. Sollte dieses Verhalten aufgebrochen werden, sind logische und angeheftete Schwachstellen sehr gut wahrnehmbar, was durch eine farbliche Abgrenzung vom Boss unterstützt werden kann.
Ransomware ist eine Schadsoftware, die als Erpressersoftware Daten verschlüsselt und eine Lösegeldforderung stellt. Um Ransomware-Sample vor der Detektion zu schützen, werden sogenannte Packer eingesetzt. Dabei wird die schädliche Routine einer Ransomware gepackt und bei Ausführung automatisch entpackt. Während Ransomware in den letzten Jahren stark weiterentwickelt wurde, sind einige der Methoden zum Entpacken teilweise bedeutend älter. Diese Arbeit untersucht, inwiefern, mithilfe vom Einsatz von Debuggern, aktuelle Ransomware-Samples mit solchen Methoden entpackt werden können. Dafür wird zuerst recherchiert, welche gängigen Methoden zum Entpacken gepackter Schadsoftware unter Verwendung eines Debuggers bestehen. Diese Methoden werden auf eine Auswahl von aktuellen Ransomware-Samples angewendet und die Ergebnisse analysiert. Dadurch entsteht am Ende der Arbeit eine Übersicht darüber bestehen, mit welchen Methoden aktuelle Ransomware-Samples noch entpackt werden und somit Analysen von Ransomware unterstützen können.
Durch Eindringen in die Wirtszelle kann sich das SARS-CoV-2-Virus verbreiten. Das adaptive Immunsystem bildet verzögert die humorale Immunantwort durch hochspezifische Antikörper aus. Die Antikörper neutralisieren das SARS-CoV-2. Im Laufe der Immunabwehr steigen die Antikörpertiter der verschiedenen Antikörperklassen unterschiedlich an. Mittels Serumproben sollte herausgefunden werden, wie der IgG-Titer nach einem positiven PCR-Ergebnis von der Zeit abhängig verläuft und ob es Unterschiede zwischen verschiedenen Geschlechtern und Altersklassen gibt. Für die Ermittlung der IgG-Titer wurden einmal der ELISA mittels Generic Assays CoV-2 IgG und einmal der CLIA mittels LIAISON® SARS-CoV-2 TrimericS IgG angewandt. Zudem fand eine Vergleichsmessung der Tests statt.
Im Allgemeinen stieg der Titer innerhalb der ersten 50 Tage an, da sich in dieser Zeit die IgG-Antikörper ab Tag 14 bilden, und erreichte das Maximum im Bereich 40-50 Tage. Danach fiel der Titer leicht bis auf 60 -70 % des Maximums, da die Antikörper nach und nach absterben.
Die Vergleichsmessung ergab einen linearen Zusammenhang von 64 % zwischen Generic Assays und LIAISON®. Bezogen auf die qualitative Aussage der Tests gab es eine 96 % Übereinstimmung der Ergebnisse.
Das Berechtigungssystem ist ein grundlegender Sicherheitsmechanismus der Android-Plattform. Diese Arbeit widmet sich diesem im Kontext der speziellen Bedrohung durch Android-Trojaner, welche durch die Modifikation legitimer Applikationen erstellt werden. Unter den Fragestellungen, inwiefern Android-Trojaner Systemberechtigungen benötigen und wie sie diese als trojanisierte Applikationen auf Applikationsebene erhalten können, werden die beiden Aspekte zusammengeführt und untersucht. Dazu erfolgt eine Analyse der Funktionsweise des Berechtigungssystems in aktuellen AndroidVersionen, welche sich auf die Dokumentation, den Android-Quelltext und praktische Versuche stützt.
Neben bestehender Literatur, die zur Beantwortung der Fragestellungen herangezogen wird, ist die Analyse der Verwendung von Berechtigungen in den Open-Source Trojanern AndroRAT und dem Metasploit-Android-Payload Teil der Arbeit. Die beiden Schadprogramme werden außerdem für die Trojanisierung existierender Applikationen verwendet. Dabei werden Möglichkeiten aufgezeigt, wie bei der Modifikation einer legitimen Applikation Berechtigungsanfragen hinzugefügt werden können. Zudem wird gezeigt, wie die Manipulation einer Kompatibilitätsangabe im Rahmen der Trojanisierung zu dem Erhalt der Berechtigungen führt.
Im Rahmen dieser Arbeit wurden zwei verschiedene Rührkesselreaktoren betrieben. Der Erste diente dazu, den Biogasbildungsprozess aus stickstoffreichen Substraten abzubilden. Im Laufe des Versuches wurde dem Reaktor durch die Nitrifikation/Denitrifikation-Verfahren stickstoffreduzierter Klarlauf hinzugefügt. Dabei wurde ein Anstieg der Methanausbeute und der Biogasbildung beobachtet. Der zweite Reaktor wurde als SBR (Sequencing Batch Reactor) betrieben, um das Anammox-Verfahren als alternative stickstoffreduzierende Methode bei Gärresten zu untersuchen. Dabei wurde am Ende des Versuchs ein Abbau des Ammoniumstickstoffes von ca. 20 % erreicht.
Sequences are an important data structure in molecular biology, but unfortunately it is difficult for most machine learning algorithms to handle them, as they rely on vectorial data. Recent approaches include methods that rely on proximity data, such as median and relational Learning Vector Quantization. However, many of them are limited in the size of the data they are able to handle. A standard method to generate vectorial features for sequence data does not exist yet. Consequently, a way to make sequence data accessible to preferably interpretable machine learning algorithms needs to be found. This thesis will therefore investigate a new approach called the Sensor Response Principle, which is being adapted to protein sequences. Accordingly, sequence similarity is measured via pairwise sequence alignments with different sequence alignment algorithms and various substitution matrices. The measurements are then used as input for learning with the Generalized Learning Vector Quantization algorithm. A special focus lies on sequence length variability as it is suspected to affect the sequence alignment score and therefore the discriminative quality of the generated feature vectors. Specific datasets were generated from the Pfam protein family database to address this question. Further, the impact of the number of references and choice of substitution matrices is examined.
In this thesis, we focus on using machine learning to automate manual or rule-based processes for the deduplication task of the data integration process in an enterprise customer experience program. We study the underlying theoretical foundations of the most widely used machine learning algorithms, including logistic regression, random forests, extreme gradient boosting trees, support vector machines, and generalized matrix learning vector quantization. We then apply those algorithms to a real, private data set and use standard evaluation metrics for classification, such as confusion matrix, precision, and recall, area under the precision-recall curve, and area under the Receiver Operating Characteristic curve to compare their performances and results.
Differentiation is ubiquitous in the field of mathematics and especially in the field of Machine learning for calculations in gradient-based models. Calculating gradients might be complex and require handling multiple variables. Supervised Learning Vector Quantization models, which are used for classification tasks, also use the Stochastic Gradient Descent method for optimizing their cost functions. There are various methods to calculate these gradients or derivatives, namely Manual Differentiation, Numeric Differentiation, Symbolic Differentiation, and Automatic Differentiation. In this thesis, we evaluate each of the methods mentioned earlier for calculating derivatives and also compare the use of these methods for the variants of Generalized Learning Vector Quantization algorithms.
Embeddings for Product Data
(2022)
The E-commerce industry has grown exponentially in the last decade, with giants like Amazon, eBay, Aliexpress, and Walmart selling billions of products. Machine learning techniques can be used within the e-commerce domain to improve the overall customer journey on a platform and increase sales. Product data, in specific, can be used for various applications, such as product similarity, clustering, recommendation, and price estimation. For data from these products to be used for such applications, we have to perform feature engineering. The idea is to transform these products into feature vectors before training a machine learning model on them. In this thesis, we propose an approach to create representations for heterogeneous product data from Unite’s platform in the form of structured tabular records. These tables consist of attributes having different information ranging from product-ids to long descriptions. Our model combines popular deep learning approaches used in natural language processing to create numerical representations, which contain mostly non-zeros elements in an array or matrix called as dense representation for all products. To evaluate the quality of these feature vectors, we validate how well the similarities between products are captured by these dense representations. The evaluations are further divided into two categories. The first category directly compares the similarities between individual products. On the other hand, the second category uses these dense vectors in any of the above- mentioned applications as inputs. It then evaluates the quality of these dense representation vectors based on the accuracy or performance of the defined application. As result, we explain the impact of different steps within our model on the quality of these learned representations.
An einem Tatort lassen sich verschiedene Arten von Spuren finden. Die Blutspuren zählen dabei zu den wichtigsten. Sie lassen sich auf unterschiedliche Art und Weise analysieren. Eine Möglichkeit ist die Untersuchung des Blutalters, um beispielsweise Hinweise über den Zeitraum einer Tat zu erlangen. Schon seit dem 20. Jahrhundert suchen Wissenschaftler nach einer geeigneten Methode zum Ermitteln des Alters einer Blutspur. Bisher ist das aber noch keinem gelungen. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Schweineblut über einen Zeitraum von sechs Wochen bei gleichbleibenden Umwelteinflüssen untersucht. Im Vordergrund steht hierbei die alterskorrelierende Veränderung der Blutzusammensetzung. Das Hauptaugenmerk liegt vor allem auf den Peaks der Hämoglobinderivate und des Globins. Bei der Auswertung der Ergebnisse wurde festgestellt, dass all diese charakteristischen Hochpunkte auch nach sechs Wochen noch weiter ansteigen und sich somit die Zusammensetzung des Blutes weiterhin verändert.
Der technologische Fortschritt ermöglicht das Speichern von größeren Datenmengen. Dies hat zur Folge, dass Daten mehr Platz auf einem Datenträger einnehmen und die Wahrscheinlichkeit des Aufteilens einer Datei auf mehrere auf dem Datenträger verteilte Positionen steigt. Von dieser sogenannten Fragmentierung sind auch JPEG-Dateien betroffen, wobei sich die Frage stellt, wie ein Zusammensetzen der Fragmente ohne die notwendigen Informationen aus dem Dateisystem möglich ist.
Ziel dieser Masterarbeit ist es, eine prototypische Implementierung eines intelligenten Carving Algorithmus zur Rekonstruktion fragmentierter JPEG-Dateien zu entwickeln, welcher durch erzeugte Testszenarien evaluiert wird.
Um dieses Ziel zu erreichen, wird ein Programm erstellt, welches sich an dem Smart Carving-Prinzip orientiert und diverse Carving-Methoden einbezieht. Für die anschließende Beurteilung der Lauffähigkeit des Prototyps werden Szenarien zum Testen von Stärken und Schwächen entwickelt. Die Ergebnisse aus diesen werden durch eine Evaluationsstrategie bewertet.
Anhand der Ergebnisse wird deutlich, dass der entwickelte Prototyp noch viele Schwächen aufweist. Bei manchen Szenarien können vollständig korrekte Ergebnisse geliefert werden und die JPEG-Dateien rekonstruiert werden, bei anderen Szenarien sind die Ergebnisse unzureichend. Diese Ergebnisse und der Fakt, dass der Prototyp lediglich für kleine Datenmengen konzipiert und erprobt wurde, zeigen, dass ein Einsatz des Programms in einer realen Umgebung noch nicht möglich ist.
Im Kontext der Wissensvermittlung existieren vielseitige E-Learning Tools, die oft ein dediziertes Lehr-Lern-Szenario betrachten. Die zugrundeliegende Software konzentriert sich somit häufig auf einen spezifischen Bereich oder eine gesonderte Fragestellung, sodass eine Erweiterung des Angebots nicht ohne weiteres möglich ist. Es soll untersucht werden, welche serverseitigen Anforderungen ein System für die E-Learning-Domäne erfüllen muss, um keine derartigen Restriktionen aufzuweisen und gleichzeitig für den Einsatz verschiedener Szenarien der digitalen Lehre geeignet zu sein.
Die vorliegende Arbeit dient als Grundlage zur Umsetzung für eine automatisierte Klassifizierung von textuellen Fehlermeldungen. Das Hauptziel ist ein grundlegendes Verständnis für die Herangehensweise zum Aufbau eines maschinellen Lernsystems zu erreichen. Es werden verschiedene Arten des maschinellen Lernens erläutert. Auswahl und Aufbau eines Lernmodells werden von unterschiedlichen Seiten beleuchtet, um einen Überblick der einzelnen Schritte zu gewinnen. Zur Gewährleistung eines praktischen Lösungsansatz wurden bereits erste Tests mit einem ausgewählten Lernmodell durchgeführt.
In dieser Arbeit soll es um die Digitalisierung von Asservaten zur nachfolgenden Simulation im digitalen Raum handeln. Das Hauptaugenmerk soll dabei auf der Evaluation der Übertragbarkeit von Relationen zwischen den genannten Asservaten liegen. Zu zeigen soll sein, dass beim Anziehen einer Hose an einen Körper Relationen in Form individueller Falten entstehen, welche zum einen durch die Digitalisierung nicht verloren gehen sollen. Zum anderen soll analysiert werden inwieweit diese Relationen als Nebenprodukt bei dem Nachbau einer digitalen Anzieh-Simulation mit Hilfe der Digitalisate entstehen. Die Qualität dieser Relationen wird dabei im Vergleich zu den real-weltlichen Relationen Vergleichen. Neben der Hose als erstes Asservat wird sich außerdem einer Kleiderpuppe als zweites Asservat gewidmet. Die Kleiderpuppe bildet dabei eine Abstraktion zu einem menschlichen Körper auf Grund von Vereinfachungen dar. Auch wenn die Forensik über eine große Vielfalt an Methoden zur computergestützten Aufnahme, Analyse und Rekonstruktion von Spuren verfügt zeigt sich ein großer Bedarf hinsichtlich Techniken in Bezug auf die computergestützte Modellierung. Des Weiteren soll vor allem das Hauptaugenmerk von biometrischen Merkmalen wie beispielsweise Fingerabdrücken auf weitere wichtige Bestandteile eines Tatortes wie die Kleidung gerichtet werden. Mit Bezug auf diese Aussagen soll diese Arbeit zeigen, dass die Forensik zum aktuellen Zeitpunkt nicht über die benötigten Methoden verfügt, weshalb Methoden der Film- und Spieleindustrie benötigt werden. Eine spätere Evaluation soll dabei der Nutzen dieser Methoden hervorgehoben werden. Bei diesen Betrachtungen ist vor allem der Unterschied wichtig, dass bei der Film- und Spieleindustrie die gewählte Perspektive entscheidend für den Realitätsgrad der Simulierungen ist, wohingegen in der Forensik stets der höchste Realitätsgrad eines ganzen Abbildes angestrebt wird. Um den Nutzen in der Forensik zu analysieren wird der enthaltene Wahrheitsgehalt der Methoden evaluiert. So können zukünftig diese Erkenntnisse als Grundlagen für die Entwicklung eigener Methoden im Fachbereich der Forensik genutzt werden.
Das Ziel dieser Arbeit ist es, einen Superabsorber (SAP), welcher auf Stärkebasis hergestellt wurde, auf seine leichte biologische Abbaubarkeit zu untersuchen. Durchgeführt wird dafür der OECD 301 F Test, da sich dieser auch mit schwer löslichen Substanzen anwenden lässt. Zusätzlich zum Abbau des SAP wurde auch der Abbau von reiner Stärke getestet, um diese miteinander vergleichen zu können. Bei dem Test 301 F handelt es sich explizit um den manometrischen Respirometer Test, welcher unter aeroben Bedingungen in Lösung stattfindet. Bei diesem wird der Druckunterschied gemessen, welcher sich durch das Atmen der Mikroorganismen, in Verbindung mit dem gleichzeitigen Binden des entstehenden Kohlenstoffdioxids, ausbildet. Die Ergebnisse zeigen, dass das SAP zwar keine Hemmende Wirkung auf die Referenzsubstanz Kaliumhydrogenphthalat zeigt, aber auch nicht leicht biologisch abbaubar ist. In den zwei durchgeführten Versuchen konnte ein maximaler biologischer Abbau von 16,33 % innerhalb der 28 Tage Testdauer nachgewiesen werden. Im Vergleich dazu erreichte die reine Stärke, in derselben Zeit, eine Abbaurate von 27,03 %. Somit sind beide Stoffe nicht leicht biologisch abbaubar, auch wenn sie sich bereits zum Teil abgebaut haben. Das SAP baut sich langsamer ab als die Stärke, was wohlmöglich an der zusätzlichen Vernetzung liegen könnte und das daraus folgende höher Molekulargewicht. Die Mikroorganismen können sich zwar auf dem SAP anlagern, aber nicht direkt abbauen durch die Vernetzung. Weitere entscheidende Faktoren für einen biologischen Abbau sind die Verwendeten Mikroorganismen, welche den Stoffabbauen und das System in dem getestet wird.
Die vorliegende Arbeit betrachtet die Möglichkeiten zur Sicherung von Foto- und Videobeiträgen aus sozialen Netzwerken, um diese im Rahmen der Strafverfolgung als Beweismittel nutzbar zu machen. Vier ausgewählte Sicherungsmethoden werden in einem Sicherungsversuch angewendet und im Anschluss miteinander verglichen. Schließlich wird aus den so ermittelten positiven Eigenschaften der Methoden eine hypothetische optimale Methode formuliert, welche für eine zukünftige Anwendung implementiert werden könnte.
Diese Bachelorarbeit befasst sich mit der Prozessautomatisierung während einer Vorfallsreaktion (Incident Response) in der digitalen Forensik. Die Idee dafür kam während der Tätigkeit bei der intersoft consulting services AG auf.
Das Ziel der vorliegenden Arbeit ist es, zu beantworten ob die Automatisierung eines Incident Response-Prozess mit dem Tool KAPE schneller und effektiver gestaltet werden kann, ohne die forensischen Prinzipien außer Acht zu lassen. Dafür wurden eigene Konfigurationsdateien erstellt, welche auf die interne Arbeitsumgebung angepasst sind und anschließend geprüft, ob das Tool die Anforderungen hinsichtlich der forensischen Prinzipien erfüllt. Weiterhin wurde die Verwendung des Tools hinsichtlich seiner Geschwindigkeit mit dem bisherigen Vorgehen verglichen.
Die Untersuchung zeigte, dass das individualisierte Tool mit den eigens erstellten Konfigurationen eine enorme Zeitreduktion gegenüber dem bisherigen Vorgehen erreichen konnte und dies auch unter der Einhaltung der forensischen Prinzipien möglich ist.
Zusammenfassend lässt sich sagen, dass das Tool KAPE für die Prozessautomatisierung eines Incident Response eine merkliche Rolle spielen kann, insbesondere wenn es auf die interne Unternehmensumgebung angepasst ist und einer ständigen Weiterentwicklung folgt.