Refine
Document Type
- Bachelor Thesis (76)
- Master's Thesis (31)
- Diploma Thesis (1)
Year of publication
- 2022 (108) (remove)
Keywords
- Computersicherheit (12)
- Maschinelles Lernen (11)
- Softwareentwicklung (8)
- Computerforensik (7)
- Forensik (6)
- Blockchain (5)
- Fotogrammetrie (5)
- Kryptologie (4)
- Virtuelle Währung (4)
- Android <Systemplattform> (3)
Institute
- Angewandte Computer‐ und Biowissenschaften (108) (remove)
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Blockchain-Governance wird oft mit der Führung von Unternehmen oder von Nationalstaaten verglichen, obwohl diese sich selbst eher als Decentralized Autonomous Organizations (DAOs) und damit als reine Software verorten. In dieser Arbeit wird die Polkadot-Governance in jener Ebene, in der Menschen über Polkadot Entscheidungen treffen, dargestellt, um sie dann mit rechtlichen Konzepten, die den Rahmen für die Entscheidungsfindung in Unternehmen und Staaten bilden, sowie mit den rechtlichen Grundlagen für die Entscheidungsfindung einer DAO zu vergleichen.
Hinsichtlich des verändernden Stoffwechsels stellen Kiesel- und Grünalgen eine interessante und gut nutzbare, wenn auch lose und schwer definierbare Gruppierung innerhalb der biologischen Systematik dar: Ihr Potenzial, die Eigenschaften von Pflanzen (dank Photosynthese) und Mikroorganismen (in ihrer jeweiligen Größe und ihrem bedingt heterotrophen Stoffwechsel) zu kombinieren, ist bisher unübertroffen und eröffnet Möglichkeiten u. a. für die Bereiche der Abwasserbehandlung und die Kultivierung von Mikroalgen in Abwassermedien. Obwohl ihre Eignung für wirtschaftliche Zwecke ihr volles Potenzial noch nicht vollständig erreicht hat, scheint der Weg dorthin sicherlich diese Richtung einzuschlagen – mit der Biotechnologie als ein sich ständig weiterentwickelndes Fachgebiet, ist die Verwendung von Algen
für bestimmte Zwecke an die bisherigen Erkenntnisse und den daraus resultierenden Möglichkeiten gebunden. In diesem Versuch wurden insgesamt vier Mikroalgen, drei Grünalgen (C. vulgaris, A. obliquus und C. reinhardtii) und eine Kieselalge (N. pelliculosa), auf ihr Wachstumsverhalten in unterschiedlich konzentrierten Abwassermedien, von 20 % bis 100 % in 20 %-Schritten, getestet. In Bezug auf die erzielten Ergebnisse scheint der vielversprechendste Kandidat für diese Zwecke C. reinhardtii zu sein, welcher das schnellste Wachstum innerhalb der Inkubationszeit von 3 Tagen erreicht hatte und die meisten Nährstoffe aus dem Abwassermedium entfernte. In geringeren Abwasserkonzentrationen kam es stattdessen zum starken Wachstum von A. obliquus, womit dieser Organismus eine Alternative zu geringer belasteten Medien (hinsichtlich der Nährstoffe, als auch der Keimbelastung) darstellt. Außerdem wurden je 5 L A. obliquus und C. vulgaris Inokula in einem größeren Aquarium mit ca. 50 L Abwasser inkubiert unter strengeren Parameterbedingungen und höheren
Kontaminationsrisiko. Dennoch konnte auch hier innerhalb von fünf Tagen ein Abbau von ca. 99,40 % des Phosphats auf 0,055 mg/L erreicht werden, innerhalb einer Woche bzw. sieben Tagen von 99,92 % auf 0,007 mg/L ortho-Phosphat. Ob diese Organismen auch weiterhin eine wichtige Rolle in zukünftigen Technologien für die Abwasserreinigung spielen, hängt von weiteren Studien auf diesem Gebiet ab sowie neuen Innovationen bezüglich der wirtschaftlichen Nutzbarkeit für Unternehmen, welche durch Investitionen den weiteren Ausbau sowie die Forschung im Gebiet der
Algennutzung fördern.
In dieser Arbeit wird eine Vorgehensweise für die Erstellung von Grafiken zur Nachempfindung eines 2D Cartoon Looks mithilfe von 3D-Daten vorgestellt und evaluiert. Dafür werden vorerst essenzielle Definitionen in Bezug auf Stil geklärt, wichtige Stilelemente identifiziert, erläutert und in einer 3D-Umgebung praktisch umgesetzt. Es wird dabei eine tatsächliche Nachbildung von Spielelementen durchgeführt, um diese schlussendlich bewerten zu können.
In dieser Bachelorarbeit wird ein Überblick über die Management- und Orchestrierungskomponente eines 5G Mobilfunknetzes sowie dafür relevante, zugrundeliegende Konzepte gegeben. Die Sicherheitsrelevanz des MANO-Systems wird anhand der Ergebnisse einer Risikoanalyse eingeordnet. Die daraus abgeleiteten Sicherheitsvoraussetzungen werden mit bereits bestehenden Zertifizierungs-Tests verglichen und somit herausgearbeitet, für welche Sicherheitsaspekte zukünftig ein MANO-spezifischer Zertifizierungstest erstellt werden muss. Um die Arbeit abzuschließen, wird ein beispielhafter Test-Entwurf vorgestellt, mit
welchem sich eine der noch offenen Sicherheitsvoraussetzungen überprüfen lassen könnte.
With the growing market of cryptocurrencies, blockchain is becoming central to various research areas relevant from a mathematical and cryptographic point of view. Moreover, it is capable of transforming the traditional methods involving centralized network operations into decentralized peer-to-peer functionalities. At the same time, it provides an alternative to digital payments in a robust and tamperproof manner by adding the element of cryptography, consequently making it traversable for an individual who is a part of the blockchain network. Furthermore, for a blockchain to be optimal and efficient, it must handle the blockchain trilemma of security, decentralization, and scalability constraints in an effective manner. Algorand, a blockchain cryptocurrency protocol intended to solve blockchain’s trilemma, has been studied and discussed. It is a permissionless (public) blockchain protocol and uses pure proof of stake as its consensus mechanism.
Einfluss der Trauma-Zytokine TNFa, IL-6 und EPO auf das Transkriptom mesenchymaler Stammzellen
(2022)
Mit den Trauma-Zytokinen IL-6, TNFα & EPO wurde der Einfluss auf das Transkriptom mesenchymaler Hautstammzellen untersucht. Dabei wurde sich vor allem auf die Expression krebsassoziierte Gene konzentriert und untersucht, ob EPO möglichweise eine Verringerung der Expression solcher Gene hervorruft. Dazu hat man das Transkriptom von Zellen sequenziert, die unter Einfluss der Zytokinen in verschiedenen Zusammensetzung standen. Mithilfe einer differentiellen Expressionsanalyse (DE) konnte eine erhöhte Menge an RNA sowie erhöhte Expression von krebsassoziierten in den Zellen unter Einfluss der Zytokine festgestellt werden. Zellen, denen neben TNFα, IL-6 das Zytokin EPO hinzugegeben wurden, zeigten keine Verringerung krebsassoziierter Gene auf. Außerdem konnte eine Reaktion der Zellen auf eine durch TNFα und IL-6 simulierte Immunreaktion festgestellt werden. Auch Gene, die für Hautzellen eher untypisch sind, und somit noch einen unspezifischen Differenzierungsgrad der Stammzellen aufzeigen, konnten identifiziert werden.
Wirksame Sicherheitsmaßnahmen zu entwickeln und auch zu implementieren, bedeutet im Umkehrschluss, dass zuerst einmal die zugrundeliegenden Gefahren, Schwachstellen und Sicherheitslücken bekannt sein und verstanden werden müssen. Das beste System hat wenig Nutzen, wenn der Mensch, der es bedient, es nicht zu nutzen weiß. Aus diesem Grund soll mit der vorliegenden Arbeit ein grundlegendes Verständnis zu möglichen Angriffen auf das Session Management beziehungsweise in diesem Fall auch die Verschlüsselung gelegt werden. Im Anschluss daran werden mögliche Schutzmaßnahmen dargelegt, welche als eine Art Leitfaden dienen sollen.
In dieser wissenschaftlichen Arbeit werden verschiedene Testverfahren vorgestellt und deren Umsetzungsmöglichkeiten mit der Applikation BFlow im Infor LN erläutert. Dabei werden zuerst verschiedene, ausgewählte Geschäftsprozesse innerhalb des Infor LN analysiert und anschließend mittels einer Ereignisgesteuerten Prozesskette grafisch dargestellt. Auf die Analyse folgt die Umsetzung dieser Prozesse mittels BFlow. Um die Aussagefähigkeit der verschiedenen Testarten feststellen zu können werden verschiedene Szenarien definiert und jeder Test für das dargestellte Szenario durchgeführt. Abschließend wird eine Schlussfolgerung, basierend auf den Ergebnissen der einzelnen Testdurchläufe, formuliert.
Das erste Ziel dieser Arbeit war es zu evaluieren, inwiefern in der Praxis mit Hilfe von zwei Photogrammetrie-Softwares Spurenträger mit sich stark unterscheidenden Oberflächen dreidimensional modelliert werden können und welche Auswirkungen die Ergebnisse auf die darauf befindlichen (Blut-) Spuren und damit der forensischen Nutzbarkeit haben. Es wurden dafür drei Objekte gewählt, welche aufgrund ihrer unterschiedlichen Oberflächen- und Textureigenschaften im photogrammetrischen Kontext in drei verschiedene Schwierigkeitsklassen unterteilbar sind. Zudem wurden alle Gegenstände mit passiven Blutspuren benetzt, um zu bewerten, inwiefern anhand der erzeugten Modelle in Hinblick auf die Qualität eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich ist. Um eine Gegenüberstellung einer frei verfügbaren und professionellen Photogrammetrie-Software in Bezug auf die Quali- und Quantität der Ergebnisse durchzuführen, wurde das kostenfreie Meshroom und als Gegenpol das kostenpflichtige Agisoft Metashape für die 3D-Modellie-rung der Objekte verwendet. Alle Spurenträger wurden zuerst mit den jeweiligen Standardeinstellungen der Softwares modelliert. Durch eine Abänderung der Standard-Pipelines wurde dann versucht die Modell- und Spurqualität maßgeblich zu verbessern. Für die 3D-Modellierungen wurde in beiden Softwares dasselbe Bildmaterial (inkl. Polfilteraufnah-men) genutzt.
Da an der Hochschule Mittweida beide zu evaluierenden Photogrammetrie-Softwares zur Verfügung stehen, war ein zweites Ziel dieser Arbeit Handlungsempfehlungen in Form von je einem Entscheidungsbaum pro Schwierigkeitsklasse ausgehend von den Ergebnissen zu formulieren, um die Auswahl der richtigen Software inklusive der Einstellungen bei der digitalen forensischen Sicherung von unterschiedlichen Objekten mit Blutspuren zu vereinfachen.
Zusammenfassend sollen in dieser Arbeit die folgenden vier Fragestellungen beantwortet werden:
▪ Können die 3D-Modelle der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares in Bezug auf ihre Modell- und Spurqualität durch eine Optimierung der Standard-Pipelines und der Bildaufnahme maßgeblich verbessert werden?
▪ Welche der beiden verwendeten Photogrammetrie-Softwares stellt die unterschiedlich schweren Objekte inklusive ihrer Blutspuren als 3D-Modell qualitativ hochwertiger und realistischer dar?
▪ Inwiefern ist anhand der Qualität der 3D-Blutspuren der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich? Wie genau sind die Vermessungen?
▪ Lassen sich ausgehend von den Erkenntnissen der ersten drei Fragestellungen all-gemeine Vorgehen für unterschiedlich schwere Spurenträger für die digitale forensische Spurensicherung formulieren?
In der vorliegenden Arbeit wird ein Konzept für eine Test- und Evaluationsumgebung von Forschungsergebnissen im Bereich der Cybersicherheit gebildet. Das dabei entstehende Rahmenwerk ist modular aufgebaut und zeigt, im Vergleich zu bisherigen Test- und Evaluationsumgebungen, einige Besonderheiten auf. Als Basis für die entstehende Konzeptumgebung werden vier Module vorgestellt, mit denen zukünftige Technologien der Cybersicherheit getestet und bewertet werden können.
Die Arbeit beschäftigt sich mit der Entwicklung eines Policy-Konzepts zur Steuerung von Netzwerkverkehr an den Außengrenzen eines digitalen Raums. Um Ressourcen innerhalb des Raums zu schützen, definiert die Autorität des Raums mit Hilfe einer semantischen KI Kommunikationsziele. Diese müssen mit Hilfe des zu entwickelnden Policy-Konzepts den Grenzpunkten des Raumes mitgeteilt und dort umgesetzt werden Die Bachelorarbeit beschäftigt sich mit der Entwicklung des Policy-Konzepts und einer prototypischen Implementierung eines solchen Grenzpunktes.
Im Prozess der Masterarbeit und des vorangegangenen Forschungsmoduls wurden drei verschiedenartige Anbieter*innen von Escape Spielen untersucht. Zu diesem Zweck wurden Vor-Umfragen eingeholt, um Informationen über populäre und bekannt Reihen dieser Art zu erkennen. Aufbauend auf diesen Fragebögen wurden anschließend drei Anbieter*innen gewählt, welche eine möglichst unterschiedliche Herangehensweise an die Umsetzung eines Escape-Raumes mit minimalistischen Mitteln haben. Nachdem diese ausgemacht wurden, konnten die Proband*innen-Gruppen eingeteilt werden, um, basierend auf diesen Konstellationen, verschiedene Boxen der Herausgeber einer Reihe auszuwählen. Auch bei diesen lag ein besonderer Schwerpunkt auf der Vergleichbarkeit, wodurch auf mögliche Zusammenhänge der Storylines geachtet wurde. Um die folgende Testphase planen zu können, musste jede der vierzehn Ausgaben zunächst selbst getestet und analysiert werden. Hierzu wurden alle Rätsel versucht zu lösen und zu verstehen, um den Kern der Aufgabenstellung erfassen zu können. Zudem wurde ein Zusammenhang zwischen den Karten in Form von Ablauf-Diagrammen ermittelt, wobei festgestellt werden konnte, dass mit zunehmender, ausgeschriebener Schwierigkeit diese breiter werden. Das bedeutet, dass zu Rätseln, welche als schwerer markiert waren, mehr Karten gegeben wurden. Eine der Herausforderungen lag darin, die benötigten Karten auszumachen. Da diese Methodik jedoch nicht zwingend mit der Art der Rätsel und den Hindernissen diese zu Lösen verknüpft ist, sondern als unterstützendes Element angesehen werden kann, wurde sie in der vorliegenden Arbeit nicht berücksichtigt. Nachfolgend konnten aufgrund der gewonnenen Erkenntnisse Fragebögen erstellt werden, welche sowohl allgemein auf die gesamte Box, als auch speziell auf die einzelnen Rätsel eingehen. Hierbei wurden klare Ziele gesteckt, welche Informationen erhoben werden sollten. Anhand dieser Strukturierung war es möglich eine umfassende Sammlung an sehr verschiedenartigen Fragen zu erstellen, wodurch im Verlauf der Tests eine Vielzahl an Informationen gewonnen werden konnte. Zusätzlich zu dieser Erhebung wurden Videodateien während des laufenden Tests erstellt, welche eine detailliertere und unabhängigere Betrachtung der Proband*innen ermöglichen. Nachdem diese Datenerhebungsphase abgeschlossen werden konnte, also alle Boxen verwendet wurden, begann die Vorverarbeitung der Daten. Hierzu wurden zunächst die Videodateien gesichtet und strukturiert und die Fragebögen in eine einheitliche Form gebracht. Es lagen nach dieser Phase strukturierte Videodateien vor, welche den gesamten Prozess des Lösens abbildeten, aber auch Dateien zu den einzelnen, definierten Rätseln. Diese einzelnen Rätsel wurden weitergehend kategorisiert und in ein vergleichbares Schema eingeordnet. Diese einzelnen Rätselvideos konnten zudem durch einen Algorithmus verarbeitet werden, welcher die unterschiedlichen Gesichter der Proband*innen erfassen, analysieren und in sieben Emotionen unterteilen kann. Aus diesem Verarbeitungsschritt entstanden zu jedem Rätsel drei CSV Dateien, welche diese Wahrscheinlichkeiten in Abhängigkeit des aktuellen Bildes wiedergeben. In Bezug auf die Fragebögen wurden Tabellenstrukturen erreicht, welche die unterschiedlichen Arten und Teile dieser in einer einheitlichen Struktur wiedergeben. Nach diesem Schritt war es möglich die Daten auf eine sinnvolle Weise zu kombinieren und aus diesen Rückschlüsse auf Korrelationen zu ziehen. Auch eine Analyse mit umfangreicheren Anwendungen, wie „Rapid Miner“ sind denkbar, jedoch haben die beschriebenen Methoden für die anvisierten Fragestellungen genügt. Auch andere Hypothesenuntersuchungen können aufgrund der aufgearbeiteten Daten erreicht werden, da sicherlich noch andere Zusammenhänge in dieser Masse an Informationen stecken. Jedoch wurde mit dieser Aufnahme und diesen Auswertungen die Fragestellungen beantwortet, welche am Anfang des Praxismoduls aufgekommen waren
In der vorliegenden Bachelorarbeit wurde ein Prototyp einer Software konzipiert und implementiert, die es ermöglicht, eine Active Directory Domain nach potenziellen Schwachstellen zu durchsuchen und deren Ausnutzbarkeit zu testen. Dabei simuliert die Software das Vorgehen eines Penetrationstesters, um zu erörtern, ob ein solches Tool diesen ersetzen kann. Die Arbeit beschreibt das Vorgehen des Autors während der Programmierung dieser Software sowie die Funktionsweise des Programms. Durch die Entwicklung und Reflektion dieses Tools konnte gezeigt werden, dass menschliche Penetrationstester deutliche Vorteile gegenüber automatisierten Programmen aufweisen und solche Tools aufgrund einiger Faktoren nur unterstützend, aber nicht ersetzend, verwendet werden können.
Diese Arbeit behandelt die Entwicklung einer Software zur Verwaltung und Dokumentation von Zugriffsrechten. Dafür wird gezeigt, wofür eine solche Verwaltung und Dokumentation von Zugriffen benötigt wird und wie diese mit Hilfe einer geeigneten Software umgesetzt werden kann. Es werden wichtige
Anforderungen erläutert und die entwickelte Software hinsichtlich Aufbau und wesentlichen Funktionen beschrieben.
In der vorliegenden Masterarbeit werden Daten der Kriminalstatistik Berlins in Bezug auf die Entwicklung erfasster Straftaten statistisch analysiert und hinsichtlich kausaler Zusammenhänge ausgewertet. Der Hauptaspekt der Arbeit bildet ein neuer Modellierungsansatz für den Bereich des Predictive Policing, welcher sich auf Erkenntnissen über Bayesian Belief Networks stützt. Durch die präsentierten Ansätze soll die grundsätzliche Anwendbarkeit von gerichteten Graphen für die Problemstellungen des Predictive Policing aufgezeigt werden, da diese aufgrund ihres Potenzials in der Abbildung von Informationsflüssen sowie Eigenschaften der Inferenz zukünftig neue Möglichkeiten in der Modellierung der Ausbreitung von Kriminalität bieten können.
Das Ziel der vorliegenden Bachelorarbeit ist es zu beantworten, inwieweit Chatbots die Aufgaben von Projektmitgliedern vor allem im Bereich Projektmanagement optimieren können. Dabei wird auf theoretische Grundlagen aufbauend, eine Analyse zur Umsetzung eines solchen Systems durchgeführt, die vor allem auf die Anforderungen innerhalb eines Projektmanagements Bezug nimmt. Im Ergebnis der Ausarbeitung soll mithilfe eines entwickelten Prototyps belegt werden, ob die genannten künstlich intelligenten Systeme es möglich machen können, gewisse Arbeitsabläufe zu erleichtern beziehungsweise diese den Projektmanagern komplett abzunehmen. Innerhalb eines abschließenden Probandentests soll demonstriert werden, dass der Einsatz des Prototyps in einem größeren Projekt sinnvoll sein kann. Weiterhin soll ebenfalls gezeigt werden, dass eine Moral- sowie Arbeitssteigerung aller Projektmitglieder durch den Prototyp möglich ist.
The aim of this bachelor thesis is to find out how the use of artificial intelligence, specifically the one used in combat situations, can increase the playing time or even the replay value of games in the action role-playing genre. Thereby, it focuses mainly on combat situations between a player and an artificial intelligence.
To begin with, this bachelor thesis examines the action role-playing genre in order to find a suitable definition for it. Accordingly, action role-playing games involve titles that send the player on a hero’s journey-like adventure in which they must prove their skills in combat against virtual opponents. The greatest challenge of these real-time battles comes from the required quick reflexes, skill queries and hand-eye coordination.
Next, six means of increasing the replayability of a game are explored: Experience and Nostalgia, Variety and Randomness, Goals and Completion, Difficulty, Learning, and Social Aspect. The paper then proceeds to give an explanation for the term Artificial Intelligence and examines the various methods used to create intelligent behavior as well as the general advancement of the research field. Special attention is given to the implementation methods of Finite State Machines and Behavior Trees, as they are the most widely used methods for creating behavioral patterns of virtual characters.
Finally, a study conducted as part of the bachelor thesis is described, which compares a mathematically balanced artificial intelligence with a behaviorally balanced one in terms of game performance regarding the willingness of test subjects to purchase and play through the game as well as its replay value. The thesis concludes with the findings that while the behavioral approach is more promising than the mathematical approach, a combination of the two methods ultimately leads to the best outcome. Furthermore, the study shows that the use of artificial intelligence to individualize gaming experiences is promising for the future of the gaming industry.
Die Biometrie bildet in heutigen Zeiten in den Bereichen der forensischen Arbeit und der Sicherheit ein besonderen Teil. Dabei werden in heutigen Verfahren biometrische Merkmale wie Gesichtsmaße, Fingerabdrücke oder auch Irismuster verwendet. Jedoch stößt die Verwendung dieser Merkmale oft an ihrer Grenzen, wenn es darum geht, vermummte Täter auf Überwachungsaufnahmen zu identifizieren. An dieser Stelle soll der Täter mittels eines Rigs auf der Aufnahme vermessen werden. Die erhaltenen Maße sollen anschließend mit den Maßen von Personen im Reale verglichen werden, um dadurch den Täter von der Aufnahme zu identifizieren. In dieser Arbeit wird ein gegebener Datensatz näher untersucht. Der Datensatz enthält anthropometrische Maße, Front-Rigs (2D-Rigs) sowie 3D-Rigs von 170 Frauen und 170 Männern. Ziel soll es sein, die im Datensatz gegebene Separierbarkeit mittels eines optimalen Trenn- beziehungsweise Klassifikationsverfahrens nachzuweisen. Zum Einen wird die Vergleichbarkeit der Front- und 3D-Rigs überprüft. Dafür wird eine Möglichkeit gesucht, eine mögliche Abweichung zwischen den Dimensionen der Rigs mittels eines allgemeinen Fehlers beziehungsweise Verhältnisses auszudrücken. Zum Anderen werden verschiedene Klassifikationsverfahren durchgeführt, die zwischen zwei Körperhöhengruppen gegebene Separierbarkeit optimal nachzuweisen. Abschließend wird ein weiteres Merkmal neben der Körperhöhe gesucht, um Personen in Gruppen einzuteilen. Im Verlauf der Arbeit wird ersichtlich, dass zwischen den Front-Rigs und 3DRigs ein Unterschied besteht, der sich jedoch schwer in ein allgemeinen Fehler beziehungsweise ein allgemeines Verhältnis fassen lässt. Mittels der Manhattan-Distanz kann die Separierbarkeit nur schwer nachgestellt werden. Durch die Verwendung von k-NNs und logistischen Regressionen ist die Separierbarkeit trotz auftretender Falschklassifikationen nachzuweisen. Als weiteres Merkmal zur Körperhöhe wird das Verhältnis von Oberkörper zu Unterkörper betrachtet. Die mittels dieses Verhältnisses bestimmten Gruppen sind ebenfalls nachweisbar. In Zukunft sollte der Unterschied zwischen Front- und 3D-Rigs verkleinert beziehungsweise verallgemeinert werden, um die Vergleichbarkeit zu steigern. Des Weiteren sollte die Separierbarkeit mittels weiterer Klassifikationverfahren nachgewiesen werden. Außerdem sollte über eine Erweiterung des Datensatzes um weitere Individuen oder auch andere Körperhöhen nachgedacht werden. Zudem sollten auch andere Merkmale zur Gruppierung der Personen weiter untersucht werden.
Fake News und Betrugsschemata sind heutzutage ein allgegenwärtiger Bestandteil des Internets. Erfahrene Nutzer haben gelernt damit umzugehen und Richtiges von Falschem zu unterscheiden. Doch auch die erfahrensten Benutzer des Internets können von geschickten Hochstaplern und Betrügern manipuliert werden. Die Betreiber der sozialen Medien, können und wollen oftmals nicht für die Sicherheit ihrer Nutzer garantieren, weswegen ein Ansatz benötigt wird, welcher diese Betreiber ablöst. Nachdem Non-Fungible Tokens gezeigt haben, wie digitales Eigentum implementiert werden kann, zeigen sogennante Soulbound Tokens, wie digitales Vertrauen im Internet existieren kann. Diese Art von Tokens sind nicht transferierbar und für immer an ihren Besitzer gebunden, wodurch diverse, digitale Persönlichkeiten entstehen können, deren Glaubwürdigkeit von Soulbound Tokens bewiesen wird. Decentralized Reputation (DeRep) beschreibt dabei eine Reputationsplattform, auf welcher Benutzer Soulbound Tokens als Bewertung für andere Nutzer ausstellen können. Zusammen mit weiteren Funktionen, wie einem Bewertungsalgorithmus für die Profile der Nutzer, wird veranschaulicht, wie Reputation mithilfe von Soulbound Tokens generiert werden kann und welche Herausforderung dabei entstehen.