Refine
Document Type
- Bachelor Thesis (74)
- Master's Thesis (33)
Year of publication
- 2023 (107) (remove)
Keywords
- Computerforensik (9)
- Maschinelles Lernen (9)
- Computersicherheit (7)
- Videospiel (7)
- Blockchain (6)
- Datensicherung (6)
- Computerspiel (4)
- Kryptologie (4)
- Künstliche Intelligenz (4)
- Computerkriminalität (3)
Institute
- Angewandte Computer‐ und Biowissenschaften (107) (remove)
Vor dem Hintergrund der stetigen Digitalisierung gewinnen ebenfalls der Schutz von Daten und die Privatsphäre im digitalen Raum an Bedeutung. Insbesondere das Management digitaler Identitäten befindet sich im Umbruch. Zentralisierte Identitätsprovider haben begonnen, mit dem Konzept der Passkey-Technologien ein neues Authentifizierungsverfahren in ihre Systeme zu implementieren, welches künftig das Passwort ablösen soll. Das Konzept Self-Sovereign Identity (SSI) bietet ein dezentralisiertes System zur eigenständigen Identitätsverwaltung. Die Arbeit befasst sich mit der prototypischen Entwicklung einer erweiterbaren Schnittstelle zur Validierung digitaler Nachweise in einem SSI-Ökosystem in Form eines Plugins für das Content-Management-System WordPress. Dieses Plug-in soll eine alternative Authentifizierungsmethode zu Passkey-Technologien von Identitätsprovidern darstellen.
Diese Arbeit präsentiert ein Protokoll für vertrauliche Transaktionen auf Ethereum, das auf einer kontenbasierten Struktur und Paillier-Verschlüsselung basiert. Die Integration von Non-Interactive Zero-Knowledge Range Proofs (NIZKRP) verbessert die Sicherheit. Die Implementierung und Tests auf Ethereum zeigen vergleichbare Transaktionskosten (Sicherheitsparameter 40) im Vergleich zu Protokollen mit Bulletproofs. Bei einem Sicherheitsparameter von 128 (NIZKRP-Empfehlung) ist das Protokoll jedoch nicht anwendbar. Die Arbeit betont die Effizienz und Wettbewerbsfähigkeit, hebt jedoch die Herausforderung bei höheren Sicherheitsparametern hervor. Das Protokoll bildet eine solide Grundlage, erfordert jedoch weitere Optimierungen für breitere Anwendbarkeit.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung ob und warum die Anzahl von IT-Sicherheitslücken exponentiell steigt. In Zuge dessen wird der Zusammenhang zwischen der Entwicklung von Sicherheitslücken und der Entwicklung der Code-Länge über die Zeit untersucht. Um die Forschungsfrage zu beantworten, wurden CVE-Daten ausgewertet. Dabei wird nicht nur die allgemeine CVE-Entwicklung, sondern auch ausgewählte Software-Systeme im Speziellen betrachtet. Um die Code-Länge zu untersuchen, wurden die LOC der einzelnen Software-Systeme analysiert. Die Untersuchung ergab, dass die Entwicklung der CVE gesamt einen exponentiellen Trend verfolgt. Die CVE-Entwicklung der einzelnen Software-Systeme verfolgt im Gegensatz dazu in der Mehrheit einen linearen Trend. Auch die LOC-Entwicklung der Software-Systeme passt sich diesem Trend an. Somit zeigt sich, dass die drastische Entwicklung der Sicherheitslücken nicht ausschließlich durch eine drastische LOC-Entwicklung beeinflusst wird, sondern von verschiedenen Faktoren abhängt, die sich untereinander verstärken.
Diese Arbeit beschäftigt sich mit der Frage, ob und inwiefern es möglich ist, das Griffgeschehen anhand sichergestellter Spuren digital zu rekonstruieren. Um die Frage zu beantworten, wird sich neben der Anatomie der Hand auch mit den Ansprüchen der Photogrammetrie sowie der Erstellung und Weiterverarbeitung von 3D-Modellen beschäftigt. Das Ziel besteht zum einen darin, mittels photogrammetrischer Aufnahmen, ein 3DModell von dem Spurenträger sowie dem Spurenverursacher zu erstellen. Die Hand soll hierbei ausgestreckt sein. Zum anderen soll mit den entstandenen Modellen der Griff wiederhergestellt werden, in dem das Handmodell in Blender bewegt werden soll. Es stellte sich heraus, dass sich die vorgestellten Methoden zur Erstellung eines Handmodells nicht eigneten, um der Fragestellung dieser Arbeit nachzugehen. Der Hauptgrund besteht darin, dass die Hand, anders als die Tasse, kein Objekt ist und somit nicht auf den Drehteller abgestellt werden kann. Anders als bei Objekten, konnten die Photogrammetrischen Aufnahmen folglich ausschließlich händisch aufgenommen werden. Zudem erwiesen sich die Aufnahmen der ausgestreckten Hand als schwierig. Besondere Probleme bereitete hierbei das Stillhalten der Hand aufgrund der unnatürlichen Pose und der Dauer der Bildaufnahmen. Insgesamt dienen die Ergebnisse dieser Arbeit als Grundlage für weitere Forschungsthemen im Bereich Photogrammetrie sowie der Rekonstruktion des Griffgeschehens.
Die Auswertung von Kurznachrichten, die auf mobilen Endgeräten gespeichert sind, nimmt bei strafrechtlichen Ermittlungen immer mehr an Bedeutung zu. Häufig sind Ermittler hierbei mit umfassenden Nachrichtenmengen konfrontiert. Um einen Überblick zu erhalten, wäre eine kompakte Zusammenfassung der zahlreichen Nachrichten hilfreich. Eine Möglichkeit diese automatisiert zu erhalten, stellt die Themenmodellierung dar. Diese ist allerdings bei forensischen Kommunikationsdaten mit besonderen Herausforderungen verbunden. Zu diesen zählt die Tatsache, dass der Ermittler oft eine Erwartungshaltung an die Themen hat, wobei die für ihn interessanten Themen häufig nur zu einem geringen Anteil in den Daten vertreten sind. Um ihn bei dem Finden von Beweisen zu diesen Themen zu unterstützen, wurden zwei Methoden der halbüberwachten Themenmodellierung und Erweiterungen basierend auf Word Embeddings und paradigmatischen Relationen miteinander verglichen. Insbesondere für umgangssprachliche Kurznachrichten ist die Evaluierung der Themenmodellierung als schwierig anzusehen, da bisherige Studien gezeigt haben, dass gängige quantitative Evaluierungsmaße bei diesen nicht unbedingt die tatsächliche Interpretierbarkeit der Themen widerspiegeln. Daher bestand ein weiteres Ziel der Arbeit darin zu untersuchen, inwieweit die Ergebnisse einer regelmäßig angewendeten automatischen Evaluierungsmethode durch eine Nutzerstudie wiedergegeben werden. Insgesamt konnte festgestellt werden, dass nach der quantitativen Evaluierung die halbüberwachte Themenmodellierung unter Einbeziehung von paradigmatischen Relationen als besonders erfolgversprechend angesehen werden kann, während nach der Nutzerstudie vor allem die Word Embeddings die Ergebnisse der halbüberwachten Themenmodellierung verbessern konnten. Des Weiteren zeigte sich, dass keine Korrelation zwischen den Resultaten der automatischen Evaluierung und der Nutzerstudie vorlag.
Die vorliegende Arbeit beschäftigt sich mit der Umsetzung einer Viewer X-Tension für die Darstellung von ESE Datenbanken in X-Ways Forensics. Dazu wird vor allem der konkrete Aufbau und die Struktur einer ESE Datenbank analysiert und vorgestellt. Weiterhin werden die technischen Grundlagen der Software X-Ways Forensics und der X-Tensions-API zur Erstellung einer Erweiterung gelegt. Zudem werden die Schritte der Umsetzung aufgezeigt und die konkrete Programmimplementierung an Code-Beispielen erläutert.
Die biologische Ammoniumoxidation ist ein zentraler Bestandteil des globalen Stickstoffkreislaufs. Angesichts der extremen Massen Stickstoff anthropogenen Ursprungs in der Umwelt, liegt die Entfernung reaktiven Stickstoffs im Interesse der Umwelt und der öffentlichen Gesundheit. In der folgenden Arbeit werden Bedingungen zur anaeroben Ammoniumoxidation mit Nitrat in einem Anammox-Reaktor untersucht. Dabei wurden 2 Laborreaktoren für eine Zeit von insgesamt 116 Tagen betrieben und beobachtet, die ausschließlich als Elektronendonatoren und Akzeptoren Ammonium und Nitrat enthielten. Zusätzlich wurden Batchkulturen mit Zellen eines Reaktors angezüchtet und auf ihre Gaszusammensetzung abhängig unterschiedlicher Eigenschaften untersucht. Hierbei wurde eine Reihe unterschiedlicher analytischer Quantifizierungsmethoden genutzt und es konnte gezeigt werden, dass ein Abbau unter den Bedingungen stattfindet.
Die aktuelle Forschung zu dieser Reaktion ist spärlich und verleiht der Bachelorarbeit dadurch Relevanz.
In dieser Arbeit wurde ein aktueller Überblick über die im Dark Web verfügbaren Hidden Services erstellt. Dazu wurden Onion-Adressen mit Hilfe von Suchmaschinen und Verzeichnissen gewonnen.
Über diese Onion-Adressen wurden Hidden Services aufgerufen und untersucht. Die gefundenen Hidden Services wurden in Kategorien eingeteilt und anschließend näher betrachtet. Dabei wurde vor allem auf die Inhalte eingegangen. Diese wurden untereinander und mit Webseiten aus dem Clear Web verglichen.
Es konnten zahlreiche verschiedene angebotene Inhalte festgestellt werden. Sowohl legale als auch illegale Inhalte. Die Anzahl der Hidden Services mit illegalen Inhalten überwiegt. Die größte Kategorie stellen digitale Marktplätze dar. Auf diesen werden verschiedene, hauptsächlich illegale Produkte und Dienstleistungen verkauft.
In this thesis, we implement, correct, and modify the compartmental model described in “Transmission Dynamics of Large Coronavirus Disease Outbreak in Homeless Shelter, Chicago, Illinois, USA, 2020”. Our objective is to engage in reading and understanding scientific literature, reproduce the results, and modify or generalize an existing mathematical model. We provide an overview of epidemiological models, focusing on simple compartmental SEIR models. We correct inaccuracies and misprints in the original implementation and use the limited-memory Broyden–Fletcher–Goldfarb–Shanno algorithm to fit the model’s parameters. Furthermore, we modify the model by introducing an additional compartment. The resulting model has a more intuitive interpretation and relies on fewer assumptions. We also perform the fitting process for this alternative model. Finally, we demonstrate the advantages of our modified implementations and discuss other possible approaches.
Die vorliegende Arbeit beschäftigt sich mit der Analyse von
Festplattenverschlüsselungssoftware. Dabei werden BitLocker von Microsoft, FileVault von Apple unter MacOS und LUKS unter Linux betrachtet. Des Weiteren wird die Verschlüsselung Data Protection der iPhones und Android Encryption von Googles Betriebssystem analysiert. Bei der Untersuchung werden die verwendeten kryptographischen Algorithmen, die Schlüsselhierarchie und hardwarebasierenden Technologien behandelt. Zudem werden Angriffsmöglichkeiten präsentiert, die bei einer forensischen Analyse verwendet werden können, um die Verschlüsselung zu umgehen.
In this work, we identify similarities between Adversarial Examples and Counterfactual Explanations, extend already stated differences from previous works to other fields of AI such as dimensionality, transferability etc. and try to observe these similarities and differences in different classifier with tabular and image data. We note that this topic is an open discussion and the work here isn’t definite and canbe further extended or modified in the future, if new discoveries found.
This thesis comprehensively explores factors contributing to malaria-induced anemia and severe malarial anemia (SMA). The study utilizes a comprehensive dataset to investigate immunological interactions, genetic variations, and temporal dynamics. Findings highlight the complex interplay between immune markers, genetic traits, and cohort-specific influences. Notably, age, HIV status, and genetic variations emerge as crucial factors influencing anemia risk. The incorporation of Poisson regression models sheds light on the genetic underpinnings of SMA, emphasizing the need for personalized interventions. Overall, this research provides valuable insights into the multifaceted nature of malaria-induced complications, paving the way for further molecular investigations and targeted interventions.
Eine empirische Analyse von 19 DAO-Airdrops im Hinblick auf die Governance-Aktivität der Empfänger: Airdrops sind ein bekannter Incentive-Mechanismus bei Blockchain-Protokollen. In den letzten Jahren haben vor allem DAOs „retroaktive“ Airdrops für sich entdeckt, die frühe Nutzer eines Protokolls entlohnen. Diese Art der Verteilung von Token gilt allerdings auch als ein möglicher Lösungsansatz für Zentralisierung bzw. mangelnde Voting-Beteiligung in DAOs. Thema der Arbeit ist daher, welchen Effekt Airdrops auf die Governance-Aktivität in DAOs haben. Zu diesem Zweck wurden 19 DAOs empirisch untersucht. Wir vergleichen die Voting-Beteiligung der Airdrop-Empfänger auf Snapshot bzw. on-chain mit dem der Gesamtheit der Token-Halter. Außerdem wird die Verteilung der Airdrops, die Halte-Dauer und der Delegations-Anteil betrachtet. Wir stellen fest, dass die Beteiligung der Airdrop-Empfänger im Durchschnitt etwas höher ist als die von nicht-Airdrop-Empfängern. Ob Airdrops sich als Governance-Instrument eignen, ist allerdings im Einzelfall zu betrachten.
In dieser Masterarbeit wird erforscht, ob und wie Funktionalität von einem Mikrocontroller auf ein leistungsstarkes externes Gerät portiert werden kann. Dabei sollen die ausgelagerten Funktionalitäten WebAssembly nutzen, um eine Vielzahl von externen Geräten zu unterstützen. Zusätzlich wird evaluiert, wie das leistungsstarke Gerät den Mikrocontroller steuern soll, bzw. wie ein Datenaustausch hergestellt wird und wie Eingaben im leistungsstarken Gerät vollzogen werden.
In dieser Bachelorarbeit wird eine Sicherheitsanalyse für das Anwendungsszenario Traffic Steering im Open RAN durchgeführt. Dabei werden die Architektur und Sicherheitsaspekte des Open RAN sowie des Traffic Steering genauer analysiert. Nach der Ausarbeitung theoretischer Angriffsszenarien soll anschließend eine virtualisierte Open-RAN-Implementierung als Testumgebung für einen geeigneten Angriff dienen, der anschließend evaluiert wird.
Diese Arbeit befasst sich mit dem Erstellen eines digitalen, fotorealistischen Porträts. Dabei werden die Grundlagen sowie das Vorgehen beim Entstehungsprozess beschrieben. Im Weiteren untersucht diese Arbeit Methoden zur Einschätzung des Zeichenfortschritts des erstellten Bildes. Diese werden getestet und ihre Ergebnisse anschließend ausgewertet.
In dieser Arbeit wird ein DNA-Einzelstrang mittels fluoreszenzspektroskopischer Untersuchungen charakterisiert. Die DNA ist mit zwei Fluorophoren markiert, damit die Charakterisierung mittels FRET durchgeführt werden kann. Durch Zugabe von monovalenten Metallionen K(I) und Na(I) wird der Faltungszustand der DNA beeinflusst. Die Messungen werden bei verschiedenen Bedingungen durchgeführt (Metallionenkonzentration, Metallion, Temperatur, Puffer und pH-Wert). Durch die Berechnung des relativen Anteils der Akzeptoremission kann FRET bestimmt werden und daraus auf den Abstand der Farbstoff am Molekül der DNA geschlossen werden.
Im Rahmen der Arbeit wurde untersucht, welche neuen Möglichkeiten Künstliche Intelligenz (KI) bezüglich der bei Phishing-Angriffen verwendeten Taktiken, Techniken und Werkzeuge bietet. Die Nutzung von KI-gestützten Phishing-Angriffen wird praxisnah beschrieben. Unter diesem Aspekt wurden aktuelle KI‘s betrachtet, insbesondere ChatGPT. Daraufhin wurde analysiert, inwiefern diese den Prozess des Phishing oder Teilaspekte davon vereinfachen beziehungsweise erleichtern. Die Ergebnisse wurden diskutiert, um ein besseres Verständnis dafür zu schaffen, wie künstliche Intelligenz den Phishing-Angriffen neue Angriffsvektoren hinzufügt. Die rechtliche oder ethische Bewertung von KI im Zusammenhang mit Phishing wurde nicht behandelt. Zudem geht die Arbeit ebenfalls nicht auf die Entwicklung oder Implementierung spezifischer Abwehrmaßnahmen ein.
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
In dieser Arbeit wird die Entwicklung eines Tools beschrieben, welches diverse Schritte des digitalen Achterbahnbaus prototypisch kombiniert. Entwickelt wurden eine visuelle Bewegtbilddarstellung, ein prozeduraler Streckengenerator, eine automatische Rotationszuweisung und eine Präferenzeingabefläche zur Beeinflussung der zufälligen Streckenausgabe. Der Fokus liegt darauf, die zufälligen Streckenlayouts in einer Umfrage zu evaluieren, um zu ermitteln, ob diese Software einen potentiellen Mehrwert für professionelle Achterbahndesigner bietet. Im Rahmen der Evaluation wurden sieben Achterbahnen im Tool erbaut. Dabei handelt es sich um zwei zufällig generierte, zwei vom Autor erschaffene und drei Repliken realer Bahnen. Um eventuelle Streckentyppräferenzen von Probanden zu erkennen, wurden zwei verschiedene Achterbahntypen für die Evaluation verwendet. Diese sind als Videoaufnahme in einer Umfrage mit 26 Probanden untersucht und anschließend miteinander verglichen worden. Die Probanden zeigten in ihrer Erfahrung mit Achterbahnen einen geringen bis mittelmäßigen Wissensschatz, konnten aber gute Bahnen von schlechten unterscheiden. Es war ihnen nicht eindeutig möglich, die realen Strecken von den anderen zu unterscheiden. Die Ergebnisse zeigen, dass die zufällig generierten Strecken den realen Repliken im Bezug auf Kreativität ebenbürtig sind. Auch die Qualität des Streckenlayouts weist laut den Probanden kein erkennbares Defizit auf. Die prototypische Umsetzung der Ausgabe des Tools kann als zufriedenstellend eingeschätzt werden. Ob die Applikation einen positiven Einfluss auf die Arbeit eines brancheninternen Designers hat, muss in einer weiteren Studie untersucht werden.
In dieser Arbeit wurde der Einfluss der Molekülgröße von per- und polyfluorierten Alkylsubstanzen auf den Summenparameter AOF mittels eines ungekoppelten Systems im AOF-Gesamtverfahren untersucht. Dazu wurden drei käuflich erworbene PFAS-Standards ausgewählt und daraus selbst hergestellte PFAS-Standardlösungen und PFAS-Kombinationslösungen analysiert. Es wurde insbesondere der Durchbruch der im Anreicherungsschritt genutzten Aktivkohle durch eine LC-MS-Einzelstoffanalytik der Waschlösungen untersucht. Aus den Ergebnissen wurden Aussagen zum Sorptionsverhalten der untersuchten PFAS bei der Anreicherung an der Aktivkohle abgeleitet und dahingehend Grenzen des AOF-Gesamtverfahrens hinsichtlich der Quantifizierung von PFAS aufgezeigt.
Erzeugung eines 3D-Lungengewebemodells mithilfe einer Luft-Flüssigkeits-Grenzflächen-Zellkultur
(2023)
Die vorliegende Bachelorarbeit befasst sich mit der Etablierung und Entwicklung eines dreidimensionalen Lungengewebemodells auf Grundlage einer Luft-Flüssigkeits-Grenzflächen- Zellkultur. Das In-vitro-Modell sollte die Grenzfläche zwischen dem luftgefüllten Raum der Lungenbläschen und dem Blut innerhalb der Kapillaren rekonstruieren. Für die Nachbildung des Lungenepithels kamen die Lungenkarzinomzelllinie A549 und die humanen primären Bronchialepithelzellen HBEpC zum Einsatz. Das Endothelgewebe wurde mit der somatischen Hybridzelllinie EA.hy926 und den Primärzellen HUVEC rekonstruiert. Die Eignung des entwickelten Modells wurde anhand der Ausbildung einer epithelialen Barrierefunktion sowie der Reaktion auf die Zugabe des Transforming Growth Factors 1 (TGF-β1) bewertet. Während der Etablierung wurde der Einfluss der Kokultivierung auf die epitheliale Barriere untersucht. Des Weiteren wurden verschiedene, kommerziell verfügbare Medien für die Air-Liquid-Interface-Kultur (ALI-Kultur) getestet. Als Anhaftungssubstrat für die Zellen wurden verschiedene Präparationen des extrazellulären Matrix-Proteins Kollagen eingesetzt. Die Kultivierung von Zellen an der Luft-Flüssigkeitsgrenze führte zur Expression spezieller Markergene, die mithilfe von Immunfluoreszenz und einer quantitativen Real-Time PCR quantifiziert wurden. Die Atembewegung ist für die Differenzierung ebenfalls essentiell und somit wichtiger Bestandteil zukünftiger und aussagekräftiger Lungen-in-vitro-Modelle. Diese mechanische Stimulation konnte unter Zuhilfenahme des vom Fraunhofer Institutes (IWS) entwickelten MPSstimulus realisiert werden, sodass es möglich war erste Untersuchungen zur zyklischen, physiologischen und mechanischen Dehnung von Lungenzellen durchzuführen.
Die vorliegende Bachelorarbeit widmet sich dem Entwurf und der prototypischen Implementierung einer Teilnehmeridentifikationsmethode für LabCon, ein Nutzerverwaltungssystem für Online-Praktika. Der Fokus liegt auf dem Einsatz von Digital Fingerprinting, einer Technologie, die durch die Extraktion charakteristischer Merkmale der Browser und der Geräte von Nutzern eine eindeutige Identifikation ermöglicht.
Die Arbeit bezieht sich auf die Verwendung von Lügendetektoren als Beweismittel vor Gericht. Die Einführung in die Geschichte stellt die Entwicklung dieser Technologie dar. Des Weiteren werden die theoretischen Grundlagen und die Funktionsweisen von Lügendetektortests, sowie deren Kritikpunkte beleuchtet. Insbesondere werden verschiedene Testmethoden und deren Fehleranfälligkeit diskutiert. Zudem wird auf die rechtlichen Aspekte, vorwiegend auf die Beweiswürdigung, sowie auf die Zulässigkeit solcher Tests in gerichtlichen Verfahren, eingegangen.
Instant Messenger gehören zu den am häufigsten verwendeten Applikationen auf mobilen Endgeräten. Sie werden von nahezu allen Altersgruppen genutzt, dabei verwenden eine Vielzahl der Nutzer diese täglich zum Austausch von textuellen Nachrichten, Sprachnachrichten oder multimedialer Dateien. Die Anzahl der Nutzer nimmt seit Jahren kontinuierlich zu. Einer der verbreitetsten Anwendungen ist „Threema“, welche von 22 Prozent der Befragten in Deutschland genutzt wird. Weltweit beträgt die Anzahl der Nutzer elf Millionen. Im Kontext forensischer Untersuchungen wird die Bedeutung der Rekonstruktion von Artefakten von Instant Messenger-Diensten immer größer, da über diese auch ein Austausch von Informationen durch Täter, Opfer und Zeugen von Straftaten stattfindet. Solche Artefakte umfassen Bild- und Videomaterial sowie Standorte oder Textnachrichten. Diese können hilfreich sein, um den Tathergang zu rekonstruieren.
In der vorliegenden Bachelorarbeit werden die Artefakte der Instant Messengers „Threema“ anhand von Beispieldaten aufbereitet und ausgewertet. Dabei stehen Chatverläufe, ausgetauschte Standorte und Kontaktinformationen im Fokus, wobei sie keine Entschlüsselung der Daten oder Rekonstruktion von multimedialen Daten oder gelöschte Daten umfasst. Die Untersuchungen ergaben, dass die Daten in den SQLite- Datenbanken ThreemaData.sqlite und Threema.sqlite-wal abgelegt werden.
Die vorliegende Arbeit befasst sich mit den Anforderungen zur Verbesserung der Mitarbeiterzufriedenheit und -effizienz anhand der Webanwendung des SYSTEMHAUS am Neumarkt. Dazu erfolgt die Recherche gängiger Methoden im Bereich der User Experience. Mit den theoretischen Grundlagen wird der aktuelle Entwicklungsstand analysiert. Es erfolgt eine Evaluation, aus welcher ein Problemkatalog erstellt wurde. Kern der Arbeit ist die Erstellung eines Kriterienkataloges mit konkreten Maßnahmen zur Verbesserung der User Experience. Diese Maßnahmen werden mit Hilfe eines Prototyps visualisiert.
Machine learning models for timeseries have always been a special topic of interest due to their unique data structure. Recently, the introduction of attention improved the capabilities of recurrent neural networks and transformers with respect to their learning tasks such as machine translation. However, these models are usually subsymbolic architectures, making their inner working hard to interpret without comprehensive tools. In contrast, interpretable models such learning vector quantization are more transparent in the ability to interpret their decision process. This thesis tries to merge attention as a machine learning function with learning vector quantization to better handle timeseries data. A design on such a model is proposed and tested with a dataset used in connection with the attention based transformers. Although the proposed model did not yield the expected results, this work outlines improvements for further research on this approach.
Verschiedenste telefonische Betrugsmaschen, die auf die ältere Generation abzielen, sind in den letzten Jahren in Deutschland exorbitant gestiegen. Ob Schockanruf, WhatsApp-Betrug oder Enkeltrick: die Folgen eines solchen Betrugsfalls werden nur selten aufgezeigt. Anhand einer quantitativen Umfrage und einem Interview mit einer Betroffenen werden in dieser Arbeit die Betrugspräsenz, die Trendentwicklung und der aktuelle Aufklärungsstand am Beispiel des Enkeltricks, sowohl analog als auch digital untersucht. Abschließend werden Handlungsempfehlungen für potenziell gefährdete Menschen ausgesprochen.
In this paper, we conduct experiments to optimize the learning rates for the Generalized Learning Vector Quantization (GLVQ) model. Our approach leverages insights from cog- nitive science rooted in the profound intricacies of human thinking. Recognizing that human-like thinking has propelled humankind to its current state, we explore the applica- bility of cognitive science principles in enhancing machine learning. Prior research has demonstrated promising results when applying learning rate methods inspired by cognitive science to Learning Vector Quantization (LVQ) models. In this study, we extend this approach to GLVQ models. Specifically, we examine five distinct cognitive science-inspired GLVQ variants: Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), and Loose Symme- try with Rarity (LSR). Our experiments involve a comprehensive analysis of the performance of these cogni- tive science-derived learning rate techniques across various datasets, aiming to identify optimal settings and variants of cognitive science GLVQ model training. Through this research, we seek to unlock new avenues for enhancing the learning process in machine learning models by drawing inspiration from the rich complexities of human cognition. Keywords: machine learning, GLVQ, cognitive science, cognitive bias, learning rate op- timization, optimizers, human-like learning, Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), Loose Symmetry with Rarity (LSR).
Adversarial robustness of a nearest prototype classifier assures safe deployment in sensitive use fields. Much research has been conducted on artificial neural networks regarding their robustness against adversarial attacks, whereas nearest prototype classifiers have not chalked similar successes. This thesis presents the learning dynamics and numerical stability regarding the Crammer-normalization and the Hein-normalization for adversarial robustness of nearest prototype classifiers. Results of conducted experiments are penned down and analyzed to ascertain the bounds given by Saralajew et al. and Hein et al. for adversarial robustness of nearest prototype classifiers.
Im Reverse Engineering und in der Malware-Analyse wurden bereits verschiedene Ansätze zur Visualisierung von Binärdaten entwickelt. Mit diesen lässt sich schnell ein Überblick über Dateien gewinnen, sodass beispielsweise verschiedene Regionen einer Datei identifiziert oder eine bösartige Datei einer Malware-Familie zugeordnet werden kann. In der vorliegenden Masterarbeit wird versucht, diese Ansätze auch sektorweise auf einen Datenstream anzuwenden. Dafür wird ein Demonstrator erstellt, mit dem Sektoren automatisiert nach Dateitypen klassifiziert werden können. Ziel ist es, einen Ansatz zur Verbesserung der aktuellen, signaturbasierten IT-forensischen Methoden zur Wiederherstellung von fragmentierten oder gelöschten Daten zu finden.
Diese Arbeit beschäftigt sich mit verschiedenen Mehrspielermechaniken und deren Auswirkung auf bestimmte Aspekte des Spielerlebnis. Dafür soll ein zweidimensionales Plattformerspiel erstellt werden. Hierfür erfolgt zunächst die Definition der zu implementierenden Mehrspielermechaniken. Anschließend wird ein Konzept für die einzelnen Mechaniken erstellt wie sie konkret im Spiel eingebaut werden. Danach soll die Umsetzung der erstellten Konzepte erfolgen. Dieses Spiel wird dann mit der Hilfe von Probanden evaluiert. Die Ergebnisse der Evaluation werden danach analysiert, um Aussagen über die Veränderung zuvor ausgewählter Aspekte zwischen den Verschiedenen Mechaniken zu treffen. Umgesetzt wird der praktische Teil der Arbeit in Unity. Es wird in C# programmiert.
In Zeiten, in denen Unternehmen rechenintensive Anwendungen auf externe Server auslagern, gewinnt Cloudcomputing immer mehr an Bedeutung. Das Problem dabei ist, um Operationen auf herkömmlichen, verschlüsselten, ausgelagerten Daten ausführen zu können, müssen diese zuerst entschlüsselt werden. Vertrauliche Daten liegen in dem Zeitraum der Bearbeitung unverschlüsselt vor, was zu einem Datenschutz- und Sicherheitsproblem führt. Dieses Problem kann durch vollständig homomorphe Verschlüsselungen gelöst werden. Diese moderne Verschlüsselungstechnik erlaubt das Ausführen von Operationen auf verschlüsselten Daten und wird in dieser Arbeit grundlegend vorgestellt. Weiterhin werden Bibliotheken, die homomorphe Verschlüsselungen implementieren, vorgestellt und mittels Benchmarking miteinander verglichen. Anschließend wird ein Anwendungsbeispiel formuliert, das die Vor- und Nachteile homomorpher Verschlüsselungen simulieren soll. Die Implementierung des Anwendungsbeispiels erfolgt mithilfe der im Benchmarking ermittelten leistungsstärksten Bibliothek - der Microsoft SEAL Bibliothek. Mit den in dieser Arbeit erlangten Erkenntnissen soll der Einstieg in die komplexe Thematik der homomorphen Verschlüsselungen vereinfacht werden und gleichzeitig zur Auseinandersetzung mit dieser Verschlüsselungsmethodik angeregt werden.
Traditional user management on the Internet has historically required individuals to give up control over their identities. In contrast, decentralized solutions promise to empower users and foster decentralized interactions. Over the last few years, the development of decentralized accounts and tokens has significantly increased, aiming at broader user adoption and shared social economies.
This thesis delves into smart contract standards and social infrastructure for Ethereum-based blockchains to enable identity-based data exchange between abstracted blockchain accounts. In this regard, the standardization landscapes of account and social token developments were analyzed in-depth to form guidelines that allow users to retain complete control over their data and grant access selectively.
Based on the evaluations, a pioneering Solidity standard is presented, natively integrating consensual restrictive on-chain assets for abstracted blockchain accounts. Further, the architecture of a decentralized messaging service has been defined to outline how new token and account concepts can be intertwined with efficient and minimal data-sharing principles to ensure security and privacy, while merging traditional server environments with global ledgers.
Die vorliegende Bachelorarbeit befasst sich mit der digitalen Blutspurenmusteranalyse in dreidimensionalen Modellen, welche mit Hilfe der Software „Blender“ durchgeführt wird. Das Ziel ist es, 3D-Koordinaten aus den gegebenen 2D-Koordinaten der Modelltextur zu generieren, um anschließend auf diesen Koordinaten Trajektorien einzeichnen zu können. Diese sollen die Flugbahnen der jeweiligen Blutstropfen zurück zum Ursprungsort repräsentieren.
Der Inhalt dieser Arbeit befasst sich mit der Verbesserung und somit Optimierung einer Multiplex-Färbung für die Metastasen des malignen Melanoms, wobei das sogenannte CODEX-System verwendet wird. Wie bei vielen anderen Krebserkrankungen ist die Metastasierung ausschlaggebend für eine hohe Mortalität. Um besser gegen die Metastasen vorgehen zu können, ist ein Verständnis ihrer Mikroumgebung und somit auch die Wechselwirkungen zwischen Tumor und Normalgewebe notwendig. Mithilfe der Multiplex-Technologie kann diese Mikroumgebung durch die Markierung von bis zu 50 Markern gleichzeitig in einem Gewebeschnitt weitreichend dargestellt werden. Anhand von Markern für Phosphoproteine kann zudem die Aktivierung bestimmter Signalwege nachgewiesen werden, wie zum Beispiel die des MAPK-Signalwegs, welcher in malignen Melanomen aufgrund bestimmter Mutationen in diesem Signalweg oftmals hochreguliert ist.
Der Einsatz digitaler Mittel in der Tatortrekonstruktion soll in der Zukunft eine große Stütze in der Verbrechensaufklärung werden. Die Rekonstruktion des Bewegungsablaufs eines Opfers, ist als Bewegungsanalyse ein großer Teil dieses Forschungsgebietes. Um eine möglichst natürliche und anatomische korrekte Simulation der Bewegungsabläufe zu ermöglichen, werden Ragdollmodelle benötigt. Diese Arbeit befasst sich mit der Optimierung des Erstellungsprozesses und des Aufbaus dieser bereits bestehenden Ragdollmodelle, in der aktuellen forensischen Tathergangsrekonstruktion.
Das Ziel der vorliegenden Arbeit ist es eine Übersicht über aktuell relevante und am Markt vertretene Zutrittskontrollsysteme zu erstellen. Dazu wird zuerst die grundlegende Theorie hinter den einzelnen Zutrittskontrollsystemen vorgestellt. Im Anschluss werden die vorgestellten Zutrittskontrollsysteme durch selbst ausgewählte Kriterien nach Sicherheit und Komfort bewertet. Dabei stellte sich der Handvenenscan in dem Bereich Sicherheit durch das sehr niedrige Verlust-, Weitergabe- und Nachahmungsrisiko und im Bereich Komfort durch die kontaktlose Verwendung, dem geringen Aufwand, der niedrigen Schmutzempfindlichkeit und dem niedrigen Schmutzempfinden als hervorragend heraus. Anschließend wird ein Flussdiagramm als Entscheidungshilfe vorgestellt. Dieses hat den Zweck das geeignete Zutrittskontrollsystem für die private Nutzung oder der Nutzung im Unternehmen zu finden. Dabei werden aktuell auf dem Markt befindliche Produkte vorgestellt.
Diese Bachelorarbeit untersucht die Auswirkungen von auditiven und visuellen Reizen auf das Spielerlebnis beim Lösen von interaktionsbasierten Rätseln.
In der Welt des Spieldesigns spielen sensorische Hinweise eine entscheidende Rolle um Spieler zu fesseln, sie in das Spiel eintauchen zu lassen und sie durch Herausforderungen zu führen.
Die Arbeit befasst sich mit der Frage, welche Art sensorischer Reize faszinieren und damit Immersion und Effektivität bei der Vermittlung von Rätselinformationen bewirken. Darüber hinaus wird untersucht, wie individuelle Vorlieben und Fähigkeiten sensorische Reizverarbeitung betreffend den allgemeinen Spielspaß beeinflussen können.
Der visuelle mikroskopische Spermanachweis gilt bis heute als aussagekräftigster Nachweis von Spermien in der forensischen Fallarbeit. Anhand der markanten Zellmorphologie kann ein Spermium von anderen Zellen und Partikeln unter dem Mikroskop abgegrenzt und unterschieden werden. Voraussetzung hierfür sind jedoch eine zuverlässige Aufarbeitungsmethode, um die Spermien eines Asservats auf einen Objektträger zu überführen und eine valide Färbemethode, welche die Spermien erst sichtbar macht.
Zielsetzung dieser Arbeit ist es, eine zeitsparende und effiziente Färbemethode zu finden, die in der praktischen Laborarbeit für den mikroskopischen Spermanachweis sicher angewandt werden kann. Verglichen werden hierfür im Folgenden die lichtmikroskopische Kernechtrot-Pikroindigokarmin- und die fluoreszenzmikroskopische SPERM HY-LITER-Färbung. Weiterführend werden reale Fallproben auf Spermien untersucht, um somit praxisnahe Gewissheit über die Effizienz der Methoden zu erlangen.
Die Recyclingfähigkeit von faserbasierten Lebensmittelverpackungen wird durch Restanhaftungen des Lebensmittels vor Probleme gestellt. Dadurch ausgelöste Verkeimungen bei der Altpapierlagerung beeinträchtigen den Recyclingprozess. Die entwickelten Mikroorganismen beeinflussen wiederum die Herstellungskette innerhalb einer Papierfabrik, da es zu hohen organischen Belastungen kommen kann. Die Bachelorarbeit untersucht den mikrobiologischen Einfluss von Lebensmitteln, auf die Altpapierlagerung derer faserbasierter Verpackungen.
Die Arbeit gibt eine Einführung in Schnorr-Multisignaturen im Kontext des Taproot-Updates, wie es im Bitcoin Improvement Proposal (BIP) Nr. 340 vorgeschlagen wird. Schnorr-Multisignaturen bieten einen effizienten und sicheren Weg für mehrere Parteien, gemeinsam eine einzige Signatur zu erstellen, die ihre gemeinsame Zustimmung repräsentiert. Das Taproot-Update zielt darauf ab, die Privatsphäre, Skalierbarkeit und Flexibilität des Bitcoin-Protokolls durch die Einführung von Schnorr-Multisignaturen als zentrales Element zu verbessern. Die Arbeit beginnt mit einem Überblick über die Grundlagen digitaler Signaturen und zeigt die Schwächen bestehender Signaturschemata in Bitcoin auf. Anschließend werden die theoretischen und mathematischen Grundlagen von Schnorr-Multisignaturen untersucht, einschließlich ihrer Konstruktion, Sicherheitseigenschaften und Vorteile gegenüber traditionellen Schemata. Die Bedeutung des Taproot-Updates für das Bitcoin-Netzwerk wird diskutiert und hervorgehoben, wie das Update die Effizienz von Transaktionen und den Schutz der
Privatsphäre verbessern kann. Die Einführung von Schnorr-Signaturen im Bitcoin Core war ein wichtiger Schritt. Signaturen sind häufig Angriffen ausgesetzt, weshalb weitere Anpassungen wie die Implementierung von MuSig2 sinnvoll sind. Nach der Effizienzsteigerung sollte der Fokus nun verstärkt auf die Sicherheit gelegt werden.
Diese Arbeit beschäftigt sich mit der Konzeption und Erstellung einer Kompetenzmatrix zur Verbesserung der Selbsteinschätzung von Studierenden im Bereich des Medieninformatik Studiums an der Hochschule Mittweida. Neben der Erstellung der Matrix wurde zusätzlich eine Evaluation an Studierenden und Absolventen durchgeführt. Eine Auswertung sowie eine Handlungsempfehlung und eine Weiterentwicklungsmöglichkeit der Matrix und aller erarbeiteten Bestandteile befindet sich ebenfalls in dieser Arbeit.
Die folgende Arbeit befasst sich mit dem forensischen Informationspotential von Smart Home Security Geräten, in diesem Fall dem Starter-Kit der Firma Ring. Hierfür wurde die Funktionsweise des Systems genauer untersucht und es wurden Manipulationsversuche und Datensicherungen durchgeführt. Diese Manipulationen bezogen sich hier genauer auf die zwei internetfähigen Geräte, die Basisstation und die Kamera. Die Datensicherungen fokussierten sich insbesondere auf den allgemein gesicherten Daten und Hinweisen zu den Manipulationen.
Ziel der Arbeit ist es, innerhalb einer forensischen Analyse die Ablagestruktur der Chatanwendung Viber unter dem Betriebssystem iOS zu analysieren. Darüber hinaus sollen Dateien analysiert werden, um relevante Informationen zu Chats zu extrahieren und auswertbar zu machen. Bei der Recherche zum aktuellen Forschungsstand wurden kaum Arbeiten gefunden, welche eine tiefgehende forensische Analyse von Viber auf iOS-Geräten zum Gegenstand haben. Für die Auswertung wurden Testdaten in Form von Einzel- und Gruppenchats auf iOS-Geräten erstellt und die Geräte anschließend IT-forensisch ausgelesen. Durch die Verwendung des Auslesegerätes UFED Touch2 konnte die Ablagestruktur mittels des UFED-Readers analysiert und dokumentiert werden. Die Analyse der Dateien brachte Informationen aus den zwei Hauptdatenbanken 'Settings.data' und 'Contacts.data' hervor. Hierbei wurden alle Tabellen analysiert und Informationen zu den relevanten Spalten dokumentiert. Abschließend wurden für einen Leitfaden zur Rekonstruktion von Chats SQL-Befehle erstellt, welche zum einen eine Zusammenfassung von Informationen zu Konversationen und zum anderen eine Wiederherstellung von Chatverläufen der einzelnen Konversationen möglich machen sollen.
Die vorliegende Arbeit untersucht, wie eine Ontologie mobile Kommunikation für forensische Auswertungen abbilden kann und welche Chancen sich aus dieser Art von Repräsentation ergeben. Prinzipiell stellen Ontologien einen Lösungsansatz für die wachsenden Herausforderungen im Bereich der digitalen Forensik dar. Vor allem die Heterogenität und stark zunehmende Menge der auszuwertenden Daten stellt die Strafverfolgungsbehörden vor Probleme. Forensische Tools unterstützen bei der Extraktion und Analyse von Daten. Allerdings weisen sie in bestimmten Aspekten ihre individuellen Grenzen auf. Ontologien ermöglichen dabei die Interoperabilität zwischen forensischen Tools und somit die Kombination der jeweiligen Vorteile von diesen Tools. Somit können insbesondere (Teil-)Automatisierungen im Ermittlungsprozess realisiert werden, was zur Ersparnis von Zeit und Ressourcen führt. Darüber hinaus lassen sich anhand von Ontologien logische Schlussfolgerungen herleiten und weitere Methoden aus dem Bereich der künstlichen Intelligenz anwenden. Diese Arbeit verwendet die CASE-Ontologie als Grundlage zur Entwicklung einer Ontologie, welche mobile Kommunikation im Kontext forensischer Untersuchungen repräsentiert. Darüber hinaus wird im experimentellen Teil der Arbeit das Datenmodell einer forensischen Plattform zur Auswertung mobiler Kommunikation auf die entworfene Ontologie abgebildet. Zusätzlich wird ein semantischer Webserver prototypisch aufgesetzt, um einen Anwendungstest der Ontologie durchführen zu können.
Im Rahmen von vielen Kriminalfällen werden Audio- und Videoaufnahmen asserviert und ausgewertet. Häufig sind in den Mediendateien unabsichtliche Aufzeichnungen des Stromnetzfrequenz- brummen enthalten. Diese können extrahiert und analysiert werden. Sofern entsprechende Aufzeichnungen über vergangene Stromnetzfrequenzverläufe vorliegen, können selbige zur Identifikation des Aufnahmeortes und Aufnhahmezeitpunktes herangezogen werden. Innerhalb dieser Bachelorarbeit wird ein Stromfrequenz-Messgerät für den Aufbau einer Stromfrequenzdatenbank konzipiert. Weiterhin werden Störeinflüsse evaluiert, die eine erfolgreiche Messung verhindern können.