Angewandte Computer‐ und Biowissenschaften
Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
As new sensors are added to VR headsets, more data can be collected. This introduces a new potential threat to user privacy. We focused on the feasibility of extracting personal information from eye-tracking. To achieve this, we designed a preliminary user study focusing on the pupil response to audio stimuli. We used a variation of machine learning models to test the collected data to determine the feasibility of obtaining information such as the age or gender of the participant. Several of the experiments show promise for obtaining this information. We were able to extract with reasonable certainty whether caffeine was consumed and the gender of the participant. This demonstrates the unknown threat that embedded sensors pose to users. A further studies are planned to verify the results.
Interaktive Partikelsimulationen : eine Untersuchung der Visualisierung astrophysikalischer Prozesse
(2024)
Der Einsatz von Spezialeffekten, insbesondere Partikelsimulationen, ist in der heutigen Filmproduktion unverzichtbar geworden. Diese Simulationen finden Anwendung in einer Vielzahl von Szenarien, von realistischen Darstellungen von Staub, Feuer und Wasser bis zu abstrakten magischen Effekten. Sie werden in der Regel eingesetzt, wenn Prozesse zu komplex sind, um sie auf praktische Weise zu visualisieren, einschließlich astrophysikalischer Phänomene, die sich über Zeit- und Raumskalen entfalten, die schwer zu beobachten und zu begreifen sind. Diese Arbeit erforscht Partikelsimulationen mit dem Ziel, astrophysikalische Prozesse zu visualisieren, wobei der Schwerpunkt darauf liegt, Interaktivität in diese Simulationen einzuführen, da diese allgemein als förderlich für den Wissenserwerb betrachtet wird. Das Ziel besteht darin, die Machbarkeit der Erstellung von Partikelsimulationen zu untersuchen, die vom Nutzer gesteuert werden können, um astrophysikalische Prozesse individuell zu erkunden und zu verstehen. Hierfür wird eine interaktive dreidimensionale Partikelsimulation entwickelt, die den Prozess der stellaren Evolution und insbesondere die Unterscheidung der Evolutionsstufen veranschaulichen soll, um das Verständnis von Schülern zu verbessern. Die Arbeit diskutiert potenzielle Herausforderungen durch Interaktivität und technische Einschränkungen bei der Umsetzung solcher Simulationen sowie mögliche Lösungsansätze.
In dieser Arbeit geht es um die Validierung von Richard Bartles Modell der Spielerarchetypen in einem Einzelspieler-Videospiel. Das Modell wurde für die Entwicklung des Spiels Explorer Bot angewendet. Die Validität des Modells wurde anschließend über zwei Faktoren bestimmt. Zum einen wurden die Meinungen über Explorer Bot der Spieler mittels einer Umfrage aufgezeichet. Der andere Faktor besteht aus der Existenz der Archetypen unter den Spielern Explorer Bots.
Häusliche Gewalt : Untersuchung der gesetzlichen Regelungen und (sozialen) Hilfsmöglichkeiten
(2024)
Das Ziel der vorliegenden Bachelorarbeit war es, das Thema der häuslichen Gewalt aufzugreifen und hinsichtlich der verschiedenen Gewaltbegriffe im internationalen sowie nationalen Recht zu vergleichen. Dafür wurden verschiedene Literaturtexte ausgewertet.
Hinsichtlich der häuslichen Gewalt wurden mehrere Theorien möglicher Ursachen bewertet mit dem Ergebnis, dass eine Vielzahl an Faktoren für aggressives Verhalten ursächlich sind und die eigene Entscheidung zur Gewalt eine große Rolle spielt. Auch das Gesundheitswesen, Frauenhäuser und Täterprograme wurden in Bezug auf die Themen in ihrer Funktion
beschrieben.
Die biologische Ammoniumoxidation ist ein zentraler Bestandteil des globalen Stickstoffkreislaufs. Angesichts der extremen Massen Stickstoff anthropogenen Ursprungs in der Umwelt, liegt die Entfernung reaktiven Stickstoffs im Interesse der Umwelt und der öffentlichen Gesundheit. In der folgenden Arbeit werden Bedingungen zur anaeroben Ammoniumoxidation mit Nitrat in einem Anammox-Reaktor untersucht. Dabei wurden 2 Laborreaktoren für eine Zeit von insgesamt 116 Tagen betrieben und beobachtet, die ausschließlich als Elektronendonatoren und Akzeptoren Ammonium und Nitrat enthielten. Zusätzlich wurden Batchkulturen mit Zellen eines Reaktors angezüchtet und auf ihre Gaszusammensetzung abhängig unterschiedlicher Eigenschaften untersucht. Hierbei wurde eine Reihe unterschiedlicher analytischer Quantifizierungsmethoden genutzt und es konnte gezeigt werden, dass ein Abbau unter den Bedingungen stattfindet.
Die aktuelle Forschung zu dieser Reaktion ist spärlich und verleiht der Bachelorarbeit dadurch Relevanz.
Die Auswertung von Kurznachrichten, die auf mobilen Endgeräten gespeichert sind, nimmt bei strafrechtlichen Ermittlungen immer mehr an Bedeutung zu. Häufig sind Ermittler hierbei mit umfassenden Nachrichtenmengen konfrontiert. Um einen Überblick zu erhalten, wäre eine kompakte Zusammenfassung der zahlreichen Nachrichten hilfreich. Eine Möglichkeit diese automatisiert zu erhalten, stellt die Themenmodellierung dar. Diese ist allerdings bei forensischen Kommunikationsdaten mit besonderen Herausforderungen verbunden. Zu diesen zählt die Tatsache, dass der Ermittler oft eine Erwartungshaltung an die Themen hat, wobei die für ihn interessanten Themen häufig nur zu einem geringen Anteil in den Daten vertreten sind. Um ihn bei dem Finden von Beweisen zu diesen Themen zu unterstützen, wurden zwei Methoden der halbüberwachten Themenmodellierung und Erweiterungen basierend auf Word Embeddings und paradigmatischen Relationen miteinander verglichen. Insbesondere für umgangssprachliche Kurznachrichten ist die Evaluierung der Themenmodellierung als schwierig anzusehen, da bisherige Studien gezeigt haben, dass gängige quantitative Evaluierungsmaße bei diesen nicht unbedingt die tatsächliche Interpretierbarkeit der Themen widerspiegeln. Daher bestand ein weiteres Ziel der Arbeit darin zu untersuchen, inwieweit die Ergebnisse einer regelmäßig angewendeten automatischen Evaluierungsmethode durch eine Nutzerstudie wiedergegeben werden. Insgesamt konnte festgestellt werden, dass nach der quantitativen Evaluierung die halbüberwachte Themenmodellierung unter Einbeziehung von paradigmatischen Relationen als besonders erfolgversprechend angesehen werden kann, während nach der Nutzerstudie vor allem die Word Embeddings die Ergebnisse der halbüberwachten Themenmodellierung verbessern konnten. Des Weiteren zeigte sich, dass keine Korrelation zwischen den Resultaten der automatischen Evaluierung und der Nutzerstudie vorlag.
Die vorliegende Arbeit beschäftigt sich mit der Umsetzung einer Viewer X-Tension für die Darstellung von ESE Datenbanken in X-Ways Forensics. Dazu wird vor allem der konkrete Aufbau und die Struktur einer ESE Datenbank analysiert und vorgestellt. Weiterhin werden die technischen Grundlagen der Software X-Ways Forensics und der X-Tensions-API zur Erstellung einer Erweiterung gelegt. Zudem werden die Schritte der Umsetzung aufgezeigt und die konkrete Programmimplementierung an Code-Beispielen erläutert.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung ob und warum die Anzahl von IT-Sicherheitslücken exponentiell steigt. In Zuge dessen wird der Zusammenhang zwischen der Entwicklung von Sicherheitslücken und der Entwicklung der Code-Länge über die Zeit untersucht. Um die Forschungsfrage zu beantworten, wurden CVE-Daten ausgewertet. Dabei wird nicht nur die allgemeine CVE-Entwicklung, sondern auch ausgewählte Software-Systeme im Speziellen betrachtet. Um die Code-Länge zu untersuchen, wurden die LOC der einzelnen Software-Systeme analysiert. Die Untersuchung ergab, dass die Entwicklung der CVE gesamt einen exponentiellen Trend verfolgt. Die CVE-Entwicklung der einzelnen Software-Systeme verfolgt im Gegensatz dazu in der Mehrheit einen linearen Trend. Auch die LOC-Entwicklung der Software-Systeme passt sich diesem Trend an. Somit zeigt sich, dass die drastische Entwicklung der Sicherheitslücken nicht ausschließlich durch eine drastische LOC-Entwicklung beeinflusst wird, sondern von verschiedenen Faktoren abhängt, die sich untereinander verstärken.
Ziel dieser Arbeit ist es, die Ablagestruktur des sozialen Netzwerkdienstes Threads durch forensische Analysen an Android-Geräten zu untersuchen. Die Testdaten werden mit Hilfe von zwei Android-Smartphones generiert. Auf einem der Mobilgeräte werden Root-Rechte aktiviert, um Zugriff auf die Anwendungsdaten von Threads zu erhalten. Die Root-Rechte ermöglichen einen permanenten Zugriff auf Anwendungsdaten, wodurch ein mehrmaliges Auslesen der Anwendungsdaten ohne hohen Zeitaufwand möglich und somit eine detailreiche Analyse realisierbar ist. Das zweite Mobilgerät wird einer Informationstechnologie (IT)-forensischen Extraktion mittels UFED Touch2 unterzogen.
Aus dieser Extraktion wird anschließend ein UFED-Bericht generiert, welcher Informationen zu Anwendungen beinhaltet, die auf dem Gerät verwendet wurden. Aus der Analyse soll hervorgehen, welche Anwendungsdaten von Threads in den UFED-Bericht einfließen. Die Literaturrecherche zeigte, dass bisher keine wissenschaftlichen Arbeiten zur Anwendung Threads veröffentlicht wurden. Infolgedessen soll der Fokus der Analysen auf Ablagestruktur und Informationen zum Nutzerkonto sowie Aktionen, wie das Teilen von Beiträgen oder Verfassen von Kommentaren, liegen.
Diese Arbeit präsentiert ein Protokoll für vertrauliche Transaktionen auf Ethereum, das auf einer kontenbasierten Struktur und Paillier-Verschlüsselung basiert. Die Integration von Non-Interactive Zero-Knowledge Range Proofs (NIZKRP) verbessert die Sicherheit. Die Implementierung und Tests auf Ethereum zeigen vergleichbare Transaktionskosten (Sicherheitsparameter 40) im Vergleich zu Protokollen mit Bulletproofs. Bei einem Sicherheitsparameter von 128 (NIZKRP-Empfehlung) ist das Protokoll jedoch nicht anwendbar. Die Arbeit betont die Effizienz und Wettbewerbsfähigkeit, hebt jedoch die Herausforderung bei höheren Sicherheitsparametern hervor. Das Protokoll bildet eine solide Grundlage, erfordert jedoch weitere Optimierungen für breitere Anwendbarkeit.
Diese Arbeit beschäftigt sich mit der Frage, ob und inwiefern es möglich ist, das Griffgeschehen anhand sichergestellter Spuren digital zu rekonstruieren. Um die Frage zu beantworten, wird sich neben der Anatomie der Hand auch mit den Ansprüchen der Photogrammetrie sowie der Erstellung und Weiterverarbeitung von 3D-Modellen beschäftigt. Das Ziel besteht zum einen darin, mittels photogrammetrischer Aufnahmen, ein 3DModell von dem Spurenträger sowie dem Spurenverursacher zu erstellen. Die Hand soll hierbei ausgestreckt sein. Zum anderen soll mit den entstandenen Modellen der Griff wiederhergestellt werden, in dem das Handmodell in Blender bewegt werden soll. Es stellte sich heraus, dass sich die vorgestellten Methoden zur Erstellung eines Handmodells nicht eigneten, um der Fragestellung dieser Arbeit nachzugehen. Der Hauptgrund besteht darin, dass die Hand, anders als die Tasse, kein Objekt ist und somit nicht auf den Drehteller abgestellt werden kann. Anders als bei Objekten, konnten die Photogrammetrischen Aufnahmen folglich ausschließlich händisch aufgenommen werden. Zudem erwiesen sich die Aufnahmen der ausgestreckten Hand als schwierig. Besondere Probleme bereitete hierbei das Stillhalten der Hand aufgrund der unnatürlichen Pose und der Dauer der Bildaufnahmen. Insgesamt dienen die Ergebnisse dieser Arbeit als Grundlage für weitere Forschungsthemen im Bereich Photogrammetrie sowie der Rekonstruktion des Griffgeschehens.
Das Ziel dieser Bachelorarbeit ist die Darstellung von Techniken zur Verfolgung von Transaktionen und Entitäten auf der Bitcoin Blockchain. Die zugrundeliegende Forschungsfrage lautet wie folgt:
Welche Aussagekraft und Grenzen haben Heuristiken und Analysemethoden zur Nachverfolgung von Bitcointransaktionen und wie wirken sie sich auf deren Anonymität aus?
Zur Beantwortung der Forschungsfrage wird eine Literaturrecherche durchgeführt. Die Funktionsweise der Methoden wird dargestellt, Stärken und Schwächen der Methoden werden aufgezeigt und gegebenenfalls Verbesserungsvorschläge gemacht.
Es zeigt sich, dass die Anonymität des Bitcoin-Systems aus verschiedenen Richtungen eingeschränkt werden kann. Die vorgestellten Analysemethoden haben jedoch ihre Grenzen und können die Anonymität des Bitcoinsystems nicht endgültig überwinden.
Letztendlich bleibt festzuhalten, dass die Anonymität eines Nutzers von seiner Bitcoin-Nutzung und der Nutzung seines Umfelds abhängt. Ein bewusster, anonymer Umgang mit der Kryptowährung ist die Grundlage für eine solide Privatsphäre.
Vor dem Hintergrund der stetigen Digitalisierung gewinnen ebenfalls der Schutz von Daten und die Privatsphäre im digitalen Raum an Bedeutung. Insbesondere das Management digitaler Identitäten befindet sich im Umbruch. Zentralisierte Identitätsprovider haben begonnen, mit dem Konzept der Passkey-Technologien ein neues Authentifizierungsverfahren in ihre Systeme zu implementieren, welches künftig das Passwort ablösen soll. Das Konzept Self-Sovereign Identity (SSI) bietet ein dezentralisiertes System zur eigenständigen Identitätsverwaltung. Die Arbeit befasst sich mit der prototypischen Entwicklung einer erweiterbaren Schnittstelle zur Validierung digitaler Nachweise in einem SSI-Ökosystem in Form eines Plugins für das Content-Management-System WordPress. Dieses Plug-in soll eine alternative Authentifizierungsmethode zu Passkey-Technologien von Identitätsprovidern darstellen.
This thesis investigates the efficacy of four machine learning algorithms, namely linear regression, decision tree, random forest and neural network in the task of lead scoring. Specifically, the study evaluates the performance of these algorithms using datasets without sampling and with random under-sampling and over-sampling using SMOTE. The performance of each algorithm is measure using various performance metrics, including accuracy, AUC-ROC, specificity, sensitivity, precision, recall, F1 score, and G-mean. The results indicate that models trained on the dataset without sampling achieved higher accuracy than those trained on the dataset with either random under-sampling or random over-sampling using SMOTE. However, the neural network demonstrated remarkable results on each dataset compared to the other algorithms. These findings provide valuable insights into the effectiveness of machine learning algorithms for lead scoring tasks, particularly when using different sampling techniques. The findings of this study can aid lead management practices in selecting the most suitable algorithm and sampling technique for their needs. Furthermore, the study contributes to the literature by providing a comprehensive evaluation of the performance of machine learning algorithms for lead scoring tasks. This thesis has practical implications for businesses looking to improve their lead management practices, and future research could extend the analysis to other machine learning algorithms or more extensive datasets.
Im Rahmen der Arbeit sollte ein Modell zur Evaluierung des diagnostischen Einsatzes von D-stereospezifischen Hydrolasen- und varianten generiert werden. Als Modell diente artifizielles Parvulin 10 mit einer substituierten D-Aminosäuren. Dadurch musste eine halbysnthetische Synthese mit Fragmenten erfolgen. Das N-terminale Fragment (1-67), auch Thioester genannt, wurde aus E. coli an einer fusionierten Intein-Chitinbindedomäne exprimiert. Mithilfe einer Kombination aus Affinitätschromatographie und verändertem Proteinspleißens konnte das Fragment an einer Chitinsäule zu einem Thioester umgebaut werden. Die erfolgreiche Expression und der Umbau mittels Proteinspleißens konnten dabei per SDS-Page erfolgreich nachgewiesen werden. In den C¬-terminalen Fragmenten (68-92), auch Peptide (Pf, Py, Pv) genannt, wurde jeweils eine L-Aminosäure per SPPS in eine D-Aminosäure substituiert. Diese Substitution ist für die Validierung der DHys erforderlich. Die Rohprodukte der SPPS konnten erfolgreich mittels präparativer HPLC gereinigt werden. Der Nachweis erfolgte mittels UPLC-MS. Durch eine anschließende initiale Hydrolysestudie der Peptide wurde die generelle Substratzugänglichkeit für die DHys belegt. Die Auswertung erfolgte per UPLC-MS. Nachfolgend wurden beide Substrate mittels natürlich chemischer Ligation verknüpft um Parvulin-Derivate zu erhalten. Die Überprüfung erfolgte per SDS-Pages. Die Hydrolyse des Thioesters begrenzte die Ausbeute sehr stark. Die höchste Ausbeute zeigten Ansätze mit Peptid-Thioester-Verhältnis von 1:3, Thiophenol und der Zugabe von DMSO als Lösungsmittel. Es wurde kein quantitativer Umsatz erreicht. Deshalb war eine Reinigung des Ansatzes nötig. Diese erfolgte Aufgrund verschiedener physikalisch-chemischen Eigenschaften der Reaktanten, Molekulargewichten, polarer Wechselwirkungen und Hydrophobizitäten. Die Auswertung der Reinigungen erfolgte per SDS-Pages. Trennungen nach Hydrophobizität erwies sich am erfolgreichsten. Von dem gereinigten Parvulin-Derivat wurde die Aktivität mittels etabliertem Assay überprüft. Es konnte die Generierung von aktivem artifiziellen Parvulin bestätigt werden. Das Modellprotein konnte erfolgreich dargestellt werden und steht für eine weiterführende Untersuchung zur Validierung mit D-stereospezifischen Hydrolasen zur Verfügung.
Weltweit sind oberflächliche Pilzinfektionen weit verbreitet. Diese äußern sich in Rötungen, Schuppungen und Juckreiz und sind belastend für jeden Betroffenen. In dieser Arbeit werden Pilzproben aus Bangladesch untersucht, um diese auf molekularer Ebene zu identifizieren. Dazu wurden Methoden, wie Kultivierung und Sequenzierung angewandt. Weiterhin wurden alle Kulturen auf Antimykotika getestet, um bei möglichen Resistenzen eine patientenspezifische Behandlung ermöglichen zu können. Darüber hinaus wurde ermittelt, durch welche genetischen Änderungen die Resistenzen verursacht werden. Dies erfolgte durch die Sequenzierung bestimmter Gene der Dermatophyten-DNA.
Diese Arbeit untersucht die Ovarienentwicklung der forensisch relevanten Schmeißfliegenart Calliphora vicina bei differierender Proteinverfügbarkeit. Ein besonderes Augen- merk wird dabei auf das Vorhandensein von frühentwickelten Eiern gelegt, da diese bei der Bestimmung des postmortalen Intervalls zu Verschiebungen führen können. Obwohl dieses Phänomen bereits 1986 das erste Mal beschrieben wurde, gibt es bisher nur wenig Forschung dazu. Daher wird in dieser Arbeit untersucht, ab welcher Proteinverfügbarkeit es zu frühreifen Eiern kommt. Hierfür wurden die Entwicklung der Ovarien von frisch geschlüpfter Calliphora vicina über einen Zeitraum von 16 Tagen bei verschiedenen Verfügbarkeiten der Proteinquellen Rinderleber und Milchpulver beobachtet. Es konnte festgestellt werden, dass bei einer längeren Verfügbarkeit von Protein die Ovarien schneller das letzte Stadium der Entwicklung erreichten und folglich eher frühreife Eier entstanden.
In dieser Arbeit werden die algorithmischen Grundlagen der Machine Learning Verfahren LVQ1 und LVQ3 erläutert. Für LVQ3 werden mehrere Ansätze zur Anpassung der Lernrate betrachtet, die anschließend verglichen werden sollen. Dazu werden vier verschiedene Experimente durchgeführt, wobei zwei Datensätze Verwendung finden, deren Ursprung in medizinischen Bilddaten liegt.
Diese Masterarbeit prüft forensische Ansätze zur Analyse von Mesh-Netzwerken am Beispiel eines Meshtastic®-Netzes. Hierzu wurden Daten des Funknetzwerkes extern, sowie durch Aufzeichnung des internen Nachrichtenverkehrs erhoben. Mit diesen Daten konnte die Existenz des Netzwerkes nachgewiesen, dessen Teilnehmer identifiziert, sowie deren geographische Positionen offengelegt werden. Darüber hinaus konnte die Netzwerkstruktur partiell rekonstruiert und der Nachrichteninhalt protokolliert werden. Schließlich konnten Maßnahmen identifiziert werden, sich einer Analyse zu entziehen, was einerseits Perspektiven der Sicherheitsintensivierung offenbart und andererseits fortführende forensische Untersuchungen bedingt.
Die vorliegende Arbeit beschäftigt sich mit der Betrachtung und Analyse der Bedrohungslage durch Cybercrime in Deutschland im Jahr 2021. Dafür werden verschiedene Berichte und Studien untersucht und anschließend miteinander verglichen. Außerdem sollen daraus abgeleitet Aussagen zur inhaltlichen Gestaltung von Awareness-Schulungen getroffen werden. Dafür werden verschiedene Angebote betrachtet und einander gegenüber gestellt. Der anschließende Vergleich dieser beiden Themenschwerpunkte soll Empfehlungen für eine optimale Gestaltung von Mitarbeitersensibilisierung liefern. Insgesamt sind eindeutige Aussagen zu einzelnen Angriffsarten im Cybercrime-Bereich schwierig, weshalb nur bedingt Empfehlungen für Awareness-Schulungen gegeben werden können. Die Vielfältigkeit aktuell angebotener Schulungen bietet geeignete Möglichkeiten zur Mitarbeitersensibilisierung.
As the cryptocurrency ecosystem rapidly grows, interoperability has become increasingly crucial, enabling assets and data to interact seamlessly across multiple chains. This work describes the concept and implementation of a trustless connection between the Bitcoin Lightning Network and EVM-compatible blockchains, allowing the transfer of assets between the two ecosystems. Establishing such a connection can significantly contribute to the growth of both ecosystems as they can benefit from each other’s advantages and emerge new pos- sibilities.
Die hier vorliegende Arbeit beschäftigt sich mit den methodischen Abläufen des Kriminalitätsphänomens Caller ID Spoofing, dessen technische Hintergründe, sowie der Detektion und den sich daraus ergebenden Maßnahmen der Abwehr seitens der Betroffenen. Dabei soll im theoretischen Teil sowohl auf das Phänomen des Caller ID Spoofing an sich und dessen Einordnung in den Deliktbereich Cybercrime als auch auf die technischen Hintergründe bei der Verschleierung der eigenen Telefon-Identität eingegangen werden. Des Weiteren wird der Faktor Mensch als Schwachstelle von IT-Systemen beleuchtet. Der methodische Teil der Arbeit legt den Fokus auf die Entwicklung effektiver Lösungen zur Erkennung und Abwehr von Caller ID Spoofing, sowohl aus technischer als auch aus soziologischer Sicht. Während für ersteres bereits eine Vielzahl von wissenschaftlichen Ansätzen existieren, soll sich bei zweiteren auf den Begriff der Security Awareness konzentriert werden.
Das Ziel dieser Arbeit ist es, einen Anforderungskatalog für Anbieter eines Cloudbackup- Servers unter Zero Trust Bedingungen zu erstellen. Dabei werden nicht nur die technischen Voraussetzungen beschrieben, sondern auch ein kur-zer Einblick in rechtlichen und organisatorischen Anforderungen gegeben, wobei das Hauptaugenmerk auf den Bestimmungen liegt, die in Deutschland und der EU gelten. Für die Erarbeitung werden dabei bereits existierende Anforderungs-kataloge und staatliche Veröffentlichungen verglichen und zusammengeführt. So wurde ein Anforderungskatalog erstellt, der alle Anforderungen enthält, die ein Cloudbackup- Server unter Zero Trust erfüllen muss. Der Katalog kann genutzt werden, um ein solches System umzusetzen.
Diese Arbeit beschäftigt sich mit der Erstellung eines Leitfadens für die Prüfung der Daten- und Cybersicherheitsrisiken für Medizinprodukte. Es werden die rechtlichen Grundlagen der Bewertung und die zugehörigen Empfehlungen dargestellt. Hierzu werden Empfehlungen aus Deutschland, der EU und der USA betrachtet und vergleichen. Die Umsetzung der Prüfung der Daten- und Cybersicherheitsrisiken wird mit Hilfe eines Beispiels erläutert und in der Folge daraus der zur Konformitätsprüfung wünschenswerte Umfang einer Dokumentation ermittelt. Für die Prüfung der technischen Angaben zur Risikobehandlung für Medizinprodukte, entsprechend der Empfehlungen des Bundesamtes für Sicherheit in der Informationstechnik, wurde zudem eine Einteilung in Schwierigkeitsgrade der Beurteilung vorgenommen.
In dieser Arbeit werden das Parameterbasierte Verfahren StyleFlow und das semantische System StyleClip untersucht um das StyleGan zu kontrollieren. Dabei sollen die gewählten Attribute bestmöglich editiert werden und sich dabei möglichst wenig gegenseitig beeinflussen. Zusätzlich Experimente auf realen Daten zeigen, dass durch die Invertierung in den Raum des StyleGan Fehler in den Attributen auftreten und bei der Editierung vermehrt Artefakte auftreten. In weiteren Untersuchungen werden die beiden Systeme genutzt, um zum einem Veränderungen entsprechend dem realen Verhalten durchzuführen und zum anderem eine Attributverteilung von Identitäten auf eine andere zu Übertragen. Dabei wird auch die Bildqualität allgemein und für eine Gesichtserkennung untersucht. Mit den untersuchten Systemen sind diese Operationen zu einem gewissen Maß möglich, dabei fällt die Bewertung aufgrund relativer Metriken schwierig.
To investigate the effects of climate change on interactions within ecosystems, a microcosm experiment was conducted. The effects of temperature increase and predator diversity on Collembola communities and their decomposition rate were investigated. The predators used were mites and Chilopods, whose predation effects on several response variables were analysed. This data included Collembola abundance, biomass and body mass as well as basal respiration and microbial biomass carbon. These response variables were tested against the predictors in several models. Temperature showed high significance in interaction with mite abundance in almost all models. Furthermore, the results of the basal respiration and microbial biomass carbon support the suggestion of a trophic cascade within the animal interaction.
In dieser Arbeit soll sich mit der Möglichkeit beschäftigt werden, den Prozess zur Freischaltung von Firewallregeln zu vereinfachen. Dafür soll ein Programm entwickelt werden, welches diesen Prozess automatisiert und dadurch den schwierigen Prozess vereinfachen soll. Des Weiteren wurde recherchiert, welche Richtlinien zum Schutz des Netzwerkes erforderlich sind und mit Firewalls umgesetzt werden können. Die Implementierung der Richtlinien soll hier als Code erfolgen und es einfach machen, diese Richtlinien automatisch durchzusetzen. Mithilfe dieser als Code implementierten Richtlinien sollen Anträge zur Freischaltung von Firewallregeln geprüft und validiert werden. Wurde der Antrag zur Freischaltung einer Firewallregel erfolgreich validiert, soll die Firewallregel automatisch implementiert werden. Durch diese und weitere Automatisierungen soll die menschliche Interaktion möglichst reduziert werden. Dadurch soll Zeit gespart werden und der Prozess zur Freischaltung einer Firewallregel effizienter durchgeführt werden können. Dafür wurde ein Programm implementiert, welches als Studie dienen und ein Machbarkeitsbeweis darstellen soll.
Immer komplexer werdende Prozesse in der Geschäftswelt erfordern eine fortschreitende Digitalisierung und Automatisierung. Zusätzlich stellen Gesetze weitere Dokumentationsvorschriften, die zu noch mehr Aufwand führen. Diesen wachsenden Anforderungen kann häufig nur mit wachsender Digitalisierung und somit Automatisierung begegnet werden. In dieser Bachelor-Thesis werden die Möglichkeiten zur Automatisierung von Verwaltungsprozessen analysiert und ein Programm zur digitalen Geräteverwaltung erstellt. Es wird auf Normen zur Software-Entwicklung und -Validierung eingegangen, die dann in die Entwicklung einbezogen werden. Anhand der Verwaltungssoftware werden die einzelnen Entwicklungsphasen beschrieben. Die erstellte Software vereinfacht also nicht nur den Verwaltungsaufwand, sondern folgt auch noch einem gesetzlich vorgegebenen Entwicklungsprozess.
In vielen Einsatzbereichen sind digitale Nachbildungen realer Gebäude von großer Wichtigkeit. Die Erstellung dieser Nachbildungen erfordert bei älteren bzw. historischen Gebäuden allerdings meist erheblichen Vermessungs- und Nachbearbeitungsaufwand mit großem Personal- und Zeitbedarf. Häufig wurde ein Gebäude stilistisch an die jeweilige Zeit angepasst, sodass einzelne Zustände nur mit historischem Bildmaterial reproduzierbar sind.
Am Beispiel mehrerer ausgewählter, aktuell existierender Gebäude der Stadt Mittweida sind realitätsnahe, digitale und veränderbare Modelle mittels eines möglichst automatisierten Workflows erstellt.
Die äußere Erscheinung dieser Modelle kann mit dem entwickelten System automatisiert an andere Stile anpasst werden, welche durch z.B. historisches Bildmaterials von Gebäuden vorgegeben sind. Aufgrund der vielfältigen Einsatzbereiche und weiten Verbreitung finden hierfür Verfahren der Photogrammetrie für die Erstellung und neuronale Netze für die Stilanpassung Anwendung, welche auf handelsüblicher Hardware eingesetzt werden können. Eine Evaluierung erfolgte durch bildlichen Vergleich der stilangepassten Modelle mit dem zugehörigen Bildmaterial.
Recently a deep neural network architecture designed to work on graph- structured data have been capturing notice as well as getting implemented in various domains and application. However, learning representation (feature embedding) from graphical data picking pace in research and constructing graph(s) from dataset remains a challenge. The ability to map the data to lower dimensions further makes the task easier while providing comfort in applying many operations. Graph neural network (GNN) is one of the novel neural network models that is catching attention as it is outperforming in various applications like recommender systems, social networks, chemical synthesis, and many more. This thesis discusses a unique approach for a fundamental task on graphs; node classification. The feature embedding for a node is aggregated by applying a Recurrent neural network (RNN), then a GNN model is trained to classify a node with the help of aggregated features and Q learning supports in optimizing the shape of neural networks. This thesis starts with the working principles of the Feedforward neural network, recurrent units like simple RNN, Long short-term memory (LSTM), and Gated recurrent unit (GRU), followed by concepts of Reinforcement learning (RL) and the Q learning algorithm. An overview of the fundamentals of graphs, followed by the GNN architecture and workflow, is discussed subsequently. Some basic GNN models are discussed in brief later before it approaches the technical implementation details, the output of the model, and a comparison with a few other models such as GraphSage and Graph attention network (GAN).
In dieser Arbeit ging es darum, eine Softwarelösung zu entwickeln, die auf die Anforderungen der Game Accessibility Guidelines abgestimmt ist. Die Godot Game Engine wurde als Entwicklungsplattform ausgewählt, da sie sich durch eine hohe Flexibilität und Skalierbarkeit auszeichnet. Durch die Verwendung dieser Engine war es möglich, eine stabile und robuste Basis zu schaffen, auf der die Implementierungen aufgebaut werden konnten. Ein wichtiger Aspekt bei der Entwicklung war die Wahl der richtigen Softwarearchitektur. Es wurde untersucht, welche Architekturen sich am besten eignen, um eine optimale Leistung und eine hohe Benutzerfreundlichkeit zu gewährleisten. Dazu wurden verschiedene Ansätze getestet und verglichen, um die bestmögliche Lösung zu finden. Im nächsten Schritt wurden die Implementierungen von Studierenden getestet und evaluiert. Dabei wurden Aspekte wie die Benutzerfreundlichkeit und der Mehraufwand, der durch die Nutzung der implementierten Features entsteht, untersucht. Es wurde auch darauf geachtet, wie verständlich die Implementierungen gestaltet sind und wie leicht sie zu bedienen sind. Die Ergebnisse der Evaluation wurden dann reflektiert und der Aufwand der Implementationen wurde in Hinblick darauf untersucht, dass es sich bei den Anforderungen fast ausschließlich um solche handelt, die laut den Game Accessibility Guidelines als Anforderungen mit geringer Komplexität eingestuft werden. Dies bedeutet, dass die Implementierung dieser Anforderungen relativ einfach sein und keine großen Schwierigkeiten bereiteten sollten. Insgesamt war die Entwicklung der Softwarelösung ein Erfolg und hat gezeigt, dass die Einschätzung der Komplexität der Game Accessibility Guidelines größtenteils bestätigt werden kann. Des Weiteren wurde die Implementation von den Studierenden gut angenommen. Die Ergebnisse der Evaluation können dazu beitragen, einen technischen Ansatzpunkt für zukünftige Bewertungen der Anforderungen und Implementationsversuche zu bieten.
Im Rahmen der Arbeit wurde untersucht, inwiefern visuelle Störfaktoren die Spielerfahrung beim Spielen von digitalen Spielen zu beeinflussen vermögen. Hierfür wurde zunächst Grundlagenwissen zur visuellen Wahrnehmung des Menschen und zu visuellen Störfaktoren zusammengetragen. Basierend auf diesen Kenntnissen wurden im Anschluss ausgewählte visuelle Störfaktoren in einem einfachen 2D-Spiel implementiert, welches von Testpersonen gespielt wurde. Während dieses Experiments wurden sowohl die subjektiven Spielerfahrungen in Form einer Umfrage als auch die objektiven Leistungen innerhalb des Spieles erfasst, um nach Auswertung dieser Daten Schlussfolgerungen über den Einfluss der visuellen Störfaktoren auf die Spielerfahrung treffen zu können.
Vergleich von Grid Computing und Cloud Computing anhand Regeln und Ziele im IT-Governance Prozess
(2023)
Diese wissenschaftliche Arbeit leistet einen Beitrag zum Thema „Cloud-Computing“, welches unterschiedliche Möglichkeiten und Dienste bietet. Im Gegensatz dazu befasst sich dieser Forschungsbericht zusätzlich mit dem Konzept des Grid-Computing. Zu Beginn werden die IT-Governance-Regeln verglichen, die im Cloud- und Grid-Computing eines Unternehmens eine große Rolle spielen. Dabei werden zwei Varianten der der IT zur Verfügung stehenden Infrastrukturen für ausgewählte Dienste eingerichtet, welche den Regeln der IT-Governance folgen müssen. Die in dieser Arbeit ermittelten Informationen bieten einen guten Ausgangspunkt für die Umstellung der IT auf Cloud- bzw. Grid-Computing
Diese Masterarbeit zeigt einen Ansatz zur Vorhersage von Zugverspätungen mit Hilfe von Supervised Learning. Dazu werden Modelle mit verschiedenen Algorithmen getestet und miteinander verglichen. Außerdem wird gezeigt, wie das entwickelte Vorhersagemodell in eine Blockchain-Anwendung integriert werden kann.
Diese Arbeit untersucht die Integration einer dezentralen autonomen Organisation (DAO) in eine bestehende Lernplattform. Dabei werden mögliche Schnittpunkte zwischen den beiden Konzepten gesucht und deren Potenziale und Herausforderungen analysiert. Zunächst werden die theoretischen Grundlagen von Blockchain-Technologie, DAO und Lernplattformen vorgestellt. Darauf basierend werden die Prozesse auf einer Lernplattform auf eine mögliche Integration einer DAO untersucht. Besonderer Fokus liegt dabei auf den Prozessen Bezahlung und Bewertung. Es stellt sich heraus, dass der Reviewprozess zum einen mehr Überschneidungspunkte hat und zum anderen viele weitere Prozesse auf diesen aufbauen. Im Hauptteil der Arbeit wird daher ein Konzept für die Integration einer DAO im Bewertungsprozess entwickelt und erste Grundlagen für eine Umsetzung gelegt. Dabei werden verschiedene Ansätze, die sich auch aus den Fallstudien ergeben, betrachtet und verglichen, um den Anforderungen der Lernplattform und der Blockchain gerecht zu werden. Die Arbeit zeigt die Potenziale einer DAO in einer Lernplattform auf, wie bspw. transparenten Reviewprozess für neue Inhalte. Gleichzeitig werden mögliche Herausforderungen bei der Integration identifiziert und geeignete Lösungsansätze entwickelt. Ein Ausblick auf zukünftige Entwicklungen beinhaltet den Einsatz von Künstlicher Intelligenz bei der Entwicklung von Lerninhalten und die weitere Integration der DAO in die Lernplattform.
Nach der erfolgreichen Etablierung der durchflusszytometrischen Methode zum XIAP-Nachweis auf T-, B- und NK-Zellen innerhalb des Praxismoduls sollte diese validiert werden. Zur Validierung wurde ein Inter- und ein Intraassay durchgeführt. Für die anschließende Beurteilung der Präzision der Methode wurde jeweils der Variationskoeffizient der Messwerte berechnet, dieser sollte bei ± 20% liegen. Für die Gewinnung von Referenzwerten wurde von 21 gesunden Personen Blut abgenommen und dieses analysiert. Anschließend wurden die Messwerte mithilfe des Friedman- und des Wilcoxon-Tests statistisch ausgewertet.
Aufgrund der steigenden Anzahl an Angriffen durch neue Malware Varianten ist es wichtig eine effektive Methode zu nutzen, um sich gegen diese Flut zu schützen. Diese von den Angreifern genutzte Malware muss identifiziert und analysiert werden, um die Systeme vor aktuelle und kommenden Angriffen schützen zu können. Für die Informationsextraktion stehen zwei grundlegende Ansätze zur Verfügung. Statische Analyse und die dynamische Analyse. Das Hauptaugenmerk liegt in dieser Arbeit auf der dynamischen Analyse. Diese wird genutzt um das Verhalten einer potentiell bösartigen Datei zu beobachten und anschließend auszuwerten, ob es sich um Malware handelt. Eine dafür häufig eingesetzte Methode ist die Sandbox. Bei dieser handelt es sich um eine isolierte Umgebung, in der eine Malware ausgeführt werden kann, ohne ein Risiko für das eigene System darzustellen. Bei der Nutzung eines Sandbox Systems wird ebenfalls von dem Begriff der automatisierten Malware Analyse gesprochen. Damit ist es möglich auch große Mengen von Malware Samples zu analysieren. Nach der Analyse wird neben der Bösartigkeit einer zu untersuchenden Datei, ebenfalls die gesammelte Daten über diese ausgegeben. Diese Arbeit vergleicht drei verschiedene Sandbox Systeme, um anschließend festhalten zu können, welches dieser Systeme die meisten Vorteile mit sich bringt. Bei diesen ausgewählten Sandbox Systemen handelt es sich um Cuckoo, Any.Run und Hybrid Analysis. Um eine Gegenüberstellung der Sanbox Systeme zu ermöglichen, wurden diverse Metriken verwendet. Zu diesen Metriken zählen unter anderem genutzte Anti-Evasion Techniken und die Möglichkeit einer URL Analyse. Nach umfassender Nutzung aller drei Sandbox Systeme, wurde eine Vergleichmatrix mit den bereits erwähnten Metriken erstellt. Anhand dieser konnten die Vor- und Nachteile der Sandbox Systeme gegeneinander abgewogen werden.
Diese Masterarbeit analysiert die Möglichkeiten der Auditierung von Künstlicher Intelligenz in der Theorie und der Praxis. Im Rahmen eines anwendungsnahen Szenarios wird mithilfe des Frameworks Avalanche ein kontinuierlich lernendes System konstruiert. Deren Gewichtswerte sowie die Änderung der Gewichte werden in einer Logdatei gespeichert. Der Verlauf der Änderungen sowie der entstehende Speicherbedarf bei variierender Hidden Layer-Zahl und Neuronenanzahl gibt Rückschlüsse über die Anwendbarkeit der betrachteten Methode. Diese Vorgehensweise ist alleinstehend nicht ausreichend für eine umfassende Auditierung, wodurch weiterführende Forschung notwendig ist.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Erstellung eines Audiodatensatzes zur sequentiellen Lokalisierung von Manipulationen. Die Motivation sich mit diesem Thema zu beschäftigen, resultiert aus der geringen Menge an öffentlichen Datensätzen im Hinblick der Multimediamanipulation und der Wichtigkeit von Audio in der Forensik (Khan et al., 2018; Luge, 2017). Dabei werden zunächst die Grundlagen aus den Themenbereichen Audio, Datensatz sowie Manipulation dargestellt. Für die Erstellung des Datensatzes, wurde zunächst eine Vielzahl an Daten bereitgestellt, indem mittels einem Pythonskript, Videos, von YouTube heruntergeladen sowie die Audiospur getrennt und im mp4-Format gespeichert wurden. Weiterhin erfolgte auf der Datenmenge, der Prozess der Datenbereinigung sowie das Umbenennen der Audiodateien. Anschließend ereignet sich die Darlegung des Konzeptes und die theoretische Beschreibung der Manipulierung sowie die exemplarische Durchführung der Manipulation. Daraufhin erfolgt die theoretische Darlegung der Aufteilung des Datensatzes in Test- und Trainingsdaten. Die Ergebnisse spiegeln wider, dass das geschriebene Pythonskript funktioniert und nahezu keine Fehler während des Downloads entsteht. Weiterhin zeigen sie auf, dass die exemplarische Durchführung funktioniert. Allerdings benötigt es zum einen noch die Umsetzung des in der Theorie dargelegten Manipulationsschrittes und zum anderen, darauf aufbauend, etwaige Evaluierungsschritte.
In the field of satellites it is common practice to combine multiple ground stations into one network, to increase communication times with satellites. This work focuses on TIM, which is an international academic colaborative project. Important criteria for this project are elaborated and used to evaluate existing ground station networks. It concludes that there is no appropriate solution availiable for this specific use case and establish a proposed solution. The proposed ground station network software will be elaborated and evaluated.
Assessment of COI and 16S for insect species identification ti determine the diet of city bats
(2023)
Despite the numerous benefits of urbanization to human living conditions, urbanization has also negatively affected humans, their environment, and other organisms that share urban habitats with humans. Undoubtedly adverse while some wild animals avoid living in urban areas, others are more tolerant or prefer life in urban habitats. There are more than 1,400 species of bats in the world.
Therefore, they have the potential to contribute significantly to the mammalian biodiversity in urban areas. Insectivorous bats species play a key role in agriculture by improving yields and reducing chemical pesticide costs. Using metabarcoding, it is possible to determine the prey consumed by these noctule mammals based on the DNA fragments in their fecal pellets. This study
aimed to evaluate COI and 16S metabarcodes for insect species identification to determine the diet of metropolitan bats. For this purpose, COI and 16S metabarcodes were extracted, amplified, and sequenced from 65 bat feces collected in the Berlin metropolitan areas. Following a taxonomic annotation, I found that 73% of all identified insects could only be detected using the COI method, while 15% could be recovered using the 16S approach. Just 12% of all detected insects were identified simultaneously by both markers. According to this result, COI is more suitable for the taxonomic identification of insects from bat feces. However, given the bias of COI primers, it is recommended to use both markers for a more precise estimation of species diversity. Additionally,based on the insect species identified, I noticed that urban bats fed mainly on Diptera, Coleoptera,and Lepidoptera. The bat species Nyctalus noctula was most abundant in the samples. His diet analysis revealed that 91% of the samples contained the insect species Chironomus plumosus. 14 pest insect species were also found in his diet.
Die folgende Arbeit vergleicht die Möglichkeiten zur Erstellung von prozeduralen Texturen in Substance Designer mit denen in Blender. Dafür werden in beiden Programmen abstrakte und natürliche Texturen praktisch erstellt. Anschließend werden die Erstellung und die daraus gewonnen Erkenntnisse ausgewertet. Anhand der Resultate wird bewertet, wie die beiden Programme zueinander eingeschätzt werden können.
Diese Arbeit beschäftigt sich mit der Altersbestimmung der forensisch relevanten Schmeißfliegenart Lucilia sericata anhand der Augenfärbung während der Puppenentwicklung. Das Puppenstadium macht ca. 50 % der Gesamtentwicklung vom Ei bis zur Fliege aus, eine geeignete Methode zur differenzierten Altersbestimmung von Puppen findet derzeit allerdings noch keine Anwendung. Durch vorangegangene Studien zur Puppenentwicklung ist die Augenfärbung zunehmend als Merkmal aufgefallen, sodass in dieser Arbeit untersucht werden soll, ob anhand der Augenfärbung eine Altersbestimmung möglich ist und ob diese in Zukunft als Marker eingesetzt werden kann. Hierfür wurde die Färbung mithilfe des RGB-Farbmodells analysiert. Die Augenfärbung von Lucilia sericata ändert sich über die komplette Metamorphose hinweg hoch signifikant (p<0,0001). Des Weiteren konnte die Färbung in drei Phasen unterteilt werden: larvale Färbung, Rotfärbung und Braunfärbung. Eine Altersbestimmung mithilfe der linearen Regression ist durch sprunghafte Farbänderungen derzeit noch nicht möglich.
Das Ziel der vorliegenden Masterarbeit war es, die entstehenden Auswirkungen auf die Entscheidungsfindung durch die Transferierung von dilemmatischen Gedankenexperimenten auf die virtuelle Realität zu untersuchen. Studien zeigen, dass die Immersion in virtuelle Welten mittels Head-Mounted-Displays deutlich höher ist, als bei der Nutzung von Computerbildschirmen. Dadurch lassen sich neue Anwendungen in der Experimentalpsychologie ableiten. Anhand der Daten aus bereits bekannten Variationen des Trolley-Dilemmas werden die hier gewonnenen Ergebnisse verglichen. Dazu wurden im Rahmen einer qualitativen, empirischen Forschung mit 33 Probanden eine praktische und ethisch begutachtete Simulation mit zugehörigen psychologischen Fragebögen und direkt an die Simulation anschließende Fragebögen zum Immersionsgrad durchgeführt. Im Rahmen der qualitativen Inhaltsanalyse konnten Erkenntnisse in den folgenden Bereichen gewonnen werden: Entscheidungsfindung in VR-Trolley-Dilemmata unter Einsatz eines persönlichen Dilemmas, Immersion in zeitlich begrenzten Simulationen und Herausforderungen im Ablauf von VR-Simulationen. Die Veränderung der kontextuellen Bedeutung bei der Präsentation von Dilemmas und Trilemmas führte zu Unterschieden der Befürwortung des utilitaristischen Prinzips im Vergleich zu Onlinebefragungen.
Die Bachelorarbeit befasst sich mit dem Phänomen der kryptierten Kommunikation. Diese wurde vor allem im Bereich des organisierten Betäubungsmittelhandels sowie -schmuggels zur Planung von Straftaten genutzt. Zunächst werden die Grundlagen im Bereich der Organisierten Kriminalität sowie des Rauschgifthandels und -schmuggels in Deutschland vermittelt. Anschließend wird auf die drei Anbieter Anøm, EncroChat und Sky ECC, die aktuell ausgewertet werden, eingegangen. Hierbei wird unter anderem die Datenerhebung dargestellt und eine Diskussion über die aktuell bestehende Beweiszulassung vor Gericht durchgeführt. Abschließend werden die Einflüsse der Kryptohandys sowie die polizeilichen Ermittlungserfolge dargelegt. Die Bachelorarbeit wird in Bezug auf die folgende These bearbeitet: „Kryptohandys weisen einen signifikanten Einfluss auf den Betäubungsmittelhandel im Bereich der organisierten Kriminalität in Deutschland auf und gelten in den meisten Fällen als wichtigstes Tat- sowie Beweismittel“.
In vielen Polizeidienststellen ist die Optimierung des (digitalen) Asservatenmanagements ein zentrales Thema. Dies ist auch in der Kriminalpolizeiinspektion Saalfeld der Fall. Im Rahmen dieser Arbeit wurde das von der Thüringer Polizei genutzte Programm zur Spurenverwaltung “ZeSAR” um einen Reiter für die Asservierung von analogen Spuren erweitert und evaluiert. Grundlage hierfür waren die Erhebung einer Ist-Situation des zuvor herrschenden Asservatenmanagements und einer daraus resultierenden Problemanalyse. Weiterhin wurden Möglichkeiten diskutiert, wie das optimierte Asservatenmanagement auch auf digitale Spuren übertragen werden könnte. In diesem Bereich wurde erkannt,
dass die theoretischen Forschungsergebnisse bislang schwer in die Praxis übertragen werden konnten. Durch die vorliegende Arbeit wurde das Asservatenmanagement zunächst zugunsten der KPI Saalfeld qualitativ verbessert. Durch das anstehende Roll-Out des Asservaten-Reiters besteht die Möglichkeit, langfristig die landesweite Verwaltung zu optimieren.
Bei Hodenhochstand, auch Kryptorchismus genannt, handelt es sich um eine der am häufigs- ten auftretenden Störungen der Geschlechtsentwicklung bei Hunden. Die Ursachen für diese Krankheit sind bisher unklar. Es wird davon ausgegangen, dass es multifaktorielle Auslöser gibt. Um den genetischen Hintergrund dieser Krankheit bei der Rasse Altdeutscher Schafpudel zu betrachten, wurden in dieser Studie ausgewählte Hunde einer Zucht untersucht. In diesem Zusammenhang wurde eine Visualisierung der Verwandtschaftsverhältnisse einer vorangegangenen Studie um die untersuchten Individuen ergänzt. Die Nanoporensequenzierungen wurde für die Analyse von sechs Genloci genutzt. Diese Sequenzdaten wurden anschließend auf Sequenz- und Strukturvarianten untersucht. Diese Arbeit vergleicht die Resultate mit vorausgegangenen Untersuchungen, um einen Zusammenhang zwischen Kryptorchismus und einer detektierbaren genetischen Veränderung zu ermitteln.
Phishing Bedrohungen in Unternehmen : eine Untersuchung von Angriffstrends und Schutzmaßnahmen
(2023)
Diese Bachelorarbeit befasst sich mit Phishing Bedrohungen für Unternehmen, sowohl Angriffstrends als auch Schutzmaßnahmen.
Ziel der vorliegenden Arbeit ist es, bisher getroffene Schutzmaßnahmen zu analysieren und ihre Wirksamkeit anhand von zwei ausgewählten Fallbeispiele zu untersuchen. Dafür werden die Phishing Angriffe auf die amerikanischen Unternehmen „Twitter“ und „Uber“ genauer betrachtet und warum diese erfolgreich waren. Es soll beurteilt werden, ob die vorgestellten Leitfäden und Schutzmaßnahmen diese beiden Phishing Angriffe hätten verhindern können. Die Untersuchung zeigte, dass die gängigen Schutzmaßnahmen und das Einhalten von Leitfäden nicht ausgereicht haben, um die Unternehmen vor einem erfolgreichen Phishing Angriff zu schützen. Außerdem kommt dem Mensch bei der Bekämpfung von Phishing eine viel zu große Bedeutung zu und vernachlässigt das Handeln auf Managementebene.
Diese Abschlussarbeit befasst sich mit der Charakterisierung von Kunststoffen und den daraus resultierenden Diskriminierungsmöglichkeiten. Dafür werden 10 Kunststoffe mittels abgeschwächter Totalreflexion (ATR)-Fourier-Transformations-Infrarot (FTIR)-Spektroskopie und Pyrolyse-Gaschromatograph (GC)/Massenspektrometer (MS) analysiert. Diese Analysemethoden und -geräte werden in ihren Grundlagen beschrieben. Die Ergebnisse der ATR-Analyse werden mit denen der Pyrolyse verglichen und auf Unterschiede analysiert. Des Weiteren wird eine Messmethode und ein Standard für Referenzmessungen für die Pyrolyse entwickelt. Auffälligkeiten der ATR Analyseergebnisse werden mittels Pyrolyse-GC/MS analysiert und auf neue Erkenntnisse untersucht. Ziel ist eine Unterscheidung und Charakterisierung aller 10 Kunststoffe und Aussagen über Diskriminierungsmöglichkeiten, so dass die Verfahrensweise dahingehend angepasst werden kann.
In dieser Bachelorarbeit wurde die entomologische Besiedlung zweier Ferkelkadaver über eine Dauer von 80 Tagen untersucht. Als Auslegungsort wurde ein Waldstück in Thüringen gewählt. Es konnten fünf Verwesungsstadien klassifiziert werden. Dominante Insekten waren die Familien Calliphoridae, Muscidae, Piophilidae und Silphidae. Piophilidae konnte ab Tag 30 beobachtet werden und trat bis zum Ende des Experiments auf. Es wurden die Piophilidae-Arten Stearibia nigriceps, Lioliophila varipes und Prochyliza nigricornis asserviert. Ziel der Arbeit war es, einen Forschungsbeitrag zur Familie der Käsefliegen zu liefern.
Die Arbeit soll ergründen, wie der Entwicklungsablauf automatisiert werden kann und welche Ressourcen- und Zeiteinsparungen aus dieser Automatisierung folgen. Dabei gilt es zu evaluieren, wie ein geeigneter Entwicklungsprozess aussieht und welche Tools genutzt werden können, um diese Einsparungen zu realisieren. Im besten Fall soll die Anwendung ohne manuellen Aufwand nach jeder Änderung auf Qualität und Sicherheit geprüft und danach direkt ausgerollt werden. Dadurch soll es ermöglicht werden, einer Änderung die daraus resultierenden Fehler eindeutig zuzuordnen. Des Weiteren soll eine Lösung gefunden werden, die Fehler auf Grund von unterschiedlichen Entwicklungsumgebungen beheben kann. Somit soll ebenfalls Entwicklungszeit gewonnen
werden.
Ist Biodiesel, welcher aus Algen gewonnen wird, als klimaneutraler Kraftstoff Ersatz für fossile Brennstoffe eine wirtschaftlich sinnvolle Alternative? Oder ist das doch nur biotechnologisches Wunschdenken. Mit dieser Frage beschäftigt sich die nachfolgende Ausarbeitung. Dabei werden zunächst Biokraftstoffe als ganzes beleuchtet, um danach zwei Algen vorzustellen welche häufig im Zusammenhang mit Biofuels genannt werden. Es werden verschiedene Kultivierungs- und Produktionssysteme erläutert. Anschließend folgt eine Einschätzung der Ausbeute aus den Prozessen zusammen mit einer Einschätzung zur Nachhaltigkeit. Am Ende wird ein Blick in die Zukunft der Technologie gewagt und Kritikpunkte offengelegt.
Die immer größer werdenden virtuellen Welten von Computerspielen mit spannendem und glaubhaftem Inhalt zu füllen, ohne die Entwicklungszeit enorm in die Höhe zu treiben, ist eine der großen Herausforderungen für Spielentwickler heutzutage. Eine Möglichkeit dieses Problem anzugehen ist der Einsatz computergestützter Generierungsalgorithmen um manuellen Aufwand zu verringern. Die vorliegende Arbeit befasst sich mit der Umsetzung dreier Data-To-Text-Ansätze zum Zweck der automatischen Generierung von Questtexten aus einer Datenstruktur in der Spieleentwicklungsumgebung Unity. Die entstehenden Implementierungen werden im Anschluss evaluiert auf Eignung für den Anwendungsfall. Folgende Methoden zur Realisierung der Texte werden angewandt: Templating, Templating mit Template-Generierung aus einer kontextfreien Grammatik, sowie die Oberflächenrealisierungsbibliothek SimpleNLG
In dieser Arbeit werden acht Arten von Belohnungssysteme in Mobile Games auf deren Einfluss auf das Verhalten der Spieler und den daraus resultierenden Wiederspielwert eines Spiels untersucht. Zwei dieser Systeme werden für einen Praxistest ausgewählt und detailliert betrachtet. Dabei handelt es sich um das Punktestand System und das Level System. Die Konzeption der Systeme ist um- fangreich beschrieben und die Implementation ist anhand von relevanten Beispielen oder Grafiken aus der Spiele-Engine veranschaulicht. Diese Belohnungssysteme werden innerhalb eines sonst identischen Spiels separat integriert und in einem AB Test getestet. Für die Auswertung des Praxis- tests werden während der Testphase diverse Spieldaten der Spieler erhoben und im Anschluss an den Test wurde von jedem Nutzern ein Fragebogen beantwortet. Auf diese Weise werden objektive Spieldaten sowie subjektive wahrgenommene Faktoren des Spielverhaltens erfasst und konnten in der Auswertung miteinander verknüpft werden. Die dabei entstandenen Ergebnisse zeigen, dass beide Belohnungssysteme die Spieler zum spielen motiviert haben. Jedoch hat das Punktestand System einen höheren Wiederspielwert erzielen können, da hierbei die intrinsische Motivation der Spieler mittels direkter Beeinflussbarkeit der verwendeten Verstärkung angesprochen wird. Außer- dem haben die Tester innerhalb des Punktestand Systems im Median eine größere Reichweite erspielen können. Daraus lässt sich schlussfolgern, dass sie durch das Erhalten beziehungsweise Ausbleiben von Belohnungen dazu motiviert wurden das Spiel stetig weiter spielen zu wollen. Daher hat sich dieses Belohnugnssystem als das für das im Praxisbeispiel verwendete Spiel optimale Be- lohnungssystem herausgestellt. Der subjektiv vom Spieler empfundene Spaßfaktor war bei beiden Belohnungssystemen gleich gut. Das Ergebnis der durchgeführten Forschung besagt, dass durch das Belohnungssystem das Spielverhalten und daraus resultierend der Wiederspielwert eines Spiels sowohl positiv als auch negativ beeinflusst werden kann. Die Art der Belohnung muss in Abhän- gigkeit von der im Gamedesign im Vordergrund stehenden Tätigkeit gewählt werden. Zielen das Belohnungssystem und die Hauptaktion des Spiels auf die gleiche Handlung ab, so werden Spieler intrinsisch dazu motiviert diese vermehrt ausführen zu wollen. Die optimale Art der Belohnung muss daher die individuellen Charakteristika eines Spiels unterstützen.
In der vorliegenden Arbeit werden neue Pulver als Alternative für das Rußpulver hergestellt, geprüft und bewertet. Ziel ist es ein für den Anwender gesünderes, kostengünstiges und einfach erhältliches Pulver zu entwickeln. Hierfür wurden unterschiedliche Alltagsmaterialien verwendet. Die dafür angewendeten Grundlagen und Methoden werden erklärt und evaluiert.
Diese Arbeit beschäftigt sich mit der Entwicklung von performanten Modulen zur Implementierung von Netcode in einem Multiplayer-Spiel. Sie vergleicht dabei zunächst verschiedene Frameworks und dokumentiert den Entscheidungsprozess anhand eines konkreten Spiels. Es werden daraus folgend mehrere Ansätze für den Aufbau eines Netzwerkmoduls aufgezeigt und diese schließlich miteinander auf ihre Performance verglichen.
Die Anforderungen an die Qualität und den Realismus von Videospielen und deren visuellen Effekten steigen kontinuierlich. Dies führt zu der Herausforderung, beeindruckende Effekte und eine gute Performance zu gewährleisten. Die Auswahl einer geeigneten Technik für ein Leistungsproblem ist daher wichtig. Aus diesem Grund widmet sich die Bachelorarbeit dem Vergleich verschiedener Methoden zur Optimierung der Darstellung visueller Effekte in Unity. Neben einer Literaturrecherche werden ausgewählte Verbesserungsmöglichkeiten wie zum Beispiel ein Level-of-Detail System oder Batching implementiert. Als nächstes findet eine Evaluation dieser Techniken in einem Testszenario mit ausgewählten Metriken wie beispielsweise Bildrate und Grafikkartenauslastung statt. Anschließend erfolgt der Vergleich ihrer Effektivität in Bezug auf die originale Version des visuellen Effektes. Die Ergebnisse der Untersuchung zeigen, dass insbesondere das Level-of-Detail System und die Culling-Methode einen signifikanten Einfluss auf die Grafikkartenauslastung haben. Zudem weisen die meisten Optimierungstechniken in Bezug auf die Metriken Vor- und Nachteile auf. Obwohl die erzielten Ergebnisse nicht unmittelbar auf die praktische Anwendung in Spielen übertragbar sind, ermöglichen sie dennoch eine wertvolle Vergleichbarkeit der angewendeten Methoden.
Ziel der Arbeit ist es, innerhalb einer forensischen Analyse die Ablagestruktur der Chatanwendung Viber unter dem Betriebssystem iOS zu analysieren. Darüber hinaus sollen Dateien analysiert werden, um relevante Informationen zu Chats zu extrahieren und auswertbar zu machen. Bei der Recherche zum aktuellen Forschungsstand wurden kaum Arbeiten gefunden, welche eine tiefgehende forensische Analyse von Viber auf iOS-Geräten zum Gegenstand haben. Für die Auswertung wurden Testdaten in Form von Einzel- und Gruppenchats auf iOS-Geräten erstellt und die Geräte anschließend IT-forensisch ausgelesen. Durch die Verwendung des Auslesegerätes UFED Touch2 konnte die Ablagestruktur mittels des UFED-Readers analysiert und dokumentiert werden. Die Analyse der Dateien brachte Informationen aus den zwei Hauptdatenbanken 'Settings.data' und 'Contacts.data' hervor. Hierbei wurden alle Tabellen analysiert und Informationen zu den relevanten Spalten dokumentiert. Abschließend wurden für einen Leitfaden zur Rekonstruktion von Chats SQL-Befehle erstellt, welche zum einen eine Zusammenfassung von Informationen zu Konversationen und zum anderen eine Wiederherstellung von Chatverläufen der einzelnen Konversationen möglich machen sollen.
In dieser Bachelorarbeit wird das Thema der Cheiloskopie behandelt. Genauer gesagt wird die Geschlechtsbestimmung anhand der einzigartigen Lippenmuster intensiver thematisiert. Dafür kommen sowohl künstliche Intelligenzen als auch Elemente der Bildverarbeitung zum Einsatz. Die Arbeit zielt darauf ab den gesamten Prozess weitestgehend zu automatisieren und zu optimieren
Die vorliegende Arbeit befasst sich mit dem Fakeshop Phänomen als Cybercrime Delikt. Nach einer kurzen Erläuterung des Bereiches Cybercrime und einer Darstellung der Phänomenologie eines Fakeshops wird dieser anhand einer beschriebenen Sachlage auf seine Strafbarkeit analysiert. Zur Analyse werden Rechtsnormen aus dem Strafgesetzbuch hinzugezogen, die in der Literatur dem Cybercrime im engeren Sinne zugeordnet sind. Anhand dessen soll erörtert werden, welche Tatbestandsmerkmale der Paragrafen durch den Sachverhalt festgestellt werden können und ob der objektive Tatbestand bei einem Fakeshop Phänomen erfüllt wird. Des Weiteren werden mögliche Folgen, die durch einen Fakeshop auftreten können präsentiert und im Anschluss dessen einige Möglichkeiten aufgezeigt, um sich präventiv gegen eine Fakeshop-Falle schützen zu können.
The Tutte polynomial is an important tool in graph theory. This paper provides an introduction to the two-variable polynomial using the spanning subgraph and rank-generating polynomials. The equivalency of definitions is shown in detail, as well as evaluations and derivatives. The properties and examples of the polynomial, i.e. the universality, coefficient relations, closed forms and recurrence relations are mentioned. Moreover, the thesis contains the connection between the dichromate and other significant polynomials.
Analysis of the Forensic Preparation of Biometric Facial Features for Digital User Authentication
(2023)
Biometrics has become a popular method of securing access to data as it eliminates the need for users to remember a password. Although exploiting the vulnerabilities of biometric systems increased with their usage, these could also be helpful during criminal casework.
This thesis aims to evaluate approaches to bypass electronic devices with forged faces to access data for law enforcement. Here, obtaining the necessary data in a timely manner is critical. However, unlocking the devices with a password can take several years with a brute force attack. Consequently, biometrics could be a quicker alternative for unlocking.
Various approaches were examined to bypass current face recognition technologies. The first approaches included printing the user's face on regular paper and aimed to unlock devices performing face recognition in the visible spectrum. Further approaches consisted of printing the user's infrared image and creating three-dimensional masks to bypass devices performing face recognition in the near-infrared. Additionally, the underlying software responsible for face recognition was reverse-engineered to get information about its operation mode.
The experiments demonstrate that forged faces can partly bypass face recognition and obtain secured data. Devices performing face recognition in the visible spectrum can be unlocked with a printed image of the user's face. Regarding devices with advanced near-infrared face recognition, only one could be bypassed with a three-dimensional face mask. In addition, its underlying software provided evidence about the demands of face recognition. Other devices under attack remained locked, and their software provided no clues.
Seit 2018 befindet sich das Projekt „BuggyTech Engine“ an der Hochschule Mittweida in studentischer Entwicklung. Auf dieser Game Engine soll das von der Autorin konzipierte Spiel „Neon Nova“ laufen, wofür sie ein Game Design Document (GDD) erstellte. Das GDD stellt als grundlegendes Dokument, welches sämtliche relevanten Aspekte eines zu entwickelnden Spiels beschreibt, ein Herzstück in der Videospielentwicklung dar. Es dient als zentrales Werkzeug für das Entwicklerteam, um gemeinschaftlich auf ein klares Ziel hinzuarbeiten. In der klassischen Softwareentwicklung werden Anforderungen und Spezifikationen an eine zu entwickelnde Software detailliert in Form eines Lastenheftes verschriftlicht, welches für die Entwickler ähnliche Funktionen hat, wie das GDD. Diese Konzepte werden, neben der Erarbeitung zusätzlicher Wissensgrundlagen, zunächst dargestellt und auf Inhalte, sowie Vor- und Nachteile untersucht. Im Hauptteil dieser Arbeit wird die Eignung eines GDD als Grundlage für die Anforderungsanalyse einer Game Engine am Beispiel von Neon Nova und der BuggyTech Engine untersucht. Der Prozess der Erstellung des Lastenheftes wird dargelegt und die Ergebnisse vorgestellt. Zudem wurden Datenmodelle und UI Layouts für die spezifische Anwendung in de BuggyTech Engine konzipiert. Abschließend wird ein Fazit über den Prozess und die Geeignetheit der aufeinander aufbauenden Arbeitsweise der beiden Dokumente gezogen, welche normalerweise nicht miteinander in Kontakt kommen. Das Ergebnis der Arbeit ist ein vollständiges, für die Weiterentwicklung der BuggyTech Engine nutzbares Lastenheft.
The GeoFlow II experiment aims to replicate Earth’s core dynamics using a rotating spherical container with controlled temperature differences and simulated gravity. During the GeoFlow II campaign, a massive dataset of images was collected, necessitating an automated system for image processing and fluid flow visualization in the northern hemisphere of the spherical container. From here, we aim to detect the special structures appearing on the post processed images. Recognizing YOLOv5’s proficiency in object detection, we apply Yolov5 model for this task.
Im Rahmen von vielen Kriminalfällen werden Audio- und Videoaufnahmen asserviert und ausgewertet. Häufig sind in den Mediendateien unabsichtliche Aufzeichnungen des Stromnetzfrequenz- brummen enthalten. Diese können extrahiert und analysiert werden. Sofern entsprechende Aufzeichnungen über vergangene Stromnetzfrequenzverläufe vorliegen, können selbige zur Identifikation des Aufnahmeortes und Aufnhahmezeitpunktes herangezogen werden. Innerhalb dieser Bachelorarbeit wird ein Stromfrequenz-Messgerät für den Aufbau einer Stromfrequenzdatenbank konzipiert. Weiterhin werden Störeinflüsse evaluiert, die eine erfolgreiche Messung verhindern können.
Die fortschreitende Digitalisierung stellt Ermittlungs- und Strafverfolgungsbehörden vor große Herausforderungen. Die steigenden Datenmengen sind insbesondere für die Aufklärung von Delikten wie der Kinderpornografie ein Problem, da große Datenbestände manuell gesichtet werden müssen. Um Herr der Lage zu bleiben, müssen neue Ermittlungsansätze eingeführt werden, die sich technisch unterstützender Werkzeuge wie KI bedienen. Zielen solche Hilfsmittel heute auf die Reduktion der händisch zu analysierenden Materialien ab. Bisher fehlt eine semantische Betrachtungsmöglichkeit der kinderpornografischen Inhalte, um Bild- und Videomaterialien einer Aufnahmeserie zuordnen zu können. Diese Forschungsarbeit befasst sich mit der Konzeption der semantischen Analyse kinderpornografischer Materialien.
Machine learning models for timeseries have always been a special topic of interest due to their unique data structure. Recently, the introduction of attention improved the capabilities of recurrent neural networks and transformers with respect to their learning tasks such as machine translation. However, these models are usually subsymbolic architectures, making their inner working hard to interpret without comprehensive tools. In contrast, interpretable models such learning vector quantization are more transparent in the ability to interpret their decision process. This thesis tries to merge attention as a machine learning function with learning vector quantization to better handle timeseries data. A design on such a model is proposed and tested with a dataset used in connection with the attention based transformers. Although the proposed model did not yield the expected results, this work outlines improvements for further research on this approach.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, ob die Programme Magnet AXIOM und Kipo Analyzer sich für die Klassifikation von Kinderpornographie eignen. Dazu wird folgende Forschungsfrage gestellt: Erkennen die Programme Magnet AXIOM und Kipo Analyzer ausreichend kinderpornographisches Material von gesicherten Asservaten, um die Anforderungen zur Entlastung von Ermittlern zu erfüllen? Zur Beantwortung dieser Frage wurde ein selbst zusammengestellter Datensatz mit den Programmen getestet. Hierbei erzielte das Programm Magnet AXIOM einen Recall von 70,13 % und eine Spezifität von 60,42 %. Im Vergleich erzielte der Kipo Analyzer einen Recall von 42,56 % und eine Spezifität von 97,5 %. Die Präzision und der F1-Score fiel bei beiden Programmen schlecht aus durch den unausgeglichenen Datensatz. Abschließend kann keine endgültige Aussage über die Eignung der Programme hinsichtlich der Klassifikation von Kinderpornographie gemacht werden. Die Programme müssten mit unterschiedlichen Datensätzen und Zusammensetzungen getestet werden.
Verschiedenste telefonische Betrugsmaschen, die auf die ältere Generation abzielen, sind in den letzten Jahren in Deutschland exorbitant gestiegen. Ob Schockanruf, WhatsApp-Betrug oder Enkeltrick: die Folgen eines solchen Betrugsfalls werden nur selten aufgezeigt. Anhand einer quantitativen Umfrage und einem Interview mit einer Betroffenen werden in dieser Arbeit die Betrugspräsenz, die Trendentwicklung und der aktuelle Aufklärungsstand am Beispiel des Enkeltricks, sowohl analog als auch digital untersucht. Abschließend werden Handlungsempfehlungen für potenziell gefährdete Menschen ausgesprochen.
Im Rahmen der Arbeit wurde untersucht, welche neuen Möglichkeiten Künstliche Intelligenz (KI) bezüglich der bei Phishing-Angriffen verwendeten Taktiken, Techniken und Werkzeuge bietet. Die Nutzung von KI-gestützten Phishing-Angriffen wird praxisnah beschrieben. Unter diesem Aspekt wurden aktuelle KI‘s betrachtet, insbesondere ChatGPT. Daraufhin wurde analysiert, inwiefern diese den Prozess des Phishing oder Teilaspekte davon vereinfachen beziehungsweise erleichtern. Die Ergebnisse wurden diskutiert, um ein besseres Verständnis dafür zu schaffen, wie künstliche Intelligenz den Phishing-Angriffen neue Angriffsvektoren hinzufügt. Die rechtliche oder ethische Bewertung von KI im Zusammenhang mit Phishing wurde nicht behandelt. Zudem geht die Arbeit ebenfalls nicht auf die Entwicklung oder Implementierung spezifischer Abwehrmaßnahmen ein.
In dieser Arbeit wird ein DNA-Einzelstrang mittels fluoreszenzspektroskopischer Untersuchungen charakterisiert. Die DNA ist mit zwei Fluorophoren markiert, damit die Charakterisierung mittels FRET durchgeführt werden kann. Durch Zugabe von monovalenten Metallionen K(I) und Na(I) wird der Faltungszustand der DNA beeinflusst. Die Messungen werden bei verschiedenen Bedingungen durchgeführt (Metallionenkonzentration, Metallion, Temperatur, Puffer und pH-Wert). Durch die Berechnung des relativen Anteils der Akzeptoremission kann FRET bestimmt werden und daraus auf den Abstand der Farbstoff am Molekül der DNA geschlossen werden.
Diese Arbeit beschäftigt sich mit der Konzeption und Erstellung einer Kompetenzmatrix zur Verbesserung der Selbsteinschätzung von Studierenden im Bereich des Medieninformatik Studiums an der Hochschule Mittweida. Neben der Erstellung der Matrix wurde zusätzlich eine Evaluation an Studierenden und Absolventen durchgeführt. Eine Auswertung sowie eine Handlungsempfehlung und eine Weiterentwicklungsmöglichkeit der Matrix und aller erarbeiteten Bestandteile befindet sich ebenfalls in dieser Arbeit.
Die folgende Arbeit befasst sich mit dem forensischen Informationspotential von Smart Home Security Geräten, in diesem Fall dem Starter-Kit der Firma Ring. Hierfür wurde die Funktionsweise des Systems genauer untersucht und es wurden Manipulationsversuche und Datensicherungen durchgeführt. Diese Manipulationen bezogen sich hier genauer auf die zwei internetfähigen Geräte, die Basisstation und die Kamera. Die Datensicherungen fokussierten sich insbesondere auf den allgemein gesicherten Daten und Hinweisen zu den Manipulationen.
Analysis of Continuous Learning Strategies at the Example of Replay-Based Text Classification
(2023)
Continuous learning is a research field that has significantly boosted in recent years due to highly complex machine and deep learning models. Whereas static models need to be retrained entirely from scratch when new data get available, continuous models progressively adapt to new data saving computational resources. In this context, this work analyzes parameters impacting replay-based continuous learning approaches at the example of a data-incremental text classification task using an MLP and LSTM. Generally, it was found that replay improves the results compared to naive approaches but achieves not the performance of a static model. Mainly, the performances increased with more replayed examples, and the number of training iterations has a significant influence as it can partly control the stability-plasticity-trade-off. In contrast, the impact of balancing the buffer and the strategy to select examples to store in the replay buffer were found to have a minor impact on the results in the present case.
Die vorliegende Arbeit beschäftigt sich mit der Erforschung des Datenvorkommens im Hinblick auf die Ermittlung flüchtiger Daten an ausgewählten Wireless Local Area Network (WLAN)-Routern. Diese werden im Hinblick auf strafrechtlich relevante Fragestellungen untersucht. Es werden die Möglichkeiten der methodisch und systematischen Datensicherung eruiert und wie diese gewonnen und ausgewertet werden können.
Die vorliegende Arbeit untersucht, wie eine Ontologie mobile Kommunikation für forensische Auswertungen abbilden kann und welche Chancen sich aus dieser Art von Repräsentation ergeben. Prinzipiell stellen Ontologien einen Lösungsansatz für die wachsenden Herausforderungen im Bereich der digitalen Forensik dar. Vor allem die Heterogenität und stark zunehmende Menge der auszuwertenden Daten stellt die Strafverfolgungsbehörden vor Probleme. Forensische Tools unterstützen bei der Extraktion und Analyse von Daten. Allerdings weisen sie in bestimmten Aspekten ihre individuellen Grenzen auf. Ontologien ermöglichen dabei die Interoperabilität zwischen forensischen Tools und somit die Kombination der jeweiligen Vorteile von diesen Tools. Somit können insbesondere (Teil-)Automatisierungen im Ermittlungsprozess realisiert werden, was zur Ersparnis von Zeit und Ressourcen führt. Darüber hinaus lassen sich anhand von Ontologien logische Schlussfolgerungen herleiten und weitere Methoden aus dem Bereich der künstlichen Intelligenz anwenden. Diese Arbeit verwendet die CASE-Ontologie als Grundlage zur Entwicklung einer Ontologie, welche mobile Kommunikation im Kontext forensischer Untersuchungen repräsentiert. Darüber hinaus wird im experimentellen Teil der Arbeit das Datenmodell einer forensischen Plattform zur Auswertung mobiler Kommunikation auf die entworfene Ontologie abgebildet. Zusätzlich wird ein semantischer Webserver prototypisch aufgesetzt, um einen Anwendungstest der Ontologie durchführen zu können.
Die Arbeit beschäftigt sich mit dem Bakterium Cereibacter sphaeroides, seiner Fähigkeit zur Wasserstoffproduktion im Rahmen der Stickstofffixierung sowie den Möglichkeiten der genetischen Modifikation des Bakteriums. Ziel der Arbeit ist die Entwicklung eines Baseneditors, der mit Hilfe des CRISPR/Cas9-Systems eine Zielregion modifizieren kann. Zur Erzeugung eines solchen Baseneditors wurde zunächst eine sgRNA synthetisiert und deren Funktion in einem in vitro Verdau mit Cas9 überprüft. Als Substrat wurden PCR-Produkte einer Region des rpoN-Gens verwendet. Dieses kodiert für den Transkriptionsfaktor σ54, welcher bei der Expression des Nitrogenasesystems eine Rolle spielt. Ein SNP auf diesem Gen steht im Verdacht mit der höheren Wasserstoffproduktion in Gegenwart von verfügbarem Stickstoff eines Substammes von C. sphaeroides zu stehen. Es zeigte sich, dass die sgRNA für die angestrebte Target-Region (rpoN-Gen) genutzt werden kann.
Nach Etablierung des Cas9-Verdaus sollte ein Baseneditor mittels in vitro Proteinsynthese hergestellt und anschließend für eine Baseneditierung eingesetzt werden. Die Synthese des Baseneditors konnte bisher noch nicht erfolgreich abgeschlossen werden.
Ein weiteres Teilprojekt befasste sich mit der Identifizierung von Kontaminationen in einigen Dauerkulturen von C. sphaeroides. Hierzu wurde ein 16s-Metabarcoding mittels Nanoporensequenzierung durchgeführt. Es wurde jedoch fast ausschließlich C. sphaeroides in der Sequenzierung nachgewiesen.
Zukünftig sollen noch Optimierungen hinsichtlich der Synthese des Baseneditors vorgenommen werden. Anschließend soll der Baseneditor zur in vitro Basenmodifikation eingesetzt werden. Nach erfolgreicher in vitro Baseneditierung soll das System anschließend in ein in vivo System in C. sphaeroides implementiert werden. Langfristiges Ziel ist die Nutzung eines genetisch veränderten C. sphaeroides Stammes als Wasserstoffproduzent.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher der Webclients des Instant-Messenger-Dienstes Threema und des Social-Media-Dienstes Instagram aus forensischer Sicht betrachtet. Hierfür werden die Funktionsweisen der Anwendungen und die auf dem Gerät im RAM enthaltenen Artefakte forensisch analysiert und diskutiert. Anhand der aus dieser Arbeit gezogenen Erkenntnisse sollen zukünftige forensische Untersuchungen, die in Verbindung mit einer oder beiden dieser Anwendungen stehen, unterstützt werden, gefundene Artefakte zu identifizieren und interpretieren.
Die Recyclingfähigkeit von faserbasierten Lebensmittelverpackungen wird durch Restanhaftungen des Lebensmittels vor Probleme gestellt. Dadurch ausgelöste Verkeimungen bei der Altpapierlagerung beeinträchtigen den Recyclingprozess. Die entwickelten Mikroorganismen beeinflussen wiederum die Herstellungskette innerhalb einer Papierfabrik, da es zu hohen organischen Belastungen kommen kann. Die Bachelorarbeit untersucht den mikrobiologischen Einfluss von Lebensmitteln, auf die Altpapierlagerung derer faserbasierter Verpackungen.
Die Arbeit gibt eine Einführung in Schnorr-Multisignaturen im Kontext des Taproot-Updates, wie es im Bitcoin Improvement Proposal (BIP) Nr. 340 vorgeschlagen wird. Schnorr-Multisignaturen bieten einen effizienten und sicheren Weg für mehrere Parteien, gemeinsam eine einzige Signatur zu erstellen, die ihre gemeinsame Zustimmung repräsentiert. Das Taproot-Update zielt darauf ab, die Privatsphäre, Skalierbarkeit und Flexibilität des Bitcoin-Protokolls durch die Einführung von Schnorr-Multisignaturen als zentrales Element zu verbessern. Die Arbeit beginnt mit einem Überblick über die Grundlagen digitaler Signaturen und zeigt die Schwächen bestehender Signaturschemata in Bitcoin auf. Anschließend werden die theoretischen und mathematischen Grundlagen von Schnorr-Multisignaturen untersucht, einschließlich ihrer Konstruktion, Sicherheitseigenschaften und Vorteile gegenüber traditionellen Schemata. Die Bedeutung des Taproot-Updates für das Bitcoin-Netzwerk wird diskutiert und hervorgehoben, wie das Update die Effizienz von Transaktionen und den Schutz der
Privatsphäre verbessern kann. Die Einführung von Schnorr-Signaturen im Bitcoin Core war ein wichtiger Schritt. Signaturen sind häufig Angriffen ausgesetzt, weshalb weitere Anpassungen wie die Implementierung von MuSig2 sinnvoll sind. Nach der Effizienzsteigerung sollte der Fokus nun verstärkt auf die Sicherheit gelegt werden.
Innerhalb dieser Arbeit wurde geprüft, ob die Sensorgröße einer digitalen Kamera einen Einfluss auf Umfang und Qualität von photogrammetrisch erstellter 3D Modelle besitzt. Konkret wurden die Kameras Lumix GC91-M und Nikon D7500 für diese Arbeit verwendet. Dafür wurden zwei verschiedene Versuchsaufbauten entworfen. Im ersten Versuchsaufbau wurde geprüft, wie zuverlässig die Wiedergabe von dreidimensionalen Objekten auf großflächigen Strukturen ist. Im zweiten Versuchsaufbau wurde die Wiedergabe von komplexen dreidimensionalen Strukturen überprüft. Mit der Software "Agisoft Metashape" wurden automatisiert 3D Modelle erstellt. Im Rahmen dieser Arbeit konnte gezeigt werden, dass die Sensorgröße einen geringen Einfluss auf die Modelle besitzt. Dieser zeigt sich vor allem bei geringen Abständen (einen Meter) zu dem fotografierten Objekt.
In this work, we identify similarities between Adversarial Examples and Counterfactual Explanations, extend already stated differences from previous works to other fields of AI such as dimensionality, transferability etc. and try to observe these similarities and differences in different classifier with tabular and image data. We note that this topic is an open discussion and the work here isn’t definite and canbe further extended or modified in the future, if new discoveries found.
Die vorliegende Arbeit beschäftigt sich mit der Analyse von
Festplattenverschlüsselungssoftware. Dabei werden BitLocker von Microsoft, FileVault von Apple unter MacOS und LUKS unter Linux betrachtet. Des Weiteren wird die Verschlüsselung Data Protection der iPhones und Android Encryption von Googles Betriebssystem analysiert. Bei der Untersuchung werden die verwendeten kryptographischen Algorithmen, die Schlüsselhierarchie und hardwarebasierenden Technologien behandelt. Zudem werden Angriffsmöglichkeiten präsentiert, die bei einer forensischen Analyse verwendet werden können, um die Verschlüsselung zu umgehen.
Die vorliegende Bachelorarbeit befasst sich mit der digitalen Blutspurenmusteranalyse in dreidimensionalen Modellen, welche mit Hilfe der Software „Blender“ durchgeführt wird. Das Ziel ist es, 3D-Koordinaten aus den gegebenen 2D-Koordinaten der Modelltextur zu generieren, um anschließend auf diesen Koordinaten Trajektorien einzeichnen zu können. Diese sollen die Flugbahnen der jeweiligen Blutstropfen zurück zum Ursprungsort repräsentieren.
Traditional user management on the Internet has historically required individuals to give up control over their identities. In contrast, decentralized solutions promise to empower users and foster decentralized interactions. Over the last few years, the development of decentralized accounts and tokens has significantly increased, aiming at broader user adoption and shared social economies.
This thesis delves into smart contract standards and social infrastructure for Ethereum-based blockchains to enable identity-based data exchange between abstracted blockchain accounts. In this regard, the standardization landscapes of account and social token developments were analyzed in-depth to form guidelines that allow users to retain complete control over their data and grant access selectively.
Based on the evaluations, a pioneering Solidity standard is presented, natively integrating consensual restrictive on-chain assets for abstracted blockchain accounts. Further, the architecture of a decentralized messaging service has been defined to outline how new token and account concepts can be intertwined with efficient and minimal data-sharing principles to ensure security and privacy, while merging traditional server environments with global ledgers.
In Zeiten, in denen Unternehmen rechenintensive Anwendungen auf externe Server auslagern, gewinnt Cloudcomputing immer mehr an Bedeutung. Das Problem dabei ist, um Operationen auf herkömmlichen, verschlüsselten, ausgelagerten Daten ausführen zu können, müssen diese zuerst entschlüsselt werden. Vertrauliche Daten liegen in dem Zeitraum der Bearbeitung unverschlüsselt vor, was zu einem Datenschutz- und Sicherheitsproblem führt. Dieses Problem kann durch vollständig homomorphe Verschlüsselungen gelöst werden. Diese moderne Verschlüsselungstechnik erlaubt das Ausführen von Operationen auf verschlüsselten Daten und wird in dieser Arbeit grundlegend vorgestellt. Weiterhin werden Bibliotheken, die homomorphe Verschlüsselungen implementieren, vorgestellt und mittels Benchmarking miteinander verglichen. Anschließend wird ein Anwendungsbeispiel formuliert, das die Vor- und Nachteile homomorpher Verschlüsselungen simulieren soll. Die Implementierung des Anwendungsbeispiels erfolgt mithilfe der im Benchmarking ermittelten leistungsstärksten Bibliothek - der Microsoft SEAL Bibliothek. Mit den in dieser Arbeit erlangten Erkenntnissen soll der Einstieg in die komplexe Thematik der homomorphen Verschlüsselungen vereinfacht werden und gleichzeitig zur Auseinandersetzung mit dieser Verschlüsselungsmethodik angeregt werden.
This thesis comprehensively explores factors contributing to malaria-induced anemia and severe malarial anemia (SMA). The study utilizes a comprehensive dataset to investigate immunological interactions, genetic variations, and temporal dynamics. Findings highlight the complex interplay between immune markers, genetic traits, and cohort-specific influences. Notably, age, HIV status, and genetic variations emerge as crucial factors influencing anemia risk. The incorporation of Poisson regression models sheds light on the genetic underpinnings of SMA, emphasizing the need for personalized interventions. Overall, this research provides valuable insights into the multifaceted nature of malaria-induced complications, paving the way for further molecular investigations and targeted interventions.
In this thesis, we implement, correct, and modify the compartmental model described in “Transmission Dynamics of Large Coronavirus Disease Outbreak in Homeless Shelter, Chicago, Illinois, USA, 2020”. Our objective is to engage in reading and understanding scientific literature, reproduce the results, and modify or generalize an existing mathematical model. We provide an overview of epidemiological models, focusing on simple compartmental SEIR models. We correct inaccuracies and misprints in the original implementation and use the limited-memory Broyden–Fletcher–Goldfarb–Shanno algorithm to fit the model’s parameters. Furthermore, we modify the model by introducing an additional compartment. The resulting model has a more intuitive interpretation and relies on fewer assumptions. We also perform the fitting process for this alternative model. Finally, we demonstrate the advantages of our modified implementations and discuss other possible approaches.
Eine empirische Analyse von 19 DAO-Airdrops im Hinblick auf die Governance-Aktivität der Empfänger: Airdrops sind ein bekannter Incentive-Mechanismus bei Blockchain-Protokollen. In den letzten Jahren haben vor allem DAOs „retroaktive“ Airdrops für sich entdeckt, die frühe Nutzer eines Protokolls entlohnen. Diese Art der Verteilung von Token gilt allerdings auch als ein möglicher Lösungsansatz für Zentralisierung bzw. mangelnde Voting-Beteiligung in DAOs. Thema der Arbeit ist daher, welchen Effekt Airdrops auf die Governance-Aktivität in DAOs haben. Zu diesem Zweck wurden 19 DAOs empirisch untersucht. Wir vergleichen die Voting-Beteiligung der Airdrop-Empfänger auf Snapshot bzw. on-chain mit dem der Gesamtheit der Token-Halter. Außerdem wird die Verteilung der Airdrops, die Halte-Dauer und der Delegations-Anteil betrachtet. Wir stellen fest, dass die Beteiligung der Airdrop-Empfänger im Durchschnitt etwas höher ist als die von nicht-Airdrop-Empfängern. Ob Airdrops sich als Governance-Instrument eignen, ist allerdings im Einzelfall zu betrachten.
In dieser Masterarbeit wird erforscht, ob und wie Funktionalität von einem Mikrocontroller auf ein leistungsstarkes externes Gerät portiert werden kann. Dabei sollen die ausgelagerten Funktionalitäten WebAssembly nutzen, um eine Vielzahl von externen Geräten zu unterstützen. Zusätzlich wird evaluiert, wie das leistungsstarke Gerät den Mikrocontroller steuern soll, bzw. wie ein Datenaustausch hergestellt wird und wie Eingaben im leistungsstarken Gerät vollzogen werden.
Diese Arbeit befasst sich mit dem Erstellen eines digitalen, fotorealistischen Porträts. Dabei werden die Grundlagen sowie das Vorgehen beim Entstehungsprozess beschrieben. Im Weiteren untersucht diese Arbeit Methoden zur Einschätzung des Zeichenfortschritts des erstellten Bildes. Diese werden getestet und ihre Ergebnisse anschließend ausgewertet.
Die Arbeit bezieht sich auf die Verwendung von Lügendetektoren als Beweismittel vor Gericht. Die Einführung in die Geschichte stellt die Entwicklung dieser Technologie dar. Des Weiteren werden die theoretischen Grundlagen und die Funktionsweisen von Lügendetektortests, sowie deren Kritikpunkte beleuchtet. Insbesondere werden verschiedene Testmethoden und deren Fehleranfälligkeit diskutiert. Zudem wird auf die rechtlichen Aspekte, vorwiegend auf die Beweiswürdigung, sowie auf die Zulässigkeit solcher Tests in gerichtlichen Verfahren, eingegangen.
In dieser Arbeit wird die Entwicklung eines Tools beschrieben, welches diverse Schritte des digitalen Achterbahnbaus prototypisch kombiniert. Entwickelt wurden eine visuelle Bewegtbilddarstellung, ein prozeduraler Streckengenerator, eine automatische Rotationszuweisung und eine Präferenzeingabefläche zur Beeinflussung der zufälligen Streckenausgabe. Der Fokus liegt darauf, die zufälligen Streckenlayouts in einer Umfrage zu evaluieren, um zu ermitteln, ob diese Software einen potentiellen Mehrwert für professionelle Achterbahndesigner bietet. Im Rahmen der Evaluation wurden sieben Achterbahnen im Tool erbaut. Dabei handelt es sich um zwei zufällig generierte, zwei vom Autor erschaffene und drei Repliken realer Bahnen. Um eventuelle Streckentyppräferenzen von Probanden zu erkennen, wurden zwei verschiedene Achterbahntypen für die Evaluation verwendet. Diese sind als Videoaufnahme in einer Umfrage mit 26 Probanden untersucht und anschließend miteinander verglichen worden. Die Probanden zeigten in ihrer Erfahrung mit Achterbahnen einen geringen bis mittelmäßigen Wissensschatz, konnten aber gute Bahnen von schlechten unterscheiden. Es war ihnen nicht eindeutig möglich, die realen Strecken von den anderen zu unterscheiden. Die Ergebnisse zeigen, dass die zufällig generierten Strecken den realen Repliken im Bezug auf Kreativität ebenbürtig sind. Auch die Qualität des Streckenlayouts weist laut den Probanden kein erkennbares Defizit auf. Die prototypische Umsetzung der Ausgabe des Tools kann als zufriedenstellend eingeschätzt werden. Ob die Applikation einen positiven Einfluss auf die Arbeit eines brancheninternen Designers hat, muss in einer weiteren Studie untersucht werden.
Instant Messenger gehören zu den am häufigsten verwendeten Applikationen auf mobilen Endgeräten. Sie werden von nahezu allen Altersgruppen genutzt, dabei verwenden eine Vielzahl der Nutzer diese täglich zum Austausch von textuellen Nachrichten, Sprachnachrichten oder multimedialer Dateien. Die Anzahl der Nutzer nimmt seit Jahren kontinuierlich zu. Einer der verbreitetsten Anwendungen ist „Threema“, welche von 22 Prozent der Befragten in Deutschland genutzt wird. Weltweit beträgt die Anzahl der Nutzer elf Millionen. Im Kontext forensischer Untersuchungen wird die Bedeutung der Rekonstruktion von Artefakten von Instant Messenger-Diensten immer größer, da über diese auch ein Austausch von Informationen durch Täter, Opfer und Zeugen von Straftaten stattfindet. Solche Artefakte umfassen Bild- und Videomaterial sowie Standorte oder Textnachrichten. Diese können hilfreich sein, um den Tathergang zu rekonstruieren.
In der vorliegenden Bachelorarbeit werden die Artefakte der Instant Messengers „Threema“ anhand von Beispieldaten aufbereitet und ausgewertet. Dabei stehen Chatverläufe, ausgetauschte Standorte und Kontaktinformationen im Fokus, wobei sie keine Entschlüsselung der Daten oder Rekonstruktion von multimedialen Daten oder gelöschte Daten umfasst. Die Untersuchungen ergaben, dass die Daten in den SQLite- Datenbanken ThreemaData.sqlite und Threema.sqlite-wal abgelegt werden.
In dieser Arbeit wurde der Einfluss der Molekülgröße von per- und polyfluorierten Alkylsubstanzen auf den Summenparameter AOF mittels eines ungekoppelten Systems im AOF-Gesamtverfahren untersucht. Dazu wurden drei käuflich erworbene PFAS-Standards ausgewählt und daraus selbst hergestellte PFAS-Standardlösungen und PFAS-Kombinationslösungen analysiert. Es wurde insbesondere der Durchbruch der im Anreicherungsschritt genutzten Aktivkohle durch eine LC-MS-Einzelstoffanalytik der Waschlösungen untersucht. Aus den Ergebnissen wurden Aussagen zum Sorptionsverhalten der untersuchten PFAS bei der Anreicherung an der Aktivkohle abgeleitet und dahingehend Grenzen des AOF-Gesamtverfahrens hinsichtlich der Quantifizierung von PFAS aufgezeigt.
Erzeugung eines 3D-Lungengewebemodells mithilfe einer Luft-Flüssigkeits-Grenzflächen-Zellkultur
(2023)
Die vorliegende Bachelorarbeit befasst sich mit der Etablierung und Entwicklung eines dreidimensionalen Lungengewebemodells auf Grundlage einer Luft-Flüssigkeits-Grenzflächen- Zellkultur. Das In-vitro-Modell sollte die Grenzfläche zwischen dem luftgefüllten Raum der Lungenbläschen und dem Blut innerhalb der Kapillaren rekonstruieren. Für die Nachbildung des Lungenepithels kamen die Lungenkarzinomzelllinie A549 und die humanen primären Bronchialepithelzellen HBEpC zum Einsatz. Das Endothelgewebe wurde mit der somatischen Hybridzelllinie EA.hy926 und den Primärzellen HUVEC rekonstruiert. Die Eignung des entwickelten Modells wurde anhand der Ausbildung einer epithelialen Barrierefunktion sowie der Reaktion auf die Zugabe des Transforming Growth Factors 1 (TGF-β1) bewertet. Während der Etablierung wurde der Einfluss der Kokultivierung auf die epitheliale Barriere untersucht. Des Weiteren wurden verschiedene, kommerziell verfügbare Medien für die Air-Liquid-Interface-Kultur (ALI-Kultur) getestet. Als Anhaftungssubstrat für die Zellen wurden verschiedene Präparationen des extrazellulären Matrix-Proteins Kollagen eingesetzt. Die Kultivierung von Zellen an der Luft-Flüssigkeitsgrenze führte zur Expression spezieller Markergene, die mithilfe von Immunfluoreszenz und einer quantitativen Real-Time PCR quantifiziert wurden. Die Atembewegung ist für die Differenzierung ebenfalls essentiell und somit wichtiger Bestandteil zukünftiger und aussagekräftiger Lungen-in-vitro-Modelle. Diese mechanische Stimulation konnte unter Zuhilfenahme des vom Fraunhofer Institutes (IWS) entwickelten MPSstimulus realisiert werden, sodass es möglich war erste Untersuchungen zur zyklischen, physiologischen und mechanischen Dehnung von Lungenzellen durchzuführen.
In dieser Arbeit wurde ein aktueller Überblick über die im Dark Web verfügbaren Hidden Services erstellt. Dazu wurden Onion-Adressen mit Hilfe von Suchmaschinen und Verzeichnissen gewonnen.
Über diese Onion-Adressen wurden Hidden Services aufgerufen und untersucht. Die gefundenen Hidden Services wurden in Kategorien eingeteilt und anschließend näher betrachtet. Dabei wurde vor allem auf die Inhalte eingegangen. Diese wurden untereinander und mit Webseiten aus dem Clear Web verglichen.
Es konnten zahlreiche verschiedene angebotene Inhalte festgestellt werden. Sowohl legale als auch illegale Inhalte. Die Anzahl der Hidden Services mit illegalen Inhalten überwiegt. Die größte Kategorie stellen digitale Marktplätze dar. Auf diesen werden verschiedene, hauptsächlich illegale Produkte und Dienstleistungen verkauft.