Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Analyse dezentraler Identifikation mittels Sidetree-Protokolls, am Beispiel von Microsoft ION
(2021)
This master thesis deals with the field of decentralized identification, using the example of the Microsoft Identity Overlay Network (ION). In the introduction, basic terms such as identity and identification are described. A special emphasis is placed on the explaining of the principle of decentralized identifiers (DIDs) and the SSI concept. ION is an implementation of the Sidetree protocol and uses its core components. This is the reason why more details and special parts of Sidetree are described in the methods chapter. Afterwards the ION history and network topology is typify more in detail. An ION node will be installed and operated on top of the Bitcoin blockchain. The installation process and the problems that arise are recorded. Then the ION tools (a programming library and its values) will be explained and the example program code is shown. As a practical addition of the ION tools, a verifiable credential solution is scripted. This solution shows the creation of ION-DID and the signature options of these identifiers. In the results chapter the knowledge acquired via the decentralized identification is evaluated. A theoretical security analysis for ION is implemented. Furthermore, a list of the currently possible uses for the network is enumerated. A discussion is initiated that compares the advantages and disadvantages of ION. The thesis ends with a conclusion and an outlook for ION and decentralized identification.
In einer Welt, in welcher die Anzahl der mit digitalen Geräten ausgeübten Straf-taten die zuständigen Behörden zu überrollen scheint, ist es an der digitalen Forensik, neue Wege der Verbrechensbekämpfung zu beschreiten. Um eine Viel-zahl an digitalen Spuren auszuwerten, benötigt es außerdem spezialisierter Werkzeuge und Methodiken. Das in Korrelation mit dieser Arbeit entwickelte Programm verfolgt das Ziel, einen bisher manuellen Ablauf in der forensischen Software „X-Ways Forensics“ zu automatisieren und somit Aufwand und Komplexität zu reduzieren. Genauer versucht die sogenannte „X-Tension“, eine Datei vom Dateityp „.vmdk“ innerhalb eines Falles ausfindig zu machen, um diese anschließend als neues für sich stehendes Asservat auswerten zu können. Die Arbeit zeigt dabei die Arbeitsweise des Programmes sowie Chancen für die Zukunft auf.
Diese Arbeit befasst sich mit der Erstellung einer Vorgehensweise für das Durchführen von Sicherheitstests von Cloud-Infrastrukturen des Typs Microsoft Azure. Dafür werden anfangs der grundlegende Aufbau und die technische Realisierung der genannten Infrastruktur erarbeitet. Dies beinhaltet eine Feststellung der potenziellen Angriffsfläche nach außen. Ebenso geschieht eine Erfassung und Kontextualisierung des bereits bestehenden Wissens in Bezug auf Sicherheitstests von Azure-Cloud-Umgebungen. Im Detail umfasst dies die Generierung einer Übersicht über anerkannte und erprobte Vorgehensweisen, Best Practices, verfügbare und zu verwendende Tools sowie häufige Sicherheitslücken in Azure Umgebungen. Darüber hinaus müssen offenkundige Grenzen innerhalb bestehender gesetzlicher Regularien sowie technischer Implementierungen für die Erstellung des Konzepts erfasst werden. Im Anschluss werden die erlangten Informationen genutzt, um vereinheitlicht eine Guideline zu entwerfen, nach welchem ein strukturierter Sicherheitstest einer Azure-Cloud-Infrastruktur durchgeführt werden kann. Letztendlich erfolgt eine vergleichende Diskussion der vorliegenden Feststellungen mit bestehenden anderen Vorgehensweisen, um diese Arbeit einzuordnen.
In dieser Arbeit ging es darum, eine Softwarelösung zu entwickeln, die auf die Anforderungen der Game Accessibility Guidelines abgestimmt ist. Die Godot Game Engine wurde als Entwicklungsplattform ausgewählt, da sie sich durch eine hohe Flexibilität und Skalierbarkeit auszeichnet. Durch die Verwendung dieser Engine war es möglich, eine stabile und robuste Basis zu schaffen, auf der die Implementierungen aufgebaut werden konnten. Ein wichtiger Aspekt bei der Entwicklung war die Wahl der richtigen Softwarearchitektur. Es wurde untersucht, welche Architekturen sich am besten eignen, um eine optimale Leistung und eine hohe Benutzerfreundlichkeit zu gewährleisten. Dazu wurden verschiedene Ansätze getestet und verglichen, um die bestmögliche Lösung zu finden. Im nächsten Schritt wurden die Implementierungen von Studierenden getestet und evaluiert. Dabei wurden Aspekte wie die Benutzerfreundlichkeit und der Mehraufwand, der durch die Nutzung der implementierten Features entsteht, untersucht. Es wurde auch darauf geachtet, wie verständlich die Implementierungen gestaltet sind und wie leicht sie zu bedienen sind. Die Ergebnisse der Evaluation wurden dann reflektiert und der Aufwand der Implementationen wurde in Hinblick darauf untersucht, dass es sich bei den Anforderungen fast ausschließlich um solche handelt, die laut den Game Accessibility Guidelines als Anforderungen mit geringer Komplexität eingestuft werden. Dies bedeutet, dass die Implementierung dieser Anforderungen relativ einfach sein und keine großen Schwierigkeiten bereiteten sollten. Insgesamt war die Entwicklung der Softwarelösung ein Erfolg und hat gezeigt, dass die Einschätzung der Komplexität der Game Accessibility Guidelines größtenteils bestätigt werden kann. Des Weiteren wurde die Implementation von den Studierenden gut angenommen. Die Ergebnisse der Evaluation können dazu beitragen, einen technischen Ansatzpunkt für zukünftige Bewertungen der Anforderungen und Implementationsversuche zu bieten.
Im Rahmen der Arbeit wurde untersucht, inwiefern visuelle Störfaktoren die Spielerfahrung beim Spielen von digitalen Spielen zu beeinflussen vermögen. Hierfür wurde zunächst Grundlagenwissen zur visuellen Wahrnehmung des Menschen und zu visuellen Störfaktoren zusammengetragen. Basierend auf diesen Kenntnissen wurden im Anschluss ausgewählte visuelle Störfaktoren in einem einfachen 2D-Spiel implementiert, welches von Testpersonen gespielt wurde. Während dieses Experiments wurden sowohl die subjektiven Spielerfahrungen in Form einer Umfrage als auch die objektiven Leistungen innerhalb des Spieles erfasst, um nach Auswertung dieser Daten Schlussfolgerungen über den Einfluss der visuellen Störfaktoren auf die Spielerfahrung treffen zu können.
Diese Arbeit beschäftigt sich mit der Entwicklung von performanten Modulen zur Implementierung von Netcode in einem Multiplayer-Spiel. Sie vergleicht dabei zunächst verschiedene Frameworks und dokumentiert den Entscheidungsprozess anhand eines konkreten Spiels. Es werden daraus folgend mehrere Ansätze für den Aufbau eines Netzwerkmoduls aufgezeigt und diese schließlich miteinander auf ihre Performance verglichen.
To investigate the effects of climate change on interactions within ecosystems, a microcosm experiment was conducted. The effects of temperature increase and predator diversity on Collembola communities and their decomposition rate were investigated. The predators used were mites and Chilopods, whose predation effects on several response variables were analysed. This data included Collembola abundance, biomass and body mass as well as basal respiration and microbial biomass carbon. These response variables were tested against the predictors in several models. Temperature showed high significance in interaction with mite abundance in almost all models. Furthermore, the results of the basal respiration and microbial biomass carbon support the suggestion of a trophic cascade within the animal interaction.
In dieser Arbeit soll sich mit der Möglichkeit beschäftigt werden, den Prozess zur Freischaltung von Firewallregeln zu vereinfachen. Dafür soll ein Programm entwickelt werden, welches diesen Prozess automatisiert und dadurch den schwierigen Prozess vereinfachen soll. Des Weiteren wurde recherchiert, welche Richtlinien zum Schutz des Netzwerkes erforderlich sind und mit Firewalls umgesetzt werden können. Die Implementierung der Richtlinien soll hier als Code erfolgen und es einfach machen, diese Richtlinien automatisch durchzusetzen. Mithilfe dieser als Code implementierten Richtlinien sollen Anträge zur Freischaltung von Firewallregeln geprüft und validiert werden. Wurde der Antrag zur Freischaltung einer Firewallregel erfolgreich validiert, soll die Firewallregel automatisch implementiert werden. Durch diese und weitere Automatisierungen soll die menschliche Interaktion möglichst reduziert werden. Dadurch soll Zeit gespart werden und der Prozess zur Freischaltung einer Firewallregel effizienter durchgeführt werden können. Dafür wurde ein Programm implementiert, welches als Studie dienen und ein Machbarkeitsbeweis darstellen soll.
Immer komplexer werdende Prozesse in der Geschäftswelt erfordern eine fortschreitende Digitalisierung und Automatisierung. Zusätzlich stellen Gesetze weitere Dokumentationsvorschriften, die zu noch mehr Aufwand führen. Diesen wachsenden Anforderungen kann häufig nur mit wachsender Digitalisierung und somit Automatisierung begegnet werden. In dieser Bachelor-Thesis werden die Möglichkeiten zur Automatisierung von Verwaltungsprozessen analysiert und ein Programm zur digitalen Geräteverwaltung erstellt. Es wird auf Normen zur Software-Entwicklung und -Validierung eingegangen, die dann in die Entwicklung einbezogen werden. Anhand der Verwaltungssoftware werden die einzelnen Entwicklungsphasen beschrieben. Die erstellte Software vereinfacht also nicht nur den Verwaltungsaufwand, sondern folgt auch noch einem gesetzlich vorgegebenen Entwicklungsprozess.
Diese Arbeit beschäftigt sich mit der Erstellung eines Leitfadens für die Prüfung der Daten- und Cybersicherheitsrisiken für Medizinprodukte. Es werden die rechtlichen Grundlagen der Bewertung und die zugehörigen Empfehlungen dargestellt. Hierzu werden Empfehlungen aus Deutschland, der EU und der USA betrachtet und vergleichen. Die Umsetzung der Prüfung der Daten- und Cybersicherheitsrisiken wird mit Hilfe eines Beispiels erläutert und in der Folge daraus der zur Konformitätsprüfung wünschenswerte Umfang einer Dokumentation ermittelt. Für die Prüfung der technischen Angaben zur Risikobehandlung für Medizinprodukte, entsprechend der Empfehlungen des Bundesamtes für Sicherheit in der Informationstechnik, wurde zudem eine Einteilung in Schwierigkeitsgrade der Beurteilung vorgenommen.
In dieser Arbeit wird untersucht ob das in 2017 veröffentlichte Tool Unity Timeline als Teil der Unity Engine verwendet werden kann um den Inszenieraufwand von Cutscenes in der KING Art GmbH zu verringern. Dafür werden die Funktionsweisen beider Tools untersucht und daraus abgeleitet, inwiefern Unity Timeline erweitert werden muss um reibungslos mit kAPE zu interagieren. Anschließend werden die notwendigen Erweiterungen konzeptioniert und implementiert. Darauffolgend wird ein Workflow ermittelt, der beschreibt wie Unity Timeline zusammen mit kAPE in der Firma eingesetzt werden kann. Dieser Workflow wird daraufhin an einer Cutscene aus einem Projekt der KING Art GmbH getestet und mit dem Zustand der Cutsceneerstellung vor Anfertigung der Arbeit verglichen.
Die Modellierung einer Tathergang-Simulation kann wichtige Hinweise und Ergebnisse zum Tatgeschehen liefern. Die gegenwärtige Technik befindet sich immer noch in der Entwicklungsphase. In dieser Arbeit wurde geprüft, ob das Game Engine Programm Unity für die Nutzung von Tathergang-Simulationen, basierend auf Menschmodellen, geeignet ist. Dafür wurde ein Fallbeispiel hinzugezogen, um mit dessen Hilfe eine Ragdoll in verschiedenen Simulationsszenarien testen zu können. Die modellierte Ragdoll wurde im Hinblick auf die Anpassungsfähigkeit an individuelle Menschmodelle getestet. Außerdem fand eine Berechnung des Impulses und der daraus resultierenden Geschwindigkeiten statt, die während der Simulationen entstanden sind.
In dieser Arbeit wird der Bootvorgang der i.MX RT117x-Prozessorfamilie sowie die Interprozessorkommunikation und -synchronisation zwischen den beiden Prozessoren dargestellt. Auf dieser Basis wird ein Beispielprogrammm, welches das Betriebssystem Zephyr einsetzt und auf dem Cortex-M7 läuft, erstellt. Dieses Programm soll mit einem Programm, welches in einer Baremetal-Umgebung eingesetzt wird, kommunizieren.
Die immer größer werdenden virtuellen Welten von Computerspielen mit spannendem und glaubhaftem Inhalt zu füllen, ohne die Entwicklungszeit enorm in die Höhe zu treiben, ist eine der großen Herausforderungen für Spielentwickler heutzutage. Eine Möglichkeit dieses Problem anzugehen ist der Einsatz computergestützter Generierungsalgorithmen um manuellen Aufwand zu verringern. Die vorliegende Arbeit befasst sich mit der Umsetzung dreier Data-To-Text-Ansätze zum Zweck der automatischen Generierung von Questtexten aus einer Datenstruktur in der Spieleentwicklungsumgebung Unity. Die entstehenden Implementierungen werden im Anschluss evaluiert auf Eignung für den Anwendungsfall. Folgende Methoden zur Realisierung der Texte werden angewandt: Templating, Templating mit Template-Generierung aus einer kontextfreien Grammatik, sowie die Oberflächenrealisierungsbibliothek SimpleNLG
In dieser Arbeit werden acht Arten von Belohnungssysteme in Mobile Games auf deren Einfluss auf das Verhalten der Spieler und den daraus resultierenden Wiederspielwert eines Spiels untersucht. Zwei dieser Systeme werden für einen Praxistest ausgewählt und detailliert betrachtet. Dabei handelt es sich um das Punktestand System und das Level System. Die Konzeption der Systeme ist um- fangreich beschrieben und die Implementation ist anhand von relevanten Beispielen oder Grafiken aus der Spiele-Engine veranschaulicht. Diese Belohnungssysteme werden innerhalb eines sonst identischen Spiels separat integriert und in einem AB Test getestet. Für die Auswertung des Praxis- tests werden während der Testphase diverse Spieldaten der Spieler erhoben und im Anschluss an den Test wurde von jedem Nutzern ein Fragebogen beantwortet. Auf diese Weise werden objektive Spieldaten sowie subjektive wahrgenommene Faktoren des Spielverhaltens erfasst und konnten in der Auswertung miteinander verknüpft werden. Die dabei entstandenen Ergebnisse zeigen, dass beide Belohnungssysteme die Spieler zum spielen motiviert haben. Jedoch hat das Punktestand System einen höheren Wiederspielwert erzielen können, da hierbei die intrinsische Motivation der Spieler mittels direkter Beeinflussbarkeit der verwendeten Verstärkung angesprochen wird. Außer- dem haben die Tester innerhalb des Punktestand Systems im Median eine größere Reichweite erspielen können. Daraus lässt sich schlussfolgern, dass sie durch das Erhalten beziehungsweise Ausbleiben von Belohnungen dazu motiviert wurden das Spiel stetig weiter spielen zu wollen. Daher hat sich dieses Belohnugnssystem als das für das im Praxisbeispiel verwendete Spiel optimale Be- lohnungssystem herausgestellt. Der subjektiv vom Spieler empfundene Spaßfaktor war bei beiden Belohnungssystemen gleich gut. Das Ergebnis der durchgeführten Forschung besagt, dass durch das Belohnungssystem das Spielverhalten und daraus resultierend der Wiederspielwert eines Spiels sowohl positiv als auch negativ beeinflusst werden kann. Die Art der Belohnung muss in Abhän- gigkeit von der im Gamedesign im Vordergrund stehenden Tätigkeit gewählt werden. Zielen das Belohnungssystem und die Hauptaktion des Spiels auf die gleiche Handlung ab, so werden Spieler intrinsisch dazu motiviert diese vermehrt ausführen zu wollen. Die optimale Art der Belohnung muss daher die individuellen Charakteristika eines Spiels unterstützen.
Innerhalb dieser Arbeit wurde geprüft, ob die Sensorgröße einer digitalen Kamera einen Einfluss auf Umfang und Qualität von photogrammetrisch erstellter 3D Modelle besitzt. Konkret wurden die Kameras Lumix GC91-M und Nikon D7500 für diese Arbeit verwendet. Dafür wurden zwei verschiedene Versuchsaufbauten entworfen. Im ersten Versuchsaufbau wurde geprüft, wie zuverlässig die Wiedergabe von dreidimensionalen Objekten auf großflächigen Strukturen ist. Im zweiten Versuchsaufbau wurde die Wiedergabe von komplexen dreidimensionalen Strukturen überprüft. Mit der Software "Agisoft Metashape" wurden automatisiert 3D Modelle erstellt. Im Rahmen dieser Arbeit konnte gezeigt werden, dass die Sensorgröße einen geringen Einfluss auf die Modelle besitzt. Dieser zeigt sich vor allem bei geringen Abständen (einen Meter) zu dem fotografierten Objekt.
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Blockchain-Governance wird oft mit der Führung von Unternehmen oder von Nationalstaaten verglichen, obwohl diese sich selbst eher als Decentralized Autonomous Organizations (DAOs) und damit als reine Software verorten. In dieser Arbeit wird die Polkadot-Governance in jener Ebene, in der Menschen über Polkadot Entscheidungen treffen, dargestellt, um sie dann mit rechtlichen Konzepten, die den Rahmen für die Entscheidungsfindung in Unternehmen und Staaten bilden, sowie mit den rechtlichen Grundlagen für die Entscheidungsfindung einer DAO zu vergleichen.
Die Arbeit soll ergründen, wie der Entwicklungsablauf automatisiert werden kann und welche Ressourcen- und Zeiteinsparungen aus dieser Automatisierung folgen. Dabei gilt es zu evaluieren, wie ein geeigneter Entwicklungsprozess aussieht und welche Tools genutzt werden können, um diese Einsparungen zu realisieren. Im besten Fall soll die Anwendung ohne manuellen Aufwand nach jeder Änderung auf Qualität und Sicherheit geprüft und danach direkt ausgerollt werden. Dadurch soll es ermöglicht werden, einer Änderung die daraus resultierenden Fehler eindeutig zuzuordnen. Des Weiteren soll eine Lösung gefunden werden, die Fehler auf Grund von unterschiedlichen Entwicklungsumgebungen beheben kann. Somit soll ebenfalls Entwicklungszeit gewonnen
werden.
Hinsichtlich des verändernden Stoffwechsels stellen Kiesel- und Grünalgen eine interessante und gut nutzbare, wenn auch lose und schwer definierbare Gruppierung innerhalb der biologischen Systematik dar: Ihr Potenzial, die Eigenschaften von Pflanzen (dank Photosynthese) und Mikroorganismen (in ihrer jeweiligen Größe und ihrem bedingt heterotrophen Stoffwechsel) zu kombinieren, ist bisher unübertroffen und eröffnet Möglichkeiten u. a. für die Bereiche der Abwasserbehandlung und die Kultivierung von Mikroalgen in Abwassermedien. Obwohl ihre Eignung für wirtschaftliche Zwecke ihr volles Potenzial noch nicht vollständig erreicht hat, scheint der Weg dorthin sicherlich diese Richtung einzuschlagen – mit der Biotechnologie als ein sich ständig weiterentwickelndes Fachgebiet, ist die Verwendung von Algen
für bestimmte Zwecke an die bisherigen Erkenntnisse und den daraus resultierenden Möglichkeiten gebunden. In diesem Versuch wurden insgesamt vier Mikroalgen, drei Grünalgen (C. vulgaris, A. obliquus und C. reinhardtii) und eine Kieselalge (N. pelliculosa), auf ihr Wachstumsverhalten in unterschiedlich konzentrierten Abwassermedien, von 20 % bis 100 % in 20 %-Schritten, getestet. In Bezug auf die erzielten Ergebnisse scheint der vielversprechendste Kandidat für diese Zwecke C. reinhardtii zu sein, welcher das schnellste Wachstum innerhalb der Inkubationszeit von 3 Tagen erreicht hatte und die meisten Nährstoffe aus dem Abwassermedium entfernte. In geringeren Abwasserkonzentrationen kam es stattdessen zum starken Wachstum von A. obliquus, womit dieser Organismus eine Alternative zu geringer belasteten Medien (hinsichtlich der Nährstoffe, als auch der Keimbelastung) darstellt. Außerdem wurden je 5 L A. obliquus und C. vulgaris Inokula in einem größeren Aquarium mit ca. 50 L Abwasser inkubiert unter strengeren Parameterbedingungen und höheren
Kontaminationsrisiko. Dennoch konnte auch hier innerhalb von fünf Tagen ein Abbau von ca. 99,40 % des Phosphats auf 0,055 mg/L erreicht werden, innerhalb einer Woche bzw. sieben Tagen von 99,92 % auf 0,007 mg/L ortho-Phosphat. Ob diese Organismen auch weiterhin eine wichtige Rolle in zukünftigen Technologien für die Abwasserreinigung spielen, hängt von weiteren Studien auf diesem Gebiet ab sowie neuen Innovationen bezüglich der wirtschaftlichen Nutzbarkeit für Unternehmen, welche durch Investitionen den weiteren Ausbau sowie die Forschung im Gebiet der
Algennutzung fördern.
In dieser Bachelorarbeit wurde die entomologische Besiedlung zweier Ferkelkadaver über eine Dauer von 80 Tagen untersucht. Als Auslegungsort wurde ein Waldstück in Thüringen gewählt. Es konnten fünf Verwesungsstadien klassifiziert werden. Dominante Insekten waren die Familien Calliphoridae, Muscidae, Piophilidae und Silphidae. Piophilidae konnte ab Tag 30 beobachtet werden und trat bis zum Ende des Experiments auf. Es wurden die Piophilidae-Arten Stearibia nigriceps, Lioliophila varipes und Prochyliza nigricornis asserviert. Ziel der Arbeit war es, einen Forschungsbeitrag zur Familie der Käsefliegen zu liefern.
Diese Abschlussarbeit befasst sich mit der Charakterisierung von Kunststoffen und den daraus resultierenden Diskriminierungsmöglichkeiten. Dafür werden 10 Kunststoffe mittels abgeschwächter Totalreflexion (ATR)-Fourier-Transformations-Infrarot (FTIR)-Spektroskopie und Pyrolyse-Gaschromatograph (GC)/Massenspektrometer (MS) analysiert. Diese Analysemethoden und -geräte werden in ihren Grundlagen beschrieben. Die Ergebnisse der ATR-Analyse werden mit denen der Pyrolyse verglichen und auf Unterschiede analysiert. Des Weiteren wird eine Messmethode und ein Standard für Referenzmessungen für die Pyrolyse entwickelt. Auffälligkeiten der ATR Analyseergebnisse werden mittels Pyrolyse-GC/MS analysiert und auf neue Erkenntnisse untersucht. Ziel ist eine Unterscheidung und Charakterisierung aller 10 Kunststoffe und Aussagen über Diskriminierungsmöglichkeiten, so dass die Verfahrensweise dahingehend angepasst werden kann.
Phishing Bedrohungen in Unternehmen : eine Untersuchung von Angriffstrends und Schutzmaßnahmen
(2023)
Diese Bachelorarbeit befasst sich mit Phishing Bedrohungen für Unternehmen, sowohl Angriffstrends als auch Schutzmaßnahmen.
Ziel der vorliegenden Arbeit ist es, bisher getroffene Schutzmaßnahmen zu analysieren und ihre Wirksamkeit anhand von zwei ausgewählten Fallbeispiele zu untersuchen. Dafür werden die Phishing Angriffe auf die amerikanischen Unternehmen „Twitter“ und „Uber“ genauer betrachtet und warum diese erfolgreich waren. Es soll beurteilt werden, ob die vorgestellten Leitfäden und Schutzmaßnahmen diese beiden Phishing Angriffe hätten verhindern können. Die Untersuchung zeigte, dass die gängigen Schutzmaßnahmen und das Einhalten von Leitfäden nicht ausgereicht haben, um die Unternehmen vor einem erfolgreichen Phishing Angriff zu schützen. Außerdem kommt dem Mensch bei der Bekämpfung von Phishing eine viel zu große Bedeutung zu und vernachlässigt das Handeln auf Managementebene.
Die Bachelorarbeit befasst sich mit dem Phänomen der kryptierten Kommunikation. Diese wurde vor allem im Bereich des organisierten Betäubungsmittelhandels sowie -schmuggels zur Planung von Straftaten genutzt. Zunächst werden die Grundlagen im Bereich der Organisierten Kriminalität sowie des Rauschgifthandels und -schmuggels in Deutschland vermittelt. Anschließend wird auf die drei Anbieter Anøm, EncroChat und Sky ECC, die aktuell ausgewertet werden, eingegangen. Hierbei wird unter anderem die Datenerhebung dargestellt und eine Diskussion über die aktuell bestehende Beweiszulassung vor Gericht durchgeführt. Abschließend werden die Einflüsse der Kryptohandys sowie die polizeilichen Ermittlungserfolge dargelegt. Die Bachelorarbeit wird in Bezug auf die folgende These bearbeitet: „Kryptohandys weisen einen signifikanten Einfluss auf den Betäubungsmittelhandel im Bereich der organisierten Kriminalität in Deutschland auf und gelten in den meisten Fällen als wichtigstes Tat- sowie Beweismittel“.
In vielen Polizeidienststellen ist die Optimierung des (digitalen) Asservatenmanagements ein zentrales Thema. Dies ist auch in der Kriminalpolizeiinspektion Saalfeld der Fall. Im Rahmen dieser Arbeit wurde das von der Thüringer Polizei genutzte Programm zur Spurenverwaltung “ZeSAR” um einen Reiter für die Asservierung von analogen Spuren erweitert und evaluiert. Grundlage hierfür waren die Erhebung einer Ist-Situation des zuvor herrschenden Asservatenmanagements und einer daraus resultierenden Problemanalyse. Weiterhin wurden Möglichkeiten diskutiert, wie das optimierte Asservatenmanagement auch auf digitale Spuren übertragen werden könnte. In diesem Bereich wurde erkannt,
dass die theoretischen Forschungsergebnisse bislang schwer in die Praxis übertragen werden konnten. Durch die vorliegende Arbeit wurde das Asservatenmanagement zunächst zugunsten der KPI Saalfeld qualitativ verbessert. Durch das anstehende Roll-Out des Asservaten-Reiters besteht die Möglichkeit, langfristig die landesweite Verwaltung zu optimieren.
Bei Hodenhochstand, auch Kryptorchismus genannt, handelt es sich um eine der am häufigs- ten auftretenden Störungen der Geschlechtsentwicklung bei Hunden. Die Ursachen für diese Krankheit sind bisher unklar. Es wird davon ausgegangen, dass es multifaktorielle Auslöser gibt. Um den genetischen Hintergrund dieser Krankheit bei der Rasse Altdeutscher Schafpudel zu betrachten, wurden in dieser Studie ausgewählte Hunde einer Zucht untersucht. In diesem Zusammenhang wurde eine Visualisierung der Verwandtschaftsverhältnisse einer vorangegangenen Studie um die untersuchten Individuen ergänzt. Die Nanoporensequenzierungen wurde für die Analyse von sechs Genloci genutzt. Diese Sequenzdaten wurden anschließend auf Sequenz- und Strukturvarianten untersucht. Diese Arbeit vergleicht die Resultate mit vorausgegangenen Untersuchungen, um einen Zusammenhang zwischen Kryptorchismus und einer detektierbaren genetischen Veränderung zu ermitteln.
Ist Biodiesel, welcher aus Algen gewonnen wird, als klimaneutraler Kraftstoff Ersatz für fossile Brennstoffe eine wirtschaftlich sinnvolle Alternative? Oder ist das doch nur biotechnologisches Wunschdenken. Mit dieser Frage beschäftigt sich die nachfolgende Ausarbeitung. Dabei werden zunächst Biokraftstoffe als ganzes beleuchtet, um danach zwei Algen vorzustellen welche häufig im Zusammenhang mit Biofuels genannt werden. Es werden verschiedene Kultivierungs- und Produktionssysteme erläutert. Anschließend folgt eine Einschätzung der Ausbeute aus den Prozessen zusammen mit einer Einschätzung zur Nachhaltigkeit. Am Ende wird ein Blick in die Zukunft der Technologie gewagt und Kritikpunkte offengelegt.
In dieser Bachelorarbeit steht die Untersuchung eines IoT-Gerätes im Fokus. Das Smart Home Security Kit der Firma D-Link wird in allen Bestandteilen auf deren Funktionsweise getestet und analysiert. Das Vierkomponentensystem verfügt über eine Überwachungskamera, einen Fenster-/ Türsensor, einer Sirene
und einem Hub. Im Vordergrund der steht die Datensicherheit und die Zuverlässigkeit der Verwahrung von sensiblen Nutzerinformationen. Es findet die Untersuchung der Hard- und Software sowie der Cloud, App und Website statt. Übertragungsprotokolle und genutzte Sicherheitsstandards werden kritisch beleuchtet. Am Ende findet die Überprüfung der Hardware auf mögliche Manipulationen statt. Es soll ein Überblick über mögliche Vorangehensweisen und Tools gegeben werden, welche auf andere Systeme angewendet werden könnten.
The occurence of prostate cancer (PCa) has been consistently rising since three decades and remains the third leading cause of cancer-related deaths after lung and bowel cancer in Germany. Despite of new methods of early detection, such as prostate-specific antigen (PSA) testing, it persists to be the most common cancer in german men with over 63,400 new diagnoses in Germany every year and exhibits high prevalence in other countries of Northern andWestern Europe as well [64]. Men over the age of 70 are most commonly affected by the lethal disease, whereas an indisposition before 50 is rare. The malignant prostate tumor can be healed through operation or irradiation while the cancer hasn’t reached the stage of metastasis in which other therapeutic methods have to be employed [14] [15]. In the metastatic phase, the patient usually exhibits symptoms when the tumors size affects the urethra or the cancer spreads to other tissue, often the bones [16].
The high prevalence of this disease marks the importance of further research into prognosis and diagnosis methods, whereby identification of further biomarkers in PCa poses a major topic of scientific analysis. For this task, the effectiveness of high-throughput RNA sequencing of the transcriptome (RNA molecules of an organism or specific cell type) is frequently exploited [66]. RNA sequencing or RNA-Seq in short, offers the possibility of transcriptome assessment, enabling the identification of transcriptional aberrations in diseases as well as uncharacterized RNA species such as non-coding RNAs (ncRNAs) which remain undetected by conventional methods [49]. To alleviate interpretation of the sequenced reads they are assembled to reconstruct the transcriptome as close to the original state as possible, thus enabling rapid detection of relevant biomolecules in the data [49]. Transcriptomic studies often require highly accurate and complete gene annotations on the reference genome of the examined organism. However, most gene annotations and reference genomes are far from complete, containing a multitude of unidentified protein-coding and non-coding genes and transcripts. Therefore, refinement of reference genomes and annotations by inclusion of novel sequences, discovered in high quality transcriptome assemblies, is necessary [24].
In dieser Arbeit wird ein Versuch zur Erfassung der Aufmerksamkeit und des Gedächtnisses im Zusammenhang mit traditioneller Kunst durchgeführt. Anhand digital veränderter Werke soll erforscht werden, ob Probanden etwaige Modifikationen an bekannten Gemälden wahrnehmen. Anhand wissenschaftlicher Daten werden die per Umfrage erhaltenen Ergebnisse analysiert und ausgewertet.
Es wurde die Auswirkung des Insektizids Dimethoat auf die Hornmilbe Oppia nitens untersucht. Dazu wurden zwei Labortests nach der ISO-Richtlinie 23266:2020-06 durchgeführt. Die Auswertung der Tests bezog sich auf die Untersuchung der Mortalität und der Reproduktion der Testorganismen bei unterschiedlichen Konzentrationen an Dimethoat. Die Ergebnisse, die in diesen Tests gewonnen wurden, wurden mit den Ergebnissen des Referenztestes an Hypoaspis aculeifer verglichen. Diese Ergebnisse wurden im Praxismodul „Zucht von Oppia nitens und Testsystem mit Hypoaspis aculeifer“, die 2021 eingereicht wurde, gewonnen.
Glycans play an important role in the intracellular interactions of pathogenic bacteria. Pathogenic bacteria possess binding proteins capable of recognizing certain sugar motifs on other cells, which are found in glycan structures. Artificial carbohydrate synthesis allows scientists to recreate those sugar motifs in a rational, precise, and pure form. However, due to the high specificity of sugar-binding proteins, known as lectins, to glycan structures, methods for identifying suitable binding agents need to be developed. To tackle this hurdle, the Fraunhofer Institute for Cell Therapy and Immunology (Fraunhofer IZI) and the Max-Planck Institute of Colloids and Interfaces (MPIKG) developed a binding assay for the high throughput testing of sugar motifs that are presented on modular scaffolds formed by the assembly of four DNA strands into simple, branched DNA nanostructures. The first generation of this assay was used in combination with bacteria that express a fluorescent protein as a proof-of-concept. Here, the assay was optimized to be used with bacteria not possessing a marker gene for a fluorescent protein by staining their genomic DNA with SYBR® Green. For the binding assay, DNA nanostructures were combined with artificially synthesized mannose polymers, typical targets for many lectins on the surface of bacteria, presenting them in a defined constellation to bind bacteria strongly due to multivalent cooperativity. The testing of multiple mannose polymers identified monomeric mannose with a 5’-carbon linker and 1,2-linked dimeric mannose with linker as the best binding candidates for E. coli, presumably due to binding with the FimH protein on the surface. Despite similarities between the FimH proteins of E. coli and K. pneumoniae, binding was only observed between E. coli and the different sugar molecules on DNA structures. Furthermore, the degree of free movement seemed to affect the binding of mannose polymers to targeted proteins, since when utilizing a more flexible DNA nanostructure, an increase in binding could be observed. An alternative to the simple DNA nanostructures described above is the use of larger, more complex DNA origami structures consisting of several hundred strands. DNA origami structures are capable of carrying dozens of modifications at the same time. The results for the DNA origami structure showed a successful functionalization with up to 71 1,2-linked dimeric mannose with linker molecules. These results point towards a solution for the high-throughput analysis of potential binding agents for pathogenic bacteria e.g. as an alternative treatment for antibiotic-resistant.
Cryptorchidism is the most common disorder of sex development in dogs. It describes a failure of one or both testes to descend into the scrotum in due time. It is a heritable multifactorial disease. In this work, selected dogs of a german sheep poodle breed were sequenced with nanopore sequencing and subsequently examined for genetic variations correlating with cryptorchidism. The relationships of the studied dogs were also analyzed and visually processed.
BGP und OSPF sind zwei am häufigsten verwendete Routingprotokolle des Internets. Beide Protokolle sind in ihrem grundlegenden Aufbau über 20 Jahre alt. Da das Internet die Basis unseres Informationsaustausches ist und die Basis des Internets das Routing ist, sollten die verantwortlichen Routingprotokolle entsprechend sicher sein. Durch eine Sicherheitsanalyse der standardisierten RFCs soll eine grundlegende Einschätzung der beiden Protokolle vorgenommen werden. Dazu werden Aufbau, Funktionsweise, Schwachstellen und eine Auswahl möglicher Angriffe auf das jeweilige Protokoll näher erläutert. Sicherheitsmechanismen und ihr Nutzen in Bezug auf die Absicherung und Abwehr von Angriffen werden bewertet.
In dieser Arbeit wurde das SARS-CoV-2 Nukleokapsid-Protein sowie dessen N- und C-terminale Domäne kloniert und die darauf folgende Expression in E.coli und die Aufreinigung optimiert. Anschließend wurden die Proteine als Antigene für indirekte ELISAs verwendet. Die IgG-Antwort aus Seren von COVID-19 Patienten wurde bestimmt, um die Sensitivität und Spezifität hinsichtlich der Detektionsfähigkeit gegenüber den Varianten des N-Proteins zu vergleichen. Weiterhin wurde das Verhalten dieser Immunantworten über einen Zeitraum der akuten Infektion bis frühen Konvaleszenz mit einem Zeitraum von bis zu 10 Monaten nach Symptombeginn bei verschiedenen klinischen Schweregraden untersucht.
Priming in Videospielen
(2021)
Diese Arbeit untersucht die Spielertypen Achiever und Explorer nach Bartle (1996) und ihre Reaktionen auf zeitinduzierten, psychischen Druck. Dazu wurde ein zweistufiges Experiment durchgeführt, in dem die 7 Probanden Irrgärten durchlaufen. Im ersten Irrgarten erfolgt zunächst eine Klassifizierung der beiden Spielertypen: Je nach Entscheidungsmuster innerhalb eines Irrgartens, werden die Probanden in Achiever und Explorer eingeteilt. Darauf aufbauend durchqueren die Spieler einen zweiten Irrgarten, der sich vom ersten unterscheidet, aber ähnliche Voraussetzungen bietet. Hierbei wird durch eine Uhr, die die verbrachte Zeit im Irrgarten misst, Zeitdruck induziert. Die Ergebnisse zeigen, dass diese intrinsische Motivation dazu führen kann, dass sich die Verhaltensweise der zuvor als Explorer idendifizieren Probanden, an die äußeren Umstände anpassen und sie ihr Spielverhalten ändern.
In der vorliegenden Arbeit werden neue Pulver als Alternative für das Rußpulver hergestellt, geprüft und bewertet. Ziel ist es ein für den Anwender gesünderes, kostengünstiges und einfach erhältliches Pulver zu entwickeln. Hierfür wurden unterschiedliche Alltagsmaterialien verwendet. Die dafür angewendeten Grundlagen und Methoden werden erklärt und evaluiert.
Assessment of COI and 16S for insect species identification ti determine the diet of city bats
(2023)
Despite the numerous benefits of urbanization to human living conditions, urbanization has also negatively affected humans, their environment, and other organisms that share urban habitats with humans. Undoubtedly adverse while some wild animals avoid living in urban areas, others are more tolerant or prefer life in urban habitats. There are more than 1,400 species of bats in the world.
Therefore, they have the potential to contribute significantly to the mammalian biodiversity in urban areas. Insectivorous bats species play a key role in agriculture by improving yields and reducing chemical pesticide costs. Using metabarcoding, it is possible to determine the prey consumed by these noctule mammals based on the DNA fragments in their fecal pellets. This study
aimed to evaluate COI and 16S metabarcodes for insect species identification to determine the diet of metropolitan bats. For this purpose, COI and 16S metabarcodes were extracted, amplified, and sequenced from 65 bat feces collected in the Berlin metropolitan areas. Following a taxonomic annotation, I found that 73% of all identified insects could only be detected using the COI method, while 15% could be recovered using the 16S approach. Just 12% of all detected insects were identified simultaneously by both markers. According to this result, COI is more suitable for the taxonomic identification of insects from bat feces. However, given the bias of COI primers, it is recommended to use both markers for a more precise estimation of species diversity. Additionally,based on the insect species identified, I noticed that urban bats fed mainly on Diptera, Coleoptera,and Lepidoptera. The bat species Nyctalus noctula was most abundant in the samples. His diet analysis revealed that 91% of the samples contained the insect species Chironomus plumosus. 14 pest insect species were also found in his diet.
Das Ziel der vorliegenden Masterarbeit war es, die entstehenden Auswirkungen auf die Entscheidungsfindung durch die Transferierung von dilemmatischen Gedankenexperimenten auf die virtuelle Realität zu untersuchen. Studien zeigen, dass die Immersion in virtuelle Welten mittels Head-Mounted-Displays deutlich höher ist, als bei der Nutzung von Computerbildschirmen. Dadurch lassen sich neue Anwendungen in der Experimentalpsychologie ableiten. Anhand der Daten aus bereits bekannten Variationen des Trolley-Dilemmas werden die hier gewonnenen Ergebnisse verglichen. Dazu wurden im Rahmen einer qualitativen, empirischen Forschung mit 33 Probanden eine praktische und ethisch begutachtete Simulation mit zugehörigen psychologischen Fragebögen und direkt an die Simulation anschließende Fragebögen zum Immersionsgrad durchgeführt. Im Rahmen der qualitativen Inhaltsanalyse konnten Erkenntnisse in den folgenden Bereichen gewonnen werden: Entscheidungsfindung in VR-Trolley-Dilemmata unter Einsatz eines persönlichen Dilemmas, Immersion in zeitlich begrenzten Simulationen und Herausforderungen im Ablauf von VR-Simulationen. Die Veränderung der kontextuellen Bedeutung bei der Präsentation von Dilemmas und Trilemmas führte zu Unterschieden der Befürwortung des utilitaristischen Prinzips im Vergleich zu Onlinebefragungen.
In the field of satellites it is common practice to combine multiple ground stations into one network, to increase communication times with satellites. This work focuses on TIM, which is an international academic colaborative project. Important criteria for this project are elaborated and used to evaluate existing ground station networks. It concludes that there is no appropriate solution availiable for this specific use case and establish a proposed solution. The proposed ground station network software will be elaborated and evaluated.
Diese Arbeit beschäftigt sich mit der Altersbestimmung der forensisch relevanten Schmeißfliegenart Lucilia sericata anhand der Augenfärbung während der Puppenentwicklung. Das Puppenstadium macht ca. 50 % der Gesamtentwicklung vom Ei bis zur Fliege aus, eine geeignete Methode zur differenzierten Altersbestimmung von Puppen findet derzeit allerdings noch keine Anwendung. Durch vorangegangene Studien zur Puppenentwicklung ist die Augenfärbung zunehmend als Merkmal aufgefallen, sodass in dieser Arbeit untersucht werden soll, ob anhand der Augenfärbung eine Altersbestimmung möglich ist und ob diese in Zukunft als Marker eingesetzt werden kann. Hierfür wurde die Färbung mithilfe des RGB-Farbmodells analysiert. Die Augenfärbung von Lucilia sericata ändert sich über die komplette Metamorphose hinweg hoch signifikant (p<0,0001). Des Weiteren konnte die Färbung in drei Phasen unterteilt werden: larvale Färbung, Rotfärbung und Braunfärbung. Eine Altersbestimmung mithilfe der linearen Regression ist durch sprunghafte Farbänderungen derzeit noch nicht möglich.
Die folgende Arbeit vergleicht die Möglichkeiten zur Erstellung von prozeduralen Texturen in Substance Designer mit denen in Blender. Dafür werden in beiden Programmen abstrakte und natürliche Texturen praktisch erstellt. Anschließend werden die Erstellung und die daraus gewonnen Erkenntnisse ausgewertet. Anhand der Resultate wird bewertet, wie die beiden Programme zueinander eingeschätzt werden können.
In dieser Arbeit wird eine Vorgehensweise für die Erstellung von Grafiken zur Nachempfindung eines 2D Cartoon Looks mithilfe von 3D-Daten vorgestellt und evaluiert. Dafür werden vorerst essenzielle Definitionen in Bezug auf Stil geklärt, wichtige Stilelemente identifiziert, erläutert und in einer 3D-Umgebung praktisch umgesetzt. Es wird dabei eine tatsächliche Nachbildung von Spielelementen durchgeführt, um diese schlussendlich bewerten zu können.
Our current research aims to establish a complete ribonucleic acid (RNA) production line from plasmid design to purification of in vitro transcribed RNA and labeling of RNA. RNA is the central molecule within the central dogma of molecular biology and is involved in most essential processes within a cell[1]. In many cases, only compact three-dimensional structures of the respective RNA are able to fulfill their function. In this context, RNA tertiary contacts such as kissing loops and pseudoknots are essential to stabilize three-dimensional folding[2]. We will produce a tertiary contact consisting of a kissing loop and a GAAA tetraloop that occurs in eukaryotic ribosomal RNA[3,4]. The RNA sequence is integrated into a vector plasmid. Subsequently, the plasmid is amplified in E. coli. After following plasmid purification steps, the RNA sequence will be transcribed in vitro[5,6]. In order for the RNA be used for Förster resonance energy transfer (FRET) experiments at the single molecule level, fluorescent dyes must be coupled to the RNA molecule[7].
Empirischer Vergleich der Realitätsnähe verschiedener Algorithmen zur Simulation von Flüssigkeiten
(2021)
In dieser Bachelorarbeit werden die beiden FluidSimulation Solver SPH (Smoothed Particle Hydrodynamics) und PBD (Position Based Dynamics) unter dem Aspekt des Realismus miteinander verglichen. Im ersten Teil werden die theoretischen Grundlagen vermittelt, die für das Verhalten von Wasser verantwortlich sind. Dadurch wird dann eine Liste mit Kriterien erstellt, um die einzelnen Versuche zu bewerten. Schließlich werden sechs Versuche durchgeführt, welche durch jene Liste bewertet werden. Schlussendlich werden diese Ergebnisse zusammengefasst, und der Schluss gezogen, dass SPH mehr für eine realistische Wassersimulation geeignet ist.
Die vorliegende Arbeit beschäftigt sich mit den Fragen, welche Indikatoren für einer Kompromittierung (IoC) in Active Directory gefunden werden können, wo sich diese befinden und mit welchen Werkzeugen sie offline erfasst werden können. Das Ziel ist, diese Fragen mittels einer Übersicht über die Indikatoren einer Kompromittierung und einer Übersicht über relevante Dateien für eine forensische Untersuchung zu beantworten.
Für die Erstellung der Übersichten wurden Angriffsmethoden auf Active Directory nach relevanten Ereignissen analysiert. Diese Ereignisse wurden in einer Testumgebung nachgestellt und anschließend offline mit den recherchierten Werkzeugen analysiert.
Durch die Ergebnisse der Arbeit konnte gezeigt werden, welche IoCs in Active Directory grundsätzlich existieren können, wo sich diese befinden und mit welchen Werkzeugen die Indikatoren offline erhoben werden. Es wird ebenfalls ersichtlich, welche Indikatoren nicht erhoben werden können und warum dies so ist.
Der Grund für die eingeschränkte Offline-Erhebung von gewissen IoCs ist das Fehlen von Werkzeugen, die bestimmte Informationen aus der Datenbank offline extrahieren können.
Aufbauend auf der CRISPR-FISH Methode, welche basierend auf dem CRISPRCas9-System die Detektion spezifischer DNA-Sequenzen mittels Fluoreszenzmikroskopie ermöglicht, wird in dieser Arbeit versucht, eine weiterführende Methode zu entwickeln, um die Detektion spezifischer DNA-Sequenzen mithilfe eines Transmissionselektronenmikroskops und somit eine höhere Auflösung zu erreichen.
Recently a deep neural network architecture designed to work on graph- structured data have been capturing notice as well as getting implemented in various domains and application. However, learning representation (feature embedding) from graphical data picking pace in research and constructing graph(s) from dataset remains a challenge. The ability to map the data to lower dimensions further makes the task easier while providing comfort in applying many operations. Graph neural network (GNN) is one of the novel neural network models that is catching attention as it is outperforming in various applications like recommender systems, social networks, chemical synthesis, and many more. This thesis discusses a unique approach for a fundamental task on graphs; node classification. The feature embedding for a node is aggregated by applying a Recurrent neural network (RNN), then a GNN model is trained to classify a node with the help of aggregated features and Q learning supports in optimizing the shape of neural networks. This thesis starts with the working principles of the Feedforward neural network, recurrent units like simple RNN, Long short-term memory (LSTM), and Gated recurrent unit (GRU), followed by concepts of Reinforcement learning (RL) and the Q learning algorithm. An overview of the fundamentals of graphs, followed by the GNN architecture and workflow, is discussed subsequently. Some basic GNN models are discussed in brief later before it approaches the technical implementation details, the output of the model, and a comparison with a few other models such as GraphSage and Graph attention network (GAN).
In vielen Einsatzbereichen sind digitale Nachbildungen realer Gebäude von großer Wichtigkeit. Die Erstellung dieser Nachbildungen erfordert bei älteren bzw. historischen Gebäuden allerdings meist erheblichen Vermessungs- und Nachbearbeitungsaufwand mit großem Personal- und Zeitbedarf. Häufig wurde ein Gebäude stilistisch an die jeweilige Zeit angepasst, sodass einzelne Zustände nur mit historischem Bildmaterial reproduzierbar sind.
Am Beispiel mehrerer ausgewählter, aktuell existierender Gebäude der Stadt Mittweida sind realitätsnahe, digitale und veränderbare Modelle mittels eines möglichst automatisierten Workflows erstellt.
Die äußere Erscheinung dieser Modelle kann mit dem entwickelten System automatisiert an andere Stile anpasst werden, welche durch z.B. historisches Bildmaterials von Gebäuden vorgegeben sind. Aufgrund der vielfältigen Einsatzbereiche und weiten Verbreitung finden hierfür Verfahren der Photogrammetrie für die Erstellung und neuronale Netze für die Stilanpassung Anwendung, welche auf handelsüblicher Hardware eingesetzt werden können. Eine Evaluierung erfolgte durch bildlichen Vergleich der stilangepassten Modelle mit dem zugehörigen Bildmaterial.
Ziel dieser Arbeit ist es, Cyberangriffe auf die verschiedenen Differenzierungs- und Klassifizierungsmöglichkeiten zu untersuchen. Dabei wird sich besonders mit Täterschäften, Tätermotivation und der Vorgehensweise bei Angriffen beschäftigt. Anschließend werden zehn im Zeitraum 2016 bis 2020 vorgefallene Cyberangriffe voneinander differenziert und in die beschriebenen Klassifikationen eingeordnet.
Das Testen von Software ist unabdingbar und wird nicht nur für Desktop Applikationen, sondern auch für Applikationen auf mobilen Geräten benötigt. Der Prozess des Testens ist aufwändig. Es gibt durch künstliche Intelligenz gestützte Lösungen, welche Systemtests zu großen Teilen eigenständig generieren und dem Entwickler das Testen erleichtern, zum Beispiel das AI4Test Projekt der Systems Multimedia Solutions GmbH.
Das Ziel dieser Bachelorarbeit besteht darin, das AI4Test Projekt zu analysieren und die bestehende Struktur so zu erweitern, dass iOS-Geräte neben Android und Desktop Geräten unterstützt werden. Dabei wird eine generalisierte Schnittstelle zur Interaktion mit Geräten geschaffen.
Das Ziel der Bachelorarbeit wird erreicht. Das AI4Test Projekt wird vorgestellt, die Schnittstelle generalisiert und die Plattform iOS wird prinzipiell unterstützt.
Soziale Medien ermöglichen den öffentlichen Austausch von Nachrichten im digitalen Raum. Viele Personen missbrauchen diese Plattformen jedoch für die Verbreitung von Hass. Die Bestimmung und die Prävention derartiger Kommentare stellt eine große Herausforderung dar. In dieser Arbeit werden Möglichkeiten zur Bestimmung und Prognose von Toxizität als Kennzahl
für die sentimentale Ausdrucksform des Hasses aufgezeigt. Nach der begründeten Auswahl der Perspective API als Werkzeug zur Bestimmung von Toxizität werden mit diesem Werkzeug über 600.000 deutschsprachigen Twitter-Kommentare aus dem Frühjahr 2021 annotiert. Die Annotation bildet die Grundlage für die Untersuchung der Ausbreitung toxischer deutscher Sprache.
Mit Methoden der intelligenten Datenanalyse werden im Datensatz Einflussfaktoren ermittelt, die das Absetzen eines toxischen Kommentars begünstigen. Die gefundenen Einflussfaktoren werden final dazu verwendet, um die Toxizität von Antworten, ohne ein Wissen über deren Inhalt,
mit Hilfe künstlicher Intelligenz zu prognostizieren.
Learning Vector Quantization ist ein Klassifikator, der in seiner Urform im euklidischen Raum lernt. Für Zeitreihendaten benötigt es ein gesondertes Distanzmaß, nicht nur wegen der Relation der Zeitpunkte untereinander, sondern auch wegen der unterschiedlichen Längen dieser Zeitreihendaten. Als solches Distanzmaß wird Dynamic Time Warping eingesetzt. Diese Arbeit untersucht die Implementierung und dessen Zeit- und Raumkomplexität.
In der vorliegenden Pilotstudie wurden Wangenschleimhautabstriche und Nagelproben von Patienten nach einer erfolgten hämatopoetischen Stammzelltransplantation auf einen gemischten Chimärismus untersucht. Dafür wurden STR- und SNP-Analysen mit den Referenzprobenmaterialien aus isolierter Stammzellspender- und Empfänger-DNA vor Transplantation und den nach Transplantation entnommenen Wangenschleimhautabstrichen und Nagelproben durchgeführt. Es wurden sieben Probanden untersucht, wovon sechs eine allogene Stammzelltransplantation erhalten haben und ein Proband eine autologe Stammzelltransplantation durchlaufen hatte. Bei allen Proben nach einer allogenen Stammzelltransplantation konnte im epidermalen Material anteilig das Mikrosatelliten- und SNP- Profil des Spenders in den DNA-Isolaten des Empfängers nachgewiesen werden. In den Wangenschleimhautabstrichen wurde stets eine gemischte Chimärismussituation festgestellt. Die Ergebnisse weisen einen detektierten Spenderanteil von 11 bis 39 % auf. In den Nagelproben konnte ein Anteil an Spender-DNA bis zu 44 % nachgewiesen werden. Die Analysen bestätigen die Existenz eines Spenderanteils in Nagelproben und Wangenepithel eines Stammzellempfängers nach allogener Transplantation. Weitere Studien sind notwendig, um zu untersuchen, welche Faktoren die Anzahl der vorhandenen Spenderzellen in dem epidermalen Gewebe bestimmen.
The games industry has significantly grown over the last 30 years. Projects are getting bigger and more expensive, making it essential to plan, structure and track them more efficiently.
The growth of projects has increased the administrative workload for producers, project managers and leads, as they have to monitor and control the progress of the project in order to keep a permanent overview of the project. This is often accompanied by a lack of insight into the project and basic communication within the team. Therefore, the goal of this thesis is to enhance conventional project management methods with process structures that occur frequently in game development.
This thesis initially elaborates on what project management in the game industry actually is: Here, methods are considered, especially agile methods and progress tracking prac-tices, which were created for software development and have become a standard in game development. Subsequently, an example is used to demonstrate how process management can function within the development of video games. Based on this, the ideal is depicted, which is implemented and used in a tool at the German games studio KING Art GmbH. This ideal is compared with expert interviews in order to verify its gen-eral validity in the industry.
By integrating process structures, the administrative effort can be reduced, communica-tion within game development can be simplified, while the current project status can be permanently presented. This benefits both project management and leads, as well as the entire team. Further application tests of this theory would have to be organized to check scalability and to draw comparisons to other applications.
Menschen hinterlassen bei jeder Berührung eines Gegenstandes Fingerabdrücke, durch die sie eindeutig identifiziert werden können, sofern die Qualität dieser aus-reichend ist. Geachtet wird dabei vor allem auf das Grundmuster und den Papillarleisten eines Fingerabdrucks, in denen sich individuell angeordnete Minuzien wiederfinden. Die Qualität dieser Spuren hängt nicht nur von der Person selbst ab, sondern wird u.a. auch durch äußere Gegebenheiten beeinflusst. In dieser Arbeit wird speziell auf den Einfluss filmischer Verunreinigungen auf daktyloskopischer Spuren eingegangen. Zum Einsatz kommen dabei sowohl feste, als auch flüssige Verunreinigungen, die für festgelegte Zeitintervalle auf die Fingerabdrücke einwirken. Die Qualität der verunreinigten Fingerspuren wird analysiert, im jeweiligen Kontext ausgewertet und kann dabei zukünftigen Arbeiten eine Grundlage bieten. Filmisch verunreinigte Fingerabdrücke können sich durchaus auch nach längerer Einwirkzeit sichern lassen, sofern die Sicherungsmethoden passend ausgewählt und angewendet werden.
Diese Diplomarbeit befasst sich mit der Evaluierung der Entwicklungsumgebung „MIT App Inventor 2“. Dazu wird eine Android-App, zur Visualisierung, Bewertung und Speicherung von Messwerten, welche von einem mobilen Sensorknoten eines Umgebungsscanner per Bluetooth Low Energy bereitgestellt werden, erstellt. Hauptziel ist die Bewertung von „MIT App Inventor 2“ im Hinblick auf die technischen Anforderungen und Installationsablauf der Entwicklungsumgebung, den Schwierigkeitsgrad des Entwicklungsprozesses der Android-App und das Änderungsmanagement bei Änderungen an der App. Außerdem wird die Funktionalität, mögliche Einschränkungen und der Ressourcenverbrauch der Entwicklungsumgebung bewertet.
Since its foundation as an application of algebra, coding theory is obtaining a day by day increasing importance. For instance, any communication system needs the concepts of coding theory to function efficiently. In this thesis, reader will find an introductory explanation to linear codes and binary hamming codes including some of the algebraic tools devised in their applications. All the described software applications are verified using SageMath 9.0 using Hochschule Mittweida’s JupyterHub.
Ziel dieser Arbeit ist es, Konzepte zur Steigerung der intrinsischen Motivation innerhalb der Lernsimulation Finanzmars zu erstellen und zu untersuchen. Zur Erstellung dieser Konzepte sollen potentiell motivationsfördernde Elemente aus dem Bereich der Gamification sowie aus E-Commerce-Geschäftsmodellen kombiniert und verwendet werden. Dabei sollen zwei Belohnungssysteme entwickelt werden, bestehend aus einerseits klassischen Belohnungen digitaler Spiele sowie andererseits aus Belohnungen mit zufälliger Gewinnausschüttung, sogenannten Lootboxen. Als Forschungsobjekt dieser Arbeit wird die Lernsimulation Finanzmars verwendet, in welche die zu erstellenden Konzepte integriert werden. Diese werden sodann in einer anschließenden Evaluation auf potentielle Motivationssteigerungen untersucht. Diesbezüglich gilt es, für jedes zu untersuchende Konzept eine eigene Spielversion von Finanzmars zu entwickeln. Eine Probandengruppe soll während der Evaluation diese Spielversionen testen, sodass ihre Spielerdaten entsprechend untersucht werden können. Um Abseits der Spielerdaten auch die Probandenmeinungen hinsichtlich ihrer Motivation evaluieren zu können, gilt es, darauffolgende Fragebögen zu konzipieren und diese von Probanden bearbeitet werden zu lassen.
Diese Arbeit thematisiert die Konzeption und Durchführung einer Studie, welche die inner- und interpersonellen Koordinationsmuster in Videospielen mit multipler Eingabe anhand eines lokalen Softwareprototypen untersucht. Im Rahmen dieses Projekts dient ein konzipierter Softwareprototyp mit einem angepassten Gamedesign auf Koordinationsherausforderung als Prototyp für die Studie mit einer Einzelspielergruppe und einer Multiplayergruppe. Die Koordinationsmuster werden in einer Studie durch einen Fragebogen und einen Probandentest mit drei Durchläufen der Level des Softwareprototypen ermittelt und analysiert. Die Ergebnisse zeigen, dass die interpersonellen Koordinationsmuster der Multiplayer nach dem ersten Durchlauf den innerpersonellen Koordinationsmustern unterlegen sind. Die Kommunikation als interpersonelles Koordinationsmuster scheint eine verlangsamende Wirkung im ersten Durchlauf zu besitzen. Beide Gruppen weisen Vermeidungsstrategien und Vereinfachungsstrategien der koordinatorischen Herausforderungen auf. Hinsichtlich der gesammelten Erfahrungen bezüglich der koordinatorischen Aufgaben zeigt sich über die Durchläufe hinweg eine Verbesserung, insbesondere beim Zeitaspekt sowie eine Annäherung der Werte beider Gruppen aneinander.
Die vorliegende Bachelorarbeit befasst sich mit der Rauheitsanalyse von Knochen auf Basis von Schräglichtaufnahmen. Die Schräglichtaufnahmen wurden mit Hilfe der Skelettbestände und dem Equipment der Hochschule Mittweida erstellt. Die entstanden Bilder wurden einer Hauptkomponentenanalyse unterzogen. Anhand der Ergebnisse wurden die Maxima und Wendepunkte jedes Knochens bestimmt und innerhalb eines Skeletts sowie über mehrere Zeitstellungen miteinander verglichen. Es wurden zwei Skelette aus dem Gräberfeld Görzig, zwei Skelette aus dem Gräberfeld Rödelheim und elf rezente Knochen untersucht. Die Zeitstellungen teilten sich in ca. 300 n. Chr., das Jahr 1813 und die 1980er Jahre. Die Erkenntnisse aus dieser Arbeit können die Rauheitsanalyse und Altersschätzung vereinfachen und digitalisieren.
Diese Arbeit beschreibt eine Anwendung zur Extraktion und Verarbeitung von Ereignisprotokollen unter Microsoft Windows. Sie erfasst hierfür die Konzeption, den Aufbau sowie deren Funktionsweise und geht dabei auch auf die entwickelten Werkzeuge der Anwendung ein. Zielsetzung war die Bereitstellung wenig verbreiteter Werkzeuge für die Ereignisprotokollanalyse, wobei besonderes Augenmerk auf eine Nutzung im Kontext von Incident-Response-Fällen gelegt wurde.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Erstellung eines Audiodatensatzes zur sequentiellen Lokalisierung von Manipulationen. Die Motivation sich mit diesem Thema zu beschäftigen, resultiert aus der geringen Menge an öffentlichen Datensätzen im Hinblick der Multimediamanipulation und der Wichtigkeit von Audio in der Forensik (Khan et al., 2018; Luge, 2017). Dabei werden zunächst die Grundlagen aus den Themenbereichen Audio, Datensatz sowie Manipulation dargestellt. Für die Erstellung des Datensatzes, wurde zunächst eine Vielzahl an Daten bereitgestellt, indem mittels einem Pythonskript, Videos, von YouTube heruntergeladen sowie die Audiospur getrennt und im mp4-Format gespeichert wurden. Weiterhin erfolgte auf der Datenmenge, der Prozess der Datenbereinigung sowie das Umbenennen der Audiodateien. Anschließend ereignet sich die Darlegung des Konzeptes und die theoretische Beschreibung der Manipulierung sowie die exemplarische Durchführung der Manipulation. Daraufhin erfolgt die theoretische Darlegung der Aufteilung des Datensatzes in Test- und Trainingsdaten. Die Ergebnisse spiegeln wider, dass das geschriebene Pythonskript funktioniert und nahezu keine Fehler während des Downloads entsteht. Weiterhin zeigen sie auf, dass die exemplarische Durchführung funktioniert. Allerdings benötigt es zum einen noch die Umsetzung des in der Theorie dargelegten Manipulationsschrittes und zum anderen, darauf aufbauend, etwaige Evaluierungsschritte.
Das Ziel dieser Arbeit ist es, einen Anforderungskatalog für Anbieter eines Cloudbackup- Servers unter Zero Trust Bedingungen zu erstellen. Dabei werden nicht nur die technischen Voraussetzungen beschrieben, sondern auch ein kur-zer Einblick in rechtlichen und organisatorischen Anforderungen gegeben, wobei das Hauptaugenmerk auf den Bestimmungen liegt, die in Deutschland und der EU gelten. Für die Erarbeitung werden dabei bereits existierende Anforderungs-kataloge und staatliche Veröffentlichungen verglichen und zusammengeführt. So wurde ein Anforderungskatalog erstellt, der alle Anforderungen enthält, die ein Cloudbackup- Server unter Zero Trust erfüllen muss. Der Katalog kann genutzt werden, um ein solches System umzusetzen.
Die hier vorliegende Arbeit beschäftigt sich mit den methodischen Abläufen des Kriminalitätsphänomens Caller ID Spoofing, dessen technische Hintergründe, sowie der Detektion und den sich daraus ergebenden Maßnahmen der Abwehr seitens der Betroffenen. Dabei soll im theoretischen Teil sowohl auf das Phänomen des Caller ID Spoofing an sich und dessen Einordnung in den Deliktbereich Cybercrime als auch auf die technischen Hintergründe bei der Verschleierung der eigenen Telefon-Identität eingegangen werden. Des Weiteren wird der Faktor Mensch als Schwachstelle von IT-Systemen beleuchtet. Der methodische Teil der Arbeit legt den Fokus auf die Entwicklung effektiver Lösungen zur Erkennung und Abwehr von Caller ID Spoofing, sowohl aus technischer als auch aus soziologischer Sicht. Während für ersteres bereits eine Vielzahl von wissenschaftlichen Ansätzen existieren, soll sich bei zweiteren auf den Begriff der Security Awareness konzentriert werden.
Diese Masterarbeit analysiert die Möglichkeiten der Auditierung von Künstlicher Intelligenz in der Theorie und der Praxis. Im Rahmen eines anwendungsnahen Szenarios wird mithilfe des Frameworks Avalanche ein kontinuierlich lernendes System konstruiert. Deren Gewichtswerte sowie die Änderung der Gewichte werden in einer Logdatei gespeichert. Der Verlauf der Änderungen sowie der entstehende Speicherbedarf bei variierender Hidden Layer-Zahl und Neuronenanzahl gibt Rückschlüsse über die Anwendbarkeit der betrachteten Methode. Diese Vorgehensweise ist alleinstehend nicht ausreichend für eine umfassende Auditierung, wodurch weiterführende Forschung notwendig ist.
As the cryptocurrency ecosystem rapidly grows, interoperability has become increasingly crucial, enabling assets and data to interact seamlessly across multiple chains. This work describes the concept and implementation of a trustless connection between the Bitcoin Lightning Network and EVM-compatible blockchains, allowing the transfer of assets between the two ecosystems. Establishing such a connection can significantly contribute to the growth of both ecosystems as they can benefit from each other’s advantages and emerge new pos- sibilities.
Aufgrund der steigenden Anzahl an Angriffen durch neue Malware Varianten ist es wichtig eine effektive Methode zu nutzen, um sich gegen diese Flut zu schützen. Diese von den Angreifern genutzte Malware muss identifiziert und analysiert werden, um die Systeme vor aktuelle und kommenden Angriffen schützen zu können. Für die Informationsextraktion stehen zwei grundlegende Ansätze zur Verfügung. Statische Analyse und die dynamische Analyse. Das Hauptaugenmerk liegt in dieser Arbeit auf der dynamischen Analyse. Diese wird genutzt um das Verhalten einer potentiell bösartigen Datei zu beobachten und anschließend auszuwerten, ob es sich um Malware handelt. Eine dafür häufig eingesetzte Methode ist die Sandbox. Bei dieser handelt es sich um eine isolierte Umgebung, in der eine Malware ausgeführt werden kann, ohne ein Risiko für das eigene System darzustellen. Bei der Nutzung eines Sandbox Systems wird ebenfalls von dem Begriff der automatisierten Malware Analyse gesprochen. Damit ist es möglich auch große Mengen von Malware Samples zu analysieren. Nach der Analyse wird neben der Bösartigkeit einer zu untersuchenden Datei, ebenfalls die gesammelte Daten über diese ausgegeben. Diese Arbeit vergleicht drei verschiedene Sandbox Systeme, um anschließend festhalten zu können, welches dieser Systeme die meisten Vorteile mit sich bringt. Bei diesen ausgewählten Sandbox Systemen handelt es sich um Cuckoo, Any.Run und Hybrid Analysis. Um eine Gegenüberstellung der Sanbox Systeme zu ermöglichen, wurden diverse Metriken verwendet. Zu diesen Metriken zählen unter anderem genutzte Anti-Evasion Techniken und die Möglichkeit einer URL Analyse. Nach umfassender Nutzung aller drei Sandbox Systeme, wurde eine Vergleichmatrix mit den bereits erwähnten Metriken erstellt. Anhand dieser konnten die Vor- und Nachteile der Sandbox Systeme gegeneinander abgewogen werden.
Vergleich von Grid Computing und Cloud Computing anhand Regeln und Ziele im IT-Governance Prozess
(2023)
Diese wissenschaftliche Arbeit leistet einen Beitrag zum Thema „Cloud-Computing“, welches unterschiedliche Möglichkeiten und Dienste bietet. Im Gegensatz dazu befasst sich dieser Forschungsbericht zusätzlich mit dem Konzept des Grid-Computing. Zu Beginn werden die IT-Governance-Regeln verglichen, die im Cloud- und Grid-Computing eines Unternehmens eine große Rolle spielen. Dabei werden zwei Varianten der der IT zur Verfügung stehenden Infrastrukturen für ausgewählte Dienste eingerichtet, welche den Regeln der IT-Governance folgen müssen. Die in dieser Arbeit ermittelten Informationen bieten einen guten Ausgangspunkt für die Umstellung der IT auf Cloud- bzw. Grid-Computing
Diese Masterarbeit zeigt einen Ansatz zur Vorhersage von Zugverspätungen mit Hilfe von Supervised Learning. Dazu werden Modelle mit verschiedenen Algorithmen getestet und miteinander verglichen. Außerdem wird gezeigt, wie das entwickelte Vorhersagemodell in eine Blockchain-Anwendung integriert werden kann.
Diese Arbeit untersucht die Integration einer dezentralen autonomen Organisation (DAO) in eine bestehende Lernplattform. Dabei werden mögliche Schnittpunkte zwischen den beiden Konzepten gesucht und deren Potenziale und Herausforderungen analysiert. Zunächst werden die theoretischen Grundlagen von Blockchain-Technologie, DAO und Lernplattformen vorgestellt. Darauf basierend werden die Prozesse auf einer Lernplattform auf eine mögliche Integration einer DAO untersucht. Besonderer Fokus liegt dabei auf den Prozessen Bezahlung und Bewertung. Es stellt sich heraus, dass der Reviewprozess zum einen mehr Überschneidungspunkte hat und zum anderen viele weitere Prozesse auf diesen aufbauen. Im Hauptteil der Arbeit wird daher ein Konzept für die Integration einer DAO im Bewertungsprozess entwickelt und erste Grundlagen für eine Umsetzung gelegt. Dabei werden verschiedene Ansätze, die sich auch aus den Fallstudien ergeben, betrachtet und verglichen, um den Anforderungen der Lernplattform und der Blockchain gerecht zu werden. Die Arbeit zeigt die Potenziale einer DAO in einer Lernplattform auf, wie bspw. transparenten Reviewprozess für neue Inhalte. Gleichzeitig werden mögliche Herausforderungen bei der Integration identifiziert und geeignete Lösungsansätze entwickelt. Ein Ausblick auf zukünftige Entwicklungen beinhaltet den Einsatz von Künstlicher Intelligenz bei der Entwicklung von Lerninhalten und die weitere Integration der DAO in die Lernplattform.
Nach der erfolgreichen Etablierung der durchflusszytometrischen Methode zum XIAP-Nachweis auf T-, B- und NK-Zellen innerhalb des Praxismoduls sollte diese validiert werden. Zur Validierung wurde ein Inter- und ein Intraassay durchgeführt. Für die anschließende Beurteilung der Präzision der Methode wurde jeweils der Variationskoeffizient der Messwerte berechnet, dieser sollte bei ± 20% liegen. Für die Gewinnung von Referenzwerten wurde von 21 gesunden Personen Blut abgenommen und dieses analysiert. Anschließend wurden die Messwerte mithilfe des Friedman- und des Wilcoxon-Tests statistisch ausgewertet.
Im Rahmen der Arbeit sollte ein Modell zur Evaluierung des diagnostischen Einsatzes von D-stereospezifischen Hydrolasen- und varianten generiert werden. Als Modell diente artifizielles Parvulin 10 mit einer substituierten D-Aminosäuren. Dadurch musste eine halbysnthetische Synthese mit Fragmenten erfolgen. Das N-terminale Fragment (1-67), auch Thioester genannt, wurde aus E. coli an einer fusionierten Intein-Chitinbindedomäne exprimiert. Mithilfe einer Kombination aus Affinitätschromatographie und verändertem Proteinspleißens konnte das Fragment an einer Chitinsäule zu einem Thioester umgebaut werden. Die erfolgreiche Expression und der Umbau mittels Proteinspleißens konnten dabei per SDS-Page erfolgreich nachgewiesen werden. In den C¬-terminalen Fragmenten (68-92), auch Peptide (Pf, Py, Pv) genannt, wurde jeweils eine L-Aminosäure per SPPS in eine D-Aminosäure substituiert. Diese Substitution ist für die Validierung der DHys erforderlich. Die Rohprodukte der SPPS konnten erfolgreich mittels präparativer HPLC gereinigt werden. Der Nachweis erfolgte mittels UPLC-MS. Durch eine anschließende initiale Hydrolysestudie der Peptide wurde die generelle Substratzugänglichkeit für die DHys belegt. Die Auswertung erfolgte per UPLC-MS. Nachfolgend wurden beide Substrate mittels natürlich chemischer Ligation verknüpft um Parvulin-Derivate zu erhalten. Die Überprüfung erfolgte per SDS-Pages. Die Hydrolyse des Thioesters begrenzte die Ausbeute sehr stark. Die höchste Ausbeute zeigten Ansätze mit Peptid-Thioester-Verhältnis von 1:3, Thiophenol und der Zugabe von DMSO als Lösungsmittel. Es wurde kein quantitativer Umsatz erreicht. Deshalb war eine Reinigung des Ansatzes nötig. Diese erfolgte Aufgrund verschiedener physikalisch-chemischen Eigenschaften der Reaktanten, Molekulargewichten, polarer Wechselwirkungen und Hydrophobizitäten. Die Auswertung der Reinigungen erfolgte per SDS-Pages. Trennungen nach Hydrophobizität erwies sich am erfolgreichsten. Von dem gereinigten Parvulin-Derivat wurde die Aktivität mittels etabliertem Assay überprüft. Es konnte die Generierung von aktivem artifiziellen Parvulin bestätigt werden. Das Modellprotein konnte erfolgreich dargestellt werden und steht für eine weiterführende Untersuchung zur Validierung mit D-stereospezifischen Hydrolasen zur Verfügung.
Weltweit sind oberflächliche Pilzinfektionen weit verbreitet. Diese äußern sich in Rötungen, Schuppungen und Juckreiz und sind belastend für jeden Betroffenen. In dieser Arbeit werden Pilzproben aus Bangladesch untersucht, um diese auf molekularer Ebene zu identifizieren. Dazu wurden Methoden, wie Kultivierung und Sequenzierung angewandt. Weiterhin wurden alle Kulturen auf Antimykotika getestet, um bei möglichen Resistenzen eine patientenspezifische Behandlung ermöglichen zu können. Darüber hinaus wurde ermittelt, durch welche genetischen Änderungen die Resistenzen verursacht werden. Dies erfolgte durch die Sequenzierung bestimmter Gene der Dermatophyten-DNA.
Diese Diplomarbeit zeigt zu Beginn die Risiken, die moderne Angriffe auf ein Produktionsnetzwerk darstellen, in mehreren Facetten auf. Um diesen möglichen Schaden für Unternehmen abzuwenden, wird eine mögliche Lösung vorgestellt, die diese Angriffe, die trotz bereits vorhandener Sicherheitsmaßnahmen erfolgreich sein können, erkennen kann. Diese Lösung wird planmäßig durch die Einbindung in die Infrastruktur eines Produktionsnetzwerkes umgesetzt. Um die volle Funktionalität sicherstellen zu können, wird die Lösung auch in einem separatem Testnetzwerk durch Powershell-Scripte und Pentesting-Tools, die in Kali Linux gebündelt sind, überprüft. Dies soll dem Schutz der vorhandenen, teils überholten Infrastruktur in der Produktion dienen, die durch ihr teilweise hohes Alter durch dieses Pentesting ausfallen könnten. Abschließend werden die ermittelten Ergebnisse bewertet. Ein Fazit über die Möglichkeiten der Optimierung sowie ein Ausblick in eine mögliche Zukunft runden diese Diplomarbeit ab.
Seit einigen Jahren erzielt die CAR-T-Zell-Therapie beeindruckende Therapieerfolge. Trotzdem kommt es vor, dass Patienten auf die Behandlung kaum oder überhaupt nicht ansprechen. Aktuell ist jedoch noch nicht bekannt, von welchen Patientenmerkmalen eine erfolgreiche CAR-T-Zell-Therapie abhängig ist. Deshalb wird in dieser Arbeit mit Hilfe verschiedener Methoden untersucht, wie sich die CAR-T-Zellen eines Patienten gegenüber einer Zielzelllinie (Raji), die den Krebszellen im Patienten entspricht, verhalten. Darüber hinaus finden Untersuchungen in Vorbereitung auf Transkriptom-Analysen der CAR-T-Zellen statt. Hierbei soll der Aktivierunsgzustand des CARs nach einer Separation der CAR-T-Zellen von den Rajis über CAR-spezifische Nachweisreagenzien von Miltenyi bzw. ACRObiosystems und magnetische Beads überprüft werden.
In this work, a transgenic zebrafish line that expresses the fluorophore dsRed under the endogenous zebrafish cochlin promotor is supposed to be established, using the CRISPR/Cas9 system. dsRed was cloned into a pBluescript vector, followed by the cloning of the cochlin locus into this vector. This bait construct was then supposed to be micro injected into wild type AB zebrafish embryos. The micro injection of Cas9 mRNA, single guide RNA and a bait construct was practiced with the tyrosinase gene, which was disrupted using CRISPR/Cas9.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer Testumgebung für das Fuzzing eines HTTP-Relay einer Firewall. Das Hauptziel ist aber die Entwicklung der sich in der Testumgebung befindenden Testcases, welche die Firewall durch Fuzzing prüfen. Dieser Vorgang soll als Black-box Testing Ansatz konzipiert werden und das Fuzzing der Firewall über das Netzwerk berücksichtigen. Dafür soll ein bereits existierender Fuzzer verwendet werden, welcher als Framework von den Testcases verwendet und instrumentiert wird. Zusätzlich soll während der Durchführung Logfiles verfasst und anschließend ausgewertet werden, um Aufschluss über die Ergebnisse zu erhalten.
Ziel dieser Arbeit ist die Entwicklung eines Modells, das über einen mehrstufigen Angriffsprozess das Passwort eines spezifischen Benutzers unabhängig von der Stärke des Passworts rekonstruiert. Der Fokus des Modells liegt auf dem benutzerspezifischen Angriff und dessen Präprozessor. Dieser soll unter Berücksichtigung der bisherigen Design- und Konstruktionsprinzipien des Benutzers sowie unter Einbeziehung seiner persönlichen Informationen die wahrscheinlichsten Passwort-Kandidaten generieren.
In dieser Bachelorarbeit wird ein Überblick über die Management- und Orchestrierungskomponente eines 5G Mobilfunknetzes sowie dafür relevante, zugrundeliegende Konzepte gegeben. Die Sicherheitsrelevanz des MANO-Systems wird anhand der Ergebnisse einer Risikoanalyse eingeordnet. Die daraus abgeleiteten Sicherheitsvoraussetzungen werden mit bereits bestehenden Zertifizierungs-Tests verglichen und somit herausgearbeitet, für welche Sicherheitsaspekte zukünftig ein MANO-spezifischer Zertifizierungstest erstellt werden muss. Um die Arbeit abzuschließen, wird ein beispielhafter Test-Entwurf vorgestellt, mit
welchem sich eine der noch offenen Sicherheitsvoraussetzungen überprüfen lassen könnte.
Diese Arbeit untersucht die Ovarienentwicklung der forensisch relevanten Schmeißfliegenart Calliphora vicina bei differierender Proteinverfügbarkeit. Ein besonderes Augen- merk wird dabei auf das Vorhandensein von frühentwickelten Eiern gelegt, da diese bei der Bestimmung des postmortalen Intervalls zu Verschiebungen führen können. Obwohl dieses Phänomen bereits 1986 das erste Mal beschrieben wurde, gibt es bisher nur wenig Forschung dazu. Daher wird in dieser Arbeit untersucht, ab welcher Proteinverfügbarkeit es zu frühreifen Eiern kommt. Hierfür wurden die Entwicklung der Ovarien von frisch geschlüpfter Calliphora vicina über einen Zeitraum von 16 Tagen bei verschiedenen Verfügbarkeiten der Proteinquellen Rinderleber und Milchpulver beobachtet. Es konnte festgestellt werden, dass bei einer längeren Verfügbarkeit von Protein die Ovarien schneller das letzte Stadium der Entwicklung erreichten und folglich eher frühreife Eier entstanden.
Diese Masterarbeit prüft forensische Ansätze zur Analyse von Mesh-Netzwerken am Beispiel eines Meshtastic®-Netzes. Hierzu wurden Daten des Funknetzwerkes extern, sowie durch Aufzeichnung des internen Nachrichtenverkehrs erhoben. Mit diesen Daten konnte die Existenz des Netzwerkes nachgewiesen, dessen Teilnehmer identifiziert, sowie deren geographische Positionen offengelegt werden. Darüber hinaus konnte die Netzwerkstruktur partiell rekonstruiert und der Nachrichteninhalt protokolliert werden. Schließlich konnten Maßnahmen identifiziert werden, sich einer Analyse zu entziehen, was einerseits Perspektiven der Sicherheitsintensivierung offenbart und andererseits fortführende forensische Untersuchungen bedingt.
Die vorliegende Arbeit beschäftigt sich mit der Betrachtung und Analyse der Bedrohungslage durch Cybercrime in Deutschland im Jahr 2021. Dafür werden verschiedene Berichte und Studien untersucht und anschließend miteinander verglichen. Außerdem sollen daraus abgeleitet Aussagen zur inhaltlichen Gestaltung von Awareness-Schulungen getroffen werden. Dafür werden verschiedene Angebote betrachtet und einander gegenüber gestellt. Der anschließende Vergleich dieser beiden Themenschwerpunkte soll Empfehlungen für eine optimale Gestaltung von Mitarbeitersensibilisierung liefern. Insgesamt sind eindeutige Aussagen zu einzelnen Angriffsarten im Cybercrime-Bereich schwierig, weshalb nur bedingt Empfehlungen für Awareness-Schulungen gegeben werden können. Die Vielfältigkeit aktuell angebotener Schulungen bietet geeignete Möglichkeiten zur Mitarbeitersensibilisierung.
In dieser Arbeit werden die algorithmischen Grundlagen der Machine Learning Verfahren LVQ1 und LVQ3 erläutert. Für LVQ3 werden mehrere Ansätze zur Anpassung der Lernrate betrachtet, die anschließend verglichen werden sollen. Dazu werden vier verschiedene Experimente durchgeführt, wobei zwei Datensätze Verwendung finden, deren Ursprung in medizinischen Bilddaten liegt.
In dieser Arbeit werden das Parameterbasierte Verfahren StyleFlow und das semantische System StyleClip untersucht um das StyleGan zu kontrollieren. Dabei sollen die gewählten Attribute bestmöglich editiert werden und sich dabei möglichst wenig gegenseitig beeinflussen. Zusätzlich Experimente auf realen Daten zeigen, dass durch die Invertierung in den Raum des StyleGan Fehler in den Attributen auftreten und bei der Editierung vermehrt Artefakte auftreten. In weiteren Untersuchungen werden die beiden Systeme genutzt, um zum einem Veränderungen entsprechend dem realen Verhalten durchzuführen und zum anderem eine Attributverteilung von Identitäten auf eine andere zu Übertragen. Dabei wird auch die Bildqualität allgemein und für eine Gesichtserkennung untersucht. Mit den untersuchten Systemen sind diese Operationen zu einem gewissen Maß möglich, dabei fällt die Bewertung aufgrund relativer Metriken schwierig.
This thesis investigates the efficacy of four machine learning algorithms, namely linear regression, decision tree, random forest and neural network in the task of lead scoring. Specifically, the study evaluates the performance of these algorithms using datasets without sampling and with random under-sampling and over-sampling using SMOTE. The performance of each algorithm is measure using various performance metrics, including accuracy, AUC-ROC, specificity, sensitivity, precision, recall, F1 score, and G-mean. The results indicate that models trained on the dataset without sampling achieved higher accuracy than those trained on the dataset with either random under-sampling or random over-sampling using SMOTE. However, the neural network demonstrated remarkable results on each dataset compared to the other algorithms. These findings provide valuable insights into the effectiveness of machine learning algorithms for lead scoring tasks, particularly when using different sampling techniques. The findings of this study can aid lead management practices in selecting the most suitable algorithm and sampling technique for their needs. Furthermore, the study contributes to the literature by providing a comprehensive evaluation of the performance of machine learning algorithms for lead scoring tasks. This thesis has practical implications for businesses looking to improve their lead management practices, and future research could extend the analysis to other machine learning algorithms or more extensive datasets.
Die vorliegende Bachelorarbeit vergleicht die zwei Honeypotsysteme T-Pot und Modern Honey Network miteinander. Hierfür zeigen Angriffsszenarien gegen die Honeypotsysteme, wie Angreifer diese wahrnehmen würden und wie die Honeypots die Angriffe protokollieren. Die ersten Kapitel dienen als Einführung in die Thematik der Honeypots und erläutern die Problemstellung und Vorgehensweise. Kapitel 4 und 5 beleuchten den Entwurf und die Durchführung der Angriffsszenarien. In Kapitel 7 wird der Vergleich anhand selbst aufgestellter Kriterien durchgeführt. Das Honeypotsystem T-Pot hat in diesem Vergleich knapp besser abgeschnitten. Jedoch lässt sich Schlussfolgern, das je nach individuellen Zielen und Einsatzzwecken beide Honeypotsysteme mit ihren Stärken überzeugen können.
This bachelor thesis aims for the creation of an add on to the open source software Blender, wich is capable of making a procedural texture, that resebles human skin. Its purpose lies in aiding the process of facial reconstruction in the forensic field.
The beginning covers the importance of facial reconstruction and its general workings. It is followed by the scientific backround of the human skin. The main part of the thesis covers the creation of the material and its integration into an add on. Finally its results are evaluated against photographs of real human skin. The Thesis concludes with a summary and speculatory look into the future.
Steganographie und Steganalyse : Untersuchung moderner Methoden, Werkzeuge und Angriffsvektoren
(2020)
Diese Abschlussarbeit befasst sich mit Steganographie und Steganalyse. Es werden allgemeine Einblicke in beide Bereiche und detailliertere Beschreibungen verschiedener Methoden und Algorithmen gegeben. Den Ausarbeitungen liegen zwei Testreihen zugrunde, in denen speziell erzeugt Steganogramme mit verschiedenen Programmen und Methoden analysiert werden. Es wird die Möglichkeit der Einordnung der Bilddateien in unauffällig und auffällige Dateien thematisiert und anhand der Testobjekte überprüft und ausgewertet. Des Weiteren erfolgt ein Vergleich verschiedener Steganalyseprogramme und die Auswirkungen unterschiedlicher Faktoren, wie zum Beispiel das Ausgabeformat der Steganogramme, auf die Steganalyse. Auch der Faktor der Verschlüsselung wird im Laufe der Arbeit thematisiert.
Es wurden 30 Futtermittel durch die Verwendung einer Protease aus Streptomyces griseus auf ihren Gehalt an Durchflussprotein untersucht. Durch die Behandlung mit Pepsin und Pankreatin wurde anschließend die Dünndarmverdaulichkeit des Durchflussproteins bestimmt. Die bestimmten Durchflussproteinwerte wurden in der Diskussion mit geschätzten
Durchflussproteinwerten aus der Rohproteinfraktionierung sowie aus dem erweiterten Hohenheimer Futterwerttests verglichen.
In der vorliegenden Bachelorarbeit wird anhand von den Vorgaben und veröffentlichen Dokumentationen des BSI eine Schablone für universitäre Einrichtungen erarbeitet, die als Musterlösung für die Implementierung des IT-Grundschutzes an einer Universität dienen soll. Als Beispiel wird dabei die Hochschule Mittweida und ihre infrastrukturellen und organisatorischen Gegebenheiten herangezogen. Diese konkreten Gegebenheiten sollen und müssen bei der Umsetzung des IT-Grundschutz-Profils an die Rahmenbedingungen der jeweiligen umsetzenden Institution angepasst werden. Es werden die einzelnen Schritte der Standard-Absicherung nach IT-Grundschutz durchgeführt und erläutert. Damit soll ein Schutzniveau gewährleistet werden, das dem normalen Schutzbedarf entspricht. Für Zielobjekte mit erhöhtem Schutzbedarf wird zusätzlich eine Risikoanalyse benötigt, die in der vorliegenden Arbeit ebenfalls beispielhaft dargestellt wird.
Das Ziel dieser Masterarbeit ist die Evaluierung des Realtime Multi-Person 2D Pose Estimation Frameworks OpenPose. Dazu wird die Forschungsfrage gestellt, bis zu welcher Pixelgröße ein Mensch allgemein von dem System mit einer Sicherheit von über 50% richtig detektiert und dargestellt wird. Um die Forschungsfrage zu beantworten ist eine Studie mit sieben Probanden durchgeführt wurden. Aus der Datenerhebung geht hervor, dass der gesuchte Confidence Value zwischen 110px und 150px Körpergröße in von Menschen digitalen Bildern erreicht wird.
Spektakuläre Überfälle, Luxusimmobilien, Sportwagen, Gewalttaten und Tumulte im öffentlichen Raum und darüber hinaus die dreiste Beanspruchung von Sozialleistungen: Dies ist das Bild, dass die Medien von den Clans zeichnen. Das Thema Clankriminalität bestimmt seit wenigen Jahren den politischen als auch medialen Diskurs in Deutschland und dabei ist das Phänomen kein Neues, sondern besteht seit mehreren Jahrzehnten. Von Polizeibehörden wurde das Problem gesehen und behandelt, während man in der Politik aufgrund der Angst vor Rassismus-Vorwürfen das Thema lange Zeit nicht weiter antastete. Zwischen diesen Debatten über Rassismus und Political Correctness schafft die Kriminalität Fakten. Neben Gewalt, Drohungen und Betrugsmaschen, die das gesamte Bundesgebiet betreffen, wird in den Familien eine Paralleljustiz gelebt und die deutsche Rechtsordnung nicht anerkannt. Für Außenstehende ist das Clangefüge und deren Organisationsstrukturen sowie Lebensweise nur schwer nachzuvollziehen, daher bedarf es einer genaueren Untersuchung dieses Kriminalitätsphänomens, insbesondere im Hinblick auf die Migrations- und Integrationsgeschichte, der hier in der Rede stehenden Familien. Diese Arbeit versucht die Thematik sachlich und objektiv zu behandeln und zu erklären, wie Clankriminalität überhaupt erst entstehen konnte, welche Fehler in der Integrationspolitik in der Vergangenheit gemacht wurden und welche Ansätze zur Bekämpfung der Clankriminalität ihre Anwendung finden.
Diese Arbeit behandelt die Herleitung und Verwendung eines alternativen Unähnlichkeitsmaßes im Neural - Gas - Algorithmus. Dabei werden zuerst ausgewählte Algorithmen vorgestellt und in das Feld der Vektorquantisierer eingeordnet. Anschließend wird die sogenannte Tangentenmetrik mathematisch motiviert und vermutete Vorteile gegenüber anderen Metriken anhand künstlich
erzeugten und real existierenden Beispielen experimentell untersucht. Weiterhin werden die Laufzeitkomplexität und beobachtete Limitierungen des neuen Algorithmus näher beleuchtet.
Konzeption und prototypische Implementierung eines Event-und Audio-Systems für eine Game Engine
(2021)
Genau wie jedes Auto zum Fahren einen Motor und jeder Mensch zum Leben ein
Herz benötigt, hat fast jedes Videospiel eine genauso essentielle Komponente - die Game Engine. Sie besteht aus weiteren vielen kleinen Teilen, deren Aufbau wohl überlegt sein sollte. Diese Arbeit hat es sich zum Ziel gemacht, die Konzeption zweier Komponenten für ein bereits vorhandenes System vorzunehmen. Dabei inbegriffen sind softwaretechnische Diagramme, Erweiterungen bekannter und existenter Systeme sowie vorausschauende Überlegungen. Die betreffende Engine wurde im Rahmen eines Projekts der Hochschule Mittweida entworfen. Das Ziel dabei war es, eine modulare und erweiterbare Architektur zu schaffen, an welche nun mit zwei konkreten Komponenten exemplarisch angeknüpft werden soll. Es werden Wissensgrundlagen geschaffen, Konzepte für ein Event- und Audio-Subsystem entworfen sowie diese teilweise umgesetzt. Ein Inbetriebnehmen sowie Testen beider Systeme wurde vorgenommen. Dadurch sind ehemalige Schwachstellen und Ansatzpunkte für die Weiterentwicklung ersichtlich.
In der folgenden Bachelorarbeit sollen die Bedingungen zur Herstellung von Fakefingerabdrücken, die mit einem Tintenstrahldrucker und einem Material aus Holz-leim und Glycerin hergestellt wurden verbessert werden. Grund dafür ist, dass es im vorangegangenen Praktikumsbeleg noch Mängel bei der Herstellung der Fakes gab. Außerdem sollen die idealen Bedingungen (Materialzusammensetzung und Bearbeitungsmethoden) herausgefunden werden, um Fakes dieser Art herzustellen. Außerdem soll ein neues Unterscheidungsmerkmal für die Erkennung von Fakefingerabdrücken untersucht werden, um in Zukunft die Unterscheidung zwischen Original und Fälschung zu verbessern.
Tauglichkeitsanalyse der Unity-internen Physik-Engine für forensische Tathergangs Simulationen
(2021)
In dieser Arbeit soll die Tauglichkeit der Unity internen Physik-Engine in Hinblick auf die Simulation forensischer Tathergänge. Nach dem Erörtern der theoretischen Grundlagen, wird dafür eine experimentelle Szene in Unity erstellt. Dabei handelt es sich um die Nachstellung einer Kollision zwischen Menschen und Fahrzeug. Erhaltene Ergebnisse werden anschließend analysiert und mittels
dieser ein Fazit zur These aufgestellt.
Das Ziel dieser Arbeit ist die Untersuchung der in Blender vorhandenen Tools zur Erstellung einer Fallsimulation mit einfachen Objekten und Menschmodellen. Nach einem kurzen Überblick über die Theorie werden verschiedene Kräfte in mehreren Testreihen untersucht und schlussendlich kombiniert. Diese Testreihen werden mit dem Programm Blender durchgeführt. Zusätzlich wurde eine Anleitung zur Erstellung einer Ragdoll in Blender 2.8 an-gefertigt.