Refine
Document Type
- Bachelor Thesis (687)
- Master's Thesis (173)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (54)
- Softwareentwicklung (52)
- Computersicherheit (45)
- Maschinelles Lernen (43)
- Videospiel (43)
- Computerspiel (23)
- Blockchain (22)
- Virtuelle Realität (17)
- Algorithmus (16)
- Programmierung (16)
Institute
- Angewandte Computer‐ und Biowissenschaften (916) (remove)
Die folgende Arbeit bezieht sich auf die Werke von Hermann Helbig und Dewald und Freiling. Es soll die Verbindung zwischen einem Objekt, definiert nach Helbig, und einer Spur im kriminalistischen Sinne aufzeigen. Es wird zudem eine neue Repräsentation des Weges einer Spur von dessen Sicherung hin zu der Assoziation mit dem Objekt, das die Spur verursacht hat, entwickelt. Ein Objekt als semantische Entität mit dessen Eigenschaften als Charakterisierung soll in einen Zusammenhang mit kriminalistischen Untersuchungen, wie Klassifizierung und Individualisierung, durch eine Ontologie gebracht werden. Beginnend mit physischen Spuren stellt sich die Frage, ob sich die Darstellung auch auf digitale Spuren übertragen lässt. Eine neue Grafik, die sowohl für physische als auch für digitale Suren funktioniert, soll erzielen werden.
In der vorliegenden Pilotstudie wurden Wangenschleimhautabstriche und Nagelproben von Patienten nach einer erfolgten hämatopoetischen Stammzelltransplantation auf einen gemischten Chimärismus untersucht. Dafür wurden STR- und SNP-Analysen mit den Referenzprobenmaterialien aus isolierter Stammzellspender- und Empfänger-DNA vor Transplantation und den nach Transplantation entnommenen Wangenschleimhautabstrichen und Nagelproben durchgeführt. Es wurden sieben Probanden untersucht, wovon sechs eine allogene Stammzelltransplantation erhalten haben und ein Proband eine autologe Stammzelltransplantation durchlaufen hatte. Bei allen Proben nach einer allogenen Stammzelltransplantation konnte im epidermalen Material anteilig das Mikrosatelliten- und SNP- Profil des Spenders in den DNA-Isolaten des Empfängers nachgewiesen werden. In den Wangenschleimhautabstrichen wurde stets eine gemischte Chimärismussituation festgestellt. Die Ergebnisse weisen einen detektierten Spenderanteil von 11 bis 39 % auf. In den Nagelproben konnte ein Anteil an Spender-DNA bis zu 44 % nachgewiesen werden. Die Analysen bestätigen die Existenz eines Spenderanteils in Nagelproben und Wangenepithel eines Stammzellempfängers nach allogener Transplantation. Weitere Studien sind notwendig, um zu untersuchen, welche Faktoren die Anzahl der vorhandenen Spenderzellen in dem epidermalen Gewebe bestimmen.
Es wurde die Auswirkung des Insektizids Dimethoat auf die Hornmilbe Oppia nitens untersucht. Dazu wurden zwei Labortests nach der ISO-Richtlinie 23266:2020-06 durchgeführt. Die Auswertung der Tests bezog sich auf die Untersuchung der Mortalität und der Reproduktion der Testorganismen bei unterschiedlichen Konzentrationen an Dimethoat. Die Ergebnisse, die in diesen Tests gewonnen wurden, wurden mit den Ergebnissen des Referenztestes an Hypoaspis aculeifer verglichen. Diese Ergebnisse wurden im Praxismodul „Zucht von Oppia nitens und Testsystem mit Hypoaspis aculeifer“, die 2021 eingereicht wurde, gewonnen.
Aufgrund der bedeutenden Fortschritte im Bereich der Hochdurchsatzsequenzierungstechnologien und folglich dem exponentiellen Wachstum biologischer Daten entstehen in der Bioinformatik Herausforderungen bei der Speicherung und Analyse großer Datenmengen. Die umfangreichen
Genotypisierungsdaten der Gerste, welche als Referenzdatensatz vorlagen, wurden am Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) durch Genotyping by Sequencing (GBS) erstellt. Zur effektiven Speicherung sowie Analyse dieser Daten wurden verschiedene Datenstrukturen erstellt und hinsichtlich Performance und Speicherbedarf evaluiert. Die Entwicklung verschiedener Java-Tools ermöglichte dabei das Einlesen, die Verarbeitung, sowie die Ausgabe dieser Daten zur effektiven Strukturierung und Analyse. Um die Anwendung dieser Java-Tools über Edge-Computing zu ermöglichen, wurde an der Erstellung von Datencontainern gearbeitet.
Diese Arbeit präsentiert einen forensischen Leitfaden zu Spezialverfahren der Datenrettung von Festplatten unter Nutzung des PC-3000 Express Systems. Die Grundlage bilden essentielle Informationen rund um eine Festplatte und die Bedienung des PC-3000 Express Systems. Anschließend wird ein in drei Teile gegliederter forensischer Leitfaden vorgestellt, der dem Leser mit jeder Unterteilung eine Konkretisierung auf das Thema Spezialverfahren der Datenrettung von Festplatten präsentieren soll. Auf der Grundlage des forensischen Leitfadens werden im Anschluss zwei Festplatten untersucht und mit Hilfe des PC-3000 Express Systems und kompatiblen Ersatzteilspendern erfolgreich gesichert. Ziel der Arbeit ist es, einen zukünftigen Benutzer in die Arbeit mit dem PC-3000 Express System einzuführen. Dabei soll der Arbeitsablauf bei der Untersuchung einer Festplatte fest an den Ablauf einer forensischen Untersuchung gebunden sein. So kann unabhängig vom forensischen Tätigkeitsfeld sichergestellt werden, dass ein Benutzer zukünftig auftretende Probleme von Festplatten effektiv und lösungsorientiert handhaben kann.
Zu wissen, wie alt eine Blutspur an einem Tatort ist, kann enorm bei der kriminalistischen Fallarbeit helfen. Daher beschäftigt sich die Wissenschaft mit der Frage nach der Bestimmung des Blutalters. Um diese Forschung zu unterstützen, wurden Derivate des Hämoglobins (Blutfarbstoff) hergestellt und spektroskopisch untersucht. Dabei wurden hauptsächlich Derivate gewählt, die bekannterweise bei der Alterung entstehen. Die entstandenen Spektren sollen beim Erstellen einer Datenbank helfen und somit den Kenntnisstand der aktuellen Forschung festigen und erweitern. Ebenfalls wurden chromatografische Daten analysiert, um die Struktur eines potentiellen Biomarkers für die Blutaltersbestimmung herauszubekommen bzw.
die Grundlage für weitere Experimente dazu zu legen.
Priming in Videospielen
(2021)
Die vorliegende Bachelorarbeit befasst sich mit dem Begriff Environmental Storytelling. Dabei war es das Ziel eine Definition für die Elemente in Environmental Storytelling aufzustellen und diese zu katalogisieren, sodass diese zukünftig in den Prozess des Level Designs einfließen können. Die Elemente wurden anhand einer kleinen Auswahl an Spielen exemplarisch getestet. Die Bachelorarbeit soll den Menschen helfen, die Narration in das Level Design einbringen wollen. Der Verfasser erhofft sich am Ende einen Katalog anzutreffenden Elementen erstellt zu haben.
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Community acquired pneumonia (CAP) is a very common, yet infectious and sometimes lethal disease. Therefor, this disease is connected to high costs of diagnosis and treatment. To actually reduce the costs for health care in this matter, diagnosis and treatment must get cheaper to conduct with no loss in predictive accuracy. One effective way in doing so would be the identification of easy detectable and highly specific transcriptomic markers, which would reduce the amount of work required for laboratory tests by possibly enhanced diagnosis capability.
Transcriptomic whole blood data, derived from the PROGRESS study was combined with several documented features like age, smoking status or the SOFA score. The analysis pipeline included processing by self organizing maps for dimensionality and noise reduction, as well as diffusion pseudotime (DPT). Pseudotime enabled modelling a disease run of CAP, where each sample represented a state/time in the modelled run. Both methods combined resulted in a proposed disease run of CAP, described by 1476 marker genes. The additional conduction of a geneset analysis also provided information about the immune related functions of these marker genes.
Möglichkeiten zur Aufnahme und Kategorisierung von
Knochenveränderungen und deren Interpretation
(2019)
Diese Bachelorarbeit befasst sich mit der Aufnahme, Kategorisierung und Interpretation von Knochen verändernden Merkmalen. Ziel ist es, eine möglichst einheitliche und allgemein verständliche Methode zu entwerfen, die der Aufnahme von knöchernen Veränderungen dient und worauf aufbauend Klassifikationen erfolgen können. Diese wiederum soll dahingehend überprüft werden, ob eine Feststellung der Ursache möglich ist.
Die vorliegende Arbeit befasst sich mit dem Cybercrime-Phänomen Phishing. Durch die Analyse von echten Delikten im Bereich des Phishings wird betrachtet, inwieweit das Phänomen durch das Strafgesetzbuch erfasst wird. Dafür wird sich an Paragrafen orientiert, die aus der Cybercrime-Konvention hervorgegangen sind, beziehungsweise durch diese geändert wurden und dem Bereich Cybercrime im engeren Sinn zugeordnet werden können. Neben einer Definition des Begriffes Cybercrime werden eine begriffliche Einordnung des Phänomens Phishing vorgenommen und die Grundzüge dieses aufgezeigt. Anschließend wird mithilfe der Delikte erörtert, welche Tatbestandsmerkmale der einzelnen Paragrafen sich bei den Delikten detektieren lassen und inwieweit die Begehungsweise Einfluss auf die detektierbaren Tatbestandsmerkmale hat. Bei der Erörterung wird auch auf den Begriff Daten eingegangen und welche Definition diesem innerhalb der betrachten Paragrafen zugrunde liegt.
An einem Tatort lassen sich verschiedene Arten von Spuren finden. Die Blutspuren zählen dabei zu den wichtigsten. Sie lassen sich auf unterschiedliche Art und Weise analysieren. Eine Möglichkeit ist die Untersuchung des Blutalters, um beispielsweise Hinweise über den Zeitraum einer Tat zu erlangen. Schon seit dem 20. Jahrhundert suchen Wissenschaftler nach einer geeigneten Methode zum Ermitteln des Alters einer Blutspur. Bisher ist das aber noch keinem gelungen. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Schweineblut über einen Zeitraum von sechs Wochen bei gleichbleibenden Umwelteinflüssen untersucht. Im Vordergrund steht hierbei die alterskorrelierende Veränderung der Blutzusammensetzung. Das Hauptaugenmerk liegt vor allem auf den Peaks der Hämoglobinderivate und des Globins. Bei der Auswertung der Ergebnisse wurde festgestellt, dass all diese charakteristischen Hochpunkte auch nach sechs Wochen noch weiter ansteigen und sich somit die Zusammensetzung des Blutes weiterhin verändert.
Differentiation is ubiquitous in the field of mathematics and especially in the field of Machine learning for calculations in gradient-based models. Calculating gradients might be complex and require handling multiple variables. Supervised Learning Vector Quantization models, which are used for classification tasks, also use the Stochastic Gradient Descent method for optimizing their cost functions. There are various methods to calculate these gradients or derivatives, namely Manual Differentiation, Numeric Differentiation, Symbolic Differentiation, and Automatic Differentiation. In this thesis, we evaluate each of the methods mentioned earlier for calculating derivatives and also compare the use of these methods for the variants of Generalized Learning Vector Quantization algorithms.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Erstellung eines Audiodatensatzes zur sequentiellen Lokalisierung von Manipulationen. Die Motivation sich mit diesem Thema zu beschäftigen, resultiert aus der geringen Menge an öffentlichen Datensätzen im Hinblick der Multimediamanipulation und der Wichtigkeit von Audio in der Forensik (Khan et al., 2018; Luge, 2017). Dabei werden zunächst die Grundlagen aus den Themenbereichen Audio, Datensatz sowie Manipulation dargestellt. Für die Erstellung des Datensatzes, wurde zunächst eine Vielzahl an Daten bereitgestellt, indem mittels einem Pythonskript, Videos, von YouTube heruntergeladen sowie die Audiospur getrennt und im mp4-Format gespeichert wurden. Weiterhin erfolgte auf der Datenmenge, der Prozess der Datenbereinigung sowie das Umbenennen der Audiodateien. Anschließend ereignet sich die Darlegung des Konzeptes und die theoretische Beschreibung der Manipulierung sowie die exemplarische Durchführung der Manipulation. Daraufhin erfolgt die theoretische Darlegung der Aufteilung des Datensatzes in Test- und Trainingsdaten. Die Ergebnisse spiegeln wider, dass das geschriebene Pythonskript funktioniert und nahezu keine Fehler während des Downloads entsteht. Weiterhin zeigen sie auf, dass die exemplarische Durchführung funktioniert. Allerdings benötigt es zum einen noch die Umsetzung des in der Theorie dargelegten Manipulationsschrittes und zum anderen, darauf aufbauend, etwaige Evaluierungsschritte.
Serielle Auswertung von Datensätzen einer Wildtierkamera mit dem Schwerpunkt Kennzeichendetektion
(2022)
Nummernschild- und Objektdetektion sind wichtige Bestandteile der Verkehrsüberwachung. Jedoch befassen sich die meisten Forschungsarbeiten zu diesen Themen mit der Detektion auf gut beleuchteten Bildern und nur wenige mit der Detektion auf sehr schlecht beleuchteten Aufnahmen. Diese Arbeit versucht, verschiedene Objektdetektionsalgorithmen auf schlecht beleuchteten Bildern zu vergleichen, sowie den Einfluss verschiedener einfacher Bildverbesserungsmethoden auf das Detektionsergebnis zu bewerten. Auf Grundlage dieser Ergebnisse wird anschließend eine Anwendung entwickelt, welche automatisiert Datensätze mehrerer Wildtierkameras auswertet, um diese zur einfacheren Verwendung zur Verfügung zu stellen.
Spektakuläre Überfälle, Luxusimmobilien, Sportwagen, Gewalttaten und Tumulte im öffentlichen Raum und darüber hinaus die dreiste Beanspruchung von Sozialleistungen: Dies ist das Bild, dass die Medien von den Clans zeichnen. Das Thema Clankriminalität bestimmt seit wenigen Jahren den politischen als auch medialen Diskurs in Deutschland und dabei ist das Phänomen kein Neues, sondern besteht seit mehreren Jahrzehnten. Von Polizeibehörden wurde das Problem gesehen und behandelt, während man in der Politik aufgrund der Angst vor Rassismus-Vorwürfen das Thema lange Zeit nicht weiter antastete. Zwischen diesen Debatten über Rassismus und Political Correctness schafft die Kriminalität Fakten. Neben Gewalt, Drohungen und Betrugsmaschen, die das gesamte Bundesgebiet betreffen, wird in den Familien eine Paralleljustiz gelebt und die deutsche Rechtsordnung nicht anerkannt. Für Außenstehende ist das Clangefüge und deren Organisationsstrukturen sowie Lebensweise nur schwer nachzuvollziehen, daher bedarf es einer genaueren Untersuchung dieses Kriminalitätsphänomens, insbesondere im Hinblick auf die Migrations- und Integrationsgeschichte, der hier in der Rede stehenden Familien. Diese Arbeit versucht die Thematik sachlich und objektiv zu behandeln und zu erklären, wie Clankriminalität überhaupt erst entstehen konnte, welche Fehler in der Integrationspolitik in der Vergangenheit gemacht wurden und welche Ansätze zur Bekämpfung der Clankriminalität ihre Anwendung finden.
Im Rahmen der Arbeit wurde untersucht, welche neuen Möglichkeiten Künstliche Intelligenz (KI) bezüglich der bei Phishing-Angriffen verwendeten Taktiken, Techniken und Werkzeuge bietet. Die Nutzung von KI-gestützten Phishing-Angriffen wird praxisnah beschrieben. Unter diesem Aspekt wurden aktuelle KI‘s betrachtet, insbesondere ChatGPT. Daraufhin wurde analysiert, inwiefern diese den Prozess des Phishing oder Teilaspekte davon vereinfachen beziehungsweise erleichtern. Die Ergebnisse wurden diskutiert, um ein besseres Verständnis dafür zu schaffen, wie künstliche Intelligenz den Phishing-Angriffen neue Angriffsvektoren hinzufügt. Die rechtliche oder ethische Bewertung von KI im Zusammenhang mit Phishing wurde nicht behandelt. Zudem geht die Arbeit ebenfalls nicht auf die Entwicklung oder Implementierung spezifischer Abwehrmaßnahmen ein.
Diese Arbeit bildet einen Einstig in die Grundlagen der IT-Forensik und befasst sich mit der Evaluation der beiden Programme „X-Ways Forensics“ und „Magnet AXIOM“. Dabei werden die Stärken und Schwächen der beiden Tools aufgezeigt und Empfehlungen geben, für wen und für welchen Einsatz, welches Programm geeignet ist.
In this work, a transgenic zebrafish line that expresses the fluorophore dsRed under the endogenous zebrafish cochlin promotor is supposed to be established, using the CRISPR/Cas9 system. dsRed was cloned into a pBluescript vector, followed by the cloning of the cochlin locus into this vector. This bait construct was then supposed to be micro injected into wild type AB zebrafish embryos. The micro injection of Cas9 mRNA, single guide RNA and a bait construct was practiced with the tyrosinase gene, which was disrupted using CRISPR/Cas9.
Die Bachelorarbeit untersucht, welche Auswirkungen die semantische Bildsegmentierung als Vorverarbeitungsschritt für Eingabebilder auf die Klassifikationsfähigkeit eines Convolutional Neural Networks (CNN) hat. Zu diesem Zweck werden Experimente mit verschiedenen Visualisierungstechniken gemacht, die geeignet sind, relevante Aspekte des Datenflusses im CNN während des Klassifikationsprozesses (wie z.B. den für die Klassifikationsentscheidung relevantesten Bildausschnitt) intuitiv zu veranschaulichen. Hierzu sollen verschiedene bereits existierende Ansätze wie GradCAM, Taylor Decomposition, Activation Maximization auf ihre Anwendbarkeit anhand von synthetischen Bilddaten systematisch untersucht werden. Hierzu werden
Daten- und Kontrollschnittstellen zu den anvisierten CNN-Verfahren umgesetzt und Vergleichsexperimente mit unbehandelten und auf verschiedene Weise vorsegmentierten Bilddaten konzipiert und durchgeführt. Die Arbeit soll ein intuitives Verständnis bzgl. der Fragestellung fördern, welchen Effekt eine vorherige Bildsegmentierung auf das Klassifikationsresultat und die CNN-interne Repräsentation von bildbasierten Daten hat
Untersuchung potenzieller Angriffsvektoren auf Container-Infrastrukturen unter Nutzung von Docker
(2021)
Die Digitalisierung ist eine der größten Herausforderungen der Wirtschaft. Eine Containervirtualisierung kann dabei vielversprechende Lösungen bieten, unterliegt jedoch ebenso Angriffen. Diese Arbeit zeigt am Beispiel von Docker auf, mit welchen Angriffsvektoren auf eine Container-Infrastruktur gewirkt und mit welchen Schutzmaßnahmen diese gehärtet werden kann. Die Untersuchungen stellen dar, wie schützenswerte Daten erbeutet, exogen Einfluss auf die in Containern verarbeiteten Daten genommen und mit
Schadsoftware auf gesamte Infrastruktur gewirkt werden kann. Dabei werden Host, Container und weitere Komponenten gleichermaßen berücksichtigt. Die Abhängigkeiten innerhalb von Containern werden zwar voneinander isoliert, jedoch teilen sich Host und Container einen gemeinsamen Kernel. Aus diesem Grund rücken Containerausbrüche und Kernelangriffe in den Fokus. Für den sicheren Einsatz von Containern können korrekte Konfigurationen bezüglich der Systemaufrufe, Capabilities, Kontrollgruppen, Namensräume
oder des Rootless Mode von entscheidender Bedeutung sein.
Die Bedeutung mobiler Geräte wächst, aufgrund des zunehmenden Funktionsumfanges sowie deren Leistungsfähigkeit, seit ihrer Einführung stetig. Eine Kernkomponente dieser Geräte bildet das Betriebssystem. Hierbei stellt das Android die populärste und am Markt weit verbreitetste mobile Plattform dar. Damit verbunden bilden Android-basierte Geräte de facto das Hauptangriffsziel von Cyberkriminellen, wobei die Systeme in Form von Malware kompromittiert werden. Hieraus erwächst das Erfordernis, effiziente Maßnahmen zur Abwehr dieser Bedrohungen zu entwickeln. Grundlage dafür bildet die forensische Untersuchung dieser Schadanwendungen. Derzeit im Internet verfügbare Signatur-Analysen von Android-Paketen liefern hierbei nur begrenzte Informationen über das charakteristische Laufzeitverhalten dieser Applikationen bei Ausführung des maskierten Schadcodes. Die Zielsetzung dieser Arbeit ist die Schaffung einer hardwarebasierten Android-Analyse-Plattform – auf der Grundlage eines Wandboards –, um mobile Malware zur Laufzeit zu überwachen und, neben statischen Applikationsdaten, deren schadhaften Aktivitäten – gestartete Prozesse, nachgeladene Bibliotheken und Netzwerkverkehr – aufzuzeigen. Das Hauptaugenmerk liegt hierbei auf der Entwicklung und systemischen Integration einer forensischen Methodik zur automatisierten Sammlung und Bereitstellung dieser Daten. Um ein prinzipielles Verständnis für den Themenkomplex zu erhalten, werden elementare Grundlagen und Spezifika der Android-Plattform sowie Aspekte der IT-Forensik ausgeführt. Der Detaillierung der entwickelten Vorgehensweise folgt die veranschaulichte Darstellung des Aufbaus und der Konfiguration der Android -Analyse-Plattform. Die Anwendbarkeit der geschaffenen Methodik wird, in Form eines exemplarischen Untersuchungsablaufes, an einer Android-Malware demonstriert.
We investigate the folding and thermodynamic stability of a tertiary contact of baker's yeast ribosomal ribonucleic acid (rRNA), which is supposed to be essential for the maturation process of ribosomes in eukaryotes at lower temperatures1. Ribosomes are cellular machines essential for all living organisms. RNA is at the center of these machines and responsible for translation of genetic information into proteins2,3. Only recently, the rRNA tertiary contact of interest was discovered in Zurich by the research group of Vikram Govind Panse. Gerhardy et al.1 showed in vitro that within the 60s-preribosome under defined metal ion concentrations the tertiary contact become visible between a GAAA-tetraloop and a kissing loop motif. Our aim is now to understand this RNA structure, especially the formation of the rRNA tertiary contact, in terms of thermodynamics and kinetics at various experimental conditions, such as temperature and metal ion concentration of K(I), Na(I) and Mg(II). Therein, we use optical spectroscopy like UV/VIS spectroscopy and ensemble Förster or Fluorescence Resonance Energy Transfer (FRET) folding studies. Our findings will help to further characterize this newly discovered ribosomal RNA contact and to elucidate its function within the ribosomal maturation process.
Mittels GPM3 können komplexe DNA- Mischspuren analysiert und STR- Profile ausgewertet werden. Zudem können durch Berechnungen die Genotypen, die in einer Mischung vorliegen, voneinander differenziert werden. Vor allem komplexe Mischspuren stellen einen Schwerpunkt bei der Spurenuntersuchung dar. Eine Anwendung von GPM3 ist die komponentenweise Dekonvolution von DNA- Mischspuren, bei der die Profile der beteiligten Personen aufgetrennt und die Wichtungen aller möglichen Genotypen ausgezählt werden. Dabei werden die Genotypkonstellationen (GTK) basierend auf den Peakhöhen, der Degradationsstärke und stochastischen Effekten bei Einsetzten von geringen DNA- Mengen modelliert. Der von der Firma Qualitype vorgegebene Grenzwert für die Wichtung, ab welcher mit einer hohen Wahrscheinlichkeit angenommen werden kann, dass es sich bei dieser GTK um den richtigen Genotyp der beteiligten Person handelt, liegt bei 90 %. Folglich werden Untersuchungen im Rahmen dieser Arbeit zu diesem Grenzwert anhand von verschiedenen 2- Personen- Mischungen in unterschiedlichen Konzentrationen mittels der Dekonvolution mit dem vollständig- kontinuierlichen Modell durchgeführt.
In der Arbeit werden dazu die jeweiligen Abstände der Wichtungen in Prozent der GTK der beteiligten Personen jeder Mischung berechnet und überprüft, ob die am höchsten gewichteten Genotypen in GPM3 den richtigen Allelkombinationen der jeweiligen Person entsprechen. Hierbei wird der Abstand der Konstellation mit der größten Wichtung zur „wahren“ Konstellation berechnet. Aus den Mittelwerten der prozentualen Abstände soll anschließend der Ähnlichkeitswert der Wichtung, ab welchem noch mit sehr hoher Wahrscheinlichkeit die richtige GTK ausgegeben wird, ermittelt werden.
Das Ziel der Bachelorarbeit ist es, die Möglichkeiten und Grenzen der Dekonvolution von Mischspuren mit der GPM3- Software bei verschiedenen Analysebedingungen zu bewerten und einen Auswerteparameter in Abhängigkeit von den Abständen der Wichtungen in Prozent und den Konzentrationen der einzelnen Mischungen zu validieren. Zudem soll die Nachweisgrenze der Analysemethode untersucht werden, um eine Aussage über die Minimalmenge an einzusetzender DNA treffen zu können
Die vorliegende Arbeit befasst sich mit dem Fakeshop Phänomen als Cybercrime Delikt. Nach einer kurzen Erläuterung des Bereiches Cybercrime und einer Darstellung der Phänomenologie eines Fakeshops wird dieser anhand einer beschriebenen Sachlage auf seine Strafbarkeit analysiert. Zur Analyse werden Rechtsnormen aus dem Strafgesetzbuch hinzugezogen, die in der Literatur dem Cybercrime im engeren Sinne zugeordnet sind. Anhand dessen soll erörtert werden, welche Tatbestandsmerkmale der Paragrafen durch den Sachverhalt festgestellt werden können und ob der objektive Tatbestand bei einem Fakeshop Phänomen erfüllt wird. Des Weiteren werden mögliche Folgen, die durch einen Fakeshop auftreten können präsentiert und im Anschluss dessen einige Möglichkeiten aufgezeigt, um sich präventiv gegen eine Fakeshop-Falle schützen zu können.
Die Recyclingfähigkeit von faserbasierten Lebensmittelverpackungen wird durch Restanhaftungen des Lebensmittels vor Probleme gestellt. Dadurch ausgelöste Verkeimungen bei der Altpapierlagerung beeinträchtigen den Recyclingprozess. Die entwickelten Mikroorganismen beeinflussen wiederum die Herstellungskette innerhalb einer Papierfabrik, da es zu hohen organischen Belastungen kommen kann. Die Bachelorarbeit untersucht den mikrobiologischen Einfluss von Lebensmitteln, auf die Altpapierlagerung derer faserbasierter Verpackungen.
Messengerdaten auf Mobiltelefonen sind häufig für Ermittlungs- und Strafverfahren relevant. Eine händische Untersuchung dieser ist für einen digitalen Forensiker jedoch sehr arbeits- und zeitintensiv. Aus diesem Grund wird in dieser Bachelorarbeit ein möglichst effektives Verfahren
zur Auswertung und Aufbereitung von Messengerdaten auf Mobiltelefonen vorgestellt, welches digitalen Forensikern als Leitfaden dienen soll. Das vorgestellte Verfahren kann für jeden Messenger verwendet werden und basiert auf der Methode des Reverse Engineerings. Um dessen Anwendung zu demonstrieren und seine Funktionalität unter Beweis zu stellen, werden die Daten des Messengers TamTam, insbesondere die Datenbanken, exemplarisch ausgewertet und aufbereitet.
Das Ziel dieser Arbeit ist es verschiedene Methoden der Platzierung von Vegetation zu vergleichen und in Hinsicht auf die Qualität der Ergebnisse zu beurteilen. Zum Vergleich dient in diesem Fall die Natur selbst als Maßstab, denn diese soll bei den meisten Methoden simuliert werden. Die Methoden zur Generierung sind vielfältig und unterschiedlich komplex. Einem Entwickler stellt sich nun die Frage zu welcher Methode oder welcher Kombination er greifen soll unter den Aspekten Entwicklungsaufwand, Performanz, Qualität und Flexibilität. Es soll erkundet werden, bei welchen Vorhaben es sich für einen Spielentwickler lohnt ein solches System zu implementieren oder ob herkömmliche Produktionsketten sinnvoller wären.
In dieser Arbeit wurden verschiedene kaliumselektive Elektroden hergestellt. Diese wurden auf Funktion und Selektivität überprüft. Anschließend wurden Messungen mit ausgewählten Elektroden in aufgeschlämmten Bodenproben durchgeführt, um das Einstellverhalten und das pflanzenverfügbare Kalium, angelehnt an eine Methode der VDLUFA, zu bestimmen. Da diese Methode aber auf der Analyse mit Atomabsorptionsspektrometrie beruht, wurden die Ergebnisse beider Messmethoden miteinander verglichen.
Im Rahmen der Untersuchungen für die vorliegende Bachelorarbeit wurden in fünf einstufigen Biogasreaktoren Maissilage vergoren. Die Zugabe von Harnstoff sollte eine Prozessstörung induzieren. Zur Überwachung des Prozessverlaufes erfolgten die gängigen Analysen (pH, FOS/TAC, NH4-N, GC etc.). Zusätzlich sollten Gasproben aus den Reaktoren entnommen und mittels IRMS analysiert werden, um das Isotopenverhältnis des gebildeten Biogases zu untersuchen.
Offensive Sprache im Internet ist ein stark diskutiertes Problem in sozialen Medien. Angriffe richten sich oftmals gegen Einzelpersonen, können aber auch auf Gruppen und andere Strukturen abzielen. Die Erkennung angreifender Inhalte funktioniert in vielen Ansätzen bereits sehr gut. Die Erkennung der Ziele hingegen ist bisher nur wenig erforscht. Die vorliegende Arbeit befasst sich mit der Aufarbeitung des aktuellen Forschungsstandes zu offensiver gerichteter Sprache, den Grundlagen derer Erkennung und dem Vergleich verschiedener Ansätze. Die Auswirkungen von Vorverarbeitung und Parametrisierung der Modelle werden analytisch diskutiert.
Soziale Netzwerke und Messaging Dienste sind in der heutigen Zeit nicht mehr nur ein Modetrend für Jugendliche und technikaffine Menschen. Sie sind durch die stetig größer werdende Verbreitung von Smartphones und die sich dadurch bietende Möglichkeit, solche Anwendungen immer und überall zu nutzen, in den Fokus der Allgemeinheit gerückt. Heute sind sie für eine große Mehrheit der Bevölkerung ein fester Bestandteil des privaten und auch beruflichen Lebens. Allerdings sind diese Möglichkeiten auch kritisch zu betrachten, da sie auch leicht missbraucht werden können. Das Ziel der vorliegenden Bachelorarbeit ist es, die Analyseplattform Wandboard zur Verwendung des Messaging Dienstes Jodel und der automatisierten Extraktion der Posts zu konfigurieren, damit diese später ausgewertet werden können. Dabei soll es möglich sein, die vom Gerät verwendeten GPS-Koordinaten soweit anzupassen, dass ein bestimmtes Gebiet abgerastert und dort alle Nachrichten automatisiert gepollt und anschließend in einer geeigneten Datenstruktur mit den entsprechenden Koordinaten und Nutzeridentifikationen abgelegt werden können. Zunächst beschreibt die Arbeit also alle nötigen Grundlagen und anschließend die Konfiguration des Wandboards zur Verwendung Jodels und dem Anpassen der Standortdaten. Im Anschluss wird das Suchen und Extrahieren der Bilder und Ansätze dazu, wie die Nachrichten extrahiert werden könnten, beschrieben. Dabei wird auch auf das Abfangen und Auswerten von Netzwerkverkehr durch ARP Poisoning und das Auswerten von RAM Dumps eingegangen. Zusätzlich wird auch das Anpassen der GPS-Koordinaten und das dadurch ermöglichte Abrastern eines bestimmten Areals erklärt. Die Triangulation des Ausgangsortes eines Posts und die Identifikation der einzelnen Teilnehmer werden theoretisch beschrieben und zuletzt noch die Eignung des Wandboards für dieses Projekt diskutiert. Letztendlich kann diese Arbeit als Leitfaden und Vorarbeit für später folgende Forschung verwendet werden, um die hier bereits gemachten Erkenntnisse zu nutzen und etwaige Fehler zu vermeiden.
Das Thema IT-Sicherheit wird durch zunehmende Vernetzung, neue Anforderungen an Systeme und Industrie 4.0 auch für industrielle Netzwerke wie SCADA und ICS immer wichtiger.
Finanzielle Schäden durch Angriffe steigen von Jahr zu Jahr. Deswegen ist es wichtig, diese Netzwerke zu schützen und Angriffe frühzeitig zu erkennen, um zeitnah auf diese reagieren zu können und größere Schäden zu vermeiden. Da klassische Methoden ICS Systeme zum Teil behindern können und um einen zusätzlichen Schutz zu den normalen Intrusion Detection Systemen und Firewalls zu bieten, ist das Ziel dieser Arbeit, die Entwicklung einer Plattform, zur
verhaltensbasierten Detektion von Angriffen in solchen Netzwerken. Dafür werden Honeypots im Netzwerk verteilt, welche dazu dienen, Angriffe, die das normale IDS oder Firewalls umgangen haben, oder gar von Internen durchgeführt werden, zu erkennen. Die Honeypots sind in der Lage, Zugriffe auf die von ihnen verwendeten Protokolle zu erkennen und senden in diesem Fall Meldungen an einen zentralen Server, welcher diese in einer Datenbank speichert und in einem Dashboard visualisiert. Das in dieser Arbeit beschriebene Konzept und seine detailliert beschriebene Umsetzung sollen den Einstieg für Unternehmen in dieses Thema erleichtern und zu weiterer Forschung auf diesem Gebiet anregen.
Die Salzgitter Flachstahl GmbH (SZFG) ist das größte Tochterunternehmen der Salzgitter AG und stellt unterschiedliche Flachstahlprodukte her. Sie beinhaltet
verschiedenen Produktionsbereiche und Produktionsanlagen, wie bspw. das Hochofenwerk mit der Erzvorbereitung und den Hochöfen, das Stahlwerk mit den Stranggießanlagen, das Warmbreitbandwalzwerk mit der Warmbreitbandstraße und der Schubbeize, und abschließend der Bereich Kaltflach mit der Kontibeize, der Tandemstrasse, der Glüherei und der Dressierstraße, den Verzinkungsanlagen, der Bandbeschichtung und den Coillinien.
Eine der Beizanlagen der SZFG ist die Kontibeize 2 (KB2) aus dem Bereich Kalt-flach. In der KB2 werden die Stahlbänder vom Oberflächenzunder und von Verschmutzungen befreit. Weite Teile des zu verarbeitenden Materials der SZFG durchläuft die KB2. Ihrer Verfügbarkeit wird daher eine große Bedeutung beige-messen. Die Verfügbarkeit ist das Maß für den störungsfreien Betrieb einer jeden Produktionsanlage. Sie verringert sich über die Anzahl und die jeweilige
Dauer von Störungen in Relation zu der verfahrenen Produktionszeit.
Die Diplomarbeit zielt auf eine Erhöhung der Anlagenverfügbarkeit ab, indem die Zeit nach Störungseintritt bis zum Wiederanlauf der Anlage verringert werden soll. Unter bestimmten Störbedingungen fehlen zurzeit verschiedene Materialdaten, um die Anlage bei Datenverlust sicher anzufahren. Durch eine bessere Übersicht über die gespeicherten Materialdaten im Anlagenspeicher und des folglich leichteren Abgleichs der Daten mit dem Material vor Ort, wird den Mitarbeitern helfen fehlerhafte Datensätze in der Anlagensteuerung zu erkennen und dadurch Fehler beim Anfahren der Anlage zu vermeiden.
Realisierung eines Pin-Testers zur Identifikation von Schnittstellen für forensische Auswertungen
(2018)
Die vorliegende Bachelorarbeit befasst sich mit der Realisierung eines Pin-Testers unter Einsatz eines Analog Devices, mit deren Hilfe Schnittstellen erkannt werden können. Dazu wird eine geeignete Software und ein angemessenes Messverfahren angewendet, um sogenannte Kennlinien von Pins aufzunehmen. Anhand der Kennlinien sollen Schnittstellen erkannt werden. Im Gegensatz zu kommerziellen Produkten wird hier das Analog Device ADALM1000 verwendet, das eine kostengünstige Alternative darstellt. Damit lassen sich andere analoge Systeme testen und ausmessen. Durch seine geringe Größe ist es für den praktischen und dynamischen Einsatz gut geeignet.
Inhalt dieser Arbeit ist der Einfluss von Rhamnolipiden auf die Vesikulation von Gram-negativen Bakterien am Beispiel von Pseudomonas putida. Es soll unter-sucht werden, ob die Vesikulation durch Zugabe von Rhamnolipiden erhöht wird und ob die Anwesenheit von Rhamnolipiden die Wirkung langkettiger Alkohole (hier wurden 1-Octanol und 1-Decanol verwendet) abschwächt.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, einen effizienten Workflow für die Erstellung einer Destruction-Simulation herauszuarbeiten und Kriterien für ihre Glaubhaftigkeit darzustellen. In einer praktischen Umsetzung werden diverse Schritte zur Erstellung einer Simulation auf ihre Funktionalität überprüft und erklärt. Die Erkenntnisse aus der Analyse, gestützt durch die Aussagen von Spezialisten aus angesehenen VFX-Studios, verdeutlichen, dass viele Faktoren bei der Erstellung einer Simulation zu beachten sind, die deren Verlauf beeinflussen können.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.
Die vorliegende Diplomarbeit beschreibt den Entwurf und die Umsetzung einer ticketgestützten Bearbeitung des Prozesses „Neuer Mitarbeiter“ an der Hoch-schule Mittweida mit dem Ticketsystem KIX. Dazu wird der IST-Zustand doku-mentiert und analysiert. Auf Basis einer Schwachstellenanalyse wird ein SOLL-Konzept entwickelt und mit dem IST-Zustand verglichen. Abschließend wird das SOLL-Konzept des Prozesses „Neuer Mitarbeiter“ mit Hilfe des Prozess-management-Moduls im Ticketsystem KIX implementiert und die Ergebnisse betrachtet.
Durch die zunehmende Nutzung mobiler Endgeräte fallen im alltäglichen Leben zahlreiche personenbezogene Daten an. Zu diesen Daten gehören unter anderem auch GPS-Positionen, die von handelsüblichen Smartphones erhoben werden. Besonders Android-Geräte sammeln eine große Menge an Positionsdaten, die für verschiedene Wissenschafts-Domänen, wie beispielsweise Medizin oder Forensik, eine Rolle spielen. Für verschiedene Anwendungsfälle kann eine Aggregation der einzelnen GPS-Positionen zu Orten und verbindenden Strecken relevant sein.
Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Aggregation von GPS-Standorten zu Orten, deren Besuchen und Verbindungen. Nach Implementierung des Algorithmus wurde dieser in eine Java-Applikation eingebettet, die unter anderem der Visualisierung der erzielten Ergebnisse dient. Für die Evaluation des Algorithmus wurden über einen Zeitraum von zwei Monaten Standortdaten mit Hilfe eines Android-Smartphones erhoben, welche unter Verwendung des implementierten Algorithmus ausgewertet wurden. Die Evaluation resultierte in einem Parameterset, welches sich für die Auswertung des vorliegenden Testdatensatzes als geeignet herausstellte. Das Ergebnis der Arbeit ist ein funktionstüchtiger Algorithmus, der vielfältige Anwendungsmöglichkeiten aufweist und dessen Erweiterung ein hohes Potenzial für Folgeprojekte bietet.
Diese Arbeit beschäftigt sich mit der Realisierung eines open-sourec GSM-IMSICatchers. Dafür werden die Grundlagen des GSM-Protokolles, die technischen Daten verschiedener SDR-Geräte und open-source Software für die Ansteuerung der Software Defined Radios sowie zur Signalverarbeitung untersucht. Für diese Arbeit verwendet wurden das LimeSDR, das Netzwerkanalyseprogramm Wireshark und auf GnuRadio basierende Software. Das erreichte Ergebnis ist ein IMSI-Catcher, der für das Abfangen und Auswerten von GSM-Verkehrsdaten verwendet werden kann. Für das gezielte Wiederaussenden von GSM-Daten wurden notwendige Voruntersuchungen getroffen und erste Tests durchgeführt. Vor einer praktischen Anwendung eines Weiterleitens von GSM-Daten wären aber weitere Anpassungen des
IMSI-Catchers notwendig.
Ziel dieser Masterarbeit ist eine Analyse des Voice-over-LTE-Netzwerkes auf Sicherheitsschwachstellen. Zuerst findet dafür eine theoretische Untersuchung des VoLTE-Protokolls mit einer Fokussierung auf seine sicherheitsrelevanten Merkmale statt. Anschließend wird das Session-Initiation-Protokoll (SIP) als Element für die praktische Untersuchung ausgewählt. Praktisch wird zuerst gezeigt, dass VoLTE-SIP-Pakete sensitive Daten enthalten, die auf den Endgeräten mitgelesen werden können. Anschließend werden manipulierte SIP-Pakete in das Netzwerk gesendet, die das Abfragen von Informationen und den Datenaustausch mit anderen VoLTE-Nutzern ermöglichen. Durch einen Vergleich der Arbeit mit anderen Veröffentlichungen wird gezeigt, dass es bereits ähnliche Ansätze gibt, die in dieser Arbeit verwendeten SIP-Pakete aber noch nicht für ein Auslösen unautorisierter Prozesse verwendet wurden. Zum Schluss wird dargestellt, in welchen Bereichen auf Basis dieser Arbeit weiter geforscht werden kann und welche Konsequenzen die gefundenen Ergebnisse für die VoLTE-Nutzer haben.
Die vorliegende Arbeit befasst sich umfangreich mit der Thematik der »Security Incident and Event Management« (SIEM) Systeme und ihrer Installation, Organisation und Anwendung in kleinen und mittleren Unternehmen (KMU). Am Anfang wird dem Leser die Funktionsweise eines solchen SIEM Systems erklärt, um im Anschluss am Beispiel der miteinander interagierenden Softwares Elasticsearch, Logstash, Beats und Kibana schrittweise in einer IT-Infrastruktur zu implementieren. Außerdem wird die Eignung eines solchen Systems für kleine und mittlere Unternehmen in gesetzlicher und organisatorischer Hinsicht auf Basis zweier Studien untersucht, welche den aktuellen Zustand der Thematik IT-Sicherheit in KMU widerspiegeln. Das Ziel der Arbeit ist es festzustellen, in welchem Rahmen ein SIEM System in KMU nötig ist und helfen kann, um die IT-Sicherheit des Unternehmens zu fördern. Dabei wird sowohl auf die Installation, als auch auf die Nutzung eins SIEM Systems unter den in KMU vorherrschenden Bedingungen betrachtet.
In dieser Arbeit beschäftigt sich der Autor mit der Identifikation eines Spielertyps für das Videospiel-Genre "Soulslike". Er erläutert dafür Spielertyp-Theorien und die Theo-rie des Spaßes. Zusätzlich analysiert er das "Soulslike"-Genre, indem er verschiedene Spiele aus dem Genre durchleuchtet. Um einen Spielertyp zu erfassen, wertet er eine Umfrage aus, die er Spielern diesen Genres ausfüllen lässt.
Ziel dieser Arbeit ist es, an ausgewähltem Material aus einer Skelettsammlung eine morphologische Geschlechtsbestimmung am Os ilium (Darmbein), einem Teil des Os coxae (Hüftbein), durchzuführen und deren Zuverlässigkeit zu überprüfen. Um die Bestimmung des Geschlechts sicherer zu machen, werden weitere morphologische Analysen am Cranium sowie an den Ossa coxae und eine osteometrische Analyse am Femur durchgeführt und mit den Ergebnissen der Geschlechtsbestimmung am Os ilium verglichen.