Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Die folgende Arbeit bezieht sich auf die Werke von Hermann Helbig und Dewald und Freiling. Es soll die Verbindung zwischen einem Objekt, definiert nach Helbig, und einer Spur im kriminalistischen Sinne aufzeigen. Es wird zudem eine neue Repräsentation des Weges einer Spur von dessen Sicherung hin zu der Assoziation mit dem Objekt, das die Spur verursacht hat, entwickelt. Ein Objekt als semantische Entität mit dessen Eigenschaften als Charakterisierung soll in einen Zusammenhang mit kriminalistischen Untersuchungen, wie Klassifizierung und Individualisierung, durch eine Ontologie gebracht werden. Beginnend mit physischen Spuren stellt sich die Frage, ob sich die Darstellung auch auf digitale Spuren übertragen lässt. Eine neue Grafik, die sowohl für physische als auch für digitale Suren funktioniert, soll erzielen werden.
In der vorliegenden Pilotstudie wurden Wangenschleimhautabstriche und Nagelproben von Patienten nach einer erfolgten hämatopoetischen Stammzelltransplantation auf einen gemischten Chimärismus untersucht. Dafür wurden STR- und SNP-Analysen mit den Referenzprobenmaterialien aus isolierter Stammzellspender- und Empfänger-DNA vor Transplantation und den nach Transplantation entnommenen Wangenschleimhautabstrichen und Nagelproben durchgeführt. Es wurden sieben Probanden untersucht, wovon sechs eine allogene Stammzelltransplantation erhalten haben und ein Proband eine autologe Stammzelltransplantation durchlaufen hatte. Bei allen Proben nach einer allogenen Stammzelltransplantation konnte im epidermalen Material anteilig das Mikrosatelliten- und SNP- Profil des Spenders in den DNA-Isolaten des Empfängers nachgewiesen werden. In den Wangenschleimhautabstrichen wurde stets eine gemischte Chimärismussituation festgestellt. Die Ergebnisse weisen einen detektierten Spenderanteil von 11 bis 39 % auf. In den Nagelproben konnte ein Anteil an Spender-DNA bis zu 44 % nachgewiesen werden. Die Analysen bestätigen die Existenz eines Spenderanteils in Nagelproben und Wangenepithel eines Stammzellempfängers nach allogener Transplantation. Weitere Studien sind notwendig, um zu untersuchen, welche Faktoren die Anzahl der vorhandenen Spenderzellen in dem epidermalen Gewebe bestimmen.
Es wurde die Auswirkung des Insektizids Dimethoat auf die Hornmilbe Oppia nitens untersucht. Dazu wurden zwei Labortests nach der ISO-Richtlinie 23266:2020-06 durchgeführt. Die Auswertung der Tests bezog sich auf die Untersuchung der Mortalität und der Reproduktion der Testorganismen bei unterschiedlichen Konzentrationen an Dimethoat. Die Ergebnisse, die in diesen Tests gewonnen wurden, wurden mit den Ergebnissen des Referenztestes an Hypoaspis aculeifer verglichen. Diese Ergebnisse wurden im Praxismodul „Zucht von Oppia nitens und Testsystem mit Hypoaspis aculeifer“, die 2021 eingereicht wurde, gewonnen.
Aufgrund der bedeutenden Fortschritte im Bereich der Hochdurchsatzsequenzierungstechnologien und folglich dem exponentiellen Wachstum biologischer Daten entstehen in der Bioinformatik Herausforderungen bei der Speicherung und Analyse großer Datenmengen. Die umfangreichen
Genotypisierungsdaten der Gerste, welche als Referenzdatensatz vorlagen, wurden am Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) durch Genotyping by Sequencing (GBS) erstellt. Zur effektiven Speicherung sowie Analyse dieser Daten wurden verschiedene Datenstrukturen erstellt und hinsichtlich Performance und Speicherbedarf evaluiert. Die Entwicklung verschiedener Java-Tools ermöglichte dabei das Einlesen, die Verarbeitung, sowie die Ausgabe dieser Daten zur effektiven Strukturierung und Analyse. Um die Anwendung dieser Java-Tools über Edge-Computing zu ermöglichen, wurde an der Erstellung von Datencontainern gearbeitet.
Diese Arbeit präsentiert einen forensischen Leitfaden zu Spezialverfahren der Datenrettung von Festplatten unter Nutzung des PC-3000 Express Systems. Die Grundlage bilden essentielle Informationen rund um eine Festplatte und die Bedienung des PC-3000 Express Systems. Anschließend wird ein in drei Teile gegliederter forensischer Leitfaden vorgestellt, der dem Leser mit jeder Unterteilung eine Konkretisierung auf das Thema Spezialverfahren der Datenrettung von Festplatten präsentieren soll. Auf der Grundlage des forensischen Leitfadens werden im Anschluss zwei Festplatten untersucht und mit Hilfe des PC-3000 Express Systems und kompatiblen Ersatzteilspendern erfolgreich gesichert. Ziel der Arbeit ist es, einen zukünftigen Benutzer in die Arbeit mit dem PC-3000 Express System einzuführen. Dabei soll der Arbeitsablauf bei der Untersuchung einer Festplatte fest an den Ablauf einer forensischen Untersuchung gebunden sein. So kann unabhängig vom forensischen Tätigkeitsfeld sichergestellt werden, dass ein Benutzer zukünftig auftretende Probleme von Festplatten effektiv und lösungsorientiert handhaben kann.
Zu wissen, wie alt eine Blutspur an einem Tatort ist, kann enorm bei der kriminalistischen Fallarbeit helfen. Daher beschäftigt sich die Wissenschaft mit der Frage nach der Bestimmung des Blutalters. Um diese Forschung zu unterstützen, wurden Derivate des Hämoglobins (Blutfarbstoff) hergestellt und spektroskopisch untersucht. Dabei wurden hauptsächlich Derivate gewählt, die bekannterweise bei der Alterung entstehen. Die entstandenen Spektren sollen beim Erstellen einer Datenbank helfen und somit den Kenntnisstand der aktuellen Forschung festigen und erweitern. Ebenfalls wurden chromatografische Daten analysiert, um die Struktur eines potentiellen Biomarkers für die Blutaltersbestimmung herauszubekommen bzw.
die Grundlage für weitere Experimente dazu zu legen.
Priming in Videospielen
(2021)
Die vorliegende Bachelorarbeit befasst sich mit dem Begriff Environmental Storytelling. Dabei war es das Ziel eine Definition für die Elemente in Environmental Storytelling aufzustellen und diese zu katalogisieren, sodass diese zukünftig in den Prozess des Level Designs einfließen können. Die Elemente wurden anhand einer kleinen Auswahl an Spielen exemplarisch getestet. Die Bachelorarbeit soll den Menschen helfen, die Narration in das Level Design einbringen wollen. Der Verfasser erhofft sich am Ende einen Katalog anzutreffenden Elementen erstellt zu haben.
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Community acquired pneumonia (CAP) is a very common, yet infectious and sometimes lethal disease. Therefor, this disease is connected to high costs of diagnosis and treatment. To actually reduce the costs for health care in this matter, diagnosis and treatment must get cheaper to conduct with no loss in predictive accuracy. One effective way in doing so would be the identification of easy detectable and highly specific transcriptomic markers, which would reduce the amount of work required for laboratory tests by possibly enhanced diagnosis capability.
Transcriptomic whole blood data, derived from the PROGRESS study was combined with several documented features like age, smoking status or the SOFA score. The analysis pipeline included processing by self organizing maps for dimensionality and noise reduction, as well as diffusion pseudotime (DPT). Pseudotime enabled modelling a disease run of CAP, where each sample represented a state/time in the modelled run. Both methods combined resulted in a proposed disease run of CAP, described by 1476 marker genes. The additional conduction of a geneset analysis also provided information about the immune related functions of these marker genes.
Möglichkeiten zur Aufnahme und Kategorisierung von
Knochenveränderungen und deren Interpretation
(2019)
Diese Bachelorarbeit befasst sich mit der Aufnahme, Kategorisierung und Interpretation von Knochen verändernden Merkmalen. Ziel ist es, eine möglichst einheitliche und allgemein verständliche Methode zu entwerfen, die der Aufnahme von knöchernen Veränderungen dient und worauf aufbauend Klassifikationen erfolgen können. Diese wiederum soll dahingehend überprüft werden, ob eine Feststellung der Ursache möglich ist.
Die vorliegende Arbeit befasst sich mit dem Cybercrime-Phänomen Phishing. Durch die Analyse von echten Delikten im Bereich des Phishings wird betrachtet, inwieweit das Phänomen durch das Strafgesetzbuch erfasst wird. Dafür wird sich an Paragrafen orientiert, die aus der Cybercrime-Konvention hervorgegangen sind, beziehungsweise durch diese geändert wurden und dem Bereich Cybercrime im engeren Sinn zugeordnet werden können. Neben einer Definition des Begriffes Cybercrime werden eine begriffliche Einordnung des Phänomens Phishing vorgenommen und die Grundzüge dieses aufgezeigt. Anschließend wird mithilfe der Delikte erörtert, welche Tatbestandsmerkmale der einzelnen Paragrafen sich bei den Delikten detektieren lassen und inwieweit die Begehungsweise Einfluss auf die detektierbaren Tatbestandsmerkmale hat. Bei der Erörterung wird auch auf den Begriff Daten eingegangen und welche Definition diesem innerhalb der betrachten Paragrafen zugrunde liegt.
An einem Tatort lassen sich verschiedene Arten von Spuren finden. Die Blutspuren zählen dabei zu den wichtigsten. Sie lassen sich auf unterschiedliche Art und Weise analysieren. Eine Möglichkeit ist die Untersuchung des Blutalters, um beispielsweise Hinweise über den Zeitraum einer Tat zu erlangen. Schon seit dem 20. Jahrhundert suchen Wissenschaftler nach einer geeigneten Methode zum Ermitteln des Alters einer Blutspur. Bisher ist das aber noch keinem gelungen. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Schweineblut über einen Zeitraum von sechs Wochen bei gleichbleibenden Umwelteinflüssen untersucht. Im Vordergrund steht hierbei die alterskorrelierende Veränderung der Blutzusammensetzung. Das Hauptaugenmerk liegt vor allem auf den Peaks der Hämoglobinderivate und des Globins. Bei der Auswertung der Ergebnisse wurde festgestellt, dass all diese charakteristischen Hochpunkte auch nach sechs Wochen noch weiter ansteigen und sich somit die Zusammensetzung des Blutes weiterhin verändert.
Häusliche Gewalt : Untersuchung der gesetzlichen Regelungen und (sozialen) Hilfsmöglichkeiten
(2024)
Das Ziel der vorliegenden Bachelorarbeit war es, das Thema der häuslichen Gewalt aufzugreifen und hinsichtlich der verschiedenen Gewaltbegriffe im internationalen sowie nationalen Recht zu vergleichen. Dafür wurden verschiedene Literaturtexte ausgewertet.
Hinsichtlich der häuslichen Gewalt wurden mehrere Theorien möglicher Ursachen bewertet mit dem Ergebnis, dass eine Vielzahl an Faktoren für aggressives Verhalten ursächlich sind und die eigene Entscheidung zur Gewalt eine große Rolle spielt. Auch das Gesundheitswesen, Frauenhäuser und Täterprograme wurden in Bezug auf die Themen in ihrer Funktion
beschrieben.
Differentiation is ubiquitous in the field of mathematics and especially in the field of Machine learning for calculations in gradient-based models. Calculating gradients might be complex and require handling multiple variables. Supervised Learning Vector Quantization models, which are used for classification tasks, also use the Stochastic Gradient Descent method for optimizing their cost functions. There are various methods to calculate these gradients or derivatives, namely Manual Differentiation, Numeric Differentiation, Symbolic Differentiation, and Automatic Differentiation. In this thesis, we evaluate each of the methods mentioned earlier for calculating derivatives and also compare the use of these methods for the variants of Generalized Learning Vector Quantization algorithms.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Erstellung eines Audiodatensatzes zur sequentiellen Lokalisierung von Manipulationen. Die Motivation sich mit diesem Thema zu beschäftigen, resultiert aus der geringen Menge an öffentlichen Datensätzen im Hinblick der Multimediamanipulation und der Wichtigkeit von Audio in der Forensik (Khan et al., 2018; Luge, 2017). Dabei werden zunächst die Grundlagen aus den Themenbereichen Audio, Datensatz sowie Manipulation dargestellt. Für die Erstellung des Datensatzes, wurde zunächst eine Vielzahl an Daten bereitgestellt, indem mittels einem Pythonskript, Videos, von YouTube heruntergeladen sowie die Audiospur getrennt und im mp4-Format gespeichert wurden. Weiterhin erfolgte auf der Datenmenge, der Prozess der Datenbereinigung sowie das Umbenennen der Audiodateien. Anschließend ereignet sich die Darlegung des Konzeptes und die theoretische Beschreibung der Manipulierung sowie die exemplarische Durchführung der Manipulation. Daraufhin erfolgt die theoretische Darlegung der Aufteilung des Datensatzes in Test- und Trainingsdaten. Die Ergebnisse spiegeln wider, dass das geschriebene Pythonskript funktioniert und nahezu keine Fehler während des Downloads entsteht. Weiterhin zeigen sie auf, dass die exemplarische Durchführung funktioniert. Allerdings benötigt es zum einen noch die Umsetzung des in der Theorie dargelegten Manipulationsschrittes und zum anderen, darauf aufbauend, etwaige Evaluierungsschritte.
Serielle Auswertung von Datensätzen einer Wildtierkamera mit dem Schwerpunkt Kennzeichendetektion
(2022)
Nummernschild- und Objektdetektion sind wichtige Bestandteile der Verkehrsüberwachung. Jedoch befassen sich die meisten Forschungsarbeiten zu diesen Themen mit der Detektion auf gut beleuchteten Bildern und nur wenige mit der Detektion auf sehr schlecht beleuchteten Aufnahmen. Diese Arbeit versucht, verschiedene Objektdetektionsalgorithmen auf schlecht beleuchteten Bildern zu vergleichen, sowie den Einfluss verschiedener einfacher Bildverbesserungsmethoden auf das Detektionsergebnis zu bewerten. Auf Grundlage dieser Ergebnisse wird anschließend eine Anwendung entwickelt, welche automatisiert Datensätze mehrerer Wildtierkameras auswertet, um diese zur einfacheren Verwendung zur Verfügung zu stellen.
Spektakuläre Überfälle, Luxusimmobilien, Sportwagen, Gewalttaten und Tumulte im öffentlichen Raum und darüber hinaus die dreiste Beanspruchung von Sozialleistungen: Dies ist das Bild, dass die Medien von den Clans zeichnen. Das Thema Clankriminalität bestimmt seit wenigen Jahren den politischen als auch medialen Diskurs in Deutschland und dabei ist das Phänomen kein Neues, sondern besteht seit mehreren Jahrzehnten. Von Polizeibehörden wurde das Problem gesehen und behandelt, während man in der Politik aufgrund der Angst vor Rassismus-Vorwürfen das Thema lange Zeit nicht weiter antastete. Zwischen diesen Debatten über Rassismus und Political Correctness schafft die Kriminalität Fakten. Neben Gewalt, Drohungen und Betrugsmaschen, die das gesamte Bundesgebiet betreffen, wird in den Familien eine Paralleljustiz gelebt und die deutsche Rechtsordnung nicht anerkannt. Für Außenstehende ist das Clangefüge und deren Organisationsstrukturen sowie Lebensweise nur schwer nachzuvollziehen, daher bedarf es einer genaueren Untersuchung dieses Kriminalitätsphänomens, insbesondere im Hinblick auf die Migrations- und Integrationsgeschichte, der hier in der Rede stehenden Familien. Diese Arbeit versucht die Thematik sachlich und objektiv zu behandeln und zu erklären, wie Clankriminalität überhaupt erst entstehen konnte, welche Fehler in der Integrationspolitik in der Vergangenheit gemacht wurden und welche Ansätze zur Bekämpfung der Clankriminalität ihre Anwendung finden.
Im Rahmen der Arbeit wurde untersucht, welche neuen Möglichkeiten Künstliche Intelligenz (KI) bezüglich der bei Phishing-Angriffen verwendeten Taktiken, Techniken und Werkzeuge bietet. Die Nutzung von KI-gestützten Phishing-Angriffen wird praxisnah beschrieben. Unter diesem Aspekt wurden aktuelle KI‘s betrachtet, insbesondere ChatGPT. Daraufhin wurde analysiert, inwiefern diese den Prozess des Phishing oder Teilaspekte davon vereinfachen beziehungsweise erleichtern. Die Ergebnisse wurden diskutiert, um ein besseres Verständnis dafür zu schaffen, wie künstliche Intelligenz den Phishing-Angriffen neue Angriffsvektoren hinzufügt. Die rechtliche oder ethische Bewertung von KI im Zusammenhang mit Phishing wurde nicht behandelt. Zudem geht die Arbeit ebenfalls nicht auf die Entwicklung oder Implementierung spezifischer Abwehrmaßnahmen ein.
Diese Arbeit bildet einen Einstig in die Grundlagen der IT-Forensik und befasst sich mit der Evaluation der beiden Programme „X-Ways Forensics“ und „Magnet AXIOM“. Dabei werden die Stärken und Schwächen der beiden Tools aufgezeigt und Empfehlungen geben, für wen und für welchen Einsatz, welches Programm geeignet ist.
In this work, a transgenic zebrafish line that expresses the fluorophore dsRed under the endogenous zebrafish cochlin promotor is supposed to be established, using the CRISPR/Cas9 system. dsRed was cloned into a pBluescript vector, followed by the cloning of the cochlin locus into this vector. This bait construct was then supposed to be micro injected into wild type AB zebrafish embryos. The micro injection of Cas9 mRNA, single guide RNA and a bait construct was practiced with the tyrosinase gene, which was disrupted using CRISPR/Cas9.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung ob und warum die Anzahl von IT-Sicherheitslücken exponentiell steigt. In Zuge dessen wird der Zusammenhang zwischen der Entwicklung von Sicherheitslücken und der Entwicklung der Code-Länge über die Zeit untersucht. Um die Forschungsfrage zu beantworten, wurden CVE-Daten ausgewertet. Dabei wird nicht nur die allgemeine CVE-Entwicklung, sondern auch ausgewählte Software-Systeme im Speziellen betrachtet. Um die Code-Länge zu untersuchen, wurden die LOC der einzelnen Software-Systeme analysiert. Die Untersuchung ergab, dass die Entwicklung der CVE gesamt einen exponentiellen Trend verfolgt. Die CVE-Entwicklung der einzelnen Software-Systeme verfolgt im Gegensatz dazu in der Mehrheit einen linearen Trend. Auch die LOC-Entwicklung der Software-Systeme passt sich diesem Trend an. Somit zeigt sich, dass die drastische Entwicklung der Sicherheitslücken nicht ausschließlich durch eine drastische LOC-Entwicklung beeinflusst wird, sondern von verschiedenen Faktoren abhängt, die sich untereinander verstärken.
Die Bachelorarbeit untersucht, welche Auswirkungen die semantische Bildsegmentierung als Vorverarbeitungsschritt für Eingabebilder auf die Klassifikationsfähigkeit eines Convolutional Neural Networks (CNN) hat. Zu diesem Zweck werden Experimente mit verschiedenen Visualisierungstechniken gemacht, die geeignet sind, relevante Aspekte des Datenflusses im CNN während des Klassifikationsprozesses (wie z.B. den für die Klassifikationsentscheidung relevantesten Bildausschnitt) intuitiv zu veranschaulichen. Hierzu sollen verschiedene bereits existierende Ansätze wie GradCAM, Taylor Decomposition, Activation Maximization auf ihre Anwendbarkeit anhand von synthetischen Bilddaten systematisch untersucht werden. Hierzu werden
Daten- und Kontrollschnittstellen zu den anvisierten CNN-Verfahren umgesetzt und Vergleichsexperimente mit unbehandelten und auf verschiedene Weise vorsegmentierten Bilddaten konzipiert und durchgeführt. Die Arbeit soll ein intuitives Verständnis bzgl. der Fragestellung fördern, welchen Effekt eine vorherige Bildsegmentierung auf das Klassifikationsresultat und die CNN-interne Repräsentation von bildbasierten Daten hat
Untersuchung potenzieller Angriffsvektoren auf Container-Infrastrukturen unter Nutzung von Docker
(2021)
Die Digitalisierung ist eine der größten Herausforderungen der Wirtschaft. Eine Containervirtualisierung kann dabei vielversprechende Lösungen bieten, unterliegt jedoch ebenso Angriffen. Diese Arbeit zeigt am Beispiel von Docker auf, mit welchen Angriffsvektoren auf eine Container-Infrastruktur gewirkt und mit welchen Schutzmaßnahmen diese gehärtet werden kann. Die Untersuchungen stellen dar, wie schützenswerte Daten erbeutet, exogen Einfluss auf die in Containern verarbeiteten Daten genommen und mit
Schadsoftware auf gesamte Infrastruktur gewirkt werden kann. Dabei werden Host, Container und weitere Komponenten gleichermaßen berücksichtigt. Die Abhängigkeiten innerhalb von Containern werden zwar voneinander isoliert, jedoch teilen sich Host und Container einen gemeinsamen Kernel. Aus diesem Grund rücken Containerausbrüche und Kernelangriffe in den Fokus. Für den sicheren Einsatz von Containern können korrekte Konfigurationen bezüglich der Systemaufrufe, Capabilities, Kontrollgruppen, Namensräume
oder des Rootless Mode von entscheidender Bedeutung sein.
Die Bedeutung mobiler Geräte wächst, aufgrund des zunehmenden Funktionsumfanges sowie deren Leistungsfähigkeit, seit ihrer Einführung stetig. Eine Kernkomponente dieser Geräte bildet das Betriebssystem. Hierbei stellt das Android die populärste und am Markt weit verbreitetste mobile Plattform dar. Damit verbunden bilden Android-basierte Geräte de facto das Hauptangriffsziel von Cyberkriminellen, wobei die Systeme in Form von Malware kompromittiert werden. Hieraus erwächst das Erfordernis, effiziente Maßnahmen zur Abwehr dieser Bedrohungen zu entwickeln. Grundlage dafür bildet die forensische Untersuchung dieser Schadanwendungen. Derzeit im Internet verfügbare Signatur-Analysen von Android-Paketen liefern hierbei nur begrenzte Informationen über das charakteristische Laufzeitverhalten dieser Applikationen bei Ausführung des maskierten Schadcodes. Die Zielsetzung dieser Arbeit ist die Schaffung einer hardwarebasierten Android-Analyse-Plattform – auf der Grundlage eines Wandboards –, um mobile Malware zur Laufzeit zu überwachen und, neben statischen Applikationsdaten, deren schadhaften Aktivitäten – gestartete Prozesse, nachgeladene Bibliotheken und Netzwerkverkehr – aufzuzeigen. Das Hauptaugenmerk liegt hierbei auf der Entwicklung und systemischen Integration einer forensischen Methodik zur automatisierten Sammlung und Bereitstellung dieser Daten. Um ein prinzipielles Verständnis für den Themenkomplex zu erhalten, werden elementare Grundlagen und Spezifika der Android-Plattform sowie Aspekte der IT-Forensik ausgeführt. Der Detaillierung der entwickelten Vorgehensweise folgt die veranschaulichte Darstellung des Aufbaus und der Konfiguration der Android -Analyse-Plattform. Die Anwendbarkeit der geschaffenen Methodik wird, in Form eines exemplarischen Untersuchungsablaufes, an einer Android-Malware demonstriert.
We investigate the folding and thermodynamic stability of a tertiary contact of baker's yeast ribosomal ribonucleic acid (rRNA), which is supposed to be essential for the maturation process of ribosomes in eukaryotes at lower temperatures1. Ribosomes are cellular machines essential for all living organisms. RNA is at the center of these machines and responsible for translation of genetic information into proteins2,3. Only recently, the rRNA tertiary contact of interest was discovered in Zurich by the research group of Vikram Govind Panse. Gerhardy et al.1 showed in vitro that within the 60s-preribosome under defined metal ion concentrations the tertiary contact become visible between a GAAA-tetraloop and a kissing loop motif. Our aim is now to understand this RNA structure, especially the formation of the rRNA tertiary contact, in terms of thermodynamics and kinetics at various experimental conditions, such as temperature and metal ion concentration of K(I), Na(I) and Mg(II). Therein, we use optical spectroscopy like UV/VIS spectroscopy and ensemble Förster or Fluorescence Resonance Energy Transfer (FRET) folding studies. Our findings will help to further characterize this newly discovered ribosomal RNA contact and to elucidate its function within the ribosomal maturation process.
Mittels GPM3 können komplexe DNA- Mischspuren analysiert und STR- Profile ausgewertet werden. Zudem können durch Berechnungen die Genotypen, die in einer Mischung vorliegen, voneinander differenziert werden. Vor allem komplexe Mischspuren stellen einen Schwerpunkt bei der Spurenuntersuchung dar. Eine Anwendung von GPM3 ist die komponentenweise Dekonvolution von DNA- Mischspuren, bei der die Profile der beteiligten Personen aufgetrennt und die Wichtungen aller möglichen Genotypen ausgezählt werden. Dabei werden die Genotypkonstellationen (GTK) basierend auf den Peakhöhen, der Degradationsstärke und stochastischen Effekten bei Einsetzten von geringen DNA- Mengen modelliert. Der von der Firma Qualitype vorgegebene Grenzwert für die Wichtung, ab welcher mit einer hohen Wahrscheinlichkeit angenommen werden kann, dass es sich bei dieser GTK um den richtigen Genotyp der beteiligten Person handelt, liegt bei 90 %. Folglich werden Untersuchungen im Rahmen dieser Arbeit zu diesem Grenzwert anhand von verschiedenen 2- Personen- Mischungen in unterschiedlichen Konzentrationen mittels der Dekonvolution mit dem vollständig- kontinuierlichen Modell durchgeführt.
In der Arbeit werden dazu die jeweiligen Abstände der Wichtungen in Prozent der GTK der beteiligten Personen jeder Mischung berechnet und überprüft, ob die am höchsten gewichteten Genotypen in GPM3 den richtigen Allelkombinationen der jeweiligen Person entsprechen. Hierbei wird der Abstand der Konstellation mit der größten Wichtung zur „wahren“ Konstellation berechnet. Aus den Mittelwerten der prozentualen Abstände soll anschließend der Ähnlichkeitswert der Wichtung, ab welchem noch mit sehr hoher Wahrscheinlichkeit die richtige GTK ausgegeben wird, ermittelt werden.
Das Ziel der Bachelorarbeit ist es, die Möglichkeiten und Grenzen der Dekonvolution von Mischspuren mit der GPM3- Software bei verschiedenen Analysebedingungen zu bewerten und einen Auswerteparameter in Abhängigkeit von den Abständen der Wichtungen in Prozent und den Konzentrationen der einzelnen Mischungen zu validieren. Zudem soll die Nachweisgrenze der Analysemethode untersucht werden, um eine Aussage über die Minimalmenge an einzusetzender DNA treffen zu können
Die vorliegende Arbeit befasst sich mit dem Fakeshop Phänomen als Cybercrime Delikt. Nach einer kurzen Erläuterung des Bereiches Cybercrime und einer Darstellung der Phänomenologie eines Fakeshops wird dieser anhand einer beschriebenen Sachlage auf seine Strafbarkeit analysiert. Zur Analyse werden Rechtsnormen aus dem Strafgesetzbuch hinzugezogen, die in der Literatur dem Cybercrime im engeren Sinne zugeordnet sind. Anhand dessen soll erörtert werden, welche Tatbestandsmerkmale der Paragrafen durch den Sachverhalt festgestellt werden können und ob der objektive Tatbestand bei einem Fakeshop Phänomen erfüllt wird. Des Weiteren werden mögliche Folgen, die durch einen Fakeshop auftreten können präsentiert und im Anschluss dessen einige Möglichkeiten aufgezeigt, um sich präventiv gegen eine Fakeshop-Falle schützen zu können.
Die Recyclingfähigkeit von faserbasierten Lebensmittelverpackungen wird durch Restanhaftungen des Lebensmittels vor Probleme gestellt. Dadurch ausgelöste Verkeimungen bei der Altpapierlagerung beeinträchtigen den Recyclingprozess. Die entwickelten Mikroorganismen beeinflussen wiederum die Herstellungskette innerhalb einer Papierfabrik, da es zu hohen organischen Belastungen kommen kann. Die Bachelorarbeit untersucht den mikrobiologischen Einfluss von Lebensmitteln, auf die Altpapierlagerung derer faserbasierter Verpackungen.
Messengerdaten auf Mobiltelefonen sind häufig für Ermittlungs- und Strafverfahren relevant. Eine händische Untersuchung dieser ist für einen digitalen Forensiker jedoch sehr arbeits- und zeitintensiv. Aus diesem Grund wird in dieser Bachelorarbeit ein möglichst effektives Verfahren
zur Auswertung und Aufbereitung von Messengerdaten auf Mobiltelefonen vorgestellt, welches digitalen Forensikern als Leitfaden dienen soll. Das vorgestellte Verfahren kann für jeden Messenger verwendet werden und basiert auf der Methode des Reverse Engineerings. Um dessen Anwendung zu demonstrieren und seine Funktionalität unter Beweis zu stellen, werden die Daten des Messengers TamTam, insbesondere die Datenbanken, exemplarisch ausgewertet und aufbereitet.
Das Ziel dieser Arbeit ist es verschiedene Methoden der Platzierung von Vegetation zu vergleichen und in Hinsicht auf die Qualität der Ergebnisse zu beurteilen. Zum Vergleich dient in diesem Fall die Natur selbst als Maßstab, denn diese soll bei den meisten Methoden simuliert werden. Die Methoden zur Generierung sind vielfältig und unterschiedlich komplex. Einem Entwickler stellt sich nun die Frage zu welcher Methode oder welcher Kombination er greifen soll unter den Aspekten Entwicklungsaufwand, Performanz, Qualität und Flexibilität. Es soll erkundet werden, bei welchen Vorhaben es sich für einen Spielentwickler lohnt ein solches System zu implementieren oder ob herkömmliche Produktionsketten sinnvoller wären.
In dieser Arbeit wurden verschiedene kaliumselektive Elektroden hergestellt. Diese wurden auf Funktion und Selektivität überprüft. Anschließend wurden Messungen mit ausgewählten Elektroden in aufgeschlämmten Bodenproben durchgeführt, um das Einstellverhalten und das pflanzenverfügbare Kalium, angelehnt an eine Methode der VDLUFA, zu bestimmen. Da diese Methode aber auf der Analyse mit Atomabsorptionsspektrometrie beruht, wurden die Ergebnisse beider Messmethoden miteinander verglichen.
Im Rahmen der Untersuchungen für die vorliegende Bachelorarbeit wurden in fünf einstufigen Biogasreaktoren Maissilage vergoren. Die Zugabe von Harnstoff sollte eine Prozessstörung induzieren. Zur Überwachung des Prozessverlaufes erfolgten die gängigen Analysen (pH, FOS/TAC, NH4-N, GC etc.). Zusätzlich sollten Gasproben aus den Reaktoren entnommen und mittels IRMS analysiert werden, um das Isotopenverhältnis des gebildeten Biogases zu untersuchen.
Offensive Sprache im Internet ist ein stark diskutiertes Problem in sozialen Medien. Angriffe richten sich oftmals gegen Einzelpersonen, können aber auch auf Gruppen und andere Strukturen abzielen. Die Erkennung angreifender Inhalte funktioniert in vielen Ansätzen bereits sehr gut. Die Erkennung der Ziele hingegen ist bisher nur wenig erforscht. Die vorliegende Arbeit befasst sich mit der Aufarbeitung des aktuellen Forschungsstandes zu offensiver gerichteter Sprache, den Grundlagen derer Erkennung und dem Vergleich verschiedener Ansätze. Die Auswirkungen von Vorverarbeitung und Parametrisierung der Modelle werden analytisch diskutiert.
Soziale Netzwerke und Messaging Dienste sind in der heutigen Zeit nicht mehr nur ein Modetrend für Jugendliche und technikaffine Menschen. Sie sind durch die stetig größer werdende Verbreitung von Smartphones und die sich dadurch bietende Möglichkeit, solche Anwendungen immer und überall zu nutzen, in den Fokus der Allgemeinheit gerückt. Heute sind sie für eine große Mehrheit der Bevölkerung ein fester Bestandteil des privaten und auch beruflichen Lebens. Allerdings sind diese Möglichkeiten auch kritisch zu betrachten, da sie auch leicht missbraucht werden können. Das Ziel der vorliegenden Bachelorarbeit ist es, die Analyseplattform Wandboard zur Verwendung des Messaging Dienstes Jodel und der automatisierten Extraktion der Posts zu konfigurieren, damit diese später ausgewertet werden können. Dabei soll es möglich sein, die vom Gerät verwendeten GPS-Koordinaten soweit anzupassen, dass ein bestimmtes Gebiet abgerastert und dort alle Nachrichten automatisiert gepollt und anschließend in einer geeigneten Datenstruktur mit den entsprechenden Koordinaten und Nutzeridentifikationen abgelegt werden können. Zunächst beschreibt die Arbeit also alle nötigen Grundlagen und anschließend die Konfiguration des Wandboards zur Verwendung Jodels und dem Anpassen der Standortdaten. Im Anschluss wird das Suchen und Extrahieren der Bilder und Ansätze dazu, wie die Nachrichten extrahiert werden könnten, beschrieben. Dabei wird auch auf das Abfangen und Auswerten von Netzwerkverkehr durch ARP Poisoning und das Auswerten von RAM Dumps eingegangen. Zusätzlich wird auch das Anpassen der GPS-Koordinaten und das dadurch ermöglichte Abrastern eines bestimmten Areals erklärt. Die Triangulation des Ausgangsortes eines Posts und die Identifikation der einzelnen Teilnehmer werden theoretisch beschrieben und zuletzt noch die Eignung des Wandboards für dieses Projekt diskutiert. Letztendlich kann diese Arbeit als Leitfaden und Vorarbeit für später folgende Forschung verwendet werden, um die hier bereits gemachten Erkenntnisse zu nutzen und etwaige Fehler zu vermeiden.
Das Thema IT-Sicherheit wird durch zunehmende Vernetzung, neue Anforderungen an Systeme und Industrie 4.0 auch für industrielle Netzwerke wie SCADA und ICS immer wichtiger.
Finanzielle Schäden durch Angriffe steigen von Jahr zu Jahr. Deswegen ist es wichtig, diese Netzwerke zu schützen und Angriffe frühzeitig zu erkennen, um zeitnah auf diese reagieren zu können und größere Schäden zu vermeiden. Da klassische Methoden ICS Systeme zum Teil behindern können und um einen zusätzlichen Schutz zu den normalen Intrusion Detection Systemen und Firewalls zu bieten, ist das Ziel dieser Arbeit, die Entwicklung einer Plattform, zur
verhaltensbasierten Detektion von Angriffen in solchen Netzwerken. Dafür werden Honeypots im Netzwerk verteilt, welche dazu dienen, Angriffe, die das normale IDS oder Firewalls umgangen haben, oder gar von Internen durchgeführt werden, zu erkennen. Die Honeypots sind in der Lage, Zugriffe auf die von ihnen verwendeten Protokolle zu erkennen und senden in diesem Fall Meldungen an einen zentralen Server, welcher diese in einer Datenbank speichert und in einem Dashboard visualisiert. Das in dieser Arbeit beschriebene Konzept und seine detailliert beschriebene Umsetzung sollen den Einstieg für Unternehmen in dieses Thema erleichtern und zu weiterer Forschung auf diesem Gebiet anregen.
Die Salzgitter Flachstahl GmbH (SZFG) ist das größte Tochterunternehmen der Salzgitter AG und stellt unterschiedliche Flachstahlprodukte her. Sie beinhaltet
verschiedenen Produktionsbereiche und Produktionsanlagen, wie bspw. das Hochofenwerk mit der Erzvorbereitung und den Hochöfen, das Stahlwerk mit den Stranggießanlagen, das Warmbreitbandwalzwerk mit der Warmbreitbandstraße und der Schubbeize, und abschließend der Bereich Kaltflach mit der Kontibeize, der Tandemstrasse, der Glüherei und der Dressierstraße, den Verzinkungsanlagen, der Bandbeschichtung und den Coillinien.
Eine der Beizanlagen der SZFG ist die Kontibeize 2 (KB2) aus dem Bereich Kalt-flach. In der KB2 werden die Stahlbänder vom Oberflächenzunder und von Verschmutzungen befreit. Weite Teile des zu verarbeitenden Materials der SZFG durchläuft die KB2. Ihrer Verfügbarkeit wird daher eine große Bedeutung beige-messen. Die Verfügbarkeit ist das Maß für den störungsfreien Betrieb einer jeden Produktionsanlage. Sie verringert sich über die Anzahl und die jeweilige
Dauer von Störungen in Relation zu der verfahrenen Produktionszeit.
Die Diplomarbeit zielt auf eine Erhöhung der Anlagenverfügbarkeit ab, indem die Zeit nach Störungseintritt bis zum Wiederanlauf der Anlage verringert werden soll. Unter bestimmten Störbedingungen fehlen zurzeit verschiedene Materialdaten, um die Anlage bei Datenverlust sicher anzufahren. Durch eine bessere Übersicht über die gespeicherten Materialdaten im Anlagenspeicher und des folglich leichteren Abgleichs der Daten mit dem Material vor Ort, wird den Mitarbeitern helfen fehlerhafte Datensätze in der Anlagensteuerung zu erkennen und dadurch Fehler beim Anfahren der Anlage zu vermeiden.
Realisierung eines Pin-Testers zur Identifikation von Schnittstellen für forensische Auswertungen
(2018)
Die vorliegende Bachelorarbeit befasst sich mit der Realisierung eines Pin-Testers unter Einsatz eines Analog Devices, mit deren Hilfe Schnittstellen erkannt werden können. Dazu wird eine geeignete Software und ein angemessenes Messverfahren angewendet, um sogenannte Kennlinien von Pins aufzunehmen. Anhand der Kennlinien sollen Schnittstellen erkannt werden. Im Gegensatz zu kommerziellen Produkten wird hier das Analog Device ADALM1000 verwendet, das eine kostengünstige Alternative darstellt. Damit lassen sich andere analoge Systeme testen und ausmessen. Durch seine geringe Größe ist es für den praktischen und dynamischen Einsatz gut geeignet.
Inhalt dieser Arbeit ist der Einfluss von Rhamnolipiden auf die Vesikulation von Gram-negativen Bakterien am Beispiel von Pseudomonas putida. Es soll unter-sucht werden, ob die Vesikulation durch Zugabe von Rhamnolipiden erhöht wird und ob die Anwesenheit von Rhamnolipiden die Wirkung langkettiger Alkohole (hier wurden 1-Octanol und 1-Decanol verwendet) abschwächt.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, einen effizienten Workflow für die Erstellung einer Destruction-Simulation herauszuarbeiten und Kriterien für ihre Glaubhaftigkeit darzustellen. In einer praktischen Umsetzung werden diverse Schritte zur Erstellung einer Simulation auf ihre Funktionalität überprüft und erklärt. Die Erkenntnisse aus der Analyse, gestützt durch die Aussagen von Spezialisten aus angesehenen VFX-Studios, verdeutlichen, dass viele Faktoren bei der Erstellung einer Simulation zu beachten sind, die deren Verlauf beeinflussen können.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.
Die vorliegende Diplomarbeit beschreibt den Entwurf und die Umsetzung einer ticketgestützten Bearbeitung des Prozesses „Neuer Mitarbeiter“ an der Hoch-schule Mittweida mit dem Ticketsystem KIX. Dazu wird der IST-Zustand doku-mentiert und analysiert. Auf Basis einer Schwachstellenanalyse wird ein SOLL-Konzept entwickelt und mit dem IST-Zustand verglichen. Abschließend wird das SOLL-Konzept des Prozesses „Neuer Mitarbeiter“ mit Hilfe des Prozess-management-Moduls im Ticketsystem KIX implementiert und die Ergebnisse betrachtet.
Durch die zunehmende Nutzung mobiler Endgeräte fallen im alltäglichen Leben zahlreiche personenbezogene Daten an. Zu diesen Daten gehören unter anderem auch GPS-Positionen, die von handelsüblichen Smartphones erhoben werden. Besonders Android-Geräte sammeln eine große Menge an Positionsdaten, die für verschiedene Wissenschafts-Domänen, wie beispielsweise Medizin oder Forensik, eine Rolle spielen. Für verschiedene Anwendungsfälle kann eine Aggregation der einzelnen GPS-Positionen zu Orten und verbindenden Strecken relevant sein.
Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Aggregation von GPS-Standorten zu Orten, deren Besuchen und Verbindungen. Nach Implementierung des Algorithmus wurde dieser in eine Java-Applikation eingebettet, die unter anderem der Visualisierung der erzielten Ergebnisse dient. Für die Evaluation des Algorithmus wurden über einen Zeitraum von zwei Monaten Standortdaten mit Hilfe eines Android-Smartphones erhoben, welche unter Verwendung des implementierten Algorithmus ausgewertet wurden. Die Evaluation resultierte in einem Parameterset, welches sich für die Auswertung des vorliegenden Testdatensatzes als geeignet herausstellte. Das Ergebnis der Arbeit ist ein funktionstüchtiger Algorithmus, der vielfältige Anwendungsmöglichkeiten aufweist und dessen Erweiterung ein hohes Potenzial für Folgeprojekte bietet.
Diese Arbeit beschäftigt sich mit der Realisierung eines open-sourec GSM-IMSICatchers. Dafür werden die Grundlagen des GSM-Protokolles, die technischen Daten verschiedener SDR-Geräte und open-source Software für die Ansteuerung der Software Defined Radios sowie zur Signalverarbeitung untersucht. Für diese Arbeit verwendet wurden das LimeSDR, das Netzwerkanalyseprogramm Wireshark und auf GnuRadio basierende Software. Das erreichte Ergebnis ist ein IMSI-Catcher, der für das Abfangen und Auswerten von GSM-Verkehrsdaten verwendet werden kann. Für das gezielte Wiederaussenden von GSM-Daten wurden notwendige Voruntersuchungen getroffen und erste Tests durchgeführt. Vor einer praktischen Anwendung eines Weiterleitens von GSM-Daten wären aber weitere Anpassungen des
IMSI-Catchers notwendig.
Ziel dieser Masterarbeit ist eine Analyse des Voice-over-LTE-Netzwerkes auf Sicherheitsschwachstellen. Zuerst findet dafür eine theoretische Untersuchung des VoLTE-Protokolls mit einer Fokussierung auf seine sicherheitsrelevanten Merkmale statt. Anschließend wird das Session-Initiation-Protokoll (SIP) als Element für die praktische Untersuchung ausgewählt. Praktisch wird zuerst gezeigt, dass VoLTE-SIP-Pakete sensitive Daten enthalten, die auf den Endgeräten mitgelesen werden können. Anschließend werden manipulierte SIP-Pakete in das Netzwerk gesendet, die das Abfragen von Informationen und den Datenaustausch mit anderen VoLTE-Nutzern ermöglichen. Durch einen Vergleich der Arbeit mit anderen Veröffentlichungen wird gezeigt, dass es bereits ähnliche Ansätze gibt, die in dieser Arbeit verwendeten SIP-Pakete aber noch nicht für ein Auslösen unautorisierter Prozesse verwendet wurden. Zum Schluss wird dargestellt, in welchen Bereichen auf Basis dieser Arbeit weiter geforscht werden kann und welche Konsequenzen die gefundenen Ergebnisse für die VoLTE-Nutzer haben.
Die vorliegende Arbeit befasst sich umfangreich mit der Thematik der »Security Incident and Event Management« (SIEM) Systeme und ihrer Installation, Organisation und Anwendung in kleinen und mittleren Unternehmen (KMU). Am Anfang wird dem Leser die Funktionsweise eines solchen SIEM Systems erklärt, um im Anschluss am Beispiel der miteinander interagierenden Softwares Elasticsearch, Logstash, Beats und Kibana schrittweise in einer IT-Infrastruktur zu implementieren. Außerdem wird die Eignung eines solchen Systems für kleine und mittlere Unternehmen in gesetzlicher und organisatorischer Hinsicht auf Basis zweier Studien untersucht, welche den aktuellen Zustand der Thematik IT-Sicherheit in KMU widerspiegeln. Das Ziel der Arbeit ist es festzustellen, in welchem Rahmen ein SIEM System in KMU nötig ist und helfen kann, um die IT-Sicherheit des Unternehmens zu fördern. Dabei wird sowohl auf die Installation, als auch auf die Nutzung eins SIEM Systems unter den in KMU vorherrschenden Bedingungen betrachtet.
In dieser Arbeit beschäftigt sich der Autor mit der Identifikation eines Spielertyps für das Videospiel-Genre "Soulslike". Er erläutert dafür Spielertyp-Theorien und die Theo-rie des Spaßes. Zusätzlich analysiert er das "Soulslike"-Genre, indem er verschiedene Spiele aus dem Genre durchleuchtet. Um einen Spielertyp zu erfassen, wertet er eine Umfrage aus, die er Spielern diesen Genres ausfüllen lässt.
Ziel dieser Arbeit ist es, an ausgewähltem Material aus einer Skelettsammlung eine morphologische Geschlechtsbestimmung am Os ilium (Darmbein), einem Teil des Os coxae (Hüftbein), durchzuführen und deren Zuverlässigkeit zu überprüfen. Um die Bestimmung des Geschlechts sicherer zu machen, werden weitere morphologische Analysen am Cranium sowie an den Ossa coxae und eine osteometrische Analyse am Femur durchgeführt und mit den Ergebnissen der Geschlechtsbestimmung am Os ilium verglichen.
Die vorliegende Bachelorarbeit widmet sich dem Entwurf und der prototypischen Implementierung einer Teilnehmeridentifikationsmethode für LabCon, ein Nutzerverwaltungssystem für Online-Praktika. Der Fokus liegt auf dem Einsatz von Digital Fingerprinting, einer Technologie, die durch die Extraktion charakteristischer Merkmale der Browser und der Geräte von Nutzern eine eindeutige Identifikation ermöglicht.
Das Ziel der vorliegenden Arbeit war es, ein für mittelständische und kleine Unternehmen geeignetes Format für die Versendung elektronischer Rechnungen zu finden, hierfür eine Softwarelösung zu entwickeln und diese in ein bestehendes Produkt zu integrieren. Nach gründlicher Analyse fiel die Entscheidung auf das ZUGFeRD-Format, für welches eine nun kommerziell vertriebene Komponente entwickelt wurde, die zusammen mit einem, im Rahmen der Arbeit entwickelten E-Mail-Client, in die Software HSC-AuftragPlus integriert wurde. Damit lassen sich ZUGFeRDRechnungen ohne Umwege oder externe Programme sowohl empfangen und importieren, als auch exportieren und versenden. Bei diesen Schritten erfolgt auch immer eine mehrstufige Validierung und entsprechendes Feedback an den Benutzer. Da die Bachelorarbeit auf betriebswirtschaftliche, juristische und informatische Aspekte eingeht, sollte sie insbesondere für Studierende der Informatik und Wirtschaftswissenschaften viele interessante Informationen enthalten
Im Rahmen der vorliegenden Bachelorarbeit sollte ein Add-On zur semi-automatischen Phantombilderstellung in Blender erstellt werden. Hierfür wurden bereits bestehende Add-Ons von Einzelprozessen der Gesichtsweichteilrekonstruktion miteinander verbunden und einem einheitlichen Bild angepasst. Zudem wurden Anpassungen und Erweiterungen an den Add-Ons vorgenommen, um die Anwenderfreundlichkeit zu erhöhen. Abschließend wurde das Ergebnis mit anderen Computergestützten Rekonstruktionsmethoden verglichen.
In dieser Bachelorarbeit wird ein E-Learning Kurs zum Kompetenzerwerb auf dem Gebiet der IT-Sicherheit konzipiert, implementiert und evaluiert. Dazu werden zunächst für Endnutzende relevante Themen der IT-Sicherheit identifiziert und die theoretischen Fundierungen für die Umsetzung als ein Web-based Training gelegt. Die Umsetzung des Konzeptes in einen Moodle-Kurs wird beschrieben. Es wird eine Evaluation der Usability des Kurses und des Lernerfolges durchgeführt.
Etablierung eines Verfahrens zur Herstellung von
Keratinhydrolysat aus Rinder- und Pferdehaaren
(2017)
Diese Arbeit beschäftigt sich mit der Etablierung eines Verfahrens zur Herstellung unterschiedlich stark abgebauter Keratinhydrolysate aus Rinder- und Pferdehaaren. Dafür wurden verschiedene aus der Literatur bekannte Extraktionsmethoden angewendet und deren Eignung unter Variation der Inkubationstemperatur, der Inkubationsdauer und der Konzentration der eingesetzten Chemikalien untersucht. Anschließend erfolgte eine gelelektrophoretische Charakterisierung der gewonnenen Hydrolysate. Weiterhin wurde eine Aminosäureanalyse sowie eine Bestimmung freier Thiolgruppen mittels Ellman’s Reagenz durchgeführt.
A relatively new research field of neurosciences, called Connectomics, aims to achieve a full understanding and mapping of neural circuits and fine neuronal structures of the nervous system in a variety of organisms. This detailed information will provide insight in how our brain is influenced by different genetic and psychiatric diseases, how memory traces are stored and ageing influences our brain structure. It is beyond question that new methods for data acquisition will produce large amounts of neuronal image data. This data will exceed the zetabyte range and is impossible to annotate manually for visualization and analysis. Nowadays, machine learning algorithms and specially deep convolutional neuronal networks are heavily used in medical imaging and computer vision, which brings the opportunity of designing fully automated pipelines for image analysis. This work presents a new automated workflow based on three major parts including image processing using consecutive deep convolutional networks, a pixel-grouping step called connected components and 3D visualization via neuroglancer to achieve a dense three dimensional reconstruction of neurons from EM image data.
In dieser Arbeit werden ausgewählteWerbenetzwerke in Android-Apps im Hinblick auf deren Datenerhebung betrachtet. Dabei stellen sich folgende Forschungsfragen: Welche Daten werden an die Werbenetzwerke übermittelt? Wie decken sich die übermittelten Daten mit den Angaben seitens der Werbenetzwerke? Wie werden die Daten von dem Android-Gerät erhoben und welchen Einfluss haben die Daten auf die Privatsphäre des Benutzers? Um die Forschungsfragen zu beantworten, ist eine Auswahl von 100 Apps aus dem Google Play Store getroffen und auf deren enthaltenen Werbenetzwerke analysiert worden. Anschließend wurde der Netzwerkverkehr von ausgewählten Werbenetzwerken mithilfe eines Proxy-Server betrachtet, um die übermittelten Daten abzufangen. Gleichzeitig sind die Datenschutzerklärungen
der ausgewählten Werbenetzwerke im Hinblick auf deren Angaben zu erhobenen Daten betrachtet worden.
Abschließend wurde der Quellcode von den Werbenetzwerken angeschaut, um herauszufinden wie die Daten aus dem Android-System erhoben werden.
Die Ergebnisse der Analyse des Datenverkehrs zeigen, dass neben Daten über das verwendete Gerät, die ausführende App, zur ungefähren Positionsbestimmung und zu Einstellungsparameter auch Statusinformationen, wie Ladezustand der Batterie und freier Speicherplatz, übertragen werden. Es wurde festgestellt, dass Werbenetzwerke erheblich mehr Daten erheben und übermitteln als in deren Datenschutzerklärungen angegeben. Durch die Analyse des Quellcodes der Werbenetzwerke konnte herausgefunden werden, dass Daten zum einen über API-Aufrufe an das Android-System ermittelt werden und zum anderen durch entsprechende Algorithmen der Werbenetzwerke. Mithilfe der Ergebnisse konnte gezeigt werden, dass seitens der Werbenetzwerke eine bessere und umfangreichere Angabe zu den erhobenen Daten wünschenswert ist.
Weiterhin konnten unter den Daten keine personenbezogenen Informationen gefunden werden, welche eine Zuordnung zu einem einzelnen Individuum erlauben. Jedoch wurden Informationen gefunden, die eine Zuordnung der Daten zu einem einzelnen Gerät erlauben.
Häufiger werden komplexere Fachanwendungen nicht mehr nach dem Rich-Client-Prinzip konzipiert, sondern in einer Web-Frontend-Backend-Architektur umgesetzt. Die Modellierung komplexer Geschäftsprozesse erfolgt meist nach einer serviceorientierten Architektur. Der Einsatz von Webservice-Technologien ist besonders für die technische Realisierung von serviceorientierten Architekturen geeignet. Neue Marktanforderungen von mobilen Geräten und höhere Entwicklungsgeschwindigkeiten fordern von Softwareherstellern noch flexiblere, nachhaltigere und dezentralere Lösungen. Microservices greifen das Problem auf und fokussieren die Modularisierung von monolithischen Systemen. Die Entwicklung unabhängiger Services, die einzeln erstellt und ausgeliefert werden können, tragen zu einer agilen Softwareentwicklung bei. Ziel der Arbeit ist es, eine Strategie für die Anbindung von Webservices in Projekten zu liefern. Neben der im Enterprise-Umfeld etablierten serviceorientierten Architektur wird der neuere Ansatz der unternehmensübergreifenden Microservice-Architektur aufgegriffen. Am Beispiel eines Prototyps werden die Rahmenbedingungen dargestellt, die für die Anbindung von verschiedenen Webservices erfüllt sein müssen. Zusätzlich werden Vorschläge gegeben, die die Funktionalitäten des Prototyps bei einem Ausfall externer Dienste sicherstellen.
Diese Diplomarbeit befasst sich mit der Evaluierung der Entwicklungsumgebung „MIT App Inventor 2“. Dazu wird eine Android-App, zur Visualisierung, Bewertung und Speicherung von Messwerten, welche von einem mobilen Sensorknoten eines Umgebungsscanner per Bluetooth Low Energy bereitgestellt werden, erstellt. Hauptziel ist die Bewertung von „MIT App Inventor 2“ im Hinblick auf die technischen Anforderungen und Installationsablauf der Entwicklungsumgebung, den Schwierigkeitsgrad des Entwicklungsprozesses der Android-App und das Änderungsmanagement bei Änderungen an der App. Außerdem wird die Funktionalität, mögliche Einschränkungen und der Ressourcenverbrauch der Entwicklungsumgebung bewertet.
Diese Bachelorarbeit untersucht die Auswirkungen von auditiven und visuellen Reizen auf das Spielerlebnis beim Lösen von interaktionsbasierten Rätseln.
In der Welt des Spieldesigns spielen sensorische Hinweise eine entscheidende Rolle um Spieler zu fesseln, sie in das Spiel eintauchen zu lassen und sie durch Herausforderungen zu führen.
Die Arbeit befasst sich mit der Frage, welche Art sensorischer Reize faszinieren und damit Immersion und Effektivität bei der Vermittlung von Rätselinformationen bewirken. Darüber hinaus wird untersucht, wie individuelle Vorlieben und Fähigkeiten sensorische Reizverarbeitung betreffend den allgemeinen Spielspaß beeinflussen können.
Ziel dieser Diplomarbeit ist die experimentelle Untersuchung der optischen Freiraumübertragung (FSO) von Daten. Unter Verwendung von Protokollen der Kommunikationstechnik werden IEEE-Standards analysiert und die Anwendbarkeit für FSO überprüft. Ein geeigneter Standard wird dann verwendet, um eine experimentelle Datenübertragung mit Licht über den Freiraum durchzuführen.
Die vorliegende Bachelorarbeit befasst sich mit der Thematik zur Überprüfung der möglichen Schädigung von Lederhalbfabrikaten (Wet-Blue) durch verschiedene Schimmelpilze, welche auf Leder vorgekommen sind bzw. bereits von Leder isoliert werden konnten. Dafür sollte das Wachstum der Schimmelpilze auf dem Halbfabrikat mit Hilfe von Kultivierungsmethoden aus verschiedenen Bewuchstests gezielt gefördert werden. Anschließend wurden die Prüflinge auf eine Materialschädigung untersucht und auf mögliche Nährstoffquellen für das Wachstum der Schimmelpilze zurückgeschlossen
Die vorliegende Masterarbeit befasst sich mit der Thematik der vergleichenden Untersuchung zur Ausprägung sehnenspezifischer Marker in Scaffold- versus Sphäroid-basierten Tissue Engineering Konstrukten. Dafür sollten humane aus dem Knochenmark stammende mesenchymale Stammzellen verwendet und tenogen differenziert werden und auf einem Kollagen-Scaffold oder als Sphäroid im Kollagen-Hydrogel kultiviert werden. Aussagen über eine mögliche Differenzierung sollten durch mikroskopische Untersuchungen und durch qPCR ermittelt werden.
Die Bildung von Sphäroiden sollte durch die Kultivierung im Hanging-Drop mit der Kultivierung in Mikrotiterplatten mit zellabweisender Oberfläche vergleichend untersucht werden. Dafür wurden neben mikroskopischen Untersuchungen, Färbemethoden und Gefriermikrotomschnitte herangezogen.
Als Positivkontrolle wurden humane Tenozyten (Sehnenzellen) verwendet.
Die vorliegende Arbeit befasst sich mit einem Vergleich zwischen nationalen und internationalen Verwendungsmöglichkeiten des Werkzeugs eDiscovery in der M365 Cloud. Dabei werden verschiedene technische Einschränkungen vorgestellt, welche die Datenschutzrechtlich konforme Nutzung dieses Werkzeuges ermöglich sollen.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Streifentestsystems, mit einer integrierten Amplifikationsmethode und Read-out-System, zum Nachweis pathogener Bakterien in Wunden. Dabei wird als Amplifikationsmethode die Rekombinase-Polymerase-Amplifikation (RPA) unter Verwendung des TwistAmp® nfo Kits, der Firma TwistDX Ltd., gewählt. Zur Detektion sollen Milenia HybriDetect Streifentests, der Firma Milenia Biotec GmbH, verwendet werden, da diese mit dem TwistAmp® nfo Kit kombiniert werden können. Diese zwei Methoden sollen in die onsite.flow Kartusche, der Firma BiFlow Systems GmbH, eingebracht werden. Um dies zu realisieren, sollen thermographische Charakterisierungen mit der onsite.flow Kartusche durchgeführt werden. Wichtig ist dabei, vor allem die Temperatur bei 37° C, da die RPA hier ihr Optimum findet. Um dies zu testen, sollen zwei Regelungsarten der onsite.flow Kartusche untersucht werden. Zum einen die Regelung über die Stromstärke und zum anderen die Regelung über die Temperatur. Weiterhin soll die Nachregelung der Temperatur durch ein Offset untersucht werden und das Beheizen von Flüssigkeiten im Näpfchen mit der onsite.flow Kartusche. Zudem sollen mit dem TwistAmp® nfo Kit, mithilfe von Agarosegelen, erste Versuche unter verschiedenen Reaktionsbedingungen durchgeführt und in Hinblick auf eine quantitative Aussage, untersucht werden. Außerdem sollen die Milenia HybriDetect Streifentest auf verschiedene Bedingungen, die in der onsite.flow Kartusche vorliegen, im Reaktionsgefäß getestet werden. Anschließend soll die RPA im Näpfchen der onsite.flow Kartusche durchgeführt werden und mit den Streifentests das Amplifikationsprodukt detektiert werden. Zuletzt sollen der Streifentest und die Reaktionsbestandteile des TwistAmp® nfo Kits, in die onsite.flow Kartusche eingebracht werden.
Die biologische Ammoniumoxidation ist ein zentraler Bestandteil des globalen Stickstoffkreislaufs. Angesichts der extremen Massen Stickstoff anthropogenen Ursprungs in der Umwelt, liegt die Entfernung reaktiven Stickstoffs im Interesse der Umwelt und der öffentlichen Gesundheit. In der folgenden Arbeit werden Bedingungen zur anaeroben Ammoniumoxidation mit Nitrat in einem Anammox-Reaktor untersucht. Dabei wurden 2 Laborreaktoren für eine Zeit von insgesamt 116 Tagen betrieben und beobachtet, die ausschließlich als Elektronendonatoren und Akzeptoren Ammonium und Nitrat enthielten. Zusätzlich wurden Batchkulturen mit Zellen eines Reaktors angezüchtet und auf ihre Gaszusammensetzung abhängig unterschiedlicher Eigenschaften untersucht. Hierbei wurde eine Reihe unterschiedlicher analytischer Quantifizierungsmethoden genutzt und es konnte gezeigt werden, dass ein Abbau unter den Bedingungen stattfindet.
Die aktuelle Forschung zu dieser Reaktion ist spärlich und verleiht der Bachelorarbeit dadurch Relevanz.
Die vorliegende Bachelorarbeit beeinhaltet Untersuchungen zur Gewinnung leistungsverbesserter Mutanten des Produktionsstammes Penicillium verruculosum M28-9. Dazu wurde die chemische Mutation mittels N-Methyl-N-Nitro-Nitroso-Guanidin angewendet. Die Selektion von Mutanten mit partiell bzw. vollständig ausgeschalteter C-Katabolitrepression erfolgte mittels eines Submers-Screening.
Das nach der Mutation folgende Submers-Screening wurde unter Verwendung der Antimetabolite 2-Deoxy-D-Glukose sowie 1- oder 2-Thioglycerol in unterschiedlichen Konzentrationen durchgeführt. Die mutierten Konidien wurden kultiviert und konnten anschließend mittels Klonselektionierung auf Agarmedien mit amorpher Cellulose und dem Einsatz der wachstumsbegrenzenden Substanz Bengalrosa selektiert werden.
Im Rahmen der Untersuchungen konnten potentielle Mutanten auf einem Medium mit amorpher Cellulose und 25 g/l Glukose als Repressor erhalten werden.
Diese Arbeit beschäftigt sich mit der Analyse und Evaluierung ausgewählter Tools, im Bereich des IT-Monitorings, sowie der Bewertung der unterschiedlichen Lösungen, unter Berücksichtigung der Anforderungen im Unternehmen. Dazu gehört im Anschluss ebenfalls die Erarbeitung eines Implementierungskonzepts für den Echtbetrieb.
It is possible to obtain a common updating rule for k-means and Neural Gas algorithms by using a generalized Expectation Maximization method. This result is used to derive two variants of these methods. The use of a similarity measure, specifically the gaussian function, provides another clustering alternative to the before mentioned methods. The main benefit of using the gaussian function is that it inherently looks for a common cluster center for similar data points (depending on the value of the parameter s ). In different experiments we report similar behaviour of batch and proposed variants. Also we show some useful results for the “alternative” similarity method, specifically when there is no clue about the number of clusters in the data sets.
The objective of this Bachelor Project is the creation of a tool that should support forensic investigators during IT forensic interventions. It uses Kismet as the base program and adds functionalities to it via the plugin interface. The installation of the plugin shall be explained, how the plugin works, and a recommendation on how to use it. To understand the underlying basics, an introduction about WLAN and Bluetooth is given. The tests that were performed with the new plugin are described as well as their results. It is therefore briefly discussed why the tool is applicable for locating Wi-Fi devices, especially access points, but not Bluetooth devices. Using all this a few ideas on how to improve the tool and what can be researched in this area are provided.
Sequences are an important data structure in molecular biology, but unfortunately it is difficult for most machine learning algorithms to handle them, as they rely on vectorial data. Recent approaches include methods that rely on proximity data, such as median and relational Learning Vector Quantization. However, many of them are limited in the size of the data they are able to handle. A standard method to generate vectorial features for sequence data does not exist yet. Consequently, a way to make sequence data accessible to preferably interpretable machine learning algorithms needs to be found. This thesis will therefore investigate a new approach called the Sensor Response Principle, which is being adapted to protein sequences. Accordingly, sequence similarity is measured via pairwise sequence alignments with different sequence alignment algorithms and various substitution matrices. The measurements are then used as input for learning with the Generalized Learning Vector Quantization algorithm. A special focus lies on sequence length variability as it is suspected to affect the sequence alignment score and therefore the discriminative quality of the generated feature vectors. Specific datasets were generated from the Pfam protein family database to address this question. Further, the impact of the number of references and choice of substitution matrices is examined.
Die vorliegende Bachelorarbeit gibt einen Einblick in das Lernverhalten mit mobilen Endgeräten von Studierenden. Ziel der Arbeit war es herauszufinden, wie, wann und wo Studierende (mobil) lernen, welche Medien sie zur Vorbereitung auf Tests und Prüfungen nutzen, woher sie ihre Lerninhalte beziehen und welche Rolle Videos beim Lernen spielen. Für die Beantwortung dieser Fragen wurde ein Fragebogen mit der Überschrift Lernen im studentischen Kontext erstellt und von Studierenden der Hochschule Mittweida und der TU Chemnitz ausgefüllt. Herausgekommen ist, dass Studierende zeitnah zur Prüfung lernen; seltener jedoch auf mobile sondern vielmehr auf analoge Medien zurückgreifen. Auch die Ortsunabhängigkeit, die laut Definition ein wichtiger Bestandteil des mobilen Lernens darstellt, wird durch das Lernen im vertrauten Umfeld (d.h. zu Hause) in Frage gestellt. Mobile Geräte werden zwar zum Lernen eingesetzt, jedoch hauptsächlich um auf digitale (Lern-)Inhalte zuzugreifen bzw. sich mit Kommilitonen in sozialen Medien auszutauschen.
In the field of satellites it is common practice to combine multiple ground stations into one network, to increase communication times with satellites. This work focuses on TIM, which is an international academic colaborative project. Important criteria for this project are elaborated and used to evaluate existing ground station networks. It concludes that there is no appropriate solution availiable for this specific use case and establish a proposed solution. The proposed ground station network software will be elaborated and evaluated.
In dieser Masterarbeit werden verschiedene Angriffsverfahren auf LTE-Systeme vorgestellt und deren Funktionsweise erläutert. Eine Auswahl dieser Verfahren, welche für Downgrading-Attacks nutzbar sind, werden im Rahmen dieser Arbeit implementiert und in einer definierten Testumgebung auf Funktion getestet und ausgewertet. Ziel ist es dabei die Grundlage für ein Testsetup zu schaffen, bzw. existierende Testsetups zu erweitern, um so effektiv LTE-Systeme Testen zu können.
Das Ziel dieser Masterarbeit ist die Evaluierung des Realtime Multi-Person 2D Pose Estimation Frameworks OpenPose. Dazu wird die Forschungsfrage gestellt, bis zu welcher Pixelgröße ein Mensch allgemein von dem System mit einer Sicherheit von über 50% richtig detektiert und dargestellt wird. Um die Forschungsfrage zu beantworten ist eine Studie mit sieben Probanden durchgeführt wurden. Aus der Datenerhebung geht hervor, dass der gesuchte Confidence Value zwischen 110px und 150px Körpergröße in von Menschen digitalen Bildern erreicht wird.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer Testumgebung für das Fuzzing eines HTTP-Relay einer Firewall. Das Hauptziel ist aber die Entwicklung der sich in der Testumgebung befindenden Testcases, welche die Firewall durch Fuzzing prüfen. Dieser Vorgang soll als Black-box Testing Ansatz konzipiert werden und das Fuzzing der Firewall über das Netzwerk berücksichtigen. Dafür soll ein bereits existierender Fuzzer verwendet werden, welcher als Framework von den Testcases verwendet und instrumentiert wird. Zusätzlich soll während der Durchführung Logfiles verfasst und anschließend ausgewertet werden, um Aufschluss über die Ergebnisse zu erhalten.
G-Protein-gekoppelte Rezeptoren (GPCR) sind wichtige Proteinkomplexe für unzählige physiologische Funktionen und dienen als Startpunkt für moderne pharmazeutische Eingriffe. Trotz ihrer Fülle, bemerkenswerten Größe und Molekularstruktur, welche Zell- und Matrixkontakte in einer Vielzahl von Organsystemen ermöglicht, sind GPCR die am wenigsten verstandene Rezeptorklasse. Die Grundlagenforschung an der räumlichen GPCR-Struktur dient dem besseren Verständnis ihres strukturbasierten Wirkstoffdesigns, wodurch pharmazeutisch interessante Proteine mit Medikamenten spezifisch interagieren können. Dafür werden GPCR in „Human Embryonic Kidney“-Zellen (HEK293S-Zellen) exprimiert und anschließend mit der röntgenkristallografischen Analyse untersucht.
Die vorliegende Arbeit befasst sich mit dem Aufbau einer zentralen Datenbank sowie der Entwicklung eines Webinterfaces. Dazu werden einleitend die nötigen Grundlagen erläutert und die aktuellen Technologien verglichen. Im Hauptteil wird die aktuell eingesetzte Anlagenliste auf Excel-Basis analysiert und Konzepte für die Datenbank und dem Webinterface erstellt. Im Anschluss daran werden die Konzepte umgesetzt und zum Schluss ein Fazit gezogen sowie mögliche zukünftige Entwicklungen angeschnitten.
In der vorliegenden Bachelorarbeit wird anhand von den Vorgaben und veröffentlichen Dokumentationen des BSI eine Schablone für universitäre Einrichtungen erarbeitet, die als Musterlösung für die Implementierung des IT-Grundschutzes an einer Universität dienen soll. Als Beispiel wird dabei die Hochschule Mittweida und ihre infrastrukturellen und organisatorischen Gegebenheiten herangezogen. Diese konkreten Gegebenheiten sollen und müssen bei der Umsetzung des IT-Grundschutz-Profils an die Rahmenbedingungen der jeweiligen umsetzenden Institution angepasst werden. Es werden die einzelnen Schritte der Standard-Absicherung nach IT-Grundschutz durchgeführt und erläutert. Damit soll ein Schutzniveau gewährleistet werden, das dem normalen Schutzbedarf entspricht. Für Zielobjekte mit erhöhtem Schutzbedarf wird zusätzlich eine Risikoanalyse benötigt, die in der vorliegenden Arbeit ebenfalls beispielhaft dargestellt wird.
Im Rahmen der vorliegenden Arbeit wurde die Modifizierung von Titanoberflächen mit Kalziumphosphatbeschichtungen unter Einbeziehung der biologisch aktiven Spurenelemente Strontium und Kupfer untersucht. Hierfür bildet die Methode der elektrochemisch gestützten Abscheidung (ECAD) von Kalziumphosphaten aus wässrigen Elektrolyten die Grundlage. Mit der Modifizierung der Kalziumphosphatbeschichtung soll die Einheilphase der Implantate verkürzt werden, indem durch sukzessive Degradation sowie der Phasenumwandlung der unter Bruschitbedingung abgeschiedenen Beschichtungszustände die immobilisierten Ionen in das Umgebungsgewebe freigesetzt werden. Für die Bruschitabscheidung mit bzw. ohne Strontium wurden drei unterschiedliche Beschichtungsstrategien zur Immobilisierung von Kupfer in die Kalziumphosphatbeschichtung angewendet. Diese spurenelementhaltigen Beschichtungen wurden hinsichtlich der Belegungsdichten der Hauptkomponenten der Kalziumphosphatmatrix sowie der eingelagerten Spurenelemente sowie der Morphologie der Beschichtungsoberfläche untersucht. Zur weiteren Oberflächencharakterisierung wurden der chemische Status von Kupfer und Strontium sowie die Phasenzusammensetzung der abgeschiedenen Beschichtung analysiert. Weiterhin wurde untersucht, inwieweit unterschiedliche Belegungsdichten bzw. die verschiedenen Beschichtungsvarianten das Freisetzungsverhalten der Spurenelemente unter annähernd physiologischen Verhältnissen beeinflusst. Die kupferhaltigen Beschichtungszustände wurden hinsichtlich ihres antimikrobiellen Potentials untersucht.
Amplifikation von bekannten Kopienzahlvariationen mit ihren umgebenden Sequenzbereichen in einer Long-Range-Polymerase-Kettenreaktion und Auswertung der Produkte mittels Hochauflösender Schmelzkurvenanalyse auf einem LightCycler 480. Unterscheidung mehrerer CNVs von mitgeführten Referenzen durch die zwei Methoden der Hochauflösenden Schmelzkurvenanalyse Meltcurve-Genotyping und Gene Scanning. Grenzen, wie zum Beispiel Pseudogene, welche beachtet werden müssen oder eine eingeschränkte Eignung des Verfahrens für den Nachweis von Duplikationen wurden deutlich. Es zeigte sich zudem, dass eine große Menge an Referenzen empfehlenswert ist, die Amplifikationsparameter in der LR-PCR optimiert sein sollten und interkalierende Farbstoffe der zweiten Generation für die Verwendung in der HRM verwendet werden sollten. Bevor das Verfahren für den Nachweis von CNVs in Proben eingesetzt werden kann, sind weitere Untersuchungen und Optimierungen vorzunehmen.
Diese Arbeit vergleicht die drei populärsten Frontend-Frameworks in der Webentwicklung in Bezug auf barrierefreie Umsetzungsstrategien. Dabei wird der Begriff Barrierefreiheit definiert, aktuelle Standards dargestellt und diese dann anschließend methodisch innerhalb der gewählten Frameworks umgesetzt.
Die Arbeit beschäftigt sich mit der Entwicklung eines Policy-Konzepts zur Steuerung von Netzwerkverkehr an den Außengrenzen eines digitalen Raums. Um Ressourcen innerhalb des Raums zu schützen, definiert die Autorität des Raums mit Hilfe einer semantischen KI Kommunikationsziele. Diese müssen mit Hilfe des zu entwickelnden Policy-Konzepts den Grenzpunkten des Raumes mitgeteilt und dort umgesetzt werden Die Bachelorarbeit beschäftigt sich mit der Entwicklung des Policy-Konzepts und einer prototypischen Implementierung eines solchen Grenzpunktes.
In dieser Bachelorarbeit wird der Messengerdienst WhatsApp auf Mobilgeräten mit Android-Betriebssystem aus digitalforensischer Perspektive beleuchtet. Dazu werden technische Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät gespeicherte Dateien und die enthaltenen forensischen Artefakte ebenso diskutiert wie mehrere Möglichkeiten, WhatsApp betreffende Daten zu extrahieren. Des Weiteren werden sowohl das WhatsApp-interne als auch das Android-Systemlog analysiert, um den erstellten Einträgen die zugrunde liegenden Nutzeraktivitäten zuordnen zu können. Anschließend wird ein Programm vorgestellt, das die gewonnenen Erkenntnisse nutzt, um automatisiert aus den gegebenen Logdateien Ereignisse zu extrahieren und aufzubereiten.
Die Arbeit soll für forensische Untersuchungen, bei denen WhatsApp eine Rolle spielt, sowohl die Informationen als auch ein Werkzeug bereitstellen, mit dem die Aktivitäten des Nutzers nachvollzogen und wichtige Spuren gefunden werden können.
In der letzten Dekade hat sich die Verwendung von Cloud-Computing für das verlässliche und kostengünstige Betreiben von IT-Ressourcen und Applikationen weitgehend etabliert. Für Anwendungsszenarien mit hochsensitiven Daten können jedoch inakzeptable Restrisiken in Bezug auf deren Vertraulichkeit und Integrität – insbesondere während der eigentlichen Datenverarbeitung – verbleiben. Mit Hilfe von Intel SGX ist die Entwicklung dahingehend abgesicherter Anwendungen möglich, eine Nutzung dessen Funktionalität durch bereits bestehende Applikationen dagegen nicht ohne Weiteres. Um diese vor Angriffen auf die Vertraulichkeit oder Integrität mittels SGX zu schützen, wurden in der Forschung verschiedene Ansätze zur Migration entwickelt. Insbesondere serviceorientierte, aus mehreren Einzeldiensten bestehende, Anwendungen bedürfen dafür jedoch einer ausführlichen Planung und strukturierten Vorgehens. Die vorliegende Masterarbeit hat das Ziel, ein grundlegendes Verständnis für SGX zu vermitteln und die Migration solcher Anwendungen zu vereinfachen. Dafür wird eine generische Methodik vorgestellt sowie anhand des Beispiels einer populären Webanwendung hinsichtlich ihrer Funktionalität, Sicherheit und Performanz evaluiert. Zusätzlich erfolgt die Diskussion der Migration von Container-Anwendungen sowie deren Besonderheiten und Möglichkeiten zur Orchestrierung.
Aufbauend auf der CRISPR-FISH Methode, welche basierend auf dem CRISPRCas9-System die Detektion spezifischer DNA-Sequenzen mittels Fluoreszenzmikroskopie ermöglicht, wird in dieser Arbeit versucht, eine weiterführende Methode zu entwickeln, um die Detektion spezifischer DNA-Sequenzen mithilfe eines Transmissionselektronenmikroskops und somit eine höhere Auflösung zu erreichen.
Die vorliegende Arbeit untersucht eine Datenbank mit der Bezeichnung UsageReportsBuffer, die der Webbrowser Chrome auf Android-Geräten anlegt, sowie mögliche Implikationen für die digitalforensische Auswertung. Von besonderem Interesse sind die Fragen, welche Informationen nach welchen Regeln in der Datenbank abgelegt werden, welchem Zweck die Datenbank dient und ob der Nutzer des Gerätes Einfluss auf den Datenbestand nehmen kann. Die Untersuchung ergibt, dass die circa 100 zuletzt aufgerufenen URLs, sowie dazugehörige Zeitstempel gespeichert werden. Der Nutzer kann dieser Datenerhebung nicht widersprechen oder die Datenbank löschen. Die Aufzeichnung kann lediglich durch Verwendung der Inkognito-Funktion unterbunden werden. Jedoch wird die Datenbank von aktuellen Versionen der Chrome-Anwendung nicht mehr angelegt.
Die vorliegende Bachelorarbeit befasst sich mit der Entwicklung eines 3D-Sehnen-Gewebemodells aus einer Triplettkultur. Dafür wurden Triplettkulturen aus Synovial-zellen, skelettalen Muskelzellen und mesenchymalen Stammzellen bzw. Tenozyten in 2D etabliert, wobei die Stammzellen tenogen differenziert werden sollten. Mithilfe der qPCR wurde die Expression von Markergenen eines jeden Zelltyps untersucht, um den Differenzierungserfolg, sowie den Einfluss der Triplettkultur zu charakterisieren. Zum Schluss erfolgte die Übertragung in eine 3D Umgebung.
In meiner Masterarbeit habe ich mich mit Wasserlinsen als neuartige Energieträger für die Energiebranche beschäftigt. Dazu wurden im Labor Wasserlinsen in kleinen Becken angezüchtet und später dann als Substrat für die Biogasherstellung verwendet. Hierzu wurde ein Kleinfermentersystem im Labormaßstab aufgebaut, in dem erste Tests zur Erzeugung von Biogas aus Wasserlinsen erfolgten. Durch verschiedene Analysen wurde im Anschluss
bewertet, inwieweit sich Wasserlinsen zur Biogasproduktion eignen und welchen Einfluss Indol-3-Essigsäure auf die Synthese hatte.
In dieser Arbeit wurde ein aktueller Überblick über die im Dark Web verfügbaren Hidden Services erstellt. Dazu wurden Onion-Adressen mit Hilfe von Suchmaschinen und Verzeichnissen gewonnen.
Über diese Onion-Adressen wurden Hidden Services aufgerufen und untersucht. Die gefundenen Hidden Services wurden in Kategorien eingeteilt und anschließend näher betrachtet. Dabei wurde vor allem auf die Inhalte eingegangen. Diese wurden untereinander und mit Webseiten aus dem Clear Web verglichen.
Es konnten zahlreiche verschiedene angebotene Inhalte festgestellt werden. Sowohl legale als auch illegale Inhalte. Die Anzahl der Hidden Services mit illegalen Inhalten überwiegt. Die größte Kategorie stellen digitale Marktplätze dar. Auf diesen werden verschiedene, hauptsächlich illegale Produkte und Dienstleistungen verkauft.
Menschen hinterlassen bei jeder Berührung eines Gegenstandes Fingerabdrücke, durch die sie eindeutig identifiziert werden können, sofern die Qualität dieser aus-reichend ist. Geachtet wird dabei vor allem auf das Grundmuster und den Papillarleisten eines Fingerabdrucks, in denen sich individuell angeordnete Minuzien wiederfinden. Die Qualität dieser Spuren hängt nicht nur von der Person selbst ab, sondern wird u.a. auch durch äußere Gegebenheiten beeinflusst. In dieser Arbeit wird speziell auf den Einfluss filmischer Verunreinigungen auf daktyloskopischer Spuren eingegangen. Zum Einsatz kommen dabei sowohl feste, als auch flüssige Verunreinigungen, die für festgelegte Zeitintervalle auf die Fingerabdrücke einwirken. Die Qualität der verunreinigten Fingerspuren wird analysiert, im jeweiligen Kontext ausgewertet und kann dabei zukünftigen Arbeiten eine Grundlage bieten. Filmisch verunreinigte Fingerabdrücke können sich durchaus auch nach längerer Einwirkzeit sichern lassen, sofern die Sicherungsmethoden passend ausgewählt und angewendet werden.
Die vorliegende Arbeit befasst sich mit der Analyse von ShellBags in Windows-Betriebssystemen. Die Untersuchungen beziehen sich auf Windows XP, 7 und 10, welche als virtuelle Maschinen in VMware Workstation Pro integriert wurden. Da die ShellBag-Registrierungsschlüssel neben Ansichtseinstellungen im Datei-Explorer auch Einträge zu Aktivitäten in und mit verschiedenen Ordnern, in Netzlaufwerken sowie mit externen Speichermedien enthalten, liefern sie für forensische Analysen wertvolle Hinweise. Darüber hinaus können auch die darin befindlichen Zeitstempel zur Auswertung herangezogen werden. Hierfür wurden verschiedene Testreihen durchgeführt. Der Vergleich von ShellBag-Zuständen vor und nach einer Aktivität basiert auf dem Tool Compare It!, welches die Gegenüberstellung zweier .reg-Dateien erlaubt. Die Ergebnisse bestätigen,
dass auch heute noch eine Weiterentwicklung der ShellBags erfolgt, da stets Änderungen vorgenommen und neue Informationen hinzugefügt werden. Dennoch hat sich zum großen Teil eine einheitliche Ablage der Informationen herausgebildet.