Refine
Document Type
- Bachelor Thesis (703) (remove)
Year of publication
Keywords
- Computerforensik (52)
- Softwareentwicklung (42)
- Videospiel (42)
- Computersicherheit (37)
- Computerspiel (23)
- Datensicherung (17)
- Maschinelles Lernen (17)
- Virtuelle Realität (15)
- Forensik (14)
- Programmierung (13)
Institute
- Angewandte Computer‐ und Biowissenschaften (703) (remove)
Die folgende Arbeit bezieht sich auf die Werke von Hermann Helbig und Dewald und Freiling. Es soll die Verbindung zwischen einem Objekt, definiert nach Helbig, und einer Spur im kriminalistischen Sinne aufzeigen. Es wird zudem eine neue Repräsentation des Weges einer Spur von dessen Sicherung hin zu der Assoziation mit dem Objekt, das die Spur verursacht hat, entwickelt. Ein Objekt als semantische Entität mit dessen Eigenschaften als Charakterisierung soll in einen Zusammenhang mit kriminalistischen Untersuchungen, wie Klassifizierung und Individualisierung, durch eine Ontologie gebracht werden. Beginnend mit physischen Spuren stellt sich die Frage, ob sich die Darstellung auch auf digitale Spuren übertragen lässt. Eine neue Grafik, die sowohl für physische als auch für digitale Suren funktioniert, soll erzielen werden.
In der vorliegenden Pilotstudie wurden Wangenschleimhautabstriche und Nagelproben von Patienten nach einer erfolgten hämatopoetischen Stammzelltransplantation auf einen gemischten Chimärismus untersucht. Dafür wurden STR- und SNP-Analysen mit den Referenzprobenmaterialien aus isolierter Stammzellspender- und Empfänger-DNA vor Transplantation und den nach Transplantation entnommenen Wangenschleimhautabstrichen und Nagelproben durchgeführt. Es wurden sieben Probanden untersucht, wovon sechs eine allogene Stammzelltransplantation erhalten haben und ein Proband eine autologe Stammzelltransplantation durchlaufen hatte. Bei allen Proben nach einer allogenen Stammzelltransplantation konnte im epidermalen Material anteilig das Mikrosatelliten- und SNP- Profil des Spenders in den DNA-Isolaten des Empfängers nachgewiesen werden. In den Wangenschleimhautabstrichen wurde stets eine gemischte Chimärismussituation festgestellt. Die Ergebnisse weisen einen detektierten Spenderanteil von 11 bis 39 % auf. In den Nagelproben konnte ein Anteil an Spender-DNA bis zu 44 % nachgewiesen werden. Die Analysen bestätigen die Existenz eines Spenderanteils in Nagelproben und Wangenepithel eines Stammzellempfängers nach allogener Transplantation. Weitere Studien sind notwendig, um zu untersuchen, welche Faktoren die Anzahl der vorhandenen Spenderzellen in dem epidermalen Gewebe bestimmen.
Es wurde die Auswirkung des Insektizids Dimethoat auf die Hornmilbe Oppia nitens untersucht. Dazu wurden zwei Labortests nach der ISO-Richtlinie 23266:2020-06 durchgeführt. Die Auswertung der Tests bezog sich auf die Untersuchung der Mortalität und der Reproduktion der Testorganismen bei unterschiedlichen Konzentrationen an Dimethoat. Die Ergebnisse, die in diesen Tests gewonnen wurden, wurden mit den Ergebnissen des Referenztestes an Hypoaspis aculeifer verglichen. Diese Ergebnisse wurden im Praxismodul „Zucht von Oppia nitens und Testsystem mit Hypoaspis aculeifer“, die 2021 eingereicht wurde, gewonnen.
Aufgrund der bedeutenden Fortschritte im Bereich der Hochdurchsatzsequenzierungstechnologien und folglich dem exponentiellen Wachstum biologischer Daten entstehen in der Bioinformatik Herausforderungen bei der Speicherung und Analyse großer Datenmengen. Die umfangreichen
Genotypisierungsdaten der Gerste, welche als Referenzdatensatz vorlagen, wurden am Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) durch Genotyping by Sequencing (GBS) erstellt. Zur effektiven Speicherung sowie Analyse dieser Daten wurden verschiedene Datenstrukturen erstellt und hinsichtlich Performance und Speicherbedarf evaluiert. Die Entwicklung verschiedener Java-Tools ermöglichte dabei das Einlesen, die Verarbeitung, sowie die Ausgabe dieser Daten zur effektiven Strukturierung und Analyse. Um die Anwendung dieser Java-Tools über Edge-Computing zu ermöglichen, wurde an der Erstellung von Datencontainern gearbeitet.
Diese Arbeit präsentiert einen forensischen Leitfaden zu Spezialverfahren der Datenrettung von Festplatten unter Nutzung des PC-3000 Express Systems. Die Grundlage bilden essentielle Informationen rund um eine Festplatte und die Bedienung des PC-3000 Express Systems. Anschließend wird ein in drei Teile gegliederter forensischer Leitfaden vorgestellt, der dem Leser mit jeder Unterteilung eine Konkretisierung auf das Thema Spezialverfahren der Datenrettung von Festplatten präsentieren soll. Auf der Grundlage des forensischen Leitfadens werden im Anschluss zwei Festplatten untersucht und mit Hilfe des PC-3000 Express Systems und kompatiblen Ersatzteilspendern erfolgreich gesichert. Ziel der Arbeit ist es, einen zukünftigen Benutzer in die Arbeit mit dem PC-3000 Express System einzuführen. Dabei soll der Arbeitsablauf bei der Untersuchung einer Festplatte fest an den Ablauf einer forensischen Untersuchung gebunden sein. So kann unabhängig vom forensischen Tätigkeitsfeld sichergestellt werden, dass ein Benutzer zukünftig auftretende Probleme von Festplatten effektiv und lösungsorientiert handhaben kann.
Zu wissen, wie alt eine Blutspur an einem Tatort ist, kann enorm bei der kriminalistischen Fallarbeit helfen. Daher beschäftigt sich die Wissenschaft mit der Frage nach der Bestimmung des Blutalters. Um diese Forschung zu unterstützen, wurden Derivate des Hämoglobins (Blutfarbstoff) hergestellt und spektroskopisch untersucht. Dabei wurden hauptsächlich Derivate gewählt, die bekannterweise bei der Alterung entstehen. Die entstandenen Spektren sollen beim Erstellen einer Datenbank helfen und somit den Kenntnisstand der aktuellen Forschung festigen und erweitern. Ebenfalls wurden chromatografische Daten analysiert, um die Struktur eines potentiellen Biomarkers für die Blutaltersbestimmung herauszubekommen bzw.
die Grundlage für weitere Experimente dazu zu legen.
Priming in Videospielen
(2021)
Die vorliegende Bachelorarbeit befasst sich mit dem Begriff Environmental Storytelling. Dabei war es das Ziel eine Definition für die Elemente in Environmental Storytelling aufzustellen und diese zu katalogisieren, sodass diese zukünftig in den Prozess des Level Designs einfließen können. Die Elemente wurden anhand einer kleinen Auswahl an Spielen exemplarisch getestet. Die Bachelorarbeit soll den Menschen helfen, die Narration in das Level Design einbringen wollen. Der Verfasser erhofft sich am Ende einen Katalog anzutreffenden Elementen erstellt zu haben.
Möglichkeiten zur Aufnahme und Kategorisierung von
Knochenveränderungen und deren Interpretation
(2019)
Diese Bachelorarbeit befasst sich mit der Aufnahme, Kategorisierung und Interpretation von Knochen verändernden Merkmalen. Ziel ist es, eine möglichst einheitliche und allgemein verständliche Methode zu entwerfen, die der Aufnahme von knöchernen Veränderungen dient und worauf aufbauend Klassifikationen erfolgen können. Diese wiederum soll dahingehend überprüft werden, ob eine Feststellung der Ursache möglich ist.
Die vorliegende Arbeit befasst sich mit dem Cybercrime-Phänomen Phishing. Durch die Analyse von echten Delikten im Bereich des Phishings wird betrachtet, inwieweit das Phänomen durch das Strafgesetzbuch erfasst wird. Dafür wird sich an Paragrafen orientiert, die aus der Cybercrime-Konvention hervorgegangen sind, beziehungsweise durch diese geändert wurden und dem Bereich Cybercrime im engeren Sinn zugeordnet werden können. Neben einer Definition des Begriffes Cybercrime werden eine begriffliche Einordnung des Phänomens Phishing vorgenommen und die Grundzüge dieses aufgezeigt. Anschließend wird mithilfe der Delikte erörtert, welche Tatbestandsmerkmale der einzelnen Paragrafen sich bei den Delikten detektieren lassen und inwieweit die Begehungsweise Einfluss auf die detektierbaren Tatbestandsmerkmale hat. Bei der Erörterung wird auch auf den Begriff Daten eingegangen und welche Definition diesem innerhalb der betrachten Paragrafen zugrunde liegt.
An einem Tatort lassen sich verschiedene Arten von Spuren finden. Die Blutspuren zählen dabei zu den wichtigsten. Sie lassen sich auf unterschiedliche Art und Weise analysieren. Eine Möglichkeit ist die Untersuchung des Blutalters, um beispielsweise Hinweise über den Zeitraum einer Tat zu erlangen. Schon seit dem 20. Jahrhundert suchen Wissenschaftler nach einer geeigneten Methode zum Ermitteln des Alters einer Blutspur. Bisher ist das aber noch keinem gelungen. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Schweineblut über einen Zeitraum von sechs Wochen bei gleichbleibenden Umwelteinflüssen untersucht. Im Vordergrund steht hierbei die alterskorrelierende Veränderung der Blutzusammensetzung. Das Hauptaugenmerk liegt vor allem auf den Peaks der Hämoglobinderivate und des Globins. Bei der Auswertung der Ergebnisse wurde festgestellt, dass all diese charakteristischen Hochpunkte auch nach sechs Wochen noch weiter ansteigen und sich somit die Zusammensetzung des Blutes weiterhin verändert.
Häusliche Gewalt : Untersuchung der gesetzlichen Regelungen und (sozialen) Hilfsmöglichkeiten
(2024)
Das Ziel der vorliegenden Bachelorarbeit war es, das Thema der häuslichen Gewalt aufzugreifen und hinsichtlich der verschiedenen Gewaltbegriffe im internationalen sowie nationalen Recht zu vergleichen. Dafür wurden verschiedene Literaturtexte ausgewertet.
Hinsichtlich der häuslichen Gewalt wurden mehrere Theorien möglicher Ursachen bewertet mit dem Ergebnis, dass eine Vielzahl an Faktoren für aggressives Verhalten ursächlich sind und die eigene Entscheidung zur Gewalt eine große Rolle spielt. Auch das Gesundheitswesen, Frauenhäuser und Täterprograme wurden in Bezug auf die Themen in ihrer Funktion
beschrieben.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Erstellung eines Audiodatensatzes zur sequentiellen Lokalisierung von Manipulationen. Die Motivation sich mit diesem Thema zu beschäftigen, resultiert aus der geringen Menge an öffentlichen Datensätzen im Hinblick der Multimediamanipulation und der Wichtigkeit von Audio in der Forensik (Khan et al., 2018; Luge, 2017). Dabei werden zunächst die Grundlagen aus den Themenbereichen Audio, Datensatz sowie Manipulation dargestellt. Für die Erstellung des Datensatzes, wurde zunächst eine Vielzahl an Daten bereitgestellt, indem mittels einem Pythonskript, Videos, von YouTube heruntergeladen sowie die Audiospur getrennt und im mp4-Format gespeichert wurden. Weiterhin erfolgte auf der Datenmenge, der Prozess der Datenbereinigung sowie das Umbenennen der Audiodateien. Anschließend ereignet sich die Darlegung des Konzeptes und die theoretische Beschreibung der Manipulierung sowie die exemplarische Durchführung der Manipulation. Daraufhin erfolgt die theoretische Darlegung der Aufteilung des Datensatzes in Test- und Trainingsdaten. Die Ergebnisse spiegeln wider, dass das geschriebene Pythonskript funktioniert und nahezu keine Fehler während des Downloads entsteht. Weiterhin zeigen sie auf, dass die exemplarische Durchführung funktioniert. Allerdings benötigt es zum einen noch die Umsetzung des in der Theorie dargelegten Manipulationsschrittes und zum anderen, darauf aufbauend, etwaige Evaluierungsschritte.
Serielle Auswertung von Datensätzen einer Wildtierkamera mit dem Schwerpunkt Kennzeichendetektion
(2022)
Nummernschild- und Objektdetektion sind wichtige Bestandteile der Verkehrsüberwachung. Jedoch befassen sich die meisten Forschungsarbeiten zu diesen Themen mit der Detektion auf gut beleuchteten Bildern und nur wenige mit der Detektion auf sehr schlecht beleuchteten Aufnahmen. Diese Arbeit versucht, verschiedene Objektdetektionsalgorithmen auf schlecht beleuchteten Bildern zu vergleichen, sowie den Einfluss verschiedener einfacher Bildverbesserungsmethoden auf das Detektionsergebnis zu bewerten. Auf Grundlage dieser Ergebnisse wird anschließend eine Anwendung entwickelt, welche automatisiert Datensätze mehrerer Wildtierkameras auswertet, um diese zur einfacheren Verwendung zur Verfügung zu stellen.
Spektakuläre Überfälle, Luxusimmobilien, Sportwagen, Gewalttaten und Tumulte im öffentlichen Raum und darüber hinaus die dreiste Beanspruchung von Sozialleistungen: Dies ist das Bild, dass die Medien von den Clans zeichnen. Das Thema Clankriminalität bestimmt seit wenigen Jahren den politischen als auch medialen Diskurs in Deutschland und dabei ist das Phänomen kein Neues, sondern besteht seit mehreren Jahrzehnten. Von Polizeibehörden wurde das Problem gesehen und behandelt, während man in der Politik aufgrund der Angst vor Rassismus-Vorwürfen das Thema lange Zeit nicht weiter antastete. Zwischen diesen Debatten über Rassismus und Political Correctness schafft die Kriminalität Fakten. Neben Gewalt, Drohungen und Betrugsmaschen, die das gesamte Bundesgebiet betreffen, wird in den Familien eine Paralleljustiz gelebt und die deutsche Rechtsordnung nicht anerkannt. Für Außenstehende ist das Clangefüge und deren Organisationsstrukturen sowie Lebensweise nur schwer nachzuvollziehen, daher bedarf es einer genaueren Untersuchung dieses Kriminalitätsphänomens, insbesondere im Hinblick auf die Migrations- und Integrationsgeschichte, der hier in der Rede stehenden Familien. Diese Arbeit versucht die Thematik sachlich und objektiv zu behandeln und zu erklären, wie Clankriminalität überhaupt erst entstehen konnte, welche Fehler in der Integrationspolitik in der Vergangenheit gemacht wurden und welche Ansätze zur Bekämpfung der Clankriminalität ihre Anwendung finden.
Im Rahmen der Arbeit wurde untersucht, welche neuen Möglichkeiten Künstliche Intelligenz (KI) bezüglich der bei Phishing-Angriffen verwendeten Taktiken, Techniken und Werkzeuge bietet. Die Nutzung von KI-gestützten Phishing-Angriffen wird praxisnah beschrieben. Unter diesem Aspekt wurden aktuelle KI‘s betrachtet, insbesondere ChatGPT. Daraufhin wurde analysiert, inwiefern diese den Prozess des Phishing oder Teilaspekte davon vereinfachen beziehungsweise erleichtern. Die Ergebnisse wurden diskutiert, um ein besseres Verständnis dafür zu schaffen, wie künstliche Intelligenz den Phishing-Angriffen neue Angriffsvektoren hinzufügt. Die rechtliche oder ethische Bewertung von KI im Zusammenhang mit Phishing wurde nicht behandelt. Zudem geht die Arbeit ebenfalls nicht auf die Entwicklung oder Implementierung spezifischer Abwehrmaßnahmen ein.
Diese Arbeit bildet einen Einstig in die Grundlagen der IT-Forensik und befasst sich mit der Evaluation der beiden Programme „X-Ways Forensics“ und „Magnet AXIOM“. Dabei werden die Stärken und Schwächen der beiden Tools aufgezeigt und Empfehlungen geben, für wen und für welchen Einsatz, welches Programm geeignet ist.
In this work, a transgenic zebrafish line that expresses the fluorophore dsRed under the endogenous zebrafish cochlin promotor is supposed to be established, using the CRISPR/Cas9 system. dsRed was cloned into a pBluescript vector, followed by the cloning of the cochlin locus into this vector. This bait construct was then supposed to be micro injected into wild type AB zebrafish embryos. The micro injection of Cas9 mRNA, single guide RNA and a bait construct was practiced with the tyrosinase gene, which was disrupted using CRISPR/Cas9.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung ob und warum die Anzahl von IT-Sicherheitslücken exponentiell steigt. In Zuge dessen wird der Zusammenhang zwischen der Entwicklung von Sicherheitslücken und der Entwicklung der Code-Länge über die Zeit untersucht. Um die Forschungsfrage zu beantworten, wurden CVE-Daten ausgewertet. Dabei wird nicht nur die allgemeine CVE-Entwicklung, sondern auch ausgewählte Software-Systeme im Speziellen betrachtet. Um die Code-Länge zu untersuchen, wurden die LOC der einzelnen Software-Systeme analysiert. Die Untersuchung ergab, dass die Entwicklung der CVE gesamt einen exponentiellen Trend verfolgt. Die CVE-Entwicklung der einzelnen Software-Systeme verfolgt im Gegensatz dazu in der Mehrheit einen linearen Trend. Auch die LOC-Entwicklung der Software-Systeme passt sich diesem Trend an. Somit zeigt sich, dass die drastische Entwicklung der Sicherheitslücken nicht ausschließlich durch eine drastische LOC-Entwicklung beeinflusst wird, sondern von verschiedenen Faktoren abhängt, die sich untereinander verstärken.
Die Bachelorarbeit untersucht, welche Auswirkungen die semantische Bildsegmentierung als Vorverarbeitungsschritt für Eingabebilder auf die Klassifikationsfähigkeit eines Convolutional Neural Networks (CNN) hat. Zu diesem Zweck werden Experimente mit verschiedenen Visualisierungstechniken gemacht, die geeignet sind, relevante Aspekte des Datenflusses im CNN während des Klassifikationsprozesses (wie z.B. den für die Klassifikationsentscheidung relevantesten Bildausschnitt) intuitiv zu veranschaulichen. Hierzu sollen verschiedene bereits existierende Ansätze wie GradCAM, Taylor Decomposition, Activation Maximization auf ihre Anwendbarkeit anhand von synthetischen Bilddaten systematisch untersucht werden. Hierzu werden
Daten- und Kontrollschnittstellen zu den anvisierten CNN-Verfahren umgesetzt und Vergleichsexperimente mit unbehandelten und auf verschiedene Weise vorsegmentierten Bilddaten konzipiert und durchgeführt. Die Arbeit soll ein intuitives Verständnis bzgl. der Fragestellung fördern, welchen Effekt eine vorherige Bildsegmentierung auf das Klassifikationsresultat und die CNN-interne Repräsentation von bildbasierten Daten hat
Untersuchung potenzieller Angriffsvektoren auf Container-Infrastrukturen unter Nutzung von Docker
(2021)
Die Digitalisierung ist eine der größten Herausforderungen der Wirtschaft. Eine Containervirtualisierung kann dabei vielversprechende Lösungen bieten, unterliegt jedoch ebenso Angriffen. Diese Arbeit zeigt am Beispiel von Docker auf, mit welchen Angriffsvektoren auf eine Container-Infrastruktur gewirkt und mit welchen Schutzmaßnahmen diese gehärtet werden kann. Die Untersuchungen stellen dar, wie schützenswerte Daten erbeutet, exogen Einfluss auf die in Containern verarbeiteten Daten genommen und mit
Schadsoftware auf gesamte Infrastruktur gewirkt werden kann. Dabei werden Host, Container und weitere Komponenten gleichermaßen berücksichtigt. Die Abhängigkeiten innerhalb von Containern werden zwar voneinander isoliert, jedoch teilen sich Host und Container einen gemeinsamen Kernel. Aus diesem Grund rücken Containerausbrüche und Kernelangriffe in den Fokus. Für den sicheren Einsatz von Containern können korrekte Konfigurationen bezüglich der Systemaufrufe, Capabilities, Kontrollgruppen, Namensräume
oder des Rootless Mode von entscheidender Bedeutung sein.
Mittels GPM3 können komplexe DNA- Mischspuren analysiert und STR- Profile ausgewertet werden. Zudem können durch Berechnungen die Genotypen, die in einer Mischung vorliegen, voneinander differenziert werden. Vor allem komplexe Mischspuren stellen einen Schwerpunkt bei der Spurenuntersuchung dar. Eine Anwendung von GPM3 ist die komponentenweise Dekonvolution von DNA- Mischspuren, bei der die Profile der beteiligten Personen aufgetrennt und die Wichtungen aller möglichen Genotypen ausgezählt werden. Dabei werden die Genotypkonstellationen (GTK) basierend auf den Peakhöhen, der Degradationsstärke und stochastischen Effekten bei Einsetzten von geringen DNA- Mengen modelliert. Der von der Firma Qualitype vorgegebene Grenzwert für die Wichtung, ab welcher mit einer hohen Wahrscheinlichkeit angenommen werden kann, dass es sich bei dieser GTK um den richtigen Genotyp der beteiligten Person handelt, liegt bei 90 %. Folglich werden Untersuchungen im Rahmen dieser Arbeit zu diesem Grenzwert anhand von verschiedenen 2- Personen- Mischungen in unterschiedlichen Konzentrationen mittels der Dekonvolution mit dem vollständig- kontinuierlichen Modell durchgeführt.
In der Arbeit werden dazu die jeweiligen Abstände der Wichtungen in Prozent der GTK der beteiligten Personen jeder Mischung berechnet und überprüft, ob die am höchsten gewichteten Genotypen in GPM3 den richtigen Allelkombinationen der jeweiligen Person entsprechen. Hierbei wird der Abstand der Konstellation mit der größten Wichtung zur „wahren“ Konstellation berechnet. Aus den Mittelwerten der prozentualen Abstände soll anschließend der Ähnlichkeitswert der Wichtung, ab welchem noch mit sehr hoher Wahrscheinlichkeit die richtige GTK ausgegeben wird, ermittelt werden.
Das Ziel der Bachelorarbeit ist es, die Möglichkeiten und Grenzen der Dekonvolution von Mischspuren mit der GPM3- Software bei verschiedenen Analysebedingungen zu bewerten und einen Auswerteparameter in Abhängigkeit von den Abständen der Wichtungen in Prozent und den Konzentrationen der einzelnen Mischungen zu validieren. Zudem soll die Nachweisgrenze der Analysemethode untersucht werden, um eine Aussage über die Minimalmenge an einzusetzender DNA treffen zu können
Die vorliegende Arbeit befasst sich mit dem Fakeshop Phänomen als Cybercrime Delikt. Nach einer kurzen Erläuterung des Bereiches Cybercrime und einer Darstellung der Phänomenologie eines Fakeshops wird dieser anhand einer beschriebenen Sachlage auf seine Strafbarkeit analysiert. Zur Analyse werden Rechtsnormen aus dem Strafgesetzbuch hinzugezogen, die in der Literatur dem Cybercrime im engeren Sinne zugeordnet sind. Anhand dessen soll erörtert werden, welche Tatbestandsmerkmale der Paragrafen durch den Sachverhalt festgestellt werden können und ob der objektive Tatbestand bei einem Fakeshop Phänomen erfüllt wird. Des Weiteren werden mögliche Folgen, die durch einen Fakeshop auftreten können präsentiert und im Anschluss dessen einige Möglichkeiten aufgezeigt, um sich präventiv gegen eine Fakeshop-Falle schützen zu können.
Die Recyclingfähigkeit von faserbasierten Lebensmittelverpackungen wird durch Restanhaftungen des Lebensmittels vor Probleme gestellt. Dadurch ausgelöste Verkeimungen bei der Altpapierlagerung beeinträchtigen den Recyclingprozess. Die entwickelten Mikroorganismen beeinflussen wiederum die Herstellungskette innerhalb einer Papierfabrik, da es zu hohen organischen Belastungen kommen kann. Die Bachelorarbeit untersucht den mikrobiologischen Einfluss von Lebensmitteln, auf die Altpapierlagerung derer faserbasierter Verpackungen.
Messengerdaten auf Mobiltelefonen sind häufig für Ermittlungs- und Strafverfahren relevant. Eine händische Untersuchung dieser ist für einen digitalen Forensiker jedoch sehr arbeits- und zeitintensiv. Aus diesem Grund wird in dieser Bachelorarbeit ein möglichst effektives Verfahren
zur Auswertung und Aufbereitung von Messengerdaten auf Mobiltelefonen vorgestellt, welches digitalen Forensikern als Leitfaden dienen soll. Das vorgestellte Verfahren kann für jeden Messenger verwendet werden und basiert auf der Methode des Reverse Engineerings. Um dessen Anwendung zu demonstrieren und seine Funktionalität unter Beweis zu stellen, werden die Daten des Messengers TamTam, insbesondere die Datenbanken, exemplarisch ausgewertet und aufbereitet.
Das Ziel dieser Arbeit ist es verschiedene Methoden der Platzierung von Vegetation zu vergleichen und in Hinsicht auf die Qualität der Ergebnisse zu beurteilen. Zum Vergleich dient in diesem Fall die Natur selbst als Maßstab, denn diese soll bei den meisten Methoden simuliert werden. Die Methoden zur Generierung sind vielfältig und unterschiedlich komplex. Einem Entwickler stellt sich nun die Frage zu welcher Methode oder welcher Kombination er greifen soll unter den Aspekten Entwicklungsaufwand, Performanz, Qualität und Flexibilität. Es soll erkundet werden, bei welchen Vorhaben es sich für einen Spielentwickler lohnt ein solches System zu implementieren oder ob herkömmliche Produktionsketten sinnvoller wären.
In dieser Arbeit wurden verschiedene kaliumselektive Elektroden hergestellt. Diese wurden auf Funktion und Selektivität überprüft. Anschließend wurden Messungen mit ausgewählten Elektroden in aufgeschlämmten Bodenproben durchgeführt, um das Einstellverhalten und das pflanzenverfügbare Kalium, angelehnt an eine Methode der VDLUFA, zu bestimmen. Da diese Methode aber auf der Analyse mit Atomabsorptionsspektrometrie beruht, wurden die Ergebnisse beider Messmethoden miteinander verglichen.
Im Rahmen der Untersuchungen für die vorliegende Bachelorarbeit wurden in fünf einstufigen Biogasreaktoren Maissilage vergoren. Die Zugabe von Harnstoff sollte eine Prozessstörung induzieren. Zur Überwachung des Prozessverlaufes erfolgten die gängigen Analysen (pH, FOS/TAC, NH4-N, GC etc.). Zusätzlich sollten Gasproben aus den Reaktoren entnommen und mittels IRMS analysiert werden, um das Isotopenverhältnis des gebildeten Biogases zu untersuchen.
Offensive Sprache im Internet ist ein stark diskutiertes Problem in sozialen Medien. Angriffe richten sich oftmals gegen Einzelpersonen, können aber auch auf Gruppen und andere Strukturen abzielen. Die Erkennung angreifender Inhalte funktioniert in vielen Ansätzen bereits sehr gut. Die Erkennung der Ziele hingegen ist bisher nur wenig erforscht. Die vorliegende Arbeit befasst sich mit der Aufarbeitung des aktuellen Forschungsstandes zu offensiver gerichteter Sprache, den Grundlagen derer Erkennung und dem Vergleich verschiedener Ansätze. Die Auswirkungen von Vorverarbeitung und Parametrisierung der Modelle werden analytisch diskutiert.
Soziale Netzwerke und Messaging Dienste sind in der heutigen Zeit nicht mehr nur ein Modetrend für Jugendliche und technikaffine Menschen. Sie sind durch die stetig größer werdende Verbreitung von Smartphones und die sich dadurch bietende Möglichkeit, solche Anwendungen immer und überall zu nutzen, in den Fokus der Allgemeinheit gerückt. Heute sind sie für eine große Mehrheit der Bevölkerung ein fester Bestandteil des privaten und auch beruflichen Lebens. Allerdings sind diese Möglichkeiten auch kritisch zu betrachten, da sie auch leicht missbraucht werden können. Das Ziel der vorliegenden Bachelorarbeit ist es, die Analyseplattform Wandboard zur Verwendung des Messaging Dienstes Jodel und der automatisierten Extraktion der Posts zu konfigurieren, damit diese später ausgewertet werden können. Dabei soll es möglich sein, die vom Gerät verwendeten GPS-Koordinaten soweit anzupassen, dass ein bestimmtes Gebiet abgerastert und dort alle Nachrichten automatisiert gepollt und anschließend in einer geeigneten Datenstruktur mit den entsprechenden Koordinaten und Nutzeridentifikationen abgelegt werden können. Zunächst beschreibt die Arbeit also alle nötigen Grundlagen und anschließend die Konfiguration des Wandboards zur Verwendung Jodels und dem Anpassen der Standortdaten. Im Anschluss wird das Suchen und Extrahieren der Bilder und Ansätze dazu, wie die Nachrichten extrahiert werden könnten, beschrieben. Dabei wird auch auf das Abfangen und Auswerten von Netzwerkverkehr durch ARP Poisoning und das Auswerten von RAM Dumps eingegangen. Zusätzlich wird auch das Anpassen der GPS-Koordinaten und das dadurch ermöglichte Abrastern eines bestimmten Areals erklärt. Die Triangulation des Ausgangsortes eines Posts und die Identifikation der einzelnen Teilnehmer werden theoretisch beschrieben und zuletzt noch die Eignung des Wandboards für dieses Projekt diskutiert. Letztendlich kann diese Arbeit als Leitfaden und Vorarbeit für später folgende Forschung verwendet werden, um die hier bereits gemachten Erkenntnisse zu nutzen und etwaige Fehler zu vermeiden.
Realisierung eines Pin-Testers zur Identifikation von Schnittstellen für forensische Auswertungen
(2018)
Die vorliegende Bachelorarbeit befasst sich mit der Realisierung eines Pin-Testers unter Einsatz eines Analog Devices, mit deren Hilfe Schnittstellen erkannt werden können. Dazu wird eine geeignete Software und ein angemessenes Messverfahren angewendet, um sogenannte Kennlinien von Pins aufzunehmen. Anhand der Kennlinien sollen Schnittstellen erkannt werden. Im Gegensatz zu kommerziellen Produkten wird hier das Analog Device ADALM1000 verwendet, das eine kostengünstige Alternative darstellt. Damit lassen sich andere analoge Systeme testen und ausmessen. Durch seine geringe Größe ist es für den praktischen und dynamischen Einsatz gut geeignet.
Inhalt dieser Arbeit ist der Einfluss von Rhamnolipiden auf die Vesikulation von Gram-negativen Bakterien am Beispiel von Pseudomonas putida. Es soll unter-sucht werden, ob die Vesikulation durch Zugabe von Rhamnolipiden erhöht wird und ob die Anwesenheit von Rhamnolipiden die Wirkung langkettiger Alkohole (hier wurden 1-Octanol und 1-Decanol verwendet) abschwächt.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, einen effizienten Workflow für die Erstellung einer Destruction-Simulation herauszuarbeiten und Kriterien für ihre Glaubhaftigkeit darzustellen. In einer praktischen Umsetzung werden diverse Schritte zur Erstellung einer Simulation auf ihre Funktionalität überprüft und erklärt. Die Erkenntnisse aus der Analyse, gestützt durch die Aussagen von Spezialisten aus angesehenen VFX-Studios, verdeutlichen, dass viele Faktoren bei der Erstellung einer Simulation zu beachten sind, die deren Verlauf beeinflussen können.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.
Diese Arbeit beschäftigt sich mit der Realisierung eines open-sourec GSM-IMSICatchers. Dafür werden die Grundlagen des GSM-Protokolles, die technischen Daten verschiedener SDR-Geräte und open-source Software für die Ansteuerung der Software Defined Radios sowie zur Signalverarbeitung untersucht. Für diese Arbeit verwendet wurden das LimeSDR, das Netzwerkanalyseprogramm Wireshark und auf GnuRadio basierende Software. Das erreichte Ergebnis ist ein IMSI-Catcher, der für das Abfangen und Auswerten von GSM-Verkehrsdaten verwendet werden kann. Für das gezielte Wiederaussenden von GSM-Daten wurden notwendige Voruntersuchungen getroffen und erste Tests durchgeführt. Vor einer praktischen Anwendung eines Weiterleitens von GSM-Daten wären aber weitere Anpassungen des
IMSI-Catchers notwendig.
Die vorliegende Arbeit befasst sich umfangreich mit der Thematik der »Security Incident and Event Management« (SIEM) Systeme und ihrer Installation, Organisation und Anwendung in kleinen und mittleren Unternehmen (KMU). Am Anfang wird dem Leser die Funktionsweise eines solchen SIEM Systems erklärt, um im Anschluss am Beispiel der miteinander interagierenden Softwares Elasticsearch, Logstash, Beats und Kibana schrittweise in einer IT-Infrastruktur zu implementieren. Außerdem wird die Eignung eines solchen Systems für kleine und mittlere Unternehmen in gesetzlicher und organisatorischer Hinsicht auf Basis zweier Studien untersucht, welche den aktuellen Zustand der Thematik IT-Sicherheit in KMU widerspiegeln. Das Ziel der Arbeit ist es festzustellen, in welchem Rahmen ein SIEM System in KMU nötig ist und helfen kann, um die IT-Sicherheit des Unternehmens zu fördern. Dabei wird sowohl auf die Installation, als auch auf die Nutzung eins SIEM Systems unter den in KMU vorherrschenden Bedingungen betrachtet.
In dieser Arbeit beschäftigt sich der Autor mit der Identifikation eines Spielertyps für das Videospiel-Genre "Soulslike". Er erläutert dafür Spielertyp-Theorien und die Theo-rie des Spaßes. Zusätzlich analysiert er das "Soulslike"-Genre, indem er verschiedene Spiele aus dem Genre durchleuchtet. Um einen Spielertyp zu erfassen, wertet er eine Umfrage aus, die er Spielern diesen Genres ausfüllen lässt.
Ziel dieser Arbeit ist es, an ausgewähltem Material aus einer Skelettsammlung eine morphologische Geschlechtsbestimmung am Os ilium (Darmbein), einem Teil des Os coxae (Hüftbein), durchzuführen und deren Zuverlässigkeit zu überprüfen. Um die Bestimmung des Geschlechts sicherer zu machen, werden weitere morphologische Analysen am Cranium sowie an den Ossa coxae und eine osteometrische Analyse am Femur durchgeführt und mit den Ergebnissen der Geschlechtsbestimmung am Os ilium verglichen.
Die vorliegende Bachelorarbeit widmet sich dem Entwurf und der prototypischen Implementierung einer Teilnehmeridentifikationsmethode für LabCon, ein Nutzerverwaltungssystem für Online-Praktika. Der Fokus liegt auf dem Einsatz von Digital Fingerprinting, einer Technologie, die durch die Extraktion charakteristischer Merkmale der Browser und der Geräte von Nutzern eine eindeutige Identifikation ermöglicht.
Das Ziel der vorliegenden Arbeit war es, ein für mittelständische und kleine Unternehmen geeignetes Format für die Versendung elektronischer Rechnungen zu finden, hierfür eine Softwarelösung zu entwickeln und diese in ein bestehendes Produkt zu integrieren. Nach gründlicher Analyse fiel die Entscheidung auf das ZUGFeRD-Format, für welches eine nun kommerziell vertriebene Komponente entwickelt wurde, die zusammen mit einem, im Rahmen der Arbeit entwickelten E-Mail-Client, in die Software HSC-AuftragPlus integriert wurde. Damit lassen sich ZUGFeRDRechnungen ohne Umwege oder externe Programme sowohl empfangen und importieren, als auch exportieren und versenden. Bei diesen Schritten erfolgt auch immer eine mehrstufige Validierung und entsprechendes Feedback an den Benutzer. Da die Bachelorarbeit auf betriebswirtschaftliche, juristische und informatische Aspekte eingeht, sollte sie insbesondere für Studierende der Informatik und Wirtschaftswissenschaften viele interessante Informationen enthalten
Im Rahmen der vorliegenden Bachelorarbeit sollte ein Add-On zur semi-automatischen Phantombilderstellung in Blender erstellt werden. Hierfür wurden bereits bestehende Add-Ons von Einzelprozessen der Gesichtsweichteilrekonstruktion miteinander verbunden und einem einheitlichen Bild angepasst. Zudem wurden Anpassungen und Erweiterungen an den Add-Ons vorgenommen, um die Anwenderfreundlichkeit zu erhöhen. Abschließend wurde das Ergebnis mit anderen Computergestützten Rekonstruktionsmethoden verglichen.
In dieser Bachelorarbeit wird ein E-Learning Kurs zum Kompetenzerwerb auf dem Gebiet der IT-Sicherheit konzipiert, implementiert und evaluiert. Dazu werden zunächst für Endnutzende relevante Themen der IT-Sicherheit identifiziert und die theoretischen Fundierungen für die Umsetzung als ein Web-based Training gelegt. Die Umsetzung des Konzeptes in einen Moodle-Kurs wird beschrieben. Es wird eine Evaluation der Usability des Kurses und des Lernerfolges durchgeführt.
Etablierung eines Verfahrens zur Herstellung von
Keratinhydrolysat aus Rinder- und Pferdehaaren
(2017)
Diese Arbeit beschäftigt sich mit der Etablierung eines Verfahrens zur Herstellung unterschiedlich stark abgebauter Keratinhydrolysate aus Rinder- und Pferdehaaren. Dafür wurden verschiedene aus der Literatur bekannte Extraktionsmethoden angewendet und deren Eignung unter Variation der Inkubationstemperatur, der Inkubationsdauer und der Konzentration der eingesetzten Chemikalien untersucht. Anschließend erfolgte eine gelelektrophoretische Charakterisierung der gewonnenen Hydrolysate. Weiterhin wurde eine Aminosäureanalyse sowie eine Bestimmung freier Thiolgruppen mittels Ellman’s Reagenz durchgeführt.
In dieser Arbeit werden ausgewählteWerbenetzwerke in Android-Apps im Hinblick auf deren Datenerhebung betrachtet. Dabei stellen sich folgende Forschungsfragen: Welche Daten werden an die Werbenetzwerke übermittelt? Wie decken sich die übermittelten Daten mit den Angaben seitens der Werbenetzwerke? Wie werden die Daten von dem Android-Gerät erhoben und welchen Einfluss haben die Daten auf die Privatsphäre des Benutzers? Um die Forschungsfragen zu beantworten, ist eine Auswahl von 100 Apps aus dem Google Play Store getroffen und auf deren enthaltenen Werbenetzwerke analysiert worden. Anschließend wurde der Netzwerkverkehr von ausgewählten Werbenetzwerken mithilfe eines Proxy-Server betrachtet, um die übermittelten Daten abzufangen. Gleichzeitig sind die Datenschutzerklärungen
der ausgewählten Werbenetzwerke im Hinblick auf deren Angaben zu erhobenen Daten betrachtet worden.
Abschließend wurde der Quellcode von den Werbenetzwerken angeschaut, um herauszufinden wie die Daten aus dem Android-System erhoben werden.
Die Ergebnisse der Analyse des Datenverkehrs zeigen, dass neben Daten über das verwendete Gerät, die ausführende App, zur ungefähren Positionsbestimmung und zu Einstellungsparameter auch Statusinformationen, wie Ladezustand der Batterie und freier Speicherplatz, übertragen werden. Es wurde festgestellt, dass Werbenetzwerke erheblich mehr Daten erheben und übermitteln als in deren Datenschutzerklärungen angegeben. Durch die Analyse des Quellcodes der Werbenetzwerke konnte herausgefunden werden, dass Daten zum einen über API-Aufrufe an das Android-System ermittelt werden und zum anderen durch entsprechende Algorithmen der Werbenetzwerke. Mithilfe der Ergebnisse konnte gezeigt werden, dass seitens der Werbenetzwerke eine bessere und umfangreichere Angabe zu den erhobenen Daten wünschenswert ist.
Weiterhin konnten unter den Daten keine personenbezogenen Informationen gefunden werden, welche eine Zuordnung zu einem einzelnen Individuum erlauben. Jedoch wurden Informationen gefunden, die eine Zuordnung der Daten zu einem einzelnen Gerät erlauben.
Häufiger werden komplexere Fachanwendungen nicht mehr nach dem Rich-Client-Prinzip konzipiert, sondern in einer Web-Frontend-Backend-Architektur umgesetzt. Die Modellierung komplexer Geschäftsprozesse erfolgt meist nach einer serviceorientierten Architektur. Der Einsatz von Webservice-Technologien ist besonders für die technische Realisierung von serviceorientierten Architekturen geeignet. Neue Marktanforderungen von mobilen Geräten und höhere Entwicklungsgeschwindigkeiten fordern von Softwareherstellern noch flexiblere, nachhaltigere und dezentralere Lösungen. Microservices greifen das Problem auf und fokussieren die Modularisierung von monolithischen Systemen. Die Entwicklung unabhängiger Services, die einzeln erstellt und ausgeliefert werden können, tragen zu einer agilen Softwareentwicklung bei. Ziel der Arbeit ist es, eine Strategie für die Anbindung von Webservices in Projekten zu liefern. Neben der im Enterprise-Umfeld etablierten serviceorientierten Architektur wird der neuere Ansatz der unternehmensübergreifenden Microservice-Architektur aufgegriffen. Am Beispiel eines Prototyps werden die Rahmenbedingungen dargestellt, die für die Anbindung von verschiedenen Webservices erfüllt sein müssen. Zusätzlich werden Vorschläge gegeben, die die Funktionalitäten des Prototyps bei einem Ausfall externer Dienste sicherstellen.
Diese Bachelorarbeit untersucht die Auswirkungen von auditiven und visuellen Reizen auf das Spielerlebnis beim Lösen von interaktionsbasierten Rätseln.
In der Welt des Spieldesigns spielen sensorische Hinweise eine entscheidende Rolle um Spieler zu fesseln, sie in das Spiel eintauchen zu lassen und sie durch Herausforderungen zu führen.
Die Arbeit befasst sich mit der Frage, welche Art sensorischer Reize faszinieren und damit Immersion und Effektivität bei der Vermittlung von Rätselinformationen bewirken. Darüber hinaus wird untersucht, wie individuelle Vorlieben und Fähigkeiten sensorische Reizverarbeitung betreffend den allgemeinen Spielspaß beeinflussen können.
Die vorliegende Bachelorarbeit befasst sich mit der Thematik zur Überprüfung der möglichen Schädigung von Lederhalbfabrikaten (Wet-Blue) durch verschiedene Schimmelpilze, welche auf Leder vorgekommen sind bzw. bereits von Leder isoliert werden konnten. Dafür sollte das Wachstum der Schimmelpilze auf dem Halbfabrikat mit Hilfe von Kultivierungsmethoden aus verschiedenen Bewuchstests gezielt gefördert werden. Anschließend wurden die Prüflinge auf eine Materialschädigung untersucht und auf mögliche Nährstoffquellen für das Wachstum der Schimmelpilze zurückgeschlossen
Die vorliegende Arbeit befasst sich mit einem Vergleich zwischen nationalen und internationalen Verwendungsmöglichkeiten des Werkzeugs eDiscovery in der M365 Cloud. Dabei werden verschiedene technische Einschränkungen vorgestellt, welche die Datenschutzrechtlich konforme Nutzung dieses Werkzeuges ermöglich sollen.
Die biologische Ammoniumoxidation ist ein zentraler Bestandteil des globalen Stickstoffkreislaufs. Angesichts der extremen Massen Stickstoff anthropogenen Ursprungs in der Umwelt, liegt die Entfernung reaktiven Stickstoffs im Interesse der Umwelt und der öffentlichen Gesundheit. In der folgenden Arbeit werden Bedingungen zur anaeroben Ammoniumoxidation mit Nitrat in einem Anammox-Reaktor untersucht. Dabei wurden 2 Laborreaktoren für eine Zeit von insgesamt 116 Tagen betrieben und beobachtet, die ausschließlich als Elektronendonatoren und Akzeptoren Ammonium und Nitrat enthielten. Zusätzlich wurden Batchkulturen mit Zellen eines Reaktors angezüchtet und auf ihre Gaszusammensetzung abhängig unterschiedlicher Eigenschaften untersucht. Hierbei wurde eine Reihe unterschiedlicher analytischer Quantifizierungsmethoden genutzt und es konnte gezeigt werden, dass ein Abbau unter den Bedingungen stattfindet.
Die aktuelle Forschung zu dieser Reaktion ist spärlich und verleiht der Bachelorarbeit dadurch Relevanz.
Die vorliegende Bachelorarbeit beeinhaltet Untersuchungen zur Gewinnung leistungsverbesserter Mutanten des Produktionsstammes Penicillium verruculosum M28-9. Dazu wurde die chemische Mutation mittels N-Methyl-N-Nitro-Nitroso-Guanidin angewendet. Die Selektion von Mutanten mit partiell bzw. vollständig ausgeschalteter C-Katabolitrepression erfolgte mittels eines Submers-Screening.
Das nach der Mutation folgende Submers-Screening wurde unter Verwendung der Antimetabolite 2-Deoxy-D-Glukose sowie 1- oder 2-Thioglycerol in unterschiedlichen Konzentrationen durchgeführt. Die mutierten Konidien wurden kultiviert und konnten anschließend mittels Klonselektionierung auf Agarmedien mit amorpher Cellulose und dem Einsatz der wachstumsbegrenzenden Substanz Bengalrosa selektiert werden.
Im Rahmen der Untersuchungen konnten potentielle Mutanten auf einem Medium mit amorpher Cellulose und 25 g/l Glukose als Repressor erhalten werden.
The objective of this Bachelor Project is the creation of a tool that should support forensic investigators during IT forensic interventions. It uses Kismet as the base program and adds functionalities to it via the plugin interface. The installation of the plugin shall be explained, how the plugin works, and a recommendation on how to use it. To understand the underlying basics, an introduction about WLAN and Bluetooth is given. The tests that were performed with the new plugin are described as well as their results. It is therefore briefly discussed why the tool is applicable for locating Wi-Fi devices, especially access points, but not Bluetooth devices. Using all this a few ideas on how to improve the tool and what can be researched in this area are provided.
Die vorliegende Bachelorarbeit gibt einen Einblick in das Lernverhalten mit mobilen Endgeräten von Studierenden. Ziel der Arbeit war es herauszufinden, wie, wann und wo Studierende (mobil) lernen, welche Medien sie zur Vorbereitung auf Tests und Prüfungen nutzen, woher sie ihre Lerninhalte beziehen und welche Rolle Videos beim Lernen spielen. Für die Beantwortung dieser Fragen wurde ein Fragebogen mit der Überschrift Lernen im studentischen Kontext erstellt und von Studierenden der Hochschule Mittweida und der TU Chemnitz ausgefüllt. Herausgekommen ist, dass Studierende zeitnah zur Prüfung lernen; seltener jedoch auf mobile sondern vielmehr auf analoge Medien zurückgreifen. Auch die Ortsunabhängigkeit, die laut Definition ein wichtiger Bestandteil des mobilen Lernens darstellt, wird durch das Lernen im vertrauten Umfeld (d.h. zu Hause) in Frage gestellt. Mobile Geräte werden zwar zum Lernen eingesetzt, jedoch hauptsächlich um auf digitale (Lern-)Inhalte zuzugreifen bzw. sich mit Kommilitonen in sozialen Medien auszutauschen.
In the field of satellites it is common practice to combine multiple ground stations into one network, to increase communication times with satellites. This work focuses on TIM, which is an international academic colaborative project. Important criteria for this project are elaborated and used to evaluate existing ground station networks. It concludes that there is no appropriate solution availiable for this specific use case and establish a proposed solution. The proposed ground station network software will be elaborated and evaluated.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer Testumgebung für das Fuzzing eines HTTP-Relay einer Firewall. Das Hauptziel ist aber die Entwicklung der sich in der Testumgebung befindenden Testcases, welche die Firewall durch Fuzzing prüfen. Dieser Vorgang soll als Black-box Testing Ansatz konzipiert werden und das Fuzzing der Firewall über das Netzwerk berücksichtigen. Dafür soll ein bereits existierender Fuzzer verwendet werden, welcher als Framework von den Testcases verwendet und instrumentiert wird. Zusätzlich soll während der Durchführung Logfiles verfasst und anschließend ausgewertet werden, um Aufschluss über die Ergebnisse zu erhalten.
G-Protein-gekoppelte Rezeptoren (GPCR) sind wichtige Proteinkomplexe für unzählige physiologische Funktionen und dienen als Startpunkt für moderne pharmazeutische Eingriffe. Trotz ihrer Fülle, bemerkenswerten Größe und Molekularstruktur, welche Zell- und Matrixkontakte in einer Vielzahl von Organsystemen ermöglicht, sind GPCR die am wenigsten verstandene Rezeptorklasse. Die Grundlagenforschung an der räumlichen GPCR-Struktur dient dem besseren Verständnis ihres strukturbasierten Wirkstoffdesigns, wodurch pharmazeutisch interessante Proteine mit Medikamenten spezifisch interagieren können. Dafür werden GPCR in „Human Embryonic Kidney“-Zellen (HEK293S-Zellen) exprimiert und anschließend mit der röntgenkristallografischen Analyse untersucht.
In der vorliegenden Bachelorarbeit wird anhand von den Vorgaben und veröffentlichen Dokumentationen des BSI eine Schablone für universitäre Einrichtungen erarbeitet, die als Musterlösung für die Implementierung des IT-Grundschutzes an einer Universität dienen soll. Als Beispiel wird dabei die Hochschule Mittweida und ihre infrastrukturellen und organisatorischen Gegebenheiten herangezogen. Diese konkreten Gegebenheiten sollen und müssen bei der Umsetzung des IT-Grundschutz-Profils an die Rahmenbedingungen der jeweiligen umsetzenden Institution angepasst werden. Es werden die einzelnen Schritte der Standard-Absicherung nach IT-Grundschutz durchgeführt und erläutert. Damit soll ein Schutzniveau gewährleistet werden, das dem normalen Schutzbedarf entspricht. Für Zielobjekte mit erhöhtem Schutzbedarf wird zusätzlich eine Risikoanalyse benötigt, die in der vorliegenden Arbeit ebenfalls beispielhaft dargestellt wird.
Amplifikation von bekannten Kopienzahlvariationen mit ihren umgebenden Sequenzbereichen in einer Long-Range-Polymerase-Kettenreaktion und Auswertung der Produkte mittels Hochauflösender Schmelzkurvenanalyse auf einem LightCycler 480. Unterscheidung mehrerer CNVs von mitgeführten Referenzen durch die zwei Methoden der Hochauflösenden Schmelzkurvenanalyse Meltcurve-Genotyping und Gene Scanning. Grenzen, wie zum Beispiel Pseudogene, welche beachtet werden müssen oder eine eingeschränkte Eignung des Verfahrens für den Nachweis von Duplikationen wurden deutlich. Es zeigte sich zudem, dass eine große Menge an Referenzen empfehlenswert ist, die Amplifikationsparameter in der LR-PCR optimiert sein sollten und interkalierende Farbstoffe der zweiten Generation für die Verwendung in der HRM verwendet werden sollten. Bevor das Verfahren für den Nachweis von CNVs in Proben eingesetzt werden kann, sind weitere Untersuchungen und Optimierungen vorzunehmen.
Diese Arbeit vergleicht die drei populärsten Frontend-Frameworks in der Webentwicklung in Bezug auf barrierefreie Umsetzungsstrategien. Dabei wird der Begriff Barrierefreiheit definiert, aktuelle Standards dargestellt und diese dann anschließend methodisch innerhalb der gewählten Frameworks umgesetzt.
Die Arbeit beschäftigt sich mit der Entwicklung eines Policy-Konzepts zur Steuerung von Netzwerkverkehr an den Außengrenzen eines digitalen Raums. Um Ressourcen innerhalb des Raums zu schützen, definiert die Autorität des Raums mit Hilfe einer semantischen KI Kommunikationsziele. Diese müssen mit Hilfe des zu entwickelnden Policy-Konzepts den Grenzpunkten des Raumes mitgeteilt und dort umgesetzt werden Die Bachelorarbeit beschäftigt sich mit der Entwicklung des Policy-Konzepts und einer prototypischen Implementierung eines solchen Grenzpunktes.
In dieser Bachelorarbeit wird der Messengerdienst WhatsApp auf Mobilgeräten mit Android-Betriebssystem aus digitalforensischer Perspektive beleuchtet. Dazu werden technische Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät gespeicherte Dateien und die enthaltenen forensischen Artefakte ebenso diskutiert wie mehrere Möglichkeiten, WhatsApp betreffende Daten zu extrahieren. Des Weiteren werden sowohl das WhatsApp-interne als auch das Android-Systemlog analysiert, um den erstellten Einträgen die zugrunde liegenden Nutzeraktivitäten zuordnen zu können. Anschließend wird ein Programm vorgestellt, das die gewonnenen Erkenntnisse nutzt, um automatisiert aus den gegebenen Logdateien Ereignisse zu extrahieren und aufzubereiten.
Die Arbeit soll für forensische Untersuchungen, bei denen WhatsApp eine Rolle spielt, sowohl die Informationen als auch ein Werkzeug bereitstellen, mit dem die Aktivitäten des Nutzers nachvollzogen und wichtige Spuren gefunden werden können.
Aufbauend auf der CRISPR-FISH Methode, welche basierend auf dem CRISPRCas9-System die Detektion spezifischer DNA-Sequenzen mittels Fluoreszenzmikroskopie ermöglicht, wird in dieser Arbeit versucht, eine weiterführende Methode zu entwickeln, um die Detektion spezifischer DNA-Sequenzen mithilfe eines Transmissionselektronenmikroskops und somit eine höhere Auflösung zu erreichen.
Die vorliegende Arbeit untersucht eine Datenbank mit der Bezeichnung UsageReportsBuffer, die der Webbrowser Chrome auf Android-Geräten anlegt, sowie mögliche Implikationen für die digitalforensische Auswertung. Von besonderem Interesse sind die Fragen, welche Informationen nach welchen Regeln in der Datenbank abgelegt werden, welchem Zweck die Datenbank dient und ob der Nutzer des Gerätes Einfluss auf den Datenbestand nehmen kann. Die Untersuchung ergibt, dass die circa 100 zuletzt aufgerufenen URLs, sowie dazugehörige Zeitstempel gespeichert werden. Der Nutzer kann dieser Datenerhebung nicht widersprechen oder die Datenbank löschen. Die Aufzeichnung kann lediglich durch Verwendung der Inkognito-Funktion unterbunden werden. Jedoch wird die Datenbank von aktuellen Versionen der Chrome-Anwendung nicht mehr angelegt.
Die vorliegende Bachelorarbeit befasst sich mit der Entwicklung eines 3D-Sehnen-Gewebemodells aus einer Triplettkultur. Dafür wurden Triplettkulturen aus Synovial-zellen, skelettalen Muskelzellen und mesenchymalen Stammzellen bzw. Tenozyten in 2D etabliert, wobei die Stammzellen tenogen differenziert werden sollten. Mithilfe der qPCR wurde die Expression von Markergenen eines jeden Zelltyps untersucht, um den Differenzierungserfolg, sowie den Einfluss der Triplettkultur zu charakterisieren. Zum Schluss erfolgte die Übertragung in eine 3D Umgebung.
In dieser Arbeit wurde ein aktueller Überblick über die im Dark Web verfügbaren Hidden Services erstellt. Dazu wurden Onion-Adressen mit Hilfe von Suchmaschinen und Verzeichnissen gewonnen.
Über diese Onion-Adressen wurden Hidden Services aufgerufen und untersucht. Die gefundenen Hidden Services wurden in Kategorien eingeteilt und anschließend näher betrachtet. Dabei wurde vor allem auf die Inhalte eingegangen. Diese wurden untereinander und mit Webseiten aus dem Clear Web verglichen.
Es konnten zahlreiche verschiedene angebotene Inhalte festgestellt werden. Sowohl legale als auch illegale Inhalte. Die Anzahl der Hidden Services mit illegalen Inhalten überwiegt. Die größte Kategorie stellen digitale Marktplätze dar. Auf diesen werden verschiedene, hauptsächlich illegale Produkte und Dienstleistungen verkauft.
Menschen hinterlassen bei jeder Berührung eines Gegenstandes Fingerabdrücke, durch die sie eindeutig identifiziert werden können, sofern die Qualität dieser aus-reichend ist. Geachtet wird dabei vor allem auf das Grundmuster und den Papillarleisten eines Fingerabdrucks, in denen sich individuell angeordnete Minuzien wiederfinden. Die Qualität dieser Spuren hängt nicht nur von der Person selbst ab, sondern wird u.a. auch durch äußere Gegebenheiten beeinflusst. In dieser Arbeit wird speziell auf den Einfluss filmischer Verunreinigungen auf daktyloskopischer Spuren eingegangen. Zum Einsatz kommen dabei sowohl feste, als auch flüssige Verunreinigungen, die für festgelegte Zeitintervalle auf die Fingerabdrücke einwirken. Die Qualität der verunreinigten Fingerspuren wird analysiert, im jeweiligen Kontext ausgewertet und kann dabei zukünftigen Arbeiten eine Grundlage bieten. Filmisch verunreinigte Fingerabdrücke können sich durchaus auch nach längerer Einwirkzeit sichern lassen, sofern die Sicherungsmethoden passend ausgewählt und angewendet werden.
Die vorliegende Arbeit befasst sich mit der Analyse von ShellBags in Windows-Betriebssystemen. Die Untersuchungen beziehen sich auf Windows XP, 7 und 10, welche als virtuelle Maschinen in VMware Workstation Pro integriert wurden. Da die ShellBag-Registrierungsschlüssel neben Ansichtseinstellungen im Datei-Explorer auch Einträge zu Aktivitäten in und mit verschiedenen Ordnern, in Netzlaufwerken sowie mit externen Speichermedien enthalten, liefern sie für forensische Analysen wertvolle Hinweise. Darüber hinaus können auch die darin befindlichen Zeitstempel zur Auswertung herangezogen werden. Hierfür wurden verschiedene Testreihen durchgeführt. Der Vergleich von ShellBag-Zuständen vor und nach einer Aktivität basiert auf dem Tool Compare It!, welches die Gegenüberstellung zweier .reg-Dateien erlaubt. Die Ergebnisse bestätigen,
dass auch heute noch eine Weiterentwicklung der ShellBags erfolgt, da stets Änderungen vorgenommen und neue Informationen hinzugefügt werden. Dennoch hat sich zum großen Teil eine einheitliche Ablage der Informationen herausgebildet.
Diese Bachelorarbeit befasst sich mit der von MEGWARE GmbH gestellten Aufgabe der Entwicklung eines automatisierten Testsystems für das Softwareprodukt ClustWare. Dabei werden nach der theoretischen Betrachtung des Continuous Integration- und Testprozesses diese mit GitLab auszugsweise implementiert. Innerhalb dieses Ablaufes erfolgt die Nutzung von Docker im Rahmen des automatisierten Buildsystems sowie einer prototypischen Testsuite. Diese beinhaltet sowohl eine grundlegende Abdeckung mittels Smoketest als auch eine exemplarische programmierte Umsetzung durch Selenium. Entsprechend werden Probleme und kritische Abschnitte für die erstmalige Einrichtung betrachtet und näher untersucht.
In this work, we identify similarities between Adversarial Examples and Counterfactual Explanations, extend already stated differences from previous works to other fields of AI such as dimensionality, transferability etc. and try to observe these similarities and differences in different classifier with tabular and image data. We note that this topic is an open discussion and the work here isn’t definite and canbe further extended or modified in the future, if new discoveries found.
Diese Arbeit befasst sich mit dem Erstellen eines digitalen, fotorealistischen Porträts. Dabei werden die Grundlagen sowie das Vorgehen beim Entstehungsprozess beschrieben. Im Weiteren untersucht diese Arbeit Methoden zur Einschätzung des Zeichenfortschritts des erstellten Bildes. Diese werden getestet und ihre Ergebnisse anschließend ausgewertet.
In dieser Bachelorarbeit steht die Untersuchung eines IoT-Gerätes im Fokus. Das Smart Home Security Kit der Firma D-Link wird in allen Bestandteilen auf deren Funktionsweise getestet und analysiert. Das Vierkomponentensystem verfügt über eine Überwachungskamera, einen Fenster-/ Türsensor, einer Sirene
und einem Hub. Im Vordergrund der steht die Datensicherheit und die Zuverlässigkeit der Verwahrung von sensiblen Nutzerinformationen. Es findet die Untersuchung der Hard- und Software sowie der Cloud, App und Website statt. Übertragungsprotokolle und genutzte Sicherheitsstandards werden kritisch beleuchtet. Am Ende findet die Überprüfung der Hardware auf mögliche Manipulationen statt. Es soll ein Überblick über mögliche Vorangehensweisen und Tools gegeben werden, welche auf andere Systeme angewendet werden könnten.
In der heutigen Gesellschaft finden zunehmend Fitnesstracker Anwendung. Viele Menschen sind daran interessiert ihre körperlichen Aktivitäten über den Alltag hinweg aufzuzeichnen, um einen Überblick über ihre Gesundheit oder Fitness zu erhalten. Aufgezeichnete körperliche Aktivitäten sollen in dieser Arbeit speziell mit GPS-Positionen, die auf einem separaten Gerät von derselben Person generiert wurden, in Verbindung gesetzt werden. Konkret wird eine Datenkopplung innerhalb eines Aggregationsalgorithmus für Geo-Positionen integriert. Die Aktivitätsdaten werden ausgewertet und über eine Java-Applikation dem Anwender zur Verfügung gestellt. Als Anwender kommen z.B. IT-Forensiker infrage. Um die Tauglichkeit zu testen, wurden über einen Zeitraum von zwei Wochen Testdatensätze mit einem Garmin vívosmart 4 und einem Android-Smartphone erho-ben. Das Ergebnis der in dieser Arbeit durchgeführten Implementierung ermöglicht eine Zusammenführung und Analyse dieser Daten auf Anwendungsebene.
Die vorliegende Arbeit beschäftigt sich mit der forensischen Datensicherung integrierter Schaltkreise. Das Ziel ist, eine Software zu entwickeln, die es ermöglicht die Daten zweier Schaltkreise durch die Nutzung eines Galep-5D Programmiergerätes in eine Binärdatei zu überführen. Bei den Schaltkreisen handelt es sich um einen seriellen EEPROM und einen eMMC NAND-Flash. Es wird ein Vorgehen erläutert, wie mit Hilfe der bereitgestellten Bibliotheken, die Datenextraktion des EEPROMs durch SPI und des eMMCs durch den eMMC-Standard, erfolgt. Aus dieser Arbeit geht hervor, dass sich die Schaltkreise korrekt auslesen lassen, aber die Datenrate zu gering ist, um dieses Verfahren praktikabel für die Datensicherung größerer Speicher zu nutzen. Dennoch
wird ein Grundbaustein für weitere Forschungen, in Bezug auf das Auslesen unbekannter Schaltkreise, gelegt.
Diese Arbeit thematisiert die digitale 3D-Modellierung des zur Hochschule Mittweida gehörenden Richard-Stücklen Baus. Hauptaugenmerk wird dabei auf die historische Entwicklung der veränderten Außenfassade und die einhergehende Frage, ob und inwieweit das das Gebäude umschließende Gitter performant umgesetzt werden kann, gelegt. Die Untersuchung der Frage erfolgt durch die Entwicklung eines beispielhaften Anwendungsfalls in Form einer interaktiven Software. Die Evaluation durch Performanztests legt dar, dass mit dieser Arbeit ein Weg gefunden wurde, den Richard-Stücklen Bau und sein Gitter durch eine eigens entwickelte Anwendung
performant darzustellen.
Im Zeitalter der zunehmenden Digitalisierung wird die analoge Dokumentation nach und nach aus allen Lebensbereichen verdrängt. Besonders im Bereich der Endoskopreinigung ist diese allerdings noch stark vertreten. Auch dort soll eine digitale Lösung entstehen, um den Arbeitsablauf zu vereinfachen und sicherer zu gestalten.
Diese Arbeit befasst sich mit der Entwicklung eines Clients zur Erfassung von manuellen Reinigungsschritten bei medizinischen Endoskopen. Es wird die Ausganssituation in Krankenhäusern beschrieben und dann auf Grundlage eines bereits existierenden Systems eine neue Lösung erarbeitet. Diese neue Software löst die Probleme, welche im Zusammenhang mit einer analogen Aufzeichnung dieser Reinigungsschritte entstehen. Der Entwicklungsprozess sowie das Endprodukt, in Form eines Webclients, wird hier beschrieben.
Der Autor dieser Arbeit gibt einen kurzen Überblick über die in der Industrie gültigen Richtlinien sowie üblichen Methoden zur Bewertung von der Reinigungseffizienz. Das Ziel dieser Arbeit ist die Entwicklung und Optimierung eines mikrobiologischen sowie makroskopischen Tests, der an dem Verfahren von EHEDG orientiert ist und für 3D-gedrucke Bauteile aus Edelstahl eingesetzt werden kann. Bei dem Verfahren für den makroskopischen Test wird das jeweilige Teststück zuerst verschmutzt, gereinigt und anschließend mithilfe von Fluoreszenzbildern ausgewertet. Für die Entwicklung eines mikrobiellen Tests wird die Modellverschmutzung auf Sauermilchbasis mit Endosporen eines Bioindikators Geobacillus stearothermophilus beimpft. Die Teststücke werden verschmutzt, gereinigt und mithilfe eines MSH-Agars ausgewertet.
Das Ziel der vorliegenden Bachelorarbeit war es, einen Einblick in die kostenlosen Application-Performance-Management-Software „Pinpoint“, „InspectIT Ocelot“ und „Elastic APM“ für die Analyse von Java-Applikationen anhand einer Java-Referenz-Anwendung zu gewinnen und diese mit der kosten-pflichtigen APM-Software „Dynatrace“ zu vergleichen. Dafür wurden Architektur, Funktionen, Erweiterungsmöglichkeiten, Performance und Support von „Dynatrace“ analysiert und auf Basis der Ergebnisse eine Bewertungsmatrix auf-gestellt. Auf Basis dieser Grundlage wurden die kostenlosen APM-Tools analysiert und bewertet. Es stellte sich heraus, dass „Elastic APM“ eine gute kosten-lose Alternative zu „Dynatrace“ ist.
Konzeption und prototypische Implementierung eines Event-und Audio-Systems für eine Game Engine
(2021)
Genau wie jedes Auto zum Fahren einen Motor und jeder Mensch zum Leben ein
Herz benötigt, hat fast jedes Videospiel eine genauso essentielle Komponente - die Game Engine. Sie besteht aus weiteren vielen kleinen Teilen, deren Aufbau wohl überlegt sein sollte. Diese Arbeit hat es sich zum Ziel gemacht, die Konzeption zweier Komponenten für ein bereits vorhandenes System vorzunehmen. Dabei inbegriffen sind softwaretechnische Diagramme, Erweiterungen bekannter und existenter Systeme sowie vorausschauende Überlegungen. Die betreffende Engine wurde im Rahmen eines Projekts der Hochschule Mittweida entworfen. Das Ziel dabei war es, eine modulare und erweiterbare Architektur zu schaffen, an welche nun mit zwei konkreten Komponenten exemplarisch angeknüpft werden soll. Es werden Wissensgrundlagen geschaffen, Konzepte für ein Event- und Audio-Subsystem entworfen sowie diese teilweise umgesetzt. Ein Inbetriebnehmen sowie Testen beider Systeme wurde vorgenommen. Dadurch sind ehemalige Schwachstellen und Ansatzpunkte für die Weiterentwicklung ersichtlich.
In der vorliegenden Bachelorarbeit wird das Themengebiet der Entwicklung eines webbasierten Informationssystems und einem programmatischen Interfaces zur Integration von Sensorikdaten aus Pflanzenphänotypisierungsanlagen erörtert. Um dies zu ermöglichen, wurden mit der Modellierungssprache UML Konzepte erstellt. Dazu zählen das Gesamtsystemkonzept, das Webinformationssystemkonzept und das MockUp des Webinformationssystems (PhenoLIMS). Für die Realisierung von PhenoLIMS wurden Oracle Application Express, JavaScript und PL/SQL eingesetzt. Dabei fand Oracle Application Express für die Oberfläche, JavaScript für das Manipulieren von Elementen der Weboberfläche und PL/SQL für das Abfragen und das Herunterladen der Daten Anwendung. Der Download sollte als ISA-Tab genormte MIAPPE zur Verfügung stehen.
Konfiguration und Evaluierung des Nominatim-Servers
aufbauend auf der Docker-Virtualisierungs-Lösung
(2019)
Das Ziel der vorliegenden Bachelorarbeit war es, eine auf Docker basierende Nominatim-Umgebung zu erarbeiten. Hierzu musste zunächst ein theoretischer Hintergrund zu den Themen Nominatim und Docker geschaffen werden. Die Ergebnisse der Literaturrecherche dienten als Grundlage für die Gestaltung eines Umsetzungskonzepts, welches selbst wiederum die Basis für die spätere Implementierung war.
Die Arbeit ist für Studierende der Informatik interessant, die sich mit Problemstellungen in den Bereichen Docker, OpenStreetMap und Nominatim befassen.
Die vorliegende Arbeit betrachtet den Stellenwert von Realismus in Animationsfilmen. Unter Berücksichtigung der gestalterischen Darstellung der Figuren, der Handlung und der visuellen Gestaltung des Animationsfilmes, wird bewertet, wie wichtig die einzelnen Faktoren eines Filmes im Bezug auf ihre realistische Wirkung auf den Zuschauer sind.
Diese Arbeit beschäftigte sich mit der Testung der zytotoxischen Eigenschaften von zehn Eisen(III)-Salophenderivaten auf die malignen Zelllinien MDA-MB-MB-231, A2780, A2780-Cis, HTB-77, HL-60 und Colo 699. Zur Bestimmung der Spezifität der Wirkstoffe wurden zusätzlich die Zelllinien HS-5 und SV-80 mitgetestet.
Mit verschiedenen Untersuchungsmethoden soll geklärt werden, welche Zelltodmechanismen durch die Eisen(III)-Salophenkomplexe induziert werden. Von besonderem Interesse ist hierbei der Nachweis des 2012 entdeckten Ferroptosemechanismus.
Die vorliegende Bachelorarbeit befasst sich mit dem konzeptionellen Aufbau und Werdegang während der Erstellung des Moduls ”Angewandte Datenanalyse” im datenanalytischen Kontext. Hierbei wird zu Beginn auf die grundlegenden Bereiche der Lehre, des Lernens und der Datenanalyse eingegangen. Diese Grundlagen sollen als Basis für das Verständnis der vorliegenden Analysen dienen. Anschließend werden bereits bestehende Module in ihrem Aufbau reflektiert und ihre Methoden analysiert, um herauszufiltern, welche Methoden für das Modul am besten geeignet sind. Im Anschluss wird eine Anforderungsanalyse erstellt, die die wichtigsten funktionalen und qualitativen Anforderungen an das neu entstehende Modul umfasst. Aus der Anforderungsanalyse hervorgehend wird das Grob- und das Detailkonzept umgesetzt, sowie die wichtigsten Inhalte aufgelistet. Um abschließend einen Ansatz zu erhalten, ob die jeweiligen Angaben ihre in sich stimmige Korrektheit besitzen, wird eine Evaluation durchgeführt. Anhand dieser wird kontrolliert, ob die jeweiligen Aufgabenstellungen den Anforderungen entsprechen, oder ob diese angepasst werden müssen. Am Ende der Bachelorarbeit wird ein allgemeines Fazit gezogen und gleichzeitig zukünftige Ansätze erläutert und wie mit der Umsetzung des Moduls weiter vorgegangen werden kann.
In der folgenden Bachelorarbeit sollen die Bedingungen zur Herstellung von Fakefingerabdrücken, die mit einem Tintenstrahldrucker und einem Material aus Holz-leim und Glycerin hergestellt wurden verbessert werden. Grund dafür ist, dass es im vorangegangenen Praktikumsbeleg noch Mängel bei der Herstellung der Fakes gab. Außerdem sollen die idealen Bedingungen (Materialzusammensetzung und Bearbeitungsmethoden) herausgefunden werden, um Fakes dieser Art herzustellen. Außerdem soll ein neues Unterscheidungsmerkmal für die Erkennung von Fakefingerabdrücken untersucht werden, um in Zukunft die Unterscheidung zwischen Original und Fälschung zu verbessern.
Im Rahmen der Abschlussarbeit soll untersucht werden, inwiefern die Kombination von live objects der Realm Database auf der einen Seite und Combine und SwiftUI auf der anderen, die entstehende Komplexität und Fehleranfälligkeit bei der App-Entwicklung in iOS reduzieren kann. Es soll ein durchführbarer praktischer Teil in Form einer Chat-App entstehen und getestet werden, die die Vor- und Nachteile der genannten Techniken verdeutlicht.
Die einzelnen Phasen der Angriffe auf Computernetzwerke werden heute zunehmend mit speziell dafür konzipierter Software durchgeführt. Für die Aufrechterhaltung der Verbindung zum kompromittierten Netzwerk sind sogenannte Command & Control Frameworks ein gängiges Mittel. Ein Vertreter dieser Frameworks ist PowerShell Empire, welches hauptsächlich auf der Skriptsprache PowerShell von Microsoft basiert, die Angriffsziele jedoch nicht auf Windowssysteme beschränkt sind. In dieser Arbeit wird dieses Framework vorgestellt und Szenarien für den Einsatz aufgezeigt. Durch Untersuchung von Netzwerkmitschnitten, sollen zudem Erkennungsmerkmale zur Identifikation der Aktivität von Empire herausgearbeitet werden.
Das erste Ziel dieser Arbeit war es zu evaluieren, inwiefern in der Praxis mit Hilfe von zwei Photogrammetrie-Softwares Spurenträger mit sich stark unterscheidenden Oberflächen dreidimensional modelliert werden können und welche Auswirkungen die Ergebnisse auf die darauf befindlichen (Blut-) Spuren und damit der forensischen Nutzbarkeit haben. Es wurden dafür drei Objekte gewählt, welche aufgrund ihrer unterschiedlichen Oberflächen- und Textureigenschaften im photogrammetrischen Kontext in drei verschiedene Schwierigkeitsklassen unterteilbar sind. Zudem wurden alle Gegenstände mit passiven Blutspuren benetzt, um zu bewerten, inwiefern anhand der erzeugten Modelle in Hinblick auf die Qualität eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich ist. Um eine Gegenüberstellung einer frei verfügbaren und professionellen Photogrammetrie-Software in Bezug auf die Quali- und Quantität der Ergebnisse durchzuführen, wurde das kostenfreie Meshroom und als Gegenpol das kostenpflichtige Agisoft Metashape für die 3D-Modellie-rung der Objekte verwendet. Alle Spurenträger wurden zuerst mit den jeweiligen Standardeinstellungen der Softwares modelliert. Durch eine Abänderung der Standard-Pipelines wurde dann versucht die Modell- und Spurqualität maßgeblich zu verbessern. Für die 3D-Modellierungen wurde in beiden Softwares dasselbe Bildmaterial (inkl. Polfilteraufnah-men) genutzt.
Da an der Hochschule Mittweida beide zu evaluierenden Photogrammetrie-Softwares zur Verfügung stehen, war ein zweites Ziel dieser Arbeit Handlungsempfehlungen in Form von je einem Entscheidungsbaum pro Schwierigkeitsklasse ausgehend von den Ergebnissen zu formulieren, um die Auswahl der richtigen Software inklusive der Einstellungen bei der digitalen forensischen Sicherung von unterschiedlichen Objekten mit Blutspuren zu vereinfachen.
Zusammenfassend sollen in dieser Arbeit die folgenden vier Fragestellungen beantwortet werden:
▪ Können die 3D-Modelle der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares in Bezug auf ihre Modell- und Spurqualität durch eine Optimierung der Standard-Pipelines und der Bildaufnahme maßgeblich verbessert werden?
▪ Welche der beiden verwendeten Photogrammetrie-Softwares stellt die unterschiedlich schweren Objekte inklusive ihrer Blutspuren als 3D-Modell qualitativ hochwertiger und realistischer dar?
▪ Inwiefern ist anhand der Qualität der 3D-Blutspuren der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich? Wie genau sind die Vermessungen?
▪ Lassen sich ausgehend von den Erkenntnissen der ersten drei Fragestellungen all-gemeine Vorgehen für unterschiedlich schwere Spurenträger für die digitale forensische Spurensicherung formulieren?
In dieser Studie wurde das Auftreten zu hoher (Hyperkalzämie) bzw. zu niedriger (Hypokalzämie) Calciumkonzentrationen bei einer Zufallspopulation untersucht. Dabei wurden unterschiedliche Parameter (Calcium, Albumin, Parathormon, Phosphor, Vitamin D) zu Klärung der Ursache gemessen und in Absprache mit den Einsendern die Gründe der abnormen Calciumkonzentrationen geklärt.
Diese Arbeit beschäftigt sich mit einer theoretischen Auseinandersetzung des Modells der moralischen Entwicklung von Lawrence Kohlberg (1963), welches auf dem Konstrukt Piagets zum logischen Denken aufbaut. Als literarische Arbeit wurde versucht eine Übertragung des Modells aus dem realen Raum in den Virtuellen zu schaffen. Die zentrale Frage war, ob Deviante des realen Raumes die gleichen moralischen Stufen wählen, wie Deviante im virtuellen Raum. Weiterhin wurden die Big-Five der Persönlichkeit mit einbezogen.
Als zentrales Ergebnis zeigt sich die Kenntnis der geltenden Normen, sowie nicht geahndetes Übertreten vermeintlicher Grenzen. Weiterhin konnte festgestellt werden, dass es weniger um die moralische Entwicklung als starre Form, sondern um die Herausbildung einer moralischen Identität geht. Die Verschiebung der moralischen Wahl ist demnach keine räumliche, sondern eine zeitliche.
Ziel dieser Arbeit ist es, ein Software-Architektur-Konzept zu entwickeln, umzusetzen und zu evaluieren, dessen Fokus auf die Kombination einer Smartwatch-Anwendung mit einer AR-Brille-Anwendung gerichtet ist. Dazu wurde ein Patent untersucht, dessen Schwerpunkt auf der Kombination von AR-Brille und Smartwatch liegt, um Anforderungen an solch eine Software-Architektur zu erstellen. Im Anschluss entstand unter Einbeziehung der recherchierten Informationen ein Architektur-Konzept. Für die darauffolgende Umsetzung wurden Anwendungsfälle entwickelt, die zeigen sollen, wie ausgewählte Software-Qualitätsmerkmale bei Verwendung der
Architektur erreicht werden können. Bei der anschließenden Evaluation zeigte sich, dass die Architektur zur Erfüllung wichtiger Software-Qualitätsmerkmale beiträgt, aber auch Optimierungspotenzial besitzt.