Refine
Document Type
- Bachelor Thesis (662)
- Master's Thesis (102)
- Diploma Thesis (55)
Year of publication
Language
- German (819) (remove)
Keywords
- Computerforensik (55)
- Softwareentwicklung (48)
- Computersicherheit (47)
- Videospiel (41)
- Computerspiel (23)
- Datensicherung (21)
- Maschinelles Lernen (21)
- Virtuelle Realität (17)
- Blockchain (16)
- Programmierung (16)
Institute
- Angewandte Computer‐ und Biowissenschaften (819) (remove)
In der vorliegenden Arbeit geht es darum, herauszufinden, ob es möglich ist, die Heldenreise nach Joseph Campbell, auf Erklärvideos anzuwenden. Dabei wer-den die verschiedenen Formen des Storytellings analysiert, sowie erörtert, was ein gutes Erklärvideo ausmacht. Die Heldenreise wird weiter analysiert, um festzustellen, inwieweit die Heldenreise als Blaupause benutzt werden kann. Auf Basis dieser Blaupause wird ein Erklärvideo im Lernbereich erstellt und mit Hilfe einer Umfrage ausgewertet, ob es sinnvoll ist, diese Vorlage zu nutzen.
Die Vorbereitung eines Rennwagens für eine Fahrt ist aufwändig. Daher soll ein 3d Modell des Formula Student Rennwagens ’elCobra’ in die Simulationsplattform Assetto Corsa integriert werden, um einfache Manöver virtuell nachstellen zu können. Am Schluss wird ein Fragebogen aufgestellt, auf dessen Basis das Modell und die Materialien des Fahrzeugs nach unterschiedlichen Kriterien evaluiert, und Mitglieder des Technikum Mittweida Motorsport damit befragt werden.
In dieser Arbeit wird eine Vorgehensweise für die Erstellung von Grafiken zur Nachempfindung eines 2D Cartoon Looks mithilfe von 3D-Daten vorgestellt und evaluiert. Dafür werden vorerst essenzielle Definitionen in Bezug auf Stil geklärt, wichtige Stilelemente identifiziert, erläutert und in einer 3D-Umgebung praktisch umgesetzt. Es wird dabei eine tatsächliche Nachbildung von Spielelementen durchgeführt, um diese schlussendlich bewerten zu können.
Diese Arbeit beschäftigt sich mit der Frage, ob und inwiefern es möglich ist, das Griffgeschehen anhand sichergestellter Spuren digital zu rekonstruieren. Um die Frage zu beantworten, wird sich neben der Anatomie der Hand auch mit den Ansprüchen der Photogrammetrie sowie der Erstellung und Weiterverarbeitung von 3D-Modellen beschäftigt. Das Ziel besteht zum einen darin, mittels photogrammetrischer Aufnahmen, ein 3DModell von dem Spurenträger sowie dem Spurenverursacher zu erstellen. Die Hand soll hierbei ausgestreckt sein. Zum anderen soll mit den entstandenen Modellen der Griff wiederhergestellt werden, in dem das Handmodell in Blender bewegt werden soll. Es stellte sich heraus, dass sich die vorgestellten Methoden zur Erstellung eines Handmodells nicht eigneten, um der Fragestellung dieser Arbeit nachzugehen. Der Hauptgrund besteht darin, dass die Hand, anders als die Tasse, kein Objekt ist und somit nicht auf den Drehteller abgestellt werden kann. Anders als bei Objekten, konnten die Photogrammetrischen Aufnahmen folglich ausschließlich händisch aufgenommen werden. Zudem erwiesen sich die Aufnahmen der ausgestreckten Hand als schwierig. Besondere Probleme bereitete hierbei das Stillhalten der Hand aufgrund der unnatürlichen Pose und der Dauer der Bildaufnahmen. Insgesamt dienen die Ergebnisse dieser Arbeit als Grundlage für weitere Forschungsthemen im Bereich Photogrammetrie sowie der Rekonstruktion des Griffgeschehens.
Hinsichtlich des verändernden Stoffwechsels stellen Kiesel- und Grünalgen eine interessante und gut nutzbare, wenn auch lose und schwer definierbare Gruppierung innerhalb der biologischen Systematik dar: Ihr Potenzial, die Eigenschaften von Pflanzen (dank Photosynthese) und Mikroorganismen (in ihrer jeweiligen Größe und ihrem bedingt heterotrophen Stoffwechsel) zu kombinieren, ist bisher unübertroffen und eröffnet Möglichkeiten u. a. für die Bereiche der Abwasserbehandlung und die Kultivierung von Mikroalgen in Abwassermedien. Obwohl ihre Eignung für wirtschaftliche Zwecke ihr volles Potenzial noch nicht vollständig erreicht hat, scheint der Weg dorthin sicherlich diese Richtung einzuschlagen – mit der Biotechnologie als ein sich ständig weiterentwickelndes Fachgebiet, ist die Verwendung von Algen
für bestimmte Zwecke an die bisherigen Erkenntnisse und den daraus resultierenden Möglichkeiten gebunden. In diesem Versuch wurden insgesamt vier Mikroalgen, drei Grünalgen (C. vulgaris, A. obliquus und C. reinhardtii) und eine Kieselalge (N. pelliculosa), auf ihr Wachstumsverhalten in unterschiedlich konzentrierten Abwassermedien, von 20 % bis 100 % in 20 %-Schritten, getestet. In Bezug auf die erzielten Ergebnisse scheint der vielversprechendste Kandidat für diese Zwecke C. reinhardtii zu sein, welcher das schnellste Wachstum innerhalb der Inkubationszeit von 3 Tagen erreicht hatte und die meisten Nährstoffe aus dem Abwassermedium entfernte. In geringeren Abwasserkonzentrationen kam es stattdessen zum starken Wachstum von A. obliquus, womit dieser Organismus eine Alternative zu geringer belasteten Medien (hinsichtlich der Nährstoffe, als auch der Keimbelastung) darstellt. Außerdem wurden je 5 L A. obliquus und C. vulgaris Inokula in einem größeren Aquarium mit ca. 50 L Abwasser inkubiert unter strengeren Parameterbedingungen und höheren
Kontaminationsrisiko. Dennoch konnte auch hier innerhalb von fünf Tagen ein Abbau von ca. 99,40 % des Phosphats auf 0,055 mg/L erreicht werden, innerhalb einer Woche bzw. sieben Tagen von 99,92 % auf 0,007 mg/L ortho-Phosphat. Ob diese Organismen auch weiterhin eine wichtige Rolle in zukünftigen Technologien für die Abwasserreinigung spielen, hängt von weiteren Studien auf diesem Gebiet ab sowie neuen Innovationen bezüglich der wirtschaftlichen Nutzbarkeit für Unternehmen, welche durch Investitionen den weiteren Ausbau sowie die Forschung im Gebiet der
Algennutzung fördern.
Die vorliegende Bachelorarbeit befasst sich mit dem Thema, ob sich Errungenschaften, auf Video on Demand Portalen, positiv auf die Langzeitbindung der Kunden auswirken können. Diesbezüglich werden in dieser Bachelorarbeit Erfolgsfaktoren von Gamification ausgearbeitet. Aus diesen, wird gemeinsam mit den Grundlagen von Video on Demand und der Verhaltenstherapie ein Konzept entwickelt, dass ein erfolgreiches Einsetzen von Achievements auf Video on Demand Plattformen ermöglichen soll. Das Konzept wird dabei durch eine Umfrage von Video on Demand Konsumenten gestützt.
Active Learning (AL) ist eine besondere Trainingsstrategie im überwachten maschinellen Lernen, mit dem Ziel die Accuracy eines Klassifikators zu verbessern, indem ein Klassifikator mit nur wenig gelabelten, aber dafür hoch informativen Datenpunkten (DP) gelernt wird. In der medizinischen Forschung liegen oftmals nur wenig gelabelte DP vor. AL kann eine sinnvolle Strategie sein, um die Kosten und den Aufwand für das Labeln ungelabelter DP zu senken. Mit Pool-Based AL wurden bisher die größten Erfolge verzeichnet. In der vorliegenden Arbeit wurden zwei biologische, binäre Klassifikationsprobleme mit Uncertainty Sampling Pool-Based AL und Query by Bagging Comitee Pool-Based AL untersucht. Der Generalized Learning Vector Quantization (GLVQ) und ein Multilayer Perzeptron (MLP) wurden als Klassifikatoren verwendet. Anhand eines linear trennbaren und eines nicht linear trennbaren Datensatzes wurden die Auswirkungen der Anzahl an gelabelten DP, mit welcher die Klassifikatoren zu Beginn trainiert wurden, auf die Accuracy untersucht. Die AL-Accuracy näherte sich für das anfängliche Training der Klassifikatoren mit 10 % gelabelten DP bereits stark an die Accuracy im klassischen maschinellen Lernen an und war teilweise sogar größer. In einem weiteren Experiment wurden daher die Klassifikatoren anfänglich mit nur 1 % gelabelten DP trainiert. Es wurde die Auswirkung der Anzahl nachgelabelter DP, mit welcher die Klassifikatoren nachtrainiert wurden, auf die Accuracy untersucht. Für den linear trennbaren Datensatz war die Anwendung von AL mit dem GLVQ und 10 nachgelabelten DP sowie mit dem MLP und 50 nachgelabelten DP erfolgreich. Bei dem nicht linear trennbaren Datensatz wurde mit dem MLP zumindest eine Tendenz, dass AL die Accuracy verbessert, festgestellt. Jedoch reichten 50 nachgelabelte DP nicht aus.
Eine empirische Analyse von 19 DAO-Airdrops im Hinblick auf die Governance-Aktivität der Empfänger: Airdrops sind ein bekannter Incentive-Mechanismus bei Blockchain-Protokollen. In den letzten Jahren haben vor allem DAOs „retroaktive“ Airdrops für sich entdeckt, die frühe Nutzer eines Protokolls entlohnen. Diese Art der Verteilung von Token gilt allerdings auch als ein möglicher Lösungsansatz für Zentralisierung bzw. mangelnde Voting-Beteiligung in DAOs. Thema der Arbeit ist daher, welchen Effekt Airdrops auf die Governance-Aktivität in DAOs haben. Zu diesem Zweck wurden 19 DAOs empirisch untersucht. Wir vergleichen die Voting-Beteiligung der Airdrop-Empfänger auf Snapshot bzw. on-chain mit dem der Gesamtheit der Token-Halter. Außerdem wird die Verteilung der Airdrops, die Halte-Dauer und der Delegations-Anteil betrachtet. Wir stellen fest, dass die Beteiligung der Airdrop-Empfänger im Durchschnitt etwas höher ist als die von nicht-Airdrop-Empfängern. Ob Airdrops sich als Governance-Instrument eignen, ist allerdings im Einzelfall zu betrachten.
Ist Biodiesel, welcher aus Algen gewonnen wird, als klimaneutraler Kraftstoff Ersatz für fossile Brennstoffe eine wirtschaftlich sinnvolle Alternative? Oder ist das doch nur biotechnologisches Wunschdenken. Mit dieser Frage beschäftigt sich die nachfolgende Ausarbeitung. Dabei werden zunächst Biokraftstoffe als ganzes beleuchtet, um danach zwei Algen vorzustellen welche häufig im Zusammenhang mit Biofuels genannt werden. Es werden verschiedene Kultivierungs- und Produktionssysteme erläutert. Anschließend folgt eine Einschätzung der Ausbeute aus den Prozessen zusammen mit einer Einschätzung zur Nachhaltigkeit. Am Ende wird ein Blick in die Zukunft der Technologie gewagt und Kritikpunkte offengelegt.
Die Kreatur des Aliens aus dem gleichnamigen Science-Fiction/-Horrorfilm ist seit Jahren ein fester Bestandteil der modernen Medienkultur. Ausgehend von der Frage „Warum wirkt die Figur des furchteinflößenden Aliens so gut?“ wird in der vorliegenden Arbeit eine Analyse der körperlichen aber auch sozialen Merkmale des Film-Aliens sowie ähnlicher Kreaturen aus der Medienwelt vorgelegt, die auf die Ursachen der starken psychischen und emotionalen Wirkung dieser Figuren abzielt. Dabei zeigt sich, dass es eine spezifische Kombination von Merkmalen gibt, die sich auf eine konstruierte Alien-Figur übertragen lassen und eine starke emotionale Wirkung beim Menschen erzielen kann.
In der vorliegenden Arbeit werden neue Pulver als Alternative für das Rußpulver hergestellt, geprüft und bewertet. Ziel ist es ein für den Anwender gesünderes, kostengünstiges und einfach erhältliches Pulver zu entwickeln. Hierfür wurden unterschiedliche Alltagsmaterialien verwendet. Die dafür angewendeten Grundlagen und Methoden werden erklärt und evaluiert.
Diese Arbeit beschäftigt sich mit der Altersbestimmung der forensisch relevanten Schmeißfliegenart Lucilia sericata anhand der Augenfärbung während der Puppenentwicklung. Das Puppenstadium macht ca. 50 % der Gesamtentwicklung vom Ei bis zur Fliege aus, eine geeignete Methode zur differenzierten Altersbestimmung von Puppen findet derzeit allerdings noch keine Anwendung. Durch vorangegangene Studien zur Puppenentwicklung ist die Augenfärbung zunehmend als Merkmal aufgefallen, sodass in dieser Arbeit untersucht werden soll, ob anhand der Augenfärbung eine Altersbestimmung möglich ist und ob diese in Zukunft als Marker eingesetzt werden kann. Hierfür wurde die Färbung mithilfe des RGB-Farbmodells analysiert. Die Augenfärbung von Lucilia sericata ändert sich über die komplette Metamorphose hinweg hoch signifikant (p<0,0001). Des Weiteren konnte die Färbung in drei Phasen unterteilt werden: larvale Färbung, Rotfärbung und Braunfärbung. Eine Altersbestimmung mithilfe der linearen Regression ist durch sprunghafte Farbänderungen derzeit noch nicht möglich.
Die vorliegende Masterarbeit befasst sich mit der Entwicklung einer Android-Applikation zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Dabei richtet sich der Fokus zuerst auf das aus den USA stammende AMBER-Alert-System – ein System zur Suche vermisster Kinder – und im weiteren Verlauf auf den aktuellen Stand eines solchen Systems innerhalb Deutschlands. Bisher haben sich nur wenige Arbeiten mit der Umsetzung einer solchen App auseinandergesetzt. Aus diesem Grund liegt der Schwerpunkt dieser Arbeit auf der Implementierung einer prototypischen App zur Alarmierung der Bevölkerung bei vermissten Kindern in Deutschland. Diesbezüglich werden bereits existierende Applikationen betrachtet und daraus ein konzeptioneller Entwurf entwickelt. Dieser Entwurf dient als Grundlage für die prototypische Implementierung der App.
Die vorliegende Arbeit stellt eine effektive Möglichkeit dar, um einen Großteil der Bevölkerung in Deutschland zur schnellen Suche und sicheren Bergung bei vermissten Kindern zu erreichen.
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
In dieser Arbeit werden ausgewählteWerbenetzwerke in Android-Apps im Hinblick auf deren Datenerhebung betrachtet. Dabei stellen sich folgende Forschungsfragen: Welche Daten werden an die Werbenetzwerke übermittelt? Wie decken sich die übermittelten Daten mit den Angaben seitens der Werbenetzwerke? Wie werden die Daten von dem Android-Gerät erhoben und welchen Einfluss haben die Daten auf die Privatsphäre des Benutzers? Um die Forschungsfragen zu beantworten, ist eine Auswahl von 100 Apps aus dem Google Play Store getroffen und auf deren enthaltenen Werbenetzwerke analysiert worden. Anschließend wurde der Netzwerkverkehr von ausgewählten Werbenetzwerken mithilfe eines Proxy-Server betrachtet, um die übermittelten Daten abzufangen. Gleichzeitig sind die Datenschutzerklärungen
der ausgewählten Werbenetzwerke im Hinblick auf deren Angaben zu erhobenen Daten betrachtet worden.
Abschließend wurde der Quellcode von den Werbenetzwerken angeschaut, um herauszufinden wie die Daten aus dem Android-System erhoben werden.
Die Ergebnisse der Analyse des Datenverkehrs zeigen, dass neben Daten über das verwendete Gerät, die ausführende App, zur ungefähren Positionsbestimmung und zu Einstellungsparameter auch Statusinformationen, wie Ladezustand der Batterie und freier Speicherplatz, übertragen werden. Es wurde festgestellt, dass Werbenetzwerke erheblich mehr Daten erheben und übermitteln als in deren Datenschutzerklärungen angegeben. Durch die Analyse des Quellcodes der Werbenetzwerke konnte herausgefunden werden, dass Daten zum einen über API-Aufrufe an das Android-System ermittelt werden und zum anderen durch entsprechende Algorithmen der Werbenetzwerke. Mithilfe der Ergebnisse konnte gezeigt werden, dass seitens der Werbenetzwerke eine bessere und umfangreichere Angabe zu den erhobenen Daten wünschenswert ist.
Weiterhin konnten unter den Daten keine personenbezogenen Informationen gefunden werden, welche eine Zuordnung zu einem einzelnen Individuum erlauben. Jedoch wurden Informationen gefunden, die eine Zuordnung der Daten zu einem einzelnen Gerät erlauben.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher der Webclients des Instant-Messenger-Dienstes Threema und des Social-Media-Dienstes Instagram aus forensischer Sicht betrachtet. Hierfür werden die Funktionsweisen der Anwendungen und die auf dem Gerät im RAM enthaltenen Artefakte forensisch analysiert und diskutiert. Anhand der aus dieser Arbeit gezogenen Erkenntnisse sollen zukünftige forensische Untersuchungen, die in Verbindung mit einer oder beiden dieser Anwendungen stehen, unterstützt werden, gefundene Artefakte zu identifizieren und interpretieren.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher unter den Betriebssystemen Microsoft Windows und Linux der Web Clients der Instant-Messengerdienste WhatsApp und Telegram aus forensischer Perspektive beleuchtet. Hierfür werden die technischen Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät im Internetcache enthaltene Artefakte digital forensisch analysiert und diskutiert. Die gewonnenen Erkenntnisse sollen zukünftige forensische Untersuchungen, bei denen Instant-Messengerdienste wie WhatsApp oder Telegram eine Rolle spielen, vereinfachen und die Interpretation der gefundenen Artefakte unterstützen.
Digitale 3D-Modelle finden zunehmend auch im Bereich der Kriminalistik Anwendung, da sie nicht nur zur dauerhaften Dokumentation eines Tatortes beitragen, sondern auch wertvolle Erkenntnisse hinsichtlich des Tatherganges liefern können. Die vorliegende Arbeit befasst sich mit der Überprüfung des Generierungsprozesses derartiger 3D-Modelle hinsichtlich der in der IT-Forensik geltenden Richtlinien für die Reproduzierbarkeit und Dokumentation. Diese Untersuchung ist von Bedeutung, da die digitale 3D Tatortrekonstruktion nicht nur für die Ermittler selbst Hinweise liefert, sondern auch vor Gericht maßgebliche Beweiskraft haben kann, insofern sie die Anforderungen erfüllt. Für die Überprüfung wurden die beiden Softwarelösungen Agisoft Metashape und Meshroom genutzt, um zahlreiche Modelle unterschiedlicher Parametersets zu generieren. Anschließend wurden die mit gleichen Ausgangsbedingungen generierten Modelle hinsichtlich ihrer Ähnlichkeit verglichen, um so die Reproduzierbarkeit zu untersuchen. Mithilfe der Handbücher wurden zudem die einzelnen Prozessschritte näher betrachtet und somit die Möglichkeiten der Dokumentation überprüft.
Menschen hinterlassen bei jeder Berührung eines Gegenstandes Fingerabdrücke, durch die sie eindeutig identifiziert werden können, sofern die Qualität dieser aus-reichend ist. Geachtet wird dabei vor allem auf das Grundmuster und den Papillarleisten eines Fingerabdrucks, in denen sich individuell angeordnete Minuzien wiederfinden. Die Qualität dieser Spuren hängt nicht nur von der Person selbst ab, sondern wird u.a. auch durch äußere Gegebenheiten beeinflusst. In dieser Arbeit wird speziell auf den Einfluss filmischer Verunreinigungen auf daktyloskopischer Spuren eingegangen. Zum Einsatz kommen dabei sowohl feste, als auch flüssige Verunreinigungen, die für festgelegte Zeitintervalle auf die Fingerabdrücke einwirken. Die Qualität der verunreinigten Fingerspuren wird analysiert, im jeweiligen Kontext ausgewertet und kann dabei zukünftigen Arbeiten eine Grundlage bieten. Filmisch verunreinigte Fingerabdrücke können sich durchaus auch nach längerer Einwirkzeit sichern lassen, sofern die Sicherungsmethoden passend ausgewählt und angewendet werden.
Analyse des Einflusses verschiedener Umweltfaktoren auf die spektroskopische Blutaltersbestimmung
(2017)
Blutspuren gehören zu den wichtigsten Beweisen in der Forensik. Neben der morphologischen Untersuchung wie bei der Blutmusteranalyse, kann ebenfalls das Blut an sich untersucht werden um das Alter zu bestimmen. Somit lassen sich nicht nur Tathergänge rekonstruieren, auch eine Überprüfung der Aussagen von Zeugen oder Tatverdächtigen ist somit möglich. Allerdings erschweren Umweltfaktoren die Bestimmung des Alters. Der Einfluss der Faktoren Licht, Temperatur und Luftfeuchtigkeit wurde in dieser Arbeit mit Hilfe einer spektroskopischen Analysemethode, der UV/VIS-Spektroskopie, über einen Zeitraum von 21 Tagen untersucht. Für die Bestimmung des Blutalters wurden neben den vier spezifischen Blutpeaks, zwei Peaks aus dem UV-Bereich näher betrachtet. Es konnte beobachtet werden, dass vor allem die Temperaturverhältnisse einen großen Einfluss auf die Umwandlung von Oxyhämoglobin zu Methämoglobin haben. Die Umsetzungsrate ist hierbei viel geringer. Die Betrachtung der Peaks im UV-Bereich ergab, dass diese von Lichteinflüssen stärker beeinflusst werden. Jedoch eignen sich die Peaks nur bis zu einem Zeitraum von maximal fünf Tagen, da bei älteren Spuren die Werte nicht mehr zuverlässig sind.
Die Altersbestimmung von Blut kann hilfreiche Aufschlüsse über das gesamte geschehene Verbrechen liefern. So kann nicht nur die Leichenliegezeit bestimmt, sondern auch Zeugenaussagen auf ihre Wahrheit überprüft werden. In der Forensik gibt es kostspielige Methoden, um das Alters eines Blutfleckes bestimmen zu können. Hierbei ist auch zu beachten, dass Umwelteinflüsse die Untersuchung und Bestimmung im Wesentlichen erschweren können.
In dieser Bachelorarbeit wurde sich daher auf die spektroskopische Untersuchung mittels UV/VIS-Spektroskopie über einen Zeitraum von 40 Tagen konzentriert. Für das Experiment wurde ausschließlich der Faktor Temperaturverhältnis einbezogen. Für die Blutaltersbestimmung wurden die Peaks der Hämoglobinderivate Methämoglobin und Oxyhämoglobin näher betrachtet. Es konnte beobachtet werden, dass die Peaks, aufgrund der Oxidation von Hämoglobin, mit zunehmenden Alter abnehmen. Des Weiteren konnte festgestellt werden, dass das Blut in kalten Umgebungen langsamer altert, als in warmen Umgebungen.
Für die Unfallrekonstruktion bietet die Erstellung eines 3D-Modelles viele Vorteile. Es fallen weniger Daten bei der Datenakquirierung an und somit wird benötigte Zeit an der Unfallstelle reduziert. Zusätzlich lassen sich Messungen direkt am 3D-Modell vornehmen. Um eine möglichst genaue 3D-Rekonstruktion zu ermöglichen, wurde in dieser Arbeit der Einfluss von verschiedenen Aufnahmemethodiken und softwarespezifischen Prozessparametern, auf das mithilfe der Photogrammetrie Software Agisoft PhotoScan erstellte Modell untersucht. Da es bisher wenig Literatur gab, welche sichmit der richtigen Parametrisierung des Rekonstruktionsprozesses auseinandersetzte, wurde dabei deshalb empirisch vorgegangen. Als unterschiedliche Aufnahmemethoden wurden die Aufnahme direkt mit der Kamera aus der Hand, an einem Stativ und aus der Luft mit drei verschiedenen Kamerasystemen analysiert. Die rekonstruierten 3D-Modelle wurden auf ihre Abweichung und auf die optische Ähnlichkeit zum realen Modell untersucht. Das Ziel dieser Arbeit war die Optimierung des Rekonstruktions- und Aufnahmeprozesses für die Aufnahme einer Fahrbahn. Dabei stellten sich heraus, dass sich für verschiedene Aufnahmemethodiken unterschiedliche Prozessparameter eignen und dass die Parametrisierung, neben der Aufnahmemethodik, einen großen Einfluss auf das fertige 3D-Modell hat.
Die Biometrie ist eine Methode für die Zugriffssicherung auf sensible Daten, welche sich seit dem letzten Jahrzehnt immer mehr durchgesetzt hat. Sie wird vor allem in dem Bereich mobiler Endgeräte verbreitet eingesetzt, da die Implementierung kostengünstig ist. Außerdem muss sich der Benutzer keine Zugangsdaten merken, um Zugriff zu erlangen. Mit dem zunehmenden Nutzen werden jedoch auch Ansätze evaluiert, um diese Sicherheitsbeschränkungen von biometrischen Systemen zu umgehen.
In dieser Arbeit werden Ansätze evaluiert, um Zugang zu gesicherten Daten für forensische Zwecke zu erhalten. Bei Straftaten ist es entscheidend, in kurzer Zeit an die benötigten Daten zu kommen. Mit einem Brute-Force-Angriff kann es jedoch mehrere Jahre dauern, Passwörter zu knacken. Daher kann die Biometrie eine schnellere Lösung sein, um mobile Geräte zu entsperren. Hier liegt der Fokus auf der Erstellung von Fingerabdruck-Artefakten, um sich Zugang zu verschaffen.
Um diese These zu überprüfen, werden Experimente mit verschiedenen Ansätzen durchgeführt, um gängige Typen von Fingerabdrucksensoren zu umgehen. Zu Beginn wurden 2D-Ansätze evaluiert. Hierbei werden Fingerabdrücke mit einem Laserdrucker auf verschiedenste Materialien gedruckt. Als nächstes werden 3D-Ansätze getestet, wozu ein SLA Drucker verwendet wird. Darüber hinaus sind Hilfsmittel evaluiert worden, um die Eigenschaften der Fingerabdruckartefakte zu verbessern, damit sie sich mehr wie ein menschlicher Finger verhalten.
Die Experimente zeigen, dass es möglich ist, Fingerabdrucksensoren mit Artefakten zu umgehen, um an gesicherte Daten zu gelangen. Optische Sensoren akzeptieren 2D gedruckte Fingerabdrücke. Im Gegensatz dazu benötigen kapazitive und ultraschallbasierte Sensoren andere Artefakte. Wir konnten die Sicherheitssperre mit 3D Fingerabdrücken überwinden. Darüber hinaus sind Hilfsmittel nützlich, wenn eine Lebenderkennung integriert ist.
In dieser Bachelorarbeit wird der Messengerdienst WhatsApp auf Mobilgeräten mit Android-Betriebssystem aus digitalforensischer Perspektive beleuchtet. Dazu werden technische Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät gespeicherte Dateien und die enthaltenen forensischen Artefakte ebenso diskutiert wie mehrere Möglichkeiten, WhatsApp betreffende Daten zu extrahieren. Des Weiteren werden sowohl das WhatsApp-interne als auch das Android-Systemlog analysiert, um den erstellten Einträgen die zugrunde liegenden Nutzeraktivitäten zuordnen zu können. Anschließend wird ein Programm vorgestellt, das die gewonnenen Erkenntnisse nutzt, um automatisiert aus den gegebenen Logdateien Ereignisse zu extrahieren und aufzubereiten.
Die Arbeit soll für forensische Untersuchungen, bei denen WhatsApp eine Rolle spielt, sowohl die Informationen als auch ein Werkzeug bereitstellen, mit dem die Aktivitäten des Nutzers nachvollzogen und wichtige Spuren gefunden werden können.
Das Ziel der vorliegenden Bachelorarbeit besteht darin, den Renesas Synergy S7G2 Mikrocontroller und dessen Merkmale und Funktionen in Bezug auf Sicherheitsmechanismen zu analysieren, um eventuelle Schwächen zu identifizieren. Dafür werden zu Beginn Mikrocontroller und deren Eigenschaften grundlegend erklärt. Weiterführend werden sowohl praktische als auch theoretische Untersuchungen und Betrachtungen des S7G2s angestellt, wobei das Hauptaugenmerk in der Praxis auf der JTAGSchnittstelle liegt. Abschließend wird der Renesas Controller und dessen Merkmale mit denen des Atmel ATXMEGA-A3BU-Xplained Mikrocontrollers verglichen, um die Sicherheit beider zu diskutieren.
Das Ziel dieser Arbeit ist die Analyse von Kampfszenarien in Videospielen, mit dem Fokus auf der Gewichtung von unterschiedlichen Charakter-Klassen und Teamzusammenstellung.
Dazu wird dies an zwei Videospielen analysiert. Danach wird eine Anforderungsanalyse durchgeführt und es erfolgt die prototypische Umsetzung eines Softwaretools, in dem sich Kampfszenarien simulieren lassen. Ergänzend dazu wird eine visuelle Evaluation implementiert. Anhand der Auswertung von Testsimulationen wird dann eine erneute Analyse durchgeführt.
Analyse dezentraler Identifikation mittels Sidetree-Protokolls, am Beispiel von Microsoft ION
(2021)
This master thesis deals with the field of decentralized identification, using the example of the Microsoft Identity Overlay Network (ION). In the introduction, basic terms such as identity and identification are described. A special emphasis is placed on the explaining of the principle of decentralized identifiers (DIDs) and the SSI concept. ION is an implementation of the Sidetree protocol and uses its core components. This is the reason why more details and special parts of Sidetree are described in the methods chapter. Afterwards the ION history and network topology is typify more in detail. An ION node will be installed and operated on top of the Bitcoin blockchain. The installation process and the problems that arise are recorded. Then the ION tools (a programming library and its values) will be explained and the example program code is shown. As a practical addition of the ION tools, a verifiable credential solution is scripted. This solution shows the creation of ION-DID and the signature options of these identifiers. In the results chapter the knowledge acquired via the decentralized identification is evaluated. A theoretical security analysis for ION is implemented. Furthermore, a list of the currently possible uses for the network is enumerated. A discussion is initiated that compares the advantages and disadvantages of ION. The thesis ends with a conclusion and an outlook for ION and decentralized identification.
Das Ziel dieser Arbeit ist die Untersuchung der in Blender vorhandenen Tools zur Erstellung einer Fallsimulation mit einfachen Objekten und Menschmodellen. Nach einem kurzen Überblick über die Theorie werden verschiedene Kräfte in mehreren Testreihen untersucht und schlussendlich kombiniert. Diese Testreihen werden mit dem Programm Blender durchgeführt. Zusätzlich wurde eine Anleitung zur Erstellung einer Ragdoll in Blender 2.8 an-gefertigt.
Diese Bachelorarbeit beschäftigt sich mit der Analyse des Bussystems FlexRay. Dieses System wird vor allem für sicherheitskritische Aspekte im Fahrzeug eingesetzt. Somit kann das FlexRay über das Leib und Leben des Fahrers und aller Verkehrsteilnehmer mitwirken. Gerade in heu-tigen Zeiten, wo immer mehr Technologie zur Sicherheit des Verkehrs beitragen soll, wird vor allem in die Sicherheit des Systems im Bezug zur Zuverlässigkeit geforscht. Die Absicherung vor Manipulationen oder Angriffen auf den Bus wird jedoch nur wenig untersucht. Daher soll diese Ausarbeitung zur Analyse des Bussystems, bezüglich der IT-Sicherheit dienen. Dabei ist die Thematik dieser Arbeit noch nicht abgeschlossen, sie bildet jedoch eine gute Grundlage für weiterführende Versuche.
Die Aufgabe der V2X-Kommunikation ist es, zukünftig die Sicherheit und Effizienz im Straßenverkehr zu erhöhen. Das Ziel dieser Arbeit besteht darin, sicherheitsrelevante Aspekte von Car2X Protokollen zu analysieren. Grundlage bildet hier der europäischen ETSI-Standard. Da es sich bei dieser Arbeit um eine Literaturrecherche handelt, werden zu diesem Zweck die Veröffentlichungen des Standards herangezogen. Zunächst wird das Netzwerk aufgezeigt, in dem die Kommunikation zwischen den Fahrzeugen und der Infrastruktur stattfindet. Anschließend werden wichtige Protokolle analysiert und verschiedene Angriffspunkte untersucht. Die verschiedenen Angriffe werden mit anderen Forschungsarbeiten verglichen und analysiert. In dieser Arbeit wurde festgestellt, dass trotz spezieller Sicherheitsvorkehrungen, Angriffe auf das Netzwerk und die Protokolle möglich sind.
In der vorliegenden Arbeit wird das Thema Cybercrime umfangreich behandelt. Dabei wird unter anderem auf den klassischen Cyberangriff und auf das Thema Social Engineering eingegangen. Die Problematik der Cybercrime, wird für jeden leicht verständlich erklärt. Dabei wird eine neue und allgemeine Anatomie von Cyberangriffen erarbeitet und es werden aktuelle Beispiele diskutiert. Ziel der Arbeit ist es, ein Sicherheitsbewusstsein zu schaffen mit dem jeder sich sicherer in der digitalen Welt bewegen kann.
Ziel der vorliegenden Bachelorarbeit war es, ein Open-Source-Softwarepaket zusammen zu stellen, das zur computergestützten Tatortrekonstruktion verwendet werden kann. Dazu wurden verschiedene Add-ons für die Open-Source-Software Blender in ihrer Funktionsweise vorgestellt und anschließend miteinander verglichen. Hierbei wurde insbesondere auf Nutzerfreundlichkeit und Eignung zur Tatortrekonstruktion eingegangen. Anschließend wurde das daraus resultierende Softwarepaket zur Erstellung einer Tatortrekonstruktion anhand eines Fallbeispiels verwendet.
Die vorliegende Arbeit befasst sich mit der Analyse von bestehenden Konzepten zur Nutzung Prozeduraler Content Generierung in Games, sowie mit einer aus der Analyse resultierenden Bewertung dieser. Durch eine Aufschlüsselung von Konzepten veröffentlichter Games und algorithmischer Ansätze wird ermittelt, welche Möglichkeiten für die Entwicklung von Games bestehen und wie computergesteuerte Generierung als Werkzeug das künstlerisch-handwerkliche Produkt des Entwicklers erweitern kann.
Zur Analyse stehen neun repräsentative Games, die Prozedurale Content Generierung nutzen, sowie fünf algorithmische Konzepte, mit deren Hilfe Content prozedural generiert werden kann. Die Ergebnisse von Analyse und Bewertung von Games und Algorithmen belegen die Bedeutung Prozeduraler Content Generierung als Werkzeug zur Erweiterung des menschlichen Schaffensvermögens. Untersuchte Konzepte werden ergänzend zu einem Kompendium mit weiteren Methoden und Literaturhinweisen entwickelt.
Das Testen von Software ist unabdingbar und wird nicht nur für Desktop Applikationen, sondern auch für Applikationen auf mobilen Geräten benötigt. Der Prozess des Testens ist aufwändig. Es gibt durch künstliche Intelligenz gestützte Lösungen, welche Systemtests zu großen Teilen eigenständig generieren und dem Entwickler das Testen erleichtern, zum Beispiel das AI4Test Projekt der Systems Multimedia Solutions GmbH.
Das Ziel dieser Bachelorarbeit besteht darin, das AI4Test Projekt zu analysieren und die bestehende Struktur so zu erweitern, dass iOS-Geräte neben Android und Desktop Geräten unterstützt werden. Dabei wird eine generalisierte Schnittstelle zur Interaktion mit Geräten geschaffen.
Das Ziel der Bachelorarbeit wird erreicht. Das AI4Test Projekt wird vorgestellt, die Schnittstelle generalisiert und die Plattform iOS wird prinzipiell unterstützt.
Die vorliegende Arbeit beschäftigt sich mit der Analyse von
Festplattenverschlüsselungssoftware. Dabei werden BitLocker von Microsoft, FileVault von Apple unter MacOS und LUKS unter Linux betrachtet. Des Weiteren wird die Verschlüsselung Data Protection der iPhones und Android Encryption von Googles Betriebssystem analysiert. Bei der Untersuchung werden die verwendeten kryptographischen Algorithmen, die Schlüsselhierarchie und hardwarebasierenden Technologien behandelt. Zudem werden Angriffsmöglichkeiten präsentiert, die bei einer forensischen Analyse verwendet werden können, um die Verschlüsselung zu umgehen.
Die vorliegende Arbeit befasst sich mit einer Verbesserung des Produktverwaltungsprozesses eines Magento Onlineshops sowie einer verbesserten Bestellverarbeitung und dessen Integration zu Unternehmenssystemen. Mögliche Optimierungsansätze werden anhand der System-landschaft des Unternehmens XECURIS GmbH & Co. KG aufgezeigt. Unternehmen sind darum bemüht, Workflows möglichst effektiv und mit geringem Zeitaufwand zu gestalten. Insbesondere Unternehmen im IT-Umfeld sind darauf angewiesen, dass komplexe Geschäftsabläufe automatisiert und fehlerfrei abgearbeitet werden. Ziel der Arbeit ist es, Schwächen an der bestehenden Infrastruktur des Unternehmens zu analysieren, Optimierungsansätze zu entwickeln sowie Ansätze zu deren Implementation aufzuzeigen.
Die vorliegende Arbeit beschäftigte sich mit einer Analyse von Methoden des maschinellen Lernens, mit Hinblick auf ihre unterstützende Wirkung für den intralingualen Übersetzungsprozess von deutschen standardsprachlichen zu Leichte Sprache Texten. Für diesen Zweck wurde ein Vergleich von relevanten Methoden, in diesem Fall die der statistischen maschinellen Übersetzung und die der neuronalen maschinellen Übersetzung aus dem Bereich des maschinellen Lernens und des Natural Language Processing aufgestellt. Dabei wurde der potenzielle Funktionsumfang, die Voraussetzungen sowie die Implementierbarkeit verglichen. Das Ergebnis dieses Vergleiches war es das, dass Potenzial durchaus gegeben ist mittels dieser Methoden den Übersetzungsprozess zu unterstützen. Jedoch bedingt das Fehlen eines Textkorpus für deutsche Standard Sprache und ein dazugehöriger Textkorpus der Leichten Sprache, das diese Methoden nicht implementiert, wurden konnten. Es konnten drei Funktionen umgesetzt werden, die den Übersetzungsprozess unterstützen. Zum einen die Funktion für die Anzeige von gebräuchlicheren Synonymen von Wörtern, eine Funktion für die automatische Generierung von
Zusammenfassungen und eine Funktion für Anzeige von Umformulierungen für Zahlen aus den Bereichen hohe Zahlen, alte Jahreszahlen und Prozent Zahlen. Die Evaluation der Funktionen mittels einer zufällig generierten Wortliste und ausgewählter Nachrichten für die Zusammenfassung und Zahlenbereiche ergab. Das diese Funktionen eine unterstützende Wirkung haben, jedoch stark fehleranfällig sind.
Im Rahmen der zwölfwöchigen Bearbeitungszeit wurde in dieser Bachelorarbeit die Analyse und das Zeitmanagement von Routineparameter in unserem Labor, labopart – Medizinische Laboratorien in Chemnitz, getätigt. Ziel war es durch statistische Erfassungen und intensive Mitarbeit, die Notwendigkeit der Anschaffung neuer Analyzer sowie weitere Optimierungsgründe finden und beschreiben zu können.
Der Einsatz von künstlicher Intelligenz soll in der Zukunft auch die Verbrechensaufklärung unterstützen. Ein Teilgebiet dessen ist die Bewegungsanalyse von Menschen. Ein wichtiger Aspekt dabei ist die Verformung und Bewegung der Wirbelsäule, mit der Frage, wie viele Wirbel als digitale Knochen einzeln benötigt werden, um eine Bewegung noch möglichst natürlich und anatomisch korrekt darstellen zu können. Diese Arbeit befasst sich mit der Reduktion der Wirbelsäule bzw. einzelner Wirbel anhand der Erstellung und Posierung von 3DSkeletten, welche je über anders zusammengefasste Wirbel verfügen.
Hass und Hetze im Netz haben in den letzten Jahren stetig zugenommen. Vor allem in den sozialen Medien sind Anfeindungen, Hass und Hetze immer dominanter geworden. Dies stellt auch die Strafverfolgungsbehörden vor neue Aufgaben. Um Verfasser von Hasskommentaren über soziale Netzwerke effektiver identifizieren zu können, nehmen Polizei und Justiz seit einiger Zeit die OSINT-Recherche (Open Source Intelligence) zu Hilfe. Hierfür durchsuchen die Ermittler digital das Profil oder die Profile der Verfasser von Hasskommentaren und sichern Informationen, welche zur Identifizierung der Personen führen können. Diese Arbeit soll aufzeigen, wie die OSINT-Recherche im Vergleich zu den Standardermittlungen einzuordnen ist. Außerdem soll untersucht werden, wie Hasskommentare im Netz klassifiziert werden können und welche Art von Informationen die Nutzer freiwillig im digitalen Raum veröffentlichen.
Die Einführung eines IT-Notfallmanagement kann auf freiwilligen Basis oder durch rechtliche Verpflichtungen erfolgen. Hierbei ist die Verwendung von etablierten Standards und Normen gerade für kleine und mittelständische Unternehmen (KMU) empfehlenswert, aber herausfordernd. In der vorliegenden Bachelorarbeit werden einschlägige gesetzliche Verpflichtungen für KMU betrachtet. Es wird sodann auf bekannte Normen und Standards des IT-Notfallmanagements eingegangen. Mit einer selbstentwickelten Methode werden diese auf ihre KMU-Tauglichkeit geprüft. Das Ziel besteht darin, den verpflichteten KMU den für sie geeignetsten der betrachten Standards und Normen aufzuzeigen.
Die Analyse von Logdateien bietet in der Mobil-Forensik die Möglichkeit herauszufinden, wann welche Aktionen am Handy stattgefunden haben. Das Thema dieser Bachelorarbeit ist die Analyse bestimmter Protokolldateien unter Android. Der Schwerpunkt liegt in der Untersuchung der Ordner usagestats, recent_images und com.whatsapp, welche auf der Datenpartition liegen. In der Zielfragestellung dieser Studie gilt es festzustellen, ob die Protokolldateien in den jeweiligen Ordnern einen Hinweis auf die letzten Aktivitäten des Nutzers geben. Da sich bisher wenige Studien genauer mit der Protokollierung dieser Logdateien auseinandergesetzt haben, werden zu diesem Zwecke verschiedene Szenarien mit einem Android-Smartphone durchgeführt, um zu verstehen, was in den jeweiligen Dateien protokolliert wird. Dazu werden dieselben Szenarien auf drei unterschiedlichen Betriebssystemversionen getestet, um mögliche Unterschiede festzustellen und wesentliche Rückschlüsse für die Forensik zu folgern. Es ist zu beobachten, dass sich einige der untersuchten Dateien zur Beantwortung der Ausgangsfrage eignen, während andere Protokolldateien eher als kritisch zu betrachten sind.
Die vorliegende Arbeit befasst sich mit der grafischen Darstellung und dem Vergleich von Erzählstrukturen in modernen Computerspielen. Über eine empirische Analyse wird ermittelt, wie die jeweiligen Spiele aufgebaut sind und wo es zwischen diesen und ihren Genre Gemeinsamkeiten und Unterschiede gibt. Zur Analyse standen 34 Spiele aus 17 Subgenre und fünf Hauptgenre. Von allen Spielen wurde je ein Modell angefertigt und diese untereinander verglichen. Dabei wurde nach Gemeinsamkeiten in der Art und dem Aufbau der Strukturen gesucht, um so die Frage zu beantworten ob jedes Spiel, jede Art von Geschichte erzählen kann oder ob deren Erzählung abhängig ist von dem jeweiligen Genre des Spieles
In der regenerativen Medizin, insbesondere beim Tissue Engineering, spielt die natürliche extrazelluläre Matrix eine große und immer bedeutsamere Rolle. Ein wichtiger Schritt für die medizinische Anwendung ist die Probenvorbereitung. Um die genaue Zusammensetzung des fertigen Produkts bestimmen zu können, muss eine einheitliche Methode für die Extraktion der Bestandteile zur Verfügung stehen. Ein anderer Teil der Probenvorbereitung ist die Dezellularisierung. Um bei der Anwendung in der regenerativen Medizin Abstoßungsreaktionen zu vermeiden, sollen die Zellen des zur Herstellung des Produkts verwendeten Gewebes nahezu vollständig entfernt werden. In dieser Arbeit wurde eine Methode zur Extraktion der extrazellulären Matrix optimiert und etabliert. Zusätzlich wurden verschiedene Dezellularisierungsansätze für die Gewebe untersucht. Die Ergebnisse zeigen, dass eine Extraktion mit dem GuHCl-Puffer für 24 beziehungsweise 48 h gute Ergebnisse bei der anschließenden Evaluation mittels Massenspektrometrie mit sich bringt. Allerdings ist der Erfolg der Extraktion stark gewebeabhängig. Für die Dezellularisierung hat sich die Anwendung des pH-WechselVerfahrens als wirksam erwiesen. Jedoch konnten mit Hilfe der gewählten Bedingungen die bestehenden Grenzwerte für eine erfolgreiche Dezellularisierung nicht erreicht werden.
Das Berechtigungssystem ist ein grundlegender Sicherheitsmechanismus der Android-Plattform. Diese Arbeit widmet sich diesem im Kontext der speziellen Bedrohung durch Android-Trojaner, welche durch die Modifikation legitimer Applikationen erstellt werden. Unter den Fragestellungen, inwiefern Android-Trojaner Systemberechtigungen benötigen und wie sie diese als trojanisierte Applikationen auf Applikationsebene erhalten können, werden die beiden Aspekte zusammengeführt und untersucht. Dazu erfolgt eine Analyse der Funktionsweise des Berechtigungssystems in aktuellen AndroidVersionen, welche sich auf die Dokumentation, den Android-Quelltext und praktische Versuche stützt.
Neben bestehender Literatur, die zur Beantwortung der Fragestellungen herangezogen wird, ist die Analyse der Verwendung von Berechtigungen in den Open-Source Trojanern AndroRAT und dem Metasploit-Android-Payload Teil der Arbeit. Die beiden Schadprogramme werden außerdem für die Trojanisierung existierender Applikationen verwendet. Dabei werden Möglichkeiten aufgezeigt, wie bei der Modifikation einer legitimen Applikation Berechtigungsanfragen hinzugefügt werden können. Zudem wird gezeigt, wie die Manipulation einer Kompatibilitätsangabe im Rahmen der Trojanisierung zu dem Erhalt der Berechtigungen führt.
Die vorliegende Arbeit beschäftigt sich mit der Analyse, Konzeption, Implementation und Evaluation eines dezentralen Feedback-Systems für die Blockchain Academy Mittweida. Es wurde nach einer Lösung gesucht, das Feedback für die angebotenen Kurse auf der Seite der Blockchain Academy Mittweida erfassen zu können. Dabei sollte die Anonymität des Nutzers stets gewahrt bleiben, jedoch für den Betreiber die Möglichkeit gegeben sein, unberechtigtes oder doppeltes Feedback erkennen und aussortieren zu können. Diese Anforderungen konnten durch die Linkable-Ring-Signature gewährleistet werden. Bei diesem Verfahren kann der Nutzer stellvertretend für seine Gruppe eine Nachricht signieren. Der Betreiber kann überprüfen, ob eine signierte Nachricht aus dieser Gruppe stammt und ob es bereits eine Nachricht von einem Nutzer eingegangen ist, ohne die Anonymität des Nutzers aufzuheben. Das System wurde möglichst dezentral gestaltet, um keine zentrale Angriffsstelle bieten zu können und sicherheitsrelevante Teile abkapseln zu können. Es wurde ein Smart Contract angelegt, welcher die zum Signieren benötigten öffentlichen Schlüssel der Gruppenmitglieder eines Kurses bereithält. Die zweite Komponente stellt eine Browsererweiterung dar. Mit dieser kann der Nutzer sich in die Feedbackgruppe zu einem Kurs eintragen und seine Schlüsselpaare für die Signatur Generierung speichern lassen. Die dritte Komponente ist ein Plugin auf dem WordPress-System der Blockchain Academy Mittweida, mit welchem das Feedback auf Verknüpfbarkeit geprüft werden kann. Mittels eines funktionalen Testverfahrens und einer Probandengruppe wurde die erarbeitete Lösung untersucht. In beiden Fällen bestand die Lösung die an diese gestellten Anforderungen und wurde positiv von der Probandengruppe aufgenommen. Es wurde sich mehrheitlich für die vorgestellte Lösung und gegen eine Lösung mit einem Kennwort, welches der Nutzer eingeben muss, bevor er eine Umfrage ausfüllen kann, entschieden. Im Wintersemester 2022/2023 an der Hochschule Mittweida könnte die Anwendung zusammen mit dem Masterstudiengang Blockchain & Distributed Ledger Technologies (DLT) in einem größeren Praxistest eingesetzt und weiter erprobt und verbessert werden.
Analyse, Strukturierung und digitale Transformation von Patientendaten in der humanitären Hilfe
(2018)
Die vorliegende Arbeit befasst sich mit der Analyse der Arbeitsabläufe in mobilen Kliniken der humanitären Hilfe, um die Prozesse und die darin entstehenden Patientendaten digital zu transformieren. Zur Umsetzung werden zwei Ansätze verfolgt. Dabei handelt es sich einerseits um die Migration der Daten in ein am Markt verfügbares System und andererseits den Weg der Eigenentwicklung. Dazu werden nach Betrachtung der Grundlagen geeignete Komponenten ausgewählt und Konzepte für Datenbank und Online-Anwendung erstellt. Im Anschluss werden die Konzepte umgesetzt und mögliche Erweiterungen angeschnitten.
Die vorliegende Arbeit befasst sich mit den Anforderungen zur Verbesserung der Mitarbeiterzufriedenheit und -effizienz anhand der Webanwendung des SYSTEMHAUS am Neumarkt. Dazu erfolgt die Recherche gängiger Methoden im Bereich der User Experience. Mit den theoretischen Grundlagen wird der aktuelle Entwicklungsstand analysiert. Es erfolgt eine Evaluation, aus welcher ein Problemkatalog erstellt wurde. Kern der Arbeit ist die Erstellung eines Kriterienkataloges mit konkreten Maßnahmen zur Verbesserung der User Experience. Diese Maßnahmen werden mit Hilfe eines Prototyps visualisiert.
Die vorliegende Arbeit befasst sich und formuliert funktionale Anforderungen an die neu zu beschaffende Stationsleittechnik, Fernwirktechnik und Netzleittechnik für den Einsatz im Umspannwerk, Trafostationen und Leitwarten. Des Weiteren
werden Forderungen an die einzusetzenden Komponenten bzw. Systeme hinsichtlich der „IT-Security“ dargelegt.
Seit 2018 befindet sich das Projekt „BuggyTech Engine“ an der Hochschule Mittweida in studentischer Entwicklung. Auf dieser Game Engine soll das von der Autorin konzipierte Spiel „Neon Nova“ laufen, wofür sie ein Game Design Document (GDD) erstellte. Das GDD stellt als grundlegendes Dokument, welches sämtliche relevanten Aspekte eines zu entwickelnden Spiels beschreibt, ein Herzstück in der Videospielentwicklung dar. Es dient als zentrales Werkzeug für das Entwicklerteam, um gemeinschaftlich auf ein klares Ziel hinzuarbeiten. In der klassischen Softwareentwicklung werden Anforderungen und Spezifikationen an eine zu entwickelnde Software detailliert in Form eines Lastenheftes verschriftlicht, welches für die Entwickler ähnliche Funktionen hat, wie das GDD. Diese Konzepte werden, neben der Erarbeitung zusätzlicher Wissensgrundlagen, zunächst dargestellt und auf Inhalte, sowie Vor- und Nachteile untersucht. Im Hauptteil dieser Arbeit wird die Eignung eines GDD als Grundlage für die Anforderungsanalyse einer Game Engine am Beispiel von Neon Nova und der BuggyTech Engine untersucht. Der Prozess der Erstellung des Lastenheftes wird dargelegt und die Ergebnisse vorgestellt. Zudem wurden Datenmodelle und UI Layouts für die spezifische Anwendung in de BuggyTech Engine konzipiert. Abschließend wird ein Fazit über den Prozess und die Geeignetheit der aufeinander aufbauenden Arbeitsweise der beiden Dokumente gezogen, welche normalerweise nicht miteinander in Kontakt kommen. Das Ergebnis der Arbeit ist ein vollständiges, für die Weiterentwicklung der BuggyTech Engine nutzbares Lastenheft.
Die Dokumentation eines kriminalistisch relevanten Tatortes ist eines der wichtigsten Bestandteile der forensischen Untersuchung. Dafür dienen heute unter anderem Laserscanner. In dieser Arbeit wird ein Ablauf für die Erstellung eines 3D-Modells aus Laserscannerdaten von der Erstellung der Scandaten bis zur Verarbeitung dieser in der Software auch anhand von Fallbeispielen erläutert. Dafür dienen FARO Laserscanner Focus 3D X 130 und die Software FARO SCENE. Außerdem werden die entstandenen Modelle evaluiert und der Aspekt des Zeitaufwandes betrachtet.
Im Rahmen dieser Arbeit wird das ZigBee Protokoll genauer untersucht. Dabei wird gezielt auf die häufigsten Angriffsmethoden eingegangen, welche anschließend bewertet werden. Die Bewertung erfolgt mittels eines in der Arbeit vorgestellten Bewertungsschemas mit einer anschließenden Einordnung in eine Bedrohungsmatrix. Zuletzt werden einige der Attacken in einem Experiment durchgeführt, um die theoretische Einordnung zu überprüfen.
Die Bachelorarbeit umfasst eine Auseinandersetzung mit dem aktuellen Straftatphänomen Cybertrading. In Zusammenarbeit mit Beteiligten des Strafverfolgungsprozesses und entsprechender Literatur wird das Phänomen aus den Gesichtspunkten der Wirtschaft, des Bankwesens, des Rechts, der Psychologie und der Polizei näher beleuchtet. Mithilfe dieser Erkenntnisse werden die Problemfelder im Umgang mit der Betrugsstraftat aufgedeckt.
Anlegen und Charakterisieren von Anreicherungskulturen aus Oberflächengewässern im Norden Finnlands
(2020)
Es wurden Wasserproben aus Finnland biochemisch charakterisiert. So wurden EcoPlates von BIOLOG benutzt, um die Wasserproben von heterotrophen mikrobiellen Gemeinschaften zu charakterisieren und klassifizieren. Zudem wurden Anreicherungskulturen erstellt und auf ihre Verwertung von Stickstoffquellen durch Phänotyp Mikroarray und auf ihre Zellwandzusammensetzung mit Gram-Färbung untersucht. Die daraus resultierenden Ergebnisse werden für die Bestimmung und Charakterisierung von den Anreicherungskulturen verwendet.
Das Ziel dieser Bachelorarbeit ist die Darstellung von Techniken zur Verfolgung von Transaktionen und Entitäten auf der Bitcoin Blockchain. Die zugrundeliegende Forschungsfrage lautet wie folgt:
Welche Aussagekraft und Grenzen haben Heuristiken und Analysemethoden zur Nachverfolgung von Bitcointransaktionen und wie wirken sie sich auf deren Anonymität aus?
Zur Beantwortung der Forschungsfrage wird eine Literaturrecherche durchgeführt. Die Funktionsweise der Methoden wird dargestellt, Stärken und Schwächen der Methoden werden aufgezeigt und gegebenenfalls Verbesserungsvorschläge gemacht.
Es zeigt sich, dass die Anonymität des Bitcoin-Systems aus verschiedenen Richtungen eingeschränkt werden kann. Die vorgestellten Analysemethoden haben jedoch ihre Grenzen und können die Anonymität des Bitcoinsystems nicht endgültig überwinden.
Letztendlich bleibt festzuhalten, dass die Anonymität eines Nutzers von seiner Bitcoin-Nutzung und der Nutzung seines Umfelds abhängt. Ein bewusster, anonymer Umgang mit der Kryptowährung ist die Grundlage für eine solide Privatsphäre.
Das Ziel der vorliegenden Arbeit war es, den Deliktbereich Cybercrime auf Vorhersagbarkeit seiner Verbrechensrate zu testen. Diese Testung erfolgte, indem nach Trends und Gesetzmäßigkeiten innerhalb der bisherigen Geschehnisse des
Deliktbereichs gesucht wurde, wozu Daten der Polizeilichen Kriminalstatistik herangezogen wurden. Die Suche nach Trends und Gesetzmäßigkeiten erfolgte, indem versucht wurde, auf Basis eines Hidden-Markov-Modells diejenigen Parameter zu identifizieren, anhand derer sich die aussagekräftigsten Gesetzmäßigkeiten bilden ließen. Die Arbeit basiert auf PUX, eine vom Autor erstellte Webtechnologie-basierte Anwendung, mit der PKS-Daten gespeichert und mit Hilfe von Visualisierung und Simulation erforscht werden können.
Ziel dieser Arbeit ist es, an ausgewähltem Material aus einer Skelettsammlung eine morphologische Geschlechtsbestimmung am Os ilium (Darmbein), einem Teil des Os coxae (Hüftbein), durchzuführen und deren Zuverlässigkeit zu überprüfen. Um die Bestimmung des Geschlechts sicherer zu machen, werden weitere morphologische Analysen am Cranium sowie an den Ossa coxae und eine osteometrische Analyse am Femur durchgeführt und mit den Ergebnissen der Geschlechtsbestimmung am Os ilium verglichen.
Weltweit sind oberflächliche Pilzinfektionen weit verbreitet. Diese äußern sich in Rötungen, Schuppungen und Juckreiz und sind belastend für jeden Betroffenen. In dieser Arbeit werden Pilzproben aus Bangladesch untersucht, um diese auf molekularer Ebene zu identifizieren. Dazu wurden Methoden, wie Kultivierung und Sequenzierung angewandt. Weiterhin wurden alle Kulturen auf Antimykotika getestet, um bei möglichen Resistenzen eine patientenspezifische Behandlung ermöglichen zu können. Darüber hinaus wurde ermittelt, durch welche genetischen Änderungen die Resistenzen verursacht werden. Dies erfolgte durch die Sequenzierung bestimmter Gene der Dermatophyten-DNA.
Die Bachelorarbeit befasst sich mit dem Nachweis des Alkoholkonsummarkers Ethylglucuronid (EtG) auf Leichenhaarproben sowie der Korrelation der
Alkoholkonzentration in verschiedenen postmortalen Muskelgewebsproben. Ein besonderes Augenmerk gilt dabei dem Fäulniszustand der Leichen. Die Proben wurden im Institut für Rechtsmedizin der Charité vor bzw. während der Obduktion gewonnen. Die chemisch-toxikologischen Untersuchungen erfolgten für EtG mittels eines LC-MS/MS-Messsystems. Die Konzentrationen von Ethanol und Fäulnisalkoholen wurden mittels zwei differenten GC-FID-Messsystemen gemessen. Die Analyse der gemessenen Konzentrationen erfolgt mittels statistischer Methoden. Dazu zählen die Auswertung der Spannweiten der EtG-Konzentrationen, auch in Abhängigkeit der verschiedenen möglichen Entnahmeorte von Haarproben am Körper inkl. einer kritischen Hinterfragung der Grenzwerte der Society of Hair Testing. Auch für die Korrelation der Alkoholkonzentrationen in postmortalen Muskelgewebsproben werden statistische Methoden zur Überprüfung herangezogen. In beiden zu untersuchenden Matrices wird auf den Einfluss des Fäulniszustandes bzw. von Fäulnisflüssigkeit eingegangen und dieser kritisch bei der Auswertung der Messergebnisse mit einbezogen. So soll es möglich werden, eine Aussage darüber zu treffen, inwieweit die Messergebnisse in den untersuchten Matrices durch postmortale Prozesse beeinflusst werden.
Fehlende Erholung von Stress kann langfristig zu gesundheitlichen und psychologischen Problemen führen. Präventivmaßnahmen sind eine Notwendigkeit geworden, um Depressionserkrankungen durch wachsenden Leistungsdruck in unserer neoliberalen Gesellschaft vorzubeugen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und Evaluation eines Computerspiels zur Förderung der eigenen Selbsteinschätzung von Stress und zur Unterstützung von Selbsterkenntnis, im Sinne des bewussten Umgangs mit Stresssituationen. Computerspielen wird hierbei als präventive Maßnahme eingesetzt.
In der Arbeit werden zwei weit verbreitete Computer-Forensik-Tools verglichen und bewertet. X-Ways Forensic und Autopsy wurden als beispielhafte Vertreter der Kategorien "proprietäre Tools" sowie "freie Tools" gewählt. Es werden anhand eines Kriterienkatalogs und verschiedener Test-Szenarien die einzelnen Funktionen systematisch evaluiert.
Die tägliche Arbeit von Softwareentwicklern ist es, Software so zu schreiben, dass sie auch in Zukunft so schnell und flexibel entwickelt werden kann wie am ersten Tag. Dafür stehen ihnen zahlreiche Methoden und Tools zur Unterstützung zur Verfügung. Jedoch stellt die Einrichtung und erstmalige Anwendung solcher Hilfsmittel oftmals eine Hürde dar, vor allem, wenn man selbst in diesem Bereich noch keine Erfahrung gesammelt hat. In dieser Arbeit wird dieser Ansatz durch die Entwicklung und Anwendung einer statischen Code-Analyse und Modultests auf eine bestehende NodeJS-Software verfolgt. Diese Software ist Teil einer übergeordneten Projektinfrastruktur, auf deren Komponenten diese Testverfahren später ebenfalls angewendet werden sollen. Für die Evaluation werden etablierte Tools zur Implementierung und Automatisierung der Testprozesse ausgewählt. Der Vergleich dieser Tools erfolgt dann auf der Grundlage gewichteter Kriterien die anhand einer subjektiven Einschätzung bewertet werden. Zunächst werden die Tools JSLint, JSHint und ESLint für die statische Codeanalyse evaluiert. Dann werden Unit-Tests entworfen und definiert und anschließend mit den Unit-Test-Frameworks Mocha, Jest und Vitest implementiert. Schließlich werden die Tests mit einem CI-Tool automatisiert. Aus der Vielzahl an Plattformen wurden BitBucket Pipelines, CirleCI und Buddy als Testobjekte ausgewählt. Es stellte sich heraus, dass eine Vielzahl projektspezifischer Faktoren bei der Auswahl der CI Tools eine Rolle spielen. Die Evaluierung der Tools lieferte eine solide Grundlage für weitere Tests und damit Vertrauen und Sicherheit in die Zukunft von EnjineIO. Diese Arbeit ist besonders für Softwareentwickler interessant, die noch keine Erfahrung mit Softwaretests gemacht haben und einen Einblick in dieses Thema erhalten möchten. Zudem dient sie dazu, einen Einblick in die Besonderheiten der genannten Softwaretest-Tools zu erhalten, wenn ein Team den Wechsel auf eines davon plant.
Ziel dieser Arbeit ist das Evaluieren der Klassifikationsfähigkeit eines MVCNN-Verfahrens am Teilproblem der Klassifikation von prozedural generierten, idealisierten Darstellungen von OCT-Scans. Zu diesem Zweck wird ein Tool für das Erstellen ¨solcher Szenen entwickelt sowie ein Algorithmus zur Volumenberechnung von sich überschneidenden Meshes, welcher für das automatische Labeling dieser Szenen verwendet wird.
Durch verschiedene Industriezweige gelangen viele Chemiaklien in die Umwelt und lagern sich dort an. Dabei haben viele dieser Chemikalien für die Umwelt und den Menschen schädliche Nebenwirkungen. Diese sind einerseits von der Exposition der Substanzen und andernseits von Effekten auf den biologischen Kreislauf abhängig.
Um die genauen Auswirkungen dieser Verbindungen beurteilen zu können, ist es jedoch wichtig beide Bereiche zu betrachten. Im Rahmen dieser Arbeit wurde deswegen ein Ansatz entwickelt,mit dem die Daten der Exposition und die Daten der Auswirkungen mit einander verknüpft werden können. Dazu wurden zuerst Chemikalien für die Expositionsdaten und Chemikalien für die Wirkungsdaten bereitstehen aus öffentlich zugänglichen Datenbanken gesammelt. Mit Hilfe der Wirkungsdaten wurden anschließend Neuronale Netze trainiert. Es konnte gezeigt werden, dass mittels dieser Modelle die Auswirkungen auf Umwelt und Mensch für die Expositionschemikalien vorhergesagt werden kann.
Zudem wurden in mehreren Chemical Similarity Maps gezeigt, dass sich verschiedene Chemikaliencluster bilden, welche ähnliche chemische Eigenschaften besitzen. Dadurch könnte es möglich sein anhand der chemischen Ähnlichkeite bestimmte Wirkungsdaten für chemische Stoffe vorherzusagen.
Die vorliegende Arbeit befasst sich mit dem Aufbau einer zentralen Datenbank sowie der Entwicklung eines Webinterfaces. Dazu werden einleitend die nötigen Grundlagen erläutert und die aktuellen Technologien verglichen. Im Hauptteil wird die aktuell eingesetzte Anlagenliste auf Excel-Basis analysiert und Konzepte für die Datenbank und dem Webinterface erstellt. Im Anschluss daran werden die Konzepte umgesetzt und zum Schluss ein Fazit gezogen sowie mögliche zukünftige Entwicklungen angeschnitten.
Die vorliegende Arbeit befasst sich mit der Analyse verschiedener Remoting Verfahren für die Verwendung von Webservices. Hauptziel ist aber, dass auf die Funktionalität der firmeninternen Webservices über einen Request-Handler zugegriffen werden kann. Um nicht bei jeder Anpassung oder Neuerstellung eines Webservice die URLs in den Anwenderprogrammen anpassen zu müssen, soll der Request-Handler die URL des angefragten Webservice ermitteln und eine
Kommunikation zwischen Anwenderprogramm und Webservice aufbauen und den Datenaustausch steuern.
Soziale Medien ermöglichen den öffentlichen Austausch von Nachrichten im digitalen Raum. Viele Personen missbrauchen diese Plattformen jedoch für die Verbreitung von Hass. Die Bestimmung und die Prävention derartiger Kommentare stellt eine große Herausforderung dar. In dieser Arbeit werden Möglichkeiten zur Bestimmung und Prognose von Toxizität als Kennzahl
für die sentimentale Ausdrucksform des Hasses aufgezeigt. Nach der begründeten Auswahl der Perspective API als Werkzeug zur Bestimmung von Toxizität werden mit diesem Werkzeug über 600.000 deutschsprachigen Twitter-Kommentare aus dem Frühjahr 2021 annotiert. Die Annotation bildet die Grundlage für die Untersuchung der Ausbreitung toxischer deutscher Sprache.
Mit Methoden der intelligenten Datenanalyse werden im Datensatz Einflussfaktoren ermittelt, die das Absetzen eines toxischen Kommentars begünstigen. Die gefundenen Einflussfaktoren werden final dazu verwendet, um die Toxizität von Antworten, ohne ein Wissen über deren Inhalt,
mit Hilfe künstlicher Intelligenz zu prognostizieren.
Die vorliegende Arbeit befasst sich mit der Implementation einer Virtual Desktop Infrastruktur (VDI). Dies wird am Beispiel der Tirol Kliniken GmbH dargestellt. Im theoretischen Teil werden die Grundlagen der Virtualisierung und die Komponenten einer VDI betrachtet. Im praktischen Teil findet eine Auswahl und Konzeptionierung einer geeigneten VDI-Lösung für das Beispielunternehmen statt. Nach der Dimensionierung und prototypischen Implementation, erfolgt eine Überprüfung des benötigten Ressourcenbedarfs des VDI-Konzeptes.
Die vorliegende Abschlussarbeit gibt einen Überblick über die Herkunftsbereiche und Eintragspfade von Spurenstoffen, die in den Ab- und Gewässern der Region Chemnitz auftreten. Des Weiteren wird die Effizienz der Zentralen Kläranlage der Stadt Chemnitz hinsichtlich ihrer Eliminationsleistung von Mikroschadstoffen untersucht. Zudem soll die Analyse des Indirekteinleiterkatasters der Stadt aufschließen, inwieweit eine derzeitige Überwachung der Stoffeinträge stattfindet. Während sich der erste Teil der Arbeit mit der Untersuchung vorhandener Daten beschäftigt, wird im weiteren Verlauf eine Maßnahme zur Spurenstoffreduzierung mithilfe einer Aktivkohleadsorption beschrieben und auf ihre Leistung überprüft. Bei der Auswertung der Analyseergebnisse wird deutlich, dass ihre Wirksamkeit von der jeweilig untersuchten Stoffgruppe abhängt.
Mobile-Games haben in den letzten Jahren einen großen Teil des Spielmarktes eingenommen. Viele dieser Mobile-Games greifen auf Free-to-Play-Modelle zurück und betreiben Monetarisierung über Ingame-Purchases und Microtransactions. Damit gewinnt die Player-Retention in diesen Spielen immer weiter an Bedeutung und verschiedene Mechaniken in Spielen sind darauf ausgelegt, die Retention zu steigern. In dieser Arbeit wurden fünf Titel aus dem Mobile-RTS-Genre betrachtet und dabei herausgestellt, dass Spiele dieses Genres stark Energy-Systeme undSkinner-Box-Systeme verwenden und die Spielzeit der Spieler dadurch begrenzen. Es wurde die These aufgestellt, dass sich verlängerte Spielzeiten einzelner Sessions ebenso positiv auf die Retention auswirken können. Daraufhin wurden verschiedene Mechaniken in den Spielen untersucht, die zu einer Verlängerung der Spielzeit führen und deren Effekt auf die betrachteten Spiele. Diese Mechaniken eignen sich ebenso gut zur Generierung von Retention, jedoch sind die in Mobile-RTS etablierten Mechaniken auf eine Begrenzung der Spielzeit ausgelegt. Es wurde als alternative Spiel-Mechanik das Portal-System vorgestellt, das längere Spielzeiten ermöglicht und dadurch positiven Einfluss auf die Retention haben soll. Da es sich nur um eine theoretische Betrachtung handelt, steht hierbei eine praktische Betrachtung noch aus.
Mit Hilfe des Enzyms Kollagenase ist es möglich, ein etabliertes Kollagen-Hydrogel vollständig zu dissoziieren. Welche Auswirkungen dieser Prozess auf die darin befindlichen, 3-dimensionalen L929-Zellen hat, sollte während der Bachelorarbeit untersucht werden. Neben der Beobachtung, ob sich das Hydrogel komplett auflöst, wurden Veränderungen der Zellmorphologie, der Zellzahl und der Zellvitalität dokumentiert. Um die direkte Wirkung des Enzyms auf die Fibroblasten beurteilen zu können, wurden außerdem 2-dimensional kultivierte L929-Zellen mit Kollagenase versetzt und ebenfalls hinsichtlich der bereits genannten Aspekte untersucht.
Das Thema Kinderpornographie ist schon lange immer wieder Fokus der Medien. Erst vor kurzem hat die deutsche Polizei ein internationales Netzwerk, welches Kinderpornographie verbreitete, aufgedeckt und vier Täter festgenommen. [27] Auch die polizeiliche Kriminalstatistik (PKS) verzeichnete im Jahr 2019 und 2020 einen massiven Anstieg des Besitzes, der Herstellung und der Verbreitung von Kinderpornographie. [3, 4] Diese Zustände und Entwicklungen sind erschreckend und zeigen die Relevanz der Arbeit in diesem Themengebiet. Daher befasst sich diese Bachelorarbeit mit der Entwicklung einer unterstützenden künstlichen Intelligenz (K.I.) für die Ermittlungen.
Die vorliegende Arbeit befasst sich mit der Automatisierung des Schreibens von Unit-Tests. Das Hauptziel ist es für den Bereich iOS eine Lösung umzusetzen und diese auszuwerten. Dabei wird der Codegenerator Sourcery verwendet und die Templates für das Generieren der Unit-Tests in den verschiedenen Templatesprachen umgesetzt. Die Umsetzung sowie die verschiedenen Templatesprachen werden ausgewertet, um die Basis für weitere Entwicklung zu schaffen.
Die vorliegende Arbeit dient als Grundlage zur Umsetzung für eine automatisierte Klassifizierung von textuellen Fehlermeldungen. Das Hauptziel ist ein grundlegendes Verständnis für die Herangehensweise zum Aufbau eines maschinellen Lernsystems zu erreichen. Es werden verschiedene Arten des maschinellen Lernens erläutert. Auswahl und Aufbau eines Lernmodells werden von unterschiedlichen Seiten beleuchtet, um einen Überblick der einzelnen Schritte zu gewinnen. Zur Gewährleistung eines praktischen Lösungsansatz wurden bereits erste Tests mit einem ausgewählten Lernmodell durchgeführt.
Die Datenschutzgrundverordnung hat in der Europäischen Union für ein einheitliches Datenschutzrecht gesorgt. Sie fordert unter anderem eine einfache und verständliche Sprache von Datenschutzerklärungen und benennt umfangreiche, inhaltliche Anforderungen. Im Praxisumfeld ist es aber immer noch nicht selbstverständlich, dass Datenschutzerklärungen sich an formalen und inhaltlichen Festlegungen der Datenschutzgrundverordnung und weiterer geltender deutscher Gesetze orientieren. Das in dieser Arbeit erstellte Python-Programm zur automatisierten Analyse von Datenschutzerklärungen kategorisiert Themenabschnitte mit Hilfe einer Stichwortsuche und prüft die Datenschutzerklärung anhand eines festgelegten Katalogs an Testkriterien. Abschließend wird eine Bewertung auf Basis der Form und des Inhalts vorgenommen.
Ein Compiler oder Assembler wandelt Quellcode in ein ausführbares Programm um. Das resultierende Binary besteht aus Befehlen und Ressourcen, wie Bilder, Sounds oder anderen Informationen. Ohne den Ausführungskontext kann jedoch nicht im Vorhinein mit absoluter Sicherheit eine Angabe gemacht werden, bei welchen Bytes es sich um Anweisungen und bei welchen Abschnitten im Programm es sich um Ressourcen handelt. Bei einer Untersuchung oder einem
Dekompilierungsvorgang der binären Datei gestaltet sich diese bzw. dieser ohne vorliegenden Quellcode sehr schwierig. Als Beispiel für eine Von-Neumann-Architektur wurde in dieser Arbeit der Game Boy mit seiner
Sharp-LR35902-CPU gewählt. Mit Banking verwendet die Architektur sowohl historische Technologien, ähnelt aber dennoch sehr den derzeit häufig genutzten x86-64-CPUs von Intel oder AMD. Außerdem bieten die kleinen Programme von maximal zwei Mebibyte die Möglichkeit, auch in ineffiziente Ansätze auszuprobieren. In dieser Arbeit wurde anhand der folgenden sieben Lösungsansätze erläutert, wie man eine Befehl-Ressourcen-Trennung erzielen kann.
Manueller Ansatz (siehe Kapitel 3.1)
Metadaten-Ansatz (siehe Kapitel 3.2)
Alles-Befehle-Ansatz (siehe Kapitel 3.3)
Statistischer Ansatz (siehe Kapitel 3.4)
Emulationsansatz (siehe Kapitel 3.5)
Programmflussansatz (siehe Kapitel 3.6)
Brute-Force-Ansatz (siehe Kapitel 3.7)
Insbesondere wurden drei automatisierte bzw. teilautomatisierte Ansätze implementiert und anschließend
mit einer manuellen Trennung als Referenzwert verglichen. Dabei erzielte, bei dem verwendeten Kontrollprogramm ”StefaN”, der Programmflussansatz ein gutes Ergebnis.
Das mittels Emulationsansatz gewonnene Ergebnis schloss etwas schlechter ab. Der Brute-Force-Ansatz scheiterte an exponentiellen Wachstum und erzielte damit das schlechteste Ergebnis. Eine korrekte Trennung konnte nur mit dem manuellen Ansatz erreicht werden. In dieser Arbeit konnte keine vollautomatisierte Lösung für das Problem gefunden werden. Grundsätzlich kann festgehalten werden, dass eine Befehl-Ressourcen-Trennung einer ausführbaren Binärdatei auch in Zukunft eine Herausforderung darstellt.
Die vorliegende Arbeit untersucht die Erstellung prozeduraler Materialien in Hinblick auf die Verwitterung von Naturstein an einer Skulptur. Dazu werden die betrachteten Gesteinsarten zunächst hinsichtlich ihres Verwitterungsverhaltens untersucht. Beim Dokumentieren der Nachbildung der Materialien zeigt die Arbeit Vor- und Nachteile, sowie Grenzen der prozeduralen Methode auf. Betrachtet wird dabei auch die Realisierbarkeit der Parametrisierung. Weiterhin gibt die Arbeit einen Ausblick darauf, welche Vorgehensweise für welchen Anwendungsfall geeignet ist.
Automatisierte Erkennung von Malware auf Linux Systemen mit Hilfe von Indicators of Compromise
(2017)
Die Bachelorarbeit beschäftigt sich mit der Frage, inwiefern eine automatisierte Suche nach Malwarespuren mit Hilfe von „Indicators of Compromise“ auf Linux-Systemen realisierbar ist. Hierfür wird eine Liste von möglichen Malwareindikatoren in einer Linux Umgebung erstellt. Durch den Autor wurden 25 Indikatoren aufgestellt. Zu jedem Indikator werden zwei Ansätze zur Automatisierung beschrieben. Ein Ansatz bezieht sich auf die automatisierte Datenerhebung. Der andere auf die automatisierte Analyse der erhobenen Daten. Für beide Ansätze werden innerhalb der Beschreibung Tools genannt, die für die Umsetzung in Frage kommen. Um die entwickelten Ansätze zu testen, wurden ausgewählte Indikatoren in einem Skript umgesetzt. Durch das Skript wurde die Erkennung von Malware auf Grundlage von Veränderungen in der Userlandschaft, Code innerhalb des Kernels und der Prozesse getestet. Hierfür wurde der Code auf einer mit Malware infizierten virtuellen Maschine ausgeführt. Die anschließende Überprüfung der erhobenen Daten konnte jedoch keine der getesteten Malware Beispiele anhand von IoCs erkennen. Daher müssen für eine effektive Malware Erkennung weitere Indikatoren hinzugezogen werden. Als Endergebnis der Arbeit konnte gezeigt werden, das eine teil-automatisierte Erkennung von Linux Malware mit Hilfe von IoCs möglich ist. Dabei kann vor allem die Datenerhebung automatisiert werden. Für die Analyse ist eine Automatisierung nur beschränkt möglich
Diese Arbeit erläutert, wie automatisiert aus den derzeit gängigen Browsern - namentlich Internet Explorer, Microsoft Edge, Google Chrome, Mozilla Firefox sowie Opera, die Datenbanken aus forensischen Windows-Datenträgerkopien extrahiert werden können. Dabei werden diese Browser in dem Datenträgerabbild mittels Registry-Verweisen festgestellt und anschließend ihre Datenbanken aus den gängigen Pfaden extrahiert. Daraufhin werden alle Verläufe mittels einer dynamischen Liste gefiltert. Als Ergebnis entsteht ein neues Datenträgerabbild mit den enthaltenen Datenbanken der Browser. Das Ergebnis soll den Ermittlern Zeit bei der Durchsuchung der Browserdaten sparen, indem der Verlauf bereits gefiltert vorliegt.
Die vorliegende Arbeit befasst sich im Rahmen der Aufgabenstellung damit, ein Systemkonzept eines möglichen Systems für die automatisierte Suche und Verwaltung von Bedrohungsinformationen zu entwickeln und daran beteiligte Prozessschritte näher zu betrachten. Dieses System ist erforderlich, um OSCTI-Informationen aus verschiedenen Quellen zu sammeln, Wissen über Bedrohungsverhalten zu extrahieren und diese zu korrelieren, um ein möglichst vollständiges Bild über eine Bedrohung zu erhalten und diese Informationen unter anderem im Rahmen für des Threat Huntings nutzbar zu machen.
Diese Arbeit beschäftigt sich mit der Methode der automatisierten Geschlechtsbestimmung über Abbilder des daktyloskopischen Fingerabdrucks und der deren Umsetzung als Programm zur praktischen Anwendung. Die theoretischen Grundlagen hierfür liefern mehrere Studien, die bereits im Rahmen zweier wissenschaftlicher Arbeiten betrachtet und in die praktische Anwendung in Form einer Software umgesetzt wurden.
Ziel dieser Arbeit war es, die Software zur automatisierten Geschlechtsbestimmung weiter um Prozesse der Bildverarbeitung zu erweitern, um die Genauigkeit und die Effizienz zu steigern.
Sowohl diese Veränderungen, als auch die gesamte Software an sich, sollte im Anschluss evaluiert werden, um deren Funktionsleistungen in messbaren Ergebnissen aufzuzeigen. Die daraus gezogenen Erkenntnisse sollen anschließend Ausblicke zur weiteren Verwendung geben.
Des Weiteren gibt die Arbeit Aufschluss über die Zusammenhänge des genetisch zufälligen Determinismus bei der Entstehung des Fingerabdrucks mit den zu beobachteten Phänomenen des scheinbaren Geschlechtsdeterminismus.
Aus Gründen der besseren Lesbarkeit wird in dieser Bachelorarbeit die Sprachform des generischen Maskulinums angewandt. Es wird an dieser Stelle darauf hingewiesen, dass die ausschließliche Verwendung der männlichen Form geschlechtsunabhängig zu verstehen ist.
In dieser wissenschaftlichen Arbeit werden verschiedene Testverfahren vorgestellt und deren Umsetzungsmöglichkeiten mit der Applikation BFlow im Infor LN erläutert. Dabei werden zuerst verschiedene, ausgewählte Geschäftsprozesse innerhalb des Infor LN analysiert und anschließend mittels einer Ereignisgesteuerten Prozesskette grafisch dargestellt. Auf die Analyse folgt die Umsetzung dieser Prozesse mittels BFlow. Um die Aussagefähigkeit der verschiedenen Testarten feststellen zu können werden verschiedene Szenarien definiert und jeder Test für das dargestellte Szenario durchgeführt. Abschließend wird eine Schlussfolgerung, basierend auf den Ergebnissen der einzelnen Testdurchläufe, formuliert.
In dieser Arbeit soll sich mit der Möglichkeit beschäftigt werden, den Prozess zur Freischaltung von Firewallregeln zu vereinfachen. Dafür soll ein Programm entwickelt werden, welches diesen Prozess automatisiert und dadurch den schwierigen Prozess vereinfachen soll. Des Weiteren wurde recherchiert, welche Richtlinien zum Schutz des Netzwerkes erforderlich sind und mit Firewalls umgesetzt werden können. Die Implementierung der Richtlinien soll hier als Code erfolgen und es einfach machen, diese Richtlinien automatisch durchzusetzen. Mithilfe dieser als Code implementierten Richtlinien sollen Anträge zur Freischaltung von Firewallregeln geprüft und validiert werden. Wurde der Antrag zur Freischaltung einer Firewallregel erfolgreich validiert, soll die Firewallregel automatisch implementiert werden. Durch diese und weitere Automatisierungen soll die menschliche Interaktion möglichst reduziert werden. Dadurch soll Zeit gespart werden und der Prozess zur Freischaltung einer Firewallregel effizienter durchgeführt werden können. Dafür wurde ein Programm implementiert, welches als Studie dienen und ein Machbarkeitsbeweis darstellen soll.
Das Ziel dieser Forschungsarbeit ist es herauszufinden, ob IoT-Devices automatisiert auf Sicherheitsschwachstellen getestet werden können. Da IoT-Devices über das Internet permant verfügbar sind, ist ihre Sicherheit von großer Bedeutung. Ein Angriff kann von überall auf der Welt durchgeführt werden. Die Sicherheit der IoT-Devices zu überprüfen ist nicht einfach, da nicht jeder Internetprotokolle analysieren kann. Daher wäre es von Vorteil diese Überprüfung zu automatisieren und für jeden zugänglich zu machen. Um die Forschungsfrage zu beantworten, wurde die Kommunikation einer nicht gepatcheten IoT-Kamera analysiert. Die Daten der IoT-Kamera wurden erst mitgeschnitten, dann analysiert und zum Schluss die Analyse mittels eines Scripts zu automatisieren. Die Ergebnisse der Analyses zeigen, dass die getestete IoT-Kamera sehr bedenklich bezüglich ihrer Sicherheit ist. Die Analyse der IoT-Kamera lies sich automatisieren und anhand einer weiter IoT-Kamera evaluieren. Angriffe jedoch müssen für jede IoT-Kamera individuell generiert werden. Diese Ergebnisse zeigen, dass es noch Bedarf im Berich Sicherheit existiert, vonseiten des Herstellers und des Kunden. Die Sicherheit der IoT-Devices kommt nicht mit dem schnellen technische Fortschritt mit. Somit gibt es viele Sicherheitslücken.
Diese Bachelorarbeit handelt von der Konzeptionierung und Entwicklung eines Datenmanagements von Fahrzeugversuchsdaten. Dabei wird zuerst eine Vorbetrachtung durchgeführt, in der alle Anwendungsfälle und Ausgangsbedingungen analysiert werden. Die Analyse stellt die Grundlage dar auf der das Konzept im nächsten Kapitel basiert. Im Konzept wird der gesamte Prozessablauf des Datenmanagements von Auslösung des Prozesses bis zur Übergabe an den Folgeprozess betrachtet. Dabei werden verschiedene Ausgangsfälle betrachtet und jeweils eine entsprechende Umsetzungsmöglichkeit dargestellt. Mithilfe verschiedener Lösungsansätze wird eine bestmögliche Lösung gefunden. Bei der anschließenden Implementierung wird ein Prototyp erstellt, der das Konzept berücksichtigt. Mithilfe der beschriebenen Testumgebung und der Testfälle wird der Prototyp anschließend getestet.
Diese Arbeit beschreibt eine Anwendung zur Extraktion und Verarbeitung von Ereignisprotokollen unter Microsoft Windows. Sie erfasst hierfür die Konzeption, den Aufbau sowie deren Funktionsweise und geht dabei auch auf die entwickelten Werkzeuge der Anwendung ein. Zielsetzung war die Bereitstellung wenig verbreiteter Werkzeuge für die Ereignisprotokollanalyse, wobei besonderes Augenmerk auf eine Nutzung im Kontext von Incident-Response-Fällen gelegt wurde.
Die Vorliegende Bachelorarbeit befasst sich mit der Bedeutung von Antagonisten in Videospielen. Ausgehend vom narrativen Aspekt dieses Mediums und auch im Hinblick auf Parallelen zu Film und Literatur, wird zunächst das Designen von antagonistischen Charakteren behandelt. Die Formen und Funktionen des Prinzips des Antagonismus werden erläutert. Anschließend steht das konkrete konzeptionelle und visuelle Design von Schurken im Mittelpunkt. Diese Betrachtungen münden schließlich in der Zusammenstellung eines Kriterienkatalogs zur Erstellung von Antagonisten. Dies ist das Ziel dieser Bachelorarbeit. Den Abschluss bildet die Schaffung eines eigenen Antagonisten unter Berücksichtigung der gewonnenen Kriterien.
Die vorliegende Arbeit befasst sich mit dem Cybercrime-Phänomen Phishing. Durch die Analyse von echten Delikten im Bereich des Phishings wird betrachtet, inwieweit das Phänomen durch das Strafgesetzbuch erfasst wird. Dafür wird sich an Paragrafen orientiert, die aus der Cybercrime-Konvention hervorgegangen sind, beziehungsweise durch diese geändert wurden und dem Bereich Cybercrime im engeren Sinn zugeordnet werden können. Neben einer Definition des Begriffes Cybercrime werden eine begriffliche Einordnung des Phänomens Phishing vorgenommen und die Grundzüge dieses aufgezeigt. Anschließend wird mithilfe der Delikte erörtert, welche Tatbestandsmerkmale der einzelnen Paragrafen sich bei den Delikten detektieren lassen und inwieweit die Begehungsweise Einfluss auf die detektierbaren Tatbestandsmerkmale hat. Bei der Erörterung wird auch auf den Begriff Daten eingegangen und welche Definition diesem innerhalb der betrachten Paragrafen zugrunde liegt.
Ziel dieser Arbeit ist die Entwicklung eines Modells, das über einen mehrstufigen Angriffsprozess das Passwort eines spezifischen Benutzers unabhängig von der Stärke des Passworts rekonstruiert. Der Fokus des Modells liegt auf dem benutzerspezifischen Angriff und dessen Präprozessor. Dieser soll unter Berücksichtigung der bisherigen Design- und Konstruktionsprinzipien des Benutzers sowie unter Einbeziehung seiner persönlichen Informationen die wahrscheinlichsten Passwort-Kandidaten generieren.
Das Ziel dieser Masterarbeit ist die Evaluierung des Realtime Multi-Person 2D Pose Estimation Frameworks OpenPose. Dazu wird die Forschungsfrage gestellt, bis zu welcher Pixelgröße ein Mensch allgemein von dem System mit einer Sicherheit von über 50% richtig detektiert und dargestellt wird. Um die Forschungsfrage zu beantworten ist eine Studie mit sieben Probanden durchgeführt wurden. Aus der Datenerhebung geht hervor, dass der gesuchte Confidence Value zwischen 110px und 150px Körpergröße in von Menschen digitalen Bildern erreicht wird.
In der vorliegenden Arbeit wird die Papillarliniendicke anhand eines neu erstellten Programmes bestimmt und analysiert. Die dafür entwickelte Methode und ihre Grundlagen werden gesondert erklärt und evaluiert.
Bei der Überprüfung des Merkmals auf geschlechtsspezifische Unterschiede kann eine signifikante Abweichung der Verteilungen beobachtet werden. Weiterhin wird ein Regressionsmodell anhand der extrahierten Merkmale trainiert und ausgewertet.
Diese Arbeit beschäftigt sich mit der „DIN ISO 11731:2017 Wasserbeschaffenheit – Zählung von Legionellen“. Die darin vorgegeben Methoden wurden auf reale Trink-, Bade-, Kühl- und Abwasserproben angewendet. Die Ergebnisse wurden mit denen nach der Empfehlung des Umweltbundesamtes zur Systemischen Untersuchung von Trinkwasser-Installationen auf Legionellen nach Trinkwasserverordnung, sowie aktuell bei der Südsachsen Wasser GmbH angewendeten Verfahren verglichen.
In dieser Arbeit wird ein Verfahren zur ionenchromatographischen Bestimmung von Perchlorat entwickelt. Dabei wird die Trennsäule Dionex IonPac AS20 verwendet. Mittels Kalibrierung konnte eine Methode zum Nachweis von Perchlorat in einem Konzentrationsbereich von 2 μg/l – 50 μg/l mit einer Nachweisgrenze von 0,38 μg/l entwickelt werden. Anschließend wurde der Einfluss von den Ionen Sulfat, Nitrat und Chlorid auf die Bestimmung von Perchlorat sowie die Anwendung des Verfahrens auf reale Proben getestet. Dabei wurde festgestellt, dass bei höheren Konzentrationen ab ca. 200 mg/l der Nebenionen die Wiederfindungsrate stark abnimmt. Eine Vorbehandlung mit Silber – und Bariumfilter wirkt dem jedoch entgegen. In realen Proben konnte dank Vorbehandlung Perchlorat ohne Probleme nachgewiesen werden. Lediglich in Abwasserproben ist eine Verunreinigung enthalten, welche die Bestimmung hindert. In realen Proben aus der Umgebung Leipzig und Chemnitz konnte anschließend vor allem in Badebeckenwasser Perchlorat in höheren Konzentrationen bis zu 40,80 μg/l nachgewiesen werden.